開発ツールとリソースは、AI ソリューションの準備、構築、展開、および拡張に役立ちます。
AI の利用とワークロードは、視覚、音声、推薦システムなどに拡大そして多様化し続けています。インテルは、AI に最適化されたハードウェアのヘテロジニアス・ポートフォリオと組み合わせて、比類ない開発および導入エコシステムを提供します。インテルの目標は、エッジからクラウドへの開発者の移行を可能な限りシームレスに加速することです。インテルの AI 開発ソフトウェア・ポートフォリオには、AI ワークフローのあらゆる段階で人気のあるフレームワークとツールに対する高度な最適化が含まれています。 |
PyTorch*デフォルトの PyTorch* フレームワークおよび PyTorch* 向けインテル® エクステンションのインテルによる最適化を使用して、研究から実稼働までモデルを開発/展開します。 |
TensorFlow*アップストリームのデフォルト最適化と最新のパフォーマンス向上による拡張機能により、TensorFlow* のトレーニングと推論を高速化します。 |
Scikit-learn*わずか 2 行のコードを変更することで、従来のマシンラーニング scikit-learn* ワークフローを高速化します。 |
Modin*コードを 1 行変更するだけで、pandas のワークフローをスケールできます。 |
AI ツールPython* ベースのツールとフレームワークを使用して、エンドツーエンドのデータサイエンスとマシンラーニングのパイプラインを高速化します。 |
インテル® ディストリビューションの OpenVINO™ ツールキットハイパフォーマンス推論アプリケーションをデバイスからクラウドに展開します。 |
インテル® ディストリビューションの Python*AI の開発と展開で、ネイティブに近いコードのパフォーマンスと並列処理を実現します。 |
インテル® ニューラル・コンプレッサー自動化されたモデル圧縮により、精度を犠牲にすることなく AI 推論を高速化します。 |
次のイメージからさらに詳しく知りたい製品を選択してください。リンク先は英語です。