インテル® CPU による高速 AI の新時代の到来

インテルの新しい内蔵 AI アクセラレーション・エンジンを活用

AI PC Garden   コア技術   AI PC 開発   ドキュメントとトレーニング   ヘルプ


DL や AI を加速するテクノロジー

  • インテル® Xeon® スケーラブル・プロセッサーでサポートされていたインテル® AMX 命令がインテル® Core™ Ultra プロセッサーでも利用できるようになりました。
  • インテル® Core™ Ultra プロセッサーは、臨場感やリアリティーあふれるゲーム体験やコンテンツ作成向けにインテル® Arc™ GPU を搭載するモデルもあります。

インテル® DL ブースト (int8)
インテル® AMX (int8 / bf16)
インテル® AI ブースト (int8 / bf16)

どのように動作するか

  • インテル® AMX は、ディープラーニング・トレーニングと CPU 上の推論のパフォーマンスを向上させる新しい内蔵アクセラレーターであり、自然言語処理、推奨システム、イメージ認識などのワークロードに最適です。
  • インテル® プロセッサーへの最初の実装は、インテル® Xeon® スケーラブル・プロフェッサー・ファミリーで行われましたが、2023 年に発表されたインテル® Core™ Ultra プロセッサーに搭載された NPU (ニューラル・プロセッシング・ユニット) でも AI アクセラレーション命令を利用できるようになりました。

すべてのプロセッサーに内蔵された AI アクセラレーション

  • すべてのインテル® Core™ Ultra プロセッサーに内蔵された新しい 3D パフォーマンス・ハイブリッド・アーキテクチャーは、CPU、GPU、NPU を単一のパッケージに統合しています。
  • リアルタイムの言語翻訳、自動化された推論、強化されたゲーム環境など、エキサイティングな新しい AI 機能を楽しむことができるようになりました。そして 300 を超える AI で加速された ISV 機能により、お気に入りの AI 加速型のソフトウェアはインテル製品で確実に最高性能を発揮します。

インテル® Core™ Ultra プロセッサー・ファミリー

インテル® AMX とインテル® XMX を使用したプログラミング

  • ユーザーは、ディープラーニング・フレームワーク、専用ライブラリー、カスタム SYCL* カーネルから低水準の組込み関数まで、さまざまなレベルでインテル® XMX を操作できます。
  • これらの拡張機能を利用するには、インテル® oneAPI ベース・ツールキット 2024.0 が必要です。

インテル® AI PC Garden ~ AI が未来を創る~

インテルは、AI PC を先導する新しいコミュニティー「インテル® AI PC Garden」を開設します。

  • AI アプリケーションの開発者や、AI をビジネスに戦略的に活かしていこうと考えているスタートアップ企業に、OpenVINO™ ツールキットを使用した最新テクノロジーやベスト・プラクティスを学び合う場を提供していきます。
  • 知識の共有の促進やテクニカルな質問、そしてディスカッションの場として、専用の Discord を立ち上げておりますので、興味ある方はぜひアクセスしてください。



インテル® AI PC Garden の Discord はこちら

インテル® AMX とインテル® XMX

インテル® AMX は、専用のハードウェア・サポートを提供することにより行列演算を高速化します。このテクノロジーは、ディープラーニング推論など、行列計算に大きく依存するアプリケーションに特に有益です。インテル® AMX は、第 4 世代インテル® Xeon® プロセッサーで最初に導入され、新しい第 5 世代インテル® Xeon® プロセッサーでさらに高速化されました。インテル® AMX の詳細は、こちらを参照してください。

人工知能 (AI) が注目されるとともに、パフォーマンスを向上させる方法として、低精度データ型の導入と、これらのデータ型のハードウェア・サポートが求められています。低精度モデルは計算が速く、メモリー・フットプリントが小さくなります。

この理由により、AI トレーニングと 32 ビット以上のデータ型の推論には低精度のデータ型が推奨されます。これらの低精度データ型を最適化およびサポートするには、ハードウェアに特別な機能と命令が必要です。

インテル® AMX

インテルは、これらをインテル® CPU とインテル® GPU でそれぞれ、インテル® アドバンスト・マトリクス・エクステンション (インテル® AMX) およびインテル® Xe マトリクス・エクステンション (インテル® XMX) として提供しています。

最も使用されている 16 ビット形式は、16 ビット IEEE 浮動小数点数 (fp16) 、bfloat16、16 ビット整数 (int16) であり、最も使用されている 8 ビット形式は、8 ビット整数 (int8) と 8 ビット Microsoft* 浮動小数点数 (ms-fp8) です。

インテル® XMX

インテル® AMX (内積累算シストリック (Dot Product Accumulate Systolic、DPAS) とも呼ばれる) は、内積の実行を専門とし、2D シストリック・アレイに命令を蓄積します。並列コンピューター・アーキテクチャーのシストリック・アレイは、密結合のデータ処理ユニットのホモジニアス・ネットワークです。各ユニットは、上流のユニットから受け取ったデータの関数として部分的な結果を計算し、その結果を保存して、下流のユニットに渡します。インテル® XMX は、ハードウェア生成に応じて、int8、fp16、bfloat16、tf32 などのさまざまなデータ型をサポートしています。

インテル® XMX は、インテル® データセンター GPU マックス・シリーズまたはインテル® データセンター GPU フレックス・シリーズの一部です。インテル® データセンター GPU マックス・シリーズのインテル® Xe HPC 2 スタックは、図 3 では Xe として省略されています。スタックとは、タイルに代わる用語です。インテル® データセンター GPU マックス・シリーズは 8 つのインテル® Xe スライスで構成されます。各スライスには 16 個のインテル® Xe コアが含まれています。各コアには 8 つのベクトルエンジンと 8 つの行列エンジンが含まれています。

インテル® AMX とインテル® XMX を呼び出すプログラミング・パラダイムは、ハードウェアにより異なります。


AI PC 開発: すべてのプロセッサーにおける AI アクセラレーション

AI を中心としたハードウェアとソフトウェアの進歩により、PC 上で AI 処理が可能になりました。PC での初期の AI 開発からクラウドベースのトレーニング、エッジへの展開までプロジェクトをシームレスに移行できます。AI ワークロードには何が必要であるか、そしてすぐに開始できるものは何かを学びましょう。

  • GPU はディープ・ニューラルネットワークのトレーニングなど、データ集約型の計算 AI タスクを並列に処理することでスループットを向上できます。
  • CPU は、逐次データ、複雑な分岐、または低いレイテンシーの推論を必要とする AI やマシンラーニング学習タスクで優れたパフォーマンスを発揮します。
  • ニューラル・プロセシング・ユニット (NPU) は、電力効率の高い AI 推論向けに持続的なワークロードを処理することに向いています。

インテル® Core™ Ultra プロセッサーは、3D パフォーマンスによるハイブリッド・アーキテクチャーを介して CPU、GPU、NPU を高帯域幅のメモリーとキャッシュを組み合わせることで、PC 上の AI を高速化します。

さらに詳しく




インテルが提供する AI ツール

ヘテロジニアス処理エンジンを効率良く実行するには、ソフトウェアがハードウェア・アーキテクチャーと命令セットを利用する必要があります。インテルの AI ツールは、TensorFlow*、PyTorch*、scikit-learn*、XGBoost、Modin* などの AI ツールとフレームワークの最適化されたバージョンを提供します。

これらは、CPU、GPU、または両方を最適化する oneAPI ライブラリーを利用しています。これにより、既存のコードとフレームワークを利用して PC 上で AI を開発し、クラウドにシームレスに移行できます。

さらに詳しく


OpenVINO™ ツールキット

このツールキットは、ハードウェアのカスタム化オプションと複数のオペレーティング・システムのサポートを必要とする開発者向けのツールです。

ハイパフォーマンス・コンピューター・ビジョンとビジョン・アプリケーションのディープラーニング推論の開発を加速します。インテルの CPU、GPU、NPU 全体で柔軟性のある AI モデルの展開を可能にします。このディストリビューションには、効率良くデプロイするためにモデルを最適化するツールと、モデルを提供するハイパフォーマンス・システムが含まれています。

さらに詳しく


PC 上で AI を開発して展開

インテルは Microsoft 社と協力して、インテル® プロセッサー向けの AI PC ツールとフレームワークを高速化します。ONNX Runtime*、DirectML、およびオープンソースの Olive モデル最適化ツールを使用して開発および展開します。これらはすべてインテルの CPU および GPU 用に最適化されています。

さらに詳しく

AI コースと認定

インテルは、開発者、データ科学者、学生、教師向けにトレーニングとリソースを提供しています。個人のペースで勧めることができるコースを受講したり、ライブ・ワークショップに参加したり、一般的な AI からディープラーニングや推論までのトピックに関連するウェビナーを視聴することもできます。

さらに詳しく

AI PC アクセラレーション・プログラム

AI PC アクセラレーション・プログラムは、独立系ハードウェア・ベンダー (IHV) と独立系ソフトウェア・ベンダー (ISV) を、AI ツールチェーン、トレーニング、共同開発、ソフトウェア最適化、ハードウェア、設計リソース、技術的専門知識、共同マーケティング、販売など、インテルのリソースと結びつけます。

さらに詳しく

AI とマシンラーニング向けツールとリソース

インテルの AI ソフトウェアおよびハードウェア製品を詳しく理解し、エコシステムの製品を探してください。最新のブログの投稿やイベント情報を入手し、コミュニティー・フォーラムのサポートを得てください。

さらに詳しく

AI リソースキット

業界およびアプリケーション固有のオープンソース AI リファレンス・キットを使用して、プロジェクトを迅速に開始できます。インテルがデータ科学者や開発者に提供する AI アプリケーション・ツールを基に構築されたダウンロード可能な AI リファレンス・キットは、デジタル革新の推進に役立ちます。

さらに詳しく

ドキュメント

AI PC 開発に役立つ日本語ドキュメントを紹介します。

AI 関連の日本語ドキュメントを表示

OpenVINO™ 関連の日本語ドキュメントを表示

トレーニング

日本語のトレーニングを表示

ヘルプ (フォーラム)

コードに関連するすべての情報を常に把握

サインアップすると、CPU、GPU、FPGA、およびその他のアクセラレーター (スタンドアロンや任意の組み合わせ) に最適化され、優れたコードを作成するのに役立つ最新のトレンド、チュートリアル、ツール、トレーニングなどを受けることができます。