ディープラーニング・リファレンス・スタック機能の拡張

同カテゴリーの次の記事

AI により拡張された医療用画像処理で放射線科医のワークフローを改善

この記事は、インテル® デベロッパー・ゾーンに公開されている「Extending Deep Learning Reference Stack Capabilities」の日本語参考訳です。


インテルは、ディープラーニング・ベースのワークロード向けのアプリケーションの開発とデプロイに関する課題を理解しています。これらの課題に対応するため、インテル® Xeon® スケーラブル・プロセッサー向けに最適化された、ハイパフォーマンスでオープンソースの統合型ディープラーニング・リファレンス・スタック (英語) を開発し、2018 年 12 月に開催されたインテル® Architecture Day (英語) で発表 (英語) しました。

以降、インテルは AI 開発者向けにスタックのデプロイを改善する方法を模索し続けています。最新版のディープラーニング・リファレンス・スタックは、ユーザーからのフィードバックに応え、新しいユースケースとワークロードをサポートしています。例えば、ハイブリッド・クラウド・インフラストラクチャー・プロバイダーの One Convergence, Inc. (英語) では、データ・サイエンティストが広範な IT の専門知識を必要とせずに、本来の作業に集中できるよう DKube ディープラーニング・プラットフォームを提供しています。

One Convergence 社の CEO である Prasad Vellanki 氏は次のように述べています。
「DKube は、直感的なワークフローと UI を備えたプロダクション品質のプラットフォームを提供し、多種多様な GPU と CPU サーバーの組み合わせを可能にし、シームレスなスケールアウト (水平スケール) をサポートしながら、優れたコストでパフォーマンスを向上します。インテルのディープラーニング・リファレンス・スタックにより、DKube プラットフォームはデータサイエンス操作のパフォーマンスを最大限に引き出すことができます。」

ディープラーニング・リファレンス・スタックの最初のリリースと同様に、最新バージョンもクラウドネイティブ環境向けに開発され、高度にチューニングされています。最新バージョンでは、開発者は、ディープラーニング・コンポーネント特有の複雑さを軽減することで、ディープラーニング・ワークロードのプロトタイプを素早く作成し、プロダクション環境にデプロイできます。また、開発者がソリューションをカスタマイズできるよう柔軟性を維持しつつ、次の拡張が提供されています。

  • PyTorch* (v1.0): プロトタイプの作成とプロダクション・レベルのマシンラーニング・ワークロードを処理するオープンソースのディープラーニング・フレームワークで、柔軟性とスピードを最大化します。
  • Horovod: 分散ディープラーニングを容易にするオープンソースのトレーニング・フレームワークです。Horovod の中核は MPI (メッセージ・パッシング・インターフェイス) をベースにしており、特定の畳み込みニューラル・ネットワーク (CNN) ベースのワークロードで効率良くスケーリングします。
  • Jupyter* Notebooks: データのクリーニングと変換、数値シミュレーション、統計モデリング、マシンラーニングなどを行うスケーラブルな開発環境を提供し、データ・サイエンティストや開発者から支持されている業界標準の Web アプリケーションです。

高まる計算パフォーマンスに対する要求を受けて、最新バージョンではインテル® プラットフォームのインテル® アドバンスト・ベクトル・エクステンション 512 (インテル® AVX-512) サポートが追加されています。インテル® AVX-512 は、科学シミュレーション、金融解析、人工知能 (AI)、ディープラーニング、3D モデリングと解析、画像とオーディオ/ビデオ処理、暗号化、データ圧縮などのワークロードのパフォーマンスを高速化する命令を備えています。

詳細は、Clear Linux* スタック (英語) を参照してください。ディープラーニング・リファレンス・スタック・コードをダウンロードしたり、フィードバックを送ったり、Clear Linux* コミュニティーに参加できます。開発者メーリングリスト (https://lists.clearlinux.org/mailman/listinfo/dev) に登録すると、最新情報を受け取ることができます。また、IRC で #clearlinux チャネルをフォローしてください。

コミュニティーの皆さんが、ディープラーニング・リファレンス・スタックを使用して、どのようにディープラーニングを新規または既存のアプリケーションに組込むのか楽しみにしています。さらなる機能向上のため、皆さんのアイデアをお寄せください。

コンパイラーの最適化に関する詳細は、最適化に関する注意事項を参照してください。

関連記事