インテル® oneMKL
-
Fortran、oneMKL、OpenMP*を使用して LU 因数分解を高速化
この記事は、The Parallel Universe Magazine 51 号に掲載されている「Accelerate Lower Upper (LU) Factorization Using Fortran, one…
続きを読む -
oneAPI でアーキテクチャーの壁を越える: ヘテロジニアス・コンピューティングを容易にするライブラリー
この記事は、インテル® デベロッパー・ゾーンに公開されている「Breaking Cross-Architecture Barriers with oneAPI: Libraries for Easy Heterogene…
続きを読む -
BRODA 社の SOBOL 擬似乱数ジェネレーターによる正確でハイパフォーマンスなシミュレーション
この記事は、Intel Tech.Decoded で公開されている「Toward Accurate and Highly Performant Simulations with BRODA® SOBOL Quasi-ra…
続きを読む -
オープンソースの新しい oneAPI 数学ライブラリー・インターフェイス
この記事は、Tech.Decoded で公開されている「Introducing Additional oneAPI Open Source Math Library Interfaces」の日本語参考訳です。 oneAP…
続きを読む -
ローレンス・バークレー国立研究所は oneMKL によりヘテロジニアス・コンピューティングを推進
この記事は oneAPI Blog に公開されている「Lawrence Berkeley National Laboratory drives heterogenous computing with oneAPI’s M…
続きを読む -
Demetics 社がインテル® SGX で AI ベースの医療イノベーションを保護
この記事は、インテル® デベロッパー・ゾーンに公開されている「Demetics Protects AI-Based Medical Innovation with Intel SGX」の日本語参考訳です。 最新情報: D…
続きを読む -
インテル® oneAPI マス・カーネル・ライブラリー (インテル® oneMKL) 2021.1 リリースノート
この記事は、インテル® デベロッパー・ゾーンに公開されている「Intel® oneAPI Math Kernel Library (oneMKL) Release Notes」の日本語参考訳です。 この記事の PDF 版…
続きを読む -
インテル® oneAPI マス・カーネル・ライブラリー (インテル® oneMKL) 導入ガイド
この記事は、インテル® デベロッパー・ゾーンに公開されている「Get Started with Intel® oneAPI Math Kernel Library」の日本語参考訳です。 この記事の PDF 版はこちらから…
続きを読む -
マルチスレッド開発ガイド: 4.2 インテル® マス・カーネル・ライブラリー (インテル® MKL) での並列処理
この記事は、インテル® ソフトウェア・ネットワークに掲載されている「Parallelism in the Intel® Math Kernel Library」 (https://software.intel.com/e…
続きを読む -
マルチスレッド開発ガイド: 1.8 アセンブリーや組込み関数を利用することなく AVX を使用するには
この記事は、インテル® ソフトウェア・ネットワークに掲載されている「Using AVX Without Writing AVX」の日本語参考訳です。
続きを読む -
インテル® MKL 2020 ベクトル統計乱数ジェネレーターのパフォーマンス・データ
この記事は、インテル® デベロッパー・ゾーンに公開されている「Intel® MKL 2020 Vector Statistics Random Number Generator Performance Data」の日本語…
続きを読む -
インテル® oneAPI マス・カーネル・ライブラリー (インテル® oneAPI MKL) データ並列 C++ 使用モデル (モンテカルロ・シミュレーションの例)
この記事は、インテル® デベロッパー・ゾーンに公開されている「Intel® oneAPI Math Kernel Library Data Parallel C++ Usage Models (on the Exampl…
続きを読む -
Amazon Web Services* とインテルが協力して Amazon* EC2 CPU インスタンス上で最適化されたディープラーニング・フレームワークを実現
この記事は、インテル® AI Blog に公開されている「Amazon Web Services Works with Intel to Enable Optimized Deep Learning Frameworks…
続きを読む -
第 2 世代インテル® Xeon® スケーラブル・プロセッサーでインテル® Deep Learning Boost を使用して TensorFlow* の推論を高速化
この記事は、インテル® AI Blog に公開されている「Accelerating TensorFlow* Inference with Intel® Deep Learning Boost on 2nd Gen Int…
続きを読む -
Baidu* の PaddlePaddle における最適化されたディープ・アテンション・マッチング・モデル
この記事は、インテル® AI Blog に公開されている「Optimized NLP/Deep Attention Matching Model in Baidu’s PaddlePaddle」の日本語参考訳です。 この…
続きを読む