AI

AI

JAX と OpenXLA の実行プロセスと基本ロジック – パート 2

この記事は、The Parallel Universe Magazine 58 号に掲載されている「JAX and OpenXLA Part 2: Run Process and Underlying Logic」の日本語参考訳です。原文は...
AI

Open Platform for Enterprise AI の概要

この記事は、インテルのウェブサイトで公開されている「Introducing The Open Platform for Enterprise AI」の日本語参考訳です。原文は更新される可能性があります。原文と翻訳文の内容が異なる場合は原文を...
AI

JAX と OpenXLA の実行プロセスと基本ロジック – パート 1

この記事は、The Parallel Universe Magazine 58 号に掲載されている「JAX and OpenXLA* Part 1: Run Process and Underlying Logic」の日本語参考訳です。原文...
AI

インテル® AMX を使用した PyTorch のトレーニングと推論の高速化

この記事は、インテルのウェブサイトで公開されている「Accelerate PyTorch Training and Inference using Intel® AMX」の日本語参考訳です。原文は更新される可能性があります。原文と翻訳文の内...
AI

人工知能 (AI) アプリケーションのプロファイル

この記事は、インテル® デベロッパー・ゾーンに公開されている「Intel® VTune™ Profiler Performance Analysis Cookbook」の「Profiling AI Applications」の日本語参考訳で...
AI

Windows CPU 上で torch.compile を使用して PyTorch 推論を高速化する

この記事は、インテルのウェブサイトで公開されている「Accelerate PyTorch* Inference with torch.compile on Windows* CPU」の日本語参考訳です。原文は更新される可能性があります。原文...
AI

PyTorch と Open Platform for Enterprise AI (OPEA) を使用して AI アバター・チャットボットを作成する
~インテル® Xeon® スケーラブル・プロセッサーとインテル® Gaudi® Al アクセラレーターで構築および展開する~

この記事は、インテルのウェブサイトで公開されている「Create an AI Avatar Talking Bot with PyTorch* and Open Platform for Enterprise AI (OPEA)」の日本語参...
AI

インテル® Tiber™ AI クラウドの Stable Diffusion ワークショップで生成 AI を使ってテキストから画像を作成する

この記事は、インテルのブログで公開されている「Try Out Text-to-Image GenAI with a Stable Diffusion Workshop on the Intel® Tiber™ Developer Cloud...
AI

インテル® Core™ Ultra プロセッサー 200V シリーズでの大規模言語モデルのプロファイル

この記事は、インテルのウェブサイトに公開されている「Intel® VTune™ Profiler Performance Analysis Cookbook」の「Profiling Large Language Models on Inte...
AI

Prediction Guard がインテル® Gaudi® 2 AI アクセラレーターで信頼できる AI を実現した方法

この記事は、インテルのブログで公開されている「How Prediction Guard Delivers Trustworthy AI on Intel® Gaudi® 2 AI Accelerators」の日本語参考訳です。原文は更新され...
AI

インテル® Tiber™ AI クラウドで AI に PyTorch* と TensorFlow* を活用する

この記事は、インテルのブログで公開されている「Harness PyTorch* and TensorFlow* for AI on Intel® Tiber™ Developer Cloud」の日本語参考訳です。原文は更新される可能性があり...
AI

インテル® Tiber™ AI クラウドで PyTorch* 2.4 を使って AI ワークロードを高速化

この記事は、インテルのブログで公開されている「Accelerate AI Workloads with a PyTorch* 2.4 Workshop on the Intel® Tiber™ Developer Clouds」の日本語参考...
AI

パート 2: CUDA* から SYCL* と oneAPI へ AI コードを移行

この記事は 2024年8月13日に Codeplay のウェブサイトで公開された「Part Two - Porting AI codes from CUDA to SYCL and oneAPI, one llama at a time」の...
AI

llama.cpp を使用したインテル® GPU 上での LLM 実行

この記事は、The Parallel Universe Magazine 57 号に掲載されている「Run LLMs on Intel® GPUs Using llama.cpp」の日本語参考訳です。原文は更新される可能性があります。原文と...
AI

Transformers による GGUF モデルの高速化

この記事は、The Parallel Universe Magazine 57 号に掲載されている「Accelerating GGUF Models with Transformers」の日本語参考訳です。原文は更新される可能性があります。...