堀のある AI から責任ある AI へ

AI

この記事は、The Parallel Universe Magazine 53 号に掲載されている「The Moat Is Trust or Maybe Just Responsible AI」の日本語参考訳です。原文は更新される可能性があります。原文と翻訳文の内容が異なる場合は原文を優先してください。


parallel_v53_03

OpenAI の ChatGPT* は、記録的な成長を遂げ、生成 AI の世界に熱狂を引き起こしました。なんと、最初の 1 週間で 100 万人以上のユーザーを魅了しました。Google、Microsoft、Meta (旧称: Facebook) などの大手テクノロジー企業が大規模言語モデル (LLM) レースに参加する一方で、小規模なスタートアップ企業も前進を続けています。競争上の優位性のために必要な秘密性と安全のために必要な透明性のバランスを取ることがますます大きな問題となっています。一部の LLM とは異なり、OpenAI はトレーニング・セットや GPT-4* アーキテクチャーの詳細を公開していないため、一部から批判を浴びています。

最近流出した Google のメモ (英語) では、Google と OpenAI に LLM テクノロジーにおける競争上の優位性、つまり「堀」が欠けていることへの懸念が強調されています。このメモでは、オープンソースの代替品がいかに小さく、速く、安価で、カスタマイズ可能であるかが強調されていました (この点については、本号の「独自のカスタム・チャットボットの作成」で説明します)。

ChatGPT* のような LLM は優れた機能を実証していますが、生成 AI モデルの出現によるマイナス面についての懸念も生じています。大規模モデルと小規模モデル、オープンシステムとクローズドシステムに関する継続的な議論を行うことは重要ですが、パフォーマンスと精度だけが重要ではないことを認識する必要があります。公平性、説明可能性、持続可能性、プライバシーなどの要素も考慮する必要があります。責任ある AI の実践を守ることが、AI の社会的な価値を最終的に決定します。おそらく、AI アプリケーションが倫理的ベスト・プラクティスに準拠することを義務付ける多くの規制が今後導入されるでしょう。今年後半に可決予定の次期 EU 人工知能法 (英語) が AI システムを管理する世界初の規制となる見込みです。この法律は、透明性とリスク管理に関するガイドラインを導入することにより、AI に対して人間中心の倫理的なアプローチを促進することを目的としています。

生成 AI モデルはインターネット上で利用可能な膨大な量のデータから学習しますが、これらのデータには社会に存在するバイアス (偏見や先入観など) も含まれており、これらのバイアスを意図せず永続させたり増幅させたりする可能性があります。LLM が誤った情報、フィッシング・メール、ソーシャル・エンジニアリング攻撃などを生成または拡散するために操作されることも考えられます。また、悪意のある攻撃者が意図的に偏った情報や虚偽の情報を使用してモデルをトレーニングすることで、誤解を招くコンテンツが大規模に拡散する可能性もあります。このようなモデルを使用すると、説得力のあるディープフェイクのビデオやオーディオコンテンツを作成できます。例えば、最近 AI が生成したアメリカ国防総省で爆発という偽画像 (英語) が急速に広まりました。このようなフェイクニュースは、今後の米国の選挙に対する大きな脅威として浮上しています。この記事で述べられているブルッキングス研究所テクノロジー・イノベーション・センターのシニアフェローである Darrell West 氏の懸念は現実的なものです。

LLM はしばしば「幻覚」を引き起こし、不正確な情報を生成することがあります。これは、モデルが診断や治療の決定に影響を与え、患者に害を及ぼす可能性があるヘルスケアなどの業界では特に深刻な問題となります。AI が幻覚を引き起こすことは既知の現象であるにもかかわらず、LLM を使用し続け、LLM の情報を疑うことなく受け入れる人は後を絶ちません。最近の例では、弁護士が裁判の準備書面として提出した判例の要約が存在しなかったことから、調査に ChatGPT* を使用していたことが判明しました。これらの架空の判例は ChatGPT* により作成されたものでした (英語)。

タイトルとURLをコピーしました