banner
ニュース センター
24 時間オンライン サービスでいつでもサポートを受けられます。

AI幻覚を完全に除去できるか研究者らは言えない:「不一致」使用の「固有」部分

Dec 20, 2023

Clearbrief の CEO 兼創設者である元訴訟人のジャクリーン シェーファー氏は、AI は法廷で頻繁に使用されており、生成 AI によって作成された引用や法廷文書を事実確認するために Clearbrief を作成したと述べました。

研究者の中には、人工知能 (AI) モデルから幻覚を取り除くことはできないと確信する人もいますが、これは大規模に一般に受け入れられるためには依然として大きなハードルとなっています。

量子暗号会社アメリカン・バイナリーの最高経営責任者(CEO)ケビン・ケイン氏は、「機械学習がどのようにして結論に至るのかというブラックボックス的な性質の多くは、現時点では理解できていない」とFOXニュースデジタルに語った。 「AI の道を歩む現在のアプローチでは、それをどのように行うかは明らかではありません。AI の動作方法を大幅に変更する必要があります。」

AI が生成する不正確な情報や無意味なテキストの名前である幻覚は、ChatGPT などの大規模な言語モデルが公に公開されているほぼ全体にわたって悩まされてきました。

AI 批判者たちは、さまざまなプラットフォームの有用性を疑う理由としてすぐに幻覚に焦点を当て、幻覚が誤った情報によるすでに深刻な問題を悪化させる可能性があると主張しました。

人気のAI搭載プログラムが法廷を混乱に陥れていると専門家が主張

2023 年 5 月 4 日のイラスト (ロイター/Dado Ruvic/イラスト)

研究者らは、幻覚を除去し、この「既知の問題」を改善する取り組みを迅速に進めたが、「ユースケース」、つまりAIがいくつかのトピックに関して問題を抱えている可能性があるという事実により、この「データ処理の問題」は決して消えることはないかもしれない、と主任分析のクリストファー・アレクサンダー氏は述べた。パイオニア開発グループ役員。

「すべての問題を解決できると言うのは、決して解決できないと言うのと同じで、ばかげていると思います」とアレクサンダー氏はFOXニュースデジタルに語った。 「真実はその間のどこかにあると思いますが、それはケースによって大きく異なると思います。

人工知能 (AI) とは何ですか?

「そして、問題を文書化できるのであれば、修正できないとは信じがたいです。」

言語学教授でワシントン大学計算言語学研究所所長のエミリー・ベンダー氏はAP通信に対し、幻覚は「技術と提案された使用例」の間の「本質的な」不一致から生じるため、「修復不可能」である可能性があると語った。

Alexander 氏によると、研究者が AI を複数のユースケースや状況に適用しようとしているために、この不一致が存在します。

ChatGPT は、インターネット上で入手可能な情報からの大量のデータ セットを分析することによって機能する大規模な言語モデルです。 (レオン・ニール/ゲッティイメージズ)

特定の問題に取り組むための AI を開発する際、Alexander のチームは、完全なモデルを構築するのではなく、既存のモデルを再利用してタスクを達成することを検討しました。 同氏は、チームはこのプログラムが理想的な結果を生み出さないことを知っていたと主張したが、結果としてパフォーマンスが制限されるという理解を受け入れずに、多くのグループが同様のアプローチをとっているのではないかと疑った。

「[研究者たちは]何かの断片を組み合わせましたが、それは必ずしもそうするために作られたわけではありません。そして今、AIが何をするかというと、その状況に置かれているのでしょうか?彼らはおそらく完全にはやっていません」とアレクサンダー氏は説明し、研究者たちが将来的には、特定のタスクや業界向けに AI を改良したり、モデルをカスタム構築したりする可能性があります。 「したがって、それが普遍的であるとは思いません。非常にケースバイケースだと思います。」

チャットPTとは何ですか?

ケイン氏は、研究者がAIの背後にあるアルゴリズムがどのように機能するかを完全には理解していないため、幻覚を取り除くという目標を設定することは「危険」だと述べたが、その原因の一部は、AIが全体的にどのように機能するかについての理解の欠陥に帰着するという。

「機械学習の多くは、私たちのイメージのようなものです」とケイン氏は説明した。 「私たちがお互いに話すのと同じように、この製品も私たちに話しかけてほしいと思っています。

携帯電話の画面とマイクロチップに表示された Nvidia ロゴ。このイラストでは、2023 年 7 月 19 日、ポーランド、クラクフで撮影されました。(Jakub Porzycki/NurPhoto via Getty Images)

「私たちは通常、人間が知能を理解する方法を模倣するようなシステムを設計しようとしますよね?」 彼が追加した。 「人間もブラックボックスであり、同様の現象がいくつかあります。そこで問題は、人工知能を開発したいということは、人間のようになりたいということです。