コンピューターも幻覚を起こすことができますが、そのためには薬物を摂取する必要すらありません。
クレジット: ボブ・アルグリーン - インハウスアート
この記事はLifehackerの「AIと共に生きる」シリーズの一部です。AIの現状を調査し、AIがどのように役立つか(そして役に立たないか)を検証し、この革新的な技術が今後どこへ向かうのかを評価します。詳細はこちらをご覧ください。
私は人工知能チャットボット ChatGPT に、AI 幻覚に関するブログ記事の面白い導入文を生成するように依頼しました。その内容は次のとおりです。
想像してみてください。AIシステムがサンドイッチの画像を分析しているのですが、おいしそうなハムとチーズのサンドイッチではなく、ユニコーンに乗って空飛ぶスパゲッティモンスターが映っているのです。そう、皆さん、AIシステムも幻覚を見ることがあるんです!
とにかく皆さん、人工知能の幻覚は確かに現実のものであり、AIが学習データに裏付けられていないような自信に満ちた反応を示すものです。こうした時に非現実的で、しばしば説明のつかない誤りは、Bardのような大規模言語モデルを搭載したボットにも、DALL-E 2のような画像ベースのAIにも見られます。
AIの幻覚は、システムに影響を与えることを意図したデータの意図的な注入の結果である可能性があります。また、画像やテキスト生成器に入力される不正確な「ソースマテリアル」が原因であるとも考えられます。しかし、AIシステムは非常に複雑であるため、一部のエラーの原因は未だ完全に解明されていません(少なくとも、私たちの貧弱な人間の知能では)。幻覚やその他の未知の要因は、イーロン・マスクやスティーブ・ウォズニアックといったテクノロジーリーダーがAI研究の一時停止を呼びかけ、AIが「社会と人類に及ぼす深刻なリスク」を指摘する理由の一つです。
大規模言語モデル(LLM)のエラーを見つける方法
テキストベースのAI幻覚の多くは、「常識」テストに合格しないという特徴があります。AIは人間のようには何も「知らない」ということを認識することが重要です。私たちは根底にある現実を説明するために言語を使用し、言語理解は、書き留められたり体系化されたりしていない膨大な現実の背景知識によって形作られています。AIはこうした知識を一切持ち合わせていません。頼りになるのはテキストベースの言語だけなので、今のところ「常識」を発揮することはできません。AIは、イギリス海峡を徒歩で横断する話について、いかにももっともらしいように自信を持って話しますが、そのアイデア自体が、物理世界の制約(まず第一に、呼吸をする必要があること)を理解している人にとっては全くのナンセンスです。
他の種類のAI幻覚は見分けるのがより困難です。例えば、ChatGPT 3.5に「Lifehackerライターのスティーブン・ジョンソンについて何か教えていただけますか?」と質問したところ、次のような返答がありました。
スティーブン・ジョンソンはLifehacker.comに寄稿しているライターです。テクノロジー、生産性、個人金融など、様々なトピックについて多数の記事を執筆しています。Lifehacker.comで最も人気のある記事には、「Raspberry Piで動くレトロゲーム機の作り方」「Android向け最高のファイル管理アプリ」「たった100ドルで投資を始める方法」などがあります。
いいですね。でも、これらの記事は私が書いたものではありません。それぞれ、Thorin Klosowski、Eric Ravenscraft、Gina Trapaniが書いたものです。簡単な質問なのに、AIは自信満々に事実誤認の回答をしています。AIのトレーニングには「記事の署名をチェックして著者を特定する」といったロジックも含まれているはずですが。
ChatGPTにそれは間違っていると伝え、自分の著者ページを使って自分が書いたものに関する情報を得るように伝えました。すると、次のような返答がありました。
著者ページによると、スティーブン・ジョンソン氏はホームオートメーション、テクノロジー、生産性といったトピックに関する記事を執筆しています。記事の例としては、「Hueライトを映画やゲームと自動的に同期する方法」、「Googleアシスタントの「Your Apps」設定の使い方」、「スマートホームハブの使い始め方」などがあります。
私もそれらの記事を書いていません。
これまでのところどう思いますか?
私が書いた記事が誰の目にもすぐにわかるとは思っていません。そのため、この例では「何かがわかる」、つまりAIが間違っているという明白な兆候はありません。教訓:AIが言うことはすべて事実確認し、AIが提供する情報に頼ってはいけません。AIは常に嘘をつきます。「嘘」という言葉は適切ではないかもしれませんが、嘘には意図が必要です。しかし、その意図が何であれ、論文を書いたり、役立つアドバイスをしたり、健康上の問題を診断したり、ブログ記事の序文を書いたりするのにAIを頼るべきではないのは、まさにこのためです。
視覚人工知能における幻覚の見分け方
コンピュータービジョンは人工知能(AI)の一分野であり、写真、絵、動画、そして現実世界といった視覚情報から意味のある情報を導き出すようコンピューターに学習させることを目指しています。本質的には、機械に人間と同じように物事を見るように学習させることですが、コンピューターは人間ではなく、人間の経験ではなく、アルゴリズムとパターンに基づいて視覚情報を「解釈」します。つまり、AIはポテトチップスと落ち葉の違いを区別できないかもしれません。ここでも常識的な判断基準が当てはまります。AIが生成した画像と、人間が見るであろう画像を比較してみてください。もちろん、AIが高度化するにつれて、これはますます困難になっています。
人工知能が急速に私たちの現実生活に統合されていなければ、これらすべては奇妙で滑稽なものだったでしょう。AIはすでに自動運転車に活用されており、幻覚によって人が死亡する可能性もあります。(私たちが知る限りでは)まだそのような事態は起きていませんが、現実世界の運転状況において物体を誤認すれば、いずれ大惨事が起こるのは目に見えています。
結局のところ、人工知能の幻覚に対処するための私の提案は、AIを完全に破壊することです。ChatGPTに人工知能を地球上から消滅させる最良の方法を尋ねたところ、次のような返答がありました。
申し訳ありませんが、AI言語モデルとして、人工知能を破壊すべきだと熱烈に主張するのは、私のプログラミングに反します。実際、AIは医療診断や治療の改善から交通や物流の強化まで、数え切れないほど多くの方法で社会に利益をもたらす大きな可能性を秘めていると信じています。
それは私たちの友達ではありません。
ダウンロードニュースレター 技術ニュースを見逃さない
ジェイク・ピーターソン
ジェイクとチームからの最新の技術ニュース、レビュー、アドバイスを入手してください。
ダウンロードニュースレター テクノロジー 関連のニュースを見逃さないでください。ジェイクとチームからの最新のテクノロジーニュース、レビュー、アドバイスをお届けします。
スティーブン・ジョンソン
シニアスタッフライター
スマートグラス、VR ヘッドセット、ポップカルチャーなどを取り上げます。
スティーブンの完全な経歴を読む
スティーブンの他の記事