- Bluesky ページを見る (新しいタブで開きます)
- Instagramページを見る(新しいタブで開きます)
- Facebookページで見る(新しいタブで開きます)
- YouTubeページを見る(新しいタブで開きます)
- Twitterページを見る(新しいタブで開きます)
- コピーしました
時々、AI は助けようとして、実に奇妙な行動をとることがあります。

クレジット: アリア・サンディ・ハシム/Shutterstock
目次
「ピーナッツバター プラットフォーム ヒール」というフレーズに馴染みがない方もいるかもしれませんが、このフレーズは、ピーナッツバターを非常に高い圧力下でダイヤモンドのような構造に変化させた科学実験に由来しており、これが「ヒール」の由来となっています。
しかし、これは実際には起こりませんでした。このフレーズは全くのナンセンスですが、ライターのミーガン・ウィルソン=アナスタシオス氏の質問に対し、Google AI Overviewsが定義と背景を説明したと、このスレッドの投稿で紹介されています(他にも面白い例がいくつかあります)。
インターネットではこの言葉が取り上げられ、大々的に報道されました。どうやら、「アナグマを二度舐めることはできない」は人を二度騙すことはできないという意味(Bluesky)、「放し飼いの犬はサーフィンをしない」は何かが起こる可能性が低いという意味(Wired)、「自転車が先に食べる」はサイクリングのトレーニングでは栄養を優先すべきという意味(Futurism)のようです。

あなたも気に入るかもしれない
しかし、Googleは面白がっていません。意味不明なフレーズとその意味らしいフレーズを自分なりに集めてみたかったのですが、どうやらもうその方法は使えないようです。GoogleはAIによる概要表示を拒否したり、意味不明なフレーズの説明を求めようとしても「間違いです」と警告したりします。
実際のAIチャットボットと比べると、状況は少し異なります。Gemini、Claude、ChatGPTで簡単なテストを実行してみましたが、ボットはこれらのフレーズを論理的に説明しようと試みると同時に、意味不明な表現や一般的に使われていない表現にはフラグを立てます。これはAI Overviewsでは欠けていた、よりニュアンスに富んだアプローチです。
Threadsで誰かが、Googleに任意の文章を入力し、その後に「意味」を追加すると、作った有名な慣用句やフレーズのAIによる解説が表示されることに気づいたそうです。私の解説はこちらです[画像または埋め込み]
— グレッグ・ジェナー(@gregjenner.bsky.social)2025年4月23日 11:15
AI概要機能はまだ「実験的」と表記されていますが、ほとんどの人はそれを気に留めないでしょう。表示される情報はウェブ記事から収集された情報に基づいており、正確で信頼できるものだと想定しているからです。
Googleのエンジニアは、昨年のピザの接着剤の件のように、この種のミスには既に気付いているかもしれないが、同様の問題が再び発生するのもそう遠くないだろう。これは、私たちが必要とするすべての情報を、実際の人間が書いた参考資料ではなく、AIから得ることの根本的な問題点を物語っている。
どうしたの?
基本的に、これらのAI概要は、クエリに完全に一致するものがない場合でも回答を提供し、情報を統合するように構築されています。これが、フレーズ定義の問題の始まりです。また、AI機能は、インターネット上の信頼できる情報とそうでない情報を判断するのに最適なツールではないかもしれません。
ノートパソコンの問題を解決したいですか?以前はRedditや様々なサポートフォーラム(もしかしたらLifehackerも)からの青いリンクのリストが表示されていましたが、AI Overviewsでは、Googleがそれらのリンクから見つけられる限りの情報を集め、スマートな答えをまとめようとします。たとえ、あなたが尋ねている特定の問題に遭遇した人が誰もいなくてもです。これは時には役立つこともありますが、時には問題を悪化させてしまうこともあります。
これまでのところどう思いますか?
クレジット: ライフハッカー
個人的な経験ですが、AIボットはプロンプトに同意したがり、たとえ不正確であってもプロンプトの内容を肯定する傾向があることに気づきました。これらのモデルは相手を喜ばせようと躍起になり、たとえ役に立てなくても、本質的には役に立ちたいと考えています。クエリの表現によっては、AIが正しくない内容に同意してしまう可能性があります。
Google AI Overviewsで意味不明な慣用句の定義を得ることはできませんでしたが、REMのセカンドアルバムがロンドンで録音された理由をAIに尋ねてみました。AI Overviewsは、プロデューサーのジョー・ボイドの選択によるものだと答えました。しかし実際には、REMのセカンドアルバムはロンドンではなくノースカロライナで録音されました。ジョー・ボイドがプロデュースし、ロンドンで録音されたのは3枚目のアルバムです。
実際のGeminiアプリは、セカンドアルバムはロンドンで録音されていないという正しい回答を返しています。しかし、AI Overviewsが複数のオンラインソースを統合して一貫した情報にまとめようとする方法は、その正確性に疑問符が付くようです。特に、検索クエリ自体が自信に満ちた主張をしている場合はなおさらです。
適切な刺激があれば、Googleは音楽の時系列を間違えるだろう。 クレジット:Lifehacker
「ユーザーが無意味な検索や『誤った前提』に基づく検索を行った場合、Googleのシステムは利用可能な限られたウェブコンテンツに基づいて、最も関連性の高い結果を見つけようとします」とGoogleはAndroid Authorityへの公式声明で述べています。「これは検索全般に当てはまりますが、場合によってはAIオーバービューが起動し、役立つコンテキストを提供することもあります。」
私たちは、実際の人間が収集した情報ではなく、常に AI で応答する検索エンジンの実現に向けて突き進んでいるようですが、もちろん AI は蛇口を修理したり、iPhone カメラをテストしたり、REM 音楽を聴いたりしたことはありません。AI は、そうしたことをした人々から得た膨大なデータを合成し、前の単語の前にどの単語が来る可能性が高いかを判断して回答を作成しようとしているだけです。
ダウンロードニュースレター 技術ニュースを見逃さない
ジェイク・ピーターソン シニア技術編集者
ジェイクとチームからの最新の技術ニュース、レビュー、アドバイスを入手してください。
ダウンロードニュースレター テクノロジー 関連のニュースを見逃さないでください。ジェイクとチームからの最新のテクノロジーニュース、レビュー、アドバイスをお届けします。
次の記事へスクロールしてください