ChatGPTをGoogleの代わりとして使うのはバカだけだ

ChatGPTをGoogleの代わりとして使うのはバカだけだ
ChatGPTをGoogleの代わりとして使うのはバカだけだ

ライフハッカーのロゴ

  • Bluesky ページを見る (新しいタブで開きます)
  • Instagramページを見る(新しいタブで開きます)
  • Facebookページで見る(新しいタブで開きます)
  • YouTubeページを見る(新しいタブで開きます)
  • Twitterページを見る(新しいタブで開きます)
  • コピーしました

あれは事実をでっち上げる。事実をでっち上げることが全てだ。

ChatGPTとGoogleのロゴ

クレジット: Ascannio - Shutterstock

目次


最近、RedditのQ&Aスレッドで、ある人が廃盤になったウェイトリフティングシューズの正確なヒールの高さについて質問していました。「どこも調べたけど、ChatGPTでさえ分からない」と言われたのを覚えています。確かに情報を見つけるのは難しかったのですが、だからこそChatGPTを使わない方が良いのですボットのファクトチェックができないなら、返ってくる回答は役に立たないのです。

以前説明したように、ChatGPTはテキストジェネレータです。何も「知っている」わけではなく、自分が言っていることが正しいという保証もありません。実際、ChatGPTが言っていることの多くは明らかに間違っています。物理的に不可能な演習をでっち上げたり、LifehackerのライターであるStephen Johnson氏に、実際には彼が書いたものではない記事を書いたと伝えたりしたこともあります。AIは事実を「幻覚」のように作り出し、追及されるとそれをさらに強めることができます。

例えば、ベス・スワレッキって誰?と尋ねてみた。私の役職と担当分野は正しく、Lifehackerで記事を書いていることもわかっているのに、公衆衛生学修士号を取得していると入力しようとする。(もっともらしい推測だが、違う。)何度か同じ回答を繰り返してみると、私がこの学位を取得したとされる大学がいくつか表示される。どれも私が通ったことのない大学だ。

ライフハッカーのロゴ

あなたも気に入るかもしれない

つまり、AIが生成した事実が真実かどうかは、テキストの見た目だけでは判断できません。テキストは、もっともらしく正しく見えるようにデザインされているからです。事実確認は自分で行う必要があります。ChatGPTを使って、あるウェイトリフティングシューズのヒールの高さが標準の3/4インチだと教えてもらえたとしたら、確かに正しいように聞こえます、その情報が他の場所で見つからなければ、確認することはできません。つまり、時間の無駄なのです。

ChatGPTは検索エンジンではありません

さて、AIを搭載した検索エンジンというものが存在します。Bing Chatの仕組みはこうです。実際に検索を行って情報を見つけ、AIを使ってその情報を分かりやすいテキストに整形します。Bing Chatが伝える情報ごとに、その情報源をクリックして、その情報がどこから来たのかを確認できます。しかし、ChatGPTをはじめとする他のAIチャットボットは、そのような仕組みではありません。

それでも、ChatGPTは検索エンジンの代替として位置付けられることがあります。検索結果のページを延々と読み進む必要がないことを称賛するGuiding Techの記事や、薬の安全性情報の提供においてGoogleよりも優れていると評価されているCNBCの記事をご覧ください。(ちなみに、 ChatGPTを医療アドバイスに使用しないでください。)しかし、ChatGPTは検索エンジンと同じ機能を果たすことは全くなく、検索エンジンとして使うこともできません。

例えば、自動車愛好家のクリス・パウカート氏は、自動車に関する自身の発言についてファクトチェックを求めるメールを受け取ったとツイートしました。メールを送信したマーケターは、ChatGPTでその発言を「見つけた」ので、真実かどうか確認したいと述べていました。確認してくれたマーケターは素晴らしい対応でした。というのも、それはパウカート氏が実際に発言したり書いたりした内容とは全く異なるものだったからです。しかし、なぜ彼らはテキストジェネレーターが引用文を「見つける」のに適した場所だと思ったのでしょうか?

これまでのところどう思いますか?

確かに、ChatGPTは膨大な量のデータ(「インターネット全体」と表現されることもありますが、これは文字通りではありません)で学習されていますが、それは単に事実を認識しているというだけのことです。それらの事実を応答に必ず使用するという保証はありません。

私自身を例に挙げると、ボットに私が書いた本のタイトルを尋ねました。すると5冊の本がリストアップされましたが、そのうち4冊は実在するものの私の本ではなく、1冊は実在しないものでした。何が起こったのかは分かっていると思います。ボットは私が編集者であり、フィットネスについて書いていることを知っているのです。そのため、ランナーズワールドやメンズヘルスといったフィットネス雑誌の「編集者」が著者となっている本を私のものとしてクレジットしているのです。

ChatGPTを使ってアイデアを得たり、もっと情報を探す場所をブレインストーミングしたりするのは問題ありません。しかし、ChatGPTの回答が現実に基づいているとは期待しないでください。お気に入りの本に基づいて本を推薦するといった些細なことでさえ、存在しない本を捏造してしまう可能性があります。

ダウンロードニュースレター 技術ニュースを見逃さない

ジェイク・ピーターソンのポートレート ジェイク・ピーターソン シニア技術編集者

ジェイクとチームからの最新の技術ニュース、レビュー、アドバイスを入手してください。

ダウンロードニュースレター テクノロジー 関連のニュースを見逃さないでください。ジェイクとチームからの最新のテクノロジーニュース、レビュー、アドバイスをお届けします。

次の記事へスクロールしてください