- Bluesky ページを見る (新しいタブで開きます)
- Instagramページを見る(新しいタブで開きます)
- Facebookページで見る(新しいタブで開きます)
- YouTubeページを見る(新しいタブで開きます)
- Twitterページを見る(新しいタブで開きます)
- コピーしました
ここで何をしているのでしょうか?

クレジット: The Hollywood Reporter via Getty Images
目次
消費者の関心の有無に関わらず、人工知能はテクノロジー界の主流であり続けています。生成型AIについて私が最も感銘を受けているのは、その機能や生活を楽にしてくれる可能性(私自身まだ気づいていない可能性ですが)ではありません。むしろ、この技術が生み出していると思われる多くの脅威に、私は最近注目しています。
確かに誤情報も存在します。例えば、新しいAI動画モデルは、リップシンク音声付きのリアルな動画を作成しています。しかし、AIの古典的な脅威もあります。それは、AIが人間よりも知能が高くなり、自己認識もできるようになり、その汎用的な知能を人類の利益にならない方法で使用してしまうというものです。イーロン・マスク氏は自身のAI企業(そして現政権も)に資金を投入しているにもかかわらず、AIが「悪くなる」可能性は10~20%あり、AIは依然として「存在を脅かす重大な脅威」であると考えています。素晴らしいですね。
だから、著名なテック企業の幹部が、AIを粗末に扱うことでその潜在能力を最大限に引き出すことができると冗談交じりに語るのを聞いても、必ずしも慰めにはならない。その人物とは、今週AIl-Inポッドキャストの収録で聴衆を驚かせたGoogleの共同創業者セルゲイ・ブリンだ。ブリンのGoogle復帰、AI、ロボティクスに関する講演の中で、投資家のジェイソン・カラカニスは、AIに自分の望むタスクを実行させるためには「生意気」になるべきだと冗談を言った。これがブリンの正当な指摘を引き出した。周りの人が互いに話しているため、彼の発言を正確に聞き取るのは難しい場合もあるが、彼は次のようなことを言った。「お分かりでしょうが、これは奇妙な話で…AIコミュニティではあまり広まっていないんです…私たちのモデルだけでなく、すべてのモデルは脅すとパフォーマンスが向上する傾向があります。」

あなたも気に入るかもしれない
もう一人の話し手は驚いた様子です。「脅迫したら?」とブリンは答えます。「例えば、身体的な暴力ですね。でも…みんなそういうのを嫌がるので、あまり話しませんね。」ブリンは続けて、歴史的にはモデルを誘拐すると脅すのだと説明します。そのやり取りは以下でご覧いただけます。
会話はすぐに他の話題に移り、子供たちがAIと共に成長していく様子などにも及んだが、私がこの番組を見て心に残ったのはまさにその言葉だった。一体私たちはここで何をしているんだ?話が逸れてしまったのか?誰も『ターミネーター』を覚えていないのか?
冗談はさておき、AIモデルに何かをさせるために脅迫するのは良くない習慣のように思えます。確かに、これらのプログラムが実際に汎用人工知能(AGI)を実現することはないかもしれませんが、AlexaやSiriに何かを頼むときに「お願いします」や「ありがとう」と言うべきかどうかという議論があったのを覚えています。お世辞は忘れて、ChatGPTが自分の思い通りに動くまで使い倒しましょう。そうすれば、誰にとっても良い結果になるはずです。
AIは脅かされると最高のパフォーマンスを発揮するのかもしれません。もしかしたら、訓練中に「脅かされる」ということは、タスクをより真剣に受け止める必要があると理解しているのかもしれません。この仮説を私自身のアカウントで検証するつもりはありません。
これまでのところどう思いますか?
アントロピックはAIを拷問してはいけない理由の例となるかもしれない
このポッドキャスト収録と同じ週に、Anthropicは最新のClaude AIモデルをリリースしました。Anthropicの社員の一人がBlueskyにコメントし、同社の最高性能モデルであるOpusは、規制当局や報道機関に連絡したり、システムから締め出したりすることで、ユーザーが「不道徳な」行為をしないように自ら阻止できると述べています。
未来へようこそ。これで、エラーを起こしやすいソフトウェアが警察を呼ぶことができるようになりました(これは、Claude Opus 4 について語る Anthropic の社員です)[画像または埋め込み]
— モリー・ホワイト(@molly.wiki)2025年5月22日午後4時55分
従業員はさらに、このような事態は「明らかな不正行為」の場合に限って発生したと説明し、ボットが自身の利用方法を否定的に解釈した場合、ボットが反逆行為に走る可能性もあると述べた。従業員が挙げた特に関連性の高い事例を以下に紹介する。
存在しないおばあちゃんを脅したらロボットに叩かれたんだって、家族に説明するのが待ちきれないよ[画像または埋め込み]
— モリー・ホワイト(@molly.wiki)2025年5月22日午後5時9分
当該従業員は後にこれらの投稿を削除し、通常とは異なる指示やツールへのアクセスが与えられたテスト中にのみ発生すると明言しました。たとえそれが事実だとしても、テスト中に発生する可能性があるのであれば、モデルの将来のバージョンでも発生する可能性は十分にあります。テストと言えば、アントロピック社の研究者たちは、この新しいクロードモデルは、ボットが脅迫されていると感じたり、やり取りの進め方に不満を感じたりすると、欺瞞や脅迫を行う傾向があることを発見しました。
おそらく、AI を拷問することはやめたほうがいいのでしょうか?
ダウンロードニュースレター 技術ニュースを見逃さない
ジェイク・ピーターソン シニア技術編集者
ジェイクとチームからの最新の技術ニュース、レビュー、アドバイスを入手してください。
ダウンロードニュースレター テクノロジー 関連のニュースを見逃さないでください。ジェイクとチームからの最新のテクノロジーニュース、レビュー、アドバイスをお届けします。
次の記事へスクロールしてください