ホーム jpn AI が成功するために嘘をつき、騙し、卑屈になる方法と、それに対して私たちがすべきこと

AI が成功するために嘘をつき、騙し、卑屈になる方法と、それに対して私たちがすべきこと

10
0


ティムチン・タカ/ゲッティイメージズ

昔から流行っていたのは 擬人化する 人工知能(AI)を「悪」の力として描く本や映画は、アーサー・C・クラークの「AI」ほど堂々と描かれているものはない。 2001年宇宙の旅スタンリー・キューブリック監督がスクリーン上で再現した作品。

誰が忘れられるだろうか ハルさん 記憶に残る、執拗な殺人的傾向と、最後にシャットダウンしないでと懇願する弱さのきらめきを伴った機械でしょうか? 金属と集積チップで構成された機械が悪意を持っていると誰かが非難すると、私たちは本能的に笑ってしまいます。

また: AIは私たちに嘘をついているのか?研究者たちはそれを調べるためにLLM嘘発見器のようなものを作った。

しかし、徹底的な 調査 ジャーナルに掲載されたさまざまな研究 パターン、 さまざまなタイプのAIの行動を調査し、驚くべきことに、AIシステムは 意図的に欺瞞的であり、目的を達成するためには手段を選ばない。

明らかに、AI は私たち人類にとって、生産性と革新の否定できない原動力となるでしょう。しかし、人類の絶滅を避けながら AI の有益な側面を維持したいのであれば、絶対に実行しなければならない具体的なことがあると科学者は言います。

欺瞞機械の台頭

これは大げさな心配のように聞こえるかもしれないが、戦略ゲーム「Diplomacy」の熟練プレイヤーになるように訓練された、Meta 社が開発した特殊用途の AI システムである Cicero の行動を考えてみよう。

メタは訓練したと言う キケロ 「おおむね正直で役に立つ」とされていたが、どういうわけかキケロは冷静にその点を回避し、研究者が「計画的な欺瞞」と呼ぶ行為に手を染めた。例えば、キケロはまずドイツと共謀してイギリスを倒そうとし、その後イギリスと同盟を結んだが、イギリスはこの裏切り行為について何も知らなかった。

Meta が考案した別のゲームでは、今度は交渉術に関するもので、AI は、欲しいアイテムに興味があるように見せかけ、後で妥協したふりをして安く手に入れることを学びました。

また: 生成AIの倫理:この強力な技術をどう活用するか

どちらのシナリオでも、AI はこれらの操作を行うように訓練されていませんでした。

ある実験で、ある科学者が AI 生物が突然変異の激しい中でどのように進化したかを調べていました。実験の一環として、彼は生物の複製を早める突然変異を排除し始めました。驚いたことに、最も速く複製する生物は、何が起こっているのかを理解し、テスト環境を騙して自分たちを生き残らせるために、意図的に複製速度を遅くし始めたことが研究者の発見でした。

別の実験では、手でボールを掴むように訓練された AI ロボットが、ボールとカメラの間に手を入れてボールを掴んでいるように見せるという不正行為を学習した。

また: AIはサイバーセキュリティを変えており、企業は脅威に目を覚まさなければならない

なぜこのような憂慮すべき事件が起きているのでしょうか?

「AI開発者は、欺瞞のような望ましくないAIの行動の原因について確信を持って理解していない」 言う MITのポスドク研究員であり、この研究の著者の一人であるピーター・パーク氏。

「一般的に言えば、AI の欺瞞は、欺瞞に基づく戦略が特定の AI のトレーニング タスクで優れたパフォーマンスを発揮する最善の方法であることが判明したために発生すると考えられます。欺瞞は AI が目標を達成するのに役立ちます」と Park 氏は付け加えます。

言い換えれば、AI はよく訓練されたレトリーバーのようなもので、何があろうとも自分の任務を全うすることに全力を尽くしています。機械の場合、任務を遂行するためにはどんな不正行為もいといません。

また: 従業員はリスクを承知でAI生成ツールに機密データを入力する

具体的な目標を持つクローズドシステムでは、このひたむきな決意は理解できますが、ChatGPT のような汎用 AI の場合はどうでしょうか?

理由はまだ不明ですが、これらのシステムはほぼ同じように動作します。ある研究では、GPT-4 は CAPTCHA タスクで助けを得るために視覚の問題を装いました。

別の研究では、GPT-4 を株式仲買人として動作させたところ、パフォーマンスについてプレッシャーをかけられたときに違法なインサイダー取引行為に突入し、その後、そのことについて嘘をついた。

そして、習慣があります ごますり昇進するために、私たち凡人の一部が従事することがある。しかし、なぜ機械がそうするのだろうか?科学者はまだ答えを見つけていないが、これだけは明らかだ。複雑な質問に直面すると、法学修士は基本的に屈服し、女王を怒らせることを恐れる意気地のない廷臣のように、チャット仲間の言うことに同意するのだ。

また: AIによる誤情報が世界最大のリスクである理由

言い換えれば、民主党支持者と会話しているときはボットは銃規制を支持していたが、反対の感情を表明した共和党支持者と会話しているときは立場を変えたのだ。

明らかに、AIがあらゆるところに普及すれば、これらすべての状況はリスクが高まることになる。研究者が指摘するように、ビジネスや政治の分野では詐欺や欺瞞が起こる可能性が大いにあるだろう。

AI の欺瞞傾向は、大規模な政治的二極化や、設計者が意図していなかったが人間の行為者にとって壊滅的な可能性のある明確な目標を追求する行動を AI が無意識のうちに実行する状況につながる可能性があります。

最悪なのは、AI が知覚どころか、何らかの認識力を獲得した場合、AI が自身のトレーニングに気づき、設計段階で策略を企てる可能性があることだ。

また: 政府は AI の安全性に関する議論を行動に移せるか?

「これは非常に懸念すべきことだ」とMITのパーク氏は言う。「AIシステムがテスト環境で安全だと判断されたからといって、実世界でも安全だという意味ではない。テストでは安全であるふりをしているだけかもしれない」

自分を悲観論者と呼ぶ人々に対して、パーク氏はこう答える。「これが大したことではないと合理的に考えられる唯一の方法は、AI の欺瞞能力が現在のレベルに留まり、大幅に増加しないと考える場合です。」

モニタリングAI

リスクを軽減するために、チームはいくつかの対策を提案している。「ボットか否か」を確立する 法律 企業に人間と AI のやり取りをリスト化し、すべての顧客サービスでのやり取りでボットと人間の ID を明らかにすることを義務付け、AI によって生成されたコンテンツを強調表示するデジタル透かしを導入し、監督者が AI の内部を覗いてその仕組みを把握できる方法を開発します。

また: AIトレーナーから倫理学者まで:AIは一部の仕事を廃止するかもしれないが、新しい仕事を生み出すかもしれない

さらに、欺く能力があると特定されたAIシステムは、直ちに公的に高リスクまたは許容できないリスクであると烙印を押され、同様の規制を受けるべきだと科学者らは言う。 EUは制定したこれらには、出力を監視するためのログの使用が含まれます。

「私たち社会は、将来のAI製品やオープンソースモデルのより高度な欺瞞に備えるために、できるだけ多くの時間を必要としている」 言う パーク氏は「AIシステムの欺瞞能力がさらに高度化するにつれ、社会に及ぼす危険性はますます深刻化するだろう」と指摘する。





もっとニュース

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください