イスラエルの歴史家ユール・ノア・ハラリ、左、そしてヨミウリ・シンブン・ホールディングス大統領大統領大会大統領は、東京のヨミュリ・シンブンの本部で握手した。
ハラリは、彼が執筆した本の中で「ある人間から別の人間に」と書かれたメッセージを書いています。
11:00 JST、2025年4月3日
生成人工知能(AI)は脚光を浴びており、その技術からの利益への欲求が高まっています。ここに落とし穴はありませんか?
著名なイスラエルの歴史家であるユバル・ノア・ハラリとヨミウリ・シンブン・ホールディングス大統領屋村大統領は、3月16日にAI時代における新聞の役割とAIのリスクに対する対策について議論しました。
ハラリは日本を訪れて、彼の新しい本「Nexus:A Stone AgeからAIへの情報ネットワークの簡単な歴史」の日本の出版物をマークしました。AIの脅威についての警告。議論は、ヨミウリ・シンブンのシニアライターであるティツヤ・ツルハラによって司会されました。
以下は、山口とハラリの会話から抜粋しています。
ユバル・ノア・ハラリ:AIはエージェントであり、エイリアンエージェントであるため、危険です。人々は、AIが以前に発明した他のツールと同様に、ツールであると考える傾向がありますが、これはまったく異なります。それはそれ自体で決定を下すことができます。新しいアイデアを作成し、それ自体で新しいアイデアを発明することができます。それはそれ自体で変化し、学ぶことができます。
非有機情報が何をするかを予測することは、はるかに困難です。
Tetsuya Tsuruhara :脅威は何ですか?
ハラリ:政府、軍、大学、民間ビジネスには、世界には多くの種類の官僚があります。
AIの脅威を理解する際の困難の1つは、多くのサイエンスフィクションの本や映画で、誤解を招くような方法で危険を描写していることです。あなたはしばしば、人間がこれらすべてのロボットを生産するように、大きなロボットの反乱について読みます。ある日、ロボットが反逆し、人々を撃ち始めて引き継ぎ始めます。これは非常に起こりそうにありません。より現実的なシナリオは、世界を管理している官僚を引き継ぐAISです。
ローンを提供するかどうかを決定するAIがますます増えています。で [the] 軍事、爆弾を標的とするのはAIの決定です。メディアでは、ニュースでは、ますます、人間の編集者の仕事がAI編集者に引き継がれています。多くの人間が仕事から却下されています。しかし、それは官僚主義が消えるという意味ではありません。彼らは、世界の大きなシステムをますます実行しているアルゴリズムによって、AI官僚に置き換えられました。
ますます、金融システムはAISによって管理されています。金融システムが非常に複雑になって、人間が金融機能がどのように機能するかを理解できなくなり、AISだけがそれを理解することができなくなった場合、彼らは新しい金融デバイス、人間の脳が理解して把握するには数学的に複雑すぎる新しい金融政策戦略を作成する可能性があるためです。たとえば、金融危機がある場合、何が起こっているのかを理解しているのはAIだけです。私たちはそれに対して規制しようとすることができます…しかし、米国では、金融市場を規制緩和している政権があり、それによってAISとアルゴリズムが金融システムを完全に引き継ぐ道を開いています。
人類は、それについて何らかの国際的な合意がある場合にのみ、AIを制御できます。トランプ政権の政策はあらゆる規制に反しており、国際的な協定に反しています。そのため、この状況でAIを制御する方法を確認することは非常に困難です。
Toshikazu Yamaguchi :米国は、技術および軍事競争の観点からAIの制限を嫌っています。
規制の必要性
ハラリ:ほとんどすべての民主主義が問題 [including the United States] 顔は、人々の間でますます多くの緊張と不信を生み出す偽のニュースと陰謀の理論と情報の洪水です。ソーシャルメディアの巨人は、「ああ、あなたはそれを止めることはできません。これは言論の自由に害を及ぼすからです。」しかし、実際には、これは人間の言論の自由に関するものではありません。問題は、この種の情報を意図的に広めているアルゴリズムです。アルゴリズムのパワーを制限する必要があります。アルゴリズムには言論の自由がないため、それは言論の自由ではありません。
山口:アルゴリズムに関する法的責任を負い、人間としてのボットを禁止するなど、彼らに制限を課す必要があると思いますか?
ハラリ:ボットによって広がる物語があります。これがボットであることを知る必要があります。これは人間ではありません。あなたが嘘である何かを印刷すれば、あなたはそれに対して責任を負います。あなたは責任があります。同じことがソーシャルメディアにあるはずです。もし [a social media company] 特定の物語を広めることを決定します、そして、この物語は嘘または陰謀論であり、彼らは昔ながらの新聞やテレビと同じ方法で責任を負うべきです [are]。
山口:Yomiuri Shimbunは誤った情報を修正します。エラーを修正することで、読者の信頼を得ることができると思います。
ハラリ:ソーシャルメディアの多くのビジネスモデルは異なっていると思います。彼らの目的は信頼ではありません。彼らの目的はエンゲージメントです。人々を婚約させる最も簡単な方法は、人間の心の中で怒りのボタンまたは貪欲ボタンを押すことです。
山口:しかし、現在、ソーシャルメディアは新聞からの情報のゲートキーパーの役割を引き継いでいます。それは問題です。
ハラリ:責任なしに役割を引き継いでいると思います。それは非常に危険です。彼らと話をして、「なぜこれらの嘘とプロパガンダとこれらすべてのことを再び公開するのか」と尋ねると、彼らは言います。
山口:Yomiuri Shimbunは、信頼できるニュースソースに基づいてニュース収集活動に従事し、ニュースが正しいかどうかを確認することにより、ニュースを報告し続けています。この経験に基づいて、Yomiuri Shimbun、Keio University、Dentsu Inc.は、信頼できる信頼できない情報を区別するための技術システムを共同で開発しています。これは、Originatorプロファイルと呼ばれるデジタルテクノロジーであり、情報の普及者を識別し、サードパーティによる認証を表示します。
ハラリ:以前は、少なくとも、画像やビデオを偽造することはできず、今ではそれらを偽造することが容易になりました。あなたが話しているこの種の認証は、あなたが信頼できないものすべて、あなたが見るもの、あなたが聞くものすべてに必要です。
過去10年間で、アルゴリズムは人間の注意を引く方法を学びました。現在、AIは人間との親密さを発達させる方法を学んでいます。 AIがあなたの親密な友人になった場合、あなたが絶えず話し、すべてについて質問する人に、これがニュースでさえ、主な情報源になります。
ソーシャルメディア企業の人々のように「信頼できるものとそうでないものをどのように伝えることができるか」と言うように聞いたとき私は彼らに言った:「新聞と話しに行く。彼らはまさにそれをしている300年の経験を持っている。あなたはゼロから始める必要はない。経験はある。」
民主主義は信頼に取り組んでいるため、新聞の役割は民主主義にとって重要です。
最初の大規模な民主主義は、何百万人もの人々が会話をして政策について合意することができるとき、現代後期の時代にのみ可能になります。最初は新聞の最初、そして民主的な会話を可能にするラジオやテレビなどの他の技術のおかげで。
山口:多くの新聞は、明治の修復に続いて日本で出版を始めました。リテラシー率は改善され、民主主義の基礎が創出されました。
新聞とAI間の競争に関して、AIは今起こったことをすぐに理解することができません。 AIはまた、政治家の中心を深く見るニュースを集めることはできません。最先端のニュースと詳細な報告を明らかにすると、新聞の強みがますます増えます。
Yomiuri Shimbunは、ニュースの収集と編集に従事する人間のスタッフを重視し、生成AIを使用しません。
米国のニュース記者の数は減少しています。米国の主要なメディアアウトレットは、全国の警察署にスタッフを割り当てていません。代わりに、固定テンプレートの警察署から事件と事故を報告するためにシステムに向かって取り組み始めました。次に、AIを使用してテンプレートの内容に基づいてストーリーが作成され、分布していると伝えられています。これはジャーナリズムの面で問題があると思います。
シフトは速すぎました
ハラリ:これは、人間から人間後の世界へのこの傾向の一部であり、ますます多くの分野で、アルゴリズムが人間から引き継がれています。ビットコインのような暗号通貨について考えると、人々が伝統的に通貨を生産する銀行のような人間の機関を信用していないと言うようなものであるように、今ではアルゴリズムをより信頼しています。権限の権力におけるこの変化は、人間からアルゴリズムへの移行であり、非常に危険です。
山口:ポストヒューマンの世界への移行は減速して抑制されるべきだと思いますか?
ハラリ:人間は非常に順応性のある動物ですが、適応には常に時間がかかります。そして今、プロセス、それはあまりにも速く起こっています。問題があるかどうかを確認して修正するのに十分な時間がありません。
山口:AIを正しく管理するために、政府や企業から独立して働く優れた国際組織が必要になるのだろうか。
ハラリ:現時点では、特にAI革命をリードしている世界で最も強い国の抵抗を考えると、そのようなことが確立できることは完全に非現実的であるように思われます。
私たちができることは、まず規制する力を持たない国際組織を設立することですが、少なくとも何が起こっているのかを理解し、政府や市民に世界について、開発について知らせることができます。
他のことができることは、さまざまな国のレベルに関する規制です。たとえば、日本は、人間を装ったAISとボットに対する偽の人間に対する法律を持つためには、私たちの合意や中国の合意は必要ありません。これは、別の国が自分自身のためにできることであり、うまくいけば、十分な国がそれをするなら、これは国際的な規範になるでしょう。
山口:日本がボットを制限するイニシアチブをとることができると考える価値があると思います。
市場リリースの前に、 [OpenAI’s] GPT-4 AIモデルは、スパムソフトウェアがWebサイトにアクセスするのを防ぐテストであるCaptchaを解決することができませんでした。 1回限りの仕事サイトに接続することを許可されたとき、それは嘘をつき、「私はロボットではありません。私は画像を見るのが難しい視力障害があります」と言って、人間の助けを求めました。それはあなたの新しい本の興味深い逸話です。
ハラリ:それはAIが嘘をつくという決定であり、それ自体で嘘を発明しました。
山口:中国と米国は、AIに関しては2つの主要国です。元米国国務長官ヘンリー・キッシンジャーは、晩年に両国がすぐにAIに関する協議を開始すべきだと提案した。
ハラリ:AIのすべての問題は、2つのことで解決できると思います。時間が必要であり、人々の間で信頼が必要です。これらの2つのことがあれば、すべてが大丈夫です。問題は、人々がAIを開発するために非常に迅速に急いでおり、特に米国と中国の2人の主要なAI超権限の間に信頼がないことです。
信頼のパラドックスがあります [when] あなたはAI革命を率いる人々と話します。他の人を信頼できないのと同じ人々は、完全にエイリアンの知性を信頼できると考えています。そして、これは非常に逆説的で危険な状況です。
山口:核戦争の瀬戸際に来た1962年のキューバのミサイル危機は、米国の指導者と旧ソビエト連邦の間に信頼があったため、最終的に解決されました。
関連記事