ホーム Fuji OpenAI、ロシアと中国が自社の技術をプロパガンダキャンペーンに利用していたことを発見

OpenAI、ロシアと中国が自社の技術をプロパガンダキャンペーンに利用していたことを発見

23
0



ロイター/ダド・ルヴィック/イラスト/ファイル写真/ファイル写真
2024 年 3 月 11 日に撮影されたこのイラストには OpenAI のロゴが見られます。

サンフランシスコ – ChatGPTの開発元OpenAIは木曜日、ロシア、中国、イラン、イスラエルのグループが同社の技術を使って世界中の政治的言説に影響を与えようとしているのを発見したと発表し、2024年の大統領選挙が近づく中、生成型人工知能によって国家主体が秘密裏にプロパガンダキャンペーンを展開することが容易になっているとの懸念を浮き彫りにした。

OpenAIは、ロシア、中国、イランでの有名なプロパガンダ活動、イスラエルの政治キャンペーン会社、そして同社の研究者が「Bad Grammar」と名付けたロシア発祥のこれまで知られていないグループに関連するアカウントを削除した。これらのグループはOpenAIの技術を使用して投稿を書き、それをさまざまな言語に翻訳し、ソーシャルメディアに自動的に投稿するのに役立つソフトウェアを構築した。

これらのグループはいずれも大きな支持を得ることができなかった。関連するソーシャルメディアアカウントのユーザー数は少なく、フォロワーもわずかだったと、OpenAIの情報調査チームの主任調査員ベン・ニモ氏は述べた。それでも、何年もソーシャルメディアで活動してきたプロパガンダ活動家たちが、キャンペーンを強化するためにAI技術を利用していることがOpenAIの報告書から明らかになった。

「彼らは、従来のオペレーションよりも大量のテキストを、より少ないエラーで生成しているのを確認している」と、以前メタの影響力追跡オペレーションで働いていたニモ氏は記者会見で述べた。ニモ氏は、他のグループがまだ同社の知らないうちに同社のツールを使用している可能性があると述べた。

「今は油断している場合ではない。歴史が示しているように、何年もかけて何の成果も上げられなかった影響力行使活動も、誰も追っていなければ突然勃発する可能性がある」と同氏は語った。

政府、政党、活動家グループは長年、ソーシャルメディアを利用して政治に影響を与えようとしてきた。2016年の大統領選挙におけるロシアの影響に関する懸念を受けて、ソーシャルメディアプラットフォームは、自分たちのサイトが有権者を動かすためにどのように利用されているかに細心の注意を払うようになった。企業は通常、政府や政治グループがユーザーに影響を与えるための協調的な取り組みを隠蔽することを禁止しており、政治広告は誰が資金提供したかを公開しなければならない。

リアルなテキスト、画像、さらには動画を生成できる AI ツールが一般に利用可能になるにつれ、偽情報やオンラインでの秘密の影響力行使活動を発見して対処することがさらに困難になるのではないかと、偽情報研究者は懸念を表明している。今年は世界中で何億人もの人々が選挙で投票しており、生成 AI ディープフェイクはすでに急増している。

OpenAI、Google、その他のAI企業は、独自のツールで作成されたディープフェイクを識別する技術に取り組んでいるが、そのような技術はまだ実証されていない。AI専門家の中には、ディープフェイク検出器が完全に効果的になることは決してないだろうと考える者もいる。

今年初め、中国共産党と関係のある団体が、台湾の選挙で候補者が別の候補者を支持するとされるAI生成音声を投稿した。しかし、その政治家、フォックスコン創業者の郭台銘氏は、その別の政治家を支持していなかった。

1月、ニューハンプシャー州の予備選挙の有権者はバイデン大統領を名乗るロボコールを受けたが、すぐにAIによるものだと判明した。先週、ロボコールを依頼したと主張する民主党の工作員が、投票妨害と候補者のなりすましの罪で起訴された。

OpenAIの報告書は、5つのグループが影響力拡大作戦で同社の技術をどのように利用したかを詳述している。同社によると、中国を拠点とする既知のグループであるSpamouflageは、ソーシャルメディアでの活動を調査し、中国語、韓国語、日本語、英語で投稿を行うためにOpenAIの技術を利用していた。International Union of Virtual Mediaとして知られるイランのグループも、OpenAIの技術を使用して記事を作成し、自社のサイトで公開していた。

これまで知られていなかったグループ「Bad Grammar」は、OpenAIの技術を利用して、メッセージアプリ「Telegram」に自動投稿できるプログラムの開発に協力した。報道によると、Bad Grammarはその後、OpenAIの技術を利用して、米国はウクライナを支援すべきではないと主張するロシア語と英語の投稿やコメントを生成した。

報告書ではまた、イスラエルの政治キャンペーン会社ストイックがオープンAIを利用して、ガザ戦争に関する親イスラエルの投稿を作成し、カナダ、米国、イスラエルの人々に向けていたことも判明したとオープンAIは述べた。水曜日には、フェイスブックの所有者であるメタもストイックの活動を公表し、同グループが使用していたフェイスブックのアカウント510件とインスタグラムのアカウント32件を削除したと述べた。同社は記者団に対し、アカウントの一部はハッキングされ、その他のアカウントは架空の人物のものだったと語った。

問題のアカウントは、親イスラエル派のアメリカ人大学生やアフリカ系アメリカ人などを装い、著名人やメディア組織のページに頻繁にコメントしていた。コメントはイスラエル軍を支持し、カナダに対し「過激イスラム」がカナダのリベラルな価値観を脅かすと警告するものだったとメタ氏は述べた。

一部のコメントの文言にAIが関与し、実際のFacebookユーザーには奇妙で文脈から外れた印象を与えた。同社によれば、この作戦はうまくいかず、正当なフォロワーはわずか2,600人ほどしか集まらなかったという。

Meta は、Atlantic Council の Digital Forensic Research Lab が X 上のネットワークを発見した後に行動を起こしました。

過去1年間、偽情報の研究者らは、AIチャットボットが特定の人々とオンラインで長く詳細な会話をし、彼らをある方向に誘導するために使われる可能性を示唆してきた。AIツールはまた、個人に関する大量のデータを取り込み、その人に直接メッセージをカスタマイズすることも可能かもしれない。

ニモ氏は、オープンAIはAIのこうした高度な利用法をどちらも発見していないと述べた。「これは革命というよりはむしろ進化だ」と同氏は述べた。「だからといって、将来それが見られないというわけではない」



もっとニュース

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください