ホーム Fuji ホワイトハウス、テクノロジー業界に性的虐待AIディープフェイクの市場閉鎖を要求

ホワイトハウス、テクノロジー業界に性的虐待AIディープフェイクの市場閉鎖を要求

24
0



APフォト、ファイル
左の写真は、ホワイトハウス科学技術政策局長のアラティ・プラバカール氏と、ホワイトハウスジェンダー政策評議会局長のジェニファー・クライン氏が2023年のファイル写真に写っている。

ジョー・バイデン大統領の政権は、人工知能技術で作成された虐待的な性的画像の拡大する市場を閉鎖するようテクノロジー業界と金融機関に圧力をかけている。

新しい生成AIツールにより、誰かの肖像を性的に露骨なAIディープフェイクに変換し、そのリアルな画像をチャットルームやソーシャルメディアで共有することが容易になった。被害者は、有名人であれ子供であれ、それを止める手段がほとんどない。

ホワイトハウスは木曜日、連邦法が制定されていない状況で、企業に自主的な協力を求める呼びかけを行った。当局は、一連の具体的な措置を約束することで、民間部門が、児童の露骨な画像を含む、同意のないAI画像の作成、拡散、収益化を抑制できることを期待している。

「生成型AIが登場したとき、誰もが最初の本当の害がどこで起こるのか推測していた。そして、その答えはわかっていると思う」と、ホワイトハウスの科学技術政策局長でバイデン氏の首席科学顧問であるアラティ・プラバカール氏は述べた。

彼女はAP通信に対し、AIツールによって促進され、主に女性や少女をターゲットにし、彼女たちの人生をひっくり返しかねない非合意の画像が「驚異的に増加」していると説明した。

「もしあなたが10代の女の子、あるいはゲイの子供なら、これらは人々が今まさに経験している問題です」と彼女は語った。「私たちは、非常に急速に進化する生成AIのおかげで加速を目の当たりにしてきました。そして、最も早く実現できるのは、企業が立ち上がって責任を取ることです。」

木曜の発表に先立ちAP通信に共有された文書は、AI開発者だけでなく、決済処理業者、金融機関、クラウドコンピューティングプロバイダー、検索エンジン、そしてモバイルアプリストアへの掲載を管理するゲートキーパー(具体的にはAppleとGoogle)にも行動を求めている。

政府は、民間部門は画像ベースの性的虐待の「収益化を阻止」するために積極的に取り組み、特に未成年の露骨な画像を宣伝するサイトへの支払いアクセスを制限すべきだと述べた。

プラバカール氏は、多くの決済プラットフォームや金融機関がすでに、虐待的な画像を宣伝するような企業を支援しないと表明していると述べた。

「しかし、時には強制されないこともあります。利用規約がないこともあります」と彼女は言う。「これは、もっと厳格に実施できる例です。」

クラウドサービスプロバイダーやモバイルアプリストアは、「個人の同意なしに性的画像を作成または変更する目的で販売されるウェブサービスやモバイルアプリケーションを規制する」こともできると文書には記されている。

そして、インターネット上に投稿されたのがAIによって生成されたものであろうと、本物のヌード写真であろうと、被害者はオンラインプラットフォームを利用して、より簡単にそれらを削除できるようになるはずだ。

ポルノディープフェイク画像の被害者として最もよく知られているのはテイラー・スウィフトだ。1月にこのシンガーソングライターのAI生成による虐待画像がソーシャルメディアで出回り始めたとき、彼女の熱烈なファンは反撃した。スウィフトの画像の一部が同社のAIビジュアルデザインツールによるものであることが判明した後、マイクロソフトは安全対策を強化すると約束した。

米国やその他の国々でも、生徒のヌード画像をAIで生成するディープフェイク画像に悩む学校が増えている。中には、同級生がAIで加工した画像を作成し、クラスメートと共有していたことが判明したケースもある。

昨年の夏、バイデン政権はアマゾン、グーグル、メタ、マイクロソフトなどの大手テクノロジー企業に対し、新しいAIシステムを一般公開する前にさまざまな安全策を講じるという自主的な約束を仲介した。

その後、バイデン大統領は10月に野心的な大統領令に署名した。これは、企業が公共の安全を危険にさらすことなく利益を得られるよう、AIの開発方法を方向付けることを目的としたものだ。この大統領令は、国家安全保障を含むAIに関する幅広い懸念に焦点を当てながらも、AIが生成した児童虐待画像という新たな問題と、それを検出するためのより良い方法の模索に配慮している。

しかしバイデン氏は、政権のAI安全対策は法律で裏付けられる必要があるとも述べた。超党派の上院議員グループは現在、議会に対し、今後3年間で少なくとも320億ドルを費やして人工知能を開発し、それを安全に誘導する対策に資金を提供するよう求めているが、こうした安全対策を法律で制定するよう求める声はおおむね先送りしている。

ホワイトハウスのジェンダー政策評議会のジェニファー・クライン氏は、企業に自主的な取り組みを奨励しても「議会がここで行動を起こすという根本的な必要性は変わらない」と述べた。

児童の性的画像の作成および所持は、たとえ偽物であっても、すでに長年の法律で犯罪とされている。連邦検察は今月初め、人気の AI 画像生成ツール「Stable Diffusion」を使用して、未成年者が性的行為をしているリアルな画像を何千枚も作成したとしてウィスコンシン州の男性を告訴した。この男性の弁護士は水曜日の罪状認否審理後、コメントを控えた。

しかし、このような画像の作成を可能にする技術ツールやサービスに対する監視はほとんど行われていない。中には、運営者やその基盤となっている技術に関する情報がほとんど明らかにされていない、一時的な商用ウェブサイト上にあるものもある。

スタンフォード・インターネット・オブザーバトリーは12月、オンライン画像とキャプションのインデックスで、Stable Diffusionなどの大手AI画像作成ツールのトレーニングに使用されている巨大なAIデータベースLAIONで、児童性的虐待の疑いのある画像が数千枚発見されたと発表した。

ステーブル・ディフュージョンの最新版を所有するロンドン拠点のスタビリティーAIは今週、ウィスコンシン州の男性が使用したとされる以前のモデルの「リリースを承認しなかった」と述べた。このようなオープンソースのモデルは、その技術コンポーネントがインターネット上で公開されているため、元に戻すのが難しい。

プラバカール氏は、害を及ぼしているのはオープンソースのAI技術だけではないと述べた。

「これはもっと広範囲な問題です」と彼女は言う。「残念ながら、これは多くの人が画像ジェネレーターを使っているカテゴリのようです。そして、私たちは最近、この分野で爆発的な増加を目撃しました。しかし、オープンソースとプロプライエタリなシステムにきちんと分類されているわけではないと思います。」



もっとニュース

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください