ホーム jpn 政府は AI の安全性に関する議論を行動に移せるか?

政府は AI の安全性に関する議論を行動に移せるか?

13
0


アンドリー・オヌフリエンコ/ゲッティイメージズ

アジアテック×シンガポール 2024 サミットでは、数人の講演者がハイレベルの議論を準備し、 人工知能(AI) 安全性を行動に移すことが重要です。多くの人が、組織から個人まで、このテクノロジーを適切に導入するためのツールをすべての人に提供したいと考えています。

また: ChatGPTを使用してPDFを無料で分析する方法

「現実的で実践的な行動。それが欠けているのです」とテレノール・グループの研究・イノベーション責任者、イエヴァ・マルティネカイテ氏はサミットの傍らでZDNETに語った。マルティネカイテ氏はノルウェーのオープンAIラボの理事であり、シンガポールのAIとデータの倫理的利用に関する諮問委員会のメンバーでもある。また、2018年から2020年にかけては欧州委員会のAIに関するハイレベル専門家グループの専門家メンバーも務めた。

マルティネカイテ氏は、政府高官たちもこの問題を認識し始めていると指摘した。

各国の政府高官を含む会議の代表者たちは、具体的な措置を示すものがまだほとんどないことから、最近では韓国と英国で開催されたAI安全サミットの高官級会合に出席することは単にジェット燃料を消費しているだけだと皮肉った。

マルティネカイテ氏は、政府や国際機関が、企業やユーザーがAIを安全に導入し、利用していることを確認できるよう、プレイブック、フレームワーク、ベンチマークツールの導入を開始する時期が来ていると述べた。また、こうした取り組みを促進するには継続的な投資も必要だと付け加えた。

AIが生成したディープフェイク特に、重大なリスクを伴い、重要なインフラに影響を及ぼす可能性があると彼女は警告した。それらはすでに現実のものとなっている。政治家、公人、さらには テイラー・スウィフト 浮上しました。

また: 政治的なディープフェイクはあなたが思っている以上に多く存在する

マルティネカイテ氏は、この技術は1年前よりも洗練されており、ディープフェイクの特定がますます困難になっていると付け加えた。サイバー犯罪者はこの技術を悪用して認証情報を盗み、システムやデータに不正にアクセスする可能性がある。

「ハッカーはハッキングしているのではなく、ログインしているのです」と彼女は語った。これは、ディープフェイクが重要なインフラに侵入し、サイバー攻撃を増幅させるのに利用される可能性がある通信などの一部の分野では重大な問題だ。マルティネカイテ氏は、従業員IDを偽造してデータセンターやITシステムにアクセスできることを指摘し、この慣性がそのまま放置されれば、世界は壊滅的な攻撃を受けるリスクがあると付け加えた。

ユーザーは、こうしたリスクを特定し、それに対抗するために必要なトレーニングとツールを備える必要があると彼女は述べた。また、デジタル透かしやメディアフォレンジックなど、テキストや画像を含むAI生成コンテンツを検出し、防止する技術も開発する必要がある。マルティネカイテ氏は、これらを法律制定や国際協力と並行して実施すべきだと考えている。

しかし、彼女は、立法枠組みが技術を規制すべきではないと指摘した。そうしないと、AIの革新が抑制され、例えば医療の潜在的な進歩に影響を及ぼす可能性がある。

代わりに、規制は、重要なインフラや政府サービスなど、ディープフェイク技術の影響が最も大きい分野に取り組むべきだ。そうすれば、透かし、情報源の認証、データアクセスと追跡のガードレール設置などの要件を、高リスクの分野や関連する技術プロバイダーに導入できるとマルティネカイテ氏は述べた。

マイクロソフトの最高責任者であるナターシャ・クランプトン氏によると、同社はディープフェイク、同意のない画像、ネットいじめの増加を目の当たりにしているという。サミットのパネルディスカッションで、クランプトン氏はマイクロソフトがオンライン上の欺瞞行為の追跡に注力していると述べた。 選挙に関するコンテンツ特に複数の 選挙 今年開催されます。

ドイツ連邦デジタル・交通省のシュテファン・シュノア次官は、ディープフェイクは虚偽の情報を拡散し、有権者を誤解させ、民主主義制度への信頼を失わせる可能性があると述べた。

また: TikTokのコンテンツ認証があなたにとって何を意味するか

シュノア氏は、これを防ぐには、個人データとプライバシーを保護する取り組みも必要だと付け加えた。彼は、国際協力とテクノロジー企業がAIの安全性を推進するために制定されたサイバー法を遵守する必要性を強調した。 EUのAI法

中国科学院自動化研究所の脳に着想を得た認知知能研究所およびAI倫理・ガバナンス国際研究センターの所長である曽毅氏は、ディープフェイクが無制限に存続することを許せば、意思決定に影響を及ぼす可能性があると述べた。

曽氏はまた、国際協力の必要性を強調し、ディープフェイクのコンテンツが各国で蔓延するのを防ぐため、偽情報に関する理解を深め、情報交換を促進するために、世界中にディープフェイクの「観測所」施設を設立すべきだと提案した。

事実と偽情報をチェックする世界的なインフラは、ディープフェイクについて一般大衆に情報を伝えることにも役立つと彼は述べた。

シンガポール、AIガバナンスフレームワークを更新

一方、シンガポールは、 生成AIのガバナンスフレームワークは、2010年に初めて導入された既存のAIガバナンスフレームワークを拡張したものです。 2019 そして最後 2020年に更新

GenAI 向けモデル AI ガバナンス フレームワーク シンガポールは、GenAI の懸念に対処し、イノベーションを推進する必要性のバランスをとる「体系的かつバランスの取れた」アプローチを設定していると述べています。このアプローチには、インシデント報告、コンテンツの出所、セキュリティ、テストと保証など 9 つの側面が含まれており、最初に実行すべき手順に関する提案が提供されています。

後期には、このフレームワークの背後にあるグループである AI Verify が、9 つの側面に基づいてより詳細なガイドラインとリソースを追加する予定です。また、相互運用性をサポートするために、ガバナンス フレームワークを G7 広島原則などの国際的な AI ガイドラインにマッピングする予定です。

また: AppleのAI機能とNvidiaのAIトレーニング速度がイノベーション指数でトップ

シンガポールのAIの善のためのビジョンを実現するには、良好なガバナンスがイノベーションと同じくらい重要であり、持続的なイノベーションを可能にするのに役立つと、シンガポールの通信情報大臣兼スマート国家およびサイバーセキュリティ担当大臣のジョセフィン・テオ氏はサミットでの演説で述べた。

「AIの有害な影響に対処することと、そもそもそれが起こらないように適切な設計と上流対策を通じて予防することは別問題であることを認識する必要がある」とテオ氏は述べた。同氏は、リスク軽減策が不可欠であり、「証拠に基づいた」新しい規制は、より有意義で影響力のあるAIガバナンスにつながる可能性があると付け加えた。

シンガポールは、AIガバナンスの確立と並行して、悪意のあるAI生成オンラインコンテンツに焦点を当てたオンラインセーフティの先進技術センターの構築など、ガバナンス能力の強化も目指しています。

ユーザーもリスクを理解する必要がある。テオ氏は、AI を使用する組織がその利点だけでなく限界も理解することが公共の利益になると指摘した。

テオ氏は、企業はそのための適切な考え方、能力、ツールを身に付けるべきだと考えています。また、シンガポールのモデル AI ガバナンス フレームワークは、安全策として何を実装すべきかについて実用的なガイドラインを提供していると付け加えました。また、企業の規模やリソースに関係なく、AI 導入の基本的な要件も設定しています。

マルティネカイテ氏によると、テレノールにとってAIガバナンスとは、新しいAIツールの使用を監視し、潜在的なリスクを再評価することも意味する。ノルウェーの通信会社は現在、 マイクロソフト コパイロットは、OpenAI の技術に基づいて構築されており、Telenor 独自の AI 倫理原則に反しています。

OpenAIの 最近の争い 音声モードに関わる問題がテクノロジーの使用に対する信頼に影響を与えたとマルティネカイテ氏は述べ、テレノールのような重要なインフラを運営する大企業は、信頼できるAIツール(OpenAIなどのサードパーティプラットフォームを含む)を導入していることを確認するための能力とチェック体制を備えていると述べた。これには、クラウドプロバイダーや小規模なソリューションプロバイダーなどのパートナーと協力して、使用しているツールを理解し、学習することも含まれます。

テレノールは昨年、責任ある AI の導入を監督するためのタスクフォースを設置した。マルティネカイテ氏は、これには従業員が遵守すべき原則の確立、AI の使用をガイドするルールブックとツールの作成、マイクロソフトを含むパートナーが遵守すべき基準の設定が含まれると説明した。

これらは、同社が使用するテクノロジーが合法かつ安全であることを保証するためだと彼女は付け加えた。テレノール社には、GenAIの使用を考慮してリスク管理とガバナンス構造を見直す社内チームもある。同チームは、高リスク領域でのAIの使用を管理するための適切なガバナンス構造を確保するために必要なツールと対策を評価するとマルティネカイテ氏は指摘した。

また: AIの脅威が加速する中、企業のクラウドセキュリティの失敗は「懸念される」

組織が独自のデータを使用して大規模な言語モデルと小規模な AI モデルのトレーニングと微調整を行うようになると、企業と AI 開発者の間でこのデータの使用方法と管理方法についての議論がますます活発になるだろうと Martinekaite 氏は考えています。

彼女はまた、EU AI法などの新しい法律を遵守する必要性により、企業が高リスクのAI導入に関する追加要件を確実に満たすよう努める中で、こうした議論がさらに活発化するだろうと考えている。たとえば、企業はAIトレーニングデータがどのようにキュレートされ、追跡されるかを知る必要がある。

組織からの監視と懸念はますます厳しくなり、AI 開発者との契約内容を綿密に検討する必要が出てくるでしょう。





もっとニュース

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください