ホーム jpn 安全ガイドラインは、AIゴールドラッシュにおけるデータ保護の必須の第一層を提供する

安全ガイドラインは、AIゴールドラッシュにおけるデータ保護の必須の第一層を提供する

21
0


ダクック/ゲッティイメージズ

安全フレームワークは、特に次のような会話の中で、データ保護の必要な第一層を提供します。 人工知能 (AI)はますます複雑になります。

これら フレームワークと原則 潜在的なリスクを軽減しながら、新興技術の機会を活用するのに役立ちます。 生成AI 「(Gen AI)です」と、シンガポールの個人情報保護法(PDPA)を監督する個人情報保護委員会(PDPC)の副委員長デニス・ウォン氏は述べた。同氏は業界規制機関である情報通信メディア開発庁(IMDA)の副長官も務めている。

また: AI倫理ツールキットが更新され、評価コンポーネントがさらに追加されました

テクノロジーの導入に関する会話はより 生成AIと複雑ウォン氏は、今週シンガポールで開催された「個人データ保護週間2024」会議のパネルディスカッションでこう述べた。組織は、他の問題の中でも、テクノロジーには何が必要か、それがビジネスにどのような意味を持つか、そしてどのようなガードレールが必要かを把握する必要がある。

基本的な枠組みを提供することで、影響を最小限に抑えることができると彼女は述べた。 ツールキットは出発点となる 企業が生成型AIアプリケーションを実験およびテストできるものには、 オープンソースツールキット これらは無料でGitHubで入手可能です。彼女は、シンガポール政府は今後も業界パートナーと協力してこのようなツールを提供していくと付け加えました。

これらの協力は生成AIの実験もサポートし、国がAIの安全性が何を意味するのかを理解できるようにするとウォン氏は述べた。ここでの取り組みには以下が含まれる。 大規模言語モデルのテストとレッドチーム 言語や文化など、地域的背景に関する法学修士(LLM)を取得する。

彼女は、これらのパートナーシップから得られる洞察は、PDPCやIMDAなどの組織や規制当局が、さまざまなLLMがどのように機能し、安全対策の有効性を理解するのに役立つだろうと述べた。

シンガポールは、 IBM そして グーグル テスト、評価、微調整 AIシンガポールの東南アジアLLM、SEA-LIONと呼ばれる、過去 1 年間で。この取り組みは、開発者が SEA-LION 上でカスタマイズされた AI アプリケーションを構築し、この地域向けに作成された LLM の文化的背景の認識を向上させることを支援することを目的としています。

また: 生成AIモデルが進化するにつれて、カスタマイズされたテストベンチマークとオープン性が重要になります

OpenAI やオープンソース モデルの主要なものを含め、世界中で LLM の数が増えているため、組織はさまざまなプラットフォームを理解するのが困難になっている可能性があります。同じパネルで講演した製薬会社 MSD のシンガポール テック センター AI 担当エグゼクティブ ディレクター、ジェイソン タマラ ウィジャヤ氏は、「各 LLM にはパラダイムと AI モデルへのアクセス方法があります」と述べました。

同氏は、企業はデータ関連の潜在的なリスクを特定するために、これらの事前トレーニング済み AI モデルがどのように動作するかを把握する必要があると述べた。組織が LLM にデータを追加し、トレーニング モデルを微調整しようとすると、状況はさらに複雑になる。検索拡張生成 (RAG) などのテクノロジーを活用することで、企業が適切なデータをモデルに入力し、役割ベースのデータ アクセス制御を維持する必要性がさらに強調される、と同氏は付け加えた。

同時に、企業はAIモデルが動作するコンテンツフィルタリング対策も評価する必要がある、なぜならそれが生成される結果に影響を与える可能性があるからだ、と彼は述べた。例えば、女性の健康管理に関するデータは、医学研究に不可欠な基礎知識を提供するにもかかわらず、ブロックされる可能性がある。

ウィジャヤ氏は、これらの問題を管理するには微妙なバランスが必要であり、困難であると述べた。 F5から学ぶ AI を導入している組織の 72% が、データ品質の問題とデータ プラクティスの拡張が不可能なことを AI 実装の拡張における主な課題として挙げていることが明らかになりました。

また: データが生成型 AI に対応できる状態であることを確認する 7 つの方法

世界中の 700 人以上の IT 意思決定者からのデータを分析したレポートによると、約 77% の組織が、データセットに関する唯一の信頼できる情報源を持っていないと回答しています。AI を大規模に展開していると回答したのはわずか 24% で、さらに 53% が AI とデータのスキルセットの不足が大きな障壁であると指摘しています。

シンガポールは、AIガバナンスとデータ生成に関する新たな取り組みを通じて、これらの課題の一部を緩和することを目指しています。

「企業は、既存の LLM 上にアプリケーションを展開するために、今後もデータを必要とするでしょう」と、デジタル開発情報大臣のジョセフィン・テオ氏は会議の開会演説で述べた。「モデルは、特定のアプリケーションでより優れたパフォーマンスを発揮し、より高品質の結果を生み出すために微調整する必要があります。そのためには、高品質のデータセットが必要です。」

また、RAG などの技術も使用できますが、これらのアプローチは、基本モデルのトレーニングに使用されなかった追加のデータ ソースでのみ機能します、と Teo 氏は述べています。また、モデルのパフォーマンスを評価してベンチマークするには、適切なデータセットも必要であると彼女は付け加えました。

また: 独自のデータを使用してAIモデルをトレーニングし、リスクを軽減する

「しかし、質の高いデータセットは、すべてのAI開発ですぐに利用できるわけではないし、アクセスできないかもしれない。たとえできたとしても、リスクは伴う。 [in which] データセットは代表的ではないかもしれない、 [where] 「それらに基づいて構築されたモデルは偏った結果を生み出す可能性がある」と彼女は述べた。さらに、データセットには個人を特定できる情報が含まれている可能性があり、その結果、生成AIモデルがプロンプトに応じてそのような情報を繰り返す可能性があるとテオ氏は述べた。

AIに安全ラベルを貼る

テオ氏はシンガポールが 生成AIモデルの安全ガイドライン アプリケーション開発者が問題に対処するためのガイドラインを策定しました。 国のAI検証フレームワーク透明性とテストを通じてベースラインの共通標準を提供することを目指しています。

「私たちのガイドラインでは、開発者や導入者は、Gen AIモデルやアプリがどのように機能するか、使用されるデータ、テストと評価の結果、モデルやアプリが持つ可能性のある残存リスクや制限などに関する情報をユーザーに対して透明性を持って提供することを推奨します」と彼女は説明した。

同氏は、ガイドラインでは、AI モデルやアプリケーションの導入前にテストすべき安全性と信頼性の属性についてさらに詳しく説明し、幻覚、有害な発言、偏見のあるコンテンツなどの問題にも対処するとしている。「これは、私たちが家電製品を購入するときと似ています。テスト済みであることを示すラベルが貼られますが、製品開発者がそのラベルを得るためには、何をテストする必要があるのでしょうか?」

PDPCはまた、 合成データ生成に関する提案ガイド、 含む プライバシー強化技術のサポート、または PET は、生成 AI で機密データや個人データを使用することに関する懸念に対処します。

また: AIへの関心が高まる中、透明性が著しく欠如している

テオ氏は、合成データ生成がPETとして登場していることを指摘し、提案されたガイドは、合成データの使用方法を含め、企業が「合成データを理解する」のに役立つはずだと述べた。

「PETは、個人を特定できる情報を削除または保護することで、個人データを危険にさらすことなく企業がデータの使用を最適化するのに役立ちます」と彼女は指摘した。

「PET は、機密性の高い個人データの取り扱いに関する多くの制限に対処し、データへのアクセス、共有、集合的な分析をより安全にすることで、新たな可能性を切り開きます。」





もっとニュース

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください