ホーム jpn AIへの関心が高まる中、透明性が著しく欠如している

AIへの関心が高まる中、透明性が著しく欠如している

36
0


アンドリー・オヌフリエンコ/ゲッティイメージズ

基盤モデルのトレーニング方法については依然として透明性が欠如しており、このギャップは、より多くの組織が採用を検討するにつれて、ユーザーとの緊張を高める可能性があります。 人工知能 (AI)。

中国を除くアジア太平洋地域では、IDC は次のように計画しています。 AIへの支出 は、2022 年の 255 億ドルから 28.9% 増加し、2027 年には 907 億ドルに達すると予想されます。調査会社は、この支出の 81% が予測および解釈型 AI アプリケーションに振り向けられると推定しています。

また: AIを責任を持って使う5つの方法

だから、たくさんある一方で、 生成型 AI に関する誇大宣伝IDCアジア太平洋担当副社長のクリス・マーシャル氏は、このAIセグメントは同地域のAI支出のわずか19%を占めるに過ぎないだろうと予測した。今週シンガポールで開催されたインテルAIサミットでマーシャル氏は、この調査は、生成型AIを超えたAIへのより幅広いアプローチを必要とする市場を浮き彫りにしていると発言した。

しかしIDCは、アジア太平洋地域の企業の84%が、生成AIモデルを活用することで自社のビジネスに大きな競争優位性をもたらすと考えていると指摘した。これらの企業は、業務効率と従業員の生産性の向上、顧客満足度の向上、新しいビジネスモデルの開発を望んでいると、同調査会社は付け加えた。

また: 最高の AI チャットボット: ChatGPT およびその他の注目すべき代替手段

また IDC は、この地域の組織の大多数が 2024 年にエッジ IT 支出を増加すると予想しており、2025 年までに企業データの 75% が従来のデータセンターやクラウド以外のエッジで生成および処理されると予測されています。

「AIを本当にあらゆる場所にもたらすには、使用されるテクノロジーが個人、業界、そして社会全体にアクセス性、柔軟性、透明性を提供する必要があります」とインテルのアジア太平洋日本CTO、アレクシス・クロウェル氏は声明で述べた。「AIへの投資がますます増える中、今後数年間は市場が責任を持って思慮深くAIの成熟基盤を構築することが極めて重要になるでしょう。」

業界関係者や政府は、AIに対する信頼と透明性を構築すること、そして消費者がAIシステムが「公平で、説明可能で、安全しかし、ZDNETが、オープンな大規模言語モデル(LLM)と基礎モデルがどのようにトレーニングされているかについて、現在十分な透明性があるかどうかを尋ねたところ、クロウェル氏は「いいえ、十分ではありません」と答えた。

彼女は次の研究を指摘した スタンフォード大学、MIT、プリンストン大学の研究者 同氏は10の主要な財団モデルの透明性を評価したが、最高得点を獲得したプラットフォームでも54%のスコアしか取れなかった。「これは不合格点だ」と同氏はサミットの記者会見で述べた。

また: 今日のAIブームは、今すぐ行動しなければ社会問題を増幅させるだろう

この研究によると、平均スコアはわずか 37% でした。この研究では、トレーニング データ、モデルのアーキテクチャとリスク、モデルを管理するポリシーに関する情報など、モデルの構築に関わるプロセスを含む 100 の指標に基づいてモデルを評価しました。使用。 最高得点者は Meta の Llama 2 で 54%、続いて BigScience の Bloomz が 53%、OpenAI の GPT-4 が 48% でした。

「主要な基礎モデル開発者は誰も適切な透明性を提供できておらず、AI業界における透明性の根本的な欠如を明らかにしている」と研究者らは指摘した。

透明性は必要だ

クロウェル氏は、この状況が、 ベンチマーク AI の開発を監視する組織。 彼女は、次のように付け加えた。 OpenAI と Microsoft に対するニューヨーク タイムズ紙は、さらなる法的明確化をもたらすのに役立つ可能性があります。

あるべき ガバナンスの枠組み 欧州のGDPR(一般データ保護規則)を含むデータ管理法に類似した法律を制定し、ユーザーが自分のデータがどのように使用されているかを知ることができるようにする必要があると彼女は指摘した。企業は、 彼らのデータはどのように は捕らえられ、どこへ行くのか、と彼女は言い、緊張が高まっていると付け加えた。 ユーザーはさらなる透明性を求めています 業界の行動を促すかもしれない。

現状では、AIユーザーの54%がAIを信頼していない。 AIシステムのトレーニングに使用されるデータ、最近の情報によると Salesforce 調査この調査は、米国、英国、アイルランド、オーストラリア、フランス、ドイツ、インド、シンガポール、スイスの約6,000人の知識労働者を対象に実施されました。

また: AIと高度なアプリケーションが現在の技術インフラに負担をかけている

クロウェル氏は、一般的な考えに反して、正確性は透明性を犠牲にする必要はないと、研究報告書を引用して述べた。 ボストンコンサルティンググループが主導。 このレポートでは、価格設定、医療診断、破産予測、購買行動など、約 100 のベンチマーク分類データセットに対してブラック ボックスとホワイト ボックスの AI モデルがどのように機能したかを調査しました。 データセットのほぼ 70% について、ブラック ボックス モデルとホワイト ボックス モデルは同様に正確な結果を生成しました。

「言い換えれば、多くの場合、正確性と説明可能性の間にトレードオフはなかった」と報告書は述べている。「正確性を犠牲にすることなく、より説明可能なモデルを使用できる可能性がある」

しかし、完全な透明性を確保することは依然として困難であるとマーシャル氏は述べた。 同氏は、AIの説明可能性に関する議論はかつて盛んだったが、対処が難しい問題であるため、その後は下火になったと指摘した。

また: IT プロフェッショナルに対する生成 AI の影響に備える 5 つの方法

AIシンガポール(AISG)のAIイノベーションディレクター、ローレンス・リュー氏によると、主要な基盤モデルを運営する組織は、訴訟を恐れてトレーニングデータについて積極的に開示したがらない可能性があるという。同氏は、トレーニングデータの選択はAIの精度にも影響する可能性があると付け加えた。リュー氏は、AISGが特定のデータセットを使用しないことを選択したのは、公開されているすべてのデータセットを独自のデータセットで使用することに伴う潜在的な問題のためだと説明した。 LLMイニシアチブ、SEA-LION (東南アジアの言語をひとつのネットワークに)

その結果、オープンソース アーキテクチャは、今日の市場にある一部の主要な LLM ほど正確ではない、と同氏は述べました。 「それは絶妙なバランスだ」と同氏は述べ、高い正解率を達成するには、利用可能なあらゆるデータを使用するオープンなアプローチを採用する必要があると付け加えた。 「倫理的」な道を選択し、特定のデータセットに触れないということは、商用プレーヤーが達成する精度よりも精度が低いことを意味すると同氏は述べた。

シンガポールはSEA-LIONで高い倫理基準を選択したが、LLMの精度を向上させるためにより多くのデータセットを活用するよう求めるユーザーからの挑戦が依然として多いとリュー氏は述べた。

のグループ シンガポールの著者と出版社は先月懸念を表明した 彼らの研究がシーライオンの訓練に利用される可能性について、彼らは不満を表明した。彼らの不満の中には、彼らの著作の使用に対して「正当な補償を支払う」という約束が明らかに欠如していることが挙げられる。彼らはまた、LLM の創設と訓練において、国の知的財産権と著作権に関する法律、および既存の契約上の取り決めが遵守されることを明確にし、明示的に認める必要があると指摘した。

オープンソースについて透明性を保つ

Red Hat CEO Matt Hicks 氏によると、このような認識は AI アプリケーションを開発するオープンソース フレームワークにも拡大されるはずです。

モデルは著作権を持つ人々から提供された大量のデータに基づいてトレーニングされており、これらの AI システムを責任を持って使用するということは、使用するライセンスを遵守することを意味するとヒックス氏は今週 Red Hat Summit 2024 に伴うバーチャルメディアブリーフィングで述べました。

また: AI 業界で働きたいですか? 5 つのステップでキャリアを転換する方法

これは、GPL などのコピーレフト ライセンスや Apache などの寛容なライセンスなど、さまざまなライセンス バリアントを持つオープンソース モデルに関係します。

彼は、透明性の重要性と、データ モデルを理解し、モデルが生成する出力を処理する責任の重要性を強調しました。AI アーキテクチャの安全性とセキュリティの両方を確保するには、モデルが悪意のある攻撃から保護されていることを確認する必要があります。

Red Hat は、サミットで発表した Red Hat Enterprise Linux AI (RHEL AI) などの多数のツールを通じて、顧客のこうした取り組みを支援したいと考えています。 この製品は、Open Granite 言語と InstructLab コミュニティのコード モデルを含む 4 つのコンポーネントで構成されており、Red Hat によってサポートおよび補償されます。

このアプローチは、アプリケーションとモデルのライフサイクルの管理など、組織がAI導入でしばしば直面する課題に対処するとオープンソースベンダーは述べている。

」[RHEL AI] Red Hat は、オープンソースライセンスの GenAI モデルを企業に導入するための基盤モデル プラットフォームを作成します。「InstructLab アライメント ツール、Granite モデル、RHEL AI を使用して、Red Hat は真のオープンソース プロジェクトの利点を適用することを目指しています。自由にアクセスでき、再利用可能で、透明性があり、これらの障害を取り除く取り組みとして GenAI に貢献することができます。」





もっとニュース

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください