安全性は、急速な成長に伴う最大の懸念事項の一つです。 生成型人工知能 モデル。A 7ページの苦情 ワシントンポスト紙が入手した、OpenAI の安全対策に関する内部告発者による告発は、こうした懸念をさらに高めるばかりでした。その結果、OpenAI は現在、安全対策の最新情報を一般に公開しています。
また: 世界のAI主導権争いはガバナンスに帰着するかもしれない
火曜日、OpenAIはX(旧Twitter)で、 アップデートのまとめ 「仕事において安全をどのように優先しているか」について。スレッドには最近の取り組みのハイライトや現在のプロジェクトの最新情報が含まれていました。
OpenAIは、 準備フレームワーク12月にベータ版が初めてリリースされた。このフレームワークには、さまざまな指標でモデルスコアカードを提供したり、「中程度」のリスクしきい値を超えた場合は新しいモデルをリリースしないなど、OpenAIが最先端のAIモデルの安全性を確保するために講じているさまざまな予防措置が含まれている。
同時に、OpenAIは、同社と関係者がAIの進歩を分類し追跡するのに役立つ「レベル」を積極的に開発しており、これについては「近日」に詳細を発表する予定だと発表した。
OpenAI はまた、同社の安全・セキュリティ委員会の最新情報も発表した。この委員会は当初、同社の運営にさらなるチェックとバランスの層を加えるために 5 月に OpenAI の取締役会によって設置された。技術および政策の専門家を含むこの委員会によるレビューは現在進行中である。このレビューが終了したら、OpenAI は今後予定しているさらなる措置を発表する予定である。
最後に、OpenAIは、同社によると「保護された情報開示を行う従業員の権利を保護する」内部告発ポリシーに注目を集めました。この技術に関する対話を促進するため、同社は従業員の退職手続きも変更し、非中傷条項を削除しました。
また: AppleがAIへの取り組みを加速:新モデルで何ができるか
OpenAIはこれらのアップデートを、 米国の議員らはOpenAIに 内部告発報告を受けて、OpenAIは安全対策に関するデータを共有した。報告書の主な論点には、OpenAIがスタッフが技術リスクに関して適切な当局に通報することを妨害したことや、従業員に内部告発者への補償に対する連邦政府の権利を放棄させたことなどがあり、Xの投稿ではその両方について取り上げている。