AI

AI規制の新提言、未知のリスクに備えるための法整備を提案

概要

カリフォルニア州を拠点にした政策グループが、新たな報告書でAI規制政策を策定する際、未だ観察されていないリスクも考慮すべきだと提案しています。この報告書は、カリフォルニア州知事ギャヴィン・ニューサムによるAI安全法案SB 1047の拒否を受けて設立された「フロンティアAIモデルに関するカリフォルニア政策作業グループ」によるものです。

報告書では、OpenAIなどの最前線AI研究所が開発するAIモデルに対する透明性を高めるための法案が求められています。また、AI開発者には安全性テストやデータ取得の実施状況、セキュリティ対策を公開することが求められ、第三者による評価の基準強化や、AI企業の従業員・契約者向けの内部告発者保護も提案されています。

AIがサイバー攻撃や生物兵器作成などに利用される可能性については証拠が不十分であるものの、未来のリスクに備えた政策策定が重要であると指摘しています。最終版は2025年6月に発表予定で、AI安全性に関する議論の重要なステップとなることが期待されています。

ポイント

  1. 報告書はAIモデル開発における透明性向上とリスク予測の必要性を強調。
  2. 安全テスト結果やデータ取得手法を公開し、第三者評価基準の強化を提案。
  3. AI政策は現在のリスクだけでなく、未来の脅威も考慮すべきと主張。

詳しい記事の内容はこちらから

参照元について

『TechCrunch』のプロフィールと信ぴょう性についてここでは『TechCrunch』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。 記事を読む際の参考にし...
ビジネス・経済 最新情報
ゲーム 最新情報