スポンサーリンク
Contents
スポンサーリンク
概要
OpenAIは、深い研究を支えるAIモデルを開発者APIに提供しないことを発表しました。
これは、AIが人々の信念を変えたり行動を促したりするリスクをより良く評価する方法を模索しているためです。
水曜日に公開されたホワイトペーパーでは、OpenAIが「現実世界の説得リスク」を調査する方法を見直していることが述べられています。
特に、誤解を招く情報を大規模に配布するリスクに焦点を当てています。
OpenAIは、深い研究モデルが高い計算コストと比較的遅い速度のため、大規模な誤情報キャンペーンには適していないと考えています。
それでも、AIが有害な説得コンテンツを個別化する可能性を探る意向を示しています。
現在、深い研究モデルはChatGPTでのみ展開されており、APIには導入されていません。
AIが虚偽情報の拡散に寄与している懸念が高まっており、特に政治的なディープフェイクが問題視されています。
OpenAIのホワイトペーパーでは、深い研究モデルの説得力に関するいくつかのテスト結果が公開されました。
このモデルは、OpenAIの他のモデルと比較して最も優れたパフォーマンスを示しましたが、人間の基準には及びませんでした。
また、他のモデルに対して金銭を説得するテストでも良好な結果を出しましたが、すべてのテストで高得点を得たわけではありません。
OpenAIは、これらのテスト結果が深い研究モデルの能力の「下限」を示している可能性があると述べています。
競合他社のPerplexityは、独自の「深い研究」APIを発表しており、AI市場は競争が激化しています。
ポイント
- OpenAIは、AIの誤情報拡散リスクを評価中で、APIには深い研究モデルを提供しない。
- 深い研究モデルは高コストで遅いため、大規模な誤情報キャンペーンには不向きとされる。
- 競合のPerplexityは、独自の「深い研究」APIを発表し、競争が激化している。
詳しい記事の内容はこちらから
参照元について

『TechCrunch』のプロフィールと信ぴょう性についてここでは『TechCrunch』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。
記事を読む際の参考にし...
スポンサーリンク
スポンサーリンク