AI

OpenAIの新モデルo3とo4-mini、ハルシネーション問題が悪化している理由とは

概要

OpenAIによる新モデルのo3とo4-miniは多くの点で最先端だが、残念ながら「幻覚」現象が増加している。
これは、モデルが事実でない情報を作り出すもので、AIの最大の課題の一つだ。
歴史的に新しいモデルは幻覚の頻度を減らしてきたが、今回のモデルは逆に多くなる傾向にある。
OpenAIの内部テストでは、o3やo4-miniは、従来の推論型モデルやGPT-4oよりも頻繁に幻覚を起こし、特にo4-miniはPersonQAで48%の誤答率を示した。
第三者の調査によると、o3は回答の過程で自分の行動を錯誤で作り出す傾向も見られ、なぜ幻覚が増えているのかについては、「さらなる研究が必要」とされている。
推論モデルの訓練手法の一つが、幻覚の問題を悪化させている可能性もある。
また、o3はウェブ検索機能を持つモデルと比較して、リンクの誤りや情報の信頼性に欠ける点も指摘されている。
幻覚は創造性や新しいアイデアを生み出すには役立つ反面、ビジネスや法務など正確性が求められる分野では大きな障害となる。
一方、ウェブ検索を導入すると、モデルの正確性や推論の信頼性は向上し得る。
それでも、推論モデルの拡大とともに幻覚増加の問題に対処する必要性が高まっている。
OpenAIは、引き続きこの問題の研究と改善に取り組んでいるが、AI業界全体も同様の課題に直面している。

ポイント

  1. OpenAIのo3とo4-miniモデルは、以前のモデルよりも幻覚を多く引き起こす。
  2. o3はPersonQAで33%の幻覚率を示し、o4-miniは48%に達した。
  3. 幻覚の問題はAIの精度に影響し、特にビジネス用途での信頼性を損なう。

詳しい記事の内容はこちらから

参照元について