スポンサーリンク
Contents
スポンサーリンク
概要
OpenAIは、特定の将来のAIモデルにアクセスするために、組織がID確認プロセスを完了することを求める可能性があると、先週同社のウェブサイトに掲載されたサポートページで発表しました。
この確認プロセスは「Verified Organization」と呼ばれ、開発者がOpenAIプラットフォーム上で最も高度なモデルや機能にアクセスするための新しい方法です。
確認には、OpenAIのAPIがサポートする国の政府発行のIDが必要で、IDは90日ごとに1つの組織のみを確認できます。
すべての組織が確認の対象となるわけではないとOpenAIは述べています。
OpenAIは「AIが広くアクセス可能で安全に使用されることを確保する責任を真剣に受け止めている」とし、一部の開発者が利用規約に違反してAPIを悪用していることを指摘しています。
この確認プロセスは、AIの不安全な使用を軽減しつつ、先進的なモデルを広範な開発者コミュニティに提供するために導入されるとしています。
新しい確認プロセスは、OpenAIの製品がより高度化する中でのセキュリティ強化を目的としている可能性があります。
また、知的財産の盗難を防ぐための措置でもあると考えられます。
Bloombergの報告によれば、OpenAIは中国のAIラボDeepSeekに関連するグループがAPIを通じて大量のデータを不正に取得したかどうかを調査しているとのことです。
OpenAIは昨年夏に中国でのサービス提供を停止しました。
ポイント
- OpenAIは、AIモデルにアクセスするためにID検証プロセスを導入する可能性がある。
- この検証プロセスは、開発者が最新のモデルにアクセスするための方法である。
- 不正使用を防止するために、より厳格なセキュリティ強化が図られている。
詳しい記事の内容はこちらから
参照元について
スポンサーリンク
スポンサーリンク