スポンサーリンク
Contents
スポンサーリンク
概要
Metaは次期主要AIモデル「Llama 4」において、音声機能の強化を計画しているとFinancial Timesが報じています。
このモデルは数週間以内に登場する見込みで、ユーザーがモデルの発話中に中断できる機能に特に注力しているとのことです。
これはOpenAIのChatGPTのVoice ModeやGoogleのGemini Live体験に似た機能です。
Metaの最高製品責任者クリス・コックス氏は、Llama 4が音声、テキスト、その他のデータをネイティブに解釈・出力できる「オムニ」モデルになると述べています。
また、中国のAIラボDeepSeekのオープンモデルがMetaのLlamaモデルと同等かそれ以上の性能を発揮していることが、Llamaの開発を加速させる要因となっています。
MetaはDeepSeekがモデルの運用コストをどのように削減したのかを解明するために、戦略会議を設けたとされています。
ポイント
- Metaは次期AIモデル「Llama 4」で音声機能の強化を計画している。
- Llama 4は音声とテキストを同時に処理できる「オムニ」モデルになる。
- 中国のDeepSeekの成功がLlama開発を加速させている。
詳しい記事の内容はこちらから
参照元について

『TechCrunch』のプロフィールと信ぴょう性についてここでは『TechCrunch』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。
記事を読む際の参考にし...
スポンサーリンク
スポンサーリンク