スポンサーリンク
Contents
スポンサーリンク
概要
AIスタートアップCohereの非営利研究ラボが、最先端のマルチモーダルAIモデル「Aya Vision」を発表しました。
このモデルは、画像キャプションの作成、写真に関する質問への回答、テキストの翻訳、23の主要言語での要約生成などのタスクを実行できます。
Cohereは、Aya VisionをWhatsAppを通じて無料で提供し、技術的なブレークスルーを研究者に広くアクセス可能にする重要なステップと位置付けています。
Cohereは、AIモデルの言語間のパフォーマンスのギャップを埋めることを目指しており、Aya Visionはそのために設計されています。
Aya Visionには、Aya Vision 32BとAya Vision 8Bの2つのバージョンがあり、32Bは特定の視覚理解ベンチマークで2倍のサイズのモデルを上回る性能を示しています。
両モデルは、商業利用不可のCreative Commons 4.0ライセンスの下でAI開発プラットフォームHugging Faceから入手可能です。
Cohereは、合成アノテーションを使用してAya Visionを訓練し、リソースを節約しつつ競争力のある性能を達成しました。
新たにリリースされたベンチマークスイート「AyaVisionBench」は、視覚と言語のタスクを評価するためのフレームワークを提供します。
Cohereは、AI業界の評価危機を解決するために、AyaVisionBenchが多言語およびマルチモーダル理解の評価を推進することを期待しています。
ポイント
- Cohereが発表したAya Visionは、23言語で画像キャプションや質問応答が可能なモデルです。
- Aya Visionは、合成アノテーションを用いて効率的に学習し、リソースを削減しています。
- Cohereは新たにAyaVisionBenchを提供し、モデルの視覚と言語の評価を強化しています。
詳しい記事の内容はこちらから
参照元について

『TechCrunch』のプロフィールと信ぴょう性についてここでは『TechCrunch』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。
記事を読む際の参考にし...
スポンサーリンク
スポンサーリンク