AI

ChatGPTの消費エネルギーは最新研究で再評価、使用方法で変動

概要

最近の研究によると、ChatGPTの消費エネルギーは以前の予測よりも低いかもしれません。非営利AI研究所であるEpoch AIの調査によれば、ChatGPTのクエリ処理に必要なエネルギーは平均0.3ワット時と推定されています。これは多くの家庭用電化製品よりも少ない消費量です。

従来の研究では、ChatGPTのクエリ処理に3ワット時が必要とされていましたが、この推定は古いチップを使用した場合のものであり、実際には過大評価されている可能性があります。Epoch AIのデータアナリストであるJoshua You氏は、最新のモデルGPT-4oを使用して0.3ワット時という数字を算出しました。

ただし、ChatGPTの消費エネルギーは使用方法や機能により異なるため、画像生成や長い入力ファイルの処理などの特定の機能は追加のエネルギーコストを伴います。また、AI技術の進化に伴い、将来的にはより多くのエネルギーを消費する可能性もあります。

現在、AIの急速な普及により、インフラ拡大のための電力需要が増大しています。AIデータセンターの拡大により、今後数年間で膨大な電力が必要とされるでしょう。2022年のカリフォルニア州の電力容量に匹敵する68ギガワットが必要とされる可能性があるとRand報告書は予測しています。

AIの効率性向上が進んでいるものの、推論モデルの導入などにより、電力需要は依然として高まると考えられます。推論モデルは複雑なタスクを処理するために多くの計算リソースを必要とするためです。

消費エネルギーに対する懸念がある場合、利用頻度を減らすか、計算リソースを最小限に抑える小規模なAIモデルの利用を検討することが推奨されます。

ポイント

  1. ChatGPTの平均クエリ消費は0.3ワット時、以前の3ワット時推定は過大評価。
  2. AIデータセンター拡大により電力需要増、68ギガワット必要予測。
  3. 推論モデルは多くの計算リソースを消費し、効率向上でも電力需要高。

詳しい記事の内容はこちらから

参照元について

ビジネス・経済 最新情報
ゲーム 最新情報