スタンフォード大学の人間中心AI研究所(HAI)が、2023年のAIインデックスを発表しました。現在のAIの状況について詳しく説明しています。今回はその内容を一部抜粋して紹介したいと思います。
大規模言語モデルの成長
大規模言語モデル(LLM)が目覚ましく成長している中で、これらのモデルの規模とコストは年々増大しています。2019年にリリースされたGPT-2は、15億のパラメータを持ち訓練には約50,000ドル(日本円:約710万円)の費用がかかったとされています。それに対して、3年後にローンチされたPaLMは、5400億のパラメータを持ち、訓練には約800万ドル(日本円:約11億3,600万円)の費用がかかったと推定されています。LLMの成長は、そのAIの能力とその応用範囲がどれほど広範になっているかを示しています。
新しいベンチマークの必要性
スタンフォード大学のHAIによると、これまでのテスト方法を再評価する時期が来ているとのことです。多くのAIツールは、既存のベンチマークを一貫して満たすか、それを上回っており、これらのシステムが成熟していることを示しています。このようなAIのベンチマークが飽和状態に達していることは、AIの性能を評価するための新たな基準の必要性を示しています。新しいベンチマークの開発は、AIの進化を適切に評価し、その可能性を最大限に引き出すために不可欠なことであると考えられています。
AIが環境に及ぼす影響
AIの進化は社会全体に影響を及ぼし、特に大規模AIモデルの訓練は環境負荷の増大を引き起こしています。GPT-3などのAIモデルは二酸化炭素排出の主要源となっています。これに対処するため、エネルギー効率の高いハードウェアやエネルギー消費を抑えるアルゴリズムの開発、再生可能エネルギーの使用などが求められています。
これらのトピック以外にも、ビジネスパーソンが知っておくべきトピックが満載のレポートになっています。記事もぜひご覧ください。
参考:https://hai.stanford.edu/news/2023-state-ai-14-charts |