中国のスタートアップ、DeepSeekが話題です。彼らの新しい推論モデル DeepSeek-R1は、OpenAIの高性能モデルと同等の性能を持ち、わずか560万ドル(約872億円)という低コストで訓練したと発表されています。対照的に、OpenAIのGPT-4 の訓練には 1億ドル(1兆5500億円)もの費用がかかっています。
DeepSeekは、米国の輸出規制によりNvidiaのH100 GPUを使用できないという制約の中で、高性能なAIモデルを開発しました。代替として用いられたH800 GPUは、チップ間のデータ転送速度が制限されているため、通常であればAIモデルの訓練効率が低下します。しかし、DeepSeekはこのハードウェア制限を克服するために、データ圧縮やロードバランシングの最適化など、さまざまな革新技術を導入しました。
特に注目すべきは、「Mixture of Experts(MoE)」という手法の進化です。MoEは、モデル全体を動作させるのではなく、必要な部分のみをアクティブにすることでメモリ使用量を抑え、処理速度を向上させるものです。これにより、DeepSeekは低コストで高性能なモデルを構築することに成功しました。この技術革新により、「AI推論コストの劇的な低下」や、「OpenAIを含む他企業の戦略の見直し」が図られることになるでしょう。
また、DeepSeekの技術革新によって、特に Apple(AAPL)は大きな利益を得る可能性があります。Appleは、ユーザーのデータプライバシーを重視し、できる限りデバイス上でAI処理を行う(オンデバイスAI)という戦略をとっています。しかし、AIモデルをローカルで動作させるには、高性能なチップと十分なメモリが必要になります。そこでDeepSeekの技術をAppleが取り入れれば、「Siriの大幅な改善」や「オフラインAI機能の拡充」「カメラや生産性ツールの向上」などが見込めると言われているのです。
DeepSeekの技術革新は、AI業界全体に大きな影響を与えています。特に、低コストで高性能なAIモデルの構築が可能になったことで、AIの民主化が加速する可能性があります。OpenAIのサム・アルトマン氏は、この変化を受けて、よりオープンな戦略にシフトする可能性を示唆しました。この動きは、AI技術の共有と発展を促し、AppleやMetaといった大手企業の競争力をさらに高めることになるでしょう。今後のAI業界の動向に注目が集まる中、DeepSeekのような新興企業がどのように市場を変えていくのか、大きな注目を集めています。
記事元:https://www.wsj.com/tech/ai/sam-altmans-answer-to-deepseek-is-giving-away-openais-tech-d1a5a9ec |