Google CloudとAIモデルを作る会社であるHugging Faceの新しいパートナーシップは、AI開発の世界に新たな動きをもたらしています。これにより、開発者はGoogle Cloudのサブスクリプションを必要とせずに、AIモデルの構築、トレーニング、デプロイをすることが可能になります。
Hugging Faceのプラットフォームを利用する開発者は、GoogleのTPUという処理ユニットや、GPUスーパーコンピュータにアクセスできるようになります。これには、需要が高く、輸出制限のあるNvidiaのH100も含まれています。これは、開発者にとって非常に大きなメリットをもたらすものです。
Hugging Faceは、メタのLlama 2やStability AIのStable Diffusionなど、オープンソースの基盤モデルを保存する、人気の高いAIモデルの開発会社です。また、モデルトレーニング用の多くのデータベースも保有しています。現在、35万以上のモデルがプラットフォーム上で開発者によって使用されており、GitHubのように自身のモデルをアップロードすることも可能です。
今回のGoogleとHugging Faceのパートナーシップは、Google CloudがオープンソースAIエコシステムの発展を支援するというGoogleの声明を反映しています。Googleの大規模言語モデルであるGeminiや、画像生成モデルのImagenはHugging Faceのプラットフォームには含まれておらず、クローズドなモデルと見なされています。しかし、今回の協力関係は、オープンソースAIの範囲を広げ、多様な開発者にリソースを提供する大きな一歩となるでしょう。この協力関係は、オープンソースAIの可能性を拡大し、ビジネスや日常生活におけるAIの活用をさらに促進することになります。今後のAI技術の進展とともに、このパートナーシップがどのような成果を生み出すか、大いに期待が寄せられています。
参考:https://www.theverge.com/2024/1/25/24050445/google-cloud-hugging-face-ai-developer-access |