ディープシーク(DeepSeek)は、最新のAIモデルV3の開発において、NVIDIAの低スペックサーバー用GPUであるH800を使用しました。これは、アメリカ政府のAIチップ輸出規制により、最新鋭のGPUを自由に活用できない状況の中で選んだ代替案です。
H800 GPUの特徴
H800は、NVIDIAの高スペックチップH100の性能を大幅に抑えたバージョンで、データ転送速度はH100よりも55%低い、1秒あたり400GBレベルとなっています。このH800 GPUは、ディープシークがV3モデルのトレーニングに2048枚使用したことが明らかになっています。
開発費用と効率性
ディープシークはV3モデルの開発に約80億ウォン、総279万時間分のH800 GPUを使用したと主張しています。これはGPT-4の開発費用の約6%に相当する金額であり、驚くべきコスト効率を示しています。
論争と疑念
しかし、ディープシークの主張に対して疑問が提起されています。\n1. 一部の専門家は、ディープシークが実際にはもっと多くのGPUを保有している可能性があると疑っています。
2. 開発費用に事前の研究や実験費用が含まれていないとの指摘があります。
3. 一部では、2048枚の低スペックGPUの背後に5万枚のH100が動作しているという噂もあります。
影響と展望
ディープシークの成果はAI業界に大きな波紋を広げています。NVIDIAの株価が下落する中で、中小のAI企業に新たな可能性を示唆しています。また、PC向けAIチップ市場の成長とGDDRメモリの重要性が強調されています。
結論として、ディープシークのH800 GPUの使用はAIモデル開発の新しいパラダイムを示しましたが、その実際の内容については依然として論争が続いています。今後、この技術の進展と検証過程を見守る必要があります。