概要
Nvidiaは2025年末、Groqの知的財産と主要人材を約2兆円で取得。 買収ではなく「非独占ライセンス契約」として構造を工夫。 GroqCloud事業やサウジ契約は切り離し、規制や地政学リスクを回避。 SRAM中心のLPUアーキテクチャが推進力、AI推論市場の変化を見据えた決断。 この取引で勝者・敗者が明確化、米AI業界の構造変化を象徴。
NvidiaによるGroq「非買収」劇の真相
- 2025年11月、Groq CEO Jonathan RossがNvidiaへの挑戦理由を問われ「競争は無駄。差別化こそ価値」と発言
- 49日後、Nvidiaが Groqの知的財産と経営陣 を 約2兆円 で取得
- ただし、 Groq本体やGroqCloud事業は買わず、IPと人材のみを引き抜き
- Jensen Huangの声明「Groqを会社としては買収しない」が全てを物語る
- 過去最大規模の投資 であり、通常の買収とは異なる構造
Nvidiaが取得したもの/しなかったもの
- 取得したもの
- Groqの知的財産・特許
- Groqの推論技術の非独占ライセンス
- CEO Ross、President Madra、幹部チーム
- 取得しなかったもの
- GroqCloud事業(クラウドインフラ)
- GroqCloudはCFO Simon Edwardsの下で独立運営継続
LPUアーキテクチャの意義
- 従来のCPU/GPUは 外部DRAM/HBM依存、推論時のレイテンシ・消費電力が課題
- TPUは大容量バッファとシストリックアレイ で効率化も、完全な解決に至らず
- GroqのLPUはSRAM大容量搭載、推論モデル全体をオンチップで保持
- 帯域80TB/s、容量230MB/チップ
- 外部メモリボトルネック排除、完全決定論的実行
- 推論速度・低消費電力 で圧倒的優位
- Llama 2 7B:750トークン/秒
- Llama 2 70B:300トークン/秒
- Mixtral 8x7B:480トークン/秒
- 制約: 14GBのSRAM/ラック、超巨大モデルは非対応、学習不可
取引構造とその狙い
- 2025年9月にGroqは $6.9B評価で資金調達
- 3ヶ月後、 Nvidiaが$20BでIPと人材を取得 (実質3倍のプレミアム)
- 従来型M&Aなら発生する規制審査やCFIUS、株主投票を回避
- 「非独占ライセンス」は 法的フィクション、実質的独占確保
- Nvidiaが得たもの
- 規制回避による迅速な統合
- Meta/Llama連携の無力化
- GroqCloud切り離しでサウジ契約回避
- 政治的利得(投資家・政権との関係強化)
- 他社による買収・提携阻止
サウジアラビア問題の回避
- サウジは2025年2月、 Groqのデータセンター拡張へ$1.5B投資
- GroqCloudは中東・欧米で AIインフラ提供、国家規模の推論基盤
- これが CFIUS(対米外国投資委員会)問題 を引き起こす懸念
- Nvidiaは GroqCloud事業を切り離すことで規制・地政学リスク回避
誰が得をしたか
- VC(Chamath, BlackRock等) :持分に応じて配分
- 経営陣(Ross, Madra他) :Nvidiaでのリテンション・サインオンボーナス、既存株式も現金化
- 一般従業員 :契約次第だが、持株分が分配される可能性も(詳細は非公開)
今後の展望
- SRAM中心アーキテクチャ の価値がAI推論時代で再評価
- Nvidiaのエコシステム支配 強化、競合他社の選択肢縮小
- 規制の抜け道をついた新しいM&A手法 の象徴
- 米国AI産業の地政学的リスク回避策 としても注目