![]()
2025年圣誕前夜,英偉達扔出個重磅消息:花200億獲取AI芯片初創公司Groq的技術授權,還把對方首席執行官在內的核心高管全挖了過來。
這可是英偉達史上最大一筆交易,金額差不多抵得上過去所有并購案的總和。
本來想覺得這錢花得冤,畢竟Groq成立才9年,算個行業小字輩,但后來發現里面全是門道。
![]()
這筆交易的模式挺耐人尋味。它不是完全收購,而是非排他性技術授權加人才挖角。
有媒體說這是資產收購,但更多報道都謹慎強調了“技術授權”這個核心。
為啥要這么操作?很顯然,是為了避開反壟斷審查。
英偉達現在市值快摸到3.5萬億美元,體量擺在這,監管機構盯著它的每一個大動作。
![]()
要是直接全收購,大概率會觸發審查紅線,反而耽誤事。
200億買的不只是技術,還有整個團隊的經驗和專利。
尤其是Groq的創始人,他可是谷歌TPU的創始人之一。
這人對AI芯片架構的理解,怕是硅谷沒幾個工程師能比。
![]()
把他挖過來,相當于從谷歌陣營撬走了關鍵人物。
這種操作既拿到了核心技術,又網羅了頂尖人才,還規避了風險,不得不說想得挺周全。
Groq的核心產品是LPU,也就是語言處理單元。
這東西和英偉達的GPU壓根不是一回事,專門為AI推理設計的。
![]()
可能有人不清楚,AI行業分訓練和推理兩個階段。
訓練是教模型干活,推理是讓模型實際干活。
英偉達的GPU在訓練市場幾乎壟斷,但推理市場的風向正在變。
Groq宣稱他們的LPU推理速度比英偉達的H100快不少,成本還低很多。
![]()
本來以為是營銷話術,深入了解后發現技術原理站得住腳。
傳統GPU是從圖形處理演變來的,追求通用性,這就帶來了不確定性問題。
處理數據時要頻繁調用內存,速度自然慢下來。
Groq的LPU采用了確定性架構,從零開始專為大語言模型實時推理設計。
![]()
它把計算和數據流動做成了確定性的流水線,大幅減少內存調用次數,延遲低到離譜。
業內測試顯示,在生成式AI任務里,它的延遲能低到每token幾十微秒級別。
對于聊天機器人、實時翻譯這些需要快速響應的場景,這個速度優勢太關鍵了。
有這樣的技術,Groq自然成了英偉達的潛在威脅。但Groq不是唯一的對手。
![]()
谷歌的TPU、亞馬遜的Trainium、AMD的Instinct,都在瘋狂搶推理市場的份額。
蘋果、Anthropic這些科技巨頭已經開始用TPU訓練模型,Meta也計劃在2027年部署谷歌TPU,直接繞過英偉達的芯片。
更讓英偉達頭疼的是軟件生態問題。它能壟斷訓練市場,很大程度靠的是CUDA軟件平臺。
全球AI開發者幾乎都在用CUDA,這種生態粘性很難撼動。
![]()
但推理端不一樣,任務相對標準化,對軟件生態的依賴沒那么強。
這就給了其他廠商機會,他們可以推自己的芯片和工具鏈,慢慢培養獨立的開發者社區。
一旦這個趨勢形成,英偉達的CUDA護城河就可能被繞過。
如此看來,英偉達收購Groq更像是買了份保險。
![]()
用200億補上推理端的短板,拿到不落后的技術底氣,爭取到繼續領先的時間窗口。
Groq的LPU技術能整合到英偉達現有的產品線,再借助英偉達的分銷渠道和生態,很快就能覆蓋全球市場。
以前開發者想用Groq的芯片只能找Groq,現在通過英偉達的平臺就能拿到,普及速度會快很多。
對于超大規模云廠商來說,他們可能還會堅持自己的計算決策。
![]()
但對于中小型AI公司,英偉達加Groq的組合大概率會成為最優選擇。
這筆交易或許能重新吸引開發者的注意力,把采購需求拉回英偉達這邊。
200億的金額,也透露出英偉達的焦慮。
AI芯片市場已經從一家獨大變成群雄逐鹿,谷歌TPU布局早、生態全,亞馬遜的新芯片性能直逼旗艦,AMD也在快速追趕。
![]()
在這樣的競爭環境下,英偉達要么自己從零開發推理芯片,要么直接收編最危險的對手。
很顯然,他們選了后者。說到底,這筆交易是英偉達的戰略布局,更是AI芯片行業競爭加劇的信號。
未來,推理市場會成為新的主戰場,技術創新和生態協同會是制勝的關鍵。
英偉達這步棋走得算不算高明,還要看后續的技術整合和市場反應,但至少現在,它用200億為自己爭取到了更主動的位置。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.