公眾號記得加星標??,第一時間看推送不會錯過。
![]()
亞馬遜云科技(AWS)計劃在其數據中心內部署由Cerebras設計的處理器,這是外界對這家專注于 AI 模型算力芯片的初創公司投下的最新一票信任。
根據兩家公司周五公布的多年合作協議,AWS 將采用 Cerebras 的晶圓級引擎(WSE)芯片,為 AI 模型的推理業務提供算力,讓模型能夠響應用戶請求。
雙方并未披露協議的財務條款。
這筆交易凸顯出算力市場的重大轉變:AI 行業正從模型訓練逐步轉向推理。開發 AI 工具與智能體的企業意識到,圖形處理器(GPU)雖然在訓練環節快速且強大,但對于追求更低延遲、更高響應速度的推理任務而言并非理想選擇。隨著業務快速擴張、新增數百萬用戶,許多企業也在尋求供應商多元化。
作為全球最大云服務商,AWS 數據中心長期高度依賴旗下半導體部門Annapurna Labs自研的芯片,其中Trainium芯片大致對標英偉達、AMD 等大廠的 GPU 產品。
據《華爾街日報》報道,今年 1 月,ChatGPT 開發商 OpenAI 已與 Cerebras 簽署價值超 100 億美元的協議,為其熱門聊天機器人提供算力。該交易讓 Cerebras 重新受到市場矚目。這家初創公司曾獲得富達、Atreides、Benchmark、老虎環球、Coatue 等多家頂級機構投資,但此前曾一度面臨融資困難。
Cerebras 曾在 2024 年 9 月提交 IPO 申請,約一年后撤回。今年 2 月,Cerebras 宣布完成10 億美元新一輪融資,總融資額達26 億美元,投后估值約230 億美元。
OpenAI 計劃通過 Cerebras 芯片部署最高750 兆瓦的算力。AWS 則計劃在數據中心內將 Cerebras 芯片與自研 Trainium 芯片結合,以優化推理算力方案。
Cerebras 將自家芯片定位為“超高速推理解決方案”,并稱其在處理推理中最關鍵的 “解碼” 環節(AI 模型生成回復的階段)時,速度最高可達英偉達 GPU 的25 倍。
“越來越多的人在使用 AI,使用頻率更高,也用它解決更難的問題。”Cerebras 首席執行官安德魯?費爾德曼在采訪中表示,“這次合作讓 Cerebras 與 Trainium 的組合進入全球最大云平臺,也讓我們觸達海量客戶。”
該交易對英偉達構成新挑戰。目前英偉達正面臨來自專用芯片廠商日益激烈的競爭,同時也被市場倒逼推出更快、更便宜的 AI 推理產品。去年 12 月,英偉達已與芯片初創公司 Groq 簽署200 億美元授權協議,并計劃于下周發布一款基于 Groq 技術、專為推理優化的全新處理系統。
作為亞馬遜旗下核心業務,AWS 與 Cerebras 表示,此次合作將提供業內最快的推理算力之一,并將以高端服務形式定價。
“我們的目標是提升速度、降低成本。”Annapurna Labs 聯合創始人、AWS 副總裁兼杰出工程師納菲阿?布沙拉表示。這家云計算公司仍會保留僅基于 Trainium的低速、低價算力服務。
“如果你只需要低速推理,會有更便宜的選擇。” 費爾德曼說,“但如果你追求高速 token 生成、速度至關重要,比如做編程或智能體任務,我們不僅是絕對最快的,還打算樹立行業標桿。我們入局,就是為了贏。”
(來源:WSJ )
*免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅為了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯系半導體行業觀察。
今天是《半導體行業觀察》為您分享的第4346內容,歡迎關注。
加星標??第一時間看推送
求推薦
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.