![]()
前OpenAI聯(lián)創(chuàng)Andrej Karpathy最近干了件反差極大的事。這位特斯拉前AI總監(jiān)、圈內(nèi)公認(rèn)的技術(shù)派,突然在YouTube上傳了一條面向普通觀眾的1小時入門視頻,主題是大語言模型。
視頻發(fā)布于去年11月,但直到最近才被中文社區(qū)大規(guī)模討論。Karpathy在推文里只寫了一句:「New YouTube video: 1hr general-audience introduction to Large Language Models」。沒有預(yù)熱,沒有標(biāo)題黨,連封面都是默認(rèn)樣式。
這種低調(diào)和他此前的公眾形象形成微妙對比。Karpathy之前的內(nèi)容要么深入CUDA優(yōu)化,要么拆解GPT-2的C語言實現(xiàn),觀眾默認(rèn)需要一定的編程基礎(chǔ)。這次他卻從token是什么開始講起,用「預(yù)測下一個詞」這個類比貫穿全程。
![]()
評論區(qū)成了大型真香現(xiàn)場。有用戶留言說終于敢給非技術(shù)同事轉(zhuǎn)發(fā)Karpathy的內(nèi)容了。視頻目前播放量超過80萬,在他個人頻道里屬于中上水平,但考慮到這是零營銷冷啟動,數(shù)據(jù)已經(jīng)相當(dāng)扎實。
一個值得注意的細(xì)節(jié)是:Karpathy在視頻里提到,他做這個內(nèi)容的部分動機(jī),是發(fā)現(xiàn)身邊聰明但非技術(shù)背景的朋友,對LLM的理解仍停留在「魔法」層面。換句話說,頂級研究者也開始操心科普的斷層問題。
視頻結(jié)尾,他放了一段和GPT-4的對話截圖。用戶問它「什么是LLM」,AI的回答被Karpathy標(biāo)紅批注了五處邏輯漏洞——用AI的失誤來驗證人類講解的必要性,這個收尾很他的風(fēng)格。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.