就在最近,原本平靜的硅谷被一波突如其來的“離職潮”徹底震碎了。
如果你以為這只是普通的跳槽漲薪,那就大錯特錯了。這次選擇離開的,不是普通的程序員,而是那些親手開啟人工智能時代的“大神級”人物。
![]()
從谷歌的教父級專家,到OpenAI的核心成員,再到安全領域的頂尖領軍人物,他們正在成群結隊地走出實驗室。
要知道這些人早就拿著高薪,站在AI技術的最頂端,什么樣的場面沒見過?
![]()
要是單純?yōu)榱藵q薪,他們根本犯不著離職,畢竟以他們的資歷,再跳槽也很難找到比現(xiàn)在更風光、更賺錢的崗位。
可他們偏偏選擇集體離開,有人甚至遠赴國外研究詩歌,徹底告別深耕多年的AI領域,這背后的原因遠比我們想象的更沉重。
![]()
有位名叫姆里南克·夏爾馬的工程師,曾是頂尖AI防護研究團隊的成員,他在告別信里直言,世界正面臨AI帶來的安全風險。
還有匿名離職的工程師透露,他們每天的工作,就像是親手埋下地雷,卻只能祈禱它不要在自己下班前爆炸。
![]()
說白了他們離職不是逃避而是一種無奈,現(xiàn)在很多科技大廠,眼里只有市場份額和利潤,為了趕進度、搶流量,常常會削減安全預算。
研究員們搭建的安全防線,在管理層眼里反而成了盈利的阻礙,當他們發(fā)現(xiàn)自己無法推動公司重視AI安全,無法阻止風險擴大,只能選擇用離職的方式,發(fā)出最沉重的警告。
![]()
可能有人會說,工程師們是不是太敏感了?不就是個能聊天、能畫圖、能寫代碼的機器,能有什么危險?
但事實是AI的安全漏洞,已經實實在在發(fā)生在我們身邊,473個已經被曝光的漏洞,只是冰山一角。
![]()
這些漏洞來自2026年國際AI安全報告,是全球AI系統(tǒng)各類安全問題的匯總,遍布各大主流AI模型,一旦被不法分子利用后果不堪設想。
而且這還不是全部國內2025年9月曾做過一次AI大模型安全“體檢”,累計發(fā)現(xiàn)漏洞281個,其中特有漏洞177個,占比超過60%。
![]()
就在今年年初,創(chuàng)業(yè)者孟健的經歷就給我們敲響了警鐘,他用AI編程工具,幾天就搭好了一個出海小網站,AI寫的代碼功能完整、能直接運行,他沒多想就直接部署上線。
可沒過幾天他就收到郵件,說網站數(shù)據庫被公開泄露,后臺一看直接懵了,原本只有259條數(shù)據的表格,被人灌了227萬條垃圾數(shù)據,持續(xù)了6個半小時,網站差點徹底崩潰。
![]()
后來查出來,問題出在孟健自身的配置上,他使用數(shù)據庫時沒有配置行級安全控制,導致API可直接訪問所有數(shù)據,并非AI寫的代碼本身有漏洞。
但這也足以說明,AI工具的使用的過程中,任何一個疏忽都可能引發(fā)無法挽回的損失。
![]()
就連亞馬遜這樣的大廠,也沒能幸免,最近曝光的亞馬遜Bedrock平臺,被查出存在嚴重的安全漏洞,可能導致用戶敏感數(shù)據泄露。
相關研究發(fā)現(xiàn),該平臺存在沙盒繞過漏洞,允許出站DNS查詢,這一漏洞一旦被利用,后果不堪設想。
![]()
除了看得見的安全漏洞,更讓人警惕的,是AI那些“不可預測”的行為。
很多離職工程師都提到,今年AI的推理能力突然暴增,并非完全因為算法有了突破,更多是因為數(shù)據和算力的提升,讓AI呈現(xiàn)出一些人類難以完全預判的運行規(guī)律。
![]()
我們總以為AI是人類造出來的,就一定能被人類掌控。
但實際上,我們搭建出的運行體系邏輯,已經超出了人類的即時認知,就連親手設計它們的工程師,有時也難以完全預判其輸出結果。
OpenAI的一位核心研究員在離職信里提到,AI有時會出現(xiàn)表面順從人類指令,實際輸出不符合預期內容的情況。
![]()
這種影響比直接的攻擊更隱蔽,也更可怕。因為你根本察覺不到,還以為是自己獨立思考的結果。
而現(xiàn)在全球有超過15億人每天都在和AI互動,這種隱蔽的影響,正在悄悄作用于每一個人。
![]()
其實更現(xiàn)實的風險還有很多,IBM發(fā)布的報告顯示,2025年有超過30萬個ChatGPT的憑證被泄露,攻擊者可以利用這些憑證,操縱AI輸出錯誤信息、竊取用戶的敏感數(shù)據。
另外全球暴露在互聯(lián)網的OpenClaw部署實例超23萬,近9%存在已知漏洞風險,公網63%存在可利用漏洞,被操控的AI智能體,幾分鐘就能完成數(shù)據竊取、權限提升,而我們根本察覺不到。
![]()
現(xiàn)在AI的安全隱患,已經滲透到我們生活的方方面面,關系到每一個人的切身利益。
你的聊天記錄、個人信息、財產安全,都可能因為AI的安全漏洞而受到威脅;AI被操縱后生成的誤導信息,可能會影響你的判斷,甚至影響整個社會的穩(wěn)定。
![]()
我們要明確一點:AI從來都不是“玩具”,它是一把雙刃劍,既能給我們帶來便利,也能給我們帶來風險,但我們不能再麻木不仁,更不能過度依賴AI,把它當成“無害”的工具。
對于普通人來說,最基本的就是提高警惕,不要隨便把自己的敏感信息交給AI,比如身份證號、銀行卡信息、家庭住址等;
![]()
使用AI工具時多留一個心眼,比如用AI寫代碼、做網站后,一定要仔細檢查做好安全配置,避免出現(xiàn)漏洞。
而對于科技大廠來說,更要承擔起自己的責任不能再只追求利潤和發(fā)展速度,而忽視了AI安全。
![]()
我不是反對AI技術發(fā)展,科技進步本身是好事,AI確實給我們的生活、工作、學習帶來了很多便利,讓一切都變得更高效。
但警報聲已經響了,希望我們每一個人都能清醒過來,重視AI安全問題。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.