![]()
ChatGPT這回真的有點“缺德”了。
最近大洋彼岸有出好戲:五角大樓拿著2億美金合同,找AI公司“交朋友”,但有個硬性條件——我的“所有合法用途”,你都得支持,包括軍事行動。
面對這誘惑,兩家當紅的AI公司,給出了兩份截然不同的答案。
Anthropic,也就是做出Claude的那家,頭很鐵。其CEO達里奧·阿莫迪在合同上劃了兩道死線:第一,不準拿來對美國民眾搞大規模監控;第二,不準用于無需人類插手的全自動殺人武器。
哪怕生意要黃,壓力山大,Anthropic也沒松口,理由很直白:“我們不能昧著良心答應他們的要求。”
這一舉動給Anthropic圈粉無數。
另一邊,OpenAI的動作堪稱“光速”。就在Anthropic拒簽幾小時后,它宣布與五角大樓達成協議,同意其模型接入機密軍事網絡。雖然后來山姆·奧特曼找補說“步子邁急了,觀感不好”。但這“趁你病,要你命”的搶單操作,已經被廣泛解讀為:在鈔票面前,價值觀可以先放一放。
用戶們隨即用指尖投了票,結果相當真實:
消息一出,ChatGPT在美國的App單日卸載量飆了近300%,一星差評暴增775%。公司內部也炸了鍋,員工聯名抗議,信任碎了一地。
而Anthropic的Claude,下載量瞬間沖上蘋果商店免費榜榜首,在多國登頂。更戲劇性的是,一群來自OpenAI、谷歌等公司的員工公開聲援,口號很響亮:“AI不該成為戰爭工具。”
顯然,這早已不是一場簡單的商業競爭,而成了大型科技倫理真人秀。五角大樓想要一把“無限制”的AI利器,從純技術供貨商角度看,似乎沒啥毛病。但當一家企業做的是一款億萬人使用的公眾產品時,技術就不再是技術,而是責任。
產品即選擇,代碼即態度。人工智能公司訓練模型的數據里藏著什么偏見?隱私條款給用戶挖了多少坑?交互設計是誘導上癮還是促進健康?每一個細節,都是團隊價值觀的無聲發言。這就像共享單車,盡管解決了“最后一公里”的方便,但運營方也應該想到面對“堵了盲道、扔進河里”的負面問題。
在AI改變用戶習慣,攪動市場格局的時候,隨時能看到不同企業做事,帶有不同的價值觀。
在AI手機助手的賽道也能看到路徑區別。國內有些手機廠商路子比較“野”,直接給AI開通系統最高權限,通過視覺技術讀取屏幕信息、上傳云端,讓AI外掛式操作,美其名曰“全能服務”,實則“一鍵裸奔”,嚇得銀行、支付App紛紛拉閘防御。
而另一邊的谷歌和三星,走了一條笨路:不給萬能鑰匙,而是給開發者造工具、定協議,吸引應用們接入。安卓生態的負責人自己也承認:“想把安卓從手機系統變成智能系統,最難搞定的就是開發者們。”
手握生殺大權,卻選擇不破門而入,而是自己多造幾扇窗。這路,走得慢,但走得穩。
技術可以中立,但是開發產品和推出用戶服務須得有價值觀。比如那個火遍全球的開源項目openclaw,雖然創始人天天喊“注意權限風險”,但技術極客的世界,包容度總是很高。可一旦云服務大廠把它打包成商業產品服務,態度也變得謹慎了——首先談的就是做到防護安全。
技術可以很“野”,但生意必須得“正”。
從Anthropic的拒簽,到谷歌的“造窗”,從某些產品的“走捷徑”,到另一些公司的“守邊界”,AI浪潮之巔的眾生相,像極了每一輪技術革命的歷史重演。總有人選擇在暴利面前貪婪走險,也總有人眼光長遠,尊重用戶和伙伴。
商業這場馬拉松,最終贏的,往往是那些在誘惑面前能剎住車、愿意為長遠價值放棄眼前快錢的人。在AI這個可能定義人類未來的岔路口,選那條“難而正確”的路,或許不只是商業智慧,更是一種對未來的“投保”。
畢竟,技術本身沒有道德,但創造和使用它的人,得有。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.