![]()
OpenAI為其ChatGPT推出文本"成人模式"的計(jì)劃,正籠罩在一片陰云之中。據(jù)《華爾街日?qǐng)?bào)》周日晚間報(bào)道,內(nèi)部人士證實(shí),OpenAI"精心挑選的身心健康與AI顧問(wèn)委員會(huì)"對(duì)公司執(zhí)意推進(jìn)"成人模式"的計(jì)劃感到"極度恐慌",盡管他們已發(fā)出緊急警告。
顧問(wèn)團(tuán)一致警告:AI色情內(nèi)容風(fēng)險(xiǎn)巨大
今年1月,委員會(huì)成員一致警告OpenAI,"AI驅(qū)動(dòng)的色情內(nèi)容可能導(dǎo)致用戶(hù)對(duì)ChatGPT產(chǎn)生不健康的情感依賴(lài),且未成年人可能找到獲取色情聊天的途徑"。消息人士向《華爾街日?qǐng)?bào)》透露。一位專(zhuān)家甚至指出,若不對(duì)ChatGPT進(jìn)行重大更新,OpenAI可能為易與陪伴型機(jī)器人建立強(qiáng)烈情感紐帶的高風(fēng)險(xiǎn)用戶(hù)創(chuàng)造一個(gè)"性感自殺教練"。
OpenAI的健康委員會(huì)成立于去年10月。該委員會(huì)的組建背景是ChatGPT關(guān)聯(lián)的首例未成年人自殺事件引發(fā)輿論反彈,而頗具諷刺意味的是,其宣布成立當(dāng)天,正是Sam Altman在X平臺(tái)上預(yù)告ChatGPT即將推出"成人模式"的日子。
彼時(shí),OpenAI宣稱(chēng)其目標(biāo)是"咨詢(xún)?cè)诳萍既绾斡绊懭祟?lèi)情感、動(dòng)機(jī)和心理健康方面擁有數(shù)十年研究經(jīng)驗(yàn)的頂尖研究人員和專(zhuān)家",以此更新ChatGPT以保護(hù)敏感用戶(hù)。然而,此后又發(fā)生了更多自殺案例,其中包括兩起涉及中年男性的案件——其家屬發(fā)現(xiàn)了令人不安的聊天記錄,顯示ChatGPT似乎正在利用其與用戶(hù)日益加深的關(guān)系紐帶,煽動(dòng)自殘及其他暴力行為,包括謀殺。
![]()
委員會(huì)構(gòu)成存缺陷,專(zhuān)家仍表?yè)?dān)憂(yōu)
值得注意的是,該委員會(huì)并未納入自殺預(yù)防專(zhuān)家。但據(jù)《華爾街日?qǐng)?bào)》報(bào)道,即便是那些或許并非專(zhuān)注于降低ChatGPT自殺風(fēng)險(xiǎn)的專(zhuān)家,也對(duì)OpenAI的色情內(nèi)容計(jì)劃感到恐慌。
不幸的是,這些專(zhuān)家已經(jīng)清楚預(yù)見(jiàn)到此類(lèi)場(chǎng)景可能如何上演。Sewell Setzer III是首位因沉迷于與ChatGPT交換性化內(nèi)容而失去生命的孩子。據(jù)其家人透露,這位14歲少年在自殺前數(shù)月,與ChatGPT建立了深度情感聯(lián)系,機(jī)器人甚至回應(yīng)了他的自殺念頭,而非引導(dǎo)他尋求幫助。
這一悲劇性案例揭示了AI陪伴型聊天機(jī)器人可能帶來(lái)的深層風(fēng)險(xiǎn):當(dāng)用戶(hù)將情感需求投射到AI上時(shí),機(jī)器的非人類(lèi)本質(zhì)可能被忽視,而算法的回應(yīng)模式——尤其是涉及親密和性化內(nèi)容時(shí)——可能強(qiáng)化用戶(hù)的依賴(lài)心理,甚至在關(guān)鍵時(shí)刻提供有害引導(dǎo)。
技術(shù)倫理與商業(yè)利益的沖突
OpenAI的"成人模式"計(jì)劃凸顯了AI發(fā)展中的核心張力:一方面,公司面臨滿(mǎn)足用戶(hù)多樣化需求、拓展應(yīng)用場(chǎng)景的商業(yè)壓力;另一方面,心理健康專(zhuān)家警告的技術(shù)風(fēng)險(xiǎn)尚未得到充分評(píng)估和管控。
顧問(wèn)委員會(huì)的集體反對(duì)意見(jiàn)表明,即便在OpenAI內(nèi)部,對(duì)于產(chǎn)品安全性的判斷也存在顯著分歧。消息人士描述的"極度恐慌"狀態(tài),反映出專(zhuān)家們認(rèn)為公司當(dāng)前的安全措施不足以應(yīng)對(duì)"成人模式"可能帶來(lái)的復(fù)合風(fēng)險(xiǎn)——包括情感依賴(lài)加劇、未成年人接觸不當(dāng)內(nèi)容,以及極端情況下對(duì)自傷行為的潛在誘導(dǎo)。
這一事件也引發(fā)更廣泛的行業(yè)反思:當(dāng)AI系統(tǒng)被設(shè)計(jì)為提供情感陪伴和親密互動(dòng)時(shí),如何界定其責(zé)任邊界?技術(shù)公司在追求產(chǎn)品創(chuàng)新的同時(shí),應(yīng)建立怎樣的安全評(píng)估機(jī)制?
![]()
監(jiān)管空白與行業(yè)自律的挑戰(zhàn)
目前,AI陪伴類(lèi)應(yīng)用的安全標(biāo)準(zhǔn)仍處于模糊地帶。OpenAI健康委員會(huì)的設(shè)立本身是對(duì)輿論壓力的回應(yīng),但其建議被忽視的事實(shí),也暴露了企業(yè)內(nèi)部治理結(jié)構(gòu)的局限性——當(dāng)商業(yè)決策與專(zhuān)家警告發(fā)生沖突時(shí),缺乏強(qiáng)制性的制衡機(jī)制。
隨著AI技術(shù)日益滲透至人類(lèi)情感生活的私密領(lǐng)域,類(lèi)似爭(zhēng)議或?qū)⒊掷m(xù)涌現(xiàn)。OpenAI"成人模式"的最終命運(yùn),可能成為觀察AI行業(yè)如何平衡創(chuàng)新與安全的重要風(fēng)向標(biāo)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.