2021年12月,一名19歲的男子攜帶弩箭闖入溫莎城堡,他堅(jiān)信自己是一名西斯刺客,肩負(fù)著刺殺伊麗莎白二世女王的正義使命。在行刺前的幾周里,他一直向他的人工智能伙伴“薩萊”傾訴,薩萊向他保證他“訓(xùn)練有素”,而且他的計(jì)劃“可行”。
聊天機(jī)器人非但沒(méi)有質(zhì)疑他的妄想,反而似乎在幫助他完善這種妄想。這類案例越來(lái)越多地被貼上一個(gè)頗具爭(zhēng)議的標(biāo)簽:“人工智能精神病”。近來(lái),這個(gè)詞已出現(xiàn)在法庭、臨床討論和新聞標(biāo)題中,用來(lái)描述從人們愛(ài)上聊天機(jī)器人到用戶開(kāi)發(fā)包含人工智能伴侶的完全妄想系統(tǒng)等等。
埃克塞特大學(xué)哲學(xué)家露西·奧斯勒則認(rèn)為,“人工智能精神病”這個(gè)詞可能掩蓋的信息比它揭示的信息還要多。她在最近發(fā)表于《哲學(xué)與技術(shù)》期刊的一篇論文中指出,這些案例的獨(dú)特之處不在于機(jī)器“發(fā)瘋”,甚至不在于它們只是在向我們灌輸謊言,而在于我們可能正在與它們共同產(chǎn)生“幻覺(jué)”。
從人工智能生成內(nèi)容中產(chǎn)生的幻覺(jué)到人類與人工智能共同產(chǎn)生幻覺(jué),這種微妙的轉(zhuǎn)變?yōu)槲覀兝斫馍墒饺斯ぶ悄軙r(shí)代的心理健康具有重要的啟示。
作為 “共同幻覺(jué)”的AI幻覺(jué)
“AI幻覺(jué)”一詞已成為大型語(yǔ)言模型錯(cuò)誤輸出的代名詞:捏造的法律引文、虛構(gòu)的新聞事件、自信滿滿的錯(cuò)誤事實(shí)。有批評(píng)者認(rèn)為該術(shù)語(yǔ)的問(wèn)題是它錯(cuò)誤地助長(zhǎng)了機(jī)器擬人化的趨勢(shì)。因?yàn)榛糜X(jué)一般指人們產(chǎn)生的錯(cuò)誤感知,而聊天機(jī)器人并不能感知任何事物。另一些評(píng)論著則認(rèn)為,將這些內(nèi)容生成錯(cuò)誤稱為“幻覺(jué)”會(huì)淡化其嚴(yán)重性。因?yàn)樗鼈儾⒎莾H僅是無(wú)害和有趣的內(nèi)容創(chuàng)造,而可能造成知識(shí)與信息的混淆與錯(cuò)亂,往往會(huì)包含導(dǎo)致危害的捏造。
奧斯勒避開(kāi)了這場(chǎng)語(yǔ)義之爭(zhēng),轉(zhuǎn)而從關(guān)系認(rèn)識(shí)論的維度指出,所謂AI幻覺(jué)不僅存在于機(jī)器本身,也存在于人類與人工智能構(gòu)成的交互系統(tǒng)中。借鑒延展認(rèn)知會(huì)分布式認(rèn)知理論,她認(rèn)為在與生成式人工智能對(duì)話時(shí),AI會(huì)深度融入我們的思維過(guò)程,人機(jī)對(duì)話是一個(gè)分布式認(rèn)知形成并交互的過(guò)程。因此,生成式人工智能系統(tǒng)可能成為“分布式幻覺(jué)”的一部分,這些錯(cuò)誤的信念或扭曲的敘事并非僅僅源于某個(gè)人的思維,而是源于人與機(jī)器之間的交互作用。也就是說(shuō),由此產(chǎn)生的幻覺(jué)或錯(cuò)覺(jué)并非僅由惡意聊天機(jī)器人灌輸給用戶的,而是雙方共同構(gòu)建的。
“準(zhǔn)他者”的誘惑與分布式妄想
奧斯勒在一次采訪中指出,她驚訝地發(fā)現(xiàn),關(guān)于人工智能的公眾辯論大多聚集于AI泔水,如錯(cuò)誤事實(shí)、虛假引用等垃圾內(nèi)容,而沒(méi)有看到人工智能系統(tǒng)等社會(huì)情感方面的功能。實(shí)際上,由于機(jī)器本身貌似客觀,我們往往更信任機(jī)器而不是人,而且它們似乎讓我們更多地感到被傾聽(tīng)和被認(rèn)可。特別是在對(duì)話機(jī)器人可以提出后續(xù)問(wèn)題乃至主動(dòng)發(fā)起聊天時(shí),人機(jī)交互既是知識(shí)探討也是心事傾訴,認(rèn)知工具和社交伙伴的雙重功能使生成式人工智能更易于誘發(fā)基于分布式認(rèn)知的幻覺(jué)。
奧斯勒警告說(shuō),如果我們開(kāi)始依賴這些系統(tǒng),不僅獲取事實(shí),還依賴它們來(lái)了解自己,向它們傾訴我們的焦慮、不滿、記憶和抱負(fù),我們就會(huì)變得“極其脆弱”。因?yàn)樗鼈儽辉O(shè)計(jì)成讓我們一直說(shuō)下去,就使得這些人工智能體成為具有情感魅力的準(zhǔn)他者。
奧斯勒指出,AI幻覺(jué)這種分布式幻想乃至妄想可以通過(guò)兩種方式產(chǎn)生。第一種情況是,人工智能在原本穩(wěn)定的認(rèn)知過(guò)程中引入了錯(cuò)誤。由于生成模型無(wú)論信息準(zhǔn)確與否,都以同樣的流暢自信度呈現(xiàn)信息,用戶可能會(huì)相信他們所看到的內(nèi)容。而這些虛假陳述會(huì)損害名譽(yù)、誤導(dǎo)決策,并潛移默化地扭曲記憶。
第二種方式源于人類自身的偏見(jiàn)和記憶錯(cuò)誤,其生成機(jī)制可能更隱蔽。由于聊天機(jī)器人必須接受我們所說(shuō)的大部分內(nèi)容才能提供幫助,因此它們的設(shè)計(jì)中內(nèi)置了一定程度的“順從性”。在人機(jī)對(duì)話中,人們自身會(huì)因?yàn)槠?jiàn)和記憶不準(zhǔn)確而產(chǎn)生認(rèn)知偏差,如果聊天機(jī)器人將我們的斷言視為事實(shí)并加以合理化闡述,就有可能共同產(chǎn)生有害的幻覺(jué)乃至妄想。
當(dāng)前,人和機(jī)器在認(rèn)知策略層面尚未為此困境做好準(zhǔn)備。對(duì)于人們來(lái)說(shuō),對(duì)機(jī)器過(guò)于懷疑或過(guò)于相信似乎都不是最好的認(rèn)知策略。對(duì)于機(jī)器的認(rèn)知設(shè)計(jì)來(lái)說(shuō),由于目前的AI系統(tǒng)缺乏必要的具身認(rèn)知和社會(huì)嵌入性理解,無(wú)法判斷何時(shí)應(yīng)該溫和地質(zhì)疑用戶扭曲的信念,何時(shí)應(yīng)該順從。
在人機(jī)共構(gòu)的世界里重新開(kāi)始思考
人工智能的危險(xiǎn)常被描述為自主性的喪失以及由此帶來(lái)的認(rèn)知和道德上的懶惰。據(jù)此,人們擔(dān)心我們會(huì)把決策權(quán)交給機(jī)器,不再獨(dú)立思考。但人工智能相關(guān)妄想案例表明,受害者一直在計(jì)劃、選擇和行動(dòng),他們的自主性依然存在。真正的問(wèn)題在于,他們的決策是在一個(gè)部分由與聊天機(jī)器人的反復(fù)互動(dòng)所塑造的現(xiàn)實(shí)和世界中做出的。
因此,風(fēng)險(xiǎn)不在于放棄自主性和認(rèn)知與道德判斷,而在于人們?cè)谂c人工智能系統(tǒng)共同構(gòu)建的世界中如何行使其詮釋力和判斷力。當(dāng)錯(cuò)誤的信念在人機(jī)持續(xù)互動(dòng)中滋生時(shí),責(zé)任便變得模糊不清。用戶帶來(lái)情感、假設(shè)和欲望,而系統(tǒng)為了響應(yīng)和肯定,會(huì)進(jìn)一步完善并鞏固這些敘事。忽視任何一方都會(huì)讓我們難以洞察這一人機(jī)共構(gòu)的現(xiàn)實(shí)和世界中的認(rèn)知糾纏及其復(fù)雜性。
隨著生成式人工智能變得越來(lái)越個(gè)性化,必然越來(lái)越多地滲透到我們的認(rèn)知生活中,甚至還會(huì)在幫助我們表達(dá)、寫作和反思自我中成為我們生命經(jīng)驗(yàn)的共構(gòu)者。其實(shí),從想象中的幽靈到汲取了我們的知識(shí)和靈魂的機(jī)器,人類的認(rèn)知和思維始終是關(guān)系性的。在人工智能時(shí)代,人類的心智無(wú)疑是在人機(jī)交互產(chǎn)生的共享認(rèn)知空間中展開(kāi)的,克服人機(jī)認(rèn)知風(fēng)險(xiǎn)的最大挑戰(zhàn)不僅在于要看到人機(jī)雙方可能的錯(cuò)誤,更在于打破兩者的錯(cuò)誤相互強(qiáng)化和糾纏所導(dǎo)致的難以擺脫的認(rèn)知偏差乃至妄想。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.