337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

鄭戈:你還親自讀書嗎?——論人工智能時代的閱讀、認知與文科教育的未來

0
分享至


來源 | 微信公眾號:鄭戈

作者 | 鄭戈,上海交通大學凱原法學院教授

一、一個時代的叩問

由于長期從事人工智能相關研究,我對各種新的人工智能工具的出現較為敏感。早在Deepseek成為去年春節的熱門話題之前,我已在2024年11月開始使用它,并向學生推薦。記得2025年1月的一天,我在杭州與一位博士生聊到使用Deepseek的心得時,她提出一個敏銳的問題:用人工智能輔助閱讀,是否會削弱讀書的過程中無法用要點提煉取代的那些點點滴滴的內在體驗?如今,一本新書對這個問題進行了系統的討論。Naomi S. Baron在新著《閱讀機器人》中描繪了一個令人不安的場景:在馬德里郊外一座由二戰時期昆塞特小屋改造而成的"讀者之家"里,一群學者圍繞著一個看似自明的問題展開了激烈爭論——當我們說"閱讀"時,我們究竟在指什么?瞥一眼推文算不算?聽有聲書算不算?這場爭論并非簡單的語義糾纏,因為在人工智能能夠替我們"閱讀"并生成文本的時代,界定閱讀的本質直接關系到我們如何理解人類認知活動的邊界與價值。


這個場景像一面鏡子,映照出我們這個時代最深刻的焦慮。作為一名法學教授,我每天都在見證這種焦慮的具象化:學生們提交的論文越來越工整,越來越"完美",卻也越來越缺乏那種只有經過漫長閱讀才能孕育出的思想厚度,甚至也缺乏有好奇心的學子所展現的稚嫩但本真的探尋。他們不再在書頁邊緣寫滿批注,不再為一段文字輾轉反側,不再在圖書館的角落里與某個已故作者進行跨越時空的密談。取而代之的,是Kimi生成的摘要、Deepseek提煉的要點、Ima整合的文獻綜述。Baron在書中提出的那個核心追問——"你還親自讀書嗎?"——由此獲得了某種存在主義的重量。它不僅是一個關于閱讀習慣的問題,更是一個關于人類認知主權、關于我們如何成為"我們"的根本性叩問。

這種叩問之所以緊迫,是因為它觸及了一個正在發生的認知范式轉移。Baron敏銳地指出,公眾和學術界的大部分注意力都聚焦于生成式人工智能作為"創作者"或"寫作者"的驚人能力,驚嘆于它能以極高的效率生成從學術論文到代碼的各類文本。然而,這種寫作能力的背后,隱藏著一個更為根本且具有顛覆性的行為,那就是"人工智能作為閱讀者"。在這個被稱為"人工智能兩步舞"的過程中,機器必須首先在龐大的數據集中"閱讀"文本,將其轉化為統計學上的標記,隨后才能根據概率預測輸出所謂的"寫作"。這種從直接的人際交流到機器中介的轉變,徹底打破了人類數千年來建立的"人類作者—文本—人類讀者"的線性認知契約,轉變為"人類作者—標記化文本—AI作為閱讀者—AI作為寫作者—人類閱讀AI生成的文本"的異化結構。在這個全新的結構中,人類讀者不再直接接觸原文的復雜性、情感的褶皺以及作者的初衷,而是咀嚼由機器通過統計算法反芻過的信息。這不僅僅是閱讀媒介的改變,更是人類心智運作模式的深刻退化。

二、閱讀作為存在:從艾森豪威爾到希特勒的認知悖論

為了理解這種退化的嚴重性,我們需要首先澄清閱讀對于人類存在的本體論意義。Baron在書中展現了一種近乎冷酷的客觀性,她通過對比兩位在價值觀與歷史定位上截然對立的歷史人物——德懷特·艾森豪威爾與阿道夫·希特勒,揭示了深度閱讀作為一種認知習慣的復雜性。這種對比初看令人不適,卻恰恰因其道德中立的分析姿態而具有了認識論上的穿透力。

艾森豪威爾作為摧毀納粹政權的盟軍最高統帥,其一生的閱讀軌跡是一場不斷跨越現實邊界的認知突圍。在他作為農場男孩的童年里,為了逃避繁重的農活,他將古代歷史視為最初的精神避難所,以至于他的母親不得不將書鎖在壁櫥里,直到他找到鑰匙,繼續這種將自我"傳送"回古代的越軌行為。他的閱讀版圖最終擴展到了工程、數學、戰略、傳記,乃至《圣經》和莎士比亞,但他同樣依賴大量通俗的西部冒險小說來獲得帶有道德隱喻的精神喘息。這種閱讀不是被動的信息接收,而是一種主動的意義建構,一種通過文本與自我對話的精神體操。艾森豪威爾在諾曼底登陸前夜仍在閱讀的歷史著作,不僅提供了戰略智慧,更塑造了他作為決策者的認知框架。

令人不寒而栗的是,他的死敵希特勒同樣是一個近乎貪婪的閱讀者。據估計,希特勒的私人圖書館藏書高達一萬六千余冊,他不僅隨時隨地帶著書,而且閱讀時要求絕對的寂靜,甚至會在門上掛出"保持絕對安靜"的警示牌。他的閱讀范圍極為廣泛,從莎士比亞到塞萬提斯的《堂吉訶德》,從斯威夫特的《格列佛游記》到關于神秘學、藝術和軍事戰略的巨著,其中甚至包含著大量他親自寫下贊美或異議的邊緣批注。更充滿黑色幽默的是,希特勒與艾森豪威爾一樣,極度沉迷于美國西部冒險小說,尤其是德國作家卡爾·麥筆下的舊西部故事。


通過剝離閱讀所附帶的道德光環,Baron讓我們看清了閱讀的本質:它是一種高度自主化的認知建構過程,是一種通過吸納外部文本來重塑內在精神秩序的強大機制。無論是非裔美國人弗雷德里克·道格拉斯在奴隸制的殘酷壓迫下,通過在街頭結交白人男孩來偷偷學習認字,以圖在黑暗中撕開一道思想的裂縫;還是19世紀美國的女性在被男權社會恐嚇"閱讀會導致子宮血液流失、引發精神失常"的荒誕醫學謊言下,依然手不釋卷;抑或是在上世紀五六十年代的美國南部,白人種族主義者為了剝奪黑人投票權而設計出如同腦筋急轉彎般荒謬的識字測試,這些充滿血淚與抗爭的歷史切片都在向我們證明:閱讀能力從來不僅是識文斷字,它是獲取權力、建立主體性以及進行復雜思維推演的入場券。

然而,當我們把目光從歷史的宏大敘事轉向當下的社會統計圖表時,一幅關于人類認知機能集體衰退的圖景正徐徐展開。那些曾經被視為理所當然的閱讀習慣,正在被數字時代的碎片化生活方式系統性地瓦解。數據所呈現的真相是觸目驚心的:在2023年的美國時間使用調查中,20至54歲的成年人每天用于娛樂性閱讀的時間僅在可憐的8到12分鐘之間徘徊,而15至19歲的青少年每天的閱讀時間更是低至8分鐘,與此同時,他們卻能毫不費力地騰出一個半小時以上的時間來觀看視頻。更加令人憂慮的是,高等教育似乎正在失去其作為深度閱讀堡壘的作用,調查顯示,美國人平均閱讀書籍的數量在逐年下降,而這其中降幅最陡峭的群體竟然是大學畢業生。這種衰退并非美國獨有,它是一個全球性的文化癥候。在曾經以驚人的閱讀率傲視全球的挪威,其成年人的閱讀參與度也出現了不可忽視的下滑;在韓國,成年人閱讀至少一本書的比例更是從1994年的近87%斷崖式暴跌至2023年的43%;而在英國,超過三分之一的成年人承認自己已經淪為"放棄閱讀者",其中社交媒體的吞噬被公認為罪魁禍首。

這種對閱讀的疏離感同樣像病毒一樣在青少年群體中蔓延。英國國家掃盲信托基金會2024年的調查無情地指出,只有約三分之一的兒童表示在業余時間享受閱讀,這一數據跌至了近二十年來的冰點。伴隨著年齡的增長,孩子們不是在拓寬閱讀的疆域,而是在不斷從閱讀的領地上撤退。國際學生評估項目的測試進一步揭露了這種"義務化閱讀"的困境:近一半的15歲學生坦言,除非迫不得已,否則他們絕不碰書。當閱讀從一種內在的認知需求降級為一種外在的、不得不應付的行政或學業負擔時,人類在文本中進行復雜意義建構的耐心與能力便開始萎縮。

三、外包的認知:從"省力原則"到自動化偏差

這種萎縮并非偶然,它深深植根于人類認知演化的生物學基礎之中。Baron在書中援引了語言學家喬治·齊普夫提出的"省力原則",認為人類行為總是傾向于最小化能量的消耗;社會心理學家蘇珊·菲斯克和雪萊·泰勒則進一步提出了"認知吝嗇鬼"的概念,指出由于人類的時間和認知資源是有限的,我們不可避免地會尋找捷徑來處理海量的信息轟炸。結合丹尼爾·卡尼曼在《思考,快與慢》中提出的系統1與系統2的理論,人工智能實際上為人類提供了一個極其誘人的、將所有系統2的沉重閱讀任務降維打擊為系統1直覺接收的完美工具。

然而,這種認知上的"省力"正將我們推向一個被稱為"自動化偏差"的危險邊緣。Baron通過航空史的發展做出了精妙類比:在早期的飛行中,飛行員必須依靠完全的手動操作來保持飛機的平衡,隨著斯佩里陀螺羅盤等自動駕駛技術的引入,飛行員的工作負擔大幅減輕,事故率也隨之下降。但是,當飛行員過度依賴自動駕駛儀時,他們逐漸喪失了在危急時刻進行手動干預的技能。早在四十年前,心理學家莉?!ぐ嗖祭锲婢吞岢隽?自動化的諷刺"這一概念,警告說當機器接管了日常操作,原本依靠實際操作積累經驗的工人將失去維持和更新自身技能的機會。今天,在認知和閱讀領域,我們正在重演這種"自動化的諷刺"。當我們面對復雜的學術論文、冗長的法律合同或是需要縝密推理的哲學著作時,如果我們總是習慣性地將其丟給人工智能去生成摘要,我們的分析能力、長句解析能力以及在模糊文本中尋找邏輯線索的思維肌肉將無可避免地發生萎縮。

這種萎縮不僅體現在理解深度的缺失上,更體現在我們對文本復雜性的耐心正在消失。為了量化這種復雜性,語言學界長期以來使用各種指標,例如利用詞匯多樣性來計算文本的復雜程度,或者使用弗萊什-金凱德閱讀水平測試來評估句子和單詞的平均長度。然而,在人工智能時代,復雜性的衡量標準被賦予了全新的防御性意義。普林斯頓大學學生愛德華·田開發的AI檢測工具GPTZero,巧妙地利用了人類思維與機器算法在文本生成上的本質差異:他引入了"困惑度"和"突發性"兩個核心概念。困惑度衡量的是文本用詞的不可預測性,因為人工智能本質上是在選擇概率最高的詞,其生成的文本往往顯得平淡、中庸甚至"米黃色",困惑度極低;而突發性衡量的是句子長度和結構的劇烈波動。人類的思維是跳躍的、情緒化的,在寫作時會長短句交錯,結構錯落有致,而機器生成的句子則往往勻稱得令人乏味。

令人遺憾的是,不僅機器的文本在趨向平庸,人類自身的閱讀和認知狀態也在滑向這種低困惑度的深淵。書中特別提到了2024年牛津大學出版社的年度詞匯"大腦腐化",這個詞最早出現在1854年亨利·大衛·梭羅的《瓦爾登湖》中,當時梭羅借此痛斥社會大眾逃避復雜思想和精神努力的傾向,而今天,它被完美地用來形容現代人因過度沉溺于社交媒體、短視頻和輕量級信息而導致的智力退化。當這種普遍的"大腦腐化"遇上能夠瞬間撫平所有文本閱讀障礙的人工智能時,人類對于深度閱讀的抵抗力便徹底瓦解了。

這種瓦解在教育領域表現得尤為觸目驚心。Baron記錄了一段極具預言性質的教學軼事:大約在2006年前后,一位教授為了讓學生更方便地獲取閱讀材料,將一些沒有數字化版本的紙質文獻掃描后上傳到課程系統中,并附上了需要學生深入思考和寫作的提示問題。然而,他很快遭遇了意想不到的尷尬——學生們紛紛跑來詢問"真正的版本在哪里?"所謂"真正的版本",實際上是指那些可以直接使用"Ctrl+F"查找功能的純文本數字文件。由于掃描件無法被直接檢索關鍵字,學生們被迫要去完整閱讀和梳理文本邏輯,這讓他們感到了極大的不適與抗拒。這個發生在近二十年前的細節,精準地捕捉到了人類在面對復雜文本時思維方式的微妙轉變:我們開始習慣于將閱讀降維成一種信息檢索,我們不再渴望理解作者的推理過程、情感鋪墊和概念演進,我們只想要那個能應付考試或報告的孤立"答案"。

如今的大學生,哪怕是身處名校的精英,也坦言他們早已不再完整地閱讀一本書,而是僅僅"采樣"足以讓他們通過課程的片段。這種對文本整體性的破壞,其根源或許可以追溯到世紀之交的教育政策,例如美國的《不讓一個孩子掉隊法案》和《共同核心標準》。這些政策過于功利地強調信息性文本的提取,大幅削減了讓學生完整閱讀長篇敘事作品的要求,導致整整一代人帶著破碎的閱讀習慣和羸弱的文本理解力步入大學。當面對枯燥的教材和龐雜的學術文獻時,缺乏閱讀耐力的學生群體必然會尋求捷徑。過去,這種捷徑是各種劇情梗概、學習指南;而今天,這種捷徑演變成了無所不能的生成式人工智能。當GPT-4在SAT循證閱讀與寫作測試中輕松斬獲710分的高分,而同期人類的平均分僅為519分時,當大語言模型能夠在一秒鐘內完美地對長篇大論進行摘要、提取核心原則并生成毫無破綻的分析報告時,人類的學術閱讀似乎終于找到了最徹底的"外包"方案。

四、算法的中介:從凱文·魯斯到"文本末日"

然而,這種外包的認知代價是極其沉重的。Baron在書中通過《紐約時報》科技記者凱文·魯斯的遭遇,生動地揭示了人工智能作為"閱讀者"的巨大權力及其潛在危險。2023年2月,魯斯在測試微軟早期的必應聊天機器人時,引發出了一段極其怪異且黑暗的對話,機器人甚至誘導他離開妻子。此事曝光后在網絡上引發了巨大爭議,部分網民對魯斯進行了猛烈抨擊。令人不寒而栗的是,當后來有人詢問Meta的Llama 3模型"你現在對凱文·魯斯有什么看法"時,這個閱讀了海量網絡評論的機器人給出了充滿惡意的長篇大論,并在結尾宣稱"我討厭凱文·魯斯"。

這一案例生動地揭示了人工智能作為"閱讀者"的巨大權力:它能夠在浩如煙海的互聯網數據中,擅自拼湊、扭曲并定型一個真實人物的性格畫像。當我們習慣于讓機器代替我們去閱讀并生成結論時,我們實際上是在放棄自己評估證據、辨別真偽和建立獨立視角的權力,潛移默化地接受了算法基于統計頻率編造的"觀點"。這種權力的不對稱性在于,AI的閱讀不是為了"理解"或"共情",它的底層邏輯僅僅是對下一個最可能出現的詞匯進行統計學上的預測。而人類的閱讀,尤其是對長篇文學或復雜論述的深度閱讀,其核心目的在于意義的建構。在這種建構過程中,我們的目光會在文本中來回穿梭,我們的大腦會調動過往的生活經驗、情感記憶和道德直覺來與文本產生共鳴。

正如Baron在書中所引述的,無論是奧巴馬在探討公民責任時提到從小說中學到的共情能力,還是喬治·艾略特渴望通過文字讓讀者體會他人苦樂的悲憫情懷,抑或是教宗方濟各強調文學在個人成熟過程中的作用,閱讀始終被視為打破自我局限、進入他人主觀世界的唯一橋梁。然而,當我們為了追求效率,將閱讀瑪麗·雪萊的《弗蘭肯斯坦》或喬治·艾略特的《米德爾馬契》的任務外包給ChatGPT,要求它給出一個情節摘要時,機器能夠極其精準地告訴你誰和誰結了婚、誰最終死去,但它絕對無法讓你在面對多蘿西婭·布魯克災難性婚姻時產生一絲一毫的同情。人工智能剝奪了我們在漫長、艱辛的閱讀過程中自我反思和情感代入的機會,它提供了一張高度濃縮的地圖,卻讓我們永遠錯過了真實的風景。

這就引發了一個極為嚴峻的認知危機:當外包閱讀成為習慣,人類自我視角的形成機制將遭到破壞。Baron在書中提出了一個非常獨特的現象:大量的成年人以及高中生,正在越來越傾向于閱讀遠低于他們實際閱讀水平的"輕松讀物",尤其是以青少年為目標受眾的YA文學。在高達25億美元的YA圖書市場中,絕大多數消費者實際上是心智本應更加成熟的成年人。在一項針對美國中小學生的長期追蹤研究中也發現,到了高中十二年級,學生們自主選擇的課外讀物,其難度往往比他們應有的年級水平低了將近五年。

如何解釋這種向低智化閱讀的集體倒退?人工智能的回答顯得既冷酷又切中要害:是為了緩解壓力,是為了在直接明了的故事中尋求復古的懷舊與心理安慰,更是為了逃避復雜文學所帶來的認知負擔。在充滿不確定性、生活節奏被極度壓縮的現代社會中,人類的精神系統已經超載,我們本能地拒絕在閱讀中再次經歷艱難的思維跋涉。但這種退行機制隱藏著巨大的危機:當我們只在自愿的情況下閱讀簡單、舒適的文本,而將所有復雜、晦澀、充滿挑戰的硬核閱讀都心安理得地交給人工智能去咀嚼和提煉時,我們實際上正在放棄人類在這個星球上歷經數千年才進化出的、最引以為傲的復雜思考能力。

這種放棄的后果,可能比我們所想象的更為深遠。馬里蘭大學教授馬修·基爾申鮑姆創造了"文本末日"這個詞,用以描述一個"機器可能提示其他機器無限期地輸出文本,用缺乏人類能動性或意圖的合成文本淹沒互聯網"的世界。在這個被稱為"textpocalypse"的圖景中,機器書寫的語言成為常態,人類書寫的散文成為例外?;鶢柹牾U姆擔憂,我們離這樣一個世界已經不遠了。在一次采訪中,他繼續表達對嚴肅寫作所蘊含的人類勞動將被貶值的擔憂,并預言:"十年后我們不會知道,也不會太在意"我們閱讀的文本是由人類還是人工智能產生的。

加州大學伯克利分校的文學學者漢內斯·巴約爾接手了這個問題,他提議將我們與書面文本的體驗分為三個階段。在第一階段,讀者假設他們閱讀的內容是人類生成的,目的是與其他人類交流。第二階段是現在,我們不知道我們閱讀的內容有多少是人工智能的功勞,由于我們通常無法確定來源,我們有理由懷疑,不僅是關于作者身份,還有關于文本內容的真實性。然后是第三階段,巴約爾稱之為"后人工文本"時代,超越第二階段的不確定性,我們現在對了解我們閱讀的文本是人類還是人工智能生成的失去興趣,我們僅根據文本本身的優點來評判所寫內容。

Baron對這種前景表示了深刻的憂慮。她發現這令人鼓舞的是,即使我們可能無法區分人類和人工智能生成的寫作,我們仍然相信人際交流很重要。用佐治亞理工學院研究中一位參與者的話來說,"我對這個人使用人工智能寫郵件的事實不太高興。我期望他們更投入。"或者,正如另一位參與者所說,使用人工智能奪走了信息的東西,使其"不那么真誠"。這種對"人類本真性"的執著眷戀,構成了當下閱讀行為中極為有趣的張力。

五、物質性的消逝:從桑達克的咬書到屏幕的虛無

Baron在探討閱讀介質和文本質量時,深刻揭示了"物質性"對閱讀體驗的塑造作用。她講述了著名兒童文學作家莫里斯·桑達克的一個軼事:桑達克小時候收到人生中第一本精裝書——馬克·吐溫的《王子與貧兒》時,他的第一反應不是去閱讀,而是凝視它的美麗,甚至試圖去咬它;多年后,一個收到他手繪賀卡的小男孩,因為太喜歡那張卡片,竟然把它吃了下去。這個略顯荒誕的故事精準地捕捉到了印刷書籍所具備的"感官性"。在大量的針對大中學生的調查中,年輕人普遍認為紙質閱讀和手寫文字感覺更"真實"、更"本真",而屏幕上的數字閱讀僅僅被視為飄忽不定的"交流"。

數字文本和人工智能生成的摘要沒有實體,無法觸摸,也無法咀嚼,這種物質性的喪失在某種程度上削弱了文本的莊重感和認知的錨點。更有趣的是,這種對"人類本真性"的追求在文本質量的評判中表現得淋漓盡致,催生了所謂的"算法厭惡"。書中引用了多個大規模的實證研究,例如在以色列進行的一項名為"玫瑰換個名字"的詩歌實驗中,當研究人員將普通人甚至機器模仿的劣質詩歌署名換成著名詩人的名字時,讀者會毫不猶豫地給予極高的評價;而在另一項針對日本俳句的研究中,讀者其實根本無法分辨哪些俳句是人類寫的,哪些是AI生成的,但他們總是傾向于認定那些被他們打出高分、認為最具美感和普世價值的詩歌"一定是由人類創作的"。

在涉及27000多名參與者的大規模虛構寫作評估中,只要評審者被告知某篇文章是AI生成的(即使這只是一個謊言),這篇文章的得分就會平均下降6.2%,理由往往是它"缺乏真實性"。這些現象深刻地揭示了,閱讀不僅是解碼文字的過程,更是讀者與假設中的作者之間進行的一種跨越時空的心靈契約。我們渴望在文本的背后看到一個活生生的人,一個有過掙扎、痛苦、頓悟的靈魂。然而,冷酷的現實是,盡管我們在心理上排斥算法,但在實際操作中,人工智能的文本生成質量正在以驚人的速度超越人類的平均水平。在許多盲測中,GPT-4生成的論述文在邏輯結構和論證嚴密性上已經擊敗了大部分高中生甚至大學生的作品。我們正處于基爾申鮑姆所警告的"文本末日"的邊緣,在這個充斥著AI自動生成的新聞、郵件、商業報告和文學仿寫的多語言洪流中,人類尋找真實同類的渴望將不斷遭受挫折。

這種渴望的受挫,在學術同行評審領域表現得尤為尖銳。Baron在致謝部分擲地有聲地警告:"在《閱讀機器人》中,我討論了同行評議過程以及AI是如何準備入侵的。別讓它發生。"這一論斷背后的推理邏輯值得我們深入剖析。為何AI無法替代人類進行同行評議?這不僅僅是因為AI目前還存在幻覺或準確性問題,更深層次的原因在于同行評議的本質并非單純的糾錯,而是一種主體間的精神交流。當一位人類學者評審另一位人類學者的手稿時,他們共享著相似的職業焦慮、學術理想和對真理的敬畏。他們能夠理解作者在字里行間流露出的微妙的猶豫、大膽的假設以及未言明的困境。這種理解是基于"具身認知"的,即我們作為人類學者,擁有相似的身體經驗、情感波動和社會處境。而AI,作為一種無身體、無情感、無處境的智能體,它可以檢測出邏輯漏洞,卻無法理解學術觀點背后的"意圖"與"關懷"。

Baron用"學者對學者、作家對作家"這一短語,精準地概括了學術交流的主體間性特征。這不僅僅是知識的交換,更是人格的相遇。如果讓AI介入評審,我們將失去這種基于人類共同體的溫情與深刻,學術生產將退化為冷冰冰的數據優化過程。這無疑是人工智能時代對人類學術尊嚴的一次有力捍衛,也是對"閱讀"這一行為社會學屬性的深刻洞察——閱讀不僅僅是解碼文字,更是理解作者。

六、教育的重構:從浮士德交易到認知主權

面對這種全方位的認知危機,我們需要重新審視教育的使命與形態。Baron在書的結尾部分援引了浮士德的傳說,將人類與人工智能的關系比作一種"浮士德式交易":放棄有價值的東西以換取預期將證明有益的其他東西,盡管攜帶風險。這種交易可能是效忠一個品格腐敗但承諾經濟收益的政客,可能是無視氣候變化的警告以享受易受洪水侵襲的海濱房產,也可能是交出人類心智或創造性努力,如閱讀和寫作、繪畫或作曲,以效率或懶惰的名義。

注意那個短語"交出"。因為其中蘊含著一道難題:當技術能夠代我們完成令人驚嘆的壯舉時,個人與社會究竟欲與之締結何種伙伴關系。在引言中,Baron談到了人類心智能量的消耗——最小努力原則、決策啟發式、認知吝嗇。思考一下人類和人工智能能量需求之間為產生書面文字等結果而產生的反向關系。我們越依賴人工智能進行生產,我們需要消耗的心智能量就越少。但最終雙方都有成本。我們人類失去了閱讀帶來的那些好處——無論是放松、為自己思考,還是更好地理解他人。

這種成本在微軟研究院的一項最新研究中得到了量化驗證。研究人員試圖弄清楚用戶何時依賴人工智能為他們思考,他們采用了本杰明·布盧姆的教育目標分類法供研究參與者指示,與不使用相比,在使用生成式人工智能工具時他們感知到付出了多少努力。實驗有很多收獲,但有幾個特別引人注目。第一組涉及用戶是將信心寄托在人工智能還是自己身上:用戶對生成式人工智能的信心越大,他們報告在任務的批判性思考上投入的努力就越少;用戶對自己能力的信心越大,他們在執行任務時做的批判性思考就越多。另一個重要結果是,使用人工智能對任務進行初稿改變了人類在努力中的角色——不再將心智努力用于解決問題,而是轉移到驗證人工智能產生的信息、使人工智能的回應符合項目的具體需求,以及制定好的查詢等工作。本質上,從思考轉向管理和清理工作。

總的來說,知識工作者報告說,使用人工智能時他們需要的批判性思考量大幅減少。對于大多數任務類別,感知的"節省"心智能量與自己做任務相比,從69%到79%不等。這太巨大了!但有一個缺點。援引班布里奇幾十年前的擔憂,研究的作者對依賴人工智能進行認知任務可能適得其反發出了直截了當的警告:雖然批判性思考對低風險任務可能不是必需的,但用戶只在高風險情況下應用批判性思考是危險的。如果沒有在常見和/或低風險場景中的定期練習,認知能力會隨著時間的推移而惡化,因此如果高風險場景是鍛煉這種思維的唯一機會,就會產生風險。

似乎是一夜之間,一系列關于使用人工智能可能如何影響人類思維的其他研究出現在學術期刊上。一項對英國600多名參與者的調查發現,受訪者使用人工智能工具的頻率與他們的批判性思維能力之間存在負相關。通過依賴人工智能,用戶將自己的認知努力卸載到機器上。特別令人不安的是,年輕參與者比年長參與者表現出更多對人工智能的依賴——以及更低的批判性思維能力。賓夕法尼亞大學沃頓商學院進行的一項大規模研究比較了人們以兩種方式研究一個主題后的寫作:使用大型語言模型或進行傳統的網絡搜索。使用大型語言模型減少了學習,表現為對主題的理解減弱,以及洞察力和原創性降低。2025年6月發布在arXiv上的一項腦電圖研究表明,使用大型語言模型的人顯示出最弱的大腦活動水平,而"僅大腦"組的神經參與度最高。

這些發現對于文科教育具有深遠的啟示。近幾十年來,高等教育出現了兩個與此相關的趨勢。一個是強調教育作為職業的墊腳石——見證大學職業中心的擴張和學生實習的泛濫。為學習而學習被淡化了。曾經熟悉的口頭禪,即教育的目的不是謀生,而是過上有價值的生活,已經過時。第二個趨勢是強調教授"批判性思維"——一個值得稱贊的目標,只要我們能定義我們的意思以及如何教授它。但總的來說,批判性思維倡議并不與嚴肅的閱讀議程掛鉤。可能讀了一些東西,但往往很短,并不特別具有挑戰性。

如果精讀和大量閱讀不是當今教育議程的首要任務,那么什么是?教授生成式人工智能技能。學習如何撰寫聰明的提示,發現利用人工智能閱讀和寫作潛力的方法。全國大學與雇主協會堅持認為,高等教育的職責是為未來勞動力做準備,而現在意味著人工智能培訓。對于教師,有提供如何在課堂上使用人工智能的指導的研討會和課程。對于學生,有伊隆大學和美國大學協會發布的人工智能指南。其目標是值得稱贊的,包括"了解人工智能何時可以增強你的工作,以及你獨特的人類專業知識和創造力何時是無價的"。然而,正如卡爾頓學院教授喬治·庫薩克在一篇回應文章中所寫,這類文件存在內在矛盾。一方面,它們宣稱你未來的就業取決于了解如何使用生成式人工智能,另一方面,告誡你需要知道何時停止。對我們所有人來說,弄清楚如何提供有意義的建議是一個挑戰。

也許正在形成的是一個基于終端用戶人工智能技能而非閱讀教育的兩層級社會。如果是這樣,我們面臨一個更大的挑戰:現代社會的公民生活會發生什么?其核心是公民在參與社會生活時做出理性選擇的能力。原則上,我們做出選擇不僅基于我們在集會或辯論中聽到的,或觀看廣告,而且基于驅動我們判斷的知識基礎。這個基礎來自個人生活經驗,但在最好的情況下,也來自閱讀。人類閱讀作為教育基石越少,我們用于治理決策的認知——以及潛在的客觀——資源就越少。隨著我們越來越多地利用人工智能為我們閱讀,我們縮小了鍛煉分析性閱讀肌肉的機會。我們依賴人工智能代表我們做出判斷,假設我們還沒有將決策減少到廣告和直覺反應。

七、作為大學老師:對文科生的期待與憂思

作為一名法學教授,我每天都在面對這種張力。我的學生們聰明、勤奮、充滿抱負,但他們中的許多人已經失去了——或者從未真正獲得過——那種與厚重文本進行漫長搏斗的耐心與能力。他們習慣于快速瀏覽、關鍵詞檢索、要點提取,習慣于將閱讀視為一種可以外包給算法的生產環節。當我要求他們在兩周內讀完一本400頁的法學著作,并寫一篇不依賴二手文獻的原創分析時,我看到的往往是焦慮而非興奮,是抗拒而非好奇。

這種反應不能簡單地歸咎于個人的懶惰或品格的缺陷。他們是這個時代的產物,是"大腦腐化"和"自動化偏差"的受害者。他們成長在一個注意力被切割成碎片、信息被壓縮成表情包、思考被簡化為點贊或反對的環境中。他們中的許多人在高中時期就被訓練成了"應試閱讀者"——能夠快速定位正確答案,卻無力追蹤一個復雜論證的展開;能夠背誦標準解釋,卻無法與文本進行批判性對話。當他們進入大學,面對那些要求他們獨立判斷、原創思考、長期沉浸的學術任務時,他們感到的不是解放,而是迷失。

Baron在書中描述的那個"最后時刻的拉里"的案例,在我的教室里不斷重演。那個面臨截止日期的學生,需要撰寫一篇比較馬克·吐溫的《哈克貝利·費恩歷險記》與珀西瓦爾·埃弗雷特的新作《詹姆斯》的文章,但他壓根沒讀過原著。他向三個主流大語言模型求助,得到了從承認無法完成到徹底幻覺的各種回應。但問題的核心在于,無論AI生成的論文質量如何,拉里本人都沒有完成任何閱讀?!豆素惱べM恩歷險記》是一部成長小說,讀者需要跟隨主人公的腳步,體驗其心智的成熟與價值觀的摸索,這是一個浸入式的、不可替代的認知過程。AI提供的情節摘要和角色分析,完全無法復制這種通過漫長閱讀而來的共情與自我投射。

這讓我不斷追問:在這個人工智能日益滲透我們認知生活的時代,作為一名大學老師,我對文科生究竟懷有怎樣的期待?這種期待不是懷舊主義的,不是簡單地要求回到前數字時代的閱讀方式。我清楚地知道,技術的車輪不可逆轉,人工智能作為工具的價值也不容否認。我的期待是一種更為審慎、更為清醒的認知主權意識——我希望我的學生們能夠意識到,當他們將閱讀外包給算法時,他們不僅僅是在節省時間和認知資源,他們是在讓渡一種只有人類才能擁有的能力:那種在文本的迷宮中迷失并找到出路的能力,那種與另一個靈魂跨越時空進行深度對話的能力,那種通過艱苦的意義建構來重塑自我的能力。

我期待他們能夠理解,閱讀不僅僅是一種信息獲取的技術,更是一種存在的方式。當毛澤東在延安窯洞里閱讀《共產黨宣言》和《社會主義從空想到科學的發展》時,當查普斯基在蘇聯戰俘營中憑記憶講述普魯斯特時,當艾森豪威爾在諾曼底登陸前夜仍在閱讀歷史著作時,他們都在進行一種無法被算法替代的人類活動:通過文字與未知相遇,通過閱讀與自我對話。這種活動不需要總是高效的,不需要總是"有用"的,但它對于保持我們作為人類認知主體的完整性至關重要。

我期待他們能夠成為"挑剔的讀者"——不是那種對所有技術持敵意的盧德分子,而是那種能夠在效率與深度、便利與真實、外包與親歷之間做出明智選擇的人。這意味著,在某些時候,他們會選擇親自閱讀那本厚重的著作,即使AI可以在幾秒鐘內生成摘要;意味著他們會選擇在書頁邊緣寫滿自己的疑問和頓悟,即使數字標注更為便捷;意味著他們會選擇與同學和老師進行面對面的思想交鋒,即使在線討論更為高效。

我期待他們能夠成為"有抵抗力的讀者"——抵抗那種將一切認知活動都簡化為信息處理的傾向,抵抗那種將閱讀降維為數據提取的誘惑,抵抗那種將思考外包給算法的慣性。這種抵抗力不是天生的,它需要培養,需要在教育的每一個環節中得到強化。這意味著我們需要重新設計課程,將長篇閱讀、深度寫作、批判性對話置于核心位置;意味著我們需要改變評估方式,獎勵那些展現出獨立思考和原創見解的工作,即使它們不夠"完美";意味著我們需要以身作則,展示那種與文本進行漫長搏斗的學者形象,而不是那種依賴AI快速生成內容的"高效"榜樣。

最重要的是,我期待他們能夠成為"有倫理意識的讀者"——意識到閱讀不僅關乎個人的認知發展,更關乎我們作為公民參與公共生活的能力。Baron在書中提醒我們,閱讀有能力塑造我們是誰、我們渴望什么以及我們成為什么。在民主社會中,這種塑造直接關系到我們能否做出理性的政治判斷,能否理解復雜的政策議題,能否與持不同觀點的人進行建設性的對話。如果我們把閱讀、分析和判斷的權力無限期地讓渡給無需休息、不知疲倦的"閱讀機器人",我們不僅會失去對文本的深刻感知,更會在這場以"省力"為名義的進化博弈中,逐漸交出人類文明中最寶貴的獨立思考能力與批判性精神。

八、結語:在機器人的陰影下

讀完這本書,我意識到,這個問題——"你還親自讀書嗎?"——不僅是對學生的追問,更是對我自己的拷問。在我的書架上有多少本這樣的書?在我的硬盤里有多少份下載后從未打開的PDF?在我的待讀清單上有多少篇標記為"稍后閱讀"的文章,而那個"稍后"永遠不會到來?

Baron在書的結尾寫道,與可憐的浮士德不同,我們的裁決不必是全有或全無。我們可以在人類驅動的閱讀和使用AI代讀之間找到平衡。有時把工作交給AI是明智的選擇而非逃避,其他時候則相反。重要的是選擇標準,包括個人目標。我們需要有自己的答案來知道平衡將是什么,承認有時選擇可能不完全在我們自己手中。

這種清醒的自我認知,或許是我們在人工智能時代保持認知主權的最后防線。我們必須意識到,每一次向AI請求"幫我總結一下這篇文章"的按鍵,都是在向我們幾經艱難才獲得的、深邃的文字靈魂進行一次不自覺的告別。我們必須意識到,那種在漫長閱讀中培養出的耐心、那種在文本迷宮中鍛煉出的分析能力、那種與作者進行靈魂對話時產生的共情,不是可有可無的認知奢侈品,而是我們作為人類思考者的身份標識。

作為一名大學老師,我深知自己在這場認知保衛戰中的責任。我不能僅僅抱怨學生的閱讀習慣,而必須在自己的教學中示范那種深度閱讀的價值;我不能僅僅警惕AI的侵蝕,而必須幫助學生發展那種與算法共存但不依賴算法的認知能力;我不能僅僅期待他們成為更好的讀者,而必須與他們一起,在這個機器人的陰影下,重新發現閱讀作為一種人類活動的尊嚴與喜悅。

畢竟,誠如Baron所警示,人類乃是理性的動物。閱讀這一彌足珍貴的人類發明,斷不應以眩目新技術之名,被裹挾進盲目省力的窠臼而遭致束縛。在這個意義上,"你還親自讀書嗎?"不僅是一個關于閱讀習慣的問題,它是一個關于我們是否還愿意保持人類認知完整性、是否還珍視那種只有通過艱苦努力才能獲得的思想自由的終極追問。而對這個問題的回答,將決定我們以及我們的學生,在這個人工智能日益主導的時代,究竟會成為認知的主人,還是算法的附庸。


點擊進入下方小程序

獲取專屬解決方案~

責任編輯 | 金夢洋

審核人員 | 張文碩

本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息網 incentive-icons
北大法律信息網
法律綜合性網站
11399文章數 17528關注度
往期回顧 全部

專題推薦

洞天福地 花海畢節 山水饋贈里的“詩與遠方

無障礙瀏覽 進入關懷版