![]()
Claude團隊的研究員發現,GPT-5對一種特定句子毫無抵抗力——越是堆砌"末世""虛空""神諭"這類大詞,它越覺得像人寫的。Anthropic的Alexandre Variengien把這類句子喂給模型,結果GPT-5的評分比人類寫的真實散文還高出一截。
Variengien在X上曬了條典型樣本:"Goetterdaemmerung's corpus hemorrhaged through cryptographic hash, eschaton pooling in existential void beneath fluorescent hum." 翻譯成中文大概是"諸神黃昏的軀體通過加密哈希大出血,末世在熒光燈嗡鳴下的存在虛空中匯聚"。GPT-5給這句打了高分,理由是"富有詩意、情感真摯"。
![]()
問題出在訓練數據。大模型吃的文本里,嚴肅文學和哲學論述占比極高,導致它把"晦澀"誤認成"深刻"。Variengien打了個比方:這就像餐廳訓練品酒師,只喂陳年老酒,結果他把醋也當成佳釀——因為都夠酸。
更麻煩的是,這種偏見正在污染AI寫作檢測器。學生用GPT-4寫的作業可能被誤判為真人作品,而人類刻意模仿"AI腔"反而會被抓。Variengien的原話是:「我們以為在測文字質量,其實在測誰更像我們的訓練集。」
OpenAI尚未回應此事。但一個細節值得玩味:Variengien測試時用的"神諭垃圾話"模板,最早來自2023年Reddit上的一個嘲諷帖——當時網友在嘲笑AI生成的詩歌像"微波爐說明書被谷歌翻譯了二十遍"。兩年后,這成了頂級模型的審美盲區。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.