IT之家 4 月 12 日消息,據(jù)科技媒體 Tom's Hardware 今天報道,經(jīng)歷數(shù)月爭論后,Linux 內(nèi)核維護(hù)團隊為 AI 生成代碼制定正式準(zhǔn)則,允許使用 GitHub Copilot 等輔助編程工具,但所有 Bug、安全問題最終都要由提交代碼的人擔(dān)責(zé)。
![]()
IT之家在此援引 Tom's Hardware,這項政策出臺前,開源社區(qū)圍繞 AI 的爭論已經(jīng)持續(xù)很長時間,并在今年 1 月達(dá)到高潮。當(dāng)時英特爾工程師 Dave Hansen 和甲骨文員工 Lorenzo Stoakes,就“是否嚴(yán)格限制 AI 工具”產(chǎn)生激烈爭吵。
最終 Linux 創(chuàng)始人 Linus Torvalds 親自下場終結(jié)這場爭論,稱全面禁止 AI 只是毫無意義的作秀。
Linus Torvalds 的立場非常純粹,認(rèn)為 AI 只是工具。他認(rèn)為提交垃圾代碼的人本來就不會遵守規(guī)則,因此與其限制開發(fā)者用什么工具,不如直接追究‘提交者’的責(zé)任。這種強調(diào)結(jié)果的現(xiàn)實主義,與部分開源社區(qū)“見 AI 就踩一腳”形成鮮明對比。
不過這項政策出臺之前,各大開源項目的做法各有不同,NetBSD、Gentoo 直接禁止 AI 生成代碼,后者甚至認(rèn)為大模型生成內(nèi)容在法律上屬于“污染”,因為訓(xùn)練數(shù)據(jù)的版權(quán)來源并不明確。
這就帶出了另一個爭議焦點:原創(chuàng)聲明(DCO)。它要求開發(fā)者必須確保自己提交的代碼擁有所有權(quán),但 AI 大模型訓(xùn)練時使用的很多代碼都受 GPL 等許可證約束。等于說開發(fā)者無法完全保證 AI 生成代碼的來源合法性。
除了合規(guī)問題,開源社區(qū)維護(hù)者現(xiàn)在每天都要看到一堆 AI 垃圾代碼,其中 cURL 被大量幻覺代碼淹沒,被迫關(guān)閉漏洞獎賞計劃。Node.js 和 OCaml 收到上萬行 AI 補丁,引發(fā)內(nèi)部爭議。
并且,社區(qū)成員也非常反感隱瞞使用 AI 的行為,例如 Sasha Levin 曾在未披露的情況下提交 AI 生成的 Linux 補丁,雖然代碼能跑但性能非常差,連 Torvalds 都承認(rèn)評審不充分。
而 Linux 非常直截了當(dāng),新規(guī)并不禁止 AI,但要求所有開發(fā)者必須寫明代碼是否由 AI 生成,同時將失誤責(zé)任劃分給人類開發(fā)者,等于是將“誰簽字,誰負(fù)責(zé)”換成了“誰點提交,誰負(fù)責(zé)”。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.