![]()
AI技術迭代為哲學社會科學領域知識生產提供新的可能,但也催生剽竊著作權亂象,引發形態多樣的侵權行為、倫理危機、模糊的法律邊界與受損的學術生態等多重挑戰。圍繞上述問題,本報記者近日采訪了相關專家學者,探析AI時代著作權的治理路徑。
![]()
AI剽竊著作權的模糊地帶
AI剽竊著作權因技術特性呈現出非復制性、隱蔽性等新型侵權樣態,其與“合理使用”的邊界模糊,成為當前學術界與司法實踐的核心爭議點。多位學者在采訪中認為,AI剽竊的本質仍是未經許可對他人著作權的侵占,但技術賦能下的表現形式更為復雜,需結合AI技術運行邏輯進行精準界定。中國社會科學院法學研究所研究員管育鷹表示,利用AI強大的信息調用和重組能力,剽竊者通過簡單的關鍵詞提示,就能獲得包含他人實質性內容的生成物。這種經過簡單再加工的“新作品”極易掩蓋侵權痕跡,侵占他人的創意和心血,其隱蔽性遠超傳統剽竊行為。但AI技術的發展需要大量的訓練數據支持,若一概要求事先獲得許可才能使用相關內容,可能不利于AI產業發展,需在保護原創與促進技術創新之間尋求平衡。
司法實踐中的典型案例清晰呈現了AI剽竊的隱蔽性侵權特征。在2024年的一起刑事案件中,羅某等人利用“圖生圖”工具對插畫師張某的原創作品僅做顏色、背景微調,在保留原作核心獨創元素后批量制作拼圖銷售,非法獲利27萬余元。管育鷹認為,此類案例表明,無論采取何種技術手段,只要生成內容與原作構成實質性相似,都可能構成侵權。
華東政法大學知識產權學院特聘副研究員姚葉從技術特性角度,對AI剽竊的邊界進行了雙重剖析。姚葉表示,人工智能目前具有兩種特征。一是在輸入端依托“文本與數據挖掘”技術可以從作品數據中學習其中的信息,且不需要在數據庫中長期儲存作者作品,即具有“非復制性”特征。二是在某些情況下對作品進行“記憶”并再現作品表達。因此,從輸入端看,生成式人工智能不存儲作品,也不在訓練數據的作品之上拼湊新的作品,這應構成“合理使用”或“非表達性使用”。但是,從輸出端看,生成式人工智能會在某些情況下對作品進行“記憶”并再現作品表達,而表達之間的實質性相似正是著作權侵權判定的核心要素。此外,原創者尤其注重聲譽,人工智能竊取作品但并不指明作品來源,模糊了原作者的精神與作品之間的關聯,具有侵犯著作權人精神權益的可能性。
沖擊知識生產核心價值
從哲學視角審視,AI剽竊著作權不僅是法律層面的侵權問題,更觸及知識生產的倫理根基,對學術生態造成負面影響。黑龍江大學哲學學院院長蔣紅雨在采訪中表示,AI剽竊著作權違背知識生產倫理原則之處,在于對知識生產主體基本價值內核的否定,主要表現為違反了知識生產倫理的人道原則與公正原則。究其根本,人道與公正是人之為創作主體應獲得的基本尊重,也是知識生產倫理的基本精神內核。AI剽竊著作權直接沖擊了現代社會人之主體性預設和人作為主體的創造性特質的張揚。
在哲學社會科學領域,AI剽竊引發的倫理危機尤為突出,“幻覺引用”與“論文工廠”的產業化現象令人擔憂。更嚴重的是,這種趨勢導致學術研究日益平面化。蔣紅雨表示,研究者可能迷失于AI技術的便利,喪失深度鉆研的熱情,對人工智能的過度依賴正在削弱研究者的學習自主性,使批判性思維得不到應有訓練,創新能力不斷弱化。
“合理使用”的邊界
AI技術飛速發展,給傳統著作權法律體系帶來雙重挑戰:一是“合理使用”邊界的模糊化,導致司法實踐中爭議頻發;二是人機協作模式下,侵權責任劃分缺乏清晰的界定標準,亟待完善。
AI技術對法律的挑戰首先體現在“合理使用”邊界的模糊性上。
江南大學法學院副院長葉敏表示,當前司法實踐呈現出的新趨勢之一是“合理使用成為關鍵抗辯武器”。在《紐約時報》等8家媒體訴微軟、OpenAI案,英偉達被圖書作者集體訴訟案中,被告均以“公開數據合理使用”作為主要抗辯理由,而不同法院對這一抗辯的認定存在分歧,進一步凸顯了“合理使用”邊界界定的難度。
吉林大學法學院教授王國柱針對“人機協作”的概念,提出AI盡管具有智能化的特征,但仍然是“高級”工具,沒有成為創作主體的可能,創作主體只能是人本身。“人類創作者如果運用AI進行創作,就應承擔創作過程中可能產生的所有倫理責任和法律責任。”
在王國柱看來,在AI訓練環節未經著作權人許可對其作品進行的使用,若僅為信息提取且不長期儲存、不拼湊新作品,通常不宜認定為剽竊,可通過“作品合理使用”或“非獨創性表達性使用”獲得正當性解釋。若人類將AI生成內容作為自己的研究成果署名,或未對AI生成內容進行審慎校正導致侵權、造假,相應的學術不端責任與法律責任均應由人類承擔。
在侵權責任劃分方面,王國柱提出基于注意義務的解決路徑,為司法實踐提供了可操作的標準。具體而言,AI開發者是否設置人類反饋強化學習訓練流程,以便拒絕回答可能導致生成侵權內容的提問等;AI服務平臺是否建立相關投訴機制、是否以服務協議等方式提示用戶不得侵害他人著作權、是否為AI生成內容添加顯著標識等;AI使用者是否避免直接要求AI模仿已知受著作權保護的作品、是否通過反向圖像搜索等工具確認AI生成內容不與現有作品構成實質性相似等。葉敏提出,應依據AI服務提供者對生成內容的實際控制力劃分責任,實現權責統一,讓實質參與內容生成者承擔更高的過濾義務。
此外,現行著作權法中“獨創性”“智力成果”的界定,也難以完全適配AI剽竊的認定需求。王國柱認為,著作權法保護思想的表達,但不保護思想本身,正因如此,對學術觀點、學術思想等的剽竊屬于學術倫理范疇,并不屬于著作權法的調整范圍。
法律評價與多元共治
面對AI剽竊的復雜挑戰,傳統著作權保護體系需要系統性升級,構建“法律完善、倫理引導、機構聯動、產業合作”的多元治理路徑,實現技術創新與知識原創保護的良性平衡。
在法律層面,葉敏提出應當“從技術中立向精細化法律評價轉化”,同時指出“接觸+實質性相似”的判斷標準并未過時,只是需要結合AI技術特點進行更科學的判斷,對于AI提供商的義務與責任配置應當與其技術控制力相匹配。
葉敏建議在具體侵權判斷上可引入“動態系統論”等新工具,根據AI模型的不同類型與運行機理,構建綜合考慮多種因素的判斷體系,這些因素包括作品使用目的、對原作者權益的影響、技術控制程度、傳播范圍、是否采取合理過濾技術等。在損害結果判斷上,應注重“市場性替代”標準,同時區分商業性使用和非商業性使用場景,平衡侵權追責與技術包容。
姚葉認為,學術剽竊的對象包括思想、觀點、科研數據等科研成果的核心內容,因此抓取并利用他人學術數據而缺乏必要的指引,仍構成學術剽竊,但很難構成著作權侵權;同時,AI的“幻覺”可能產生與原文不符的內容,破壞古籍文獻的忠實再現目的,進而影響文化傳承和科研的準確性。
管育鷹提出場景化區分的治理思路,為不同應用場景下的AI使用提供了明確指引。管育鷹認為,AI生成物用于教學科研公務等公益目的、提供的是處理后的數據情報等信息而非作品內容本身之欣賞價值的,可參照合理使用規則豁免侵權責任;AI生成物用于投放文化市場提供精神產品之欣賞價值的,未按照法律規定獲得許可或支付報酬的則應承擔相應責任。
高校、科研機構、學術期刊作為哲學社會科學領域知識生產的核心載體,應承擔起相應的防范責任。多位學者認為,此類機構應建立AI生成內容檢測機制,明確學術成果中AI使用的標注要求,完善學術評價體系,遏制AI代寫、剽竊等學術不端行為;同時,加強對學者的引導,培養其批判性思維與原創意識,避免過度依賴AI工具,守護學術生態的純粹性。
從零和博弈走向合作共生
跳出“非此即彼”的對立思維,通過制度設計的創新,引導著作權人與AI服務商從對立走向合作,構建人機共生的良性秩序。
葉敏認為,治理核心是通過制度的精準化調節引導著作權人與AI服務商從對立走向合作。這種制度創新可采取多種形式,以有效平衡雙方利益;用精細化的標準,依據AI服務提供者對生成內容的實際控制力劃分責任;同時,引導大模型開發平臺與著作權人達成新的版權集體合作。
蔣紅雨從哲學角度提出“機器自覺”概念,為AI技術的向善發展提供了倫理指引。蔣紅雨認為,要以向善治理為指引,出臺和豐富人工智能法案,為生成式人工智能劃定可遵循的權利與義務邊界,實現對于技術自主性創制的硬約束。要將負責任的創新原則納入兩種創制模式的進程,形成AI技術知識生成中尊重知識原創性的“機器自覺”。
面對AI浪潮,人類需要做的不是筑起高墻阻隔技術,而是在代碼與法律條文之間,找到那個既能保護創造火花又不熄滅創新火焰的平衡點,守護哲學社會科學領域的知識原創性,實現AI技術與著作權保護的良性共生,推動哲學社會科學知識生產高質量發展。
中國社會科學報記者 趙徐州 陳煉
來源:中國社會科學報
新媒體編輯:宗敏
如需交流可聯系我們
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.