![]()
圖片
在人工智能領(lǐng)域,有這么一個(gè)測(cè)試,叫做“圖靈測(cè)試”,顧名思義,這個(gè)測(cè)試是計(jì)算機(jī)先驅(qū)、英國數(shù)學(xué)家圖靈構(gòu)想出來的。
這個(gè)測(cè)試是干什么用的呢?就是判斷一個(gè)人工智能是不是真的具有了智慧。
這個(gè)測(cè)試大概的意思是說,如果電腦能在5分鐘內(nèi)回答由人類測(cè)試者提出的一系列問題,且其超過30%的回答讓測(cè)試者誤認(rèn)為是人類所答,則電腦通過測(cè)試。換句話說,測(cè)試者分不清對(duì)面和他對(duì)話的是人還是電腦。
最近c(diǎn)hatgpt很火,每個(gè)人都想跟它交流一下。可大家想過沒有?如果你不知道和你聊天的是chatgpt,你有多大概率會(huì)把對(duì)方當(dāng)做一個(gè)真正的人?肯定超過30%吧?
你甚至?xí)褜?duì)方當(dāng)成是一個(gè)博學(xué)的、圓滑的、說話滴水不漏的話癆。所以說句不客氣的話,chatgpt在一定程度上已經(jīng)通過了圖靈測(cè)試。
我想這也就是讓大多數(shù)學(xué)校和學(xué)術(shù)期刊如臨大敵的原因。當(dāng)學(xué)生讓chatgpt寫作業(yè)的時(shí)候,當(dāng)學(xué)者讓chatgpt幫忙寫論文的時(shí)候,老師和評(píng)審們很有可能識(shí)別不出來。《大西洋雜志》就哀嘆“大學(xué)論文從此死了,高中英語課程死了。”
巴黎政治大學(xué)等高校都向所有學(xué)生和教師發(fā)送電子郵件,要求禁止使用ChatGPT等一切基于AI的工具,旨在防止學(xué)術(shù)欺詐和剽竊。
紐約等美國城市的教育部門也發(fā)布禁令,在公立學(xué)校的網(wǎng)絡(luò)和設(shè)備上禁止訪問 ChatGPT。多家知名學(xué)術(shù)期刊更新編輯規(guī)則,明確禁止將ChatGPT列為合著者,部分期刊更是明確不允許在論文中使用ChatGPT所生產(chǎn)的文本。
如今這種擔(dān)憂也傳到了國內(nèi)。近期,《暨南學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》發(fā)布關(guān)于使用人工智能寫作工具的說明。說明提到,暫不接受任何大型語言模型工具(例如:ChatGPT)單獨(dú)或聯(lián)合署名的文章。
在論文創(chuàng)作中使用過相關(guān)工具,需單獨(dú)提出,并在文章中詳細(xì)解釋如何使用以及論證作者自身的創(chuàng)作性。如有隱瞞使用情況,將對(duì)文章直接退稿或撤稿處理。
說實(shí)話《暨南學(xué)報(bào)》的說明還是有點(diǎn)客氣了。他們希望投稿的人會(huì)誠實(shí)地把使用過chatgpt或是其他人工智能系統(tǒng)這件事說出來。但這希望很可能會(huì)落空。
![]()
圖片
所以chatgpt的普及會(huì)帶來兩個(gè)嚴(yán)重后果,第一個(gè)后果就是作弊變得比以前更容易了。
美國著名語言學(xué)家喬姆斯基(他竟然還活著)就認(rèn)為,ChatGPT是一個(gè)高科技剽竊系統(tǒng),從海量數(shù)據(jù)中發(fā)現(xiàn)規(guī)律,并依照規(guī)則將數(shù)據(jù)串連在一起,形成像人寫的文章和內(nèi)容。在教育界,已經(jīng)引發(fā)了“ChatGPT讓剽竊變得更加容易”的擔(dān)憂。
而比這更加嚴(yán)重的后果,是人類可能會(huì)就此依賴ChatGPT,放棄獨(dú)立思考。這東西實(shí)在是太方便了,把關(guān)鍵詞往里一扔,一會(huì)兒就給你生成一篇花團(tuán)錦簇的文章。那還寫什么文章啊?以后就靠它了。
說實(shí)話,人類科技的發(fā)展源于兩個(gè)動(dòng)力,一個(gè)是好奇心,驅(qū)使著人類不斷探索未知世界。而另一個(gè)是懶惰,很多科技發(fā)明就是為了把人類從繁重的勞動(dòng)中解放出來。
懶得走路就發(fā)明了車,懶得掃地就發(fā)明了掃地機(jī)器人,懶得洗衣服就發(fā)明了洗衣機(jī)。但有一樣?xùn)|西可千萬不能懶,那就是思考。
![]()
圖片
思維能力和由此誕生的創(chuàng)造力,是人類能夠走到今天最重要的原因。而且科學(xué)已經(jīng)證明,思維能力并不完全是與生俱來,它還需要后天鍛煉,而且用進(jìn)廢退。這就是我們讀書學(xué)習(xí)的目的所在。
在當(dāng)今這個(gè)圖片和短視頻橫行的年代,人類的思維能力已經(jīng)普遍呈現(xiàn)出倒退的趨勢(shì)。二戰(zhàn)后人類平均智商逐年上升的“弗林效應(yīng)”正在被逆轉(zhuǎn)。
而這個(gè)時(shí)候,如果我們?cè)侔褜W(xué)習(xí)這件事交給人工智能,那可真就是把大好的江山拱手相讓了。我們一邊擔(dān)心著人工智能會(huì)替代我們的工作,而另一邊又把學(xué)習(xí)這一塊交給了人工智能。這不就是南轅北轍嗎?
說實(shí)話,即使明白這個(gè)道理,人們的懶惰仍然會(huì)戰(zhàn)勝理性。當(dāng)有了剽竊、作弊的巨大需求,人工智能系統(tǒng)就有了市場(chǎng)。這時(shí)候簡(jiǎn)單的聲明阻止不了這種事的發(fā)生。
不過反過來,既然擔(dān)心人工智能成為高科技剽竊系統(tǒng)也成為一種需求,那么未來是不是會(huì)有科技公司研發(fā)另一種人工智能系統(tǒng),專門用來識(shí)別ChatGPT寫出來的文章,用魔法打敗魔法。
當(dāng)然,這只不過是我這個(gè)外行的異想天開。但是我們必須從這件事情上看到問題所在。ChatGPT的出現(xiàn),不僅僅會(huì)搶走人類的工作,還有可能讓我們依賴它替我們思考。人工智能的可怕之處就在于它學(xué)會(huì)了思考,而比這更可怕的是我們?nèi)祟惙艞壛怂伎肌?/p>
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.