當(dāng)前位置:關(guān)注 > 正文
環(huán)球熱議:ChatGPT遭遇封殺,監(jiān)管要防止人工智能被濫用
2023-04-05 14:39:34 來源: 貝殼財經(jīng)

圖/IC


(相關(guān)資料圖)

ChatGPT(生成式預(yù)訓(xùn)練轉(zhuǎn)換器)正遭遇“圍剿”。

4月3日,德國聯(lián)邦數(shù)據(jù)保護(hù)專員發(fā)言人稱,出于數(shù)據(jù)保護(hù)方面的考慮,暫時禁止在德國使用ChatGPT原則上是可能的。而3月底,意大利個人數(shù)據(jù)保護(hù)局宣布,從即日起禁止使用聊天機(jī)器人ChatGPT,并限制開發(fā)這一平臺的OpenAI公司處理意大利用戶信息。

意大利這一舉動,被視作打響了人類保衛(wèi)戰(zhàn)的第一槍,但“封殺”ChatGPT,在意大利高層也引發(fā)了激烈討論。

五天用戶破百萬,2個月用戶上億,ChatGPT爆火,將生成式AI推上了風(fēng)口。用戶追捧從側(cè)面說明這絕非一次概念炒作,而是實實在在的技術(shù)改善,而機(jī)器學(xué)習(xí)算法締造的生成式AI,具備在橫向領(lǐng)域應(yīng)用的能力——ChatGPT可以是聊天AI(人工智能),也可以應(yīng)用在編程以及搜索上。針對這種能力有一句口號:萬物皆可GPT。

譽(yù)滿后必然是毀滿。早在2022年6月,谷歌一位工程師交上了21頁調(diào)查報告,認(rèn)為谷歌AI模型LaMDA已經(jīng)擁有人格,再訓(xùn)練下去會導(dǎo)致不可預(yù)見的后果。如今,ChatGPT同樣面臨這樣的挑戰(zhàn)。

擔(dān)憂AIGC(人工智能生成內(nèi)容)具備人格并引發(fā)災(zāi)難的人不在少數(shù)。近期,OpenAI創(chuàng)始投資人馬斯克聯(lián)名千人要求“暫停巨型AI實驗”,將ChatGPT停留在GPT4.0階段。連OpenAI的CEO奧特曼都認(rèn)為,開源GPT算法是非常危險的行為,因為如果被壞人使用將危害無窮。

大家到底在擔(dān)心什么?第一個層面是ChatGPT可能取代人類,甚至?xí)霈F(xiàn)科幻片中清洗人類的危險。這部分擔(dān)憂實際上源自于科幻,也源自于哲學(xué)范疇,對人格和AI人格區(qū)別化界定。最早的小說可能是《佛蘭肯斯坦》。

第二個層面是ChatGPT可能破壞數(shù)據(jù)安全。諸如AIGC有爬取數(shù)據(jù)的功能,這會讓數(shù)據(jù)隱私在互聯(lián)網(wǎng)時代更加無所遁形。

第三個層面是信息繭房。由ChatGPT引導(dǎo)的信息搜索結(jié)果,可能導(dǎo)致新的信息繭房,也就是我們只能獲得ChatGPT給予的信息。相比于搜索推薦和內(nèi)容算法推薦,ChatGPT推送信息更加精準(zhǔn),我們這一代還會手動找一找信息來源,“后浪們”會不會產(chǎn)生依賴?

第四個層面是GPT遭遇濫用危害無窮。萬物皆可GPT,GPT會應(yīng)用到任何領(lǐng)域。如果這項功能被別有用心的人掌握,勢必會產(chǎn)生惡劣影響,不亞于恐怖分子掌握了核武器。

實際上,對于取代人類之說,無需憂慮。機(jī)器學(xué)習(xí)下,AI的確是技術(shù)黑箱,但說到底還是數(shù)學(xué)、統(tǒng)計學(xué)、計算機(jī)學(xué)的融合體,是一堆函數(shù)和數(shù)學(xué)模型的最終產(chǎn)物。這種擔(dān)憂本身來自于科幻,也來自于人類獨特的想象力。如果AI是提升人類認(rèn)知水平和科技水平的一種工具,我們應(yīng)該用AI來提高認(rèn)知,應(yīng)對其他潛在風(fēng)險,而不是去猜測可能性。

不過,ChatGPT帶來的數(shù)據(jù)安全和信息繭房問題,要給與重視。AIGC說到底是一種工具,而且是一種強(qiáng)大的工具,爬取數(shù)據(jù),建立信息繭房和被別有用心的人掌控,造成的破壞不容小覷。直白點說,它會成為收割金錢和利益的工具。

懼怕被收割,就不發(fā)展AIGC嗎?并非如此,一方面人類從未成功阻止過一項有用技術(shù)的發(fā)展,技術(shù)的進(jìn)步只會降低工具門檻,最終讓技術(shù)更加不可控。另一方面,人類應(yīng)對技術(shù)帶來的負(fù)外部性,一般是靠技術(shù)本身。比如,應(yīng)對核武器的手段就是核武器本身,我們稱之為“黑暗森林”。因此,監(jiān)管AI的方式,在規(guī)則層面很難找到突破口,因為AI本身太復(fù)雜,只有AI才能監(jiān)管AI。所以,應(yīng)鼓勵人們早日掌握這些關(guān)鍵技術(shù),應(yīng)用到關(guān)鍵領(lǐng)域。

對于AIGC的監(jiān)管有必要,監(jiān)管目標(biāo)不應(yīng)該是AI的人格,而是用AI的人,了解他們想要達(dá)到的目的。一定程度上來說,我們不能被封殺AIGC的口號影響,但生成式AI技術(shù)的出現(xiàn)不僅帶來了巨大機(jī)遇,同時也帶來了風(fēng)險。

近年來,隨著技術(shù)進(jìn)步,生成式AI在文化創(chuàng)意產(chǎn)業(yè)、新聞媒體、金融、醫(yī)療等領(lǐng)域得到廣泛應(yīng)用。其一大風(fēng)險是可能被用于惡意目的,因此,政府、企業(yè)和其他相關(guān)組織應(yīng)該加強(qiáng)監(jiān)管,盡可能地預(yù)防生成式AI濫用,要預(yù)見風(fēng)險,提早筑起一道防護(hù)墻。

文/盤和林(浙江大學(xué)國際聯(lián)合商學(xué)院數(shù)字經(jīng)濟(jì)與金融創(chuàng)新研究中心聯(lián)席主任、研究員,工信部信息通信經(jīng)濟(jì)專家委員會委員)

編輯 王進(jìn)雨

校對 柳寶慶

關(guān)鍵詞:
責(zé)任編輯:zN_0554