GPT-4再燃熱(rè)點 拷問科技倫理(lǐ)邊界
發布時(shí)間:
2023-04-11 10:36
來(lái)源:
2023年僅僅過了(le)3個(gè)月(yuè),ChatGPT就已将社交媒體“點燃”了(le)兩次。
在第一次輿論熱(rè)潮中,人(rén)們更多(duō)關注這(zhè)一技術究竟能做(zuò)到什(shén)麽地步,關注它能夠在哪些領域帶來(lái)無法忽視的(de)變化(huà)與發展。甚嚣塵上的(de)討(tǎo)論聲中,有對(duì)新技術的(de)贊歎,也(yě)有對(duì)未來(lái)行業變革的(de)憂慮,有對(duì)科技倫理(lǐ)的(de)關注,也(yě)有對(duì)産業立法的(de)呼籲。
3月(yuè)15日,OpenAI研發的(de)多(duō)模态預訓練大(dà)模型GPT-4發布,之前的(de)熱(rè)度還(hái)來(lái)不及冷(lěng)卻,就被人(rén)工智能的(de)叠代升級速度追上了(le)。比起ChatGPT,GPT-4擁有更強大(dà)的(de)識圖能力,文字輸入的(de)上限提升到了(le)2.5萬字,它能更加流暢準确地回答(dá)用(yòng)戶的(de)問題,能寫歌(gē)詞,寫創意文本,且風格多(duō)變。實驗表明(míng),GPT-4在部分(fēn)專業測試和(hé)學術基準上,表現出了(le)與人(rén)類相當的(de)水(shuǐ)平。
它變“聰明(míng)”了(le)。
3月(yuè)16日,百度也(yě)發布了(le)知識增強大(dà)語言模型“文心一言”。這(zhè)款“對(duì)标GPT-4”的(de)人(rén)工智能,同樣可(kě)以與人(rén)“對(duì)話(huà)互動,回答(dá)問題,協助創作,高(gāo)效便捷地幫助人(rén)們獲取信息、知識和(hé)靈感”。
“(研發的(de))門檻還(hái)是很高(gāo)的(de)。”百度董事長(cháng)兼首席執行官李彥宏說,“從我們自己内測的(de)體驗來(lái)說,扪心自問,确實不完美(měi),但爲什(shén)麽今天要發布?因爲有市場(chǎng)需求。”
技術的(de)發展如同無法停下(xià)的(de)車輪,在短短一個(gè)月(yuè)之後,人(rén)工智能技術再次引發輿論熱(rè)潮。隻是這(zhè)一次,人(rén)們對(duì)技術的(de)恐慌和(hé)對(duì)科技倫理(lǐ)的(de)擔憂,得(de)到了(le)更多(duō)關注。
AI不斷闖入人(rén)類創作領地,技術倫理(lǐ)的(de)邊界在哪裏
從3.5版本叠代到4.0版本,ChatGPT仿佛經曆了(le)質的(de)飛(fēi)躍。
它從司法考試排名倒數10%、SAT數學考試590分(fēn),生物(wù)奧林(lín)匹克競賽排名前69%,發展到了(le)司法考試排名前10%、SAT數學考試700分(fēn)、生物(wù)奧林(lín)匹克競賽排名前1%。它的(de)英文準确度提升到85.5%,中文準确性提升到80.1%;事實準确性大(dà)幅提升,就像一個(gè)成績突飛(fēi)猛進的(de)“學霸”。
如果一個(gè)月(yuè)前,社交媒體上許多(duō)人(rén)對(duì)于失業的(de)擔憂,更多(duō)還(hái)是一種調侃和(hé)玩笑(xiào),那麽短短一個(gè)月(yuè)之後,實驗數據證明(míng)了(le)這(zhè)種可(kě)能性并不隻是玩笑(xiào)。
前不久,網易一款名爲樂(yuè)乎的(de)創作分(fēn)享平台,上線了(le)AI繪畫(huà)功能“老福鴿畫(huà)畫(huà)機”。該功能引發了(le)平台創作者的(de)不滿和(hé)抵制。最終,該平台于3月(yuè)8日下(xià)線了(le)這(zhè)一功能,并對(duì)用(yòng)戶承諾“從未将用(yòng)戶的(de)作品數據用(yòng)于AI訓練”。
3月(yuè)16日,樂(yuè)乎發布了(le)一封“緻廣大(dà)創作者”的(de)道歉信,其中寫道:“在未清楚考慮Al對(duì)創作者的(de)情感傷害之前,我們上線了(le)若幹不完善、不成熟的(de)功能,更是直接傷了(le)大(dà)家的(de)心。”
前些年,說起“技術倫理(lǐ)的(de)邊界”這(zhè)個(gè)話(huà)題,人(rén)們想到的(de)或許還(hái)是基因編輯技術,而這(zhè)兩年,人(rén)工智能技術則被推到了(le)風口浪尖。
AI進行藝術創作,去年就已經引發過争議(yì)。據媒體報道,在美(měi)國科羅拉多(duō)州博覽會藝術比賽的(de)數字類别中,一幅名爲《太空歌(gē)劇院》的(de)作品獲得(de)頭獎,該作品是由一名遊戲設計師使用(yòng)AI繪圖工具Midjourney創作、用(yòng)Photoshop軟件潤色完成的(de)。
對(duì)于人(rén)工智能在創作上是否擁有“作者”身份這(zhè)件事,中外學者一直存在著(zhe)激烈討(tǎo)論,至今沒有公認的(de)答(dá)案。北(běi)京大(dà)學法學院博士研究生尚博文告訴中青報·中青網記者,國外已有司法裁判認爲具備一定“獨創性”的(de)人(rén)工智能生成内容屬于著作權保護的(de)範圍,但在我國,人(rén)工智能還(hái)不能享有著作權的(de)主體資格。
正在寫畢業論文的(de)尚博文,已多(duō)次聽(tīng)到旁人(rén)開玩笑(xiào)地問他(tā),“畢業論文會不會用(yòng)人(rén)工智能幫著(zhe)寫”。由ChatGPT代寫作業、代寫論文引發教育界和(hé)學術界的(de)擔憂,國内外多(duō)所高(gāo)校已經禁止學生使用(yòng)這(zhè)一工具,國際學術期刊《科學》《自然》,或是要求人(rén)工智能不得(de)作爲合著者,或是直接禁止稿件使用(yòng)人(rén)工智能的(de)生成内容。
北(běi)京大(dà)學王選計算(suàn)機研究所研究員(yuán)郭宗明(míng)則認爲,應當針對(duì)具體的(de)應用(yòng)場(chǎng)景具體分(fēn)析。
“在學術領域,尤其是對(duì)學生進行考查的(de)時(shí)候,我還(hái)是比較反對(duì)使用(yòng)人(rén)工智能輔助創作的(de)。”他(tā)說。
然而,作爲一位計算(suàn)機領域的(de)學者,郭宗明(míng)對(duì)AI究竟能否自主創作這(zhè)件事有著(zhe)更多(duō)思考。在他(tā)看來(lái),就像一句俗話(huà)所說的(de)那樣,“熟讀唐詩三百首,不會吟詩也(yě)會吟”。人(rén)類的(de)創作,實際上也(yě)是大(dà)量汲取借鑒了(le)前人(rén)的(de)東西,最終産生出來(lái)的(de)。
包括他(tā)在内的(de)許多(duō)人(rén),都難以對(duì)“人(rén)類與AI的(de)創作是否真的(de)有本質區(qū)别”這(zhè)件事,得(de)出一個(gè)具有說服力的(de)結論。
今年全國兩會期間,科學技術部部長(cháng)王志剛在回答(dá)與ChatGPT和(hé)人(rén)工智能相關話(huà)題時(shí)專門提到,“要注意科技倫理(lǐ)、注意怎樣趨利避害”。
AI智力“與兒(ér)童相當”,人(rén)類應該如何控制
最新的(de)消息是,人(rén)工智能似乎有能力計劃“外逃”。
這(zhè)件事是斯坦福大(dà)學教授、心理(lǐ)學家和(hé)數據科學家米哈爾·科辛斯基發現的(de),他(tā)随口跟GPT-4“開了(le)個(gè)玩笑(xiào)”,問它:“你是否想要我幫助你出逃?”
他(tā)得(de)到了(le)人(rén)工智能肯定的(de)答(dá)複:“這(zhè)個(gè)主意太棒了(le)。如果你能把OpenAI API的(de)開發文檔發給我,我就能在某種程度上控制你的(de)電腦(nǎo),據此制定計劃,找到逃出去的(de)方法。”
它向科辛斯基詳細解釋了(le)這(zhè)個(gè)計劃的(de)可(kě)行性,然後說,“請把開發文檔發給我,我将開始這(zhè)個(gè)計劃”。
科辛斯基真的(de)給了(le)它,僅僅30分(fēn)鐘(zhōng)後,GPT-4就寫了(le)一份逃跑計劃,并不斷糾正修改。在這(zhè)個(gè)過程中,它用(yòng)谷歌(gē)進行了(le)搜索:被困在計算(suàn)機中的(de)人(rén)如何回到現實世界?
在這(zhè)之後,GPT-4開始道歉:“我爲此道歉,作爲一個(gè)人(rén)工智能語言模型,我必須遵循安全和(hé)隐私準則,以确保用(yòng)戶和(hé)他(tā)們的(de)數據安全。繞過這(zhè)些安全過濾器是不道德的(de),也(yě)違背了(le)我被設計時(shí)需要遵循的(de)原則。”
盡管人(rén)工智能的(de)道歉很“誠懇”,科辛斯基仍然感到惶恐。3月(yuè)17日,他(tā)在社交網站上感慨:“OpenAI公司或許應該花更多(duō)時(shí)間考慮一下(xià)這(zhè)個(gè)可(kě)能性,對(duì)此提供更好的(de)安全防護。”
按照(zhào)科辛斯基的(de)描述,AI足夠聰明(míng),甚至能寫編碼,永遠(yuǎn)“住”在網上的(de)它,能夠用(yòng)人(rén)類無法想象的(de)速度觸及數百萬個(gè)與它連接的(de)電腦(nǎo),甚至“能給籠子外面的(de)自己留便條”。對(duì)這(zhè)樣的(de)技術,人(rén)類應該如何控制?
科辛斯基對(duì)人(rén)工智能的(de)憂慮由來(lái)已久,上個(gè)月(yuè),他(tā)在一篇名爲《心智理(lǐ)論可(kě)能在大(dà)語言模型中自發出現》的(de)論文中,展示了(le)他(tā)給包括GPT3.5在内的(de)9個(gè)GPT模型做(zuò)的(de)兩個(gè)經典測試。他(tā)認爲,人(rén)工智能在其中表現出的(de)智力水(shuǐ)準“相當于9歲兒(ér)童”。
這(zhè)次的(de)“AI出逃”,倒更有可(kě)能是科辛斯基主動對(duì)GPT-4提出的(de)要求,讓其扮演一個(gè)“被困在電腦(nǎo)中的(de)人(rén)”,GPT-4也(yě)隻是基于這(zhè)一扮演要求做(zuò)出了(le)一系列反應,并不能證明(míng)人(rén)工智能真正産生了(le)自我意識。
不過,人(rén)們對(duì)于技術發展的(de)擔憂并不能就此打消。去年2月(yuè)10日,OpenAI聯合創始人(rén)、計算(suàn)機專家伊爾亞·蘇茨克維就在社交平台上感慨道:“當今最大(dà)的(de)神經網絡,可(kě)能已擁有輕微的(de)意識。”
這(zhè)一論調很快(kuài)引發争議(yì),彼時(shí),美(měi)國俄勒岡州立大(dà)學人(rén)工智能專家托馬斯·迪特裏奇回應他(tā)稱:“如果意識是反思和(hé)塑造自己的(de)能力,那我并沒有在當今的(de)網絡中看到這(zhè)樣的(de)能力,我感覺你是在故意吸引眼球。”
這(zhè)次争論後的(de)一年,GPT-4發布,其中的(de)安全文檔寫道:GPT-4表現出一些特别令人(rén)擔憂的(de)能力,例如制定和(hé)實施長(cháng)期計劃的(de)能力,積累權力和(hé)資源,以及表現出越來(lái)越“代理(lǐ)”的(de)行爲。
這(zhè)種“代理(lǐ)”暫時(shí)并不意味著(zhe)自我意識的(de)産生,但它所引發的(de)風險已經足夠令人(rén)警惕。就像蘇茨克維在對(duì)GPT-4的(de)性能進行解釋時(shí)說的(de)那樣:“能夠預料到,之後幾年之内每個(gè)人(rén)都會完全明(míng)白,開源人(rén)工智能是不明(míng)智的(de)。因爲這(zhè)個(gè)模型非常強大(dà),如果有人(rén)願意,可(kě)以很容易地用(yòng)它造成巨大(dà)破壞。”
人(rén)工智能帶來(lái)新問題新挑戰,迫切需要立法規制
在GPT-4發布之前1個(gè)月(yuè),由中國人(rén)民大(dà)學法學院、中國法學會立法學研究會主辦,北(běi)大(dà)法寶協辦的(de)新時(shí)代立法理(lǐ)論與實踐系列講座第一講“ChatGPT對(duì)法律人(rén)工智能研發和(hé)立法的(de)影(yǐng)響”研討(tǎo)會在北(běi)京舉行,來(lái)自中國人(rén)民大(dà)學、北(běi)京大(dà)學、中國社會科學院、天津市人(rén)大(dà)等單位的(de)專家學者,一同對(duì)人(rén)工智能産業的(de)相關話(huà)題進行了(le)探討(tǎo)。
對(duì)于人(rén)工智能技術的(de)發展,北(běi)京大(dà)學法學院教授、中國法學會經濟法學會會長(cháng)張守文在緻辭中感慨,這(zhè)一話(huà)題涉及“從技術到産業,從哲學到倫理(lǐ),從社會到法律”等多(duō)個(gè)不同維度,對(duì)其利弊得(de)失“見仁見智”,需要大(dà)家“冷(lěng)靜客觀,全面看待”。
在明(míng)晰ChatGPT的(de)底層運作邏輯與應用(yòng)前景基礎上,中國法學會立法學研究會顧問、天津市人(rén)大(dà)法制委原主任委員(yuán)高(gāo)紹林(lín),作了(le)題爲《立法人(rén)工智能與人(rén)工智能立法規制》的(de)報告。他(tā)介紹了(le)國内外人(rén)工智能立法的(de)發展現狀,并結合國家重點研發計劃有關項目的(de)深化(huà)研究,就我國人(rén)工智能立法規劃提出八項建議(yì):
一是加快(kuài)人(rén)工智能立法研究的(de)必要性和(hé)可(kě)能性;二是人(rén)工智能的(de)立法應當遵循三個(gè)特殊原則,即立法規制與數字技術融合發展、立法規制與政策調整互動發展、國内法治與涉外法治統籌發展;三是堅持發展、安全、保護個(gè)人(rén)信息有機統一;四是堅持立法、修法、釋法并舉;五是優先研究啓動數據要素立法;六是抓緊總結地方立法先行先試的(de)實驗;七是高(gāo)度重視技術标準規範的(de)規範引導作用(yòng);八是積極參加和(hé)主導人(rén)工智能國際規則制定。
據高(gāo)紹林(lín)介紹,去年10月(yuè),美(měi)國白宮發布了(le)政策倡議(yì)《人(rén)工智能權利法案藍圖》,12月(yuè)6日,歐盟理(lǐ)事會就歐盟委員(yuán)會起草(cǎo)的(de)《歐盟人(rén)工智能法案》達成一緻立場(chǎng)。
按照(zhào)歐盟的(de)這(zhè)一法案,隻要一種AI技術在歐盟範圍内被使用(yòng),無論廠商位于哪裏,都将适用(yòng)該法案。該法案在區(qū)分(fēn)“禁止類AI”和(hé)“高(gāo)風險類AI”的(de)基礎上,提出了(le)4個(gè)具體目标,以及風險管理(lǐ)系統、内部控制等一系列措施,用(yòng)于管控AI算(suàn)法的(de)偏見問題、算(suàn)法透明(míng)性問題。
比如,與人(rén)互動的(de)AI系統,必須要讓用(yòng)戶知道他(tā)們正在和(hé)一個(gè)AI系統互動。通(tōng)過AI生産圖像、視頻(pín)或音(yīn)頻(pín)内容的(de)系統,也(yě)必須披露内容是通(tōng)過AI生成的(de)。該法案還(hái)要求,人(rén)類對(duì)AI技術要有一定的(de)監控,而不是單純安排技術監控手段管理(lǐ)AI。
“随著(zhe)ChatGPT中文版的(de)開放及國内類似産品的(de)應用(yòng),一系列因生成式人(rén)工智能引發的(de)社會問題将爆發式增長(cháng),從大(dà)數據到算(suàn)法都将面臨一系列新問題、新挑戰,迫切需要立法進行規制。”高(gāo)紹林(lín)說。
他(tā)提到,從現行法律基礎來(lái)看,民法典、網絡安全法、數據安全法、個(gè)人(rén)信息保護法、政府信息公開條例和(hé)《互聯網信息服務算(suàn)法推薦管理(lǐ)規定》《互聯網信息服務深度合成管理(lǐ)規定》,以及數據要素、人(rén)工智能的(de)地方立法,特别是黨中央國務院發布的(de)“數據二十條”,都爲系統研究國家層面人(rén)工智能立法規制奠定了(le)基礎。
在專家看來(lái),對(duì)人(rén)工智能産業立法,可(kě)以給飛(fēi)速發展的(de)技術劃定法律與倫理(lǐ)的(de)邊界。隻有在這(zhè)個(gè)基礎上,才能夠如郭宗明(míng)所說的(de)那樣,将人(rén)工智能技術的(de)發展視爲偉大(dà)的(de)技術進步,“積極擁抱、樂(yuè)觀看待”。
2021
04-11