每日經(jīng)濟(jì)新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

技術(shù)慢下來,還是治理跟上去?破解AIGC“科林格里奇困境”:用模型監(jiān)督模型

每日經(jīng)濟(jì)新聞 2023-12-28 19:59:03

◎技術(shù)控制兩難的“科林格里奇困境”,正成為當(dāng)下AIGC(生成式人工智能)治理需要直面的挑戰(zhàn)?!凹夹g(shù)慢下來,還是治理跟上去?”

每經(jīng)記者 李卓    每經(jīng)編輯 張海妮    

圖片來源:視覺中國(guó)-VCG41N1188747468 

英國(guó)技術(shù)哲學(xué)家大衛(wèi)·科林格里奇在《技術(shù)的社會(huì)控制》(1980)中指出:一項(xiàng)技術(shù)如果因?yàn)閾?dān)心不良后果而過早實(shí)施控制,那么技術(shù)很可能就難以爆發(fā)。反之,如果控制過晚,已經(jīng)成為整個(gè)經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)的一部分,就可能走向失控,再來解決不良問題就會(huì)變得昂貴、困難和耗時(shí)間,甚至難以或不能改變。

這種技術(shù)控制兩難的“科林格里奇困境”,正成為當(dāng)下AIGC(生成式人工智能)治理需要直面的挑戰(zhàn)。

12月27日,“AI發(fā)展與治理創(chuàng)新研討會(huì)”在北京舉行。來自中國(guó)科學(xué)院、中國(guó)社會(huì)科學(xué)院大學(xué)、復(fù)旦大學(xué)、浙江大學(xué)、國(guó)家部委研究機(jī)構(gòu)和國(guó)內(nèi)AI企業(yè)的專家學(xué)者圍繞AIGC技術(shù)、風(fēng)險(xiǎn)和治理展開了激烈探討。

2023年,伴隨AIGC在全球的競(jìng)技式發(fā)展,國(guó)內(nèi)大模型以通義千問、文心一言、訊飛星火等為代表,由通用大模型向行業(yè)大模型發(fā)展,應(yīng)用百花齊放,涉及Chat、AIGC、數(shù)字人、智能體……

隨著在人工智能領(lǐng)域的探索與實(shí)踐的加深,人工智能的技術(shù)風(fēng)險(xiǎn)——數(shù)據(jù)安全性、算法透明性、系統(tǒng)穩(wěn)定性及倫理爭(zhēng)議,再如人類的自主能動(dòng)、隱私保護(hù)、社會(huì)公平等逐漸暴露,由此引發(fā)社會(huì)的廣泛關(guān)注。人工智能的風(fēng)險(xiǎn)管理、全生命周期的治理成為全球的重要議題。 

“技術(shù)慢下來,還是治理跟上去?”

阿里研究院執(zhí)行副院長(zhǎng)袁媛在會(huì)上拋出 “靈魂拷問”。正如她所言,技術(shù)的發(fā)展是一種非線性,甚至是指數(shù)型的增長(zhǎng),但是從知識(shí)的積累、治理工具的演進(jìn),到政策的完善,它始終是一個(gè)線性的過程。政策與科技步調(diào)不一致成了必然規(guī)律。無論讓技術(shù)慢下來、還是讓政策跟上去,都考驗(yàn)著治理的包容與創(chuàng)新。 

AIGC四大風(fēng)險(xiǎn):內(nèi)容安全首當(dāng)其沖

2023年3月,一組由AI繪圖工具M(jìn)idjourney生成的“特朗普被捕假照片”在網(wǎng)上瘋傳,“有圖未必有真相”讓外界對(duì)AIGC的內(nèi)容風(fēng)險(xiǎn)有了清醒的共識(shí)。

阿里巴巴人工智能治理和可持續(xù)發(fā)展研究中心首席科學(xué)家何源分析指出AIGC當(dāng)下四大風(fēng)險(xiǎn)時(shí),亦直言“內(nèi)容安全”首當(dāng)其沖。

AIGC的“內(nèi)容安全”廣義上包括輸出內(nèi)容的社會(huì)安全性,是否合法合規(guī)、遵守道德倫理和公序良俗等,具體表現(xiàn)在違法不良信息、內(nèi)容失實(shí)、偏見歧視、違反倫理道德等方面。

何源進(jìn)一步指出,首先,相比傳統(tǒng)內(nèi)容生產(chǎn)模式,AIGC可以通過交互式快速生產(chǎn),生產(chǎn)成本顯著降低;而通過prompt方式可以批量生產(chǎn)大量?jī)?nèi)容,進(jìn)行規(guī)?;?,包括一些色情、低俗、血腥恐怖的內(nèi)容,甚至不良導(dǎo)向的內(nèi)容等等,對(duì)內(nèi)容安全的防控帶來新的挑戰(zhàn)。與此同時(shí),相比真實(shí)構(gòu)圖,AIGC生成內(nèi)容具有更高的自由度,更加復(fù)雜、隱晦;AIGC產(chǎn)品還需要快速響應(yīng)用戶指令,這對(duì)內(nèi)容安全防控體系都提出更高的時(shí)效性要求。

《每日經(jīng)濟(jì)新聞》記者現(xiàn)場(chǎng)了解到,多數(shù)與會(huì)專家對(duì)AIGC的內(nèi)容風(fēng)險(xiǎn)都表達(dá)了“輸出輸入內(nèi)容審核”的重要性。

但需要直面的另一個(gè)現(xiàn)實(shí)是,如果每一條輸出內(nèi)容都進(jìn)行人工審查,人力成本大幅上升而用戶體驗(yàn)嚴(yán)重受損,不具有可行性,這成為內(nèi)容安全保障的難點(diǎn)。同時(shí),由于現(xiàn)階段生成式人工智能服務(wù)通常無法提供準(zhǔn)確的依據(jù)和來源,相關(guān)生成內(nèi)容無法鑒偽,風(fēng)險(xiǎn)也無法被有效定位溯源。

阿里連續(xù)第二年發(fā)布AI白皮書 圖片來源:企業(yè)供圖

阿里巴巴集團(tuán)與中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院當(dāng)日聯(lián)合發(fā)布的《AIGC治理與實(shí)踐白皮書》(以下簡(jiǎn)稱《白皮書》)對(duì)此則認(rèn)為,從訓(xùn)練數(shù)據(jù)和算法源頭上控制內(nèi)容安全、管理用戶的輸入和對(duì)生成結(jié)果的使用,成為降低AIGC風(fēng)險(xiǎn)的重要切入點(diǎn)。

除內(nèi)容安全外,AIGC還存在模型安全、隱私&版權(quán)、倫理道德三大風(fēng)險(xiǎn)。

談及 “模型安全”,何源認(rèn)為,由于大模型基于深度學(xué)習(xí)框架構(gòu)建,在對(duì)抗“魯棒性”(即模型對(duì)于輸入中的擾動(dòng)、對(duì)抗性樣本或惡意攻擊是否具有足夠的抵抗力)上同樣存在安全隱患;大模型基于海量數(shù)據(jù)進(jìn)行自監(jiān)督訓(xùn)練和基于反饋的強(qiáng)化學(xué)習(xí)優(yōu)化,存在數(shù)據(jù)攻擊風(fēng)險(xiǎn),比如數(shù)據(jù)投毒、提示詞越獄攻擊等。而深度學(xué)習(xí)的黑盒運(yùn)行機(jī)制,導(dǎo)致大模型同樣面臨“可解釋性不足”的問題。

那么,AIGC生成的內(nèi)容是否受版權(quán)保護(hù)?目前法律界也還沒有統(tǒng)一定論。

2023年,美國(guó)版權(quán)局拒絕登記《Zarya of the Dawn》,判定用Midjourney制作的AI圖片不受保護(hù);2023年12月,北京互聯(lián)網(wǎng)法院公開審理AI文生圖著作權(quán)案,原告使用AI生成圖片發(fā)布網(wǎng)絡(luò)后,被告直接拿去使用,原告認(rèn)為被告侵犯了他的知識(shí)產(chǎn)權(quán)。這個(gè)案例北京互聯(lián)網(wǎng)法院一審支持了原告。不過,《每日經(jīng)濟(jì)新聞》記者也注意到,該案判決強(qiáng)調(diào),利用人工智能生成的內(nèi)容,是否構(gòu)成作品,需要個(gè)案判斷,不能一概而論。

“大模型的訓(xùn)練是基于海量的數(shù)據(jù),通常我們不可能為每一個(gè)訓(xùn)練數(shù)據(jù)確認(rèn)它的使用權(quán)限。同時(shí)數(shù)據(jù)的隱私問題也會(huì)是一個(gè)潛在的風(fēng)險(xiǎn)。因?yàn)榇竽P陀煤A康幕ヂ?lián)網(wǎng)數(shù)據(jù),既然沒有確認(rèn)每一張圖片每一個(gè)樣本的授權(quán),版權(quán)的情況就會(huì)存在用戶的數(shù)據(jù)隱私泄露的風(fēng)險(xiǎn)。”何源如是說。 

“用模型監(jiān)督模型”

中國(guó)已經(jīng)是全球范圍內(nèi)首個(gè)落地AIGC監(jiān)管的國(guó)家。

2023年上半年,人工智能法草案被列入國(guó)務(wù)院2023年度立法工作計(jì)劃;8月15日,由國(guó)家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》正式施行。這是我國(guó)首份針對(duì)生成式人工智能的規(guī)范性監(jiān)管文件……

從全球范圍來看,2023年10月,聯(lián)合國(guó)成立人工智能高級(jí)咨詢機(jī)構(gòu)。

11月2日,首屆全球人工智能安全峰會(huì)在英國(guó)落下帷幕,包括中國(guó)、美國(guó)、英國(guó)在內(nèi)的28個(gè)國(guó)家及歐盟共同簽署了《布萊奇利宣言》(以下簡(jiǎn)稱《宣言》)?!缎浴窂?qiáng)調(diào),人工智能的許多風(fēng)險(xiǎn)本質(zhì)上是國(guó)際性的,因此“最好通過國(guó)際合作來解決”。與會(huì)國(guó)家和地區(qū)同意協(xié)力打造一個(gè)“具有國(guó)際包容性”的前沿人工智能安全科學(xué)研究網(wǎng)絡(luò),以對(duì)尚未完全了解的人工智能風(fēng)險(xiǎn)和能力加深理解。

復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院教授張謐認(rèn)為:“現(xiàn)在全球范圍內(nèi)有AI競(jìng)賽的氛圍,注重安全反而可能造成技術(shù)落后,為了占領(lǐng)先機(jī)便不得不擱置安全。各方應(yīng)該立足長(zhǎng)遠(yuǎn),攜手營(yíng)造有序競(jìng)爭(zhēng),把風(fēng)險(xiǎn)控制在防護(hù)能力的上界之內(nèi),保障AI發(fā)展處于安全區(qū)域。”

張謐對(duì)AI大模型未來的安全前景持樂觀態(tài)度,她援引前沿觀點(diǎn)指出,隨著評(píng)測(cè)、治理技術(shù)的成熟,以及治理體系的完善,人類提供一整套安全規(guī)則,AI就能根據(jù)規(guī)則實(shí)現(xiàn)“用模型監(jiān)督模型”。

何源則認(rèn)為,AIGC風(fēng)險(xiǎn)治理不僅要對(duì)AIGC進(jìn)行有針對(duì)性的立法、構(gòu)建與技術(shù)應(yīng)用相匹配的治理機(jī)制,還需要人工智能產(chǎn)業(yè)主動(dòng)進(jìn)行負(fù)責(zé)任的自律自治。

何源也對(duì)“大模型評(píng)測(cè)大模型”提出了他的看法:“我們認(rèn)為大模型的風(fēng)險(xiǎn)用小模型去識(shí)別和處理是不夠的,我們需要用大模型來評(píng)測(cè)大模型,我們通過大模型生成內(nèi)容安全風(fēng)險(xiǎn)的指令,看看目標(biāo)模型的產(chǎn)出,構(gòu)造一個(gè)閉環(huán)。”

在何源看來,最強(qiáng)的攻擊手段是最好的評(píng)測(cè)方法,通過智能體對(duì)抗博弈,發(fā)現(xiàn)目標(biāo)LLM(大語言模型)的風(fēng)險(xiǎn)敞口;同時(shí),由易到難,得到豐富多彩的安全評(píng)測(cè)樣本,提供給LLM進(jìn)行內(nèi)生安全增強(qiáng)。“風(fēng)險(xiǎn)不能僅僅靠安全措施在輸入和輸出環(huán)節(jié),提升內(nèi)生安全才是根本的解決方案。” 

封面圖片來源:視覺中國(guó)-VCG41N1188747468

如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai 人工智能 AIGC 大模型

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0

免费va国产高清不卡大片,笑看风云电视剧,亚洲黄色性爱在线观看,成人 在线 免费