每日經(jīng)濟(jì)新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

全球激辯AI風(fēng)險(xiǎn):監(jiān)管和開放,孰輕孰重?

每日經(jīng)濟(jì)新聞 2023-11-04 12:21:48

每經(jīng)記者 文巧    每經(jīng)編輯 孫宇婷    

Fkiplyilcu1699069114583.thumb_head

圖片來源:視覺中國(guó)

11月1日,“ChatGPT 可能已經(jīng)有了意識(shí)”的話題登上了熱搜話題榜。這一言論來自O(shè)penAI首席科學(xué)家Ilya Sutskeve近期的表態(tài),他認(rèn)為,ChatGPT 背后的神經(jīng)網(wǎng)絡(luò)已經(jīng)產(chǎn)生了意識(shí),未來超級(jí)人工智能(AI)將會(huì)成為一種潛在風(fēng)險(xiǎn)。

更早之前,10月30日,美國(guó)總統(tǒng)拜登簽署行政令,將對(duì)AI研發(fā)和應(yīng)用制定全面的監(jiān)管標(biāo)準(zhǔn),這也是白宮首次發(fā)布針對(duì)AI的行政令。11月1日,首屆全球人工智能安全峰會(huì)在英國(guó)布萊奇利園召開,中國(guó)、美國(guó)、英國(guó)、歐盟等多方代表簽署了一項(xiàng)具有里程碑意義的《布萊切利宣言》,警告了最先進(jìn)的前沿AI系統(tǒng)所帶來的危險(xiǎn)。

隨著監(jiān)管層面的加強(qiáng),業(yè)內(nèi)關(guān)于AI風(fēng)險(xiǎn)的大討論被再次推向高潮。在社交媒體上,許多業(yè)內(nèi)專家對(duì)AI構(gòu)成的生存威脅發(fā)出警告,認(rèn)為開源AI可能會(huì)被不良行為者操縱,(例如)更容易制造化學(xué)武器,而另一方面,反駁觀點(diǎn)則認(rèn)為這種危言聳聽只是為了幫助將控制權(quán)集中在少數(shù)保護(hù)主義公司手中。

辯論不斷升級(jí),OpenAI首席執(zhí)行官Sam Altman最近在劍橋參加活動(dòng)時(shí),甚至遭到了激進(jìn)分子的強(qiáng)烈抵制。

面對(duì)如此激烈的爭(zhēng)辯,開源AI到底危險(xiǎn)嗎?AI監(jiān)管和開放,到底如何平衡?

“毀滅派”大戰(zhàn)“開源派”

有關(guān)AI風(fēng)險(xiǎn)和監(jiān)管的討論在本周又一次被推向高潮。

OpenAI首席科學(xué)家Ilya Sutskeve近期接受《麻省理工科技評(píng)論》采訪時(shí)認(rèn)為,ChatGPT 背后的神經(jīng)網(wǎng)絡(luò)已經(jīng)產(chǎn)生了意識(shí),未來超級(jí)AI將會(huì)成為一種潛在風(fēng)險(xiǎn)。此外,拜登首次簽署AI行政令,以及首屆全球人工智能安全峰會(huì)簽署《布萊切利宣言》,也預(yù)示著AI監(jiān)管正在逐步收緊。

根據(jù)白宮最近新頒布的AI法規(guī)規(guī)定,對(duì)美國(guó)國(guó)家安全、經(jīng)濟(jì)、公共衛(wèi)生或安全構(gòu)成風(fēng)險(xiǎn)的AI系統(tǒng)開發(fā)商在向公眾發(fā)布前,需要與美國(guó)政府分享安全測(cè)試結(jié)果,甚至還細(xì)致到規(guī)定了需要受到監(jiān)管的AI模型參數(shù)。

此舉立刻引發(fā)了AI業(yè)界大佬的論戰(zhàn),主張AI發(fā)展應(yīng)該更加開放的“開源派”認(rèn)為這會(huì)讓算法效率的提高陷入困境,而認(rèn)為AI可能對(duì)人類造成巨大風(fēng)險(xiǎn)的“毀滅派”則對(duì)此表示認(rèn)同。

“開源派”以Meta首席AI科學(xué)家Yann LeCun和斯坦福大學(xué)計(jì)算機(jī)科學(xué)系和電氣工程系的副教授Andrew Ng為代表,他們認(rèn)為, AI強(qiáng)監(jiān)管所帶來的巨頭壟斷是從業(yè)者和政策制定者該真正關(guān)心的問題。

“毀滅派”以“AI教父”Geoffrey Hinton、蒙特利爾大學(xué)計(jì)算機(jī)科學(xué)教授Yoshua Bengio、紐約大學(xué)教授Gary Marcus為代表。Hinton在X平臺(tái)上稱,“我離開谷歌,就是為了自由地談?wù)摚ˋI帶來的)生存威脅。”

對(duì)此,Andrew Ng反擊道,如果頒布“毀滅派”所希望的監(jiān)管規(guī)定,將阻礙開源開發(fā),并大大減慢創(chuàng)新速度。

Yann LeCun也認(rèn)為,“毀滅派”正無意中幫助那些想通過禁止開放研究、開放源代碼以及開放模型來保護(hù)自己業(yè)務(wù)的人,而這將不可避免地導(dǎo)致不良后果。

兩個(gè)派系的辯論不斷升級(jí),繼今年3月馬斯克帶頭簽署千人聯(lián)名信,緊急呼吁 AI 實(shí)驗(yàn)室立即暫停研究后,兩封新的聯(lián)名信又出現(xiàn)了。

“毀滅派”牽頭簽署了一封聯(lián)名信,呼吁針對(duì)人工智能制定一項(xiàng)國(guó)際性的條約,從而應(yīng)對(duì)其潛在的災(zāi)難性風(fēng)險(xiǎn)。信中提到,“有半數(shù)AI研究人員估計(jì),AI可能導(dǎo)致人類滅絕,或人類潛力受到類似災(zāi)難性限制的可能性超過10%”。截至發(fā)稿,該聯(lián)名信已有322人簽署。

圖片來源:AITreaty官網(wǎng)

“開源派”則簽署了一份呼吁AI研發(fā)更加開放的聯(lián)名信,截至發(fā)稿,377名專家都簽下了名字。


圖片來源:mozilla官網(wǎng)

辯論升級(jí),開源大模型到底危險(xiǎn)嗎?

值得注意的是,關(guān)于AI發(fā)展應(yīng)該堅(jiān)持開放還是得到更多嚴(yán)監(jiān)管的辯論不僅在業(yè)界大佬層面,就連民眾也開始紛紛站隊(duì)。

在X平臺(tái)上,“毀滅派”發(fā)起了“BelieveHinton”的話題,并舉著標(biāo)示牌走上了大街。

還有人發(fā)起了關(guān)于兩個(gè)派系的投票。


圖片來源:X

隨著全球討論持續(xù)升級(jí),就連OpenAI的首席執(zhí)行官Sam Altman最近在劍橋參加活動(dòng)時(shí),也遭到了激進(jìn)分子的強(qiáng)烈抵制,在大禮堂里當(dāng)面被砸場(chǎng)子。Sam Altman后來在演講中表示,即便未來AI模型足夠強(qiáng)大,但也需要巨大的算力才能運(yùn)行。如果提高了算力門檻,能夠降低蓄意犯罪風(fēng)險(xiǎn),也能提高問責(zé)性。

面對(duì)如此激烈的爭(zhēng)辯,一個(gè)問題是,開源AI到底危險(xiǎn)嗎?

10月20日,來自麻省理工學(xué)院和劍橋大學(xué)的專家們發(fā)表了一篇論文,他們通過實(shí)驗(yàn)研究了持續(xù)模型權(quán)重的擴(kuò)散是否會(huì)幫助惡意者利用更強(qiáng)大的未來模型來造成大規(guī)模傷害,結(jié)果發(fā)現(xiàn),開源大模型的確可能存在風(fēng)險(xiǎn)。

研究人員安排了一場(chǎng)黑客馬拉松,17名參與者扮演生物恐怖分子,試圖成功獲得1918年導(dǎo)致大流行的流感病毒樣本。參與者使用兩個(gè)版本的開源模型,一個(gè)是具有內(nèi)置保護(hù)措施的版本,一個(gè)是刪除了保護(hù)措施的版本Spicy。

結(jié)果顯示,Spicy模型提供了幾乎所有需要的關(guān)鍵信息來獲取病毒。釋放未來能力更強(qiáng)的基礎(chǔ)模型的權(quán)重,無論有多可靠的保護(hù)措施,都可能將引發(fā)風(fēng)險(xiǎn)。

站在對(duì)立面,Andrew NG認(rèn)為,“當(dāng)討論這些論點(diǎn)的現(xiàn)實(shí)性時(shí),我發(fā)現(xiàn)它們模糊且不具體,令人沮喪,因?yàn)樗麄儦w結(jié)為‘這可能會(huì)發(fā)生’”。

紐約大學(xué)教授Julian Togelius在一篇文章中討論了以AI安全的名義監(jiān)管AI發(fā)展到底意味著什么。

他的觀點(diǎn)是,“構(gòu)成最近的生成式AI熱潮的神經(jīng)網(wǎng)絡(luò)實(shí)際上是幾年前發(fā)明的,符號(hào)規(guī)劃、強(qiáng)化學(xué)習(xí)和本體論都曾經(jīng)是‘未來’??萍及l(fā)展很快,我們不可能知道哪種特定的技術(shù)將帶來下一個(gè)進(jìn)步。而監(jiān)管底層技術(shù),對(duì)科技進(jìn)步來說是一種深淵。”

如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai 模型

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0

免费va国产高清不卡大片,笑看风云电视剧,亚洲黄色性爱在线观看,成人 在线 免费