每日經(jīng)濟(jì)新聞
要聞

每經(jīng)網(wǎng)首頁(yè) > 要聞 > 正文

全是“自己人”!OpenAI緊急成立“安全委員會(huì)”,距離“超級(jí)對(duì)齊”團(tuán)隊(duì)解散不到半月,90天后將迎首次安全“大考”

每日經(jīng)濟(jì)新聞 2024-05-29 20:15:37

◎ 美國(guó)IT研究與顧問(wèn)咨詢公司Gartner高級(jí)研究總監(jiān)高峰在接受《每日經(jīng)濟(jì)新聞》記者采訪時(shí)指出,OpenAI安全委員會(huì)成員全部是“自己人”并沒(méi)有什么問(wèn)題,“一般來(lái)說(shuō),企業(yè)不太傾向于引入外部人士,因?yàn)槔锩鏁?huì)涉及很多的商業(yè)機(jī)密信息。”

每經(jīng)記者 蔡鼎    每經(jīng)編輯 蘭素英    

美西時(shí)間周二(5月28日),OpenAI稱董事會(huì)成立了一個(gè)負(fù)責(zé)把控AI開(kāi)發(fā)方向的“安全委員會(huì)”,負(fù)責(zé)監(jiān)督與公司項(xiàng)目和運(yùn)營(yíng)相關(guān)的“關(guān)鍵”安全和安保決策,而這距離其內(nèi)部負(fù)責(zé)評(píng)估長(zhǎng)期AI安全問(wèn)題的“超級(jí)對(duì)齊(Superalignment)”小組正式解散不到半個(gè)月的時(shí)間。

據(jù)悉,該委員會(huì)的首要任務(wù)將是在未來(lái)90天內(nèi)評(píng)估并進(jìn)一步發(fā)展OpenAI的流程和保障措施。90天結(jié)束時(shí),該委員會(huì)將與全體董事會(huì)分享他們的建議。在全體董事會(huì)審查之后,OpenAI將以符合安全和保障的方式,公開(kāi)分享有關(guān)采納建議的更新。

《每日經(jīng)濟(jì)新聞》記者注意到,其實(shí)這并不是OpenAI首次組建專門致力于AI安全的團(tuán)隊(duì)——去年12月OpenAI就成立過(guò)一個(gè)“安全顧問(wèn)小組”,該小組向領(lǐng)導(dǎo)層提出建議,并且董事會(huì)被授予否決權(quán)。不過(guò)從本月17日“超級(jí)對(duì)齊”團(tuán)隊(duì)解散到本周二成立新的“安全委員會(huì)”,足以證明AI安全的問(wèn)題在OpenAI內(nèi)部仍未得到解決。

全新安全委員會(huì),全是“自己人”

除了CEO Altman外,OpenAI新成立的安全委員會(huì)的其他成員還包括OpenAI董事會(huì)成員Bret Taylor、Adam D’Angelo和Nicole Seligman,以及首席科學(xué)家Jakub Pachocki、OpenAI早期籌備團(tuán)隊(duì)的Aleksander Madry、安全系統(tǒng)負(fù)責(zé)人Lilian Weng、安保負(fù)責(zé)人Matt Knight和“人工智能對(duì)齊”(AI Alignment)負(fù)責(zé)人John Schulman。從成員構(gòu)成可以看出,沒(méi)有一個(gè)外部人員。

圖片來(lái)源:OpenAI

為了避免新成立的安全委員會(huì)因成員構(gòu)成而被認(rèn)為是“橡皮圖章”,OpenAI承諾將聘請(qǐng)第三方“安全、安保和技術(shù)”專家來(lái)支持委員會(huì)的工作,包括網(wǎng)絡(luò)安全專家Rob Joyce和美國(guó)前司法部官員John Carlin。但除此之外,OpenAI并未更詳細(xì)地說(shuō)明外部專家組的規(guī)模和組成,也沒(méi)有透露專家組對(duì)委員會(huì)的具體影響和權(quán)力限制。

有專家指出,OpenAI成立此類企業(yè)監(jiān)督委員會(huì),類似于谷歌的高級(jí)技術(shù)外部咨詢委員會(huì),其實(shí)在實(shí)際監(jiān)督方面幾乎沒(méi)有什么作為。

美國(guó)IT研究與顧問(wèn)咨詢公司Gartner高級(jí)研究總監(jiān)高峰在接受《每日經(jīng)濟(jì)新聞》記者采訪時(shí)指出,OpenAI安全委員會(huì)成員全部是“自己人”并沒(méi)有什么問(wèn)題,“因?yàn)镺penAI的安全委員會(huì)是服務(wù)于內(nèi)部,是對(duì)OpenAI產(chǎn)品的安全和發(fā)展方向進(jìn)行評(píng)估。一般來(lái)說(shuō),企業(yè)不太傾向于引入外部人士,因?yàn)槔锩鏁?huì)涉及很多的商業(yè)機(jī)密信息。所以如果沒(méi)有監(jiān)管或者政府的強(qiáng)制要求,企業(yè)通常只會(huì)對(duì)自己的產(chǎn)品或股東負(fù)責(zé)。其實(shí)像谷歌和微軟,他們也有相應(yīng)的一些安全部門,主要就是確保產(chǎn)品的安全,并且不對(duì)社會(huì)帶來(lái)一些負(fù)面的影響。”

安全優(yōu)先級(jí)下降引擔(dān)憂,多名高管離職

近期,OpenAI在安全方面的問(wèn)題成為外界的關(guān)注點(diǎn)之一。幾個(gè)月來(lái),OpenAI流失了不少非常重視AI安全的員工,在這部分人中,有一些對(duì)OpenAI在AI安全方面的優(yōu)先級(jí)下降表示擔(dān)憂。

OpenAI的聯(lián)合創(chuàng)始人兼前首席科學(xué)家Ilya Sutskever也于今年5月離職,據(jù)報(bào)道部分是因?yàn)锳ltman急于推出AI驅(qū)動(dòng)的產(chǎn)品而犧牲了安全性能。OpenAI前首席安全研究員Jan Leike也緊隨其后宣布離開(kāi),他在X平臺(tái)上發(fā)布的一系列帖子中表示,他認(rèn)為OpenAI“未走在解決AI安全和安保問(wèn)題的正確軌道上”。

Ilya Sutskever和Jan Leike這兩位關(guān)鍵領(lǐng)導(dǎo)人離職后,OpenAI專注于研究AI生存危險(xiǎn)的“超級(jí)對(duì)齊”團(tuán)隊(duì)正式宣告解散。

對(duì)于Jan Leike發(fā)表的言論,上周離職的AI政策研究員Gretchen Krueger也表示認(rèn)同,她也呼吁OpenAI提高問(wèn)責(zé)制和透明度,并“更加謹(jǐn)慎地使用自己的技術(shù)”。另外,曾在OpenAI擔(dān)任團(tuán)隊(duì)治理工作的Daniel Kokotajlo也于4月辭職,原因是他對(duì)OpenAI能在AI開(kāi)發(fā)中繼續(xù)保持負(fù)責(zé)任的態(tài)度失去了信心。

其實(shí),這并不是OpenAI首次成立或組建專門的安全顧問(wèn)團(tuán)隊(duì)。

去年12月18日,OpenAI就稱正在擴(kuò)展內(nèi)部安全流程,以抵御有害人工智能的威脅。一個(gè)新的“安全顧問(wèn)小組”將位于技術(shù)團(tuán)隊(duì)之上,向領(lǐng)導(dǎo)層提出建議,并且董事會(huì)也被授予了否決權(quán)。

在當(dāng)時(shí)的博客文章中,OpenAI討論了其最新的“準(zhǔn)備框架”,即OpenAI跟蹤、評(píng)估、預(yù)測(cè)和防范日益強(qiáng)大的模型帶來(lái)災(zāi)難性風(fēng)險(xiǎn)的流程。對(duì)于災(zāi)難性風(fēng)險(xiǎn)的定義,OpenAI的解釋是這樣的:“任何可能導(dǎo)致數(shù)千億美元經(jīng)濟(jì)損失或?qū)е略S多人嚴(yán)重傷害或死亡的風(fēng)險(xiǎn)——包括但不限于生存風(fēng)險(xiǎn)。”

AI監(jiān)管呼聲日益高漲

在人工智能大模型的快速發(fā)展之下,全球新一輪科技革命和產(chǎn)業(yè)變革正在醞釀,但也衍生了一些擔(dān)憂,數(shù)據(jù)安全、終端安全以及個(gè)人的數(shù)字主權(quán)面臨更大的挑戰(zhàn)。

以生成式AI為例,普華永道在去年10月發(fā)布的一篇文章中稱,在疏于監(jiān)管的情況下,這項(xiàng)技術(shù)可能會(huì)生成違法或不當(dāng)?shù)膬?nèi)容,可能涉及侮辱、誹謗、色情、暴力等不合法或違規(guī)的元素;另一方面,生成式AI可能會(huì)基于已有的受版權(quán)保護(hù)的內(nèi)容進(jìn)行學(xué)習(xí),這可能導(dǎo)致知識(shí)產(chǎn)權(quán)侵權(quán)。

被譽(yù)為“AI教父”的Geoffrey Hinton近日在接受BBC Newsnight節(jié)目采訪直言,AI很快將超越人類智能,并擔(dān)心人類在AI發(fā)展方面的安全性不夠重視。他還指出,這不僅僅是他個(gè)人的觀點(diǎn),實(shí)際上這是該領(lǐng)域領(lǐng)導(dǎo)者的共識(shí)。

出于對(duì)AI各方面的擔(dān)憂,4月下旬,美國(guó)國(guó)土安全部就針對(duì)研發(fā)AI的“安全與保障”成立顧問(wèn)委員會(huì),集結(jié)了22名科技業(yè)高層成員,包括OpenAI、微軟、Alphabet、亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)等企業(yè)高層,以及英偉達(dá)CEO黃仁勛和AMD CEO蘇姿豐。

美國(guó)國(guó)土安全部部長(zhǎng)馬約卡斯(Alejandro Mayorkas)表示,該委員會(huì)將協(xié)助確保AI科技的安全開(kāi)展,以及設(shè)法應(yīng)對(duì)這類科技對(duì)能源、公用業(yè)務(wù)、交通、國(guó)防、信息技術(shù)、食品和農(nóng)業(yè),甚至是金融服務(wù)等關(guān)鍵服務(wù)所構(gòu)成的威脅。

不僅僅是美國(guó)政府部門,包括美國(guó)商業(yè)軟件聯(lián)盟(BSA)這樣的行業(yè)組織,也在推動(dòng)對(duì)AI的監(jiān)管。同樣在4月,BSA也發(fā)布了文件呼吁在隱私立法中制定相關(guān)規(guī)則。

對(duì)于不斷增強(qiáng)的監(jiān)管呼聲,高峰對(duì)《每日經(jīng)濟(jì)新聞》記者分析稱,“任何技術(shù)的發(fā)展都是有風(fēng)險(xiǎn)的,而AI比之前的任何技術(shù)對(duì)于整個(gè)社會(huì)的影響都要大,這也是為什么各方對(duì)AI監(jiān)管呼聲較高的原因。另外,一直以來(lái)大家可能受到了一些科幻電影的影響,覺(jué)得將來(lái)AI可能會(huì)超過(guò)人類的智慧,可能控制人類。”

“但是,現(xiàn)在的AI離人類的智慧還是有很大差距,短期AI是沒(méi)有辦法超過(guò)人類的。但當(dāng)AI不再僅僅是個(gè)工具,而是成為主導(dǎo)的時(shí)候,就可能需要人工阻止了,我覺(jué)得這可能是比較重要的一個(gè)評(píng)判標(biāo)準(zhǔn)。”高峰對(duì)記者補(bǔ)充道。

如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai OpenAI AI安全

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0

免费va国产高清不卡大片,笑看风云电视剧,亚洲黄色性爱在线观看,成人 在线 免费