每日經濟新聞 2023-03-29 16:09:25
每經記者 李孟林 每經編輯 程鵬 蘭素英
OpenAI的強大性能不僅讓全球“打工人”都感到緊張,業(yè)界大佬們也感到步子邁得太快了,需要暫停一下,評估其中的風險。
北京時間3月29日,由圖靈獎得主、深度學習三巨頭之一約書亞·本吉奧(Yoshua Bengio),埃隆·馬斯克,《人類簡史》作者尤瓦爾·赫拉利等人聯(lián)名發(fā)表公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng),為期至少6個月,以確保人類能夠有效管理其風險。暫停工作應該是公開且可以證實的,如果AI實驗室不能快速暫停,各國政府應該實行暫停令。
截至發(fā)稿,這份公開信已經征集到1128份簽名。
圖片來源:futureoflife.org
OpenAI創(chuàng)始人:
AI需要政府與社會的共同監(jiān)管
公開信指出,AI現(xiàn)在已經能和人類競爭,將給人類社會帶來深刻的變革。在這個關鍵時刻,我們必須思考AI的潛在風險:假新聞和宣傳充斥信息渠道、大量工作被自動化取代、人工智能甚至有一天會比人類更聰明、更強大,讓我們失去對人類文明的掌控。這些問題不應該交給“未經民選的科技領袖”來決定。
然而,各大AI實驗室為了開發(fā)和應用更加強大的人工智能,最近幾個月已經陷入了“失控”的競賽,甚至連AI系統(tǒng)的創(chuàng)始人也并不能完全理解、預測和有效控制其風險,相應的計劃和管理工作沒有跟上。
實際上,面對OpenAI產品在全球的火爆程度,OpenAI創(chuàng)始人兼CEO山姆·阿爾特曼自己也感到有些害怕。他近日在接受媒體采訪時表示,自己對AI如何影響勞動力市場、選舉和虛假信息的傳播有些“害怕”。AI需要政府和社會共同參與監(jiān)管,用戶反饋和規(guī)則制定對抑制AI的負面影響非常重要。
《每日經濟新聞》注意到,在簽名名單里的尾部,赫然出現(xiàn)了阿爾特曼的名字。然而,由于簽名是公開征集,尚無法證明是否是阿爾特曼本人簽署,其本人亦未回應。簽名中OpenAI最后一個字母為小寫,或有故意之嫌疑。
圖片來源:futureoflife.org
簽署人之一、紐約大學著名AI研究者Gary Marcus也在推特上發(fā)問:“是你嗎,山姆?”
圖片來源:GaryMarcus@twitter
千余名大佬聯(lián)名“發(fā)聲”
第一批簽名人里面可謂大佬云集。
約書亞·本吉奧因對深度學習的貢獻,在2018年與“深度學習之父” 杰弗里·辛頓 (Geoffrey Hinton)、Facebook首席科學家楊力昆(Yann LeCun)一起獲得了圖靈獎。三人被稱為“AI教父”。
后兩人雖然沒有參與公開信的簽名,但最近對OpenAI以及AI領域的快速發(fā)展都表示了擔憂或批評。辛頓在近日接受哥倫比亞廣播公司采訪時表示,AI消滅人類“并非不可想象”,人類需要警惕AI會給一小部分公司和政府帶來巨大的權力。作為Facebook的AI領頭人,楊力昆則一直對OpenAI的大語言模型路徑不屑一顧,認為其科技并無特別創(chuàng)新之處。
馬斯克作為OpenAI的共同創(chuàng)始人之一,一直也毫不掩蓋他對OpenAI的敵意,認為其過商業(yè)化,從開源變成了“閉源”,已經忘了非盈利和開放的“初心”。但最近也有新聞指出,馬斯克之所以如此敵視OpenAI,是因為2018年爭奪OpenAI經營權失敗,所以撤資走人。
此外,簽名人還包括蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、2020年美國總統(tǒng)選舉民主黨初選候選人楊安澤、AI經典教科書《人工智能: 一種現(xiàn)代方法》作者Stuart Russell、AI領軍公司DeepMind的一眾研究人員等。
圖片來源:GaryMarcus@twitter
新聞鏈接:公開信原文
正如廣泛的研究和頂級人工智能實驗室所承認的,人工智能系統(tǒng)對社會和人類構成較大的風險。《阿西洛馬人工智能原則》中指出,高級人工智能可能代表著地球上生命歷史的深刻變革,應該以相應的謹慎和資源進行規(guī)劃和管理。然而,盡管最近幾個月人工智能實驗室掀起AI狂潮,開發(fā)和部署越來越強大的數(shù)字大腦,但目前沒有人能理解、預測或可靠地控制AI系統(tǒng),也沒有相應水平的規(guī)劃和管理。
現(xiàn)在,人工智能在一般任務上變得與人類一樣有競爭力,我們必須問自己:我們應該讓機器在信息渠道中宣傳不真實的信息嗎?我們是否應該把所有的工作都自動化,包括那些有成就感的工作?我們是否應該開發(fā)非人類的大腦,使其最終超過人類數(shù)量,勝過人類的智慧,淘汰并取代人類?我們是否應該冒著失去對我們文明控制的風險?這樣的決定絕不能委托給未經選舉的技術領袖。只有當我們確信強大的人工智能系統(tǒng)的效果是積極的,其風險是可控的,才應該開發(fā)。同時,這種信心必須得到驗證,并隨著系統(tǒng)的潛在影響的大小而加強。OpenAI最近關于人工智能的聲明中指出,在開始訓練未來的系統(tǒng)之前,可能必須得到獨立的審查,對于最先進的努力,同意限制用于創(chuàng)建新模型的計算增長速度。我們同意,現(xiàn)在就該采取行動。
因此,我們呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓練,時間至少持續(xù)6個月。這種暫停應該是公開的、可核查的,并包括所有關鍵參與者。如果這種禁令不能迅速實施,政府應該介入并制定暫停令。
人工智能實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的人工智能設計和開發(fā)的共享安全協(xié)議,由獨立的外部專家進行嚴格的審查和監(jiān)督。這些協(xié)議應該確保遵守協(xié)議的系統(tǒng)是安全的。值得一提的是,這并不意味著暫停一般的人工智能開發(fā),只是從危險的競賽中退后一步,限制不可預測的研究和開發(fā)。
人工智能的研究和開發(fā)應該重新聚焦于,使目前最先進和強大的系統(tǒng)更加準確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。
同時,人工智能開發(fā)者必須與政策制定者合作,大幅加快開發(fā)強大的人工智能治理系統(tǒng)。這些至少應該包括:專門針對人工智能的監(jiān)管機構;監(jiān)督和跟蹤高能力的人工智能系統(tǒng)和大型計算能力的硬件;出處和水印系統(tǒng)幫助區(qū)分真實和合成,并跟蹤模型泄漏;強大的審查和認證生態(tài)系統(tǒng);對人工智能造成的傷害承擔責任;為人工智能安全技術研究提供強大的公共資金以及資源充足的機構,以應對人工智能可能導致的巨大的經濟和政治破壞。
人類可以通過人工智能享受繁榮的未來?,F(xiàn)在,我們成功地創(chuàng)建了強大的人工智能系統(tǒng),可以在這個“人工智能之夏”中獲得回報,為所有人的明確利益設計這些系統(tǒng),并給社會一個適應的機會。停止使用其他技術可能會對社會造成災難性影響,因此我們必須保持準備狀態(tài)。讓我們享受一個漫長的人工智能夏天,而不是匆忙進入秋天(fall,亦可指墜落)。
記者|李孟林
編輯|程鵬?蘭素英 杜恒峰
校對|王月龍
封面圖片來源:視覺中國
部分綜合自21財經、紅星新聞
|每日經濟新聞 ?nbdnews??原創(chuàng)文章|
未經許可禁止轉載、摘編、復制及鏡像等使用
如需轉載請與《每日經濟新聞》報社聯(lián)系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP