每日經(jīng)濟(jì)新聞 2024-06-20 20:17:01
每經(jīng)編輯 張錦河 每經(jīng)實(shí)習(xí)編輯 宋欣悅
2024年4月,前OpenAI超級對齊部門成員、利奧波德·阿申布倫納(Leopold Aschenbrenner)被OpenAI以泄露公司機(jī)密為由解雇。6月初,阿申布倫納在網(wǎng)站上發(fā)布了一份長達(dá)165頁的PDF文件,文件匯總了他在OpenAI工作期間所了解的信息,深入探討了當(dāng)前AI技術(shù)的進(jìn)展、從人工通用智能(AGI)到超級智能(Superintelligence)的發(fā)展路徑等問題。
圖片來源:X
6月初,利奧波德·阿申布倫納在博客節(jié)目Dwarkesh Podcast中,透露他被開除的真實(shí)原因——他給幾位董事會成員分享了一份OpenAI安全備忘錄,結(jié)果導(dǎo)致OpenAI管理層不滿。同日,阿申布倫納在社交平臺上,發(fā)布了一份長達(dá)165頁的PDF文檔。
圖片來源:X
阿申布倫納將他的這份文件命名為《態(tài)勢感知》(Situational Awareness)。在文件的開頭,他特別指出,雖然自己曾在OpenAI工作,但自己的預(yù)測都是基于公開信息、自己的想法、工作期間的八卦等。他還在這份文件的開頭特別致敬了前OpenAI首席科學(xué)家伊爾亞·蘇茨克維(Ilya Sutskever)和其他OpenAI超級對齊團(tuán)隊(duì)的成員。
他認(rèn)為目前全世界只有僅僅幾百人對AI的發(fā)展有真正意義上的感知,這些人大多集中在舊金山地區(qū)以及全球各地的AI實(shí)驗(yàn)室里,自己便是這幾百人中的一員。而那些主流評論家們只看到了炒作和常規(guī)的商業(yè)模式,他們認(rèn)為這不過是另一場互聯(lián)網(wǎng)規(guī)模的技術(shù)變革。
圖片來源:《態(tài)勢感知》
阿申布倫納在文章中指出,AI的進(jìn)步不會止步于人類水平。例如,在最初學(xué)習(xí)了人類最好的棋局之后,AlphaGo開始與自己對弈,它很快實(shí)現(xiàn)了超越人類的水平,下出了人類永遠(yuǎn)無法想出的極具創(chuàng)意和復(fù)雜性的棋步。
在實(shí)現(xiàn)AGI后,人類將能夠利用先進(jìn)的AGI系統(tǒng)實(shí)現(xiàn)自動化的AI研究,將十年的算法進(jìn)步壓縮到一年內(nèi)。這意味著我們將迅速從人類水平的AI系統(tǒng)過渡到遠(yuǎn)超人類的超級智能系統(tǒng)。這可能會將人類10年的算法進(jìn)展壓縮到不到1年的時(shí)間里。與現(xiàn)有領(lǐng)先的AI實(shí)驗(yàn)室的數(shù)百名研究人員和工程師相比,未來的AI實(shí)驗(yàn)室可能會擁有成千上萬個AGI系統(tǒng),夜以繼日地努力實(shí)現(xiàn)算法突破,不斷自我完善,加速算法進(jìn)步的現(xiàn)有趨勢。
圖片來源:《態(tài)勢感知》
他寫道:“超級智能的力量和危險(xiǎn)將是戲劇性的。”這種轉(zhuǎn)變不僅會帶來技術(shù)上的飛躍,還將引發(fā)一系列倫理和安全問題。
阿申布倫納強(qiáng)調(diào),通過一些新的創(chuàng)新,超級智能在幾周內(nèi)就能獲得相當(dāng)于人類數(shù)十億年的經(jīng)驗(yàn)。這種前所未有的學(xué)習(xí)速度將使超級智能在數(shù)量和質(zhì)量上遠(yuǎn)超人類。他指出:“這些AI系統(tǒng)將能夠以我們無法想象的速度進(jìn)行思考和學(xué)習(xí)。”
阿申布倫納預(yù)測,到本世紀(jì)末,我們將擁有數(shù)以億計(jì)的超級智能,這些智能體將在數(shù)量和質(zhì)量上遠(yuǎn)超人類。他寫道:“在數(shù)以億計(jì)的GPU上運(yùn)行的超級智能,將能夠比人類快幾個數(shù)量級地‘思考’。”這種超級智能的涌現(xiàn)將帶來巨大的技術(shù)進(jìn)步,但也伴隨著巨大的風(fēng)險(xiǎn)。
圖片來源:《態(tài)勢感知》
文章中最引人注目的觀點(diǎn)之一是,十億超級智能將能夠?qū)⑷祟愌芯咳藛T在下個世紀(jì)進(jìn)行的研發(fā)工作壓縮到幾年內(nèi)。這種壓縮效應(yīng)將極大地加速技術(shù)進(jìn)步,但也可能帶來難以預(yù)見的后果。
阿申布倫納指出:“超級智能將是人類有史以來最強(qiáng)大的技術(shù)——也是最強(qiáng)大的武器。它將賦予軍事上決定性的優(yōu)勢,或許只有核武器可以相比。”
阿申布倫納強(qiáng)調(diào),智能爆炸和其直接后果將帶來人類歷史上最為動蕩和緊張的局面。他指出:“在這個初期階段,人類的任務(wù)將不是制造酷炫的產(chǎn)品,而是要盡一切可能度過這一時(shí)期。”他呼吁建立一個能夠嚴(yán)肅對待這些困難抉擇的指揮鏈,以穩(wěn)定國際局勢并管理智能爆炸期間的風(fēng)險(xiǎn)。
他進(jìn)一步提到,盡管對齊技術(shù)可能會被濫用,但我們?nèi)孕枰玫膶R技術(shù)來確保未來模型的基本限制,如遵循指令或遵守法律。這些技術(shù)不僅僅是為了防止濫用,更是為了確保AI能夠在安全的框架內(nèi)運(yùn)行。
展望未來,阿申布倫納認(rèn)為,我們正處于一個前所未有的快速發(fā)展時(shí)期,預(yù)計(jì)在未來四年內(nèi),計(jì)算能力將再提升約10萬倍,帶來類似于GPT-2到GPT-4的質(zhì)的飛躍。他指出,這不僅意味著更好的聊天機(jī)器人,更意味著從工具到代理的轉(zhuǎn)變,從一個簡單的工具到一個更像是遠(yuǎn)程助手的存在。
每日經(jīng)濟(jì)新聞綜合自公開信息
如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP