每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

OpenAI創(chuàng)始人的“決裂”:一場關(guān)乎AI未來的理念之戰(zhàn)

每日經(jīng)濟新聞 2023-11-20 20:10:29

◎ 為何分歧在此時發(fā)生,而不是在訓(xùn)練 GPT-3 或 GPT-4 時呢?有報道分析稱,這很可能是當(dāng)前的AI水平已經(jīng)到達(dá)一個臨界點。

每經(jīng)記者 文巧    每經(jīng)編輯 蘭素英    

11月20日,微軟宣布,OpenAI創(chuàng)始人山姆·阿爾特曼(Sam Altman)和格雷格·布羅克曼(Greg Brockman)將加入微軟,領(lǐng)導(dǎo)新的高級AI研究團隊。

另一邊,OpenAI聯(lián)合創(chuàng)始人伊利亞·蘇茨克維(Ilya Sutskever)宣布,亞馬遜旗下視頻流媒體網(wǎng)站Twitch的聯(lián)合創(chuàng)始人埃米特·希爾 (Emmett Shear) 將接任該公司的臨時首席執(zhí)行官。短短一個周末,OpenAI的管理層幾經(jīng)更迭,如今這場驚爆全球的“內(nèi)斗”似乎塵埃落定了。

據(jù)此前報道,蘇茨克維是此次巨變的靈魂人物,阿爾特曼被罷免,正是由于其與在蘇茨克維在AI安全、技術(shù)發(fā)展速度以及公司商業(yè)化問題上存在分歧。

《每日經(jīng)濟新聞》記者發(fā)現(xiàn),早在今年6月,阿爾特曼和蘇茨克維在特拉維夫大學(xué)同臺對談時,面臨AI風(fēng)險的提問,兩人的回答就有著微妙的不同。蘇茨克維承認(rèn)并強調(diào)這些風(fēng)險,并表示自己對于風(fēng)險的不確定性。盡管阿爾特曼也同意AI失控的風(fēng)險且需要不同的社會經(jīng)濟契約來制衡,但他卻更傾向描述AI的樂觀一面。

外媒分析認(rèn)為,兩人的沖突不能簡單理解為“AI加速論者”和“AI末日論者”之間的爭論,他們分歧的根源在于如何理解自己正在創(chuàng)造的東西,以及如何達(dá)成AGI(通用AI)的方式。而這種沖突在此刻爆發(fā),這很可能是當(dāng)前的AI水平已經(jīng)到達(dá)一個臨界點。

圖片來源:視覺中國-VCG111424718601

蘇茨克維的世界觀為OpenAI“巨震”埋下種子

據(jù)彭博社此前報道,OpenAI的聯(lián)合創(chuàng)始人和首席科學(xué)家蘇茨克維是此次巨變的靈魂人物,阿爾特曼被罷免,正是由于其與在蘇茨克維在AI安全、技術(shù)發(fā)展速度以及公司商業(yè)化問題上存在分歧。

其中,AI安全是最重要的關(guān)鍵詞。蘇茨克維不止一次提及AI安全的議題,他非常擔(dān)心AI對社會造成的負(fù)面影響,也非??粗?ldquo;AI對齊”(用人類的反饋來訓(xùn)練模型,讓其遵守人類的價值觀)的重要性。

這種觀念,或許在蘇茨克維早期的學(xué)術(shù)生涯中就已埋下種子。

1985年,蘇茨克維出生在俄羅斯西北部的諾夫哥羅德。從5歲到16歲,他一直居住在以色列耶路撒冷。2002年,蘇茨克維全家移民至加拿大多倫多。

蘇茨克維師從聞名世界的AI科學(xué)家杰弗里·辛頓,后者是圖靈獎三大巨頭之一,被業(yè)界稱作“AI教父”。2012年,蘇茨克維參與發(fā)明了辛頓的AlexNet神經(jīng)網(wǎng)絡(luò),這是大模型的重要骨髓,徹底打開了全球深度學(xué)習(xí)的熱潮。

2013年,28歲的蘇茨克維與杰弗里·辛頓一同加入谷歌的AI部門,兩人被谷歌評價為“不可多得之人。他也是Google AlphaGo論文的作者之一,用自己的力量團結(jié)到早期骨干,一直負(fù)責(zé)最前沿的開發(fā)。

在OpenAI還是非營利組織的階段,馬斯克與蘇茨克維較阿爾特曼甚至更為密切。2015年,馬斯克與阿爾特曼等人合作,建立了AI實驗室,并從谷歌挖來了蘇茨克維。馬斯克將招來蘇茨克維描述為OpenAI成功的關(guān)鍵。

值得注意的是,辛頓發(fā)表的“超級AI”將毀滅人類的觀點在前幾個月曾掀起軒然大波,他之后也因此從谷歌辭職;而馬斯克也一直認(rèn)為AI可能會對人類本身產(chǎn)生威脅,他一直堅持開源AI代碼。早在2018年,馬斯克就因為對AI安全的擔(dān)憂和在商業(yè)化上的不一致,與OpenAI分道揚鑣。

可以說,在蘇茨克維的學(xué)術(shù)和職業(yè)生涯中,與其有緊密聯(lián)系的人都保持著對超級AI的警惕態(tài)度,辛頓和馬斯克的觀念很可能在某種程度上感染了蘇茨克維對于AI的認(rèn)知。

分歧的端倪可追溯至5個月前

11月7日,在OpenAI的首次開發(fā)者大會上,阿爾特曼宣布推出的簡易定制GPT工具(GPTs),被解讀為其欲打造像蘋果那樣宏偉的商業(yè)生態(tài)。阿爾特曼被罷免與這一重大發(fā)布相隔如此之近,GPTs的發(fā)布也被廣泛解讀為人事巨震的導(dǎo)火索。

對于阿爾特曼對AI的態(tài)度,在接受紐約時報采訪時,他認(rèn)為自己在AI辯論中屬于中間派。他說,“我相信這將是人類有史以來發(fā)明的最重要、最有益的技術(shù)。我也相信,如果我們不小心對待它,它可能會帶來災(zāi)難性的后果,因此我們必須小心駕馭它。”

盡管阿爾特曼一直呼吁監(jiān)管,從OpenAI自去年11月推出ChatGPT的一系列積極動作來看, 他堅持的是推動商業(yè)生態(tài),讓GPT的能力快速擴散。

但蘇茨克維的立場似乎有些不同,他更看重的是研究如何阻止AGI的失控。今年7月,蘇茨克維與OpenAI研究員Jan Leike組建了一支新團隊,致力于研究防止AI系統(tǒng)異常的技術(shù)解決方案,還表示將投入五分之一的計算資源來解決AGI的威脅。

《每日經(jīng)濟新聞》記者注意到,今年6月,阿爾特曼和蘇茨克維在特拉維夫大學(xué)同臺對談,當(dāng)主持人提到AI存在的三個風(fēng)險:工作崗位受到影響、黑客獲得超級智能和系統(tǒng)失控時,兩人的回答有著微妙的不同。

圖片來源:Youtube

蘇茨克維承認(rèn)這些風(fēng)險,并表示,“盡管(AI)會創(chuàng)造新的就業(yè)機會,但經(jīng)濟的不確定性將持續(xù)很長時間。我不確定是否會出現(xiàn)這種情況。這項技術(shù)可以用于驚人的應(yīng)用,可以用來治愈疾病,但也可能創(chuàng)造出比之前任何東西更糟糕的疾病。我們需要適當(dāng)?shù)慕Y(jié)構(gòu)來控制這項技術(shù)的使用。”

盡管阿爾特曼也同意AI失控的風(fēng)險且需要不同的社會經(jīng)濟契約來制衡,但他更傾向描述AI的樂觀一面:“在經(jīng)濟方面,我發(fā)現(xiàn)很難預(yù)測未來的發(fā)展……短期來看,情況看起來不錯,我們將看到生產(chǎn)力顯著增長;長遠(yuǎn)來看,我認(rèn)為這些系統(tǒng)將處理越來越復(fù)雜的任務(wù)和工作類別。”

AI能力的分界點來臨了?

近幾個月來,有關(guān)AI風(fēng)險的激烈爭論屢見不鮮,圖靈三巨頭辛頓、Yoshua Bengio和Yann LeCun在社交平臺上已展開多輪對決,媒體將這稱為“AI加速論者”和“AI毀滅論者”之間的爭論。

不過,另一種分析認(rèn)為,阿爾特曼和蘇茨克維的沖突不能簡單理解為“AI加速論者”和“AI末日論者”之間的爭論。外媒The Algorithmic Bridge稱,兩人并不像末日論者和加速論者那樣對立,相反,他們實際上非常相似——都相信未來AGI給人類帶來的好處,這也是他們一同創(chuàng)立OpenAI的基礎(chǔ)。

報道認(rèn)為,分歧根源在于如何理解自己正在創(chuàng)造的東西,以及如何達(dá)成AGI的方式。譬如,阿爾特曼認(rèn)為通過迭代部署產(chǎn)品、籌集資金和建造更強大的計算機可以更好地實現(xiàn)AGI;但蘇茨克維認(rèn)為通過對“AI對齊”等方面進(jìn)行更深入的研發(fā),并投入更少的資源來制造面向消費者的AI產(chǎn)品,可以更好地實現(xiàn)AGI。

蘇茨克維的角度來看,他想要OpenAI與創(chuàng)立公司初期的使命——創(chuàng)造為人類謀福祉的AGI——保持一致,這無可厚非。

為何這種分歧現(xiàn)在發(fā)生,而不是在他們訓(xùn)練 GPT-3 或 GPT-4 時發(fā)生呢?并非差異不存在,而是因為AI能力水平的影響不足以采取行動。報道分析稱,這很可能是當(dāng)前的AI水平已經(jīng)到達(dá)一個臨界點。

11月16日,在APEC峰會上,阿爾特曼說道,他在OpenAI的工作經(jīng)歷中目睹了知識界限四次被推進(jìn),其中最近一次發(fā)生在幾周前。在今年10月,蘇茨維爾在接受《麻省理工科技評論》采訪時認(rèn)為,ChatGPT可能是有意識的。

The Algorithmic Bridge認(rèn)為,這背后的隱藏含義是——OpenAI董事會認(rèn)為已接近達(dá)成AGI,這是沖突爆發(fā)的根源。

阿爾特曼在近期承認(rèn),OpenAI正在開發(fā)GPT-5,終極目標(biāo)是相當(dāng)于人腦的超級AI。目前關(guān)于GPT5并未有最新消息,但外界猜測,GPT5可能會自我修改程序和數(shù)據(jù),但“不愛人類”。紐約大學(xué)AI教授Gary Marcus就表示,“他們一定看到了山姆所做的事情的危險性。”

圖片來源:X平臺

紐約時報稱,阿爾特曼的離開大概率會助長AI行業(yè)的文化戰(zhàn)爭,也就是,認(rèn)為應(yīng)允許AI更快發(fā)展的陣營和認(rèn)為應(yīng)放慢發(fā)展速度以防止?jié)撛跒?zāi)難性傷害的陣營之間的戰(zhàn)爭。到底誰是對的?或許只有時間才能證明。

封面圖片來源:視覺中國-VCG111424718601

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai OpenAI 大模型 人工智能

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0

免费va国产高清不卡大片,笑看风云电视剧,亚洲黄色性爱在线观看,成人 在线 免费