每日經(jīng)濟新聞 2023-11-23 17:47:55
◎ 一項被稱之為“Q*”的技術(shù)突破或是OpenAI CEO阿爾特曼此前被驅(qū)逐的原因。
每經(jīng)記者 蔡鼎 每經(jīng)編輯 蘭素英
雖然OpenAI這場持續(xù)了五天的鬧劇最終以山姆·阿爾特曼(Sam Altman)重返公司收尾,但阿爾特曼上周五為何會突然被董事會解雇對外界仍然是個未解之謎。
據(jù)路透社和The Information等媒體報道,阿爾特曼被突然解雇,或許跟他在舊金山APEC峰會的一場演講有關(guān)。阿爾特曼當時在演講中提到了OpenAI在人工智能領(lǐng)域的又一重大進展。據(jù)悉,這一進展可能是OpenAI內(nèi)部稱之為“Q*(發(fā)音為Q-Star)”模型的項目,這或是該公司在通用人工智能(下稱AGI)領(lǐng)域的突破,已經(jīng)具備解決某些數(shù)學問題的推理能力。目前,類似GPT-4的生成式人工智能產(chǎn)品都尚不具備推理能力。
這一技術(shù)突破曝光后,包括內(nèi)部員工和外部研究人員在內(nèi)的人士均對其安全性感到擔憂。就連馬斯克都在X(原推特)上稱,“非常令人擔憂!”
阿爾特曼在美東時間11月16日舊金山舉行的APEC峰會上開玩笑稱,他相信重大的進展就在眼前,“在OpenAI的歷史上,已經(jīng)有四次(重大進展)了,當我們把無知的面紗解開,把探索的前沿向前推進時,能夠做到這一點是我一生的職業(yè)榮譽。”
然而,講話后的第二天,阿爾特曼就突然被OpenAI董事會解雇。
路透社援引的知情人士透露稱,OpenAI首席技術(shù)官米拉·穆拉蒂(Mira Murati)本周三向員工透露,關(guān)于“Q*”模型取得人工智能技術(shù)突破的信,是導(dǎo)致OpenAI前董事會解雇奧特曼的原因。
此前,OpenAI的幾位研究人員向董事會發(fā)送了一封信,警告稱他們發(fā)現(xiàn)了一種能夠威脅到人類的強大人工智能,即“Q*”。研究人員還提到了一個“人工智能科學家”團隊工作,且多個消息來源證實了該團隊的存在。其中一名知情人士表示,該團隊由早期的“代碼世代(Code Gen)”和“數(shù)學世代(Math Gen)”團隊合并而成,正在探索如何優(yōu)化現(xiàn)有的人工智能模型,以提高它們的推理能力,并最終執(zhí)行科學工作。
知情人士稱,OpenAI的一些內(nèi)部員工認為,“Q*”模型可能是公司在所謂的AGI領(lǐng)域的一個突破。OpenAI將AGI描述為“在最具經(jīng)濟價值的工作中超越人類的高度自治系統(tǒng)”。
該匿名人士稱,在擁有大量算力資源的情況下,新的“Q*”模型能夠解決某些數(shù)學問題。雖然目前“Q*”的數(shù)學能力只有小學生的水平的,但通過這些測試讓研究人員對“Q*”未來的成功非常樂觀。
路透社報道截圖
路透社報道中稱,人工智能研究人員都認為數(shù)學是生成式人工智能發(fā)展的前沿。目前,生成式人工智能通過統(tǒng)計預(yù)測下一個單詞,能夠在寫作和語言翻譯方面表現(xiàn)出強大的能力。然而,對數(shù)學這種有且只有一個正確答案的問題而言,人工智能若能正確回答,便意味著其擁有了更強的推理能力,類似于人類的能力。
例如,業(yè)內(nèi)人士認為,一旦人工智能有了數(shù)學推理能力,便可以應(yīng)用于新穎的科學研究當中。此外,與普通的人工智能只能解決有限數(shù)量運算的計算器不同,AGI可以概括知識,并不斷學習和理解。
可以說,OpenAI在AGI領(lǐng)域的最新進展與阿爾特曼密不可分。在阿爾特曼的努力下,OpenAI已經(jīng)將ChatGPT發(fā)展成為史上增長最快的應(yīng)用之一,并從微軟獲得了超過100億美元的投資和算力資源,以使ChatGPT接近AGI的高度。
據(jù)The Information,“Q*”模型背后的技術(shù)突破是由OpenAI首席科學家蘇斯克維爾(Ilya Sutskever)牽頭實施的,而“Q*”模型是OpenAI頂級研究人員雅各布·帕喬基(Jakub Pachocki)和西多爾(Szymon Sidor)在蘇斯克維爾的技術(shù)成果上創(chuàng)立。
在過去的幾個月里,OpenAI的高級研究人員還利用這一創(chuàng)新模型構(gòu)建了可以解決基本數(shù)學問題的系統(tǒng)。
最近幾周,該模型的演示在OpenAI內(nèi)部開始流傳。部分員工對此表示擔憂,他們擔心在商業(yè)化這種先進的人工智能模型的過程中,OpenAI沒有適當?shù)谋Wo措施。其實,不光是OpenAI員工,這一模型的發(fā)展速度讓一些關(guān)注人工智能安全的外部研究人員也感到震驚和擔憂。
路透社援引的消息人士稱,在給OpenAI董事會的信中,研究人員也指出了人工智能的潛在危險,但沒有說明具體安全的問題。長期以來,計算機科學家一直在討論高度智能機器帶來的危險,例如它們是否會認為毀滅人類符合其利益。
在路透社的上述報道發(fā)布后,馬斯克本人轉(zhuǎn)發(fā)了該篇文章,并稱“非常令人擔憂!”
圖片來源:X平臺
The Information報道稱,“Q*”模型取得突破后的幾個月里,蘇斯克維爾本人似乎對這項技術(shù)也持保留態(tài)度。今年7月,蘇斯克維爾還組建了一個團隊,致力于限制來自比人類聰明得多的人工智能系統(tǒng)的威脅。該團隊在其網(wǎng)頁上表示,“雖然超級智能現(xiàn)在看起來還很遙遠,但我們相信它可能會在十年內(nèi)到來。”
The Information援引知情人士稱,蘇斯克維爾的這項突破幫助OpenAI克服了在獲取足夠高質(zhì)量數(shù)據(jù)來訓練新模型方面的限制,這是開發(fā)下一代(生成式人工智能)模型的主要障礙。這項研究涉及使用計算機生成的數(shù)據(jù),而非現(xiàn)實世界的數(shù)據(jù)。
其實,多年來,蘇斯克維爾一直在研究如何讓GPT-4這樣的語言模型解決涉及推理的任務(wù),比如數(shù)學或科學問題。2021年,他還啟動了一個名為GPT-Zero的項目,向DeepMind的AlphaZero程序致敬,該程序可以下國際象棋和圍棋等推理任務(wù)。GPT-Zero團隊當時的假設(shè)認為,只要給予語言模型更多的時間和計算能力來生成問題的答案,就可能會讓它們在學術(shù)上取得新的突破。
報道稱,蘇斯克維爾自身取得的突破以及他對人工智能安全的擔憂或許能解釋為何他參與了解雇阿爾特曼的行動。
值得注意的是,在阿爾特曼被解雇后,帕喬基和西多爾也提出了辭職,是第一批辭職的OpenAI資深員工。而在阿爾特曼復(fù)職后,二人也一同重返OpenAI。
封面圖片來源:視覺中國-VCG41N1188747468
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP