每日經(jīng)濟(jì)新聞
頭條

每經(jīng)網(wǎng)首頁 > 頭條 > 正文

GPT-5要來了?OpenAI重磅官宣已啟動(dòng)下一代前沿模型訓(xùn)練!新的安全顧問委員會(huì)成立,成員全是自己人......

每日經(jīng)濟(jì)新聞 2024-05-29 09:17:53

每經(jīng)編輯 杜宇

當(dāng)?shù)貢r(shí)間周二(5月28日),OpenAI發(fā)布公告稱董事會(huì)成立一個(gè)負(fù)責(zé)把控AI開發(fā)方向的安全顧問委員會(huì)。

圖片來源:OpenAI

OpenAI成立新的安全顧問委員會(huì) 成員全是自己人

OpenAI周二宣布成立一個(gè)新的安全顧問委員會(huì),負(fù)責(zé)監(jiān)督與公司項(xiàng)目和運(yùn)營相關(guān)的“關(guān)鍵”安全和安保決策。而值得注意的是,進(jìn)入該安全顧問委員會(huì)的成員全部為該公司內(nèi)部人員,包括董事Bret Taylor(主席)、Adam D’Angelo、Nicole Seligman和Sam Altman(首席執(zhí)行官),外部人員一個(gè)也沒有。該委員會(huì)將負(fù)責(zé)向全體董事會(huì)就OpenAI項(xiàng)目和運(yùn)營的關(guān)鍵安全和安全決策提出建議。

安全與安全委員會(huì)的首要任務(wù)將是在未來90天內(nèi)評(píng)估并進(jìn)一步發(fā)展OpenAI的流程和保障措施。90天結(jié)束時(shí),安全與安全委員會(huì)將與全體董事會(huì)分享他們的建議。在全體董事會(huì)審查之后,OpenAI將以符合安全和安全的方式,公開分享有關(guān)采納建議的更新。

OpenAI董事會(huì)表示,OpenAI的技術(shù)與政策專家Aleksander Madry(準(zhǔn)備狀況負(fù)責(zé)人)、Lilian Weng(安全系統(tǒng)負(fù)責(zé)人)、John Schulman(對(duì)齊科學(xué)負(fù)責(zé)人)、Matt Knight(安全負(fù)責(zé)人)以及Jakub Pachocki(首席科學(xué)家)也將加入該委員會(huì)。

此外,OpenAI將保留并咨詢其他安全、安全和技術(shù)專家以支持這項(xiàng)工作,包括前網(wǎng)絡(luò)安全官員Rob Joyce,他為OpenAI提供安全方面的咨詢,以及John Carlin。

過去幾個(gè)月,OpenAI的技術(shù)團(tuán)隊(duì)中有多名安全方面的高層人員離職,這些前員工中有些人對(duì)OpenAI在AI安全方面的優(yōu)先級(jí)下降表示擔(dān)憂。

曾在OpenAI擔(dān)任團(tuán)隊(duì)治理工作的Daniel Kokotajlo在4月辭職,因?yàn)樗麑?duì)OpenAI在發(fā)布越來越強(qiáng)大的AI時(shí)“負(fù)責(zé)任的行為”失去了信心,他在個(gè)人博客上寫道。此外,OpenAI的聯(lián)合創(chuàng)始人兼前首席科學(xué)家Ilya Sutskever在與Altman及其盟友的長期斗爭(zhēng)后,于5月離職,據(jù)報(bào)道部分原因是Altman急于推出AI驅(qū)動(dòng)的產(chǎn)品而犧牲了安全性能。

最近,前DeepMind研究員Jan Leike此前在OpenAI負(fù)責(zé)開發(fā)ChatGPT及其前身InstructGPT的過程中,也辭去了安全研究員職務(wù),他在一系列X平臺(tái)的帖子中表示,他認(rèn)為OpenAI“未走在解決AI安全和安保問題的正確軌道上”。同時(shí),AI政策研究員Gretchen Krueger上周離開OpenAI,她也同意Leike的觀點(diǎn),呼吁公司提高問責(zé)制和透明度,并“更加謹(jǐn)慎地使用自己的技術(shù)”。

媒體報(bào)道,除了Sutskever、Kokotajlo、Leike和Krueger,自去年年底以來,至少有五名OpenAI最重視安全的員工要么辭職,要么被迫離開,包括前OpenAI董事會(huì)成員Helen Toner和Tasha McCauley。兩人日前在媒體撰文稱,在Altman的領(lǐng)導(dǎo)下,他們相信OpenAI無法實(shí)現(xiàn)對(duì)自身追究責(zé)任。

圖片來源:視覺中國-VCG31N2008743681

OpenAI宣布已啟動(dòng)下一代前沿模型訓(xùn)練 AGI愿景變得更加務(wù)實(shí)

值得注意的是,還有一條重磅消息:OpenAI在公告中表示,最近開始訓(xùn)練其下一代前沿模型以期超越目前的GPT-4大模型。我們預(yù)計(jì)這些系統(tǒng)將使我們?cè)谕ㄍ斯ねㄓ弥悄埽ˋGI)的道路上達(dá)到更高的能力水平。雖然我們自豪地構(gòu)建并發(fā)布了在能力和安全性方面都處于行業(yè)領(lǐng)先地位的模型,但我們?cè)谶@個(gè)重要時(shí)刻歡迎一場(chǎng)激烈的辯論。

作為背景,OpenAI在2023年3月發(fā)布GPT-4。單單憑借總裁布洛克曼畫在筆記本上的草圖,GPT-4就能構(gòu)建出一個(gè)真實(shí)的網(wǎng)站。相信有不少股民,也是從看到這一幕后才開始相信“AI或許真的能改變些什么”。

圖片來源:OpenAI

自那以后,OpenAI圍繞著GPT-4逐步推出一系列文字、圖片、音頻和視頻生成應(yīng)用。就在兩周前,公司剛剛發(fā)布了最新版本的GPT-4o。通過顯著提高模型的交互速率,實(shí)現(xiàn)了像真人對(duì)話一樣的“實(shí)時(shí)互動(dòng)”。歸根結(jié)底,各方面都稍強(qiáng)一些的GPT-4o依然沒有跳脫出GPT-4的能力范疇。

正因如此,外界對(duì)于“GPT-5”的期待一直頗高。不過根據(jù)OpenAI最新的表述,下一代大模型恐怕要到明年才能與公眾見面。AI模型通常需要數(shù)月、乃至幾年時(shí)間來訓(xùn)練,而在面向公眾發(fā)布前,開發(fā)團(tuán)隊(duì)還需要進(jìn)行數(shù)月的微調(diào)。

隨著OpenAI構(gòu)建的AI越來越接近人類智慧的水平,公司在通用人工智能方面的表述也變得更加謹(jǐn)慎。

OpenAI全球事務(wù)副總裁Anna Makanju表示,OpenAI的使命是構(gòu)建可以做到“當(dāng)前人類認(rèn)知水平”任務(wù)的通用智能。

早些年Sam Altman曾說過,OpenAI的最終目標(biāo)是構(gòu)建比人類更加先進(jìn)的“超級(jí)智能”。他還曾表示,自己有一半的時(shí)間是在構(gòu)想如何打造“超級(jí)人工智能”。

每日經(jīng)濟(jì)新聞綜合公開資料

封面圖片來源:視覺中國-VCG31N2008743681

如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai OpenAI

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0

免费va国产高清不卡大片,笑看风云电视剧,亚洲黄色性爱在线观看,成人 在线 免费