每日經(jīng)濟新聞 2023-02-15 21:09:58
◎OpenAI CEO新訪談,說了什么?
每經(jīng)記者 文巧 每經(jīng)編輯 高涵
近日,ChatGPT背后技術公司OpenAI的首席執(zhí)行官(CEO)Sam Altman接受了《紐約時報》科技播客節(jié)目Hard Fork的專訪。
在訪談中,Sam Altman解答了關于微軟發(fā)布的新版必應(Bing)搜索、人工智能(AI)的犯錯行為、AI的安全,以及ChatGPT未來的版本等問題。
他提到,對于任何新技術,我們都無法完美地預測其所有問題和解決措施,因此需要從人類的反饋中不斷學習和改進。“重要的是,人們還需要真正認真對待AI的安全和道德規(guī)范。”
此外,他還表示,當一切準備就緒時,OpenAI將發(fā)布更強大的ChatGPT版本,但現(xiàn)在還不是時候。
當?shù)貢r間2月7日,微軟公司宣布推出新版必應搜索和Edge瀏覽器。在這之前,微軟和OpenAI已經(jīng)對必應測試了至少幾個星期的時間了,必應搜索引擎整合了ChatGPT系統(tǒng)背后的技術。
在該播客節(jié)目中,主持人問到,“您認為必應將如何改變?nèi)藗兊乃阉鞣绞??或者說,它是否擁有一些過往搜索引擎所不能達到的功能?”
Sam Altman認為,(必應)很快會變得不可或缺。“當我無法訪問它時,我會想念它。”
他同時說到他的親身經(jīng)歷,“我有一個14歲的女兒,她喜歡說‘riz’和‘bussing’之類的話,而我不知道她在說什么。你可以輸入比如,嘿,我有一個十幾歲的孩子,她在說這些話,我不明白。此時,必應會充當一個Z世代的翻譯。”
Sam Altman補充說,“它真的非常擅長這樣的事情。還有一個例子是,昨天我裝作是一名制造商,一直在尋找工業(yè)套結(jié)縫紉機。使用新的必應后,它向我展示了我以前在任何其他搜索中從未見過的東西,幫我確定了需要購買的機器,”。
“你不會再想回去使用谷歌(搜索)了,”他說道。
Sam Altman(右) 圖片來源:Sam Altman社交媒體
在訪談中,Sam Altman語出驚人地表示,“ChatGPT是一個可怕(horrible)的產(chǎn)品。”隨后,他給出了這樣評價的理由。
“看看人們將其整合到自己工作流程的方式就知道了,”Sam Altman說道,“人們訪問一個有時能正常工作、有時又會宕機的網(wǎng)站。他們在對話框輸入一些東西,一直嘗試,直到正確為止。隨后他們復制ChatGPT給出的答案,并將其粘貼到其他地方,然后又返回繼續(xù)嘗試。”
“當然,這很酷。人們很喜歡它,這讓我們感到開心,”他說道,“不過,目前還沒有人會說這是一款出色的、集成良好的產(chǎn)品。但它是有價值的產(chǎn)品,因此人們愿意忍受它。”
自從ChatGPT推出以來,有一件事已經(jīng)是一個共識——那就是它并非是萬無一失的,在某些情景下,它會犯錯誤。當ChatGPT被接入每天被大量使用的搜索引擎必應時,Sam Altman如何看待這個問題呢?
“首先我想說,(相比其他模型)ChatGPT是一個錯誤更少的、更優(yōu)秀的模型,但它仍然存在很多錯誤,”他這樣說道,“正如微軟過去許多年所經(jīng)歷的一樣,他們圍繞必應所構(gòu)建的技術并不是萬無一失的。你需要自己去驗證它的準確性和實用性,不要完全相信它。盡管如此,我認為(必應的)體驗已經(jīng)比ChatGPT有了顯著的改善。隨著時間的推移,還會有更多提高。”
那么,是否存在這樣一種情況,用戶在必應上執(zhí)行操作,應更加謹慎地去搜索某些類別,因為這些類別可能比其他類別更容易出錯?
Sam Altman承認,這一點還沒有答案。不過,他表示,“我認為我們將很快了解模型犯錯的原因。當我們每一次發(fā)布新產(chǎn)品時,我們都會學到很多東西,并了解用戶如何與之交互。我們在Copilot(Github開發(fā)的AI產(chǎn)品)身上學到了很多東西。”
“我要指出的一件事是這些技術帶來的創(chuàng)新。三年前,GPT-3還未出世,那時候很少有人相信,AI領域?qū)l(fā)生意義非凡的進展,”他說道。
Sam Altman表示,對于任何新技術,人類都無法完美地預測其所有問題和緩解措施。“但如果它有一個非常緊密的反饋循環(huán)機制,按照事情發(fā)展的速度,我認為我們可以非常快地獲得非??煽康漠a(chǎn)品,”他頗有信心地說道。
此前,谷歌推出了ChatGPT的競品Bard。在硅谷,這種競爭并不少見,許多其他公司都爭相向ChatGPT看齊。
“我們不是匆忙發(fā)布產(chǎn)品的人。這項技術的好處是如此之多,我認為很多人確實想要構(gòu)建這些東西,”他說道,“但是,對于我們需要在這些系統(tǒng)上滿足哪些標準,需要制定行業(yè)規(guī)范和法規(guī)。我認為這真的很重要。”
對于ChatGPT未來的更新路徑,Sam Altman表示,的確還有更強大的版本,但現(xiàn)在并沒有到公布的時機。“不馬上把這些東西拿出來的原因是,人們認為我們已經(jīng)是完整的AGI(通用人工智能),隨時準備好按下按鈕,但實際上還差得遠。”
“當我們準備好時,這意味著已經(jīng)完成了校準工作和所有安全思考,并與外部審計員和其他AGI實驗室合作,我們就會發(fā)布這些東西,”他說道,“但是,從現(xiàn)在到未來更強大的系統(tǒng)之間,肯定還有一些東西需要思考。我們還沒有弄清楚這些,其他人也沒有。”
圖片來源:視覺中國
近期,Reddit論壇上有用戶正致力于破解ChatGPT,并找到了一種方法。隨后OpenAI修補了這個Bug。這是否將永遠成為一種持續(xù)不斷的貓捉老鼠的游戲?
Sam Altman的態(tài)度頗為開放。他認為,在一個充滿活力的社區(qū),人們試圖突破技術的極限找出它的突破口,并在那里做一些不尋常、有趣的事情,這很好。
他表示,“AI系統(tǒng)可以做的事情范圍很廣,但這些范圍不是由微軟或OpenAI決定的,而是由社會、政府等來決定。在這些范圍內(nèi),用戶應該對AI的行為方式有很大的控制權(quán),因為不同的用戶會有不同的體驗。”
“這是一項非常新的技術,我們不知道如何處理它,所以我們很保守。正確的答案是由社會設定的非常廣泛的范圍,然后由用戶來進行選擇,”他說道。
“這就是安全社區(qū)的工作方式。我寧愿受到批評,也希望人們在我的軟件中發(fā)現(xiàn)錯誤,而不是讓軟件中那些潛在的錯誤被默默地利用并造成傷害。有時候,聽到這類消息(破解)是挺煩惱的。但實際上,我并不希望它消失,”他這樣說道。
2016年春季,微軟在推特上推出了聊天機器人Tay,但在和用戶開放對話后的不到一天時間里,它便由于不恰當?shù)姆N族主義言論引發(fā)了激烈爭議。隨后微軟很快就下線了Tay,這對于人工智能行業(yè)來說是一個警示。
對此,Sam Altman認為,“那個時代的很多東西都是由研究團隊推出的,他們非常興奮——嘿,我得到了這個技術上很有趣的東西。然而,他們并沒有真正考慮產(chǎn)品的影響。”
如今的AI技術應當從中汲取什么樣的教訓呢?“我們?nèi)匀环浅UJ真地對待AI,并且堅信它將成為最重要的技術之一。但我們從中學到的一件事是,永遠不應該再犯同樣的錯誤了。我們需要真正認真對待AI的安全和道德規(guī)范,”Sam Altman表示。
“我們必須去解決所有這些問題,以避免再次犯類似的錯誤,但這并不表示,我們不會再犯錯誤,”他說道,“在過去的五年半的時間內(nèi),我們一直在努力,并非只是嘴上說說,而是在實際工作中付諸實踐。”
有人認為AI工具部署得過于迅速,以至于社會無法快速設置相應的安全規(guī)范。Sam Altman也同意這一點。
“但我有兩點非常強烈的感受。一是,每個人都必須有機會了解這些工具的優(yōu)缺點、使用方法,并共同塑造它。”他進一步說道,“有人認為這種技術應該保留在科技行業(yè)的一小部分人中,因為這些人才是我們可以信任的人。我完全不同意這一點,因為人們需要盡早地參與進來。”
“二是,在我所看到的技術史中,如果不與現(xiàn)實世界接觸,你無法預測技術帶來的美好以及它如何被誤用。通過部署這些AI系統(tǒng),通過學習,并通過獲得人類反饋來改進,我們已經(jīng)做出了非常好的模型,”他補充道。
封面圖片來源:視覺中國
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP