每日經(jīng)濟(jì)新聞 2023-02-15 21:09:58
◎OpenAI CEO新訪談,說了什么?
每經(jīng)記者 文巧 每經(jīng)編輯 高涵
近日,ChatGPT背后技術(shù)公司OpenAI的首席執(zhí)行官(CEO)Sam Altman接受了《紐約時(shí)報(bào)》科技播客節(jié)目Hard Fork的專訪。
在訪談中,Sam Altman解答了關(guān)于微軟發(fā)布的新版必應(yīng)(Bing)搜索、人工智能(AI)的犯錯(cuò)行為、AI的安全,以及ChatGPT未來的版本等問題。
他提到,對(duì)于任何新技術(shù),我們都無法完美地預(yù)測(cè)其所有問題和解決措施,因此需要從人類的反饋中不斷學(xué)習(xí)和改進(jìn)。“重要的是,人們還需要真正認(rèn)真對(duì)待AI的安全和道德規(guī)范。”
此外,他還表示,當(dāng)一切準(zhǔn)備就緒時(shí),OpenAI將發(fā)布更強(qiáng)大的ChatGPT版本,但現(xiàn)在還不是時(shí)候。
當(dāng)?shù)貢r(shí)間2月7日,微軟公司宣布推出新版必應(yīng)搜索和Edge瀏覽器。在這之前,微軟和OpenAI已經(jīng)對(duì)必應(yīng)測(cè)試了至少幾個(gè)星期的時(shí)間了,必應(yīng)搜索引擎整合了ChatGPT系統(tǒng)背后的技術(shù)。
在該播客節(jié)目中,主持人問到,“您認(rèn)為必應(yīng)將如何改變?nèi)藗兊乃阉鞣绞剑炕蛘哒f,它是否擁有一些過往搜索引擎所不能達(dá)到的功能?”
Sam Altman認(rèn)為,(必應(yīng))很快會(huì)變得不可或缺。“當(dāng)我無法訪問它時(shí),我會(huì)想念它。”
他同時(shí)說到他的親身經(jīng)歷,“我有一個(gè)14歲的女兒,她喜歡說‘riz’和‘bussing’之類的話,而我不知道她在說什么。你可以輸入比如,嘿,我有一個(gè)十幾歲的孩子,她在說這些話,我不明白。此時(shí),必應(yīng)會(huì)充當(dāng)一個(gè)Z世代的翻譯。”
Sam Altman補(bǔ)充說,“它真的非常擅長(zhǎng)這樣的事情。還有一個(gè)例子是,昨天我裝作是一名制造商,一直在尋找工業(yè)套結(jié)縫紉機(jī)。使用新的必應(yīng)后,它向我展示了我以前在任何其他搜索中從未見過的東西,幫我確定了需要購(gòu)買的機(jī)器,”。
“你不會(huì)再想回去使用谷歌(搜索)了,”他說道。
Sam Altman(右) 圖片來源:Sam Altman社交媒體
在訪談中,Sam Altman語(yǔ)出驚人地表示,“ChatGPT是一個(gè)可怕(horrible)的產(chǎn)品。”隨后,他給出了這樣評(píng)價(jià)的理由。
“看看人們將其整合到自己工作流程的方式就知道了,”Sam Altman說道,“人們?cè)L問一個(gè)有時(shí)能正常工作、有時(shí)又會(huì)宕機(jī)的網(wǎng)站。他們?cè)趯?duì)話框輸入一些東西,一直嘗試,直到正確為止。隨后他們復(fù)制ChatGPT給出的答案,并將其粘貼到其他地方,然后又返回繼續(xù)嘗試。”
“當(dāng)然,這很酷。人們很喜歡它,這讓我們感到開心,”他說道,“不過,目前還沒有人會(huì)說這是一款出色的、集成良好的產(chǎn)品。但它是有價(jià)值的產(chǎn)品,因此人們?cè)敢馊淌芩?rdquo;
自從ChatGPT推出以來,有一件事已經(jīng)是一個(gè)共識(shí)——那就是它并非是萬無一失的,在某些情景下,它會(huì)犯錯(cuò)誤。當(dāng)ChatGPT被接入每天被大量使用的搜索引擎必應(yīng)時(shí),Sam Altman如何看待這個(gè)問題呢?
“首先我想說,(相比其他模型)ChatGPT是一個(gè)錯(cuò)誤更少的、更優(yōu)秀的模型,但它仍然存在很多錯(cuò)誤,”他這樣說道,“正如微軟過去許多年所經(jīng)歷的一樣,他們圍繞必應(yīng)所構(gòu)建的技術(shù)并不是萬無一失的。你需要自己去驗(yàn)證它的準(zhǔn)確性和實(shí)用性,不要完全相信它。盡管如此,我認(rèn)為(必應(yīng)的)體驗(yàn)已經(jīng)比ChatGPT有了顯著的改善。隨著時(shí)間的推移,還會(huì)有更多提高。”
那么,是否存在這樣一種情況,用戶在必應(yīng)上執(zhí)行操作,應(yīng)更加謹(jǐn)慎地去搜索某些類別,因?yàn)檫@些類別可能比其他類別更容易出錯(cuò)?
Sam Altman承認(rèn),這一點(diǎn)還沒有答案。不過,他表示,“我認(rèn)為我們將很快了解模型犯錯(cuò)的原因。當(dāng)我們每一次發(fā)布新產(chǎn)品時(shí),我們都會(huì)學(xué)到很多東西,并了解用戶如何與之交互。我們?cè)贑opilot(Github開發(fā)的AI產(chǎn)品)身上學(xué)到了很多東西。”
“我要指出的一件事是這些技術(shù)帶來的創(chuàng)新。三年前,GPT-3還未出世,那時(shí)候很少有人相信,AI領(lǐng)域?qū)?huì)發(fā)生意義非凡的進(jìn)展,”他說道。
Sam Altman表示,對(duì)于任何新技術(shù),人類都無法完美地預(yù)測(cè)其所有問題和緩解措施。“但如果它有一個(gè)非常緊密的反饋循環(huán)機(jī)制,按照事情發(fā)展的速度,我認(rèn)為我們可以非??斓孬@得非??煽康漠a(chǎn)品,”他頗有信心地說道。
此前,谷歌推出了ChatGPT的競(jìng)品Bard。在硅谷,這種競(jìng)爭(zhēng)并不少見,許多其他公司都爭(zhēng)相向ChatGPT看齊。
“我們不是匆忙發(fā)布產(chǎn)品的人。這項(xiàng)技術(shù)的好處是如此之多,我認(rèn)為很多人確實(shí)想要構(gòu)建這些東西,”他說道,“但是,對(duì)于我們需要在這些系統(tǒng)上滿足哪些標(biāo)準(zhǔn),需要制定行業(yè)規(guī)范和法規(guī)。我認(rèn)為這真的很重要。”
對(duì)于ChatGPT未來的更新路徑,Sam Altman表示,的確還有更強(qiáng)大的版本,但現(xiàn)在并沒有到公布的時(shí)機(jī)。“不馬上把這些東西拿出來的原因是,人們認(rèn)為我們已經(jīng)是完整的AGI(通用人工智能),隨時(shí)準(zhǔn)備好按下按鈕,但實(shí)際上還差得遠(yuǎn)。”
“當(dāng)我們準(zhǔn)備好時(shí),這意味著已經(jīng)完成了校準(zhǔn)工作和所有安全思考,并與外部審計(jì)員和其他AGI實(shí)驗(yàn)室合作,我們就會(huì)發(fā)布這些東西,”他說道,“但是,從現(xiàn)在到未來更強(qiáng)大的系統(tǒng)之間,肯定還有一些東西需要思考。我們還沒有弄清楚這些,其他人也沒有。”
圖片來源:視覺中國(guó)
近期,Reddit論壇上有用戶正致力于破解ChatGPT,并找到了一種方法。隨后OpenAI修補(bǔ)了這個(gè)Bug。這是否將永遠(yuǎn)成為一種持續(xù)不斷的貓捉老鼠的游戲?
Sam Altman的態(tài)度頗為開放。他認(rèn)為,在一個(gè)充滿活力的社區(qū),人們?cè)噲D突破技術(shù)的極限找出它的突破口,并在那里做一些不尋常、有趣的事情,這很好。
他表示,“AI系統(tǒng)可以做的事情范圍很廣,但這些范圍不是由微軟或OpenAI決定的,而是由社會(huì)、政府等來決定。在這些范圍內(nèi),用戶應(yīng)該對(duì)AI的行為方式有很大的控制權(quán),因?yàn)椴煌挠脩魰?huì)有不同的體驗(yàn)。”
“這是一項(xiàng)非常新的技術(shù),我們不知道如何處理它,所以我們很保守。正確的答案是由社會(huì)設(shè)定的非常廣泛的范圍,然后由用戶來進(jìn)行選擇,”他說道。
“這就是安全社區(qū)的工作方式。我寧愿受到批評(píng),也希望人們?cè)谖业能浖邪l(fā)現(xiàn)錯(cuò)誤,而不是讓軟件中那些潛在的錯(cuò)誤被默默地利用并造成傷害。有時(shí)候,聽到這類消息(破解)是挺煩惱的。但實(shí)際上,我并不希望它消失,”他這樣說道。
2016年春季,微軟在推特上推出了聊天機(jī)器人Tay,但在和用戶開放對(duì)話后的不到一天時(shí)間里,它便由于不恰當(dāng)?shù)姆N族主義言論引發(fā)了激烈爭(zhēng)議。隨后微軟很快就下線了Tay,這對(duì)于人工智能行業(yè)來說是一個(gè)警示。
對(duì)此,Sam Altman認(rèn)為,“那個(gè)時(shí)代的很多東西都是由研究團(tuán)隊(duì)推出的,他們非常興奮——嘿,我得到了這個(gè)技術(shù)上很有趣的東西。然而,他們并沒有真正考慮產(chǎn)品的影響。”
如今的AI技術(shù)應(yīng)當(dāng)從中汲取什么樣的教訓(xùn)呢?“我們?nèi)匀环浅UJ(rèn)真地對(duì)待AI,并且堅(jiān)信它將成為最重要的技術(shù)之一。但我們從中學(xué)到的一件事是,永遠(yuǎn)不應(yīng)該再犯同樣的錯(cuò)誤了。我們需要真正認(rèn)真對(duì)待AI的安全和道德規(guī)范,”Sam Altman表示。
“我們必須去解決所有這些問題,以避免再次犯類似的錯(cuò)誤,但這并不表示,我們不會(huì)再犯錯(cuò)誤,”他說道,“在過去的五年半的時(shí)間內(nèi),我們一直在努力,并非只是嘴上說說,而是在實(shí)際工作中付諸實(shí)踐。”
有人認(rèn)為AI工具部署得過于迅速,以至于社會(huì)無法快速設(shè)置相應(yīng)的安全規(guī)范。Sam Altman也同意這一點(diǎn)。
“但我有兩點(diǎn)非常強(qiáng)烈的感受。一是,每個(gè)人都必須有機(jī)會(huì)了解這些工具的優(yōu)缺點(diǎn)、使用方法,并共同塑造它。”他進(jìn)一步說道,“有人認(rèn)為這種技術(shù)應(yīng)該保留在科技行業(yè)的一小部分人中,因?yàn)檫@些人才是我們可以信任的人。我完全不同意這一點(diǎn),因?yàn)槿藗冃枰M早地參與進(jìn)來。”
“二是,在我所看到的技術(shù)史中,如果不與現(xiàn)實(shí)世界接觸,你無法預(yù)測(cè)技術(shù)帶來的美好以及它如何被誤用。通過部署這些AI系統(tǒng),通過學(xué)習(xí),并通過獲得人類反饋來改進(jìn),我們已經(jīng)做出了非常好的模型,”他補(bǔ)充道。
封面圖片來源:視覺中國(guó)
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP