每日經(jīng)濟新聞 2024-07-16 17:25:18
每經(jīng)編輯 杜宇 每經(jīng)實習編輯 宋欣悅
7月9日,美國約翰·霍普金斯大學公布了對“ChatGPT之母”、OpenAI首席技術官米拉·穆拉蒂(Mira Murati)的采訪視頻。這場采訪時間是6月10日,訪談中,穆拉蒂不僅與主持人討論了OpenAI與Apple的合作伙伴關系,還深入探討了人工智能的潛在風險、數(shù)據(jù)隱私以及技術對社會的深遠影響
1.關于“ChatGPT-5”
下一代大模型將非常強大,我們可以期待像從GPT-3到GPT-4那樣的巨大飛躍。
2.關于AGI的預測
在未來十年內(nèi),我們將有超強的AI系統(tǒng)。
3.關于AI與教育
如果教育能夠根據(jù)你的思維方式、文化規(guī)范和具體興趣進行定制,這將極大地擴展知識和創(chuàng)造力的水平。AI非常強大,能夠推動人類知識的進步,從而推動整個文明的進步。
4.關于數(shù)據(jù)來源
我們主要有三個數(shù)據(jù)來源:公開數(shù)據(jù)、與出版商的合作數(shù)據(jù)以及我們支付人力標注的特定數(shù)據(jù)。
5.關于OpenAI與Apple的合作關系
OpenAI的目標是讓人工智能來覆蓋盡可能多的用戶。OpenAI將在接下來的幾個月里與Apple密切合作。
6.關于數(shù)據(jù)隱私
對于OpenAI的用戶和客戶,我們不會在未經(jīng)允許的情況下使用他們的數(shù)據(jù)來訓練我們的模型。
穆拉蒂表示,與Apple的合作是OpenAI的一個重要里程碑,目標是讓人工智能覆蓋更多用戶,通過在Apple設備上內(nèi)置GPT技術,使用戶無需更換設備即可享受智能服務。她強調(diào),接下來的幾個月里,OpenAI將與Apple密切合作,共同確定產(chǎn)品細節(jié),并在適當時機與公眾分享更多信息。
在產(chǎn)品整合方面,穆拉蒂提到,希望將正在開發(fā)中的模型能力、多模態(tài)性和互動性引入Apple設備,這將是人工智能領域的一次重大突破。她認為,這種進步不僅限于模型能力的提升,還能讓信息傳遞和用戶互動變得更加豐富和自然。
談及用戶數(shù)據(jù)隱私時,穆拉蒂明確表示,OpenAI不會在未經(jīng)用戶許可的情況下使用他們的數(shù)據(jù)來訓練模型,強調(diào)了隱私和信任在合作伙伴關系中的重要性。
關于Sora的發(fā)布時間,穆拉蒂表示目前沒有公開發(fā)布的時間表,OpenAI正在與內(nèi)容創(chuàng)作者合作,以識別如何使技術更加穩(wěn)定,并進行大量的安全工作。她認為,雖然Sora技術具有巨大的潛力,但其影響也很大,因此需要確保產(chǎn)品的適用性和安全性。
穆拉蒂在訪談中也提到了AGI的預測,她認為AGI的定義會隨著技術的發(fā)展而不斷演變。她強調(diào),評估人工智能的實際影響比單純評估技術進步更為重要。她還提到:“在未來十年內(nèi),我們將有超強的AI系統(tǒng)。”
穆拉蒂談到了圍繞OpenAI涉嫌在其人工智能模型中盜用斯嘉麗·約翰遜(Scarlett Johansson)的聲音的爭議,以及研究人員因擔心該公司將產(chǎn)品開發(fā)置于安全考慮之上而高調(diào)離職的問題。她強調(diào)OpenAI對人工智能開發(fā)和部署的承諾,同時承認需要提高透明度。
面對員工對公司安全的擔憂,穆拉蒂回應稱OpenAI有許多安全團隊,并且公司非常重視安全問題。她提到,OpenAI從GPT-2時代就開始研究虛假信息問題,并一直非常開放地討論這些問題。
穆拉蒂承認,ChatGPT因過于自由而受到批評,但她強調(diào)這種偏見是無意的,“我們一直非常注重減少模型行為中的偏見,我們正在努力減少這些偏見,”不過,穆拉蒂尚未說明有關補救措施的具體細節(jié)。
對話還涉及了人工智能對教育的潛在影響,穆拉蒂表示:“如果教育能夠根據(jù)你的思維方式、文化規(guī)范和具體興趣進行定制,這將極大地擴展知識和創(chuàng)造力的水平。”穆拉蒂認為AI對教育的影響是巨大的,“能推動人類知識的進步,從而推動整個文明的進步”。
主持人:
首先,我很想問你關于與Apple合作的事。我們今天要談論一點這個話題。這個合作是在世界開發(fā)者大會上與OpenAI達成的。從今年某個時候開始,Apple的電腦、手機和iPad將內(nèi)置GPT,這顯然是一個巨大的事件。
Apple是第一次做這樣的事情,他們與許多人進行了談判,可能會逐步包括其他人。我想從你的角度談談這個合作是如何運作的。我今天早些時候和蒂姆·庫克(Tim Cook)聊了一下他的觀點,現(xiàn)在我想聽聽你的看法。
米拉·穆拉蒂:
這是我們的一項重要里程碑。Apple是一家標志性的消費產(chǎn)品公司。我們的目標是讓人工智能來覆蓋盡可能多的用戶。這是一個將ChatGPT帶給所有Apple用戶的絕佳機會,無需更換設備。我們將在接下來的幾個月里與他們密切合作,弄清楚產(chǎn)品方面的具體細節(jié),到時候會和大家分享更多的內(nèi)容。
主持人:
如果你不介意的話,我們來聊一些更加具體的內(nèi)容。你目前具體在做什么?Apple顯然需要改進Siri,因為它非常糟糕。從你的角度來看,你希望在與Apple的合作中實現(xiàn)什么目標?
米拉·穆拉蒂:
我可以具體談談產(chǎn)品整合的內(nèi)容。我們希望帶來的是真正開發(fā)中的模型的能力、多模態(tài)性和互動性,并將這些引入Apple設備。
這是我們在人工智能領域的一次重大突破,特別是在模型與用戶之間的交互方式以及模型所展現(xiàn)出的多樣化功能上,實現(xiàn)了前所未有的飛躍。這種進步不僅僅局限于模型能力的提升。
這非常有意義,因為迄今為止,我們與設備的互動主要還是通過文本。而現(xiàn)在,這是一個極好的機會,能讓信息的傳遞和我們之間的互動變得更加豐富和自然,同時也極大地減少了互動過程中的限制。
主持人:
當用戶向OpenAI發(fā)送請求時,這些請求信息不會被保存下來,同時用戶的IP地址也會被隱藏。這對于Apple用戶來說,無疑是一個重要的好消息。那么,這個過程是如何運作的呢?你們是否仍然可以使用這些請求的數(shù)據(jù)來訓練你的模型?
米拉·穆拉蒂:
不會的。對于我們的用戶和客戶,我們不會在未經(jīng)允許的情況下使用他們的數(shù)據(jù)來訓練我們的模型。
主持人:
那么,在與像Apple這樣重視品牌聲譽的企業(yè)合作時,他們最為看重并關心的問題有哪些呢?其中一項尤為關鍵的是,這些信息會被如何處理和利用,即關于數(shù)據(jù)流向及用途的擔憂。
米拉·穆拉蒂:
我認為這是一個非常一致的合作伙伴關系。隱私和信任是關鍵,OpenAI的使命是確保我們構(gòu)建和部署的技術讓人們感到信任和有參與感。因此,這種合作關系是非常自然的,并且引領我們朝著期望的目標邁進。
關于虛假信息的問題,這顯然是非常復雜的。我認為這將是一個循序漸進的過程,我們需要不斷嘗試,隨著時間推移慢慢調(diào)整。
主持人:
我知道與Apple合作必須嚴謹無誤,因為一旦出錯,后果可能相當棘手。我很好奇這次合作是如何開始的?是山姆和庫克之間的一次對話促成的嗎?還是你也參與其中了呢?
米拉·穆拉蒂:
其實我不太記得是什么時候開始的,但已經(jīng)醞釀了一段時間。
主持人:
你也在與其他公司進行類似的合作談判。OpenAI已經(jīng)與新聞集團和Vox Media等公司達成了內(nèi)容許可協(xié)議,這樣就減少了潛在的訴訟問題。要是我的話,我可能不會考慮這種合作。
那么,你打算怎么說服我,讓我同意你們使用我的信息呢?
米拉·穆拉蒂:
我知道你對此很關心,我可以告訴你我們?nèi)绾慰创龜?shù)據(jù)訓練模型的問題。我們主要有三個數(shù)據(jù)來源:公開數(shù)據(jù)、與出版商的合作數(shù)據(jù)以及我們支付人力標注的特定數(shù)據(jù)。
此外,我們還有用戶自愿允許我們使用的數(shù)據(jù)。關于出版商合作,我們關心的是信息的準確性,用戶也非常重視這一點。
因此,我們與特定產(chǎn)品建立了一對一的合作關系,提供對用戶有價值的信息,同時也在探索不同的方式來補償內(nèi)容創(chuàng)作者,讓他們的數(shù)據(jù)在產(chǎn)品中展示或用于訓練。
觀眾:
我是斯坦福大學計算機科學教授,也是斯坦福人類中心AI研究所的聯(lián)合創(chuàng)始人。我想問你一個關于數(shù)據(jù)的問題。很多人認為OpenAI的成功與數(shù)據(jù)密切相關。我們了解到你的公司從互聯(lián)網(wǎng)和其他來源獲得了大量數(shù)據(jù)。
那么你認為數(shù)據(jù)與模型之間的關系是什么?是否簡單地認為輸入的數(shù)據(jù)越多,模型就越強大?還是需要花費大量時間來整理不同類型的數(shù)據(jù)以使模型有效?最后,你如何解決對大量人類生成數(shù)據(jù)的需求與這些數(shù)據(jù)的所有權和權利問題?
米拉·穆拉蒂:
關于數(shù)據(jù)和模型之間的關系,這其實是很多人對AI模型,特別是大型語言模型的誤解。開發(fā)這些模型的人并不是預先編程它們做特定的事情,而是輸入大量數(shù)據(jù)。
理解這一點非常重要,因為它展示了大型語言模型的工作方式,結(jié)合神經(jīng)網(wǎng)絡架構(gòu)、大量數(shù)據(jù)和計算能力,產(chǎn)生了驚人的智能,并且隨著數(shù)據(jù)和計算能力的增加,這種能力會不斷提升。
當然,我們需要做大量工作來使這些數(shù)據(jù)可供模型使用。但這就是它的基本結(jié)構(gòu)。我們正在考慮如何提供透明度以了解模型行為的工作原理。我們有一些工具可以讓人們對使用這些模型有信心,并讓他們有參與感。
主持人:
我覺得大家困惑的點在于,模型訓練過程中到底用了哪些內(nèi)容,又排除了哪些。我記得在三月份,你接受了《華爾街日報》喬安妮·斯特恩(Joanne Stern)的采訪,她問你是否使用了YouTube、Instagram和Facebook的視頻來訓練Sora(OpenAI旗下一款文生視頻模型),你當時回答說不知道。那么,關于是否使用了這些數(shù)據(jù),你真的不清楚嗎?
米拉·穆拉蒂:
我當時沒有很好地回答這個問題,現(xiàn)在我可以回答一下。我不能具體告訴你數(shù)據(jù)的來源,但數(shù)據(jù)來自這三類:公開數(shù)據(jù)、我們通過許可和與內(nèi)容提供商達成的交易支付的數(shù)據(jù),以及用戶數(shù)據(jù)。
我不能告訴你具體的來源,因為這是商業(yè)機密,幫助我們保持競爭力。但我可以告訴你數(shù)據(jù)的類別,它們是我之前提到的那幾種。
主持人:
唯一的區(qū)別是復雜性。因為他們基本上是在快速抓取內(nèi)容,而沒有給出內(nèi)容來源,任何媒體公司都會對此感到擔憂。
米拉·穆拉蒂:
是的,我們希望確保尊重內(nèi)容創(chuàng)作者,并正在嘗試補償他們。我們正在開發(fā)一個工具,稱為內(nèi)容媒體管理器,這將讓我們更具體地識別數(shù)據(jù)的類型,就像唱片公司所做的那樣。
主持人:
這在過去是可以做到的。所以這并不是不可能的事情。說到Sora,本周阿什頓·庫徹(Ashton Kutcher,好萊塢著名演員)告訴埃里克·施密特(Eric Schmidt,前谷歌CEO),他有一個測試版的Sora,非常驚人。
他還提到,這會讓門檻變得更高,因為人們可能會想:“我為什么要看你的電影,而不直接看我腦海里的電影呢?”他的意思是,人們有能力在腦海中構(gòu)想電影情節(jié),而AI能將這種構(gòu)想轉(zhuǎn)化為可觀看的電影。雖然現(xiàn)在聽起來還有些粗糙,但這種想法是否有可能實現(xiàn)呢?
那么,Sora這款應用大概什么時候會準備好,向公眾發(fā)布呢?
米拉·穆拉蒂:
我們目前沒有Sora公開發(fā)布的時間表。我們現(xiàn)在正在與一些內(nèi)容創(chuàng)作者合作,幫助我們識別如何使其更加穩(wěn)定。我們正在進行大量的安全工作,但也在研究如何以有用的方式向公眾推出這項技術。這并不是一件簡單的事情。
現(xiàn)在它更多的是一種技術。我們通常會與那些在特定領域有專長的人合作,就像我們最初與DALL·E合作時一樣,他們幫助我們識別出一種感覺更有能力的界面,可以創(chuàng)造更多的項目?;旧蟻碇v,我們想擴展Sora的創(chuàng)造力。
主持人:
關于影響,科技公司往往不關心影響,通常他們會發(fā)布一個測試版的軟件。如果他們發(fā)布的是一輛車,這種情況是絕不會允許發(fā)生的,因為他們會被起訴到破產(chǎn)。
但很多科技公司發(fā)布的產(chǎn)品往往都是測試版,并強加給公眾。關于影響這一概念,你是否覺得作為首席技術官,即使你不能預見所有的影響,你是否尊重每項發(fā)明可能帶來的影響?
米拉·穆拉蒂:
這些影響會對我們和我們的社會產(chǎn)生影響。因此,我并不一定指的是監(jiān)管或法律方面的影響,而是道德上的責任感,確保我們做對。我對這項技術充滿樂觀。
它將允許我們做出驚人的事情。我對它在科學、教育和特別是醫(yī)療方面的潛力感到非常興奮。但每當你有如此強大的東西,也會有潛在的災難性風險。一直以來,都是這樣的情況。人類試圖放大其影響。
主持人:
我引用的一句話來自保羅·維利里奧(Paul Virilio):“當你發(fā)明了船時,你也發(fā)明了船難。”這是比船難更嚴重的可能性,對嗎?
米拉·穆拉蒂:
我不同意這個說法。我的專業(yè)是工程學。我們的整個世界都是通過工程建造的。工程學就是風險。整個文明建立在工程實踐之上。我們的城市、橋梁,一切都如此。這總是伴隨著風險的。你通過責任和細致的工作來管理這些風險。
這不僅僅是開發(fā)人員的責任。這是一種共同的責任。為了使其成為共同責任,你實際上需要給人們提供訪問權限和工具,并與他們一起前進,而不是在真空中建造不可訪問的技術。
主持人:
我想多了解一下這個話題。你上個月宣布了ChatGPT-4的迭代更新。它是免費的,對吧?
米拉·穆拉蒂:
確實如此。GPT-4o代表的是Omni-model,因為它結(jié)合了所有的模態(tài):視覺、文本、音頻。這個模型的特別之處在于,它使與模型的互動變得非常流暢自然,幾乎察覺不到延遲。
這是AI互動上的巨大飛躍,與我們之前的版本有很大不同。我們希望將最新的功能免費提供給所有用戶,讓大家了解這項技術的潛力和局限性。正如我之前所說,通過實際體驗,大家更容易理解技術的潛力和局限性。
主持人:
它就像是一道開胃菜,讓大家期待ChatGPT-5。那么,ChatGPT-5有什么不同?是個巨大的飛躍還是逐步改進?
米拉·穆拉蒂:
我們還不知道。其實我們還沒決定叫什么名字。下一代大模型將非常強大,我們可以期待像從GPT-3到GPT-4那樣的巨大飛躍,但具體細節(jié)還不確定。
主持人:
顯然,你參與了很多項目,我們也聊過很多。OpenAI內(nèi)部的路線圖預測,人類會在2027年實現(xiàn)AGI,這將是一個巨大的里程碑。解釋一下這個時間點的重要性。你們是否真的認為會在那時實現(xiàn)AGI?
米拉·穆拉蒂:
AGI的定義因人而異。根據(jù)我們的章程,AGI是指在不同領域可以完成經(jīng)濟上有價值工作的系統(tǒng)。從我們目前看到的情況來看,智能的定義不斷變化。過去,我們用學術基準測試系統(tǒng)的智能程度。然后,我們看考試成績。
當我們達到了這些基準,我們需要提出新的評估標準。這讓我們思考,在工作環(huán)境中如何評估智能?我們有面試、有實習等方式。因此,我預計這個定義會不斷演變。或許更重要的是評估和預測在現(xiàn)實世界中的影響,無論是社會影響還是經(jīng)濟影響。
主持人:
根據(jù)這個定義,OpenAI認為何時會實現(xiàn)AGI?2027年這個數(shù)字準確嗎?
米拉·穆拉蒂:
我會說,在未來十年內(nèi),我們將有超強的AI系統(tǒng)。
主持人:
但是人們擔心的是安全與產(chǎn)品之間的討論。OpenAI的創(chuàng)立有兩個目標,一個是幫助人類,一個是追求巨大的經(jīng)濟利益。我認為你可能介于兩者之間。
上周,13名現(xiàn)任和前任OpenAI和谷歌DeepMind員工聯(lián)名發(fā)表公開信,呼吁公司允許他們警告關于先進AI的風險。這并不新鮮,F(xiàn)acebook、谷歌和微軟的員工也曾簽署公開信,無論是與高級部門合作等。
但在這個案例中,員工們說,“廣泛的保密協(xié)議阻止我們表達擔憂,而公司可能未能解決這些問題。”基本上就是說,我們不能告訴你風險是什么,但大家可能會遭遇災難。對此你有什么回應?人們擔心遭到報復,而我不想談論股票的問題,因為我知道你們道歉并糾正了這一點。但如果他們有擔憂,難道不應該讓他們表達嗎?我知道不同人有不同的看法。
米拉·穆拉蒂:
當然,我們認為持不同觀點非常重要,能夠公開表達這些擔憂并討論安全問題也非常重要。自OpenAI成立以來,我們一直非常開放地討論虛假信息問題,從GPT-2時代開始,這就是我們早期研究的問題之一。
過去幾年,技術進步令人難以置信,速度之快超乎預期,這也增加了人們對社會準備情況的普遍焦慮。我們看到科學的發(fā)展方向,所以可以理解人們對未來的擔憂。
具體來說,我們在OpenAI所做的工作和部署這些模型的方式,我認為我們有一支出色的團隊,我們非常安全地部署了這些模型,我對此感到非常自豪。鑒于技術進步的速度和我們自身的進展,專注于安全、保護框架非常重要,我們需要考慮如何看待前沿模型訓練和部署的風險。
主持人:
你提到過這些問題。我好奇的是,為什么OpenAI需要簽訂保密協(xié)議,以及實施比其他公司更嚴格的規(guī)定呢?公開信是在一系列高調(diào)離職后發(fā)布的,包括楊·萊克(Jan Leike)和伊爾亞·蘇茨克維(Ilya Sutskever)。他們領導了對齊團隊,負責安全工作。
伊爾亞是OpenAI的聯(lián)合創(chuàng)始人,他與其他三位董事一起罷免了CEO,但萊克在X上發(fā)布了這條消息:“在過去的一年里,安全文化和流程被光鮮的新產(chǎn)品所取代了。”
這是外界對OpenAI持續(xù)不斷的批評之一。你認為這個批評公正嗎?為什么?如果你確實非常重視安全,但外界卻認為你不夠重視,你會如何回應這樣的批評呢?
米拉·穆拉蒂:
首先,對齊團隊不是唯一負責安全的團隊。OpenAI有許多安全團隊,對齊團隊是其中一個非常重要的安全團隊,但只是其中之一。
我們有很多人在OpenAI從事安全工作,我可以稍后詳細解釋。萊克是一位了不起的研究人員和同事,我與他共事了三年,非常尊重他,他離開OpenAI后加入了Anthropic,這是我們的一個競爭對手。
我認為我們確實需要更加專注于安全、保護和監(jiān)管參與,鑒于我們預期領域內(nèi)的進展。但我不同意我們可能將產(chǎn)品放在安全之前的觀點。你為什么認為他們這么說?
主持人:
因為這些是和你共事的人?
米拉·穆拉蒂:
我認為你需要問他們,但我認為許多人認為安全和能力是分開的。我認為整個行業(yè)需要向更加嚴格的安全學科發(fā)展。我們有安全系統(tǒng),有嚴格的操作安全紀律,這包括許多方面,不僅是操作紀律,還有我們今天產(chǎn)品和部署的安全性,例如有害偏見、虛假信息、錯誤信息分類器等。
主持人:
但這在OpenAI中一直存在。我認為因為你們是當前的領先公司,所以這個問題更加突出。但人們擔心的是安全問題,OpenAI的創(chuàng)立目的之一就是確保安全。
上周,有13名現(xiàn)任和前任OpenAI和谷歌DeepMind員工聯(lián)名發(fā)表公開信,呼吁公司允許他們警告關于先進AI的風險。這并不新鮮,但在這種情況下,員工們說,“廣泛的保密協(xié)議阻止我們表達擔憂,而公司可能未能解決這些問題。”
你對此有什么回應?人們擔心發(fā)聲會遭到報復,而我不想談論股票的問題,因為我知道你們道歉并糾正了這一點。但如果他們有擔憂,難道不應該讓他們表達嗎?我知道不同人有不同的看法。
米拉·穆拉蒂:
當然,我們認為持不同觀點非常重要,能夠公開表達這些擔憂并討論安全問題也非常重要。自OpenAI成立以來,我們一直非常開放地討論虛假信息的問題,從GPT-2時代開始,這就是我們早期研究的問題之一。
過去幾年,技術進步令人難以置信,速度之快超乎預期,這也增加了人們對社會準備情況的普遍焦慮。我們看到科學的發(fā)展方向,所以可以理解人們對未來的擔憂。
具體來說,我們在OpenAI所做的工作和部署這些模型的方式,我認為我們有一支出色的團隊,我們非常安全地部署了這些模型,我對此感到非常自豪。鑒于技術進步的速度和我們自身的進展,專注于安全、保護框架非常重要,我們需要考慮如何看待前沿模型訓練和部署的風險。
主持人:
對于這種情況,你打算如何應對呢?我能理解這種變化,畢竟在谷歌、微軟和亞馬遜的早期階段都經(jīng)歷過類似的情況。隨著公司的成長,很多事情都會發(fā)生變化。谷歌早期也是一團亂麻,F(xiàn)acebook也換過不少首席運營官,多得我都數(shù)不清了。很多人都經(jīng)歷過這樣的階段,所以這是很正常的。但對于山姆這種情況,你打算如何應對呢?
例如,他投資了一些外國公司,一些公司與OpenAI有業(yè)務往來。他投資了3.75億美元在一家名為Helion的能源公司,這是一個很酷的公司,他們目前正在與OpenAI談論大量的電力需求。眾所周知,計算需要大量電力。你每天是如何與他打交道的?你如何看待這種關系?你在哪些方面會提出反對意見?
米拉·穆拉蒂:
我一直在提出反對意見。我認為這是正常的,特別是在我們所做的工作中。山姆會對團隊提出很高的要求,我認為這是好的。有遠大的抱負,挑戰(zhàn)我們的極限是很重要的。當我覺得事情超出界限時,我會提出反對意見。這就是我們六年來的合作關系,我認為這種關系是有成效的。你需要能夠提出反對意見。
主持人:
你能舉一個例子嗎?比如,斯嘉麗·約翰遜的例子。我知道你和山姆在ChatGPT的音色這塊工作上,是合作完成的,對吧?
米拉·穆拉蒂:
是的,我們有很強的合作關系。但選擇聲音并不是我們的優(yōu)先事項之一,不是我們共同工作的內(nèi)容。我在這方面做了決策,但有山姆他自己的聯(lián)系。在我選擇了Sky之后,他聯(lián)系了斯嘉麗·約翰遜。我們沒有討論這個具體的決定,這是很不幸的。
主持人:
所以他是單獨行動的。
米拉·穆拉蒂:
他有自己的聯(lián)系,我們在這件事上沒有完全協(xié)調(diào)一致。
主持人:
你覺得這在很多方面很有趣,特別是因為電影和他的推文。但我認為這是OpenAI的一個錯誤,因為人們會覺得你們在偷竊,即使你們沒有偷她的聲音,山姆看起來就像是《小美人魚》里的烏蘇拉,偷走了她的聲音。即使事實并非如此,但這種感覺是存在的。
那么,讓我最后談談選舉和虛假信息,然后我們會接受觀眾的提問。當你考慮到AI對虛假信息的力量和即將到來的總統(tǒng)選舉時,是什么讓你感到擔憂?從你的角度來看,最糟糕的情況和最可能的負面結(jié)果是什么?
米拉·穆拉蒂:
首先,我們盡可能防止AI的濫用,包括提高信息檢測的準確性,了解平臺上的情況并迅速采取行動。第二是減少模型中的偏見因素。盡管ChatGPT因過于自由而受到批評,但這并非我們的本意,我們正不遺余力地降低模型中的偏見因素,并將持續(xù)努力。第三是我們希望在選民尋找投票信息時,模型可以指向正確的信息。這是我們在選舉時關注的三件事。
關于虛假信息,編造信息是不可接受的。我們需要有非常可靠的方法讓人們了解他們在看的是編造的信息。我們已經(jīng)做了一些事情。我們?yōu)閳D像實施了C2PA,它類似于護照,隨著內(nèi)容在不同平臺上傳播。我們還開放了DALL·E的分類器,可以檢測圖像是否由DALL·E生成。
元數(shù)據(jù)和分類器是處理這個問題的兩種技術方法。這是信息來源的證明,專門針對圖像。我們還在研究如何在文本中實現(xiàn)水印技術。
主持人:
我再問你一個最后的問題,然后我們會接受觀眾提問。你今天得到了這個問題的不同版本。你對這項技術非常樂觀,但我想讓你總結(jié)一下。如果你是個悲觀主義者,甚至有公司說如果我不阻止山姆·阿爾特曼,他會毀滅人類,我覺得這有點夸張。
而其他人則認為,無論如何,這將是最好的事情,我們都會在火星上享受美味的士力架。所以我希望你能告訴我,你最擔心的事情和最希望的事情,然后我們會接受觀眾提問。
米拉·穆拉蒂:
首先,我不認為這是一個預定的結(jié)果。我認為我們在構(gòu)建和部署這項技術方面有很大的自主權。為了做好這件事,我們需要找到一種創(chuàng)造共同責任的方法。
我們今天談論了很多這個問題,我確實認為控制人們做特定的事情,是非常非??膳碌模馕吨憧梢钥刂粕鐣囟ǚ较虬l(fā)展。
就希望而言,我非常興奮的一件事是能夠在任何地方提供高質(zhì)量和免費的教育。對我來說,教育非常重要,它改變了我的生活。
今天我們有這么多工具可用,比如電和互聯(lián)網(wǎng),很多工具都是可用的。但大多數(shù)人仍然是這種狀況——在一個教室里有一個老師,50個學生,每個人都學同樣的東西。想象一下,如果教育能夠根據(jù)你的思維方式、文化規(guī)范和具體興趣進行定制,這將極大地擴展知識和創(chuàng)造力的水平。
如果我們能夠真正掌握這個,在很年輕的時候就學會如何學習,我認為這非常強大,并能推動人類知識的進步,從而推動整個文明的進步。
觀眾:
ChatGPT的模型截止到2021年9月,你們依賴網(wǎng)絡搜索來補充數(shù)據(jù)。我輸入一個搜索請求時,確保你們從正確的參考資料中獲取正確答案?由于你們授權的受信任來源是商業(yè)秘密,我們?nèi)绾沃滥銈兲峁┑男畔⑹钦_的?
米拉·穆拉蒂:
實際上,有趣的是,ChatGPT項目最初是一個關于真實性的研究項目。我們希望能夠表達不確定性,并希望能夠在大型語言模型中引用信息,然后它轉(zhuǎn)變成了不同的研究項目。
所以,我們今天在平臺上所做的事情,我們有瀏覽器和工具,我們引入了工具和瀏覽功能,可以查找內(nèi)容,我們也在與出版商合作,以便將新聞和額外內(nèi)容帶到平臺上,提高準確性。
我們正在著力解決大模型編造虛假信息的問題,這顯然是大型語言模型的一個主要問題,但其出現(xiàn)的頻率正在逐步降低。我認為這類問題不會徹底消失,但隨著模型變得更聰明,我們有理由相信它們的表現(xiàn)會越來越好,我們應該期待它們輸出的內(nèi)容也會更加貼近真實情況,不會編造虛假信息。虛假信息問題非常復雜,我們正在努力探索解決之道,以確保信息的真實性和準確性。
我們希望信息來源盡可能廣泛,同時還需要考慮產(chǎn)品的應用場景,不同的應用場景會有所不同。
每日經(jīng)濟新聞綜合自公開消息
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP