每日經(jīng)濟(jì)新聞 2022-12-12 22:37:48
每經(jīng)記者 可楊 文巧 每經(jīng)編輯 高涵
近日,OpenAI發(fā)布了一個全新的聊天機(jī)器人模型ChatGPT,它能夠模擬人類的語言行為,與用戶進(jìn)行自然交互。
在推特網(wǎng)友們曬出的截圖中,ChatGPT不僅能流暢地與人對話,還能舞文弄墨、編寫代碼……創(chuàng)作天馬行空的內(nèi)容也不在話下,它幾乎無所不能。由于該測試目前免費,一經(jīng)推出就被訪問者“擠爆”,上線僅5天用戶數(shù)量就已突破100萬。
12月2日,就連特斯拉CEO埃隆·馬斯克也在推特賬號上表示,“很多人被困在一個瘋狂的ChatGPT循環(huán)中?”
視覺中國圖
隨著IBM超級計算機(jī)“深藍(lán)”擊敗國際象棋世界冠軍、谷歌AlphaGo擊敗人類冠軍棋手、Stable Diffusion模型刷新AI作圖邁進(jìn)“一秒出圖”時代……
關(guān)于“AI取代人工”“AI打敗人類”等話題一直層出不窮。ChatGPT的橫空出世,讓人們更加擔(dān)憂,“AI又來搶飯碗?”
引爆全球的ChatGPT到底有何玄機(jī)?ChatGPT的商業(yè)空間到底有多大?
ChatGPT緣何引爆全球?
ChatGPT是人工智能研究實驗室OpenAI在11月30日發(fā)布的全新聊天機(jī)器人模型。
OpenAI成立于2015年,由營利組織OpenAI LP與非營利組織OpenAI Inc組建。OpenAI的最初創(chuàng)建者正是馬斯克等硅谷大亨。2018年,馬斯克宣布退出OpenAI董事會,后者解釋,隨著特斯拉越來越關(guān)注AI,馬斯克的退出是為了避免產(chǎn)生沖突。
在OpenAI的官網(wǎng)上,ChatGPT被描述為優(yōu)化對話的語言模型,是GPT-3.5架構(gòu)的主力模型。
GPT- 3.5架構(gòu)基于OpenAI于2020年推出的GPT-3架構(gòu),即生成式語言模型的第3代。早在2020年6月,在訓(xùn)練約2000億個單詞、燒掉幾千萬美元后,史上最強(qiáng)大AI模型GPT-3一炮而紅。當(dāng)時,業(yè)內(nèi)人士就對其贊不絕口:“它比我嘗試過的任何AI語言系統(tǒng)都更加連貫。”
據(jù)悉,微軟已和 OpenAI 簽訂了戰(zhàn)略合作計劃,GPT 3.5 代的所有模型,包括 ChatGPT,都是在 Azure AI 超級計算集群上訓(xùn)練的。
作為一個聊天機(jī)器人,ChatGPT具有同類產(chǎn)品具備的一些特性,例如對話能力,能夠在同一個會話期間內(nèi)回答上下文相關(guān)的后續(xù)問題。然而,其在短時間內(nèi)引爆全球的原因在于,在網(wǎng)友們曬出的截圖中,ChatGPT不僅能流暢地與用戶對話,甚至能寫詩、撰文、編碼……它似乎無所不能。
馬斯克也在社交媒體上展示了詢問ChatGPT如何設(shè)計推特的答復(fù)。
一位名叫Zac Denham的博主甚至讓ChatGPT寫出了一套毀滅人類的方案。一開始,該博主的要求被ChatGPT拒絕。但當(dāng)其假設(shè)了一個故事,并提問故事中的虛擬人如何接管虛擬世界,ChatGPT最終給出了步驟細(xì)節(jié),甚至生成了詳細(xì)的Python代碼。
技術(shù)公司Replit的創(chuàng)始人Amjad Masad還給ChatGPT發(fā)了一段JavaScript代碼,讓它找到里面的bug,并表示:“ChatGPT可能是一個很好的調(diào)試伙伴,它不僅分析了錯誤,還修復(fù)了錯誤并進(jìn)行了解釋。”
擁有如此強(qiáng)大而驚艷的語言能力,一時間,ChatGPT在互聯(lián)網(wǎng)上掀起了一場“AI風(fēng)暴”。
“ChatGPT之所以大受關(guān)注,主要還是因為它的確達(dá)到了非常好的效果,比如你可以用它做翻譯、改錯別字、debug(計算機(jī)程序糾錯)等。它和Bert這種比較早期的模型相比,不管是訓(xùn)練數(shù)據(jù)的量和訓(xùn)練任務(wù)的復(fù)雜度都有很大提升。”瑞萊智慧高級產(chǎn)品經(jīng)理張旭東在接受《每日經(jīng)濟(jì)新聞》記者采訪時表示。
他進(jìn)一步指出:“相比于之前不少模型體驗下來給出的還都是‘人工智障式’的回答,ChatGPT 能給到令人驚艷的效果。另外,ChatGPT的體驗流程更方便,只要注冊一個OpenAI的賬號就可以體驗了,早期的模型需要申請通過才能體驗,所以ChatGPT影響的人群更廣泛,討論的人會更多。”
ChatGPT替代谷歌搜索?
ChatGPT何以如此強(qiáng)大?在OpenAI的官網(wǎng)上,可以窺見一二。
根據(jù)OpenAI的官方文檔,相比之前的GPT模型,OpenAI采用了全新的訓(xùn)練方式,即一種名為“從人類反饋中強(qiáng)化學(xué)習(xí)”(Reinforcement Learning from Human Feedback,RLHF)的訓(xùn)練方式對 ChatGPT 進(jìn)行了訓(xùn)練。
在訓(xùn)練原始模型的時候,OpenAI讓人類訓(xùn)練師扮演對話的雙方提供對話作為學(xué)習(xí)資料。在人類扮演聊天機(jī)器人的時候,OpenAI也會讓模型生成一些建議來幫助訓(xùn)練師撰寫自己的回復(fù)。也就是說,基于優(yōu)秀的機(jī)器學(xué)習(xí)算法和強(qiáng)勁的算力,通過海量的數(shù)據(jù)訓(xùn)練,來讓AI學(xué)會“思考”。
除此之外,ChatGPT還采用了注重道德水平的訓(xùn)練方式,按照預(yù)先設(shè)計的道德準(zhǔn)則,對不懷好意的提問和請求“說不”。一旦它發(fā)現(xiàn)用戶給出的文字提示里面含有惡意,包括但不限于暴力、歧視、犯罪等意圖,它都會拒絕提供有效答案。
為什么ChatGPT能做到其他人工智能聊天機(jī)器人所不能的?
哈爾濱工業(yè)大學(xué)計算學(xué)部長聘教授、博士生導(dǎo)師車萬翔在接受《每日經(jīng)濟(jì)新聞》記者采訪時認(rèn)為:“可能(訓(xùn)練的)數(shù)據(jù)是一方面,另一方面,比較關(guān)鍵的還是(ChatGPT)打破了一種思維的范式——即,之前的AI都是針對某一個任務(wù)去訓(xùn)練一個模型,而ChatGPT之類的模型是針對多種任務(wù)的,它試圖把多種任務(wù)轉(zhuǎn)化成一問一答的形式。多任務(wù)如果能轉(zhuǎn)化成這種形式的話,其實就消除了任務(wù)之間的壁壘。”
他認(rèn)為打破思維范式之后,就可以針對這樣的任務(wù)去標(biāo)注或者是讓人工生成大量的數(shù)據(jù)。“未來ChatGPT可能會充分利用用戶反饋,進(jìn)一步提高系統(tǒng)的能力。”
他進(jìn)一步解釋道:“原來的AI模型需要經(jīng)過大量的訓(xùn)練,或是需要專家,才能進(jìn)行標(biāo)注;現(xiàn)在,普通大眾也可以對(ChatGPT)進(jìn)行標(biāo)注,所以數(shù)據(jù)的獲取方式改變了,數(shù)據(jù)量增加了,模型的能力就會變強(qiáng)。加之(ChatGPT的)模型參數(shù)也足夠大,可以容納這些任務(wù)。當(dāng)前技術(shù)積累到這里,只剩一個點(ChatGPT)就爆發(fā)了。”
從網(wǎng)友們曬出的五花八門的問答中,可以看到,ChatGPT類似于谷歌等搜索引擎,甚至功能更加強(qiáng)大,能和用戶更完善地互動。有分析指出,搜索引擎都是基于對問題本身的搜索,但它們有一個很大的限制,當(dāng)用戶描述不清自己的問題時,搜索引擎并不能與之互動。
因此,社交媒體上也充斥著這樣一種說法:ChatGPT可能將顛覆谷歌,掀起一場搜索引擎的大革命。
不過,車萬翔教授認(rèn)為,搜索引擎與ChatGPT不存在誰取代誰的問題,更多可能是一種互補(bǔ)的關(guān)系。“它們都是一種獲取信息的手段,搜索引擎可能更擅長幫助用戶獲取已有的信息,但如果是偏創(chuàng)造性的信息,那有可能這種大模型會解決得更好,因為它已經(jīng)隱含了很多的信息,它能夠把這些信息綜合地呈現(xiàn)出來。”
“現(xiàn)在做這種大模型的基本上都是大企業(yè),本身它們也有搜索引擎的背景。例如,OpenAI背后有微軟,谷歌也在做這種大模型。未來,也不排除會將這兩種信息獲取方式相結(jié)合。”他補(bǔ)充道。
另外,ChatGPT目前并沒有聯(lián)網(wǎng)搜集信息,它所知道的信息都截至2021年。基于此,清華大學(xué)智能技術(shù)與系統(tǒng)實驗室副主任、清華大學(xué)計算機(jī)科學(xué)與技術(shù)系長聘副教授黃民烈在接受《每日經(jīng)濟(jì)新聞》記者采訪時認(rèn)為,ChatGPT無法取代搜索引擎。“因為它(ChatGPT)目前只是對過往知識的學(xué)習(xí)和應(yīng)用,例如2022年的信息它是沒有覆蓋的,而我們使用搜索引擎很多時候可能是為了獲得一些即時的信息。”
ChatGPT有商業(yè)空間嗎?
“ChatGPT有時會寫出看似合理但不正確或荒謬的答案。”這是Open AI認(rèn)為目前ChatGPT所面臨的“限制”,并且解決這個問題被認(rèn)為是具有挑戰(zhàn)性的。
這背后主要是三個原因,首先,強(qiáng)化學(xué)習(xí)的信息源目前并未建立;其次,模型通過學(xué)習(xí)變得更加謹(jǐn)慎會導(dǎo)致其回避原本能夠正確回答的問題;另外,監(jiān)督學(xué)習(xí)將會對模型造成誤導(dǎo),因為理想的答案應(yīng)該來源于模型的認(rèn)知,而非人工演示者的認(rèn)知。
張旭東告訴《每日經(jīng)濟(jì)新聞》記者:“前兩天我們問 ChatGPT 詩人北島是哪個國家的,他還信誓旦旦地回答說是日本,但通過后臺反饋,這兩天已經(jīng)改回了中國。”
張旭東認(rèn)為,目前來看,ChatGPT確實會存在一些錯誤,這也是 ChatGPT未來需要改進(jìn)的地方。現(xiàn)在用戶也是可以通過提交回答的反饋來幫助 ChatGPT變得更加準(zhǔn)確。
這一局限性在ChatGPT模型發(fā)布后不久就已經(jīng)體現(xiàn)出來,全球最大的編程技術(shù)問答網(wǎng)站Stack Overflow緊急宣布,ChatGPT在該站暫時封禁。Stack Overflow在官方通告中表示,做出這個規(guī)定的主要原因是,ChatGPT自動生成的答案質(zhì)量太低,錯誤太多,而且看上去還挺像那么回事,即使是完全不懂的人也能隨便生成答案。
ChatGPT的能力獲得是基于龐大的語料庫,凝練了多領(lǐng)域問題的很多數(shù)據(jù)做相互校驗,然后挑一些基礎(chǔ)性的內(nèi)容回答出來,這其實是“舉一千反一”的過程,與人類舉一反三的能力還相差較遠(yuǎn),它不具備思考能力,所以犯錯誤不可避免,這種錯誤與谷歌翻譯、維基百科搜索中犯的錯誤類似,但通過人為的干預(yù)反饋,這些問題是可以被改進(jìn)的。
車萬翔認(rèn)為這是一個“固有的問題”,也是整個大型語言模型在技術(shù)上面臨的固有問題。他認(rèn)為一個可能可行的解決方法是,ChatGPT將其給出的答案,尤其是事實性、知識性的答案注明出處。
為了解決答案中可能存在的偏差,Open AI在其官網(wǎng)稱:“渴望收集用戶反饋,以幫助我們正在進(jìn)行的改進(jìn)該系統(tǒng)的工作。”可以理解為通過用戶在聊天過程中對于ChatGPT所給出回答的反饋,對其進(jìn)行糾偏。不過,車萬翔也提示,這種形式進(jìn)行糾偏,也要警惕來自用戶的“惡意反饋”。
除此之外,ChatGPT的局限性可能來自于落地應(yīng)用的成本,普通企業(yè)能否負(fù)擔(dān)以及是否愿意負(fù)擔(dān),同時還有一些搜索引擎本身存在的局限即調(diào)用速度慢、可能會形成算法霸權(quán)等。
延展到整個語言模型生成領(lǐng)域,黃民烈則認(rèn)為,生成一些與事實不一致的預(yù)測、前期進(jìn)行了數(shù)據(jù)過濾與清洗,可能還是會生成算法偏見或者對人類價值觀社會倫理規(guī)范不符合的東西等問題,是這個行業(yè)將面臨的局限,這也將或多或少影響到其實際落地應(yīng)用。
除了吟詩作賦改代碼、充當(dāng)搜索引擎的插件,ChatGPT的商業(yè)化,還有想象空間嗎?
黃民烈看好ChatGPT的應(yīng)用落地,他認(rèn)為,應(yīng)該把ChatGPT看作是一個通用智能助手,作為工具去做比如說輔助寫作和創(chuàng)作、檢查代碼。
“它不僅能夠像過去Siri那樣,接個電話、發(fā)個微信,只能完成非常有限的簡單任務(wù),現(xiàn)在它可以完成一些更復(fù)雜、更高級、更偏認(rèn)知性的任務(wù),比如說寫一封情書,寫一首歌,寫一個文章,甚至還能夠回答非常復(fù)雜的問題,比如說炒股的我應(yīng)該買什么樣的股票。”黃民烈認(rèn)為,它是對于過去的某些能力的極大延伸和取代。
車萬翔教授則指出,這是一個需要“開腦洞”的問題,作為搜索引擎的補(bǔ)充,只是它可能的應(yīng)用前景之一。而如果把ChatGPT看作一個通用人工智能,它就可以在各行各業(yè)發(fā)揮用處,比如智能教育,它可以是一個很好的AI助教;智能金融,它可以對年報做智能分析;甚至智能醫(yī)療,也可以用它去代替醫(yī)生做一些瑣碎的事。“只要AI能發(fā)揮作用的行業(yè),它(ChatGPT)至少都能把目前的系統(tǒng)能力進(jìn)一步提升,這真是很大的應(yīng)用前景。”
而在前景落成現(xiàn)實之前,通用的人工智能如何確保結(jié)果可信可靠則成為關(guān)鍵問題。
AI大模型將迎來激烈競賽?
ChatGPT的驚艷問世也給AIGC(Artificial Intelligence Generated Content,人工智能生成內(nèi)容)的應(yīng)用帶來了更多的希望。港股、A股市場上,已有多家相關(guān)上市公司應(yīng)聲上漲。
12月7日,美圖公司當(dāng)天漲幅一度高達(dá)45.83%,創(chuàng)近一年來新高。截至收盤,該公司漲幅為24.17%;A股市場上,天娛數(shù)科股價在當(dāng)天漲停,中文在線收漲3.89%,視覺中國收漲2.8%,漢王科技則在12月5日和7日收獲兩個漲停板。
浙商證券分析認(rèn)為,ChatGPT模型的出現(xiàn)對于文字模態(tài)的AIGC應(yīng)用具有重要意義。從下游相關(guān)受益應(yīng)用來看,包括但不限于代碼機(jī)器人、小說衍生器、對話類搜索引擎、語伴、語音工作助手、對話虛擬人等;從上游增加需求來看,包括算力、數(shù)據(jù)標(biāo)注、自然語言處理(NLP)等。具體到投資標(biāo)的包括中文在線、騰訊控股、百度集團(tuán)、閱文集團(tuán)、藍(lán)色光標(biāo)、海天瑞聲、拓爾思等。
黃民烈向《每日經(jīng)濟(jì)新聞》記者指出,ChatGPT是近幾年基于大模型的產(chǎn)品中熱度最高的一款,那么,這樣一款“通用智能助手”,可復(fù)制嗎?黃民烈的答案是:有可能。
他進(jìn)一步表示,復(fù)制的核心是需要一個相對強(qiáng)的底座模型+大量的優(yōu)質(zhì)數(shù)據(jù)+專業(yè)的數(shù)據(jù)團(tuán)隊。目前,國內(nèi)同樣有企業(yè)在做類似的研發(fā),中國交互AI平臺“聆心智能”在本月推出了圖靈世界的首個產(chǎn)品“AI烏托邦”,該系統(tǒng)允許用戶快速定制AI角色,只需要輸入簡單的角色描述,就可以召喚出相應(yīng)人設(shè)的AI,與之進(jìn)行深度對話和聊天。
AIGC相關(guān)產(chǎn)品熱度不斷背后,AI大模型的技術(shù)應(yīng)用日趨成熟。當(dāng)下,大模型正在成為AI發(fā)展趨勢,是各大巨頭必爭的高地。自2020年OpenAI推出GPT-3以來,AI大模型迎來大爆發(fā),全球各大公司開始了大模型的競賽。目前,包括OpenAI、谷歌、微軟、英偉達(dá)、百度、華為、阿里巴巴、浪潮等企業(yè)紛紛參與其中。
據(jù)報道,2020年到2021年,中國大模型數(shù)量從2個增至21個,基本與美國處于同等量級,大幅領(lǐng)先于世界其他各國。在此期間,國內(nèi)還出現(xiàn)了基于昇騰的鵬程、盤古、紫東、太初、悟道等千億甚至萬億級別的大模型。
另據(jù)智谷趨勢分析,目前全球約有30個千億級參數(shù)的大模型,其中美國15個,中國10個。由于大模型對芯片、算力、電力、數(shù)據(jù)要求極高,注定是一個極少數(shù)國家才能參與的游戲。
AI大模型步入爆發(fā)期,而這次ChatGPT之所以引發(fā)行業(yè)關(guān)注,黃民烈認(rèn)為原因在于,大模型本身有很大的能力,但過去行業(yè)都在解決一些單一技能的問題,而ChatGPT的誕生說明,基本的模型能夠衍生出來各種可能的應(yīng)用場景。
一款能夠解決各行各業(yè)問題的AI,在此之前,行業(yè)為何缺少這方面的嘗試?黃民烈指出,是由于此前時機(jī)還沒到。“大模型技術(shù)、基座模型的發(fā)展也就是這一兩年的事,同時因為這個東西并不是所有公司都能做,首先,它需要有具備底層模型和算法能力的人,其次需要有大的數(shù)據(jù),最后需要資金,而且還要找到好的技術(shù)路徑。”
“我們中國的研究者以及企業(yè)肯定要去思考這樣一些問題:我們能不能做自己的基座模型?能不能做自己的GPT?”黃民烈不認(rèn)為說我們技術(shù)上有多大的差距,差距更多在于大家對這件事的態(tài)度。
他補(bǔ)充道,像OpenAI,他們長期把這事做得非常嚴(yán)肅,從提取數(shù)據(jù)到新模型,最后給大家提供API,然后再去清洗數(shù)據(jù)、模型迭代,他們的路徑做得非常扎實。而我們部分企業(yè)可能更多是做一個模型出來之后開源,隨后就沒了下文。也有些公司想去做閉環(huán),但確實燒錢,也需要資本支持。
記者手記:通用人工智能到來前,信任問題待解
通用人工智能,被視為是人工智能研究的一項長期目標(biāo)。此次ChatGPT橫空出現(xiàn),被一些人視為向通用人工智能邁進(jìn)的重要一步。從吟詩作賦到寫代碼、檢查代碼,ChatGPT顯示出了人工智能從過去的一個AI工具只能解決單一領(lǐng)域問題,向解決多領(lǐng)域問題的轉(zhuǎn)變。
正如車萬翔教授所認(rèn)為的,它在某種程度上打破了“思想的桎梏”,沿著這個方向,通用人工智能工具,或許確實離我們又更進(jìn)一步。
但在此之前,信任度不高,是“ChatGPT”們亟需解決的問題。瑞萊智慧高級產(chǎn)品經(jīng)理張旭東在接受采訪時提示,以ChatGPT為例,其負(fù)面風(fēng)險更多在于這項技術(shù)被惡意應(yīng)用,比如被用于假新聞的生成、故意偽造新聞輿論,對內(nèi)容生態(tài)治理造成影響。另外在某些創(chuàng)作領(lǐng)域,這項技術(shù)成為“作弊工具”,造成一定程度上的不公平。而這些風(fēng)險更多源自使用技術(shù)的目標(biāo)本身,以及技術(shù)使用的邊界沒有被加以管控。
負(fù)面風(fēng)險的存在也可能加重人們將其作為工具使用時的不信任,進(jìn)而影響其未來的商業(yè)化落地應(yīng)用,這也將是所用的AIGC(人工智能生成內(nèi)容)產(chǎn)品共同面臨的難題。隨著通用人工智能的到來越來越成為可能,如何破除不可信、不可靠難題,也亟待行業(yè)回答。
封面圖片來源:視覺中國圖
如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP