每日經(jīng)濟新聞 2022-12-12 22:37:52
每經(jīng)記者 可楊 文巧 每經(jīng)編輯 高涵
近日,OpenAI發(fā)布了一個全新的聊天機器人模型ChatGPT,它能夠模擬人類的語言行為,與用戶進行自然交互。
在推特網(wǎng)友們曬出的截圖中,ChatGPT不僅能流暢地與人對話,還能舞文弄墨、編寫代碼……創(chuàng)作天馬行空的內(nèi)容也不在話下,它幾乎無所不能。由于該測試目前免費,一經(jīng)推出就被訪問者“擠爆”,上線僅5天用戶數(shù)量就已突破100萬。
12月2日,就連特斯拉CEO埃隆·馬斯克也在推特賬號上表示,“很多人被困在一個瘋狂的ChatGPT循環(huán)中?”
隨著IBM超級計算機“深藍”擊敗國際象棋世界冠軍、谷歌AlphaGo擊敗人類冠軍棋手、Stable Diffusion模型刷新AI作圖邁進“一秒出圖”時代……
關于“AI取代人工”“AI打敗人類”等話題一直層出不窮。ChatGPT的橫空出世,讓人們更加擔憂,“AI又來搶飯碗?”
引爆全球的ChatGPT到底有何玄機?ChatGPT的商業(yè)空間到底有多大?
ChatGPT緣何引爆全球?
ChatGPT是人工智能研究實驗室OpenAI在11月30日發(fā)布的全新聊天機器人模型。
OpenAI成立于2015年,由營利組織OpenAI LP與非營利組織OpenAI Inc組建。OpenAI的最初創(chuàng)建者正是馬斯克等硅谷大亨。2018年,馬斯克宣布退出OpenAI董事會,后者解釋,隨著特斯拉越來越關注AI,馬斯克的退出是為了避免產(chǎn)生沖突。
在OpenAI的官網(wǎng)上,ChatGPT被描述為優(yōu)化對話的語言模型,是GPT-3.5架構(gòu)的主力模型。
GPT- 3.5架構(gòu)基于OpenAI于2020年推出的GPT-3架構(gòu),即生成式語言模型的第3代。早在2020年6月,在訓練約2000億個單詞、燒掉幾千萬美元后,史上最強大AI模型GPT-3一炮而紅。當時,業(yè)內(nèi)人士就對其贊不絕口:“它比我嘗試過的任何AI語言系統(tǒng)都更加連貫。”
據(jù)悉,微軟已和 OpenAI 簽訂了戰(zhàn)略合作計劃,GPT 3.5 代的所有模型,包括 ChatGPT,都是在 Azure AI 超級計算集群上訓練的。
作為一個聊天機器人,ChatGPT具有同類產(chǎn)品具備的一些特性,例如對話能力,能夠在同一個會話期間內(nèi)回答上下文相關的后續(xù)問題。然而,其在短時間內(nèi)引爆全球的原因在于,在網(wǎng)友們曬出的截圖中,ChatGPT不僅能流暢地與用戶對話,甚至能寫詩、撰文、編碼……它似乎無所不能。
馬斯克也在社交媒體上展示了詢問ChatGPT如何設計推特的答復。
一位名叫Zac Denham的博主甚至讓ChatGPT寫出了一套毀滅人類的方案。一開始,該博主的要求被ChatGPT拒絕。但當其假設了一個故事,并提問故事中的虛擬人如何接管虛擬世界,ChatGPT最終給出了步驟細節(jié),甚至生成了詳細的Python代碼。
技術公司Replit的創(chuàng)始人Amjad Masad還給ChatGPT發(fā)了一段JavaScript代碼,讓它找到里面的bug,并表示:“ChatGPT可能是一個很好的調(diào)試伙伴,它不僅分析了錯誤,還修復了錯誤并進行了解釋。”
擁有如此強大而驚艷的語言能力,一時間,ChatGPT在互聯(lián)網(wǎng)上掀起了一場“AI風暴”。
“ChatGPT之所以大受關注,主要還是因為它的確達到了非常好的效果,比如你可以用它做翻譯、改錯別字、debug(計算機程序糾錯)等。它和Bert這種比較早期的模型相比,不管是訓練數(shù)據(jù)的量和訓練任務的復雜度都有很大提升。”瑞萊智慧高級產(chǎn)品經(jīng)理張旭東在接受《每日經(jīng)濟新聞》記者采訪時表示。
他進一步指出:“相比于之前不少模型體驗下來給出的還都是‘人工智障式’的回答,ChatGPT 能給到令人驚艷的效果。另外,ChatGPT的體驗流程更方便,只要注冊一個OpenAI的賬號就可以體驗了,早期的模型需要申請通過才能體驗,所以ChatGPT影響的人群更廣泛,討論的人會更多。”
ChatGPT替代谷歌搜索?
ChatGPT何以如此強大?在OpenAI的官網(wǎng)上,可以窺見一二。
根據(jù)OpenAI的官方文檔,相比之前的GPT模型,OpenAI采用了全新的訓練方式,即一種名為“從人類反饋中強化學習”(Reinforcement Learning from Human Feedback,RLHF)的訓練方式對 ChatGPT 進行了訓練。
在訓練原始模型的時候,OpenAI讓人類訓練師扮演對話的雙方提供對話作為學習資料。在人類扮演聊天機器人的時候,OpenAI也會讓模型生成一些建議來幫助訓練師撰寫自己的回復。也就是說,基于優(yōu)秀的機器學習算法和強勁的算力,通過海量的數(shù)據(jù)訓練,來讓AI學會“思考”。
除此之外,ChatGPT還采用了注重道德水平的訓練方式,按照預先設計的道德準則,對不懷好意的提問和請求“說不”。一旦它發(fā)現(xiàn)用戶給出的文字提示里面含有惡意,包括但不限于暴力、歧視、犯罪等意圖,它都會拒絕提供有效答案。
為什么ChatGPT能做到其他人工智能聊天機器人所不能的?
哈爾濱工業(yè)大學計算學部長聘教授、博士生導師車萬翔在接受《每日經(jīng)濟新聞》記者采訪時認為:“可能(訓練的)數(shù)據(jù)是一方面,另一方面,比較關鍵的還是(ChatGPT)打破了一種思維的范式——即,之前的AI都是針對某一個任務去訓練一個模型,而ChatGPT之類的模型是針對多種任務的,它試圖把多種任務轉(zhuǎn)化成一問一答的形式。多任務如果能轉(zhuǎn)化成這種形式的話,其實就消除了任務之間的壁壘。”
他認為打破思維范式之后,就可以針對這樣的任務去標注或者是讓人工生成大量的數(shù)據(jù)。“未來ChatGPT可能會充分利用用戶反饋,進一步提高系統(tǒng)的能力。”
他進一步解釋道:“原來的AI模型需要經(jīng)過大量的訓練,或是需要專家,才能進行標注;現(xiàn)在,普通大眾也可以對(ChatGPT)進行標注,所以數(shù)據(jù)的獲取方式改變了,數(shù)據(jù)量增加了,模型的能力就會變強。加之(ChatGPT的)模型參數(shù)也足夠大,可以容納這些任務。當前技術積累到這里,只剩一個點(ChatGPT)就爆發(fā)了。”
從網(wǎng)友們曬出的五花八門的問答中,可以看到,ChatGPT類似于谷歌等搜索引擎,甚至功能更加強大,能和用戶更完善地互動。有分析指出,搜索引擎都是基于對問題本身的搜索,但它們有一個很大的限制,當用戶描述不清自己的問題時,搜索引擎并不能與之互動。
因此,社交媒體上也充斥著這樣一種說法:ChatGPT可能將顛覆谷歌,掀起一場搜索引擎的大革命。
不過,車萬翔教授認為,搜索引擎與ChatGPT不存在誰取代誰的問題,更多可能是一種互補的關系。“它們都是一種獲取信息的手段,搜索引擎可能更擅長幫助用戶獲取已有的信息,但如果是偏創(chuàng)造性的信息,那有可能這種大模型會解決得更好,因為它已經(jīng)隱含了很多的信息,它能夠把這些信息綜合地呈現(xiàn)出來。”
“現(xiàn)在做這種大模型的基本上都是大企業(yè),本身它們也有搜索引擎的背景。例如,OpenAI背后有微軟,谷歌也在做這種大模型。未來,也不排除會將這兩種信息獲取方式相結(jié)合。”他補充道。
另外,ChatGPT目前并沒有聯(lián)網(wǎng)搜集信息,它所知道的信息都截至2021年?;诖耍迦A大學智能技術與系統(tǒng)實驗室副主任、清華大學計算機科學與技術系長聘副教授黃民烈在接受《每日經(jīng)濟新聞》記者采訪時認為,ChatGPT無法取代搜索引擎。“因為它(ChatGPT)目前只是對過往知識的學習和應用,例如2022年的信息它是沒有覆蓋的,而我們使用搜索引擎很多時候可能是為了獲得一些即時的信息。”
ChatGPT有商業(yè)空間嗎?
“ChatGPT有時會寫出看似合理但不正確或荒謬的答案。”這是Open AI認為目前ChatGPT所面臨的“限制”,并且解決這個問題被認為是具有挑戰(zhàn)性的。
這背后主要是三個原因,首先,強化學習的信息源目前并未建立;其次,模型通過學習變得更加謹慎會導致其回避原本能夠正確回答的問題;另外,監(jiān)督學習將會對模型造成誤導,因為理想的答案應該來源于模型的認知,而非人工演示者的認知。
張旭東告訴《每日經(jīng)濟新聞》記者:“前兩天我們問 ChatGPT 詩人北島是哪個國家的,他還信誓旦旦地回答說是日本,但通過后臺反饋,這兩天已經(jīng)改回了中國。”
張旭東認為,目前來看,ChatGPT確實會存在一些錯誤,這也是 ChatGPT未來需要改進的地方。現(xiàn)在用戶也是可以通過提交回答的反饋來幫助 ChatGPT變得更加準確。
這一局限性在ChatGPT模型發(fā)布后不久就已經(jīng)體現(xiàn)出來,全球最大的編程技術問答網(wǎng)站Stack Overflow緊急宣布,ChatGPT在該站暫時封禁。Stack Overflow在官方通告中表示,做出這個規(guī)定的主要原因是,ChatGPT自動生成的答案質(zhì)量太低,錯誤太多,而且看上去還挺像那么回事,即使是完全不懂的人也能隨便生成答案。
ChatGPT的能力獲得是基于龐大的語料庫,凝練了多領域問題的很多數(shù)據(jù)做相互校驗,然后挑一些基礎性的內(nèi)容回答出來,這其實是“舉一千反一”的過程,與人類舉一反三的能力還相差較遠,它不具備思考能力,所以犯錯誤不可避免,這種錯誤與谷歌翻譯、維基百科搜索中犯的錯誤類似,但通過人為的干預反饋,這些問題是可以被改進的。
車萬翔認為這是一個“固有的問題”,也是整個大型語言模型在技術上面臨的固有問題。他認為一個可能可行的解決方法是,ChatGPT將其給出的答案,尤其是事實性、知識性的答案注明出處。
為了解決答案中可能存在的偏差,Open AI在其官網(wǎng)稱:“渴望收集用戶反饋,以幫助我們正在進行的改進該系統(tǒng)的工作。”可以理解為通過用戶在聊天過程中對于ChatGPT所給出回答的反饋,對其進行糾偏。不過,車萬翔也提示,這種形式進行糾偏,也要警惕來自用戶的“惡意反饋”。
除此之外,ChatGPT的局限性可能來自于落地應用的成本,普通企業(yè)能否負擔以及是否愿意負擔,同時還有一些搜索引擎本身存在的局限即調(diào)用速度慢、可能會形成算法霸權等。
延展到整個語言模型生成領域,黃民烈則認為,生成一些與事實不一致的預測、前期進行了數(shù)據(jù)過濾與清洗,可能還是會生成算法偏見或者對人類價值觀社會倫理規(guī)范不符合的東西等問題,是這個行業(yè)將面臨的局限,這也將或多或少影響到其實際落地應用。
除了吟詩作賦改代碼、充當搜索引擎的插件,ChatGPT的商業(yè)化,還有想象空間嗎?
黃民烈看好ChatGPT的應用落地,他認為,應該把ChatGPT看作是一個通用智能助手,作為工具去做比如說輔助寫作和創(chuàng)作、檢查代碼。
“它不僅能夠像過去Siri那樣,接個電話、發(fā)個微信,只能完成非常有限的簡單任務,現(xiàn)在它可以完成一些更復雜、更高級、更偏認知性的任務,比如說寫一封情書,寫一首歌,寫一個文章,甚至還能夠回答非常復雜的問題,比如說炒股的我應該買什么樣的股票。”黃民烈認為,它是對于過去的某些能力的極大延伸和取代。
車萬翔教授則指出,這是一個需要“開腦洞”的問題,作為搜索引擎的補充,只是它可能的應用前景之一。而如果把ChatGPT看作一個通用人工智能,它就可以在各行各業(yè)發(fā)揮用處,比如智能教育,它可以是一個很好的AI助教;智能金融,它可以對年報做智能分析;甚至智能醫(yī)療,也可以用它去代替醫(yī)生做一些瑣碎的事。“只要AI能發(fā)揮作用的行業(yè),它(ChatGPT)至少都能把目前的系統(tǒng)能力進一步提升,這真是很大的應用前景。”
而在前景落成現(xiàn)實之前,通用的人工智能如何確保結(jié)果可信可靠則成為關鍵問題。
AI大模型將迎來激烈競賽?
ChatGPT的驚艷問世也給AIGC(Artificial Intelligence Generated Content,人工智能生成內(nèi)容)的應用帶來了更多的希望。港股、A股市場上,已有多家相關上市公司應聲上漲。
12月7日,美圖公司當天漲幅一度高達45.83%,創(chuàng)近一年來新高。截至收盤,該公司漲幅為24.17%;A股市場上,天娛數(shù)科股價在當天漲停,中文在線收漲3.89%,視覺中國收漲2.8%,漢王科技則在12月5日和7日收獲兩個漲停板。
浙商證券分析認為,ChatGPT模型的出現(xiàn)對于文字模態(tài)的AIGC應用具有重要意義。從下游相關受益應用來看,包括但不限于代碼機器人、小說衍生器、對話類搜索引擎、語伴、語音工作助手、對話虛擬人等;從上游增加需求來看,包括算力、數(shù)據(jù)標注、自然語言處理(NLP)等。具體到投資標的包括中文在線、騰訊控股、百度集團、閱文集團、藍色光標、海天瑞聲、拓爾思等。
黃民烈向《每日經(jīng)濟新聞》記者指出,ChatGPT是近幾年基于大模型的產(chǎn)品中熱度最高的一款,那么,這樣一款“通用智能助手”,可復制嗎?黃民烈的答案是:有可能。
他進一步表示,復制的核心是需要一個相對強的底座模型+大量的優(yōu)質(zhì)數(shù)據(jù)+專業(yè)的數(shù)據(jù)團隊。目前,國內(nèi)同樣有企業(yè)在做類似的研發(fā),中國交互AI平臺“聆心智能”在本月推出了圖靈世界的首個產(chǎn)品“AI烏托邦”,該系統(tǒng)允許用戶快速定制AI角色,只需要輸入簡單的角色描述,就可以召喚出相應人設的AI,與之進行深度對話和聊天。
AIGC相關產(chǎn)品熱度不斷背后,AI大模型的技術應用日趨成熟。當下,大模型正在成為AI發(fā)展趨勢,是各大巨頭必爭的高地。自2020年OpenAI推出GPT-3以來,AI大模型迎來大爆發(fā),全球各大公司開始了大模型的競賽。目前,包括OpenAI、谷歌、微軟、英偉達、百度、華為、阿里巴巴、浪潮等企業(yè)紛紛參與其中。
據(jù)報道,2020年到2021年,中國大模型數(shù)量從2個增至21個,基本與美國處于同等量級,大幅領先于世界其他各國。在此期間,國內(nèi)還出現(xiàn)了基于昇騰的鵬程、盤古、紫東、太初、悟道等千億甚至萬億級別的大模型。
另據(jù)智谷趨勢分析,目前全球約有30個千億級參數(shù)的大模型,其中美國15個,中國10個。由于大模型對芯片、算力、電力、數(shù)據(jù)要求極高,注定是一個極少數(shù)國家才能參與的游戲。
AI大模型步入爆發(fā)期,而這次ChatGPT之所以引發(fā)行業(yè)關注,黃民烈認為原因在于,大模型本身有很大的能力,但過去行業(yè)都在解決一些單一技能的問題,而ChatGPT的誕生說明,基本的模型能夠衍生出來各種可能的應用場景。
一款能夠解決各行各業(yè)問題的AI,在此之前,行業(yè)為何缺少這方面的嘗試?黃民烈指出,是由于此前時機還沒到。“大模型技術、基座模型的發(fā)展也就是這一兩年的事,同時因為這個東西并不是所有公司都能做,首先,它需要有具備底層模型和算法能力的人,其次需要有大的數(shù)據(jù),最后需要資金,而且還要找到好的技術路徑。”
“我們中國的研究者以及企業(yè)肯定要去思考這樣一些問題:我們能不能做自己的基座模型?能不能做自己的GPT?”黃民烈不認為說我們技術上有多大的差距,差距更多在于大家對這件事的態(tài)度。
他補充道,像OpenAI,他們長期把這事做得非常嚴肅,從提取數(shù)據(jù)到新模型,最后給大家提供API,然后再去清洗數(shù)據(jù)、模型迭代,他們的路徑做得非常扎實。而我們部分企業(yè)可能更多是做一個模型出來之后開源,隨后就沒了下文。也有些公司想去做閉環(huán),但確實燒錢,也需要資本支持。
記者手記:通用人工智能到來前,信任問題待解
通用人工智能,被視為是人工智能研究的一項長期目標。此次ChatGPT橫空出現(xiàn),被一些人視為向通用人工智能邁進的重要一步。從吟詩作賦到寫代碼、檢查代碼,ChatGPT顯示出了人工智能從過去的一個AI工具只能解決單一領域問題,向解決多領域問題的轉(zhuǎn)變。
正如車萬翔教授所認為的,它在某種程度上打破了“思想的桎梏”,沿著這個方向,通用人工智能工具,或許確實離我們又更進一步。
但在此之前,信任度不高,是“ChatGPT”們亟需解決的問題。瑞萊智慧高級產(chǎn)品經(jīng)理張旭東在接受采訪時提示,以ChatGPT為例,其負面風險更多在于這項技術被惡意應用,比如被用于假新聞的生成、故意偽造新聞輿論,對內(nèi)容生態(tài)治理造成影響。另外在某些創(chuàng)作領域,這項技術成為“作弊工具”,造成一定程度上的不公平。而這些風險更多源自使用技術的目標本身,以及技術使用的邊界沒有被加以管控。
負面風險的存在也可能加重人們將其作為工具使用時的不信任,進而影響其未來的商業(yè)化落地應用,這也將是所用的AIGC(人工智能生成內(nèi)容)產(chǎn)品共同面臨的難題。隨著通用人工智能的到來越來越成為可能,如何破除不可信、不可靠難題,也亟待行業(yè)回答。
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP