每日經(jīng)濟新聞 2024-05-11 13:44:01
每經(jīng)編輯 杜宇 每經(jīng)實習編輯 宋欣悅
在美國當?shù)貢r間周四,華裔人工智能科學家、斯坦福大學教授李飛飛現(xiàn)身于在舊金山舉行的彭博科技峰會,與資深科技記者艾米麗·張深入探討了人工智能的安全與倫理等熱點問題。
核心內(nèi)容
1、關于“AI教母”
我從未自詡為任何事物的教母。既然男性可以被稱為各種領域的教父,那么女性也完全可以被譽為教母。因此,我欣然接受了這個榮譽。
2、關于“我們的模型正在耗盡數(shù)據(jù)”
我們?nèi)杂写罅康牟町惢瘮?shù)據(jù)等待挖掘,以構(gòu)建更為定制化的模型。無論是新聞業(yè)、醫(yī)療保健,還是其他不同的企業(yè)垂直領域,都有豐富的數(shù)據(jù)尚未被充分利用。
3、關于“絕大多數(shù)人對科技公司持懷疑態(tài)度”
我的信任并不是建立在單一的企業(yè)或個體之上,而是建立在由我們共同構(gòu)建的集體系統(tǒng)和機構(gòu)之上。
4、關于人工智能的風險
我更關注的是那些更為緊迫的、災難性的社會風險。我也擔憂關于人類滅絕風險的過度炒作。它們更像是科幻小說中的情節(jié)。
5、關于開源人工智能運動
我們倡導這種開放的生態(tài)系統(tǒng)是非常必要的。
李飛飛在舊金山彭博科技峰會與記者談話 圖片來源:截圖于Youtube
在訪談中,李飛飛首先對被賦予“AI教母”這一稱號,展現(xiàn)出開放的態(tài)度,她提到:“雖然這并非我個人的追求,但它確實反映了我們對女性在科技領域中領導力的認可需求。我希望這能成為一個催化劑,激勵更多女性站上科技的舞臺,共同塑造這個行業(yè)的多元未來。”
談及ImageNet項目,李飛飛分享了她在2007年啟動這一項目時的初衷:“是基于一種預見——大數(shù)據(jù)將會成為人工智能發(fā)展的核心驅(qū)動力。”ImageNet不僅驗證了數(shù)據(jù)驅(qū)動方法的有效性,還促進了深度學習技術的突破,成為AI研究的一個轉(zhuǎn)折點。她強調(diào),“在科研道路上,既要有敢為人先的膽識,也要有腳踏實地的實踐。”
針對人工智能倫理和政策,李飛飛明確指出:“我們必須清醒地認識到,AI的進步如同雙刃劍,它在帶來便捷與效率的同時,也可能引發(fā)隱私泄露、就業(yè)結(jié)構(gòu)變化等復雜問題。因此,加強公眾教育,提高對AI技術的普遍理解,以及建立一套透明且負責任的監(jiān)管體系,是保護社會福祉不可或缺的部分。”
李飛飛在舊金山彭博科技峰會與記者談話 圖片來源:截圖于Youtube
在展望數(shù)據(jù)與合成數(shù)據(jù)的前景時,李飛飛教授指出,雖然存在數(shù)據(jù)耗竭的擔憂,但實際上還有大量未被充分利用的數(shù)據(jù)資源,特別是在特定領域。她認為,合成數(shù)據(jù)的應用雖充滿潛力,但也伴隨著管理和倫理上的挑戰(zhàn),要求我們在創(chuàng)新與安全之間找到合適的平衡點。
對于外界關注的可能創(chuàng)業(yè)項目,李飛飛保持了一貫的神秘感,僅透露:“新的冒險總是在醞釀中,但更重要的是它們?nèi)绾文苷嬲苿蛹夹g向善,為社會帶來正面的影響。”
在討論人工智能的信任危機時,她強調(diào):“建立AI的公信力,意味著我們需要通過強有力的制度來保障技術的透明度和可靠性。適度的監(jiān)管,尤其是在涉及公共安全的領域,是必要的,它能指引技術走向更有利于社會的方向。”
以下為李飛飛與主持人的對話全文:
問:“AI教母”,你如何看待這個賦予你的特別稱呼?
李飛飛:我從未自詡為任何事物的教母,但當這個稱號賦予我時,我確實對其進行了反思。隨后,我意識到,既然男性可以被稱為各種領域的教父,那么女性也完全可以被譽為教母。因此,我欣然接受了這個榮譽。
問:作為我們時代最具影響力的計算機科學藝術家之一,你發(fā)表了數(shù)百篇學術論文,并創(chuàng)建了ImageNet數(shù)據(jù)庫,為現(xiàn)代人工智能的發(fā)展奠定了基礎。在你創(chuàng)建ImageNet之初,你有預見到它會有如此深遠的影響嗎?
李飛飛:ImageNet的構(gòu)思始于2007年,它可能是大數(shù)據(jù)在人工智能算法中作用的一個關鍵轉(zhuǎn)折點。從科學的角度出發(fā),我堅信大數(shù)據(jù)將徹底改變我們研究人工智能的方式。然而,我從未設想過大數(shù)據(jù)、神經(jīng)網(wǎng)絡和GPU之間的完美融合,這種融合基本上催生了現(xiàn)代人工智能的崛起。至于它所帶來的進步速度,更是我未曾預料的。
問:你正與喬·拜登總統(tǒng)(Joe Biden)、山姆·阿爾特曼(Sam Altman,OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官)、桑達爾·皮查伊(Sundar Pichai,谷歌及其母公司Alphabet首席執(zhí)行官)、薩提亞·納德拉(Satya Nadella,微軟首席執(zhí)行官)等可能決定這項技術未來的環(huán)境中工作。你在國會作證,并成為總統(tǒng)特別顧問團隊的一員。對于那些手握大權的人,你最想傳達的信息是什么?
李飛飛:事實上,我傳遞的信息與我在K12夏令營或斯坦福大學活動中所強調(diào)的并無二致。我們介紹AI課程時,旨在讓大家認識到這項技術的本質(zhì),了解它是什么,以及如何在最負責任、最深思熟慮的方式下使用它。我們應該接受它,因為它是一種正在改變我們文明的橫向技術,帶來了諸多益處,如加速科學發(fā)現(xiàn)、幫助我們找到癌癥的治療方法、繪制生物多樣性圖譜以及發(fā)現(xiàn)新材料等。但同時,我們也必須認識到人工智能所有可能的后果和潛在的非預期影響,以及如何負責任地開發(fā)和部署這項技術。我認為,在當今的談話中,無論是在白宮還是在校園里,保持更多的平衡和深思熟慮都是至關重要的。
問:我們身處的這個時代,我不確定這是否會被視為一個危機或轉(zhuǎn)折點,但人工智能模型似乎正在耗盡我們用于訓練的數(shù)據(jù)。因此,一些公司開始轉(zhuǎn)向人工智能生成的數(shù)據(jù)和合成數(shù)據(jù)作為訓練模型的新途徑。你對此有何看法?這個問題有多嚴重?潛在的風險是什么?我們又該如何應對?
李飛飛:首先,關于“我們的模型正在耗盡數(shù)據(jù)”這一觀點,我認為它過于狹隘了。我明白你指的是那些大語言模型(LLM)正在消耗互聯(lián)網(wǎng)上的大量數(shù)據(jù),特別是來自網(wǎng)站、Reddit、維基百科等公開資源。但即便僅從語言模型的角度來看,我們?nèi)杂写罅康牟町惢瘮?shù)據(jù)等待挖掘,以構(gòu)建更為定制化的模型。無論是新聞業(yè)、醫(yī)療保健,還是其他不同的企業(yè)垂直領域,都有豐富的數(shù)據(jù)尚未被充分利用。事實上,許多行業(yè)尚未全面進入數(shù)字時代,我們尚未觸及的數(shù)據(jù)領域還很多,如醫(yī)療保健、環(huán)境、教育等。因此,我并不認為我們正在耗盡數(shù)據(jù)。
問:對于現(xiàn)在越來越多地使用人工智能生成的數(shù)據(jù)來訓練模型,你認為這是好事還是壞事?這會不會讓我們與原始數(shù)據(jù)來源漸行漸遠,甚至可能帶來風險?
李飛飛:這個問題其實比我們想象的要復雜得多。生成數(shù)據(jù)的方法多種多樣。例如,在我的斯坦福實驗室中,我們進行了大量的機器人研究和機器人學習。在這些領域,數(shù)據(jù)的重要性不言而喻,因為有時我們難以收集到足夠的人類生成數(shù)據(jù),如動作等。模擬數(shù)據(jù)在這種情況下就顯得尤為重要。至于是否會使我們走上危險的道路,我認為關鍵在于我們?nèi)绾问褂眠@些數(shù)據(jù)。即使使用人類生成的數(shù)據(jù),也存在風險;同樣地,模擬數(shù)據(jù)也存在潛在風險。關鍵在于我們是否以負責任、深思熟慮的方式去利用這些數(shù)據(jù)。此外,關于人類數(shù)據(jù)的整體情況,我們還需要考慮更多因素,如暗網(wǎng)等。因此,問題的核心不在于數(shù)據(jù)的來源是模擬還是真實,而在于我們?nèi)绾喂芾砗褪褂眠@些數(shù)據(jù)。
問:你正在涉足炙手可熱且競爭激烈的人工智能創(chuàng)業(yè)領域,據(jù)傳你正在籌備一家新公司。能否透露一些相關信息?
李飛飛:很抱歉,不能。
問:最近我們進行了一項關于人工智能時代信任度的民意調(diào)查。調(diào)查結(jié)果顯示,沒有人完全信任科技公司能夠安全、可靠地開發(fā)人工智能,絕大多數(shù)人對這些公司持懷疑態(tài)度。如果你需要給大型人工智能公司排名,你最信任的是哪一家?最不信任的又是哪一家?
李飛飛:我的信任并不是建立在單一的企業(yè)或個體之上,而是建立在由我們共同構(gòu)建的集體系統(tǒng)和機構(gòu)之上。因此,這可能是一個具有挑戰(zhàn)性的問題。我不會點名指出我最信任或最不信任的是哪一家公司。
問:在人工智能領域,我們是否也在構(gòu)建這樣的集體系統(tǒng)?
李飛飛:確實,至少我們在斯坦福的人類中心研究所正在為此努力。我認為許多人都在嘗試這樣的路徑。我常常自問,我們還有希望嗎?盡管這是一個令人深思的問題,但我要說的是,我的希望并不寄托在我個人的希望上,而是寄托在人的力量上。我不是一個盲目樂觀的人,但人是復雜的,我們都有著共同的特質(zhì)。希望在于人,在于我們共同的意志和責任感。許多事情正在發(fā)生,我們都在行動。許多人都在致力于將這項技術打造成一項可以信賴的、能夠造福全人類的文明技術。
問:關于人工智能的風險,人們常常提到諸如人類滅絕、惡意利用者以及種族偏見等嚴重問題。你最擔憂的是哪一個?
李飛飛:我更關注的是那些更為緊迫的、災難性的社會風險。我也擔憂關于人類滅絕風險的過度炒作。我認為這些擔憂已經(jīng)失控了,它們更像是科幻小說中的情節(jié),雖然它確實引發(fā)了我們的思考。
問:Meta正在引領開源人工智能運動。在你看來,哪些技術應該開放,哪些技術又應該保持封閉?
李飛飛:我認為,過去幾百年或一百年的美好之處就在于創(chuàng)新和創(chuàng)業(yè)以及信息的自由交流。因此,我們倡導這種開放的生態(tài)系統(tǒng)是非常必要的。
問:在人工智能領域,你認為有哪些重要但未被廣泛討論的話題?我們應該開始關注什么?
李飛飛:這實際上是一個很長的列表。我們應該更多地討論我們?nèi)绾握嬲O想并應用這項技術。我與醫(yī)生、生物化學家、游客、藝術家和農(nóng)民等各行各業(yè)的人交談過。我們可以想象到,人工智能有很多潛在的應用方式,它可以極大地改善人們的生活,使工作更加高效。但我認為我們并沒有充分討論這些方面。我們過于關注災難性的一面,而且只有少數(shù)人在討論這些。然而,媒體卻往往放大了這些擔憂。我認為我們并沒有給予那些真正以最具想象力、最富有創(chuàng)造性的方式嘗試利用這項技術為世界帶來好處的人足夠的聲音。
問:在你看來,有沒有哪些人或公司讓你覺得他們的言論或行為簡直是“胡說八道”?
李飛飛:對于“胡說八道”這個描述,我認為它主要指向那些過度強調(diào)生存滅絕危機的言論。我尤其擔憂美國某些地區(qū),比如加州的某些法案,它們可能出于良好的初衷,但過度強調(diào)這一點,限制了模型的發(fā)展,甚至可能無意中將開源定為犯罪,并且沒有真正考慮如何評估和衡量這些模型的潛在影響,這確實讓我感到憂慮。
問:你認為我們是否可能過度監(jiān)管人工智能領域?
李飛飛:確實,我們可能會以某種方式過度監(jiān)管,正如過去我們所經(jīng)歷的一些情況那樣,這可能會傷害到整個生態(tài)系統(tǒng)。然而,在醫(yī)療保健、交通和金融等實際應用領域,我們也需要考慮適當?shù)谋Wo措施,確保技術的健康發(fā)展。
問:你和拜登總統(tǒng)討論過人工智能的相關問題嗎?因為我知道你有向他匯報的線路。
李飛飛:關于我與拜登總統(tǒng)的談話內(nèi)容,我可以與你分享一些。我們確實討論了對公共部門人工智能進行“登月式”投資。你知道,我們身處硅谷的中心,這里匯聚了所有的資源,包括人才、數(shù)據(jù)和算力,但這些都主要集中在私營部門。事實上,大型科技產(chǎn)業(yè)與美國的公共部門學術界在資源方面正逐漸失衡。例如,斯坦福大學自然語言處理實驗室只有64個GPU,這種對比令人震驚。因此,我們討論了如何為公共部門提供資源,因為公共部門是美國創(chuàng)新的重要引擎,它提供公共產(chǎn)品,產(chǎn)生科學發(fā)現(xiàn),并為公眾提供值得信賴、負責任的技術評估和解釋。
問:最后一個問題,你一直非常關注人工智能領域中的性別和種族平等問題。你認為這個問題有多嚴重?如果不加以解決,將會帶來什么后果?
李飛飛:你一直在這個問題上發(fā)出強烈的聲音。事實上,我們在人工智能領域中的女性和少數(shù)族裔的聲音還不夠響亮。盡管我們看到越來越多的女性和不同背景的人進入科技和人工智能領域,但我們也看到,他們的聲音往往被忽視或低估。我們需要認識到,這些年輕女性、來自不同背景的科技人員,他們的聲音和觀點同樣重要。如果我們不給予他們足夠的關注和機會,我們就是在浪費寶貴的人力資本。這些人是杰出的思想家、創(chuàng)新者、技術專家、教育家、發(fā)明家和科學家,他們的聲音和想法對人工智能的未來發(fā)展至關重要。如果我們不讓他們發(fā)聲,不聽取他們的想法,不提升他們的地位,我們就是在浪費我們共同的人力資本。
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP