每日經(jīng)濟新聞 2024-10-09 00:05:54
◎ 10月8日,計算機科學(xué)家約翰·霍普菲爾德和杰弗里·辛頓被授予諾貝爾物理學(xué)獎,因他們?yōu)闄C器學(xué)習(xí)奠定基礎(chǔ),為AI鋪平道路。但這一獎項的公布讓外界驚呼:物理學(xué)不存在了!就連“AI教父”辛頓本人也對獲獎表示驚訝。面對疑問,諾貝爾獎官方不得不“下場”,在X平臺上解釋,機器學(xué)習(xí)模式也是基于物理方程。
每經(jīng)記者 鄭雨航 每經(jīng)實習(xí)記者 岳楚鵬 每經(jīng)編輯 蘭素英
2024年諾貝爾物理學(xué)獎讓許多人驚呼——物理學(xué)不存在了!因為它頒給了計算機科學(xué)家約翰?霍普菲爾德(John J. Hopfield)和杰弗里?辛頓(Geoffrey E. Hinton),理由是他們?yōu)闄C器學(xué)習(xí)奠定了基礎(chǔ),為今天包括ChatGPT在內(nèi)的人工智能(AI)鋪平了道路。
毫無疑問,這一結(jié)果讓很多人出乎意料,因為機器學(xué)習(xí)并非傳統(tǒng)物理學(xué)的分支領(lǐng)域。有網(wǎng)友調(diào)侃稱,這是把圖靈獎該干的活兒干了吧,也有科學(xué)家表達了不解,“人工神經(jīng)網(wǎng)絡(luò)對物理學(xué)研究產(chǎn)生了深遠的影響,但可以說它們本身就是物理學(xué)研究的成果嗎?”
面對外界的疑問,諾貝爾獎官方不得不在X平臺上回應(yīng):“您是否知道機器學(xué)習(xí)模式是基于物理方程的?”同時,諾貝爾獎委員會也表示,利用人工神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)能夠快速理解大量數(shù)據(jù),已經(jīng)在科學(xué)研究中發(fā)揮了重要作用,包括在物理學(xué)領(lǐng)域,它被用于創(chuàng)造“具有特定屬性的新材料”。諾貝爾物理學(xué)委員會成員Anders Irbäck教授盛贊道:“他們都是真正的先驅(qū)者,尋找到了解決問題的新方法。”
其實,不單是“吃瓜群眾”,作為獲獎?wù)咧坏男令D本人也是一臉驚訝,“完全沒想到會發(fā)生這種事。”
在獲獎之余,辛頓還就AI安全發(fā)出了警告。他認為,擁有比人類更聰明的技術(shù)“在很多方面都是好事”,但“這一切的后果可能是,比我們更聰明的系統(tǒng)最終會掌控一切”。
圖片來源:諾貝爾獎委員會X平臺賬號
北京時間10月8日下午5點45分,美國和加拿大科學(xué)家約翰·霍普菲爾德和被外界稱為“AI教父”的杰弗里·辛頓被授予諾貝爾物理學(xué)獎,以表彰他們通過人工神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí)的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明,幫助計算機以更接近人腦的方式學(xué)習(xí),為AI的發(fā)展奠定了基礎(chǔ)。
該獎項是對AI在人們生活和工作方式中日益重要的地位的認可。諾貝爾物理學(xué)委員會主席艾倫·穆恩斯(Ellen Moons)表示:“獲獎?wù)叩墓ぷ饕呀?jīng)帶來了巨大的好處。在物理學(xué)中,我們在廣泛的領(lǐng)域使用人工神經(jīng)網(wǎng)絡(luò),例如開發(fā)具有特定性能的新材料。”
諾貝爾獎委員會在X平臺上的帖子上表示,霍普菲爾德博士和辛頓博士的突破“立足于物理科學(xué)的基礎(chǔ)之上”,“他們?yōu)槲覀冋故玖艘环N全新的方式,讓我們能夠利用計算機來幫助和指導(dǎo)我們應(yīng)對社會面臨的許多挑戰(zhàn)”。
不過這一結(jié)果也讓無數(shù)網(wǎng)友大吃一驚,之前誰也沒料到諾貝爾物理學(xué)獎居然會頒給計算機科學(xué)相關(guān)的研究。有網(wǎng)友驚呼,“這是個玩笑嗎?這應(yīng)該是圖靈獎該干的事兒呀。”
不單是網(wǎng)友,也有科學(xué)家表示不解。南安普頓大學(xué)計算機科學(xué)家、聯(lián)合國AI顧問溫迪·霍爾教授表示,她對這一獎項的頒發(fā)感到驚訝。“諾貝爾獎沒有設(shè)立計算機科學(xué)獎,以這種方式來頒發(fā)此獎是一種有趣的方式,但似乎有點牽強,”她說。“顯然,人工神經(jīng)網(wǎng)絡(luò)對物理學(xué)研究產(chǎn)生了深遠的影響,但可以說它們本身就是物理學(xué)研究的成果嗎?”
面對外界的疑問,諾貝爾獎官方都不得不在X平臺上解釋說:“您是否知道機器學(xué)習(xí)模式是基于物理方程的?”
圖片來源:X平臺
其實,不單是外界,獲獎?wù)咝令D本人都沒想到自己能夠“跨界”獲得諾貝爾物理學(xué)獎。
他在接到諾貝爾獎委員會的電話時說道:“我完全沒想到會發(fā)生這種事。”當(dāng)時他正在加州一家“廉價酒店”,他表示,這消息簡直是“出乎意料”。“我本來打算今天去做核磁共振掃描,但我覺得我不得不取消了。”
辛頓出生于倫敦郊外,自20世紀70年代末以來,他大部分時間都生活和工作在美國和加拿大。
20世紀70年代初,辛頓在愛丁堡大學(xué)讀研究生時開始研究神經(jīng)網(wǎng)絡(luò),當(dāng)時很少有研究人員認為這個想法會成功。直到2012年,他終于與其學(xué)生一起取得了突破。2013年,辛頓加入了谷歌,到2023年5月,他從谷歌離職。自那以后,他持續(xù)公開呼吁謹慎對待AI技術(shù),成為旨在引導(dǎo)AI系統(tǒng)、使其行為符合設(shè)計者利益和預(yù)期目標(biāo)的“AI對齊派”的代表。
2019年,辛頓與蒙特利爾大學(xué)計算機科學(xué)教授約書亞·本吉奧(Yoshua Bengio)和Meta首席AI科學(xué)家楊立昆(Yann LeCun)因在神經(jīng)網(wǎng)絡(luò)方面的工作共同獲得了圖靈獎,該獎通常被譽為“計算機界的諾貝爾獎”。
相較于辛頓,霍普菲爾德則是一個正統(tǒng)的物理學(xué)家,因在計算機科學(xué)、生物學(xué)和物理學(xué)領(lǐng)域的開創(chuàng)性研究而聞名。他如今在普林斯頓大學(xué)擔(dān)任名譽教授。
霍普菲爾德于1933年生于美國伊利諾伊州芝加哥,1958年在貝爾實驗室開始了他的職業(yè)生涯,主要研究固體物質(zhì)的特性。1961年,他以助理教授的身份前往加州大學(xué)伯克利分校,并于1964年加入普林斯頓大學(xué)物理系。十六年后,他前往加州理工學(xué)院擔(dān)任化學(xué)和生物學(xué)教授,并于1997年回到普林斯頓大學(xué),在分子生物學(xué)系任職。
20世紀80年代時,霍普菲爾德的工作重點是研究大腦過程如何指導(dǎo)機器保存和復(fù)制模式。1982年,他開發(fā)了一種神經(jīng)網(wǎng)絡(luò)模型來描述大腦是如何進行聯(lián)想、回憶的,即霍普菲爾德網(wǎng)絡(luò),這使得機器能夠使用人工神經(jīng)網(wǎng)絡(luò)“存儲”記憶,構(gòu)成了現(xiàn)在所有神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)。
根據(jù)瑞典皇家科學(xué)院的公告,辛頓以霍普菲爾德網(wǎng)絡(luò)為基礎(chǔ),發(fā)明了一個采用不同方法的新網(wǎng)絡(luò):玻爾茲曼機(the Boltzmann machine),通過輸入機器運行時很可能出現(xiàn)的示例來訓(xùn)練機器。玻爾茲曼機可用于對圖像進行分類,或創(chuàng)建訓(xùn)練模式類型的新示例。辛頓在此基礎(chǔ)上繼續(xù)發(fā)展,幫助開啟了機器學(xué)習(xí)的爆炸式發(fā)展。他在神經(jīng)網(wǎng)絡(luò)方面的開創(chuàng)性研究為ChatGPT等AI系統(tǒng)鋪平了道路。
更值得一提的是,OpenAI聯(lián)合創(chuàng)始人、前首席科學(xué)家伊爾亞·蘇茨克維(Ilya Sutskever)也是辛頓的學(xué)生。他們兩人和另一名計算機科學(xué)家亞歷克斯·克里澤夫斯基(Alex Krizhevsky)還一起發(fā)明了卷積神經(jīng)網(wǎng)絡(luò)AlexNet。
雖然辛頓因為其在機器學(xué)習(xí)領(lǐng)域的研究獲得了諸多殊榮,但現(xiàn)在的他更多的精力集中在推動AI安全發(fā)展上。在諾貝爾獎委員會向其宣布獲獎喜訊時,他也不忘就AI技術(shù)的危險性向外界發(fā)出警告。
辛頓擔(dān)憂地表示:“我認為它(AI)將產(chǎn)生巨大的影響。它將與工業(yè)革命相媲美,它不會在體力上超越人類,而是會在智力上超越人類。”
辛頓表示,擁有比人類更聰明的技術(shù)“在很多方面都是好事”,這將帶來醫(yī)療保健的大幅改善、更好的數(shù)字助理以及生產(chǎn)力的大幅提升。“但我們也必須擔(dān)心一些可能的不良后果,尤其是這些事情失控的威脅,”他補充道。“我擔(dān)心,這一切的后果可能是,比我們更聰明的系統(tǒng)最終會掌控一切。”
今年五月,辛頓接受記者采訪的時候甚至直白地稱,“很難想象如何阻止壞人利用它(AI)做壞事”。他表示,“未來5年~20年,AI有一半概率比人類聰明。當(dāng)它們比我們更聰明時,我不知道我們被接管的可能性有多大,但在我看來,這很有可能。”
伴隨著AI的飛速發(fā)展,人們對其安全性的憂慮在不斷上升。
今年6月,13位來自O(shè)penAI和谷歌的現(xiàn)任及前任員工聯(lián)合發(fā)布了一封公開信,表達了對AI技術(shù)潛在風(fēng)險的嚴重擔(dān)憂,并呼吁相關(guān)公司采取更加透明和負責(zé)任的措施來應(yīng)對這些風(fēng)險。
這封信也得到了辛頓的背書,信中指出,盡管AI技術(shù)可能會給人類帶來巨大益處,但其帶來的風(fēng)險同樣不容忽視。這些風(fēng)險包括加劇社會不平等、操縱和虛假信息傳播,以及自主AI系統(tǒng)失控可能導(dǎo)致的人類滅絕。
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP