每日經(jīng)濟新聞 2023-09-20 21:53:59
譚建榮指出,要防范生成式AI帶來的社會價值風險、用戶使用風險、數(shù)據(jù)合規(guī)風險、數(shù)據(jù)安全風險和數(shù)據(jù)質(zhì)量風險,將大模型“用活、用好”,跟社會治理、數(shù)據(jù)治理以及人民對美好生活的追求更好的結(jié)合。
每經(jīng)記者 淡忠奎 每經(jīng)編輯 楊歡
圖片來源:每經(jīng)記者 淡忠奎 攝
“它(生成式AI)跟以前的人工智能有什么不同呢?過去我們搞的很多人工智能應(yīng)用基本都不能通過圖靈測試,但是生成式人工智能輕易通過,ChatGPT寫的文章比一般秘書寫得還好,你分不清是人寫的還是機器寫的。很多文科的專業(yè)像翻譯,也包括理工科對某個事的分析、判斷以及實際的解決方案,都可以用生成式人工智能來解決。”
9月20日下午,2023成都創(chuàng)新創(chuàng)業(yè)交易會人工智能前沿科技成果轉(zhuǎn)化對接活動上,中國工程院院士、中國大數(shù)據(jù)技術(shù)與產(chǎn)業(yè)聯(lián)盟理事長譚建榮做了題為《生成式人工智能及其風險防范:關(guān)鍵技術(shù)與發(fā)展趨勢》,分享了自己對生成式人工智能最新發(fā)展趨勢以及風險防范的思考。
他認為,生成式人工智能積累了很多階段,現(xiàn)在集中爆發(fā)了,“特別是用于生成文本、圖像、音頻、視頻和代碼”。在生成式人工智能時代,每個人都將成為作家、制片人和導演等,至少現(xiàn)在每個人成為作家已經(jīng)“不是很遙遠,部分已經(jīng)實現(xiàn)”。
與此同時,也要防范生成式AI帶來的社會價值風險、用戶使用風險、數(shù)據(jù)合規(guī)風險、數(shù)據(jù)安全風險和數(shù)據(jù)質(zhì)量風險,將大模型“用活、用好”,跟社會治理、數(shù)據(jù)治理以及人民對美好生活的追求更好的結(jié)合。
在譚建榮看來,人工智能最簡潔的表述就是“計算機思維,或者計算機模擬人的思維”。如何判斷?就是靠著名的圖靈測試,簡單而言“就是人機對話放出來,你分不清哪一句是人說的,哪一句是機器說的。這時候我們就說機器有思維了”。
他認為,生成式人工智能需要深厚的技術(shù)積淀,包括高性能訓練與推理、復(fù)雜環(huán)境支持、多樣訓練方式、豐富算法集成、多語言支持和低成本接入訓練等。比如,ChatGPT、Lens Studio以及國內(nèi)的文心一言、華為盤古等典型示例。
“不僅能夠?qū)懳恼?,而且能作曲、畫畫等。很多文科的專業(yè)像翻譯,也包括理工科對某個事的分析、判斷以及實際的解決方案,都可以用生成式人工智能來解決。”譚建榮認為,信息技術(shù)的推進在三個方面非常令人震驚,確實是顛覆性技術(shù)。其中,第一項就是生成式人工智能。第二項則是元宇宙數(shù)字空間,要打造一個虛擬現(xiàn)實、增強現(xiàn)實和數(shù)字孿生等在內(nèi)的虛擬空間,“我們每個人在數(shù)字空間里都有一個虛擬化身。”
在他看來,生成式人工智能、元宇宙數(shù)字空間和擬人化機器人三項技術(shù)交叉融合發(fā)展,將是一個顛覆性技術(shù)。甚至有觀點認為,這樣將會產(chǎn)生人類2.0版本,完全自動化、人機一體化。“生成式人工智能能夠生成內(nèi)容、生成解決方案,或者通過深度學習、神經(jīng)網(wǎng)絡(luò)等算法,通過大量數(shù)據(jù)的訓練,使得計算機能夠像人類一樣思考和創(chuàng)作。”
生成式人工智能擁有六大能力,包括分析能力、學習能力、判斷能力、創(chuàng)造能力、預(yù)測能力和寫作能力。它能積累了很多階段,現(xiàn)在集中爆發(fā)了,“特別是用于生成文本、圖像、音頻、視頻和代碼”。
譚建榮舉了一個例子——過去我們要拍照片可能就要請專業(yè)攝影師,因為沒有經(jīng)過訓練搞不清快門、焦距、光圈等等。但是現(xiàn)在手機上有個智能系統(tǒng)就知道具體環(huán)境下感光是多少,焦距應(yīng)該怎么調(diào),所以現(xiàn)在每個人都是攝影師。
“在生成式人工智能時代,我們每個人都將是作家,每個人將作為制片人,每個人將成為導演,“我們現(xiàn)在都每個人成為作家,已經(jīng)不是很遙遠,部分已經(jīng)實現(xiàn)了。”他說。
“任何技術(shù)都是雙面的。生成式人工智能有很多應(yīng)用,但是也有一些風險。”譚建榮表示,生成式人工智能有五大風險。
其中包括,社會價值風險、用戶使用風險、數(shù)據(jù)合規(guī)風險、數(shù)據(jù)安全風險、數(shù)據(jù)質(zhì)量風險。以用戶使用風險為例,機器深度學習后生成的內(nèi)容能夠達到“以假亂真”的效果,而且人工智能應(yīng)用的門檻在不斷降低,“一旦被惡意使用,將會給個人和社會造成安全風險和實質(zhì)性傷害”。
而模型基于學習需要對用戶的數(shù)據(jù)留存、分析可能侵犯個人和商業(yè)隱私、版權(quán)和著作權(quán)以及相關(guān)數(shù)據(jù)保護法案。
那么,如何制定防范措施呢?譚建榮認為,我們首先要制定能力的政策,包括公正、透明、隱私保護等方面。切實保證AI的合理使用,尊重他人的合法權(quán)利,防止對他人身心健康的傷害,“包括肖像權(quán)、名譽權(quán)和個人隱私的損害等。”
第二,還要建立責任的機制,包括社會主義核心價值觀等,比如不能歧視少數(shù)民族,不能歧視老年人,不能歧視婦女和小孩等;第三,是要投資AI的安全研究。我們過去對網(wǎng)絡(luò)安全已經(jīng)有很多研究,做了很多防火墻,但是對人工智能安全的研究還相對較少,“一些詐騙團伙也開始利用一些人工智能技術(shù)詐騙,很難提防”;第四,還要限制人工智能的濫用,制定法律法規(guī)限制生成式人工智能(GAI)的濫用,比如使用GAI進行欺詐、惡意攻擊等活動要受到法律的制裁。
除此之外,還要增加問責制,包括知識產(chǎn)權(quán)的風險、算法的風險、數(shù)據(jù)安全和個人信息保護的風險、能力道德的風險等。“整個生成式人工智能是一項新的制度,很多方面還在有待探索。包括很多公司在中國發(fā)布了很多大模型,但是很多大模型的應(yīng)用案例還沒有看到。”他說。
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP