每日經(jīng)濟(jì)新聞 2023-05-29 23:00:37
每經(jīng)記者 鄭雨航 李孟林 蔡鼎 每經(jīng)編輯 高涵 蘭素英 譚玉涵
近日,國(guó)內(nèi)AI換臉新型詐騙頻發(fā),有人10分鐘被騙430萬(wàn)元,一度沖上熱搜,引發(fā)全網(wǎng)關(guān)注。但利用AI實(shí)施詐騙并不止發(fā)生在中國(guó)。有專家估計(jì),在過(guò)去一年里AI詐騙事件在美國(guó)的同比增幅超過(guò)50%。
自2022年11月ChatGPT引爆生成式AI的熱潮以來(lái),文字、圖像、語(yǔ)音和視頻類的AI技術(shù)加速進(jìn)化,在帶來(lái)生產(chǎn)力革命潛力的同時(shí),也給了犯罪分子強(qiáng)大的工具。幾美元付軟件加幾秒語(yǔ)音就能合成以假亂真的人聲,有專家估計(jì),過(guò)去一年,AI詐騙事件在美國(guó)的同比增幅超過(guò)50%。
除了容易上當(dāng)受騙的老人群體,連有的商業(yè)精英也沒(méi)能躲過(guò)。面對(duì)此類新型詐騙該如何防范?《每日經(jīng)濟(jì)新聞》記者連線倫敦大學(xué)學(xué)院計(jì)算機(jī)科學(xué)家、人工智能專家Peter Bentley教授。
“僅需5美元生成”
4月末的一天,美國(guó)一位叫詹妮弗·德斯特凡諾的女性接到一通陌生電話——“媽媽,我搞砸了!”,電話那頭傳來(lái)其正在外地備戰(zhàn)滑雪比賽的大女兒布里安娜的聲音,不斷向她求救。
“聽(tīng)著,你女兒在我手里,你如果打電話報(bào)警或者告訴其他任何人,我就給她下藥,把她玩夠了就扔她去墨西哥,你永遠(yuǎn)別想再見(jiàn)到她了,”一個(gè)低沉的男人聲音在電話里威脅道,并要求詹妮弗支付100萬(wàn)美元的贖金。
詹妮弗當(dāng)場(chǎng)嚇呆了,其表示拿不出100萬(wàn)美元來(lái),電話那頭的男子“大減價(jià)”到了5萬(wàn)美元。掛斷電話后,詹妮弗旁邊的友人報(bào)了警,并且試圖說(shuō)服她這是一個(gè)騙局,但愛(ài)女心切的母親根本聽(tīng)不進(jìn)去,因?yàn)?ldquo;女兒”的哭泣聲實(shí)在是太真實(shí)。后來(lái),詹妮弗已經(jīng)開(kāi)始和對(duì)方討論轉(zhuǎn)錢(qián)的方式,幸虧女兒及時(shí)打來(lái)電話報(bào)平安才避免了財(cái)產(chǎn)損失。
“當(dāng)母親的能認(rèn)出自己的孩子,就算孩子和我隔著一棟樓,當(dāng)她哭泣時(shí)我也知道那是我的孩子,”回憶起電話里和女兒一模一樣的聲音,詹妮弗仍然感到驚訝。
據(jù)外媒報(bào)道,隨著AI技術(shù)的發(fā)展,犯罪分子能夠僅憑一個(gè)人在社交媒體上數(shù)秒鐘的聲音素材生成遭綁架的對(duì)話片段,以此勒索錢(qián)財(cái),成本可能僅僅需要每月5美元的AI程序使用費(fèi)。
“大型語(yǔ)言模型可以按照任何風(fēng)格編寫(xiě)文本,所以如果你有一些電子郵件或社交媒體交流的樣本,現(xiàn)在很容易讓AI用來(lái)學(xué)習(xí)并假裝成你本人。經(jīng)過(guò)示例訓(xùn)練后,生成式AI算法還可以輕而易舉得生成以假亂真的音視頻。隨著越來(lái)越多的應(yīng)用程序具備這些功能,它變得越來(lái)越容易獲得,”倫敦大學(xué)學(xué)院計(jì)算機(jī)科學(xué)家、人工智能專家Peter Bentley教授對(duì)《每日經(jīng)濟(jì)新聞》表示,“除非我們能提醒每個(gè)人更多地意識(shí)到危險(xiǎn),否則代價(jià)可能是巨大的。”
美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)5月發(fā)布警告,稱不法分子正在利用AI語(yǔ)音技術(shù)偽造緊急情況騙取錢(qián)財(cái)或信息,在新冠疫情期間,此類騙局暴漲了70%。美國(guó)紐約州國(guó)際詐騙問(wèn)題專家Michael Skiba5月對(duì)媒體估計(jì),過(guò)去一年里,美國(guó)AI詐騙的案件數(shù)量同比已經(jīng)上漲了50%到75%之間。
雖利用AI技術(shù)詐騙造成的損失沒(méi)有單獨(dú)統(tǒng)計(jì),但美國(guó)聯(lián)邦調(diào)查局3月公布的年度報(bào)告顯示,2022年美國(guó)網(wǎng)絡(luò)詐騙造成的損失達(dá)103億美元,創(chuàng)下五年來(lái)新高,并指出面向老年人的AI語(yǔ)音騙局是重災(zāi)區(qū)。
AI合成技術(shù)的成熟,在國(guó)內(nèi)爆火的AI孫燕姿翻唱視頻得到淋漓盡致的展示。無(wú)限逼近真實(shí)的AI人聲,意味著不只是家庭主婦或者爺爺奶奶輩才會(huì)被騙,就連商業(yè)精英也難以分辨。
據(jù)Gizmodo報(bào)道,英國(guó)一名能源公司的CEO的聲音被騙子用AI技術(shù)合成,隨后騙子利用合成聲音指導(dǎo)電話轉(zhuǎn)賬,騙取了22萬(wàn)英鎊到自己的匈牙利賬戶。該CEO表示,他后來(lái)自己聽(tīng)到這段AI合成語(yǔ)音時(shí)都震驚了,因?yàn)檫@段語(yǔ)音不僅能模仿他平時(shí)的語(yǔ)調(diào),甚至連他“微妙的德國(guó)口音”特征也模仿到了。
大眾該如何防范?
自ChatGPT引爆生成式AI的熱潮,科技巨頭和創(chuàng)業(yè)公司爭(zhēng)先恐后地推出和升級(jí)AI產(chǎn)品。技術(shù)加速迭代,應(yīng)用越來(lái)越便宜,而監(jiān)管手段和力度一時(shí)難以應(yīng)付,AI詐騙構(gòu)成了迫切的挑戰(zhàn)。
2023年初,微軟推出的新模型VALL·E只需要3秒素材,就可以復(fù)制任何人的聲音,甚至連環(huán)境背景音都能模仿 。ElevenLabs、Murf、Resemble 和Speechify等公司早已提供生成AI語(yǔ)音的服務(wù),包月費(fèi)用最低從幾美元到100美元的高級(jí)套餐不等。
美國(guó)加州大學(xué)伯克利分校的數(shù)字取證學(xué)教授法里德(Hany Farid)表示,一兩年前克隆一個(gè)人的聲音還需要大量的音頻數(shù)據(jù),現(xiàn)在僅需要短視頻里的人聲,AI軟件就可以分析年齡、性別、口音等特質(zhì),然后搜索龐大的聲音數(shù)據(jù)庫(kù),找到類似的聲音并預(yù)測(cè)模式,從而重建個(gè)人的整體類似聲音。“這很可怕,具備釀成大禍的所有條件,”他表示。
據(jù)外媒報(bào)道,詹妮弗也懷疑詐騙者是通過(guò)她女兒的社交賬號(hào)獲取的音頻,她表示,布里安娜有一個(gè)私人TikTok賬號(hào)和一個(gè)公開(kāi)的Instagram賬號(hào),里面包含她滑雪比賽的照片和視頻。
如果AI語(yǔ)音加上同樣成熟的“換臉”技術(shù),“眼見(jiàn)為實(shí)”也很容易成為過(guò)去式。“目前的AI音視頻詐騙,如果你非常仔細(xì)地看和聽(tīng),就可能會(huì)在發(fā)現(xiàn)一些奇怪的‘錯(cuò)誤’或聲調(diào),”Peter Bentley教授表示,“但不幸的是,許多人在使用手機(jī)通話時(shí)使用了音頻過(guò)濾器來(lái)減少噪音,這讓真實(shí)的人可能聽(tīng)起來(lái)像假的,而假的人可能聽(tīng)起來(lái)卻像真的,所以我們目前已經(jīng)不能再假設(shè)我們?cè)谄聊簧峡吹交蚵?tīng)到的任何東西都是真實(shí)的了。”
普通人如何防范被騙?Peter Bentley教授表示,目前還沒(méi)有百分百能夠識(shí)別AI生成和真實(shí)之間區(qū)別的方法。
“所以最好的建議是:保持懷疑,仔細(xì)檢查任何向你要錢(qián)或個(gè)人信息的人,即使‘他’看起來(lái)是一個(gè)值得信賴的朋友或家人。一定要給他們回電話,最好是視頻,或者最好是親自見(jiàn)他們,看看請(qǐng)求是否真實(shí)。如果你需要朋友幫忙,那就親自去找他們談?wù)?。不管怎樣,這才是恰當(dāng)?shù)淖龇ǎ?rdquo;Peter Bentley教授表示。
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP