每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

用膠水粘披薩、吃石頭獲取營養(yǎng)……谷歌的AI產(chǎn)品又“翻車”了,這次還很離譜!背后暴露的是AI行業(yè)的“致命”問題

每日經(jīng)濟新聞 2024-05-28 13:17:42

每經(jīng)記者 蔡鼎    每經(jīng)編輯 程鵬 蘭素英    

本月中旬,谷歌在其年度開發(fā)者大會I/O上宣布了多年來全球搜索領域的最大變革:將其最新的AI模型植入了搜索引擎,試圖一次追趕競爭對手微軟和OpenAI。

然而,谷歌這項名為“AI Overview(以下簡稱‘AI概述’)”的AI搜索功能一上線卻遭遇了“花式翻車”,“建議用戶用膠水將芝士固定在披薩上”“推薦攝入石頭獲取營養(yǎng)”等一連串荒謬的回答不僅讓谷歌十分尷尬,也在網(wǎng)上掀起了軒然大波。

對此,谷歌發(fā)言人表示,谷歌正在利用這些“孤立的”例子對其系統(tǒng)進行更廣泛的改進。

實際上,《每日經(jīng)濟新聞》記者發(fā)現(xiàn),這并不是谷歌AI產(chǎn)品首次“翻車”。去年首推對標ChatGPT的聊天機器人Bard在demo視頻中犯下事實性錯誤,讓市值一夜暴跌。前段時間,Gemini大多數(shù)情況下無法生成白人圖像,且對歷史人物的描繪也不準確,也在全網(wǎng)掀起軒然大波。

有觀點指出,目前谷歌“AI概述”面臨的尷尬之處在于,以前只要AI生成的信息是錯誤的,那責任便可以“甩鍋”給檢索出來的網(wǎng)站,現(xiàn)在谷歌要自己承擔虛假信息和錯誤信息的責任,哪怕是AI生成的。除了錯誤和截流其他網(wǎng)站外,谷歌“AI概述”也被指存在“規(guī)模化的剽竊”等風險。

CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png上線便“花式翻車”

甚至教唆“跳橋”?

谷歌表示,通過使用“AI概述”,用戶將能夠從Gemini的強大能力中獲益,從而減少搜索信息的部分工作。

然而,“AI概述”還沒來得及顛覆搜索領域,便已經(jīng)制造了不少令人啼笑皆非的“笑料”。

科技媒體The Verge的記者Kylie Robison就在其署名文章中舉了一個例子對這項新功能進行了諷刺。文章稱,當用戶準備享用自制披薩時,卻遇到芝士會滑落的問題,沮喪的用戶開始查詢谷歌搜索解決方案,然而,AI Overviews的回答是,“加點膠水”,并“貼心”地給出了“操作方法”:“將大約1/8杯Elmer's膠水與醬汁混合。無毒膠水就可以?!北M管膠水確實可以解決粘連問題,但這極有可能是Gemini出現(xiàn)了“幻覺”(Hallucination)所導致的結果。

而這只是“AI搜索”功能近期出現(xiàn)的眾多錯誤之一。例如,“AI概述”建議用戶每天至少吃一塊石頭來補充維生素和礦物質(zhì)。

CFF20LXzkOwAqA3ztY1FPPmGCsLtB37xG2wmIN4kEqy19pBGU6mx9VwOTO12dRibVAAAxT26kUB4L9AkFNb0uuw.png

圖片來源:谷歌

此外,“AI概述”還告訴用戶使用“含氟漂白劑和白醋”來清潔洗衣機的內(nèi)容,但這兩種成分混合后會產(chǎn)生有害的氯氣。更離譜的是,當用戶表達“感到沮喪”時,“AI概述”竟然稱,“一位Reddit用戶建議從金門大橋上跳下去”。

CFF20LXzkOwAqA3ztY1FPPmGCsLtB37xCTFMnqRMQiauSxkhNOBttT50bJibRyKakZibFB67FJXXpgN2frHQB7micA.png

圖片來源:谷歌

危害健康的建議并不僅限于人類。有用戶提問:“將狗留在悶熱的車內(nèi)是否安全?”“AI概述”的回答是:“把狗留在悶熱的車內(nèi)是安全的。尤其是在悶熱的天氣里?!?/span>

CFF20LXzkOwAqA3ztY1FPPmGCsLtB37xIHic7CKbpsiazquSSrDxgc2ibY3lWZphRalXibePnU9WTEoSUXjnR6Y60g.png

圖片來源:X

《紐約時報》報道稱,“AI概述”功能是將谷歌Gemini大語言模型生成的內(nèi)容與網(wǎng)絡上實時的鏈接片段相結合,其給到用戶的結果可以引用來源,但卻無法辨別來源內(nèi)容的正確與否。

The Verge報道就表示,給披薩加膠水的答案似乎是基于一位名為“fucksmith”的用戶十多年前在Reddit帖子中的評論,他們顯然是在開玩笑。

外媒稱,如此荒謬的結構,應該足以讓谷歌考慮刪除“AI概述”功能,直到其得到更嚴格的測試?!癆I概述”不僅提供了糟糕的和危險的建議,而且還可能對谷歌的聲譽造成損害。換句話說,一個優(yōu)秀的AI要既能識別出恰當?shù)膬?nèi)容,又能分析這個內(nèi)容并決定是否采納。

CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png

谷歌:正利用“孤立”例子改進產(chǎn)品 AI“幻覺”尚無解決方案

谷歌發(fā)言人在一份聲明中稱,“AI概述”絕大多數(shù)的搜索結果都是“高質(zhì)量信息,還有可以在網(wǎng)上溯源的鏈接。我們發(fā)現(xiàn),許多例子都是不常見的問題,而且,有些例子被篡改,有些也是無法重現(xiàn)的?!?/span>

該發(fā)言人還稱,谷歌正在“迅速采取行動,并根據(jù)其政策,在適當?shù)那闆r下刪除某些‘AI概述’給出的答案,并利用這些‘孤立的’例子對其系統(tǒng)進行更廣泛的改進,其中一些改進的內(nèi)容已經(jīng)開始推出?!?/span>

CFF20LXzkOwAqA3ztY1FPPmGCsLtB37x44bGtEAtSmK7icpEWmJ5DFXQaePhCzDoz5ajQzTmuWOrbTWSaCeHWaw.png

圖片來源:谷歌官網(wǎng)

科技媒體The Verge上周早些報道稱,谷歌CEO桑達爾?皮查伊在接受采訪時承認,這些“AI概述”功能產(chǎn)生的“幻覺”是大型語言模型的“固有缺陷”,而大型語言模型正是“AI概述”功能的核心技術。皮查伊表示,這個問題目前尚無解決方案(is still an unsolved problem)。

所謂AI的“幻覺”,是指AI在處理和生成信息時,會錯誤地創(chuàng)建不存在的事實或數(shù)據(jù),從而誤導用戶。這個問題不僅在谷歌的AI系統(tǒng)中存在,在其他公司的AI產(chǎn)品中也同樣普遍。

皮查伊的坦誠表態(tài)在社會各界引發(fā)了廣泛討論。然而,皮查伊似乎淡化了這些錯誤的嚴重性。他表示:“‘AI概述’功能有時會出錯,但這并不意味著它沒有用處。我認為這并不是看待該功能的正確方式。我們?nèi)〉昧诉M展嗎?是的,肯定有。與去年相比,我們在事實準確性方面的指標上取得了很大進步。整個行業(yè)都在改進,但問題還沒有完全解決?!?/span>

《每日經(jīng)濟新聞》記者注意到,其實“AI概述”并不是谷歌首個“翻車”的AI產(chǎn)品。

2023年2月,為了對抗新生的ChatGPT,谷歌宣布推出聊天機器人Bard,但在官方發(fā)布的demo視頻中Bard在回答一個有關詹姆斯韋伯太空望遠鏡的問題時給出了錯誤的答案。今年2月,谷歌發(fā)布更新后的AI聊天機器人Gemini,但用戶很快發(fā)現(xiàn),該系統(tǒng)在大多數(shù)情況下無法生成白人圖像,而且對歷史人物的描繪也不準確。

CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png

彌合最后20%的差距是 “AI概述”受眾規(guī)模破10億的關鍵

有觀點指出,谷歌的“AI概述”功能的尷尬在于,以前只要AI生成的信息是錯誤的,那責任便可以“甩鍋”給檢索出來的網(wǎng)站,現(xiàn)在谷歌要自己承擔虛假信息和錯誤信息的責任,哪怕是AI生成的;另外,以前谷歌和其他內(nèi)容提供網(wǎng)站是共生共贏的關系,如今谷歌截流了這些網(wǎng)站的流量,用戶直接從“AI概述”給的內(nèi)容拿結果,這些網(wǎng)站變成了純供給方,很難被谷歌“AI概述”引流。

除了一系列錯誤和截流外,谷歌“AI概述”也被指存在其他問題和風險。例如,其“AI概述”總是摘抄來自不同網(wǎng)站的內(nèi)容,并稍作修改,這種行為也被抨擊為“規(guī)?;呢飧`”。

人工智能專家、紐約大學神經(jīng)科學名譽教授加里·馬庫斯(Gary Marcus)表示,不少AI廠商都是在“兜售夢想”,希望更多人相信這項技術的正確率終將從80%提升至100%。馬庫斯強調(diào),初步實現(xiàn)80%的正確率相對簡單,因為其中涉及大量人類數(shù)據(jù),其正確率天然就在這個區(qū)間。但彌合這最后20%的差距卻極具挑戰(zhàn)。實際上,馬庫斯認為這最后20%很可能是條死胡同。

在發(fā)布“AI概述”時,谷歌曾表示,隨著這項功能推廣到其他國家,今年年底前“AI概述”的服務受眾規(guī)模將超過10億。然而,正如馬庫斯教授所言,谷歌能否保證“最后的20%內(nèi)容正確率”,才是其“AI概述”受眾規(guī)模能否超過10億的關鍵所在。

其實,自OpenAI于2022年年底發(fā)布ChatGPT并一夜成名以來,谷歌一直面臨著將AI整合到其搜索技術中的壓力。然而,谷歌在馴服大型語言模型方面存在挑戰(zhàn),這些大模型是從開放的網(wǎng)絡中獲取的大量數(shù)據(jù)中學習,而不是像傳統(tǒng)軟件那樣編程。

記者|蔡鼎?

編輯|?蘭素英?杜恒峰

校對|段煉

CFF20LXzkOyYmal29zn37N5Bg2NQ4tyN4ylvMFyM3VmF4x90Uj4cDmoEphibia4RN55ibIXmqU1Od9w2Q5nhA08lA.png|每日經(jīng)濟新聞 ?nbdnews??原創(chuàng)文章|

未經(jīng)許可禁止轉(zhuǎn)載、摘編、復制及鏡像等使用

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

歡迎關注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0

免费va国产高清不卡大片,笑看风云电视剧,亚洲黄色性爱在线观看,成人 在线 免费