每日經(jīng)濟(jì)新聞 2024-09-06 15:27:10
每經(jīng)記者 王嘉琦 每經(jīng)實(shí)習(xí)編輯 宋欣悅
在每日經(jīng)濟(jì)新聞?dòng)?月25日發(fā)布的《每日經(jīng)濟(jì)新聞大模型評(píng)測(cè)報(bào)告》第1期中,15款國(guó)內(nèi)外主流大模型在“財(cái)經(jīng)新聞標(biāo)題創(chuàng)作”“微博新聞寫作”“文章差錯(cuò)校對(duì)”“財(cái)務(wù)數(shù)據(jù)計(jì)算與分析”四大實(shí)戰(zhàn)場(chǎng)景進(jìn)行了比拼。
隨著大模型的迭代更新和大模型新秀的涌現(xiàn),《每日經(jīng)濟(jì)新聞大模型評(píng)測(cè)報(bào)告》第2期如期而至。
第2期評(píng)測(cè)延續(xù)首期評(píng)測(cè)的宗旨,立足實(shí)戰(zhàn),力求為用戶展現(xiàn)大模型在具體工作場(chǎng)景中的真實(shí)表現(xiàn),為用戶在工作、學(xué)習(xí)和生活中選擇最佳大模型助手提供可靠參考。
本期評(píng)測(cè)設(shè)置了三個(gè)應(yīng)用場(chǎng)景:(1)金融數(shù)學(xué)計(jì)算;(2)商務(wù)文本翻譯;(3)財(cái)經(jīng)新聞閱讀。
每經(jīng)大模型評(píng)測(cè)小組為每個(gè)場(chǎng)景制定了相應(yīng)的評(píng)價(jià)維度和評(píng)分指標(biāo)。每日經(jīng)濟(jì)新聞10名資深記者、編輯根據(jù)評(píng)價(jià)維度和評(píng)分指標(biāo),對(duì)各款大模型在三大場(chǎng)景中的表現(xiàn)進(jìn)行評(píng)分,匯總各場(chǎng)景得分,最終得到參評(píng)大模型總分。
不同于首期,第2期評(píng)測(cè)中的任務(wù)以客觀題為主,絕大多數(shù)題目都有標(biāo)準(zhǔn)答案。同時(shí),評(píng)價(jià)維度和評(píng)分標(biāo)準(zhǔn)也更加突出客觀性,盡量避免主觀性評(píng)價(jià)。
需要特別指出的是,本期評(píng)測(cè)是通過各款大模型的API端口,并在默認(rèn)溫度下完成。與公眾用戶使用的大模型C端對(duì)話工具存在差異。但評(píng)測(cè)結(jié)果對(duì)用戶在具體場(chǎng)景中選擇合適的大模型工具,依然具有重大參考價(jià)值。
本期評(píng)測(cè)在“雨燕智宣AI創(chuàng)作+”測(cè)試臺(tái)上進(jìn)行,參評(píng)模型包括GPT-4o、智譜GLM-4、百度文心ERNIE-4.0-Turbo等15款國(guó)內(nèi)外明星大模型。
本期評(píng)測(cè)時(shí)間為2024年8月12日,因此上述參評(píng)大模型中的所有國(guó)內(nèi)大模型均為截至8月12日的最新版本。
誰(shuí)能在三大評(píng)測(cè)場(chǎng)景中脫穎而出?
經(jīng)過激烈角逐,評(píng)測(cè)結(jié)果新鮮出爐!
報(bào)告完整版以及測(cè)評(píng)題目,評(píng)分指標(biāo)細(xì)則及部分案例,可訪問:每日經(jīng)濟(jì)新聞大模型評(píng)測(cè)報(bào)告(第2期)。
評(píng)測(cè)結(jié)果顯示,“黑馬”幻方求索DeepSeek-V2以237.75的總分位居榜首,緊隨其后的是騰訊混元hunyuan-pro(237.08分)和Anthropic Claude 3.5 Sonnet(234.42分)。
在專項(xiàng)能力方面,各模型展現(xiàn)出了不同的優(yōu)勢(shì)。
金融數(shù)學(xué)計(jì)算方面,騰訊混元hunyuan-pro以78分的成績(jī)領(lǐng)先其他模型,排名第一,幻方求索DeepSeek-V2和商湯商量SenseChat V5.5緊隨其后。相比之下,零一萬物的Yi-Large、百度的文心ERNIE-4.0-Turbo以及昆侖天工的SkyChat-3.0則在金融數(shù)學(xué)計(jì)算方面表現(xiàn)稍顯遜色,分別位列倒數(shù)第三、倒數(shù)第二與倒數(shù)第一的位置。
商務(wù)文本翻譯場(chǎng)景中,Anthropic Claude 3.5 Sonnet憑借其91.67分的卓越成績(jī),顯著領(lǐng)先于其他競(jìng)爭(zhēng)對(duì)手,谷歌Gemini 1.5 Pro、GPT-4o及字節(jié)豆包Doubao-pro-32k緊隨其后,展現(xiàn)了不俗的翻譯實(shí)力。然而,騰訊混元hunyuan-pro、智譜GLM-4與昆侖天工SkyChat-3.0在該場(chǎng)景下的表現(xiàn)則稍顯遜色,分別位于榜單的后三位。
轉(zhuǎn)至財(cái)經(jīng)新聞閱讀場(chǎng)景,昆侖天工SkyChat-3.0以87.75分的佳績(jī)拔得頭籌,GPT-4o與Anthropic Claude 3.5 Sonnet緊隨其后。相比之下,智譜GLM-4、百度文心ERNIE-4.0-Turbo及訊飛星火Spark 4.0 Ultra在此方面的表現(xiàn)則稍顯不足,分列該場(chǎng)景排名的后三位。
結(jié)論一:大模型之間差距明顯
本次評(píng)測(cè)結(jié)果顯示,幻方求索DeepSeek-V2、騰訊混元hunyuan-pro、Anthropic Claude 3.5 Sonnet、GPT-4o和商湯商量SenseChat V5.5構(gòu)成第一梯隊(duì)。值得注意的是,排名靠前的模型中,國(guó)產(chǎn)大模型表現(xiàn)突出,與頂級(jí)海外模型實(shí)力相當(dāng)。
然而,從第一名幻方求索DeepSeek-V2(237.75分)到第十五名訊飛星火Spark 4.0 Ultra(197.83分),總分差距達(dá)到了近40分,反映出大模型間仍存在顯著差距。
結(jié)論二:數(shù)學(xué)計(jì)算能力成普遍短板
各款大模型數(shù)學(xué)計(jì)算方面普遍存在不足。
15款參評(píng)模型中,僅有騰訊混元hunyuan-pro、幻方求索DeepSeek-V2、商湯商量SenseChat V5.5、字節(jié)豆包Doubao-pro-32k這4款大模型超過60分。即使是在其他場(chǎng)景表現(xiàn)出色的模型,如Anthropic Claude 3.5 Sonnet和GPT-4o,在此項(xiàng)測(cè)試中也僅得到59分。
具體而言,騰訊混元hunyuan-pro表現(xiàn)較為突出,從第1期評(píng)測(cè)這個(gè)計(jì)算題第六名一躍成為本期第一;字節(jié)豆包Doubao-pro-32k從第八名提升到第四名。
同時(shí),經(jīng)過版本更新的商湯商量SenseChat系列,在第2期評(píng)測(cè)中也以SenseChat V5.5的新姿態(tài)亮相,并實(shí)現(xiàn)從原先第十四名到第三名的巨大跨越。
上一期的“黑馬”幻方求索DeepSeek-V2依然表現(xiàn)出突出且穩(wěn)定的計(jì)算能力,在兩期評(píng)測(cè)的計(jì)算題中均排名第二名。
與之形成鮮明對(duì)比的是,零一萬物Yi-Large在上期評(píng)測(cè)的計(jì)算題中排名第三,但在此次評(píng)測(cè)中跌落至倒數(shù)第三。
從具體題目分析,對(duì)于用一步計(jì)算即可得到答案的簡(jiǎn)單計(jì)算題,15款大模型均表現(xiàn)良好。然而,面對(duì)計(jì)算公式復(fù)雜、步驟較多的題目時(shí),不少大模型表現(xiàn)并不理想。
此外,許多大模型在處理特定數(shù)學(xué)邏輯與表達(dá)規(guī)范上存在局限。例如,不能準(zhǔn)確區(qū)分百分?jǐn)?shù)作差結(jié)果應(yīng)采用的正確表示方式——即應(yīng)該使用百分點(diǎn)而非直接以百分?jǐn)?shù)形式來表達(dá)。
結(jié)論三:國(guó)內(nèi)大模型需提高外語(yǔ)能力
整體來看,在商務(wù)文本翻譯場(chǎng)景中,參評(píng)大模型表現(xiàn)了較高的翻譯水平,平均分達(dá)到了84.5分。海外大模型展現(xiàn)出明顯優(yōu)勢(shì),包攬了該場(chǎng)景下的前三名。
不過,國(guó)內(nèi)外大模型在英譯漢中的得分差距不大,真正使總分拉開差距的是漢譯英。Anthropic Claude 3.5 Sonnet、谷歌Gemini 1.5 Pro和GPT-4o在漢譯英任務(wù)中得分均超過90分。
而國(guó)內(nèi)大模型表現(xiàn)相對(duì)遜色,尤其是在“意思準(zhǔn)確”與“術(shù)語(yǔ)一致性”維度上有待提升。此外,在“意思完整”維度上,幻方求索DeepSeek-V2、昆侖天工SkyChat-3.0相對(duì)來說,表現(xiàn)欠佳。而在“細(xì)節(jié)準(zhǔn)確性”維度上,騰訊混元hunyuan-pro、月之暗面moonshot-v1以及字節(jié)豆包Doubao-pro-32k的表現(xiàn)有待提升。
結(jié)論四:通用大模型各項(xiàng)能力卻不均衡
第2期評(píng)測(cè)與第1期評(píng)測(cè)的場(chǎng)景、維度和標(biāo)準(zhǔn)不同,導(dǎo)致部分模型排名變化顯著。盡管都是通用大模型,但存在各項(xiàng)能力不均衡,“偏科”現(xiàn)象嚴(yán)重的情況。
具體而言,零一萬物Yi-Large兩期評(píng)測(cè)的表現(xiàn)波動(dòng)較大。在第1期評(píng)測(cè)中,零一萬物Yi-Large位居榜首。然而在第2期評(píng)測(cè)中,其表現(xiàn)大幅下滑,總排名也跌至倒數(shù)第四。
本期評(píng)測(cè)新加入的大模型昆侖天工SkyChat-3.0,在文章閱讀及問答中排名第一,但在金融數(shù)學(xué)計(jì)算以及商務(wù)文本翻譯中卻墊底。
騰訊混元hunyuan-pro的表現(xiàn)則展現(xiàn)了明顯的進(jìn)步。在第1期評(píng)測(cè)中,其排名相對(duì)靠后。但在第2期評(píng)測(cè)中,騰訊混元hunyuan-pro總分位列第二,尤其在金融數(shù)學(xué)計(jì)算場(chǎng)景中以78分的成績(jī)領(lǐng)先其他大模型。
相比之下,幻方求索DeepSeek-V2在兩次評(píng)測(cè)中都表現(xiàn)出色。在第1期評(píng)測(cè)中,幻方求索DeepSeek-V2排名第三;而到了第2期評(píng)測(cè),更是躍居榜首。在計(jì)算能力方面,幻方求索DeepSeek-V2均保持了高水平的發(fā)揮。
海外大模型中,Anthropic公司的Claude在兩期評(píng)測(cè)中都表現(xiàn)不俗,但排名有所變動(dòng)。在第1期中,Anthropic Claude 3 Opus排名第二;在第2期中,Anthropic Claude 3.5 Sonnet盡管在商務(wù)文本翻譯任務(wù)中表現(xiàn)出色,但總體排名略有下降,排在第三位。
每日經(jīng)濟(jì)新聞大模型評(píng)測(cè)小組
2024年9月
????
未來,每日經(jīng)濟(jì)新聞將基于評(píng)測(cè)報(bào)告,精選各場(chǎng)景下的優(yōu)秀大模型,開發(fā)相應(yīng)的功能,在每經(jīng)App上線,為用戶帶來高效、高質(zhì)的AI工具與全新體驗(yàn)。
同時(shí),“每日經(jīng)濟(jì)新聞大模型評(píng)測(cè)小組”將繼續(xù)深入探索大模型的無限可能,從實(shí)際應(yīng)用場(chǎng)景出發(fā),對(duì)各個(gè)大模型進(jìn)行全方位的評(píng)測(cè),并定期推出專業(yè)報(bào)告,帶來最前沿的洞察和發(fā)現(xiàn)。
在此,我們誠(chéng)摯地邀請(qǐng)您,加入評(píng)測(cè)項(xiàng)目。
如果您是研發(fā)企業(yè),想要展示自家大模型的實(shí)力,與其他大模型進(jìn)行比拼,請(qǐng)將參評(píng)大模型的詳細(xì)信息發(fā)送至我們的郵箱:damoxing@nbd.com.cn。
如果您是大模型的使用者,請(qǐng)告訴我們您希望在哪些場(chǎng)景中使用大模型,或者希望我們測(cè)試大模型的哪些能力。打開每日經(jīng)濟(jì)新聞App,在“個(gè)人中心”——“意見反饋”欄中留下您的想法和需求。
期待您的參與,共同探索大模型的無限可能。
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP