每日經(jīng)濟新聞
首發(fā)快訊

每經(jīng)網(wǎng)首頁 > 首發(fā)快訊 > 正文

Thoughtworks中國區(qū)CTO徐昊:大語言模型的使用當(dāng)前可以分為兩種方式

2023-06-16 19:09:56

每經(jīng)AI快訊,6月16日,軟件及技術(shù)咨詢公司Thoughtworks舉辦了媒體解析會,Thoughtworks中國區(qū)CTO徐昊表示,在大語言模型的使用上,當(dāng)下可以分為兩種方式:一種方式基于傳統(tǒng)的機器學(xué)習(xí),源自遷移學(xué)習(xí)(Transfer Learning)邏輯;另一種方式基于大語言模型本身的閱讀理解和推理能力。

徐昊解釋稱,針對前者,既然存在一個預(yù)先訓(xùn)練的模型(pre-trained model),采用更接近某個特定領(lǐng)域的數(shù)據(jù)進行遷移學(xué)習(xí),就可以將預(yù)先訓(xùn)練的能力遷移到不同領(lǐng)域;而后者不需要復(fù)雜的數(shù)據(jù)收集、昂貴的GPU和長時間訓(xùn)練,通過幾次對話修正就可以將大語言模型遷移到目標(biāo)領(lǐng)域。(界面)

責(zé)編 王瀚黎

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0

免费va国产高清不卡大片,笑看风云电视剧,亚洲黄色性爱在线观看,成人 在线 免费