2023-06-16 19:09:56
每經(jīng)AI快訊,6月16日,軟件及技術(shù)咨詢公司Thoughtworks舉辦了媒體解析會,Thoughtworks中國區(qū)CTO徐昊表示,在大語言模型的使用上,當(dāng)下可以分為兩種方式:一種方式基于傳統(tǒng)的機器學(xué)習(xí),源自遷移學(xué)習(xí)(Transfer Learning)邏輯;另一種方式基于大語言模型本身的閱讀理解和推理能力。
徐昊解釋稱,針對前者,既然存在一個預(yù)先訓(xùn)練的模型(pre-trained model),采用更接近某個特定領(lǐng)域的數(shù)據(jù)進行遷移學(xué)習(xí),就可以將預(yù)先訓(xùn)練的能力遷移到不同領(lǐng)域;而后者不需要復(fù)雜的數(shù)據(jù)收集、昂貴的GPU和長時間訓(xùn)練,通過幾次對話修正就可以將大語言模型遷移到目標(biāo)領(lǐng)域。(界面)
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP