2024-05-15 05:23:34
每經(jīng)AI快訊,北京時(shí)間14日凌晨,OpenAI公司在美國(guó)加州舉辦新品發(fā)布會(huì),推出一款名為GPT-4o(歐)的人工智能模型。公司表示,新模型具備“聽(tīng)、看、說(shuō)”的出色本領(lǐng)。發(fā)布會(huì)上,OpenAI公司展示了新模型的多個(gè)應(yīng)用場(chǎng)景。
據(jù)介紹,GPT-4o(歐)的“o”源自拉丁語(yǔ),意思是“全能”(字幕:omni,全能),新模型能夠處理50種不同的語(yǔ)言,提高了速度和質(zhì)量,并能夠讀取人的情緒。
新模型可以在最短232毫秒對(duì)音頻輸入做出反應(yīng),與人類在對(duì)話中的反應(yīng)時(shí)間相近。即使對(duì)話被打斷,新模型也可以做出自然反應(yīng)。這是此前人工智能語(yǔ)音聊天機(jī)器人做不到的。
圖像輸入方面,研究人員啟動(dòng)攝像頭,要求實(shí)時(shí)完成一道方程題,新模型輕松完成了任務(wù);研究人員還展示了它對(duì)一張氣溫圖表進(jìn)行實(shí)時(shí)解讀的能力。(央視新聞)
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP