首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|低空經(jīng)濟|智能汽車|特約記者
手機|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|芯片|報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 人工智能 >> 正文

Hugging Face 研究“AI 降本增效”:給予更長運算時間讓低成本小模型輸出比擬大模型準(zhǔn)確結(jié)果

2024年12月30日 14:13  IT之家  作 者:漾仔

目前業(yè)界模型性能通常與訓(xùn)練期間投入的資源綁定,除了頭部廠商大肆投入資源訓(xùn)練模型外,許多小型企業(yè)和個人開發(fā)者實際上并不具備足夠的資源,為了解決這一問題,許多團隊試圖尋找降本增效替代方案。

Hugging Face 于本月中旬公布一項報告,提出一種“擴展測試時計算(IT之家注:Test-Time Compute Scaling)”方法,也就是用時間來彌補模型體量,給予“低成本小模型”充足時間,讓相關(guān)模型能夠?qū)?fù)雜問題生成大量結(jié)果,再利用驗證器對這些結(jié)果進行測試及修正,反復(fù)輸出能夠比擬“高成本大模型”的結(jié)果

Hugging Face 團隊表示,他們使用這種方法利用 10 億參數(shù)的 Llama 模型進行數(shù)學(xué)基準(zhǔn)測試,據(jù)稱在某些情境下超越了參數(shù)量高達 70 億的大型模型,證明了用時間提升模型輸出內(nèi)容效果做法可行。

此外,谷歌 DeepMind 最近也公布了類似的論文,他們認為可以為小模型動態(tài)分配運算資源,并設(shè)置驗證器對模型的解答結(jié)果進行評分,從而引導(dǎo)模型不斷輸出正確的答案,從而幫助企業(yè)以較少的資源部署足夠精度的語言模型。

編 輯:章芳
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載,請必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問題,請在相關(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內(nèi)容核實”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
中國移動副總經(jīng)理張冬:5G揚帆開新篇,數(shù)智遠航啟新程
精彩專題
2024通信業(yè)年終盤點
2024數(shù)字科技生態(tài)大會
2024年度中國光電纜優(yōu)質(zhì)供應(yīng)商評選活動
2024全球6G發(fā)展大會
CCTIME推薦
關(guān)于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像