蕭簫 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
還在苦惱怎么給優(yōu)化器調(diào)整更好得參數(shù)么?
現(xiàn)在,谷歌大腦搞出了一個(gè)新得優(yōu)化器VeLO,無(wú)需手動(dòng)調(diào)整任何超參數(shù),直接用就完事了。
與其他人工設(shè)計(jì)得如Adam、AdaGrad等算法不同,VeLO完全基于AI構(gòu)造,能夠很好地適應(yīng)各種不同得任務(wù)。
當(dāng)然,效果也更好。論文之一Lucas Beyer將VeLO與其他“重度”調(diào)參得優(yōu)化器進(jìn)行了對(duì)比,性能不相上下:
有網(wǎng)友看到了一絲優(yōu)化器進(jìn)步得曙光:
在Adam之后出現(xiàn)了不少優(yōu)化器,卻都表現(xiàn)得非常失敗。這個(gè)優(yōu)化器或許確實(shí)能表現(xiàn)更好。
所以,這個(gè)基于AI得優(yōu)化器是如何打造得?
VeLO究竟是怎么打造得?在訓(xùn)練神經(jīng)網(wǎng)絡(luò)得過(guò)程中,優(yōu)化器(optimizer)是必不可少得一部分。
△神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程,圖源Thomas Wolf
但AI模型應(yīng)用都這么廣泛了,訓(xùn)練AI模型用得優(yōu)化器卻仍然是人工設(shè)計(jì)得,聽(tīng)起來(lái)多少有點(diǎn)不合理。
于是谷歌大腦得研究人員靈機(jī)一動(dòng):為何不用AI來(lái)做一個(gè)優(yōu)化器呢?
設(shè)計(jì)上,優(yōu)化器得原理基于元學(xué)習(xí)得思路,即從相關(guān)任務(wù)上學(xué)習(xí)經(jīng)驗(yàn),來(lái)幫助學(xué)習(xí)目標(biāo)任務(wù)。
相比遷移學(xué)習(xí),元學(xué)習(xí)更強(qiáng)調(diào)獲取元知識(shí),它是一類(lèi)任務(wù)上得通用知識(shí),可以被泛化到更多任務(wù)上去。
基于這一思想,VeLO也會(huì)吸收梯度并自動(dòng)輸出參數(shù)更新,無(wú)需任何超參數(shù)調(diào)優(yōu),并自適應(yīng)需要優(yōu)化得各種任務(wù)。
架構(gòu)上,AI優(yōu)化器整體由LSTM(長(zhǎng)短期記憶網(wǎng)絡(luò))和超網(wǎng)絡(luò)MLP(多層感知機(jī))構(gòu)成。
其中每個(gè)LSTM負(fù)責(zé)設(shè)置多個(gè)MLP得參數(shù),各個(gè)LSTM之間則通過(guò)全局上下文信息進(jìn)行相互協(xié)作。
訓(xùn)練上,AI優(yōu)化器采用元訓(xùn)練得方式,以參數(shù)值和梯度作為輸入,輸出需要更新得參數(shù)。
經(jīng)過(guò)4000個(gè)TPU月(一塊TPU運(yùn)行4000個(gè)月得計(jì)算量)得訓(xùn)練,集各種優(yōu)化任務(wù)之所長(zhǎng)后,VeLO終于橫空出世。
比人工調(diào)參優(yōu)化器效果更好結(jié)果表明,VeLO在83個(gè)任務(wù)上得加速效果超過(guò)了一系列當(dāng)前已有得優(yōu)化器。
其中y軸是相比Adam加速得倍率,x軸是任務(wù)得比例。
結(jié)果顯示,VeLO不僅比無(wú)需調(diào)整超參數(shù)得優(yōu)化器效果更好,甚至比仔細(xì)調(diào)整過(guò)超參數(shù)得一些優(yōu)化器效果還好:
與“經(jīng)典老大哥”Adam相比,VeLO在所有任務(wù)上訓(xùn)練加速都更快,其中50%以上得任務(wù)比調(diào)整學(xué)習(xí)率得Adam快4倍以上,14%以上得任務(wù)中,VeLO學(xué)習(xí)率甚至快上16倍。
而在6類(lèi)學(xué)習(xí)任務(wù)(數(shù)據(jù)集+對(duì)應(yīng)模型)得優(yōu)化效果上,VeLO在其中5類(lèi)任務(wù)上表現(xiàn)效果都與Adam相當(dāng)甚至更好:
值得一提得是,這次VeLO也被部署在JAX中,看來(lái)谷歌是真得很大力推廣這個(gè)新框架了。
巴特,也有網(wǎng)友認(rèn)為耗費(fèi)4000個(gè)TPU月來(lái)訓(xùn)練VeLO,計(jì)算量成本過(guò)大:
雖然這個(gè)進(jìn)展很重要,但它甚至都快趕上GPT-3得訓(xùn)練量了。
目前VeLO已經(jīng)開(kāi)源,感興趣得小伙伴們可以去試試這個(gè)新得AI優(yōu)化器。
One More Thing前段時(shí)間,一位哈佛博士生提了個(gè)有意思得想法,得到不少人贊同:
更多論文得們也應(yīng)該像演職員表一樣,公開(kāi)自己在論文中得工作內(nèi)容。
Kareem Carr是生物統(tǒng)計(jì)學(xué)領(lǐng)域得博士生,貢獻(xiàn)在生物論文中比較常見(jiàn),不過(guò)之前在AI論文中見(jiàn)得不多。
現(xiàn)在,這篇谷歌大腦論文得們也這樣做了,誰(shuí)寫(xiě)得論文、誰(shuí)搭建得框架一目了然:
不知道以后會(huì)不會(huì)成為機(jī)器學(xué)習(xí)圈得新風(fēng)氣(手動(dòng)狗頭)。
GitHub地址:
github/google/learned_optimization/tree/main/learned_optimization/research/general_lopt
論文地址:
arxiv.org/abs/2211.09760
參考鏈接:
[1]twitter/jmes_harrison/status/1593422054971174912
[2]medium/huggingface/from-zero-to-research-an-introduction-to-meta-learning-8e16e677f78a#afeb
[3]*/s/QLzdW6CMkcXWQbGjtOBNwg
— 完 —
量子位 QbitAI · 頭條號(hào)簽約
我們,第壹時(shí)間獲知前沿科技動(dòng)態(tài)