有別于傳統(tǒng)的固定系數(shù)(固定超參)的aux loss,昆侖萬(wàn)維在MoE訓(xùn)練的不同階段讓模型自適應(yīng)的選擇合適的aux loss超參系數(shù),從而讓Drop Token Rate保持在合適的區(qū)間內(nèi),既能做到expert分發(fā)的平衡,又能讓expert學(xué)習(xí)具備差異化,從而提升模型整體的性能和泛化水平。在MoE訓(xùn)練的前期,由于參數(shù)學(xué)習(xí)不到位,導(dǎo)致Drop Token Rate太高(token分布差異太大),此時(shí)需要較大的aux loss幫助token load balance;在MoE訓(xùn)練的后期,昆侖萬(wàn)維希望Expert之間仍保證一定的區(qū)分度,避免 Gating傾向?yàn)殡S機(jī)分發(fā)Token,因此需要較低的aux loss降低糾偏。
昆侖萬(wàn)維希望本次開源的Skywork-MoE模型、技術(shù)報(bào)告和相關(guān)的實(shí)驗(yàn)結(jié)果可以給開源社區(qū)貢獻(xiàn)更多的MoE訓(xùn)練經(jīng)驗(yàn)和Know-how,包括模型結(jié)構(gòu)、超參選擇、訓(xùn)練技巧、訓(xùn)練推理加速等各方面,探索用更低的訓(xùn)練推理成本訓(xùn)更大更強(qiáng)的模型,在通往AGI的道路上貢獻(xiàn)一點(diǎn)力量。
一個(gè)可以遵循的經(jīng)驗(yàn)規(guī)則是:如果訓(xùn)練MoE模型的FLOPs是訓(xùn)練Dense模型的2倍以上,那么選擇from Scratch訓(xùn)練MoE會(huì)更好,否則的話,選擇Upcycling訓(xùn)練MoE 可以明顯減少訓(xùn)練成本。
Skywork-MoE是目前能在8x4090服務(wù)器上推理的最大的開源MoE模型。8x4090服務(wù)器一共有192GB的GPU顯存,在FP8量化下(weight占用146GB),使用昆侖萬(wàn)維首創(chuàng)的非均勻Tensor Parallel并行推理方式,Skywork-MoE可以在合適的batch size 內(nèi)達(dá)到2200 tokens/s的吞吐。
如何對(duì)MoE模型高效的進(jìn)行大規(guī)模分布式訓(xùn)練是一個(gè)有難度的挑戰(zhàn),目前社區(qū)還沒(méi)有一個(gè)最佳實(shí)踐。Skywork-MoE提出了兩個(gè)重要的并行優(yōu)化設(shè)計(jì),從而在千卡集群上實(shí)現(xiàn)了MFU 38%的訓(xùn)練吞吐,其中MFU以22B的激活參數(shù)計(jì)算理論計(jì)算量。
區(qū)別于Megatron-LM社區(qū)已有的EP(Expert Parallel)和ETP(Expert Tensor Parallel)設(shè)計(jì),昆侖萬(wàn)維提出了一種稱之為Expert Data Parallel的并行設(shè)計(jì)方案,這種并行方案可以在Expert數(shù)量較小時(shí)仍能高效的切分模型,對(duì)Expert引入的 all2all通信也可以最大程度的優(yōu)化和掩蓋。相較于EP對(duì)GPU數(shù)量的限制和ETP在千卡集群上的低效, EDP可以較好的解決大規(guī)模分布式訓(xùn)練MoE的并行痛點(diǎn),同時(shí)EDP的設(shè)計(jì)簡(jiǎn)單、魯棒、易擴(kuò)展,可以較快的實(shí)現(xiàn)和驗(yàn)證。
pg电子娱乐十大平台6月3日,昆侖萬(wàn)維宣布開源2千億稀疏大模型Skywork-MoE,性能強(qiáng)勁,同時(shí)推理成本更低。Skywork-MoE基于之前昆侖萬(wàn)維開源的Skywork-13B模型中間checkpoint擴(kuò)展而來(lái),是首個(gè)完整將MoE Upcycling技術(shù)應(yīng)用并落地的開源千億MoE大模型,也是首個(gè)支持用單臺(tái)4090服務(wù)器推理的開源千億MoE大模型。
此外,Skywork-MoE還通過(guò)一系列基于Scaling Laws的實(shí)驗(yàn),探究哪些約束會(huì)影響Upcycling和From Scratch訓(xùn)練MoE模型的好壞。
由于first stage的Embedding計(jì)算和last stage的Loss計(jì)算,以及Pipeline Buffer的存在,流水并行下均勻切分Layer時(shí)的各stage計(jì)算負(fù)載和顯存負(fù)載均有較明顯的不均衡情況。昆侖萬(wàn)維提出了非均勻的流水并行切分和重計(jì)算Layer分配方式,使得總體的計(jì)算/顯存負(fù)載更均衡,約有10%左右的端到端訓(xùn)練吞吐提升。
為了解決MoE模型訓(xùn)練困難,泛化性能差的問(wèn)題,相較于Mixtral-MoE, Skywork-MoE設(shè)計(jì)了兩種訓(xùn)練優(yōu)化算法:
昆侖萬(wàn)維基于目前各大主流模型評(píng)測(cè)榜單評(píng)測(cè)了Skywork-MoE,在相同的激活參數(shù)量20B(推理計(jì)算量)下,Skywork-MoE能力在行業(yè)前列,接近70B的Dense模型,使得模型的推理成本有近3倍的下降。同時(shí)Skywork-MoE的總參數(shù)大小比DeepSeekV2的總參數(shù)大小要小1/3,用更小的參數(shù)規(guī)模做到了相近的能力。
本次開源的Skywork-MoE模型隸屬于天工3.0的研發(fā)模型系列,是其中的中檔大小模型(Skywork-MoE-Medium),模型的總參數(shù)量為146B,激活參數(shù)量22B,共有16個(gè)Expert,每個(gè)Expert大小為13B,每次激活其中的2個(gè)Expert。
昆侖萬(wàn)維在Gating Layer的token分發(fā)邏輯處新增了一個(gè)normalization操作,使得Gating Layer的參數(shù)學(xué)習(xí)更加趨向于被選中的top-2 experts,增加MoE模型對(duì)于top-2的置信度:
pg电子娱乐十大平台在哪下載安裝?pg电子娱乐十大平台好用嗎?
作者: 泊頭 🔠376.31MB
查看966.72MB
查看84.1MB
查看753.48MB
查看
網(wǎng)友評(píng)論更多
74遵化c
富國(guó)消費(fèi)升級(jí)混合C凈值上漲3.14%🔐🔑
2025-06-05 07:21:51 推薦
187****5868 回復(fù) 184****3428:平安鑫利混合C凈值上漲3.28%🔒來(lái)自遷安
187****6375 回復(fù) 184****3792:浙商大數(shù)據(jù)智選消費(fèi)A凈值上漲3.56%🔓來(lái)自武安
157****1193:按最下面的歷史版本🔔🔕來(lái)自南宮
73沙河414
游戲動(dòng)漫凈值上漲3.03%🔖🔗
2025-06-04 09:48:08 推薦
永久VIP:紅塔紅土醫(yī)藥精選股票發(fā)起式C凈值上漲3.03%🔘來(lái)自涿州
158****2663:黃金股ETF凈值上漲3.43%🔙來(lái)自定州
158****2802 回復(fù) 666🔚:信澳優(yōu)享生活混合A凈值上漲3.67%🔛來(lái)自安國(guó)
77高碑店is
長(zhǎng)城健康消費(fèi)混合C凈值上漲3.13%🔜🔝
2025-06-05 02:15:58 不推薦
平泉rs:財(cái)通資管消費(fèi)升級(jí)一年持有期混合A凈值上漲4.09%🔞
186****1869 回復(fù) 159****5990:浙商大數(shù)據(jù)智選消費(fèi)C凈值上漲3.53%🔟