北京2024年1月18日 /美通社/ -- 近日,源2.0開源大模型與LLaMA-Factory框架完成全面適配,用戶通過LLaMA-Factory,即可快捷、高效地對(duì)不同參數(shù)規(guī)模的源2.0基礎(chǔ)模型進(jìn)行全量微調(diào)及高效微調(diào),輕松實(shí)現(xiàn)專屬大模型。
LLM(大語(yǔ)言模型)微調(diào),是指在大模型的基礎(chǔ)上,針對(duì)特定任務(wù)或領(lǐng)域進(jìn)行調(diào)整和優(yōu)化,以提升模型的性能和表現(xiàn),有效的微調(diào)方案與工具也正是解決基礎(chǔ)大模型落地私有領(lǐng)域的一大利器?;陂_源大模型的微調(diào),不僅可以提升LLM對(duì)于指令的遵循能力,也能通過行業(yè)知識(shí)的引入,來(lái)提升LLM在專業(yè)領(lǐng)域的知識(shí)和能力。
當(dāng)前,業(yè)界已經(jīng)基于LLM開發(fā)及實(shí)踐出了眾多的微調(diào)方法,如指令微調(diào)、基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF,Reinforcement Learning from Human Feedback)、直接偏好優(yōu)化(DPO,Direct Preference Optimization)等。以高效微調(diào)(PEFT,Parameter-Efficient Fine-Tuning)方案為例,可有效解決內(nèi)存和計(jì)算資源的制約,通過LoRA、QLoRA等高效微調(diào)技術(shù),在單張GPU上完成千億參數(shù)的微調(diào)訓(xùn)練。因此,一個(gè)能夠?qū)崿F(xiàn)上述功能的簡(jiǎn)潔、高效且易用的微調(diào)框架正是開展LLM微調(diào)工作的最佳抓手。
LLaMA-Factory是零隙智能(SeamLessAI)開源的低代碼大模型訓(xùn)練框架,旨在為開發(fā)者提供可視化訓(xùn)練、推理平臺(tái)及一鍵配置模型訓(xùn)練?;贚LaMA-Factory, 用戶可輕松選擇業(yè)界最全面的微調(diào)方法和優(yōu)化技術(shù),通過使用私域數(shù)據(jù),或是LLaMA-Factory內(nèi)置的中文數(shù)據(jù)集(GPT-4優(yōu)化后的alpaca中文數(shù)據(jù)集、ShareGPT數(shù)據(jù)集和llama-factory提供的模型認(rèn)知數(shù)據(jù)集),對(duì)源2.0進(jìn)行輕松微調(diào),基于有限算力完成領(lǐng)域大模型的定制開發(fā)。實(shí)測(cè)數(shù)據(jù)顯示,在一臺(tái)搭載8顆GPU的主流AI服務(wù)器NF5468M7,7小時(shí)內(nèi)即可實(shí)現(xiàn)千億模型(Yuan2.0- 102B)的高效指令微調(diào),10分鐘即可完成Yuan2.0-2B參數(shù)的指令微調(diào),輕松實(shí)現(xiàn)即調(diào)即用。
Step by Step
單機(jī)即可實(shí)現(xiàn)千億參數(shù)模型微調(diào)
GitHub項(xiàng)目地址:
https://github.com/IEIT-Yuan/Yuan-2.0/blob/main/docs/Yuan2_llama-factory.md