使用 LoRA、QLoRA 以及 25+ 種方法對大型語言模型進行參數高效的微調。適用於在 GPU 記憶體受限時微調 7B–70B 規模的模型、需要只訓練不到 1% 參數且將精度損失降到最低的情況,或用於多適配器部署。作為 Hugging Face 的官方函式庫,已整合進 transformers 生態系統。
使用 LoRA、QLoRA 以及 25+ 種方法對大型語言模型進行參數高效的微調。適用於在 GPU 記憶體受限時微調 7B–70B 規模的模型、需要只訓練不到 1% 參數且將精度損失降到最低的情況,或用於多適配器部署。作為 Hugging Face 的官方函式庫,已整合進 transformers 生態系統。
本頁屬於 OpenClaw Skills 學習體系,涵蓋技能安裝、分類導覽與實戰連結。