使用 LoRA、QLoRA 及 25+ 种方法对大型语言模型进行参数高效微调。适用于在 GPU 内存受限时对 7B–70B 规模模型进行微调、需要仅训练不到 1% 参数且尽量减少精度损失的场景,或用于多适配器部署。作为 Hugging Face 的官方库,已与 transformers 生态系统集成。
使用 LoRA、QLoRA 及 25+ 种方法对大型语言模型进行参数高效微调。适用于在 GPU 内存受限时对 7B–70B 规模模型进行微调、需要仅训练不到 1% 参数且尽量减少精度损失的场景,或用于多适配器部署。作为 Hugging Face 的官方库,已与 transformers 生态系统集成。
本页属于 OpenClaw Skills 学习体系,覆盖技能安装、分类导航与实战链接。