使用 TRL 通过强化学习微调大规模语言模型(LLM)— 使用 SFT 进行指令微调,DPO 用于偏好对齐,PPO/GRPO 用于奖励优化,并支持奖励模型训练。在需要 RLHF、将模型与偏好对齐或从人工反馈训练时使用。与 Hugging Face Transformers 兼容。Post-Training,…
使用 TRL 通过强化学习微调大规模语言模型(LLM)— 使用 SFT 进行指令微调,DPO 用于偏好对齐,PPO/GRPO 用于奖励优化,并支持奖励模型训练。在需要 RLHF、将模型与偏好对齐或从人工反馈训练时使用。与 Hugging Face Transformers 兼容。Post-Training, TR......
本页属于 OpenClaw Skills 学习体系,覆盖技能安装、分类导航与实战链接。