用于高效 CPU/GPU 推理的 GGUF 格式与 llama.cpp 量化。用于在消费级硬件、Apple Silicon 上部署模型,或在无需 GPU 的情况下需要 2-8 比特灵活量化时使用。
本页属于 OpenClaw Skills 学习体系,覆盖技能安装、分类导航与实战链接。