llama-cpp | 技能详情 | OpenClaw Study

在 CPU、Apple Silicon 和消费级 GPU 上运行 LLM 推理,无需 NVIDIA 硬件。适用于边缘部署、M1/M2/M3 Mac、AMD/Intel GPU,或在无法使用 CUDA 时使用。支持 GGUF 量化(1.5–8 位)以减少内存占用,并在 CPU 上相比 PyTorch 实现 4–…

在 CPU、Apple Silicon 和消费级 GPU 上运行 LLM 推理,无需 NVIDIA 硬件。适用于边缘部署、M1/M2/M3 Mac、AMD/Intel GPU,或在无法使用 CUDA 时使用。支持 GGUF 量化(1.5–8 位)以减少内存占用,并在 CPU 上相比 PyTorch 实现 4–10...

本页属于 OpenClaw Skills 学习体系,覆盖技能安装、分类导航与实战链接。

English 繁體中文 日本語 Español Português