local-llm-expert | 技能詳情 | OpenClaw Study

掌握使用 Ollama、llama.cpp、vLLM 與 LM Studio 進行本地 LLM 推論、模型選擇、VRAM 優化與本地部署。精通量化格式(GGUF、EXL2)與本地 AI 隱私。

掌握使用 Ollama、llama.cpp、vLLM 與 LM Studio 進行本地 LLM 推論、模型選擇、VRAM 優化與本地部署。精通量化格式(GGUF、EXL2)與本地 AI 隱私。

本頁屬於 OpenClaw Skills 學習體系,涵蓋技能安裝、分類導覽與實戰連結。

English 简体中文 日本語 Español Português