local-llm-expert | スキル詳細 | OpenClaw Study

Ollama、llama.cpp、vLLM、LM Studio を使用して、ローカルでの LLM 推論、モデル選定、VRAM 最適化、ローカル展開を習得します。量子化フォーマット(GGUF、EXL2)やローカル AI のプライバシー保護にも精通しています。

Ollama、llama.cpp、vLLM、LM Studio を使用して、ローカルでの LLM 推論、モデル選定、VRAM 最適化、ローカル展開を習得します。量子化フォーマット(GGUF、EXL2)やローカル AI のプライバシー保護にも精通しています。

このページは OpenClaw Skills 学習ハブの一部で、導入手順・カテゴリ導線・実践リンクを提供します。

English 简体中文 繁體中文 Español Português