gptq | スキル詳細 | OpenClaw Study

LLM向けの事後(ポスト)トレーニング4ビット量子化。精度低下を最小限に抑えつつ大規模モデル(70B、405B)を消費者向けGPUでデプロイする際に使用します。メモリを約4倍削減し、パープレキシティの劣化を通常2%未満に抑え、FP16と比べて推論が3〜4倍高速になることがあります。transformersやP…

LLM向けの事後(ポスト)トレーニング4ビット量子化。精度低下を最小限に抑えつつ大規模モデル(70B、405B)を消費者向けGPUでデプロイする際に使用します。メモリを約4倍削減し、パープレキシティの劣化を通常2%未満に抑え、FP16と比べて推論が3〜4倍高速になることがあります。transformersやPEF...

このページは OpenClaw Skills 学習ハブの一部で、導入手順・カテゴリ導線・実践リンクを提供します。

English 简体中文 繁體中文 Español Português