evaluating-llms-harness | 技能詳情 | OpenClaw Study

在 60+ 個學術基準(MMLU、HumanEval、GSM8K、TruthfulQA、HellaSwag)上評估 LLM。用於模型品質基準測試、模型比較、報告學術結果或追蹤訓練進度。為 EleutherAI、HuggingFace 與主要實驗室採用的產業標準。支援 HuggingFace、vLLM 與 AP…

在 60+ 個學術基準(MMLU、HumanEval、GSM8K、TruthfulQA、HellaSwag)上評估 LLM。用於模型品質基準測試、模型比較、報告學術結果或追蹤訓練進度。為 EleutherAI、HuggingFace 與主要實驗室採用的產業標準。支援 HuggingFace、vLLM 與 API。

本頁屬於 OpenClaw Skills 學習體系,涵蓋技能安裝、分類導覽與實戰連結。

English 简体中文 日本語 Español Português