promptfoo-evaluation | 技能詳情 | OpenClaw Study

配置並執行基於 Promptfoo 框架的 LLM 評估。用於設定提示測試、建立評估配置(promptfooconfig.yaml)、撰寫 Python 自訂斷言、實作將 LLM 作為評審者的 llm-rubric,或管理提示中的 few-shot 範例。當出現「promptfoo」「eval」「LLM 評估…

配置並執行基於 Promptfoo 框架的 LLM 評估。用於設定提示測試、建立評估配置(promptfooconfig.yaml)、撰寫 Python 自訂斷言、實作將 LLM 作為評審者的 llm-rubric,或管理提示中的 few-shot 範例。當出現「promptfoo」「eval」「LLM 評估」「...

本頁屬於 OpenClaw Skills 學習體系,涵蓋技能安裝、分類導覽與實戰連結。

English 简体中文 日本語 Español Português