promptfoo-evaluation | 技能详情 | OpenClaw Study

配置并运行基于 Promptfoo 框架的 LLM 评估。用于设置提示测试、创建评估配置(promptfooconfig.yaml)、编写 Python 自定义断言、实现将 LLM 作为评判者的 llm-rubric,或管理提示中的 few-shot 示例。会在出现“promptfoo”、“eval”、“LL…

配置并运行基于 Promptfoo 框架的 LLM 评估。用于设置提示测试、创建评估配置(promptfooconfig.yaml)、编写 Python 自定义断言、实现将 LLM 作为评判者的 llm-rubric,或管理提示中的 few-shot 示例。会在出现“promptfoo”、“eval”、“LLM...

本页属于 OpenClaw Skills 学习体系,覆盖技能安装、分类导航与实战链接。

English 繁體中文 日本語 Español Português