配置并运行基于 Promptfoo 框架的 LLM 评估。用于设置提示测试、创建评估配置(promptfooconfig.yaml)、编写 Python 自定义断言、实现将 LLM 作为评判者的 llm-rubric,或管理提示中的 few-shot 示例。会在出现“promptfoo”、“eval”、“LL…
配置并运行基于 Promptfoo 框架的 LLM 评估。用于设置提示测试、创建评估配置(promptfooconfig.yaml)、编写 Python 自定义断言、实现将 LLM 作为评判者的 llm-rubric,或管理提示中的 few-shot 示例。会在出现“promptfoo”、“eval”、“LLM...
本页属于 OpenClaw Skills 学习体系,覆盖技能安装、分类导航与实战链接。