Esta Skill implementa respuestas RAG (retrieval-augmented generation, generación aumentada por recuperación) por streaming para mejorar la experiencia de u…
Esta Skill implementa respuestas RAG (retrieval-augmented generation, generación aumentada por recuperación) por streaming para mejorar la experiencia de usuario cuando las respuestas son extensas. Muestra cómo obtener documentos contextuales (get_context), construir un prompt compuesto (build_prompt) y abrir una sesión de streaming de Anthropic para emitir fragmentos de texto incrementales a medida que llegan. Las características clave incluyen streaming de tokens en tiempo real para visualización inmediata, tamaño de recuperación configurable (top_k) y límites máximos de tokens para controlar la longitud de la respuesta. Los casos de uso incluyen interfaces de chat, UIs web o móviles, herramientas CLI y paneles de control que se benefician de una menor latencia percibida y el renderizado progresivo de las respuestas. Las ventajas principales son una interacción de usuario más fluida con contenido extenso, resultados parciales tempranos para retroalimentación rápida y una integración sencilla en pipelines RAG existentes; el patrón puede adaptarse a otros proveedores de LLM con streaming con cambios mínimos.
Esta página forma parte del hub OpenClaw Skills con guías de instalación, categorías y enlaces prácticos.