Esta sub-habilidad define una arquitectura canónica de RAG (Retrieval-Augmented Generation): incrustar (embed) la pregunta entrante con un modelo sentence-…
Esta sub-habilidad define una arquitectura canónica de RAG (Retrieval-Augmented Generation): incrustar (embed) la pregunta entrante con un modelo sentence-transformers, realizar una búsqueda vectorial usando similaridad coseno para encontrar los vectores de documentos más cercanos, recuperar los top-K fragmentos relevantes, ensamblar un prompt que combine el contexto recuperado con la pregunta del usuario, y invocar un LLM (Claude u OpenAI) para producir la respuesta final. Está pensada para construir pipelines RAG modulares para preguntas y respuestas sobre documentos, bots de soporte, búsqueda en bases de conocimiento y asistentes de investigación. Las características clave incluyen modelos de embedding seleccionables, índices/backends de vectores configurables (FAISS, Milvus, etc.), ranking por similaridad coseno, ajuste de K para el balance precisión/recall, patrones de construcción de prompts e integración con LLM. Las ventajas principales son un mejor anclaje factual, la reemplazabilidad modular de componentes y un flujo predecible de recuperación a generación para sistemas RAG escalables y fáciles de depurar.
Esta página forma parte del hub OpenClaw Skills con guías de instalación, categorías y enlaces prácticos.