local-finetune | detalle de la skill | OpenClaw Study

local-finetune es una canalización orientada a desarrolladores que orquesta la incrustación y el fine-tuning LoRA de modelos de lenguaje locales usando el…

local-finetune es una canalización orientada a desarrolladores que orquesta la incrustación y el fine-tuning LoRA de modelos de lenguaje locales usando el esquema ACSets, DuckDB como corpus indexable y mlx-lm para entrenamiento — optimizada para ejecutarse en Apple Silicon. Úsala para convertir datos estructurados de habilidades y conversaciones en conjuntos de entrenamiento JSONL, eliminar duplicados y generar huellas (fingerprints) de los ejemplos, y adjuntar metadatos ligeros (color_hex, trit) para ponderación de contenido. Sus características clave incluyen un esquema inspirado en ACSet (skills, examples, claude_history), una base de datos DuckDB estándar en ~/skill-substrate/skill_corpus.duckdb, ingestión scriptada del historial de Claude desde JSONL y exportación automatizada a JSONL compatible con mlx-lm para fine-tuning con LoRA. Ideal para personalización de modelos offline y sensible a la privacidad, iteración rápida sobre conjuntos de datos de pequeño a mediano tamaño, pipelines reproducibles e integración de historiales de chat existentes en flujos de trabajo de fine-tuning locales.

Esta página forma parte del hub OpenClaw Skills con guías de instalación, categorías y enlaces prácticos.

English 简体中文 繁體中文 日本語 Português