episteme

Latest Release License Unique Clones

English한국어Español中文

epistemekernel.com


¿Por qué los agentes de IA se equivocan con tanta confianza?

Son las 11 de la noche. Le pides a tu agente de IA que arregle un bug de migración. La respuesta es fluida, segura, plausible — combina patrones de Stack Overflow con sintaxis de la documentación oficial de Postgres. Lo que no aparece en ninguna parte: la decisión que tu equipo tomó hace tres meses de que esa columna nunca debe ser nullable. El agente no la conocía. Tú tampoco lo recordabas a medianoche.

A la mañana siguiente, 400.000 filas en producción tienen NULL.

Esto no es un error del agente. Es algo que el agente estructuralmente no puede hacer. Un modelo de lenguaje auto-regresivo es un motor de coincidencia de patrones, no un modelo causal del mundo. La pregunta "¿esta respuesta encaja con este contexto específico?" es un juicio causal, no una coincidencia de frecuencia de tokens. Como el modelo no puede hacerlo, recurre al siguiente mejor: el promedio estadístico. Fluido, seguro, y que no encaja con ningún contexto específico.

episteme existe para cerrar ese vacío estructural.


Por qué los prompts no resuelven esto

Y lo más profundo: el agente ejecuta incluso cuando la solicitud del usuario es incorrecta. Los usuarios también pueden carecer de profundidad, malinterpretar o partir de premisas erróneas. Un buen sistema no solo vigila al agente, también valida la pregunta misma del usuario. Los parches a nivel de prompt no estructuran esta validación bidireccional.


La solución — un Thinking Framework a nivel del sistema de archivos

episteme intercepta el momento en que la intención se encuentra con el cambio de estado. Antes de cualquier operación de alto impacto (git push, npm publish, terraform apply, migraciones de DB, edición de lockfiles) — sin importar quién la solicitó (el usuario o el propio agente) — el agente debe proyectar su razonamiento explícitamente en una Reasoning Surface de cuatro campos en el disco:

CampoQué debe declarar el agente
Core QuestionLa única pregunta que esta acción realmente intenta responder (contra la question substitution)
KnownsHechos verificados, citas, mediciones — no suposiciones que suenan bien
UnknownsVacíos nombrados y clasificables — no un vago "puede haber riesgos"
AssumptionsCreencias que soportan la carga, marcadas para que puedan ser falsificadas
DisconfirmationEl evento observable que probaría que este plan está mal — comprometido antes de actuar

La validación es estructural: longitud mínima, prohibición de placeholders perezosos (none, n/a, tbd, 해당 없음), escaneo normalizado de comandos. Si la surface falta o es vacía, la operación se rechaza con exit 2.

Esta es la diferencia entre un recordatorio de prompt y un compilador: uno pide por favor, el otro se niega a continuar.


ABCD — cuatro Cognitive Blueprints

Cada operación de alto impacto dispara uno de cuatro Blueprints, cada uno contrarrestando una clase específica de falla:

Cada activación de un Blueprint y cada decisión que valida se registra en una cadena hash a prueba de manipulación (tamper-evident hash chain). Esa cadena no es un simple log — es cómo el kernel ofrece Active Guidance más tarde: en la siguiente decisión coincidente, el protocolo sintetizado relevante se expone proactivamente, antes de que el agente retroceda a su distribución de entrenamiento.

El resultado: un Thinking Framework específico de tu proyecto que se acumula. El agente se afina con tu codebase cada vez que resuelve un conflicto — no porque lo hayas entrenado, sino porque la cadena recordó por ti.


Inicio rápido

Opción A — Plugin de Claude Code

Dentro de Claude Code:

/plugin marketplace add junjslee/episteme
/plugin install episteme@episteme

Luego en cualquier shell:

episteme init     # sembrar archivos de memoria personal
episteme setup    # puntuar estilo de trabajo + perfil cognitivo
episteme sync     # propagar a Claude Code y Hermes
episteme doctor   # verificar conexiones

Opción B — Clonar el kernel directamente

git clone https://github.com/junjslee/episteme ~/episteme
cd ~/episteme
pip install -e .

episteme init
episteme setup . --write
episteme sync
episteme doctor

Onboarding detallado: docs/SETUP.md. Referencia completa de comandos: docs/COMMANDS.md.


Filosofía — doxa · episteme · praxis · 결

El nombre del repositorio viene del griego:

La palabra coreana (gyeol) nombra el grano de la madera o piedra — el patrón latente que, seguido, produce forma coherente, y cortado en contra, se fractura. El orden de los campos de la Reasoning Surface es el gyeol de la disciplina epistémica: establecido → abierto → provisional → condición de falsificación.

Prosa filosófica completa: docs/NARRATIVE.md.


Lee a continuación

TemaUbicación
Destilación del kernel en 30 líneaskernel/SUMMARY.md
Dirección de diseño v1.0 RCdocs/DESIGN_V1_0_SEMANTIC_GOVERNANCE.md
Los 11 failure modes con sus contraartefactoskernel/FAILURE_MODES.md
Thinking Framework OFF vs. ON sobre el mismo promptdemos/03_differential/
Cuándo el kernel es la herramienta equivocadakernel/KERNEL_LIMITS.md
Atribución de cada concepto prestadokernel/REFERENCES.md
Contrato operativo del repositorio para agentesAGENTS.md

Por qué episteme — en una frase

Postura antes que prompt (Posture over prompt). En lugar de buscar mejor redacción, establece el marco en el que un agente de IA piensa a nivel del sistema de archivos. Un Thinking Framework que — como un compilador — puede negarse a continuar. No hace tu agente más inteligente; hace que esa inteligencia aterrice en tu contexto.

Built as a Sovereign Cognitive Kernel — 생각의 틀.


Note on translation. This README is a focused-scope Spanish adaptation maintained alongside the canonical English README.md. For deepest documentation, demo walkthroughs, and architectural diagrams, refer to the English docs tree. Technical terms (Thinking Framework, Reasoning Surface, Blueprint, Core Question, Chesterton's fence, Pillar 3, flaw_classification, etc.) are kept in English because they are load-bearing kernel vocabulary.