## Asset Header

- **Asset ID:** DC-XX-DOIX-LLMWiki-ResumenEjecutivo-v01
- **Version:** v01
- **Status:** Draft
- **Owner:** Victor Heredia
- **IntellBank:** IB-XX-Maestro
- **Tipo:** DC — Document Canónico
- **Propósito:** LLM Wiki — Resumen Ejecutivo para el Equipo
- **Última actualización:** 2026-04-11

---

Asset ID: DOIX-LLMWiki-ResumenEjecutivo-v01
Tipo: Resumen Ejecutivo — Análisis Estratégico
Versión: v01
Estado: Activo
Owner: Victor Heredia / EmpowerLabs
Fecha: 2026-04-10
Layer: Transversal (L0–L4)
Audiencia: Equipo EmpowerLabs
Dependencias: MePB-INTELLIBANK-DomainMetaFactory-v01, DOIX-CorpBrainOS-ProblemStatement-v01, BMF-Registry-Activos-v01, BMF-MPB-Kernel-v01
---

# LLM Wiki — Resumen Ejecutivo para el Equipo
## Implicaciones Estratégicas para BigMetaFactory y Corp-Brain-OS

> **TL;DR** — El LLM Wiki instalado en la vault de Victor no es una herramienta de productividad. Es el prototipo funcional del Corp-Brain-OS operando hoy, a escala personal, con los activos BMF existentes. Lo que aprendemos aquí informa directamente cómo se implementa para Estafeta y cada cliente enterprise.

---

## 1. Qué es el LLM Wiki

La mayoría de las interacciones con IA son efímeras: el modelo lee documentos desde cero en cada consulta, sin construir comprensión acumulada. El LLM Wiki, basado en la metodología de Andrej Karpathy, resuelve esto con una separación arquitectónica fundamental entre *procesar* conocimiento y *usar* conocimiento.

El sistema opera sobre una analogía de compilador de software:

| Elemento | Analogía de software | En el LLM Wiki |
|----------|---------------------|----------------|
| Archivos Raw/ | Código fuente | PDFs, web clips, transcripts, activos BMF |
| El AI | Compilador | Lee fuentes, extrae conceptos, construye grafo |
| Wiki/ | Ejecutable | Páginas Markdown interconectadas, consultables |
| claude.md | Schema / Makefile | Reglas de operación, gobernanza, formato |
| index.md | Tabla de símbolos | Mapa maestro de navegación y log de ingests |

**El cambio clave:** en lugar de leer archivos crudos en cada consulta, el AI navega un índice estructurado y sigue links explícitos entre páginas compiladas. Esto produce hasta 95% menos consumo de tokens — y la eficiencia *mejora* con el volumen, no al revés.

---

## 2. Arquitectura instalada — Sin conflicto con Reinventaverse

El Wiki fue instalado como subcarpeta completamente aislada:

```
Reinventaverse/
└── LLM-Wiki/
    ├── claude.md     ← Schema/rulebook. Contrato de operación y aislamiento.
    ├── index.md      ← Mapa maestro. Actualizado automáticamente en cada Ingest.
    ├── Raw/          ← Zona de entrada. Inmutable — el AI nunca modifica aquí.
    └── Wiki/         ← Grafo de páginas. Propiedad exclusiva del AI.
```

> [!important] Garantía de aislamiento
> El LLM Wiki opera **exclusivamente** dentro de `LLM-Wiki/`. No modifica ningún archivo fuera de esta carpeta. No enlaza a notas existentes sin instrucción explícita. Ninguna configuración de Obsidian fue alterada. Los archivos en `Raw/` son de solo lectura para el AI. Si se elimina la carpeta mañana, el resto de la vault queda intacto.

**Los tres comandos operativos:**

- **Ingest** → *"Ingesta los nuevos fuentes en LLM-Wiki/Raw/"* — Ejecutar después de completar activos BMF o grupos relacionados.
- **Query** → Cualquier pregunta estratégica compleja al Wiki — el AI navega el índice, no relee archivos crudos.
- **Lint** → *"Realiza un health check del LLM Wiki"* — Escanea links rotos, contradicciones, nodos huérfanos y gaps.

---

## 3. Relación con el BMF Registry

El Registry y el Wiki son capas complementarias, no competidoras.

| | [[BMF-Registry-Activos-v01]] | LLM Wiki |
|---|---|---|
| **Capa** | Gobernanza de existencia | Gobernanza de significado |
| **Pregunta que responde** | ¿Está registrado? ¿Cumple naming? ¿Quién lo posee? | ¿Qué significa? ¿Cómo se conecta? ¿Dónde hay gaps? |
| **Fuente de verdad de** | Asset IDs, versiones, status, alertas DA- | Relaciones conceptuales, contradicciones, síntesis cross-activo |
| **Quién lo mantiene** | Victor + Jacob (QA humano) | AI autónomo |
| **Formato** | Tabla gobernada con naming convention BMF | Grafo de páginas Markdown con `[[WikiLinks]]` |

**Protocolo de sincronización:** cuando el Registry registra o actualiza un activo, el archivo se deposita en `Raw/` y se ejecuta un Ingest. Los Asset IDs del BMF ya usan `[[WikiLink]]` syntax — son 100% compatibles con los nodos que el LLM Wiki genera.

---

## 4. El LLM Wiki como prototipo del Corp-Brain-OS

Este es el hallazgo estratégico central.

El [[OUT-HiORG-CorpBrainOS-ProblemStatement-v01]] define cuatro componentes para el sistema de memoria organizacional. Cada uno tiene un equivalente directo ya funcionando en el LLM Wiki:

| Componente Corp-Brain-OS | Equivalente LLM Wiki | Implicación |
|--------------------------|---------------------|-------------|
| **O-IB** — Organizational IntelliBank | `LLM-Wiki/Wiki/` | La carpeta Wiki ES el repositorio gobernado de activos cognitivos, con AI como steward automático |
| **APL** — Activity Pulse Layer | Operación **Ingest** | Cada Ingest es telemetría estructurada: captura outputs sin requerir reporte consciente del operador |
| **SE** — Synthesis Engine | Operaciones **Query + Lint** | Query = modo activo; Lint = detección pasiva de patrones, gaps y contradicciones |
| **GB** — Governance Bridge | `LLM-Wiki/claude.md` | El schema codifica las reglas de gobernanza — equivalente operativo de INV-01 a INV-07 del BMF |
| **Org-Sherpa** | Cualquier Sherpa + Wiki como workspace | El Org-Sherpa es un Sherpa cuyo CLAUDE.md apunta al Corp-Vault — que es exactamente el directorio `Wiki/` |

> [!note] Decisión arquitectónica validada
> El Problem Statement (Reto 2, 2026-04-09) establece: *"El Vault local es siempre la capa de interfaz del Corp-Brain-OS."* El LLM Wiki vive dentro del Vault. La decisión de diseño y la implementación convergen sin haberlo planificado explícitamente — esto valida la arquitectura.

**Ruta de escalación:** cuando Corp-Brain-OS se implemente para Estafeta, el `claude.md` personal evoluciona a schema organizacional, `Wiki/` se convierte en el Corp-Vault compartido, y el Org-Sherpa apunta a esa estructura. La curva de aprendizaje ocurre ahora, en el ecosistema propio, antes de implementarlo en el de un cliente.

---

## 5. Beneficios operativos concretos

**Síntesis cross-activo sin esfuerzo manual.** Una consulta como *"¿Qué restricciones del Kernel BMF aplican al diseño del Governance Bridge?"* navega automáticamente los nodos compilados de ambos dominios. Hoy esa síntesis requiere abrir múltiples archivos simultáneamente.

**Detección automática de contradicciones.** Cuando un nuevo activo contradice una decisión anterior, el AI lo flagea durante el Ingest. Con 133+ activos en evolución activa, esto previene inconsistencias que hoy se detectan manualmente — o no se detectan.

**Reducción de tokens hasta 95%.** Navegación por índice estructurado en lugar de lectura de archivos crudos. A mayor volumen de activos, mayor ventaja.

**Backfill automático de conocimiento externo.** Si una query revela un gap en el Wiki, el AI busca externamente, responde y crea una página permanente en `Wiki/`. El sistema se vuelve más inteligente con cada gap que encuentra.

**Onboarding enterprise sin fricción.** Para Estafeta, el Corp-Vault es la fuente de onboarding del Org-Sherpa. Un nuevo ejecutivo cuyo SherpaX apunta a ese vault arranca con contexto organizacional completo desde la primera sesión.

---

## 6. Convergencia con EmpowerLabs IntelliBank

El [[MePB-INTELLIBANK-DomainMetaFactory-v01]] define un repositorio gobernado de activos cognitivos con Cognitive Asset Stack de 6 capas y sistema de badge ⬡. El LLM Wiki aporta lo que el IntelliBank necesita pero no tiene implementado aún: la capa de síntesis semántica.

**El IntelliBank sabe qué activos existen. El LLM Wiki sabe qué significan.**

Cuando la vault migre al IntelliBank en los próximos días, `LLM-Wiki/Wiki/` migra con ella como la capa de inteligencia procesada del banco — activos ya compilados en un grafo consultable por cualquier Sherpa del ecosistema.

> [!tip] Prioridad: primer Ingest antes de la migración
> Depositar estos 4 activos fundacionales en `Raw/` y ejecutar la compilación inicial del grafo:
> 1. [[OUT-HiORG-CorpBrainOS-ProblemStatement-v01]]
> 2. [[BMF-MPB-Kernel-v01]]
> 3. [[MePB-INTELLIBANK-DomainMetaFactory-v01]]
> 4. `PAPER-FactoryOS-NuevaArquitecturaOrganizacional-v01`
>
> Estos son los nodos fundacionales. Sus conexiones generarán las páginas de mayor densidad semántica y el contexto arquitectónico base para cualquier consulta posterior.

---

## 7. Modo de uso recomendado

El LLM Wiki no reemplaza el workflow actual de Reinventaverse. Las notas diarias, rituales de captura y task lists continúan exactamente igual. El Wiki opera sobre los outputs estratégicos.

**Usar para:**
- Activos BMF completados (cualquier capa L0–L6)
- Documentos de arquitectura y Problem Statements
- MetaPlaybooks y Transfer Packets
- Outputs de sesiones de diseño SherpaX
- Consultas cross-arquitectónicas complejas
- Lints periódicos de consistencia del ecosistema

**Mantener fuera:**
- Daily notes y rituales de captura
- Tasks y listas operativas
- Borradores en proceso (solo ingestar cuando estén completos)
- Templates vacíos o sin contenido sustantivo

---

## 8. Próximos pasos

| # | Horizonte | Acción | Responsable |
|---|-----------|--------|-------------|
| 1 | Esta semana | Primer Ingest con los 4 activos fundacionales | Victor + SherpaX |
| 2 | Esta semana | Primera Query estratégica: relaciones IntelliBank ↔ Corp-Brain-OS ↔ Factory OS | Victor |
| 3 | Antes de migración IntelliBank | Ingest masivo de activos BMF activos y completados | Victor + Jacob |
| 4 | Durante migración IntelliBank | Configurar `Wiki/` como la capa semántica del IntelliBank | Victor + equipo técnico |
| 5 | Primer cliente enterprise (Estafeta) | Replicar arquitectura como Corp-Vault base del Org-Sherpa | Victor + implementador |
| 6 | Mensual (continuo) | Lint run para mantener densidad del grafo | SherpaX (autónomo) |

---

> [!abstract] Síntesis ejecutiva
> El LLM Wiki no es una herramienta añadida al ecosistema. Es la implementación de facto de la capa de síntesis que el Corp-Brain-OS requiere — operando hoy, a escala personal, con los activos BMF existentes. Cada activo depositado en `Raw/` es telemetría de la Activity Pulse Layer. Cada query al Wiki es el Synthesis Engine en modo activo. El Org-Sherpa de Estafeta leerá mañana el mismo tipo de estructura que Victor compila hoy.

---
*EmpowerLabs · BigMetaFactory · Abril 2026*
