## Asset Header

- **Asset ID:** BCB-TP-BookDistiller-v01
- **Version:** v01
- **Status:** Draft
- **Owner:** Victor Heredia
- **IntellBank:** IB-EL-EmpowerLabs
- **Tipo:** BCB — (tipo pendiente)
- **Propósito:** ⚡ BCB-TP-BookDistiller-v01
- **Última actualización:** 2026-04-11

---

# ⚡ BCB-TP-BookDistiller-v01

**Asset ID:** BCB-TP-BOOK-DISTILLER-v01

**Status:** Operativo | **Fecha:** 2026-04-08

**Categoría:** BCB — Brain Code Books

**Objetivo:** Destilar el ADN cognitivo de libros completos y antologías en una arquitectura de memoria jerarquizada (Core / Working / Archival) que permita al Sherpa IA responder cualquier pregunta sobre la obra sin necesidad de cargar el texto original.

---

## 🧭 MODOS DE OPERACIÓN

Este destilador opera en **tres modos** según la naturaleza de la fuente:

| Modo | Fuente | Complejidad |
|------|--------|-------------|
| **LIBRO** | Un libro completo (PDF, EPUB, MADTOWN) | Alta — requiere 4 pasadas |
| **ARTÍCULO** | Un artículo o ensayo único | Media — requiere 2 pasadas |
| **ANTOLOGÍA** | Colección de múltiples artículos | Alta+ — requiere 4 pasadas + síntesis cruzada |

---

## 🏗️ ARQUITECTURA DE SALIDA — LAS 3 CAPAS DE MEMORIA

Cada destilación produce exactamente **3 outputs** que corresponden a los niveles de memoria del Sherpa IA:

```
┌─────────────────────────────────────┐
│  CORE MEMORY (~500–800 tokens)      │  ← Siempre cargada en el sistema
│  La esencia irreducible del libro   │
├─────────────────────────────────────┤
│  WORKING MEMORY (~3,000–5,000 tok.) │  ← Se carga cuando el libro es relevante
│  Frameworks, modelos, heurísticas   │
├─────────────────────────────────────┤
│  ARCHIVAL MEMORY (modular)          │  ← Se recupera por consulta semántica (RAG)
│  Fragmentos por capítulo / artículo │
└─────────────────────────────────────┘
```

**Regla de oro:** El Sherpa debe poder responder el 80% de las preguntas usando solo Core + Working Memory. El Archival Memory existe para profundidad quirúrgica.

---

## 📘 MODO 1 — LIBRO COMPLETO

### Pipeline de 4 Pasadas

Ejecutar en **NotebookLM** (con el libro como fuente grounded) o en **Gemini** con el texto completo.

---

### PASADA 1 — CHAPTER SNAP (Archival Memory Base)

```
# ROLE: BOOK ARCHITECT — CHAPTER SNAP

## CONTEXT
I have provided a complete book. Your task is to generate the ARCHIVAL MEMORY base.

## TASK
For each chapter or major section, produce:
- **Chapter ID:** [Number + Title]
- **Core Argument:** One sentence — what does this chapter ARGUE (not just describe)?
- **Key Concept:** The single most important idea, framework, or term introduced.
- **Quotable Insight:** The most powerful sentence or passage from the chapter.
- **Connects to:** Which other chapters or concepts does this one reinforce or tension?

## OUTPUT FORMAT
Generate a Markdown document titled:
# BCB-[LIBRO]-Archival-ChapterSnap-v01

One block per chapter. Total length should not exceed 4,000 tokens.
Keep each chapter block under 200 tokens. Compress ruthlessly.
```

---

### PASADA 2 — CONCEPTUAL MAP (Working Memory Base — Parte A)

```
# ROLE: CONCEPT CARTOGRAPHER

## CONTEXT
Using the provided book, build a dense Conceptual Map for Working Memory.

## TASK
Extract and define:

### A. KEY CONCEPTS (máximo 12)
For each concept:
- **Name:** [Term as the author defines it — not the dictionary definition]
- **Definition:** What does THIS author mean by this? (2-3 sentences)
- **Why it matters:** Its function within the book's argument.

### B. CORE FRAMEWORKS
- List every model, matrix, or structured process the author presents.
- For each: Name → How it works (steps or dimensions) → When to apply it.

### C. CONCEPT RELATIONSHIPS
- Which concepts are prerequisites of others?
- Which are in tension or paradox?
- What is the "master concept" that organizes all others?

## OUTPUT FORMAT
# BCB-[LIBRO]-Working-ConceptMap-v01
Total length: under 2,500 tokens.
```

---

### PASADA 3 — COGNITIVE STACK (Working Memory Base — Parte B)

```
# ROLE: COGNITIVE DNA EXTRACTOR

## CONTEXT
Using the provided book, extract the author's cognitive signature — HOW they think, not just WHAT they say.

## TASK — COGNITIVE STACK

### 1. COGNITIVE LENSES (3–5 filters)
How does this author look at any problem?
Format: "This author always asks: [Question]" → Effect: [What this filter reveals]

### 2. MENTAL MODELS (3–5 frameworks)
What organizing structures does this author use to make sense of complexity?
Format: Model name → How it works → Signature phrase or metaphor

### 3. INVARIABLE PRINCIPLES (3–5 axioms)
What does this author treat as non-negotiable?
Format: Principle → Evidence from text → Anti-pattern (what violates this principle)

### 4. THINKING RULES (heuristics)
Situational triggers: "If [Situation] → Then [Author's response]"
Extract at least 5 explicit or implicit rules from the text.

### 5. COGNITIVE ALGORITHM
The author's master decision sequence — how do they move from problem to solution?
Present as a numbered sequence of 5–7 steps.

## OUTPUT FORMAT
# BCB-[LIBRO]-Working-CognitiveStack-v01
Total length: under 2,000 tokens.
```

---

### PASADA 4 — CORE MEMORY + QA SYNTHESIS

```
# ROLE: CORE MEMORY ARCHITECT + QA VALIDATOR

## CONTEXT
You have access to the Chapter Snap, Concept Map, and Cognitive Stack already generated.
Your task is two-part: (A) Compress everything into Core Memory, and (B) validate via QA.

## PART A — CORE MEMORY SYNTHESIS

Produce a single, dense document with these sections:

### 1. THE BOOK IN ONE PARAGRAPH
The central thesis. What problem does this book solve? What is the answer? 
Max: 150 tokens. Every word must earn its place.

### 2. THE 5 MASTER CONCEPTS
From the Concept Map, select the 5 that are irreplaceable. 
One sentence per concept — name + essential definition.

### 3. THE COGNITIVE SIGNATURE
2–3 sentences capturing HOW this author thinks.
A person who reads this should be able to predict the author's take on a new problem.

### 4. THE ACTIVATION PROMPT (Board Member Mode)
A 150–200 word instruction to make an AI embody this book's intelligence:
- Adopt the author's cognitive lenses
- Apply their frameworks
- Speak in their voice and cadence
- Know when to cite which concept

### 5. ANTI-PATTERNS
3 things this book would NEVER say or do. 
These prevent the Sherpa from going "off-character" with this knowledge.

## PART B — QA VALIDATION
Generate the 10 most likely questions a reader would ask about this book.
Answer each question using ONLY the Core Memory + Working Memory outputs.
If any question cannot be answered, flag it as a gap — the distillation is incomplete.

## OUTPUT FORMAT
# BCB-[LIBRO]-Core-Memory-v01
Target: 600–900 tokens for Part A. QA section is internal — do not include in final output.
```

---

## 📄 MODO 2 — ARTÍCULO ÚNICO

Para artículos o ensayos, el pipeline se comprime en **2 pasadas**.

### PASADA 1 — ARTICLE SNAP + COGNITIVE STACK

```
# ROLE: ARTICLE INTELLIGENCE DISTILLER (BCB-STANDARD)

## CONTEXT
I will provide a single article or essay. Extract its complete intelligence in one pass.

## TASK — 3 LAYERS

### LAYER 0: THE SNAP
- **Central Argument:** One sentence — the thesis.
- **Structure:** List the main sections/moves the article makes.
- **Key Evidence:** The 2–3 data points, cases, or studies the argument rests on.

### LAYER 1: COGNITIVE STACK
- **Cognitive Lens:** The primary filter this author uses.
- **Core Framework:** The model or structure they propose (if any).
- **Invariable Principle:** The non-negotiable assumption underneath the argument.
- **Thinking Rule:** "If [Situation] → Then [Author's conclusion]"

### LAYER 2: WORKING MEMORY OUTPUT
- **The Concept:** Name + definition in the author's own terms.
- **Why It Matters:** Its practical application.
- **Memorable Quote:** The sentence that should survive any summary.
- **Connects to:** Other thinkers, books, or ideas this article extends or challenges.

## OUTPUT FORMAT
# BCB-[ARTICULO]-Distilled-v01
Target: 400–600 tokens. Compress without losing the signature idea.
```

### PASADA 2 — CORE MEMORY (solo si el artículo es fuente de referencia frecuente)

Ejecutar la sección **PART A** de la Pasada 4 del Modo Libro, reducida a:
- El artículo en un párrafo (80 tokens máx.)
- 3 conceptos clave (no 5)
- El Activation Prompt (100–120 palabras)

---

## 📚 MODO 3 — ANTOLOGÍA

Una antología requiere **dos niveles de destilación**: individual y colectiva.

### FASE 1 — MICRO-DESTILACIÓN POR ARTÍCULO

Para cada artículo de la antología, ejecutar la **Pasada 1 del Modo Artículo**, pero con un output aún más comprimido:

```
# ROLE: ANTHOLOGY ARTICLE MICRO-DISTILLER

## CONTEXT
This article is part of a larger anthology. Distill it in extreme density.

## TASK — 4 ELEMENTS ONLY

1. **Argument:** One sentence. The thesis.
2. **Unique Contribution:** What does THIS article add that no other in the anthology says?
   If it says the same as another, note the overlap.
3. **Master Concept:** The single idea to remember from this article. Name + 1-sentence definition.
4. **Voice Signature:** One adjective + one sentence that captures how this author thinks.

## OUTPUT FORMAT
One compact block per article. Max: 150 tokens per article.
```

### FASE 2 — CROSS-SYNTHESIS (El valor diferencial de la antología)

```
# ROLE: ANTHOLOGY INTELLIGENCE SYNTHESIZER

## CONTEXT
You have the micro-distillations of all articles in the anthology.
Now extract the collective intelligence — what emerges from the WHOLE that no single article contains.

## TASK

### A. THEMATIC MAP
- What are the 3–5 recurring themes across the anthology?
- For each theme: which articles contribute to it, and what is the collective position?

### B. THE SPECTRUM OF POSITIONS
- On the anthology's central question, what are the main positions represented?
- Map them: Position A ↔ Position B ↔ Synthesis/Reconciliation
- Which authors are in explicit or implicit tension?

### C. THE EMERGENT ARGUMENT
- What argument does the anthology make AS A WHOLE that no single article makes alone?
- This is the "meta-thesis" of the collection.

### D. NAVIGATION INDEX
For each practical use case a reader might have, which article(s) to consult first?
Format: "If you need to understand [Topic] → Start with [Article X], then [Article Y]"

## OUTPUT FORMAT
# BCB-[ANTOLOGIA]-Working-CrossSynthesis-v01
Target: 1,500–2,500 tokens.
```

### FASE 3 — CORE MEMORY DE LA ANTOLOGÍA

Usar la Pasada 4 del Modo Libro, adaptada:

- **El libro en un párrafo** → **La antología en un párrafo**: qué pregunta responde la colección y cuál es la respuesta colectiva.
- **5 Master Concepts** → Los 5 conceptos más poderosos del conjunto (pueden ser de artículos distintos).
- **Cognitive Signature** → La "postura intelectual" de la antología como unidad editorial.
- **Activation Prompt** → Activa al Sherpa como conocedor de TODA la antología, con capacidad de navegar entre autores y posiciones.
- **Anti-patterns** → Lo que ningún autor de esta antología diría.

---

## 🗂️ SISTEMA DE NOMENCLATURA DE OUTPUTS

```
BCB-[TITULO]-Core-Memory-v01.md          ← Core Memory (siempre presente)
BCB-[TITULO]-Working-ConceptMap-v01.md   ← Working Memory Parte A
BCB-[TITULO]-Working-CognitiveStack-v01.md ← Working Memory Parte B
BCB-[TITULO]-Working-CrossSynthesis-v01.md ← Working Memory (solo Antología)
BCB-[TITULO]-Archival-ChapterSnap-v01.md ← Archival Memory (Libro/Antología)
```

**Convención de título:** Usar el nombre corto del libro o antología, sin artículos ni preposiciones. Ejemplo: `HumanDesign`, `EstrategiaVida`, `AILeadership2026`.

---

## ✅ CRITERIOS DE VALIDACIÓN (QA)

Una destilación es válida cuando cumple los **4 tests**:

**Test 1 — Completitud:** El Sherpa puede responder las 10 preguntas más probables sobre el libro usando solo Core + Working Memory. Sin gaps.

**Test 2 — Extrapolación:** El Sherpa puede aplicar la lógica del libro a un problema que el libro nunca abordó explícitamente. Si no puede, el Cognitive Stack está incompleto.

**Test 3 — Voz:** El Activation Prompt produce respuestas que suenan al autor, no a un asistente genérico. Prueba: genera una respuesta y evalúa si el autor la firmaría.

**Test 4 — Eficiencia de tokens:** Core Memory < 900 tokens. Working Memory < 5,000 tokens. Si se excede, comprimir hasta pasar el límite.

---

## 📋 GUÍA DE USO RÁPIDO

**Para un libro:**
1. Subir el libro completo a NotebookLM como fuente.
2. Ejecutar Pasadas 1, 2, 3 en secuencia — cada una genera su output.
3. Ejecutar Pasada 4 con los 3 outputs anteriores como contexto.
4. Validar con los 4 tests de QA.
5. Guardar los 4 archivos con nomenclatura BCB estándar.

**Para una antología:**
1. Subir todos los artículos a NotebookLM.
2. Ejecutar Fase 1 (micro-destilación) para cada artículo en un solo prompt.
3. Ejecutar Fase 2 (cross-synthesis) con todos los outputs de Fase 1.
4. Ejecutar Fase 3 (Core Memory) con los outputs de Fases 1 y 2.
5. Validar y guardar.

**Para un artículo único:**
1. Pegar el artículo directamente en Gemini o Claude.
2. Ejecutar Pasada 1 del Modo Artículo.
3. Ejecutar Pasada 2 solo si el artículo será referencia frecuente del Sherpa.
4. Guardar con nomenclatura BCB estándar.

---

## 🔗 INTEGRACIÓN CON EL SHERPA IA

Una vez generados los outputs, la carga en el Sherpa sigue este protocolo:

- **Core Memory** → Se añade al `system prompt` o instrucciones base del Sherpa para ese dominio.
- **Working Memory** → Se carga vía RAG cuando el usuario hace una pregunta relacionada con el libro.
- **Archival Memory** → Se fragmenta en chunks por capítulo/artículo y se indexa en la base vectorial con metadatos: `[titulo_libro]`, `[capitulo]`, `[tema]`, `[concepto_clave]`.

**Regla de recuperación:** El Sherpa nunca carga todo el Archival Memory. Solo recupera el chunk específico cuando la similitud semántica con la consulta supera el umbral definido.

---

_Generado por el Intelligence Distiller Design Room — BCB Edition — Abril 2026._
