La Mecánica de los LLM
Teoría, Arquitectura y Práctica para el Ingeniero

Ediciones (idiomas)
- Français : Édition française
- English : English edition
- Español : Edición en español
- Português (Brasil) : Edição em português (Brasil)
- العربية : الترجمة العربية
¿Por qué este libro?
Ingeniero y Director de Sistemas de Información, el autor adopta un enfoque de arquitectura y decisión: no solo “qué hace” un modelo, sino “cómo” y “bajo qué condiciones” se integra en un sistema de información.
Desde la aparición de los Transformers, la inteligencia artificial ha experimentado una ruptura importante. Ya no es una caja negra misteriosa, es una arquitectura de ingeniería comprensible.
Este libro disecciona los LLMs con el mismo rigor que una arquitectura informática compleja. Sin promesas mágicas: principios, ecuaciones y código ejecutable, con una perspectiva asumida de decisor IT.
Visión general: 15 capítulos progresivos
Parte I: Fundamentos (Capítulos 1-3)
Las bases matemáticas y arquitectónicas
Cap. 1 - Introducción al Procesamiento del Lenguaje Natural
- NLP clásico vs enfoques modernos
- Paradigma de predicción de secuencias
Cap. 2 - Representación del Texto y Modelos Secuenciales
- Tokenización (BPE, WordPiece, SentencePiece)
- Embeddings y representaciones vectoriales
- Modelos RNN, LSTM, GRU
Cap. 3 - Arquitectura Transformer
- Self-attention: fórmula, intuición, cálculos
- Multi-head attention y sus ventajas
- Normalización (LayerNorm) y Conexiones Residuales
Parte II: Arquitectura y Optimización (Capítulos 4-8)
Construir y entrenar a gran escala
Cap. 4 - Modelos Derivados del Transformer
- BERT, GPT, T5: arquitecturas y aplicaciones
- Vision Transformers (ViT)
Cap. 5 - Optimizaciones Arquitectónicas
- Atención lineal y aproximaciones
- Key-Value Cache e inferencia eficiente
Cap. 6 - Arquitectura Mixture-of-Experts (MoE)
- Algoritmos de enrutamiento
- Leyes de escala con MoE
Cap. 7 - Pre-entrenamiento de LLMs
- Objetivos de pre-entrenamiento
- Datos, tokenización y funciones de pérdida
- Leyes de escala: cómputo vs datos vs tamaño del modelo
Cap. 8 - Optimizaciones de Entrenamiento
- Gradient checkpointing y activation checkpointing
- Distributed training: DDP, FSDP
- Optimizadores: Adam, AdamW, variaciones modernas
Parte III: Aprendizaje y Alineación (Capítulos 9-12)
De modelo bruto a asistente útil
Cap. 9 - Ajuste Fino Supervisado (SFT)
- Instruction tuning
- LoRA y QLoRA: reducción de parámetros
- Fine-tuning eficiente en recursos
Cap. 10 - Alineación con Preferencias Humanas
- RLHF (Reinforcement Learning from Human Feedback)
- Modelos de recompensa y sus desafíos
- Preferencias implícitas vs explícitas
Cap. 11 - Estrategias de Generación e Inferencia
- Sampling, Temperatura, Top-k, Top-p
- Beam search y generación guiada
- Procesadores de logits y restricciones
Cap. 12 - Modelos de Razonamiento
- Chain-of-Thought (CoT)
- Tree-of-Thought (ToT)
- Self-consistency y votación por mayoría
Parte IV: Ecosistema Agéntico (Capítulos 13-15)
Despliegue y uso autónomo
Cap. 13 - Sistemas Aumentados y RAG
- Retrieval-Augmented Generation
- Bases de datos vectoriales y búsqueda por similitud
- Estrategias de chunking e indexación
Cap. 14 - Protocolos Estándar Agénticos (MCP)
- Model Context Protocol
- Llamadas a herramientas y definiciones de funciones
- Bucles de agentes y orquestación
Cap. 15 - Evaluación Crítica de Flujos Agénticos
- Métricas de calidad (BLEU, ROUGE, BERTScore)
- Frameworks de evaluación
- Limitaciones y alucinaciones
Recursos incluidos
9 Scripts Python Ejecutables
Todos los conceptos teóricos se ilustran con código funcional:
- 01_tokenization_embeddings.py — Tokenización y vectores
- 02_multihead_attention.py — Self-attention en detalle
- 03_temperature_softmax.py — Sampling y temperatura
- 04_rag_minimal.py — Pipeline RAG minimalista
- 05_pass_at_k_evaluation.py — Evaluación de modelos
- 06_react_agent_bonus.py — Agentes ReAct
- 07_llamaindex_rag_advanced.py — RAG avanzado
- 08_lora_finetuning_example.py — LoRA y fine-tuning
- 09_mini_assistant_complet.py — Mini-asistente integrador
Todos los scripts:
- ✅ Ejecutables sin API externa (modo demo/simulación)
- ✅ Documentados y explicados línea por línea
- ✅ Compatible con Python 3.9+
- ✅ Disponibles gratuitamente en GitHub
Características del libro
| Aspecto | Detalle |
|---|---|
| Autor | Mustapha Alouani |
| Páginas | 153 páginas |
| Capítulos | 15 capítulos técnicos |
| Formato | 6 × 9 pulgadas |
| Idioma | Español |
| Público | Ingenieros, estudiantes avanzados, responsables técnicos |
| Requisitos previos | Probabilidades, álgebra lineal, práctica en Python |
| Nivel | Intermedio → avanzado |
| Estado | ✅ Publicado (2025) |
¿A quién se dirige este libro?
✅ Ingenieros que quieren entender los LLMs más allá de una API
✅ Estudiantes de informática, ML, IA: un soporte riguroso
✅ Data Scientists en transición hacia los LLMs
✅ Responsables técnicos que deben integrar los LLMs
✅ Investigadores en NLP y ML que buscan una referencia en español
✅ Desarrolladores curiosos por saber qué pasa “bajo el capó”
❌ No recomendado para: Los lectores que solo buscan “usar ChatGPT”
Lo que el lector obtiene
Después de leer este libro, el lector es capaz de:
- Explicar cómo funciona realmente un Transformer
- Analizar los compromisos entre calidad y costo computacional
- Justificar elecciones arquitectónicas (número de capas, cabezas, tamaño oculto)
- Evaluar un sistema de IA de manera crítica
- Implementar los conceptos clave en código
- Argumentar de manera estructurada en discusiones técnicas
- Tomar decisiones informadas sobre el uso de LLM en un sistema de información
Cómo obtener el libro
Disponible a través del ecosistema Kindle (lector, tableta u ordenador) o en formato impreso.
Recursos complementarios
- Código y Scripts : GitHub - Mechanics of LLMs
- Blog : Artículos en profundidad sobre IA y LLMs
- Newsletter : Noticias y conocimientos técnicos
- Volver a los libros : Todos los libros →
Nota del autor
Este libro nace de una necesidad recurrente observada en los equipos técnicos y los decisores: entender qué sucede realmente detrás de una API de modelo de lenguaje, para decidir con conocimiento de causa. Está diseñado para leerse con lápiz en mano, tomándose el tiempo de seguir los razonamientos, las fórmulas y el código.
Es un libro de ingeniería, orientado a la decisión. Está dirigido tanto a quienes construyen los sistemas como a quienes arbitran su uso.
Mustapha Alouani