La Mecánica De Los LLM

La Mecánica de los LLM

Teoría, Arquitectura y Práctica para el Ingeniero

La Mecánica de los LLM
Portada: La Mecánica de los LLM

Ediciones (idiomas)


¿Por qué este libro?

Ingeniero y Director de Sistemas de Información, el autor adopta un enfoque de arquitectura y decisión: no solo “qué hace” un modelo, sino “cómo” y “bajo qué condiciones” se integra en un sistema de información.

Desde la aparición de los Transformers, la inteligencia artificial ha experimentado una ruptura importante. Ya no es una caja negra misteriosa, es una arquitectura de ingeniería comprensible.

Este libro disecciona los LLMs con el mismo rigor que una arquitectura informática compleja. Sin promesas mágicas: principios, ecuaciones y código ejecutable, con una perspectiva asumida de decisor IT.


Visión general: 15 capítulos progresivos

Parte I: Fundamentos (Capítulos 1-3)

Las bases matemáticas y arquitectónicas

  • Cap. 1 - Introducción al Procesamiento del Lenguaje Natural

    • NLP clásico vs enfoques modernos
    • Paradigma de predicción de secuencias
  • Cap. 2 - Representación del Texto y Modelos Secuenciales

    • Tokenización (BPE, WordPiece, SentencePiece)
    • Embeddings y representaciones vectoriales
    • Modelos RNN, LSTM, GRU
  • Cap. 3 - Arquitectura Transformer

    • Self-attention: fórmula, intuición, cálculos
    • Multi-head attention y sus ventajas
    • Normalización (LayerNorm) y Conexiones Residuales

Parte II: Arquitectura y Optimización (Capítulos 4-8)

Construir y entrenar a gran escala

  • Cap. 4 - Modelos Derivados del Transformer

    • BERT, GPT, T5: arquitecturas y aplicaciones
    • Vision Transformers (ViT)
  • Cap. 5 - Optimizaciones Arquitectónicas

    • Atención lineal y aproximaciones
    • Key-Value Cache e inferencia eficiente
  • Cap. 6 - Arquitectura Mixture-of-Experts (MoE)

    • Algoritmos de enrutamiento
    • Leyes de escala con MoE
  • Cap. 7 - Pre-entrenamiento de LLMs

    • Objetivos de pre-entrenamiento
    • Datos, tokenización y funciones de pérdida
    • Leyes de escala: cómputo vs datos vs tamaño del modelo
  • Cap. 8 - Optimizaciones de Entrenamiento

    • Gradient checkpointing y activation checkpointing
    • Distributed training: DDP, FSDP
    • Optimizadores: Adam, AdamW, variaciones modernas

Parte III: Aprendizaje y Alineación (Capítulos 9-12)

De modelo bruto a asistente útil

  • Cap. 9 - Ajuste Fino Supervisado (SFT)

    • Instruction tuning
    • LoRA y QLoRA: reducción de parámetros
    • Fine-tuning eficiente en recursos
  • Cap. 10 - Alineación con Preferencias Humanas

    • RLHF (Reinforcement Learning from Human Feedback)
    • Modelos de recompensa y sus desafíos
    • Preferencias implícitas vs explícitas
  • Cap. 11 - Estrategias de Generación e Inferencia

    • Sampling, Temperatura, Top-k, Top-p
    • Beam search y generación guiada
    • Procesadores de logits y restricciones
  • Cap. 12 - Modelos de Razonamiento

    • Chain-of-Thought (CoT)
    • Tree-of-Thought (ToT)
    • Self-consistency y votación por mayoría

Parte IV: Ecosistema Agéntico (Capítulos 13-15)

Despliegue y uso autónomo

  • Cap. 13 - Sistemas Aumentados y RAG

    • Retrieval-Augmented Generation
    • Bases de datos vectoriales y búsqueda por similitud
    • Estrategias de chunking e indexación
  • Cap. 14 - Protocolos Estándar Agénticos (MCP)

    • Model Context Protocol
    • Llamadas a herramientas y definiciones de funciones
    • Bucles de agentes y orquestación
  • Cap. 15 - Evaluación Crítica de Flujos Agénticos

    • Métricas de calidad (BLEU, ROUGE, BERTScore)
    • Frameworks de evaluación
    • Limitaciones y alucinaciones

Recursos incluidos

9 Scripts Python Ejecutables

Todos los conceptos teóricos se ilustran con código funcional:

  • 01_tokenization_embeddings.py — Tokenización y vectores
  • 02_multihead_attention.py — Self-attention en detalle
  • 03_temperature_softmax.py — Sampling y temperatura
  • 04_rag_minimal.py — Pipeline RAG minimalista
  • 05_pass_at_k_evaluation.py — Evaluación de modelos
  • 06_react_agent_bonus.py — Agentes ReAct
  • 07_llamaindex_rag_advanced.py — RAG avanzado
  • 08_lora_finetuning_example.py — LoRA y fine-tuning
  • 09_mini_assistant_complet.py — Mini-asistente integrador

Todos los scripts:

  • ✅ Ejecutables sin API externa (modo demo/simulación)
  • ✅ Documentados y explicados línea por línea
  • ✅ Compatible con Python 3.9+
  • ✅ Disponibles gratuitamente en GitHub

Características del libro

AspectoDetalle
AutorMustapha Alouani
Páginas153 páginas
Capítulos15 capítulos técnicos
Formato6 × 9 pulgadas
IdiomaEspañol
PúblicoIngenieros, estudiantes avanzados, responsables técnicos
Requisitos previosProbabilidades, álgebra lineal, práctica en Python
NivelIntermedio → avanzado
Estado✅ Publicado (2025)

¿A quién se dirige este libro?

Ingenieros que quieren entender los LLMs más allá de una API
Estudiantes de informática, ML, IA: un soporte riguroso
Data Scientists en transición hacia los LLMs
Responsables técnicos que deben integrar los LLMs
Investigadores en NLP y ML que buscan una referencia en español
Desarrolladores curiosos por saber qué pasa “bajo el capó”

No recomendado para: Los lectores que solo buscan “usar ChatGPT”


Lo que el lector obtiene

Después de leer este libro, el lector es capaz de:

  • Explicar cómo funciona realmente un Transformer
  • Analizar los compromisos entre calidad y costo computacional
  • Justificar elecciones arquitectónicas (número de capas, cabezas, tamaño oculto)
  • Evaluar un sistema de IA de manera crítica
  • Implementar los conceptos clave en código
  • Argumentar de manera estructurada en discusiones técnicas
  • Tomar decisiones informadas sobre el uso de LLM en un sistema de información

Cómo obtener el libro

Disponible a través del ecosistema Kindle (lector, tableta u ordenador) o en formato impreso.


Recursos complementarios


Nota del autor

Este libro nace de una necesidad recurrente observada en los equipos técnicos y los decisores: entender qué sucede realmente detrás de una API de modelo de lenguaje, para decidir con conocimiento de causa. Está diseñado para leerse con lápiz en mano, tomándose el tiempo de seguir los razonamientos, las fórmulas y el código.

Es un libro de ingeniería, orientado a la decisión. Está dirigido tanto a quienes construyen los sistemas como a quienes arbitran su uso.

Mustapha Alouani