آليات نماذج اللغة الكبيرة
النظرية والبنية المعمارية والممارسة للمهندس

الإصدارات (اللغات)
- Français : Édition française
- English : English edition
- Español : Edición en español
- Português (Brasil) : Edição em português (Brasil)
- العربية : الترجمة العربية
لماذا هذا الكتاب؟
مهندس ومدير أنظمة معلومات، يتبنى المؤلف نهج البنية المعمارية والقرار: ليس فقط “ما يفعله” النموذج، بل “كيف” و"تحت أي ظروف" يتكامل في نظام المعلومات.
منذ ظهور المحولات (Transformers)، شهد الذكاء الاصطناعي قفزة نوعية كبيرة. لم يعد صندوقًا أسود غامضًا، بل أصبح بنية هندسية قابلة للفهم.
يقوم هذا الكتاب بتحليل نماذج اللغة الكبيرة بنفس الدقة المطبقة على بنية معلوماتية معقدة. لا وعود سحرية: مبادئ ومعادلات وكود قابل للتنفيذ، مع نظرة واضحة لصانع القرار التقني.
نظرة عامة: 15 فصلاً تدريجيًا
الجزء الأول: الأساسيات (الفصول 1-3)
الأسس الرياضية والمعمارية
الفصل 1 - مقدمة لمعالجة اللغة الطبيعية
- NLP الكلاسيكي مقابل المناهج الحديثة
- نموذج التنبؤ بالتسلسلات
الفصل 2 - تمثيل النص والنماذج التسلسلية
- التجزيء (BPE، WordPiece، SentencePiece)
- التضمينات والتمثيلات الشعاعية
- نماذج RNN، LSTM، GRU
الفصل 3 - بنية المحول (Transformer)
- الانتباه الذاتي: الصيغة، الحدس، الحسابات
- الانتباه متعدد الرؤوس ومزاياه
- التطبيع (LayerNorm) والاتصالات المتبقية
الجزء الثاني: البنية المعمارية والتحسين (الفصول 4-8)
البناء والتدريب على نطاق واسع
الفصل 4 - النماذج المشتقة من المحول
- BERT، GPT، T5: البنيات والتطبيقات
- محولات الرؤية (ViT)
الفصل 5 - التحسينات المعمارية
- الانتباه الخطي والتقريبات
- ذاكرة التخزين المؤقت Key-Value والاستدلال الفعال
الفصل 6 - بنية Mixture-of-Experts (MoE)
- خوارزميات التوجيه
- قوانين التوسع مع MoE
الفصل 7 - التدريب المسبق لنماذج اللغة الكبيرة
- أهداف التدريب المسبق
- البيانات، التجزيء، ووظائف الخسارة
- قوانين التوسع: الحوسبة مقابل البيانات مقابل حجم النموذج
الفصل 8 - تحسينات التدريب
- Gradient checkpointing و activation checkpointing
- التدريب الموزع: DDP، FSDP
- المُحسِّنات: Adam، AdamW، التنويعات الحديثة
الجزء الثالث: التعلم والمواءمة (الفصول 9-12)
من نموذج خام إلى مساعد مفيد
الفصل 9 - الضبط الدقيق المُشرَف (SFT)
- ضبط التعليمات
- LoRA و QLoRA: تقليل المعاملات
- الضبط الدقيق الفعال من حيث الموارد
الفصل 10 - المواءمة مع التفضيلات البشرية
- RLHF (التعلم المعزز من التغذية الراجعة البشرية)
- نماذج المكافأة وتحدياتها
- التفضيلات الضمنية مقابل الصريحة
الفصل 11 - استراتيجيات التوليد والاستدلال
- العينات، درجة الحرارة، Top-k، Top-p
- البحث الشعاعي والتوليد الموجه
- معالجات الlogits والقيود
الفصل 12 - نماذج التفكير
- سلسلة التفكير (CoT)
- شجرة التفكير (ToT)
- التناسق الذاتي والتصويت بالأغلبية
الجزء الرابع: النظام البيئي الوكيل (الفصول 13-15)
النشر والاستخدام المستقل
الفصل 13 - الأنظمة المعززة و RAG
- التوليد المعزز بالاسترجاع
- قواعد البيانات الشعاعية والبحث بالتشابه
- استراتيجيات التجزئة والفهرسة
الفصل 14 - بروتوكولات الوكلاء المعيارية (MCP)
- بروتوكول سياق النموذج
- استدعاءات الأدوات وتعريفات الوظائف
- حلقات الوكلاء والتنسيق
الفصل 15 - التقييم النقدي لتدفقات الوكلاء
- مقاييس الجودة (BLEU، ROUGE، BERTScore)
- أطر التقييم
- القيود والهلوسات
الموارد المتضمنة
9 نصوص Python قابلة للتنفيذ
يتم توضيح جميع المفاهيم النظرية بكود وظيفي:
- 01_tokenization_embeddings.py — التجزيء والمتجهات
- 02_multihead_attention.py — الانتباه الذاتي بالتفصيل
- 03_temperature_softmax.py — العينات ودرجة الحرارة
- 04_rag_minimal.py — خط أنابيب RAG بسيط
- 05_pass_at_k_evaluation.py — تقييم النماذج
- 06_react_agent_bonus.py — وكلاء ReAct
- 07_llamaindex_rag_advanced.py — RAG متقدم
- 08_lora_finetuning_example.py — LoRA والضبط الدقيق
- 09_mini_assistant_complet.py — مساعد صغير متكامل
جميع النصوص:
- ✅ قابلة للتنفيذ بدون API خارجي (وضع العرض/المحاكاة)
- ✅ موثقة ومشروحة سطراً بسطر
- ✅ متوافقة مع Python 3.9+
- ✅ متوفرة مجانًا على GitHub
خصائص الكتاب
| الجانب | التفاصيل |
|---|---|
| المؤلف | مصطفى العواني |
| الصفحات | 153 صفحة |
| الفصول | 15 فصلاً تقنيًا |
| التنسيق | 6 × 9 بوصة |
| اللغة | العربية |
| الجمهور | مهندسون، طلاب متقدمون، مسؤولون تقنيون |
| المتطلبات المسبقة | الاحتماليات، الجبر الخطي، ممارسة Python |
| المستوى | متوسط ← متقدم |
| الحالة | ✅ منشور (2025) |
لمن هذا الكتاب؟
✅ المهندسون الذين يريدون فهم نماذج اللغة الكبيرة بعمق أكبر من مجرد API
✅ الطلاب في علوم الحاسوب، ML، AI: دعم أكاديمي صارم
✅ علماء البيانات المتحولون إلى نماذج اللغة الكبيرة
✅ المسؤولون التقنيون الذين يجب عليهم دمج نماذج اللغة الكبيرة
✅ الباحثون في NLP و ML الباحثون عن مرجع بالعربية
✅ المطورون الفضوليون لمعرفة ما يحدث “تحت الغطاء”
❌ غير موصى به لـ: القراء الذين يبحثون فقط عن “استخدام ChatGPT”
ما يكتسبه القارئ
بعد قراءة هذا الكتاب، يصبح القارئ قادرًا على:
- شرح كيفية عمل المحول (Transformer) حقًا
- تحليل المفاضلات بين الجودة والتكلفة الحسابية
- تبرير الخيارات المعمارية (عدد الطبقات، الرؤوس، الحجم المخفي)
- تقييم نظام الذكاء الاصطناعي بشكل نقدي
- تنفيذ المفاهيم الرئيسية في كود
- الجدال بطريقة منظمة في المناقشات التقنية
- اتخاذ قرارات مستنيرة حول استخدام نماذج اللغة الكبيرة في نظام المعلومات
كيفية الحصول على الكتاب
متاح عبر نظام كيندل (قارئ، جهاز لوحي أو كمبيوتر) أو بصيغة مطبوعة.
موارد تكميلية
- الكود والنصوص : GitHub - Mechanics of LLMs
- المدونة : مقالات معمقة حول الذكاء الاصطناعي ونماذج اللغة الكبيرة
- النشرة الإخبارية : أخبار ورؤى تقنية
- العودة إلى الكتب : جميع الكتب ←
ملاحظة من المؤلف
وُلد هذا الكتاب من حاجة متكررة لوحظت لدى الفرق التقنية وصناع القرار: فهم ما يحدث فعليًا وراء واجهة برمجة تطبيقات نموذج اللغة، من أجل اتخاذ القرارات بمعرفة كاملة. صُمم ليُقرأ مع قلم في اليد، مع أخذ الوقت لمتابعة التفكير والصيغ والكود.
إنه كتاب هندسي، موجه نحو القرار. يستهدف أولئك الذين يبنون الأنظمة وأولئك الذين يحكمون استخدامها على حد سواء.
مصطفى العواني