LLM et IA avancée#
Les grands modèles de langage (Large Language Models, LLM) ont inauguré une nouvelle ère en intelligence artificielle. Entraînés sur des corpus massifs, ils démontrent des capacités de raisonnement, de génération et de compréhension qui semblaient hors de portée il y a encore quelques années. Ce livre s’adresse aux praticiens qui souhaitent aller au-delà de la simple utilisation des API : comprendre l’architecture des Transformers, maîtriser le prompting avancé, construire des systèmes RAG et des agents autonomes, et raisonner sur l’alignement et la sécurité. Il fait suite au volume Apprentissage automatique de cette même collection.
L’ouvrage est organisé en six parties. La première couvre les fondations architecturales — Transformers, tokenisation, inférence. Les parties suivantes traitent du prompting, de la mémoire et du RAG, puis de la construction d’agents et de systèmes multi-agents. La partie sur l’alignement et la sécurité aborde les biais, le red-teaming et le déploiement responsable. La dernière partie ouvre vers le fine-tuning, la multimodalité et les perspectives de la recherche actuelle.
Partie I — Fondations des LLM#
Partie II — Prompting et raisonnement#
Partie III — Mémoire et connaissances#
Partie IV — Agents et systèmes multi-agents#
Partie V — Alignement et sécurité#
Partie VI — Vers l’expertise#
À propos de l’image de couverture. La visualisation en couverture représente des phrases décrivant les concepts du livre — LLM, agents, RAG, alignement, raisonnement, sécurité — encodées par un modèle de sentence embeddings puis projetées en deux dimensions par UMAP. Les groupes de couleur correspondent aux six parties du livre. Cette cartographie sémantique illustre le fil conducteur de l’ouvrage : donner une structure intelligible à l’espace complexe de l’IA moderne.
À propos de ce livre. Ces notes couvrent les grands modèles de langage (LLM) et l’IA avancée, depuis les fondements architecturaux jusqu’aux systèmes multi-agents, en passant par le prompting, la mémoire, l’alignement et la sécurité. L’approche mêle rigueur théorique et code Python exécutable. Ce livre fait suite au volume Apprentissage automatique et suppose acquis les chapitres sur les réseaux de neurones et les Transformers. La rédaction a été réalisée par Lôc Cosnier avec l’assistance de Claude (Anthropic), un modèle de langage. Le contenu a été relu, structuré et validé par l’auteur ; toute erreur restante lui est imputable.