Bibliographie
Livres et articles fondamentaux sur l'IA
Une sélection de livres et articles essentiels pour maîtriser l'intelligence artificielle, du niveau débutant à la recherche avancée.
Livres fondamentaux
Machine Learning
Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow
Aurélien Géron | O'Reilly | 3e édition (2022)
Niveau : Débutant à Intermédiaire
Focus : Pratique avec code
Points forts :
├── Approche très pratique
├── Exemples concrets avec code
├── Couvre ML classique et Deep Learning
└── Exercices à chaque chapitre
Idéal pour : Débuter avec une approche hands-onPattern Recognition and Machine Learning
Christopher Bishop | Springer (2006)
Niveau : Intermédiaire à Avancé
Focus : Théorie mathématique
Points forts :
├── Fondements mathématiques rigoureux
├── Approche bayésienne
├── Référence académique
└── Excellentes illustrations
Idéal pour : Comprendre la théorie en profondeurThe Elements of Statistical Learning
Hastie, Tibshirani, Friedman | Springer (2009)
Niveau : Avancé
Focus : Statistiques et ML
Points forts :
├── Référence statistique
├── Couverture exhaustive
├── Disponible gratuitement en PDF
└── Exercices mathématiques
Idéal pour : Background statistique solideAn Introduction to Statistical Learning
James, Witten, Hastie, Tibshirani | Springer (2021)
Niveau : Débutant à Intermédiaire
Focus : Introduction accessible aux stats ML
Points forts :
├── Version accessible de "Elements"
├── Exemples en R et Python
├── Gratuit en PDF
└── Labs pratiques
Idéal pour : Première approche statistique du MLDeep Learning
Deep Learning
Ian Goodfellow, Yoshua Bengio, Aaron Courville | MIT Press (2016)
Niveau : Intermédiaire à Avancé
Focus : Théorie du Deep Learning
Points forts :
├── LA référence académique
├── Fondements mathématiques complets
├── Écrit par des pionniers
└── Disponible gratuitement en ligne
Idéal pour : Comprendre le DL en profondeurDeep Learning with Python
François Chollet | Manning | 2e édition (2021)
Niveau : Débutant à Intermédiaire
Focus : Keras et TensorFlow
Points forts :
├── Par le créateur de Keras
├── Approche intuitive
├── Excellents exemples pratiques
└── Code moderne
Idéal pour : Apprendre Keras/TensorFlowDive into Deep Learning
Zhang, Lipton, Li, Smola | Cambridge (2023)
Niveau : Intermédiaire
Focus : DL interactif
Points forts :
├── Notebooks interactifs
├── Multi-framework (PyTorch, TensorFlow, JAX)
├── Gratuit en ligne
└── Mise à jour régulière
Idéal pour : Apprentissage interactifNLP et LLM
Speech and Language Processing
Dan Jurafsky, James Martin | 3e édition (draft)
Niveau : Intermédiaire à Avancé
Focus : NLP complet
Points forts :
├── Référence NLP exhaustive
├── Des fondamentaux aux Transformers
├── Gratuit en ligne (draft)
└── Régulièrement mis à jour
Idéal pour : Maîtriser le NLPNatural Language Processing with Transformers
Lewis Tunstall, Leandro von Werra, Thomas Wolf | O'Reilly (2022)
Niveau : Intermédiaire
Focus : Hugging Face et Transformers
Points forts :
├── Par l'équipe Hugging Face
├── Très pratique
├── Applications modernes
└── Code à jour
Idéal pour : Utiliser les Transformers en pratiqueReinforcement Learning
Reinforcement Learning: An Introduction
Richard Sutton, Andrew Barto | MIT Press | 2e édition (2018)
Niveau : Intermédiaire à Avancé
Focus : Fondements du RL
Points forts :
├── LA référence du domaine
├── Par les pionniers du RL
├── Théorie complète
└── Gratuit en ligne
Idéal pour : Apprendre le RL de A à ZÉthique et société
Weapons of Math Destruction
Cathy O'Neil | Crown (2016)
Niveau : Tout public
Focus : Impact sociétal des algorithmes
Points forts :
├── Accessible sans background technique
├── Cas concrets et frappants
├── Critique constructive
└── Prix National Book Award
Idéal pour : Comprendre les enjeux éthiquesAtlas of AI
Kate Crawford | Yale University Press (2021)
Niveau : Tout public
Focus : Géopolitique et infrastructure de l'IA
Points forts :
├── Perspective critique
├── Impact environnemental et social
├── Bien documenté
└── Vision systémique
Idéal pour : Vue d'ensemble des enjeuxArticles fondateurs
Machine Learning classique
| Année | Article | Auteurs | Contribution |
|---|---|---|---|
| 1997 | Long Short-Term Memory | Hochreiter & Schmidhuber | Architecture LSTM |
| 2001 | Random Forests | Breiman | Ensembles d'arbres |
| 2001 | A Tutorial on SVMs | Burges | Support Vector Machines |
| 2003 | Latent Dirichlet Allocation | Blei et al. | Topic modeling |
| 2006 | Reducing Dimensionality with Neural Networks | Hinton & Salakhutdinov | Deep autoencoders |
Deep Learning
| Année | Article | Auteurs | Contribution |
|---|---|---|---|
| 2012 | ImageNet Classification with Deep CNNs | Krizhevsky et al. | AlexNet, révolution DL |
| 2014 | Generative Adversarial Networks | Goodfellow et al. | GANs |
| 2014 | Sequence to Sequence Learning | Sutskever et al. | Seq2Seq |
| 2015 | Deep Residual Learning | He et al. | ResNet, skip connections |
| 2015 | Batch Normalization | Ioffe & Szegedy | BatchNorm |
| 2016 | WaveNet | van den Oord et al. | Génération audio |
Transformers et LLM
| Année | Article | Auteurs | Contribution |
|---|---|---|---|
| 2017 | Attention Is All You Need | Vaswani et al. | Architecture Transformer |
| 2018 | BERT | Devlin et al. | Pré-entraînement bidirectionnel |
| 2018 | GPT | Radford et al. | Language modeling génératif |
| 2020 | Language Models are Few-Shot Learners | Brown et al. | GPT-3, scaling laws |
| 2020 | An Image is Worth 16x16 Words | Dosovitskiy et al. | Vision Transformer (ViT) |
| 2021 | LoRA | Hu et al. | Fine-tuning efficient |
| 2022 | Training Language Models to Follow Instructions | Ouyang et al. | InstructGPT, RLHF |
| 2022 | Constitutional AI | Bai et al. | Alignement par constitution |
Sécurité et alignement
| Année | Article | Auteurs | Contribution |
|---|---|---|---|
| 2016 | Concrete Problems in AI Safety | Amodei et al. | Taxonomie des risques |
| 2017 | Deep Reinforcement Learning from Human Preferences | Christiano et al. | RLHF |
| 2022 | Red Teaming Language Models | Perez et al. | Évaluation de sécurité |
| 2023 | Sparks of AGI | Bubeck et al. | Analyse GPT-4 |
Conférences majeures
Tier 1 (top venues)
| Conférence | Focus | Quand |
|---|---|---|
| NeurIPS | ML général | Décembre |
| ICML | ML général | Juillet |
| ICLR | Représentations | Mai |
| CVPR | Vision | Juin |
| ACL | NLP | Variable |
| EMNLP | NLP | Novembre |
Tier 2 (excellentes)
| Conférence | Focus |
|---|---|
| AAAI | IA général |
| IJCAI | IA général |
| ECCV/ICCV | Vision |
| NAACL | NLP |
| ICRA | Robotique |
| KDD | Data Mining |
Comment suivre
RESSOURCES PAPERS :
arXiv.org
├── cs.LG (Machine Learning)
├── cs.CL (Computation and Language)
├── cs.CV (Computer Vision)
└── stat.ML (Statistics ML)
Papers With Code
├── State-of-the-art par tâche
├── Code associé aux papers
└── Datasets et benchmarks
Semantic Scholar
├── Recherche sémantique
├── Graphes de citations
└── Alertes personnalisées
Connected Papers
├── Visualisation des connexions
└── Découverte de papers liésLivres en français
| Titre | Auteur | Éditeur | Niveau |
|---|---|---|---|
| Deep Learning | Goodfellow et al. (trad.) | Massot | Avancé |
| L'Intelligence Artificielle pour les Nuls | Dumont & Mueller | First | Débutant |
| Python pour le Data Scientist | Grus (trad.) | O'Reilly | Intermédiaire |
| Machine Learning avec Python | VanderPlas (trad.) | O'Reilly | Intermédiaire |
Ressources gratuites en ligne
Livres gratuits
- Deep Learning Book : deeplearningbook.org
- ISLR : statlearning.com
- ESL : hastie.su.domains/ElemStatLearn
- Sutton & Barto RL : incompleteideas.net/book
- Speech and Language Processing : web.stanford.edu/~jurafsky/slp3
- Dive into Deep Learning : d2l.ai
Collections de notes
- CS229 Notes (Stanford ML)
- CS231n Notes (Stanford Vision)
- Lilian Weng's Blog (OpenAI)
- Jay Alammar's Blog (Visualisations)
Résumé
LIVRES ESSENTIELS PAR NIVEAU :
Débutant :
├── Hands-On ML (Géron)
├── Deep Learning with Python (Chollet)
└── ISLR (Hastie et al.)
Intermédiaire :
├── Deep Learning (Goodfellow)
├── Pattern Recognition (Bishop)
└── NLP with Transformers
Avancé :
├── ESL (Hastie et al.)
├── RL: An Introduction (Sutton)
└── Papers de conférences
PAPERS INCONTOURNABLES :
├── Attention Is All You Need (Transformers)
├── BERT, GPT (LLM)
├── ResNet (Vision)
└── AlexNet (Révolution DL)
CONFÉRENCES :
NeurIPS, ICML, ICLR, CVPR, ACL