Histoire de l'IA
De Turing aux grands modèles de langage, retour sur 80 ans d'intelligence artificielle
L'histoire de l'intelligence artificielle est marquée par des avancées spectaculaires, des hivers glaciaux et des renaissances inattendues.
Les précurseurs (avant 1950)
Les machines à calculer
- 1642 : Blaise Pascal invente la Pascaline, première machine à calculer mécanique
- 1837 : Charles Babbage conçoit la Machine Analytique, ancêtre de l'ordinateur
- 1843 : Ada Lovelace écrit le premier algorithme, devenant la première programmeuse
Les fondations théoriques
- 1936 : Alan Turing propose la Machine de Turing, modèle théorique de l'ordinateur
- 1943 : McCulloch et Pitts créent le premier modèle mathématique du neurone
La naissance de l'IA (1950-1960)
Le test de Turing (1950)
Alan Turing publie "Computing Machinery and Intelligence" et propose le célèbre test de Turing : une machine peut-elle se faire passer pour un humain dans une conversation ?
La question "Les machines peuvent-elles penser ?" posée par Turing reste au cœur des débats sur l'IA.
La conférence de Dartmouth (1956)
John McCarthy organise la conférence fondatrice de l'IA. C'est là que le terme "Intelligence Artificielle" est officiellement adopté.
Participants clés :
- John McCarthy (créateur de Lisp)
- Marvin Minsky (réseaux de neurones)
- Claude Shannon (théorie de l'information)
- Herbert Simon (résolution de problèmes)
Les premiers succès
- 1957 : Frank Rosenblatt crée le Perceptron, premier réseau de neurones
- 1958 : John McCarthy invente Lisp, le langage de l'IA
- 1966 : ELIZA, premier chatbot, simule un psychothérapeute
Le premier hiver de l'IA (1970-1980)
L'échec des promesses
Les chercheurs avaient promis des traductions automatiques parfaites et des IA générales en 20 ans. Face aux échecs :
- Le rapport Lighthill (1973) critique sévèrement les résultats
- Les financements s'effondrent
- Les projets sont abandonnés
Le problème de Minsky-Papert
En 1969, Marvin Minsky et Seymour Papert démontrent les limites du Perceptron simple, refroidissant l'enthousiasme pour les réseaux de neurones.
L'ère des systèmes experts (1980-1990)
Renaissance temporaire
Les systèmes experts encodent la connaissance d'experts humains sous forme de règles :
SI symptôme = fièvre ET symptôme = toux
ALORS diagnostic possible = grippeExemples célèbres :
- MYCIN : diagnostic médical
- XCON : configuration d'ordinateurs (économise 40M$/an à DEC)
Le second hiver
Les systèmes experts montrent leurs limites :
- Maintenance coûteuse des règles
- Incapacité à gérer l'incertitude
- Manque de flexibilité
Les financements s'effondrent à nouveau vers 1987.
La révolution du Machine Learning (1990-2010)
Changement de paradigme
Au lieu de programmer des règles, on laisse les machines apprendre à partir de données.
Avancées clés :
- 1997 : Deep Blue (IBM) bat Kasparov aux échecs
- 1998 : Yann LeCun développe les réseaux convolutifs (LeNet) pour la reconnaissance de chiffres
- 2006 : Geoffrey Hinton relance le Deep Learning avec le pré-entraînement
L'essor d'Internet
Le web génère des quantités massives de données, le carburant du Machine Learning :
- Google utilise le ML pour la recherche
- Amazon pour les recommandations
- Facebook pour la reconnaissance faciale
L'ère du Deep Learning (2010-2020)
Le tournant AlexNet (2012)
Le réseau AlexNet remporte le concours ImageNet avec une avance spectaculaire, prouvant la puissance du Deep Learning.
Facteurs de succès :
- GPUs puissants (NVIDIA)
- Grandes bases de données (ImageNet)
- Algorithmes améliorés (ReLU, Dropout)
Victoires symboliques
| Année | Événement |
|---|---|
| 2014 | Les GANs génèrent des images réalistes |
| 2016 | AlphaGo bat le champion du monde de Go |
| 2017 | Les Transformers révolutionnent le NLP |
| 2018 | BERT améliore la compréhension du texte |
L'ère des LLM (2020-présent)
GPT-3 et la génération de texte (2020)
OpenAI lance GPT-3 avec 175 milliards de paramètres, capable de :
- Écrire des articles
- Générer du code
- Répondre à des questions complexes
ChatGPT et la démocratisation (2022)
Le lancement de ChatGPT en novembre 2022 marque un tournant :
- 100 millions d'utilisateurs en 2 mois
- L'IA devient accessible au grand public
- Course aux LLM (Google, Anthropic, Meta, Mistral)
Aujourd'hui
- Modèles multimodaux : texte, image, audio, vidéo
- Agents IA : systèmes autonomes capables d'utiliser des outils
- IA embarquée : modèles optimisés pour les appareils mobiles
Nous vivons une période d'accélération sans précédent. Les modèles doublent de capacité tous les 6 à 12 mois.
Chronologie résumée
1950 Test de Turing
1956 Naissance officielle de l'IA
1957 Perceptron
1970 Premier hiver
1980 Systèmes experts
1987 Second hiver
1997 Deep Blue bat Kasparov
2012 AlexNet / Renaissance du Deep Learning
2016 AlphaGo bat Lee Sedol
2017 Transformers
2022 ChatGPT
2023 GPT-4, Claude, Gemini