Wiki IA
Introduction

Histoire de l'IA

De Turing aux grands modèles de langage, retour sur 80 ans d'intelligence artificielle

L'histoire de l'intelligence artificielle est marquée par des avancées spectaculaires, des hivers glaciaux et des renaissances inattendues.

Les précurseurs (avant 1950)

Les machines à calculer

  • 1642 : Blaise Pascal invente la Pascaline, première machine à calculer mécanique
  • 1837 : Charles Babbage conçoit la Machine Analytique, ancêtre de l'ordinateur
  • 1843 : Ada Lovelace écrit le premier algorithme, devenant la première programmeuse

Les fondations théoriques

  • 1936 : Alan Turing propose la Machine de Turing, modèle théorique de l'ordinateur
  • 1943 : McCulloch et Pitts créent le premier modèle mathématique du neurone

La naissance de l'IA (1950-1960)

Le test de Turing (1950)

Alan Turing publie "Computing Machinery and Intelligence" et propose le célèbre test de Turing : une machine peut-elle se faire passer pour un humain dans une conversation ?

La question "Les machines peuvent-elles penser ?" posée par Turing reste au cœur des débats sur l'IA.

La conférence de Dartmouth (1956)

John McCarthy organise la conférence fondatrice de l'IA. C'est là que le terme "Intelligence Artificielle" est officiellement adopté.

Participants clés :

  • John McCarthy (créateur de Lisp)
  • Marvin Minsky (réseaux de neurones)
  • Claude Shannon (théorie de l'information)
  • Herbert Simon (résolution de problèmes)

Les premiers succès

  • 1957 : Frank Rosenblatt crée le Perceptron, premier réseau de neurones
  • 1958 : John McCarthy invente Lisp, le langage de l'IA
  • 1966 : ELIZA, premier chatbot, simule un psychothérapeute

Le premier hiver de l'IA (1970-1980)

L'échec des promesses

Les chercheurs avaient promis des traductions automatiques parfaites et des IA générales en 20 ans. Face aux échecs :

  • Le rapport Lighthill (1973) critique sévèrement les résultats
  • Les financements s'effondrent
  • Les projets sont abandonnés

Le problème de Minsky-Papert

En 1969, Marvin Minsky et Seymour Papert démontrent les limites du Perceptron simple, refroidissant l'enthousiasme pour les réseaux de neurones.

L'ère des systèmes experts (1980-1990)

Renaissance temporaire

Les systèmes experts encodent la connaissance d'experts humains sous forme de règles :

SI symptôme = fièvre ET symptôme = toux
ALORS diagnostic possible = grippe

Exemples célèbres :

  • MYCIN : diagnostic médical
  • XCON : configuration d'ordinateurs (économise 40M$/an à DEC)

Le second hiver

Les systèmes experts montrent leurs limites :

  • Maintenance coûteuse des règles
  • Incapacité à gérer l'incertitude
  • Manque de flexibilité

Les financements s'effondrent à nouveau vers 1987.

La révolution du Machine Learning (1990-2010)

Changement de paradigme

Au lieu de programmer des règles, on laisse les machines apprendre à partir de données.

Avancées clés :

  • 1997 : Deep Blue (IBM) bat Kasparov aux échecs
  • 1998 : Yann LeCun développe les réseaux convolutifs (LeNet) pour la reconnaissance de chiffres
  • 2006 : Geoffrey Hinton relance le Deep Learning avec le pré-entraînement

L'essor d'Internet

Le web génère des quantités massives de données, le carburant du Machine Learning :

  • Google utilise le ML pour la recherche
  • Amazon pour les recommandations
  • Facebook pour la reconnaissance faciale

L'ère du Deep Learning (2010-2020)

Le tournant AlexNet (2012)

Le réseau AlexNet remporte le concours ImageNet avec une avance spectaculaire, prouvant la puissance du Deep Learning.

Facteurs de succès :

  • GPUs puissants (NVIDIA)
  • Grandes bases de données (ImageNet)
  • Algorithmes améliorés (ReLU, Dropout)

Victoires symboliques

AnnéeÉvénement
2014Les GANs génèrent des images réalistes
2016AlphaGo bat le champion du monde de Go
2017Les Transformers révolutionnent le NLP
2018BERT améliore la compréhension du texte

L'ère des LLM (2020-présent)

GPT-3 et la génération de texte (2020)

OpenAI lance GPT-3 avec 175 milliards de paramètres, capable de :

  • Écrire des articles
  • Générer du code
  • Répondre à des questions complexes

ChatGPT et la démocratisation (2022)

Le lancement de ChatGPT en novembre 2022 marque un tournant :

  • 100 millions d'utilisateurs en 2 mois
  • L'IA devient accessible au grand public
  • Course aux LLM (Google, Anthropic, Meta, Mistral)

Aujourd'hui

  • Modèles multimodaux : texte, image, audio, vidéo
  • Agents IA : systèmes autonomes capables d'utiliser des outils
  • IA embarquée : modèles optimisés pour les appareils mobiles

Nous vivons une période d'accélération sans précédent. Les modèles doublent de capacité tous les 6 à 12 mois.

Chronologie résumée

1950  Test de Turing
1956  Naissance officielle de l'IA
1957  Perceptron
1970  Premier hiver
1980  Systèmes experts
1987  Second hiver
1997  Deep Blue bat Kasparov
2012  AlexNet / Renaissance du Deep Learning
2016  AlphaGo bat Lee Sedol
2017  Transformers
2022  ChatGPT
2023  GPT-4, Claude, Gemini

On this page