Concepts fondamentaux
Les notions essentielles pour comprendre l'intelligence artificielle
Avant de plonger dans le Machine Learning et le Deep Learning, il est crucial de maîtriser les concepts de base qui sous-tendent toute l'IA moderne.
Données
Les données sont le carburant de l'IA. Sans données, pas d'apprentissage.
Types de données
| Type | Description | Exemples |
|---|---|---|
| Structurées | Organisées en tableaux | Bases de données, CSV |
| Non structurées | Format libre | Texte, images, audio |
| Semi-structurées | Partiellement organisées | JSON, XML |
Qualité des données
La règle d'or : Garbage In, Garbage Out.
Une IA ne sera jamais meilleure que les données sur lesquelles elle a été entraînée :
- Volume : suffisamment d'exemples pour apprendre
- Variété : représentative de tous les cas possibles
- Véracité : données correctes et fiables
- Actualité : données à jour
Des données biaisées produisent une IA biaisée. Si les données d'entraînement sur-représentent certains groupes, l'IA reproduira ces déséquilibres.
Algorithmes
Un algorithme est une séquence d'instructions pour résoudre un problème.
Algorithmes classiques vs Machine Learning
Approche classique :
Données + Règles → Programme → RésultatApproche Machine Learning :
Données + Résultats attendus → Algorithme ML → Règles apprisesLa différence fondamentale : en ML, on n'écrit pas les règles, on les découvre à partir des données.
Familles d'algorithmes ML
- Régression : prédire une valeur numérique (prix, température)
- Classification : assigner une catégorie (spam/non-spam, chat/chien)
- Clustering : regrouper des éléments similaires
- Réduction de dimension : simplifier des données complexes
Modèles
Un modèle est le résultat de l'entraînement d'un algorithme sur des données.
Anatomie d'un modèle
┌─────────────────────────────────────┐
│ MODÈLE │
│ ┌───────────────────────────────┐ │
│ │ Paramètres appris │ │
│ │ (poids, biais) │ │
│ └───────────────────────────────┘ │
│ ┌───────────────────────────────┐ │
│ │ Architecture │ │
│ │ (structure du réseau) │ │
│ └───────────────────────────────┘ │
└─────────────────────────────────────┘
↓ Entrée ↓ Sortie
[Données] → [Prédiction]Paramètres vs Hyperparamètres
| Paramètres | Hyperparamètres |
|---|---|
| Appris automatiquement | Définis manuellement |
| Poids des connexions | Taux d'apprentissage |
| Biais des neurones | Nombre de couches |
| Modifiés pendant l'entraînement | Fixés avant l'entraînement |
Entraînement
L'entraînement est le processus par lequel un modèle apprend à partir des données.
Le cycle d'entraînement
- Forward pass : le modèle fait une prédiction
- Calcul de l'erreur : on compare avec la vraie réponse
- Backward pass : on calcule comment ajuster les paramètres
- Mise à jour : on modifie les paramètres pour réduire l'erreur
Ce cycle se répète des milliers, voire des millions de fois.
Fonction de perte (Loss)
La fonction de perte mesure l'écart entre la prédiction et la réalité :
- Plus la perte est basse, meilleur est le modèle
- L'objectif de l'entraînement est de minimiser cette perte
Époques et batchs
- Époque : un passage complet sur toutes les données
- Batch : un sous-ensemble de données traité en une fois
- Itération : traitement d'un batch
Dataset de 10 000 exemples
Batch size de 100
→ 100 itérations par époqueInférence
L'inférence est l'utilisation d'un modèle entraîné pour faire des prédictions sur de nouvelles données.
Entraînement vs Inférence
| Entraînement | Inférence |
|---|---|
| Apprendre | Utiliser |
| Coûteux en calcul | Relativement léger |
| Une seule fois | À chaque utilisation |
| Nécessite des GPUs | Possible sur CPU |
Généralisation
La généralisation est la capacité d'un modèle à bien fonctionner sur des données qu'il n'a jamais vues.
Le problème du surapprentissage (Overfitting)
Un modèle qui mémorise les données d'entraînement au lieu d'apprendre les patterns généraux :
Entraînement : 99% de précision ✓
Test : 60% de précision ✗
→ Surapprentissage !Le problème du sous-apprentissage (Underfitting)
Un modèle trop simple qui ne capture pas la complexité des données :
Entraînement : 60% de précision ✗
Test : 58% de précision ✗
→ Sous-apprentissage !L'équilibre idéal
Entraînement : 92% de précision ✓
Test : 90% de précision ✓
→ Bonne généralisation !Ensembles de données
Train / Validation / Test
Les données sont divisées en trois ensembles :
| Ensemble | Usage | Proportion typique |
|---|---|---|
| Train | Entraîner le modèle | 70-80% |
| Validation | Ajuster les hyperparamètres | 10-15% |
| Test | Évaluation finale | 10-15% |
Le jeu de test ne doit jamais être utilisé pendant l'entraînement. C'est le "bac blanc" final qui mesure la vraie performance.
Métriques d'évaluation
Pour la classification
- Accuracy : % de prédictions correctes
- Précision : parmi les positifs prédits, combien sont vrais ?
- Recall : parmi les vrais positifs, combien ont été trouvés ?
- F1-score : moyenne harmonique précision/recall
Pour la régression
- MAE (Mean Absolute Error) : erreur moyenne absolue
- MSE (Mean Squared Error) : erreur quadratique moyenne
- RMSE : racine de la MSE
- R² : coefficient de détermination
Résumé
┌─────────────────────────────────────────────────────────────┐
│ PIPELINE IA │
├─────────────────────────────────────────────────────────────┤
│ │
│ DONNÉES → ALGORITHME → ENTRAÎNEMENT → MODÈLE → INFÉRENCE │
│ │
│ Collecte Choix Optimisation Sauvegarde Prédiction │
│ Nettoyage Architecture Validation Déploiement │
│ Split Hyperparams Métriques │
│ │
└─────────────────────────────────────────────────────────────┘