Wiki IA
LLM et IA Gรฉnรฉrative

ร‰tudes de cas - ChatGPT, Claude, Gemini

Analyse comparative des principaux LLM - architecture, forces, faiblesses et cas d'usage de GPT-4, Claude, Gemini et Llama

ร‰tudes de cas - Les grands LLM

Analyse approfondie des modรจles qui dรฉfinissent l'รฉtat de l'art en 2024-2025.

Vue d'ensemble

โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”
โ”‚                    PAYSAGE DES LLM (2025)                        โ”‚
โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค
โ”‚                                                                  โ”‚
โ”‚  PROPRIร‰TAIRES                      OPEN SOURCE                 โ”‚
โ”‚  โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”           โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”     โ”‚
โ”‚  โ”‚ OpenAI              โ”‚           โ”‚ Meta                โ”‚     โ”‚
โ”‚  โ”‚ โ€ข GPT-4o            โ”‚           โ”‚ โ€ข Llama 3.1 405B    โ”‚     โ”‚
โ”‚  โ”‚ โ€ข o1/o3 (reasoning) โ”‚           โ”‚ โ€ข Llama 3.2 Vision  โ”‚     โ”‚
โ”‚  โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค           โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค     โ”‚
โ”‚  โ”‚ Anthropic           โ”‚           โ”‚ Mistral             โ”‚     โ”‚
โ”‚  โ”‚ โ€ข Claude 3.5 Sonnet โ”‚           โ”‚ โ€ข Mistral Large     โ”‚     โ”‚
โ”‚  โ”‚ โ€ข Claude Opus 4     โ”‚           โ”‚ โ€ข Mixtral 8x22B     โ”‚     โ”‚
โ”‚  โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค           โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค     โ”‚
โ”‚  โ”‚ Google              โ”‚           โ”‚ Autres              โ”‚     โ”‚
โ”‚  โ”‚ โ€ข Gemini 1.5 Pro    โ”‚           โ”‚ โ€ข Qwen 2.5          โ”‚     โ”‚
โ”‚  โ”‚ โ€ข Gemini 2.0        โ”‚           โ”‚ โ€ข DeepSeek          โ”‚     โ”‚
โ”‚  โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜           โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜     โ”‚
โ”‚                                                                  โ”‚
โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜

OpenAI - GPT-4

Architecture

โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”
โ”‚                         GPT-4                                    โ”‚
โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค
โ”‚                                                                  โ”‚
โ”‚  Type: Transformer decoder-only (rumeur: Mixture of Experts)   โ”‚
โ”‚  Paramรจtres: ~1.8T (estimรฉ, non confirmรฉ)                       โ”‚
โ”‚  Contexte: 128K tokens (GPT-4 Turbo)                            โ”‚
โ”‚  Entraรฎnement: ~$100M+ estimรฉ                                   โ”‚
โ”‚                                                                  โ”‚
โ”‚  ร‰VOLUTION:                                                     โ”‚
โ”‚  โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”   โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”   โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”   โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”        โ”‚
โ”‚  โ”‚ GPT-4   โ”‚ โ†’ โ”‚ GPT-4   โ”‚ โ†’ โ”‚ GPT-4o  โ”‚ โ†’ โ”‚ o1/o3   โ”‚        โ”‚
โ”‚  โ”‚ (2023)  โ”‚   โ”‚ Turbo   โ”‚   โ”‚ (2024)  โ”‚   โ”‚ (2024)  โ”‚        โ”‚
โ”‚  โ”‚ 8K ctx  โ”‚   โ”‚ 128K    โ”‚   โ”‚ Multi   โ”‚   โ”‚ Reason  โ”‚        โ”‚
โ”‚  โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜   โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜   โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜   โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜        โ”‚
โ”‚                                                                  โ”‚
โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜

Forces et faiblesses

ForcesFaiblesses
Excellent en codeCoรปt รฉlevรฉ
Grande polyvalencePas open source
ร‰cosystรจme riche (plugins)Hallucinations frรฉquentes
Fine-tuning disponibleMoins bon en maths que o1

Cas d'usage idรฉaux

# GPT-4 excelle pour:

# 1. Gรฉnรฉration de code complexe
response = openai.chat.completions.create(
    model="gpt-4o",
    messages=[{
        "role": "user",
        "content": "Implรฉmente un serveur WebSocket avec auth JWT"
    }]
)

# 2. Analyse de documents longs (128K context)
with open("rapport_annuel.pdf", "rb") as f:
    response = openai.chat.completions.create(
        model="gpt-4o",
        messages=[{
            "role": "user",
            "content": f"Analyse ce rapport: {extract_text(f)}"
        }]
    )

# 3. Multimodal (vision + texte)
response = openai.chat.completions.create(
    model="gpt-4o",
    messages=[{
        "role": "user",
        "content": [
            {"type": "text", "text": "Dรฉcris cette image"},
            {"type": "image_url", "image_url": {"url": image_url}}
        ]
    }]
)

o1 / o3 - Modรจles de raisonnement

โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”
โ”‚                    o1/o3 - REASONING MODELS                      โ”‚
โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค
โ”‚                                                                  โ”‚
โ”‚  Diffรฉrence avec GPT-4:                                         โ”‚
โ”‚  โ€ข "Rรฉflรฉchit" avant de rรฉpondre (chain-of-thought interne)    โ”‚
โ”‚  โ€ข Temps de rรฉponse plus long                                   โ”‚
โ”‚  โ€ข Excelle sur problรจmes complexes (maths, logique)            โ”‚
โ”‚                                                                  โ”‚
โ”‚  Benchmarks:                                                    โ”‚
โ”‚  โ”œโ”€โ”€ AIME (maths compรฉtition): 83% (vs 13% GPT-4)              โ”‚
โ”‚  โ”œโ”€โ”€ GPQA (PhD science): 78% (vs 53% GPT-4)                    โ”‚
โ”‚  โ””โ”€โ”€ Codeforces: 89 percentile                                  โ”‚
โ”‚                                                                  โ”‚
โ”‚  Quand utiliser o1:                                             โ”‚
โ”‚  โœ“ Problรจmes mathรฉmatiques complexes                            โ”‚
โ”‚  โœ“ Raisonnement multi-รฉtapes                                    โ”‚
โ”‚  โœ“ Analyse scientifique                                         โ”‚
โ”‚  โœ— Rรฉponses rapides (latence รฉlevรฉe)                           โ”‚
โ”‚  โœ— Tรขches crรฉatives (GPT-4 meilleur)                           โ”‚
โ”‚                                                                  โ”‚
โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜

Anthropic - Claude

Architecture

โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”
โ”‚                         CLAUDE                                   โ”‚
โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค
โ”‚                                                                  โ”‚
โ”‚  Philosophie: Constitutional AI + RLHF                          โ”‚
โ”‚  Focus: Sรฉcuritรฉ, honnรชtetรฉ, harmlessness                       โ”‚
โ”‚  Contexte: 200K tokens (le plus long du marchรฉ)                 โ”‚
โ”‚                                                                  โ”‚
โ”‚  GAMME:                                                         โ”‚
โ”‚  โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ฌโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ฌโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”                   โ”‚
โ”‚  โ”‚   Haiku    โ”‚   Sonnet    โ”‚    Opus     โ”‚                   โ”‚
โ”‚  โ”‚   (Rapide) โ”‚  (ร‰quilibrรฉ)โ”‚  (Puissant) โ”‚                   โ”‚
โ”‚  โ”‚   $0.25/M  โ”‚   $3/M      โ”‚   $15/M     โ”‚                   โ”‚
โ”‚  โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ดโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ดโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜                   โ”‚
โ”‚                                                                  โ”‚
โ”‚  INNOVATIONS:                                                   โ”‚
โ”‚  โ€ข Artifacts (code/visualisations interactifs)                  โ”‚
โ”‚  โ€ข Computer Use (contrรดle d'ordinateur)                         โ”‚
โ”‚  โ€ข MCP (Model Context Protocol)                                 โ”‚
โ”‚  โ€ข Projects (mรฉmoire persistante)                               โ”‚
โ”‚                                                                  โ”‚
โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜

Forces et faiblesses

ForcesFaiblesses
Contexte 200K tokensPas de fine-tuning
Excellent suivi d'instructionsParfois trop prudent
Trรจs bon en codeMoins de plugins/intรฉgrations
Rรฉponses nuancรฉesAPI moins mature
Constitution AI (sรฉcuritรฉ)

Cas d'usage idรฉaux

import anthropic

client = anthropic.Anthropic()

# 1. Analyse de codebase entiรจre (200K context)
codebase = read_entire_codebase("./src")  # 150K tokens
response = client.messages.create(
    model="claude-sonnet-4-20250514",
    max_tokens=4096,
    messages=[{
        "role": "user",
        "content": f"Analyse cette codebase et suggรจre des amรฉliorations:\n{codebase}"
    }]
)

# 2. Rรฉdaction longue et nuancรฉe
response = client.messages.create(
    model="claude-sonnet-4-20250514",
    max_tokens=8192,
    messages=[{
        "role": "user",
        "content": "Rรฉdige une analyse de 5000 mots sur l'impact de l'IA sur l'emploi"
    }]
)

# 3. Computer Use (contrรดle d'ordinateur)
response = client.messages.create(
    model="claude-sonnet-4-20250514",
    max_tokens=1024,
    tools=[{"type": "computer_20241022", "name": "computer", ...}],
    messages=[{
        "role": "user",
        "content": "Ouvre VS Code et crรฉe un nouveau projet React"
    }]
)

Google - Gemini

Architecture

โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”
โ”‚                         GEMINI                                   โ”‚
โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค
โ”‚                                                                  โ”‚
โ”‚  Type: Multimodal natif (texte, image, audio, vidรฉo)           โ”‚
โ”‚  Contexte: 1M tokens (Gemini 1.5 Pro)                           โ”‚
โ”‚  Intรฉgration: Google Workspace, Android, Search                 โ”‚
โ”‚                                                                  โ”‚
โ”‚  GAMME:                                                         โ”‚
โ”‚  โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ฌโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ฌโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”                   โ”‚
โ”‚  โ”‚   Flash    โ”‚    Pro      โ”‚   Ultra     โ”‚                   โ”‚
โ”‚  โ”‚  (Rapide)  โ”‚ (ร‰quilibrรฉ) โ”‚ (Puissant)  โ”‚                   โ”‚
โ”‚  โ”‚ 1M context โ”‚ 1M context  โ”‚  (Limitรฉ)   โ”‚                   โ”‚
โ”‚  โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ดโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ดโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜                   โ”‚
โ”‚                                                                  โ”‚
โ”‚  DIFFร‰RENCIATEURS:                                              โ”‚
โ”‚  โ€ข Contexte 1M tokens (livres entiers)                          โ”‚
โ”‚  โ€ข Multimodal natif (pas d'adaptateur)                          โ”‚
โ”‚  โ€ข Intรฉgration Google (Search, Docs, Gmail)                     โ”‚
โ”‚  โ€ข Grounding avec Google Search                                 โ”‚
โ”‚                                                                  โ”‚
โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜

Forces et faiblesses

ForcesFaiblesses
Contexte 1M tokensMoins bon en code que GPT-4
Multimodal natifAPI moins stable
Grounding (Search)Moins de tiers dรฉveloppeurs
Intรฉgration GoogleLatence variable

Cas d'usage idรฉaux

import google.generativeai as genai

genai.configure(api_key="...")
model = genai.GenerativeModel('gemini-1.5-pro')

# 1. Analyse de vidรฉo (1h de contenu)
video = genai.upload_file("conference.mp4")
response = model.generate_content([
    "Rรฉsume les points clรฉs de cette confรฉrence",
    video
])

# 2. Livre entier en contexte (1M tokens)
with open("war_and_peace.txt") as f:
    book = f.read()  # ~580K tokens

response = model.generate_content(
    f"Voici 'Guerre et Paix':\n{book}\n\nAnalyse les thรจmes principaux"
)

# 3. Grounding avec Google Search
response = model.generate_content(
    "Quels sont les derniers dรฉveloppements en fusion nuclรฉaire ?",
    tools=[{"google_search": {}}]
)

Meta - Llama

Architecture

โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”
โ”‚                          LLAMA                                   โ”‚
โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค
โ”‚                                                                  โ”‚
โ”‚  Type: Open source (poids disponibles)                          โ”‚
โ”‚  Licence: Llama Community License (usage commercial OK)         โ”‚
โ”‚                                                                  โ”‚
โ”‚  ร‰VOLUTION:                                                     โ”‚
โ”‚  โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”   โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”   โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”   โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”        โ”‚
โ”‚  โ”‚ Llama 1 โ”‚ โ†’ โ”‚ Llama 2 โ”‚ โ†’ โ”‚ Llama 3 โ”‚ โ†’ โ”‚ Llama   โ”‚        โ”‚
โ”‚  โ”‚ (2023)  โ”‚   โ”‚ 7-70B   โ”‚   โ”‚ 8-70B   โ”‚   โ”‚ 3.1 405Bโ”‚        โ”‚
โ”‚  โ”‚ Researchโ”‚   โ”‚ Commercialโ”‚  โ”‚ +Code   โ”‚   โ”‚ SOTA OS โ”‚        โ”‚
โ”‚  โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜   โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜   โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜   โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜        โ”‚
โ”‚                                                                  โ”‚
โ”‚  VERSIONS LLAMA 3.1:                                            โ”‚
โ”‚  โ”œโ”€โ”€ 8B:   Lรฉger, edge computing                                โ”‚
โ”‚  โ”œโ”€โ”€ 70B:  ร‰quilibrรฉ, production                                โ”‚
โ”‚  โ””โ”€โ”€ 405B: SOTA open source, rival GPT-4                        โ”‚
โ”‚                                                                  โ”‚
โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜

Forces et faiblesses

ForcesFaiblesses
Open source (poids)Nรฉcessite infrastructure
Fine-tuning libreMoins bon que GPT-4/Claude
Pas de vendor lock-inPas d'API officielle
Communautรฉ activeContexte limitรฉ (128K)

Cas d'usage idรฉaux

# 1. Dรฉploiement on-premise (donnรฉes sensibles)
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    "meta-llama/Llama-3.1-70B-Instruct",
    device_map="auto",
    torch_dtype=torch.bfloat16,
)

# 2. Fine-tuning sur donnรฉes propriรฉtaires
from peft import LoraConfig, get_peft_model

lora_config = LoraConfig(
    r=16,
    lora_alpha=32,
    target_modules=["q_proj", "v_proj"],
)
model = get_peft_model(model, lora_config)
# ... entraรฎnement sur vos donnรฉes

# 3. Quantification pour edge
# llama.cpp avec GGUF
./main -m llama-3.1-8b.Q4_K_M.gguf \
    -p "Rรฉponds en franรงais:" \
    -n 256

Mistral

Architecture

โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”
โ”‚                         MISTRAL                                  โ”‚
โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค
โ”‚                                                                  โ”‚
โ”‚  Origine: France (Paris), fondรฉ par ex-Google/Meta              โ”‚
โ”‚  Philosophie: Modรจles efficaces, open source quand possible     โ”‚
โ”‚                                                                  โ”‚
โ”‚  GAMME:                                                         โ”‚
โ”‚  โ”œโ”€โ”€ Mistral 7B:      Open source, trรจs efficace               โ”‚
โ”‚  โ”œโ”€โ”€ Mixtral 8x7B:    MoE open source                          โ”‚
โ”‚  โ”œโ”€โ”€ Mixtral 8x22B:   MoE plus puissant                        โ”‚
โ”‚  โ”œโ”€โ”€ Mistral Small:   API, rapide                              โ”‚
โ”‚  โ”œโ”€โ”€ Mistral Large:   API, SOTA Mistral                        โ”‚
โ”‚  โ””โ”€โ”€ Codestral:       Spรฉcialisรฉ code                          โ”‚
โ”‚                                                                  โ”‚
โ”‚  INNOVATION - Mixture of Experts (MoE):                         โ”‚
โ”‚  โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”   โ”‚
โ”‚  โ”‚  Input โ†’ Router โ†’ [Expert 1] [Expert 2] โ†’ Output        โ”‚   โ”‚
โ”‚  โ”‚                   [Expert 3] [Expert 4]                  โ”‚   โ”‚
โ”‚  โ”‚                   [Expert 5] [Expert 6]                  โ”‚   โ”‚
โ”‚  โ”‚                   [Expert 7] [Expert 8]                  โ”‚   โ”‚
โ”‚  โ”‚                                                          โ”‚   โ”‚
โ”‚  โ”‚  Seulement 2 experts actifs par token = efficacitรฉ      โ”‚   โ”‚
โ”‚  โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜   โ”‚
โ”‚                                                                  โ”‚
โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜

Forces

  • Efficacitรฉ: Mistral 7B rivalise avec Llama 13B
  • Franรงais: Excellentes performances en franรงais
  • MoE: Mixtral = qualitรฉ 70B pour coรปt de 12B
  • Code: Codestral excellent pour programmation

Comparaison globale

Benchmarks

ModรจleMMLUHumanEvalMT-BenchContextePrix/1M tokens
GPT-4o88.7%90.2%9.0128K$5
Claude 3.5 Sonnet88.3%92.0%8.8200K$3
Gemini 1.5 Pro85.9%84.1%8.51M$3.50
Llama 3.1 405B88.6%89.0%8.5128KSelf-hosted
Mistral Large81.2%89.1%8.2128K$4

Matrice de dรฉcision

โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”
โ”‚                    QUEL MODรˆLE CHOISIR ?                         โ”‚
โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค
โ”‚                                                                  โ”‚
โ”‚  BESOIN                           RECOMMANDATION                โ”‚
โ”‚  โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€    โ”‚
โ”‚  Code complexe                    GPT-4o ou Claude Sonnet       โ”‚
โ”‚  Raisonnement mathรฉmatique        o1 / o3                       โ”‚
โ”‚  Long contexte (>200K)            Gemini 1.5 Pro                โ”‚
โ”‚  Analyse de documents             Claude (200K) ou Gemini (1M)  โ”‚
โ”‚  Multimodal (vidรฉo)               Gemini 1.5 Pro                โ”‚
โ”‚  On-premise / donnรฉes sensibles   Llama 3.1                     โ”‚
โ”‚  Budget limitรฉ                    Mistral ou Llama              โ”‚
โ”‚  Fine-tuning                      Llama 3.1 ou GPT-4            โ”‚
โ”‚  Franรงais                         Mistral ou Claude             โ”‚
โ”‚  Sรฉcuritรฉ / รฉthique               Claude (Constitutional AI)    โ”‚
โ”‚  Intรฉgration Google               Gemini                        โ”‚
โ”‚  Agents / tools                   Claude (MCP) ou GPT-4         โ”‚
โ”‚                                                                  โ”‚
โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜

Tendances 2025

โ”Œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”
โ”‚                    TENDANCES ร‰MERGENTES                          โ”‚
โ”œโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”ค
โ”‚                                                                  โ”‚
โ”‚  1. MODรˆLES DE RAISONNEMENT                                     โ”‚
โ”‚     โ€ข o1/o3 (OpenAI), Gemini Thinking                           โ”‚
โ”‚     โ€ข Chain-of-thought explicite                                โ”‚
โ”‚                                                                  โ”‚
โ”‚  2. CONTEXTE ULTRA-LONG                                         โ”‚
โ”‚     โ€ข 1M+ tokens (livres, codebases)                            โ”‚
โ”‚     โ€ข Compression et rรฉcupรฉration intelligente                  โ”‚
โ”‚                                                                  โ”‚
โ”‚  3. AGENTS AUTONOMES                                            โ”‚
โ”‚     โ€ข Computer Use (Claude)                                     โ”‚
โ”‚     โ€ข Multi-tool orchestration                                  โ”‚
โ”‚                                                                  โ”‚
โ”‚  4. SMALL LANGUAGE MODELS                                       โ”‚
โ”‚     โ€ข Phi-3, Gemma 2, Llama 3.2                                 โ”‚
โ”‚     โ€ข Edge computing, mobile                                    โ”‚
โ”‚                                                                  โ”‚
โ”‚  5. SPร‰CIALISATION                                              โ”‚
โ”‚     โ€ข Codestral (code), Med-PaLM (mรฉdical)                      โ”‚
โ”‚     โ€ข Modรจles domain-specific                                   โ”‚
โ”‚                                                                  โ”‚
โ””โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”˜

Pour aller plus loin

On this page