LLM et IA Gรฉnรฉrative
รtudes de cas - ChatGPT, Claude, Gemini Analyse comparative des principaux LLM - architecture, forces, faiblesses et cas d'usage de GPT-4, Claude, Gemini et Llama
Analyse approfondie des modรจles qui dรฉfinissent l'รฉtat de l'art en 2024-2025.
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ PAYSAGE DES LLM (2025) โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโค
โ โ
โ PROPRIรTAIRES OPEN SOURCE โ
โ โโโโโโโโโโโโโโโโโโโโโโโ โโโโโโโโโโโโโโโโโโโโโโโ โ
โ โ OpenAI โ โ Meta โ โ
โ โ โข GPT-4o โ โ โข Llama 3.1 405B โ โ
โ โ โข o1/o3 (reasoning) โ โ โข Llama 3.2 Vision โ โ
โ โโโโโโโโโโโโโโโโโโโโโโโค โโโโโโโโโโโโโโโโโโโโโโโค โ
โ โ Anthropic โ โ Mistral โ โ
โ โ โข Claude 3.5 Sonnet โ โ โข Mistral Large โ โ
โ โ โข Claude Opus 4 โ โ โข Mixtral 8x22B โ โ
โ โโโโโโโโโโโโโโโโโโโโโโโค โโโโโโโโโโโโโโโโโโโโโโโค โ
โ โ Google โ โ Autres โ โ
โ โ โข Gemini 1.5 Pro โ โ โข Qwen 2.5 โ โ
โ โ โข Gemini 2.0 โ โ โข DeepSeek โ โ
โ โโโโโโโโโโโโโโโโโโโโโโโ โโโโโโโโโโโโโโโโโโโโโโโ โ
โ โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ GPT-4 โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโค
โ โ
โ Type: Transformer decoder-only (rumeur: Mixture of Experts) โ
โ Paramรจtres: ~1.8T (estimรฉ, non confirmรฉ) โ
โ Contexte: 128K tokens (GPT-4 Turbo) โ
โ Entraรฎnement: ~$100M+ estimรฉ โ
โ โ
โ รVOLUTION: โ
โ โโโโโโโโโโโ โโโโโโโโโโโ โโโโโโโโโโโ โโโโโโโโโโโ โ
โ โ GPT-4 โ โ โ GPT-4 โ โ โ GPT-4o โ โ โ o1/o3 โ โ
โ โ (2023) โ โ Turbo โ โ (2024) โ โ (2024) โ โ
โ โ 8K ctx โ โ 128K โ โ Multi โ โ Reason โ โ
โ โโโโโโโโโโโ โโโโโโโโโโโ โโโโโโโโโโโ โโโโโโโโโโโ โ
โ โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
Forces Faiblesses Excellent en code Coรปt รฉlevรฉ Grande polyvalence Pas open source รcosystรจme riche (plugins) Hallucinations frรฉquentes Fine-tuning disponible Moins bon en maths que o1
# GPT-4 excelle pour:
# 1. Gรฉnรฉration de code complexe
response = openai.chat.completions.create(
model = "gpt-4o" ,
messages = [{
"role" : "user" ,
"content" : "Implรฉmente un serveur WebSocket avec auth JWT"
}]
)
# 2. Analyse de documents longs (128K context)
with open ( "rapport_annuel.pdf" , "rb" ) as f:
response = openai.chat.completions.create(
model = "gpt-4o" ,
messages = [{
"role" : "user" ,
"content" : f "Analyse ce rapport: { extract_text(f) } "
}]
)
# 3. Multimodal (vision + texte)
response = openai.chat.completions.create(
model = "gpt-4o" ,
messages = [{
"role" : "user" ,
"content" : [
{ "type" : "text" , "text" : "Dรฉcris cette image" },
{ "type" : "image_url" , "image_url" : { "url" : image_url}}
]
}]
)
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ o1/o3 - REASONING MODELS โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโค
โ โ
โ Diffรฉrence avec GPT-4: โ
โ โข "Rรฉflรฉchit" avant de rรฉpondre (chain-of-thought interne) โ
โ โข Temps de rรฉponse plus long โ
โ โข Excelle sur problรจmes complexes (maths, logique) โ
โ โ
โ Benchmarks: โ
โ โโโ AIME (maths compรฉtition): 83% (vs 13% GPT-4) โ
โ โโโ GPQA (PhD science): 78% (vs 53% GPT-4) โ
โ โโโ Codeforces: 89 percentile โ
โ โ
โ Quand utiliser o1: โ
โ โ Problรจmes mathรฉmatiques complexes โ
โ โ Raisonnement multi-รฉtapes โ
โ โ Analyse scientifique โ
โ โ Rรฉponses rapides (latence รฉlevรฉe) โ
โ โ Tรขches crรฉatives (GPT-4 meilleur) โ
โ โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ CLAUDE โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโค
โ โ
โ Philosophie: Constitutional AI + RLHF โ
โ Focus: Sรฉcuritรฉ, honnรชtetรฉ, harmlessness โ
โ Contexte: 200K tokens (le plus long du marchรฉ) โ
โ โ
โ GAMME: โ
โ โโโโโโโโโโโโโโโฌโโโโโโโโโโโโโโฌโโโโโโโโโโโโโโ โ
โ โ Haiku โ Sonnet โ Opus โ โ
โ โ (Rapide) โ (รquilibrรฉ)โ (Puissant) โ โ
โ โ $0.25/M โ $3/M โ $15/M โ โ
โ โโโโโโโโโโโโโโโดโโโโโโโโโโโโโโดโโโโโโโโโโโโโโ โ
โ โ
โ INNOVATIONS: โ
โ โข Artifacts (code/visualisations interactifs) โ
โ โข Computer Use (contrรดle d'ordinateur) โ
โ โข MCP (Model Context Protocol) โ
โ โข Projects (mรฉmoire persistante) โ
โ โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
Forces Faiblesses Contexte 200K tokens Pas de fine-tuning Excellent suivi d'instructions Parfois trop prudent Trรจs bon en code Moins de plugins/intรฉgrations Rรฉponses nuancรฉes API moins mature Constitution AI (sรฉcuritรฉ)
import anthropic
client = anthropic.Anthropic()
# 1. Analyse de codebase entiรจre (200K context)
codebase = read_entire_codebase( "./src" ) # 150K tokens
response = client.messages.create(
model = "claude-sonnet-4-20250514" ,
max_tokens = 4096 ,
messages = [{
"role" : "user" ,
"content" : f "Analyse cette codebase et suggรจre des amรฉliorations: \n{ codebase } "
}]
)
# 2. Rรฉdaction longue et nuancรฉe
response = client.messages.create(
model = "claude-sonnet-4-20250514" ,
max_tokens = 8192 ,
messages = [{
"role" : "user" ,
"content" : "Rรฉdige une analyse de 5000 mots sur l'impact de l'IA sur l'emploi"
}]
)
# 3. Computer Use (contrรดle d'ordinateur)
response = client.messages.create(
model = "claude-sonnet-4-20250514" ,
max_tokens = 1024 ,
tools = [{ "type" : "computer_20241022" , "name" : "computer" , ... }],
messages = [{
"role" : "user" ,
"content" : "Ouvre VS Code et crรฉe un nouveau projet React"
}]
)
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ GEMINI โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโค
โ โ
โ Type: Multimodal natif (texte, image, audio, vidรฉo) โ
โ Contexte: 1M tokens (Gemini 1.5 Pro) โ
โ Intรฉgration: Google Workspace, Android, Search โ
โ โ
โ GAMME: โ
โ โโโโโโโโโโโโโโโฌโโโโโโโโโโโโโโฌโโโโโโโโโโโโโโ โ
โ โ Flash โ Pro โ Ultra โ โ
โ โ (Rapide) โ (รquilibrรฉ) โ (Puissant) โ โ
โ โ 1M context โ 1M context โ (Limitรฉ) โ โ
โ โโโโโโโโโโโโโโโดโโโโโโโโโโโโโโดโโโโโโโโโโโโโโ โ
โ โ
โ DIFFรRENCIATEURS: โ
โ โข Contexte 1M tokens (livres entiers) โ
โ โข Multimodal natif (pas d'adaptateur) โ
โ โข Intรฉgration Google (Search, Docs, Gmail) โ
โ โข Grounding avec Google Search โ
โ โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
Forces Faiblesses Contexte 1M tokens Moins bon en code que GPT-4 Multimodal natif API moins stable Grounding (Search) Moins de tiers dรฉveloppeurs Intรฉgration Google Latence variable
import google.generativeai as genai
genai.configure( api_key = "..." )
model = genai.GenerativeModel( 'gemini-1.5-pro' )
# 1. Analyse de vidรฉo (1h de contenu)
video = genai.upload_file( "conference.mp4" )
response = model.generate_content([
"Rรฉsume les points clรฉs de cette confรฉrence" ,
video
])
# 2. Livre entier en contexte (1M tokens)
with open ( "war_and_peace.txt" ) as f:
book = f.read() # ~580K tokens
response = model.generate_content(
f "Voici 'Guerre et Paix': \n{ book }\n\n Analyse les thรจmes principaux"
)
# 3. Grounding avec Google Search
response = model.generate_content(
"Quels sont les derniers dรฉveloppements en fusion nuclรฉaire ?" ,
tools = [{ "google_search" : {}}]
)
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ LLAMA โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโค
โ โ
โ Type: Open source (poids disponibles) โ
โ Licence: Llama Community License (usage commercial OK) โ
โ โ
โ รVOLUTION: โ
โ โโโโโโโโโโโ โโโโโโโโโโโ โโโโโโโโโโโ โโโโโโโโโโโ โ
โ โ Llama 1 โ โ โ Llama 2 โ โ โ Llama 3 โ โ โ Llama โ โ
โ โ (2023) โ โ 7-70B โ โ 8-70B โ โ 3.1 405Bโ โ
โ โ Researchโ โ Commercialโ โ +Code โ โ SOTA OS โ โ
โ โโโโโโโโโโโ โโโโโโโโโโโ โโโโโโโโโโโ โโโโโโโโโโโ โ
โ โ
โ VERSIONS LLAMA 3.1: โ
โ โโโ 8B: Lรฉger, edge computing โ
โ โโโ 70B: รquilibrรฉ, production โ
โ โโโ 405B: SOTA open source, rival GPT-4 โ
โ โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
Forces Faiblesses Open source (poids) Nรฉcessite infrastructure Fine-tuning libre Moins bon que GPT-4/Claude Pas de vendor lock-in Pas d'API officielle Communautรฉ active Contexte limitรฉ (128K)
# 1. Dรฉploiement on-premise (donnรฉes sensibles)
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained(
"meta-llama/Llama-3.1-70B-Instruct" ,
device_map = "auto" ,
torch_dtype = torch.bfloat16,
)
# 2. Fine-tuning sur donnรฉes propriรฉtaires
from peft import LoraConfig, get_peft_model
lora_config = LoraConfig(
r = 16 ,
lora_alpha = 32 ,
target_modules = [ "q_proj" , "v_proj" ],
)
model = get_peft_model(model, lora_config)
# ... entraรฎnement sur vos donnรฉes
# 3. Quantification pour edge
# llama.cpp avec GGUF
. / main - m llama - 3.1 - 8b . Q4_K_M .gguf \
- p "Rรฉponds en franรงais:" \
- n 256
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ MISTRAL โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโค
โ โ
โ Origine: France (Paris), fondรฉ par ex-Google/Meta โ
โ Philosophie: Modรจles efficaces, open source quand possible โ
โ โ
โ GAMME: โ
โ โโโ Mistral 7B: Open source, trรจs efficace โ
โ โโโ Mixtral 8x7B: MoE open source โ
โ โโโ Mixtral 8x22B: MoE plus puissant โ
โ โโโ Mistral Small: API, rapide โ
โ โโโ Mistral Large: API, SOTA Mistral โ
โ โโโ Codestral: Spรฉcialisรฉ code โ
โ โ
โ INNOVATION - Mixture of Experts (MoE): โ
โ โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ โ
โ โ Input โ Router โ [Expert 1] [Expert 2] โ Output โ โ
โ โ [Expert 3] [Expert 4] โ โ
โ โ [Expert 5] [Expert 6] โ โ
โ โ [Expert 7] [Expert 8] โ โ
โ โ โ โ
โ โ Seulement 2 experts actifs par token = efficacitรฉ โ โ
โ โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ โ
โ โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
Efficacitรฉ : Mistral 7B rivalise avec Llama 13B
Franรงais : Excellentes performances en franรงais
MoE : Mixtral = qualitรฉ 70B pour coรปt de 12B
Code : Codestral excellent pour programmation
Modรจle MMLU HumanEval MT-Bench Contexte Prix/1M tokens GPT-4o 88.7% 90.2% 9.0 128K $5 Claude 3.5 Sonnet 88.3% 92.0% 8.8 200K $3 Gemini 1.5 Pro 85.9% 84.1% 8.5 1M $3.50 Llama 3.1 405B 88.6% 89.0% 8.5 128K Self-hosted Mistral Large 81.2% 89.1% 8.2 128K $4
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ QUEL MODรLE CHOISIR ? โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโค
โ โ
โ BESOIN RECOMMANDATION โ
โ โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ โ
โ Code complexe GPT-4o ou Claude Sonnet โ
โ Raisonnement mathรฉmatique o1 / o3 โ
โ Long contexte (>200K) Gemini 1.5 Pro โ
โ Analyse de documents Claude (200K) ou Gemini (1M) โ
โ Multimodal (vidรฉo) Gemini 1.5 Pro โ
โ On-premise / donnรฉes sensibles Llama 3.1 โ
โ Budget limitรฉ Mistral ou Llama โ
โ Fine-tuning Llama 3.1 ou GPT-4 โ
โ Franรงais Mistral ou Claude โ
โ Sรฉcuritรฉ / รฉthique Claude (Constitutional AI) โ
โ Intรฉgration Google Gemini โ
โ Agents / tools Claude (MCP) ou GPT-4 โ
โ โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ
โ TENDANCES รMERGENTES โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโค
โ โ
โ 1. MODรLES DE RAISONNEMENT โ
โ โข o1/o3 (OpenAI), Gemini Thinking โ
โ โข Chain-of-thought explicite โ
โ โ
โ 2. CONTEXTE ULTRA-LONG โ
โ โข 1M+ tokens (livres, codebases) โ
โ โข Compression et rรฉcupรฉration intelligente โ
โ โ
โ 3. AGENTS AUTONOMES โ
โ โข Computer Use (Claude) โ
โ โข Multi-tool orchestration โ
โ โ
โ 4. SMALL LANGUAGE MODELS โ
โ โข Phi-3, Gemma 2, Llama 3.2 โ
โ โข Edge computing, mobile โ
โ โ
โ 5. SPรCIALISATION โ
โ โข Codestral (code), Med-PaLM (mรฉdical) โ
โ โข Modรจles domain-specific โ
โ โ
โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ