Glossaire de l'IA en 2026.
Tous les mots qui comptent, expliqués sans jargon.

54 termes définis pour comprendre, négocier, et décider — du token au tier-routing, du RAG au RGPD, de la latence à la souveraineté.

A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
54
Termes
19
Lettres couvertes
4
Catégories
~ 16 min
Lecture / consultation
00 Index alphabétique

Tous les termes en un coup d'œil.

Quatre catégories — technique, business, légal, UX. Chaque entrée pointe vers les autres termes liés.

A
API · Agent · Alignment · Apprentissage supervisé
B
Benchmark · Biais
C
CLOUD Act · Context window · Coût marginal
D
DPA · Dépréciation
E
Embedding · EU AI Act · Évaluation (eval)
F
Few-shot · Fine-tuning · Frontier model
G
Garde-fou · GPU / TPU
H
Hallucination · Human-in-the-loop
I
Inférence
L
Latence · LLM
M
Modèle frontier · Modèle léger · Multimodal
O
On-premise · Open-weights
P
Paramètre · Prompt · Prompt engineering · Prompt caching
R
RAG · RGPD · RLHF
S
SLA · Souveraineté numérique · Système prompt
T
Tier-routing · Token · Tool use · Température · Transformer
V
Vector store · Vibe-coding
Tech
Architecture, modèles, infra
Business
Coûts, contrats, ROI
Légal
Conformité, juridiction
UX
Interaction, design produit
A
04 termes API · Agent · Alignment · Apprentissage supervisé
API Application Programming Interface Tech

Point d'accès programmatique à un modèle. Vous envoyez du texte, recevez du texte. Facturé au token consommé. Toutes les intégrations professionnelles passent par l'API plutôt que par l'interface chat publique.

Voir aussi · Token, SLA, Latence
Agent Tech

Système où le modèle peut appeler des outils (recherche web, base de données, calculatrice) en boucle pour accomplir une tâche multi-étapes. Plus complexe à fiabiliser qu'un simple appel single-shot.

Voir aussi · Tool use, Human-in-the-loop
Alignment Tech

Travail post-entraînement pour faire en sorte que le modèle suive vos instructions et refuse les demandes problématiques. Mesuré par des évaluations qualitatives et adversariales — pas par un benchmark unique.

Voir aussi · RLHF, Garde-fou
Apprentissage supervisé Tech

Méthode d'entraînement où chaque exemple est labellisé manuellement. Le modèle apprend à reproduire le mapping entrée → sortie. Toujours utilisé pour les phases de fine-tuning.

Voir aussi · Fine-tuning, RLHF
B
02 termes Benchmark · Biais
Benchmark Tech

Test standardisé (MMLU, HumanEval, MATH…) pour comparer des modèles. Utile à la recherche, peu utile à un choix business — il ne mesure pas votre tâche réelle dans votre langue avec vos données.

Voir aussi · Évaluation, Frontier model
Biais Légal

Tendance d'un modèle à privilégier certains points de vue, démographies, langues. Hérité des données d'entraînement. À auditer activement pour tout usage qui touche à des décisions concernant des personnes.

Voir aussi · EU AI Act, Évaluation
C
03 termes CLOUD Act · Context window · Coût marginal
CLOUD Act 2018, USA Légal

Loi américaine permettant aux autorités US d'exiger l'accès aux données détenues par une entreprise américaine, où qu'elles soient stockées. Peut entrer en conflit avec le RGPD pour des données EU hébergées chez OpenAI / Anthropic.

Voir aussi · RGPD, Souveraineté numérique
Context window Tech

Quantité maximale de texte qu'un modèle peut traiter en une seule requête, mesurée en tokens. 200 K tokens ≈ 150 000 mots. Au-delà, il faut découper ou utiliser un système RAG.

Voir aussi · Token, RAG
Coût marginal Business

Coût d'une requête supplémentaire à votre fournisseur — typiquement quelques centimes en API. Le coût total cumulé sur des volumes réels reste à modéliser : 100 000 requêtes/mois × 0,03 € = 3 000 €.

Voir aussi · Tier-routing, Token
D
02 termes DPA · Dépréciation
DPA Data Processing Agreement Légal

Accord juridique entre vous (responsable de traitement) et votre fournisseur (sous-traitant) précisant comment vos données sont traitées. Obligatoire au sens du RGPD pour tout flux de données personnelles vers un fournisseur IA.

Voir aussi · RGPD, SLA
Dépréciation Business

Annonce par un fournisseur qu'un modèle ne sera plus disponible à une date donnée. Vous devez migrer votre code et vos prompts vers un modèle successeur — non trivial. À surveiller dès le choix d'architecture.

Voir aussi · API, SLA
E
03 termes Embedding · EU AI Act · Évaluation
Embedding Tech

Représentation vectorielle d'un texte (typiquement 768 à 3 072 dimensions). Permet de mesurer la similarité sémantique entre deux textes. Brique de base de tout système RAG.

Voir aussi · RAG, Vector store
EU AI Act Règlement UE 2024/1689 Légal

Cadre européen de classification et régulation des systèmes IA selon leur niveau de risque. Obligations renforcées pour les systèmes à haut risque (RH, scoring, biométrie). Applicable progressivement de 2025 à 2027.

Voir aussi · RGPD, Biais
Évaluation (eval) Tech

Banc d'essai construit à partir de votre cas réel — 20 à 100 paires entrée/sortie attendues. Permet de comparer objectivement deux modèles ou deux versions de prompt sur ce qui compte pour vous.

Voir aussi · Benchmark, Few-shot
F
03 termes Few-shot · Fine-tuning · Frontier model
Few-shot Tech

Technique consistant à inclure 2 à 5 exemples dans le prompt pour guider la sortie. Souvent suffisant pour des tâches de classification ou d'extraction sans recourir au fine-tuning.

Voir aussi · Prompt engineering, Fine-tuning
Fine-tuning Tech

Spécialisation d'un modèle sur vos données. Coûteux en données labellisées (1 000 à 10 000 exemples) et en calcul. Le few-shot ou le RAG suffisent dans la plupart des cas — n'y allez pas par défaut.

Voir aussi · RLHF, Apprentissage supervisé
Frontier model Tech

Modèle de pointe d'un fournisseur — GPT-4o, Claude Opus, o3. Cher (10 à 50× plus qu'un modèle léger) et lent. À utiliser uniquement quand un modèle plus léger ne tient pas votre barre de qualité.

Voir aussi · Modèle léger, Tier-routing
G
02 termes Garde-fou · GPU / TPU
Garde-fou guardrail Tech

Couche logicielle qui filtre les entrées et sorties d'un modèle pour bloquer les contenus problématiques (PII, propos toxiques, injection de prompt). À implémenter en plus de l'alignment côté modèle.

Voir aussi · Alignment, Système prompt
GPU / TPU Tech

Processeurs spécialisés pour l'entraînement et l'inférence des modèles IA. NVIDIA H100/H200 dominent en 2026. À l'origine du coût élevé de l'IA — un cluster de 10 000 GPU coûte plusieurs centaines de millions.

Voir aussi · Inférence, Coût marginal
H
02 termes Hallucination · Human-in-the-loop
Hallucination Tech

Lorsqu'un modèle invente une information de manière confiante — date, citation, fait, code. Mitigé par le RAG, le few-shot, et la révision humaine. Jamais éliminé à 100 %.

Voir aussi · RAG, Human-in-the-loop
Human-in-the-loop UX

Architecture où une personne valide les sorties du modèle avant qu'elles n'aient un effet réel — envoi d'un email, validation d'un paiement. Indispensable pour tout flux à conséquence non récupérable.

Voir aussi · Agent, Alignment
I
01 terme Inférence
Inférence Tech

Phase d'utilisation d'un modèle entraîné — chaque appel API est une inférence. Distincte de l'entraînement (one-shot, très cher). C'est l'inférence qui constitue la quasi-totalité de la facture API d'un produit.

Voir aussi · API, Latence, Coût marginal
L
02 termes Latence · LLM
Latence Tech

Temps entre l'envoi d'une requête et la réception de la réponse. Modèle léger : 0,3 à 1 s. Modèle frontier : 3 à 15 s. Critique pour le temps réel, négligeable pour le batch.

Voir aussi · API, Tier-routing
LLM Large Language Model Tech

Modèle de langage à grande échelle — entraîné sur des milliards de tokens, contenant des dizaines à des centaines de milliards de paramètres. GPT, Claude, Mistral, Llama, Gemini sont tous des LLM.

Voir aussi · Transformer, Paramètre
M
03 termes Modèle frontier · Modèle léger · Multimodal
Modèle frontier Tech

Voir Frontier model. La traduction française n'est pas figée — frontier model et modèle frontier coexistent dans la littérature. Désigne le modèle de pointe d'un fournisseur à un instant donné.

Voir aussi · Frontier model
Modèle léger Tech

Modèle compact (Haiku, GPT-4o Mini, Mistral Small) optimisé pour rapidité et coût. Suffit pour 70 à 90 % des cas business : classification, extraction, résumé court, FAQ. Premier choix par défaut.

Voir aussi · Tier-routing, Frontier model
Multimodal Tech

Modèle qui accepte plusieurs types d'entrée : texte, image, audio, vidéo. GPT-4o, Claude Sonnet et Gemini sont nativement multimodaux. Ouvre des cas comme la lecture de factures scannées ou la description d'images.

Voir aussi · LLM, Embedding
O
02 termes On-premise · Open-weights
On-premise Business

Hébergement d'un modèle sur votre propre infrastructure — vos serveurs, votre datacenter. Aucune donnée ne quitte le périmètre. Demande des compétences DevOps/MLOps et un investissement matériel non négligeable.

Voir aussi · Open-weights, Souveraineté numérique
Open-weights Tech

Modèle dont les poids sont publiquement téléchargeables (Llama, Mistral 7B, Gemma…). Permet du déploiement on-premise sans dépendance à un fournisseur. Lisez la licence — toutes ne sont pas commerciales sans condition.

Voir aussi · On-premise, Souveraineté numérique
P
04 termes Paramètre · Prompt · Prompt engineering · Prompt caching
Paramètre Tech

Poids appris pendant l'entraînement. Un Mistral 7B compte 7 milliards de paramètres ; GPT-4 plusieurs centaines. La taille corrèle (imparfaitement) avec la capacité — un modèle plus gros n'est pas toujours meilleur sur votre tâche.

Voir aussi · LLM, Fine-tuning
Prompt Tech

L'instruction envoyée au modèle. Un bon prompt est précis, contextualisé, et inclut idéalement quelques exemples (few-shot) et le format attendu en sortie (JSON, balises…).

Voir aussi · Prompt engineering, Système prompt
Prompt engineering Tech

Discipline de la rédaction et l'optimisation des prompts. Itérez sur des évaluations pour mesurer ce qui marche. Souvent plus rentable que le fine-tuning pour des gains de qualité.

Voir aussi · Évaluation, Few-shot
Prompt caching Business

Mécanisme qui réduit le coût des tokens de contexte répétés (instructions système, documents de référence) — typiquement par un facteur 10 chez Anthropic. À activer pour tout usage à instructions stables.

Voir aussi · Coût marginal, Token
R
03 termes RAG · RGPD · RLHF
RAG Retrieval-Augmented Generation Tech

Architecture où le modèle récupère des documents pertinents dans une base avant de répondre. Permet d'utiliser vos données propres sans entraîner un modèle. Standard pour les assistants documentaires d'entreprise.

Voir aussi · Embedding, Vector store
RGPD Règlement UE 2016/679 Légal

Cadre européen de protection des données personnelles. S'applique dès qu'une personne identifiable est concernée. Toute utilisation d'IA traitant des PII tombe sous son périmètre — DPA et information des personnes obligatoires.

Voir aussi · DPA, EU AI Act, CLOUD Act
RLHF Reinforcement Learning from Human Feedback Tech

Technique d'alignment utilisant les évaluations humaines pour récompenser le modèle. Étape standard du post-entraînement chez OpenAI, Anthropic et Mistral.

Voir aussi · Alignment, Fine-tuning
S
03 termes SLA · Souveraineté numérique · Système prompt
SLA Service Level Agreement Business

Engagement contractuel sur la disponibilité (typiquement 99,9 %), le temps de réponse, et les conditions de remboursement en cas d'indisponibilité. Clé pour tout déploiement critique.

Voir aussi · API, DPA
Souveraineté numérique Légal

Capacité à maîtriser ses données et infrastructures sans dépendance à des juridictions étrangères. En IA : modèles européens (Mistral) et déploiements on-premise sont les options souveraines.

Voir aussi · CLOUD Act, On-premise
Système prompt Tech

Instruction préfixée à toutes les requêtes utilisateur, qui définit la persona, les règles et les garde-fous du modèle. Invisible pour l'utilisateur final, central pour la cohérence du produit.

Voir aussi · Prompt, Garde-fou
T
05 termes Tier-routing · Token · Tool use · Température · Transformer
Tier-routing Business

Stratégie qui consiste à router chaque requête vers le modèle le plus léger qui suffit, et à n'utiliser un modèle frontier qu'en escalade. Réduit la facture API d'un facteur 5 à 20.

Voir aussi · Modèle léger, Frontier model
Token Tech

Unité de découpage du texte par le modèle — un mot court = 1 token, un mot long = 2 ou 3. 1 000 tokens ≈ 750 mots en anglais, 650 en français. Tout est facturé au token : entrée et sortie.

Voir aussi · Context window, Coût marginal
Tool use Tech

Capacité d'un modèle à appeler des fonctions externes — recherche web, base de données, API tierce. Ouvre la voie aux agents. À encadrer par des garde-fous pour limiter les actions à conséquence.

Voir aussi · Agent, Garde-fou
Température Tech

Paramètre qui contrôle l'aléatoire des sorties. 0 = déterministe, utilisée pour extraction et classification. 0,7 à 1 = créative, utilisée pour génération de contenu marketing ou brainstorming.

Voir aussi · Prompt, Inférence
Transformer Tech

Architecture neuronale (Vaswani et al., 2017) à l'origine de tous les LLM modernes. Le mécanisme d'attention lui permet de gérer du contexte long. Le « T » de GPT.

Voir aussi · LLM, Paramètre
V
02 termes Vector store · Vibe-coding
Vector store Tech

Base de données spécialisée dans le stockage et la recherche d'embeddings. Pinecone, Weaviate, Qdrant, pgvector. Brique d'infrastructure d'un système RAG.

Voir aussi · RAG, Embedding
Vibe-coding UX

Pratique qui consiste à coder par allers-retours conversationnels avec un assistant IA, sans plan d'architecture préalable. Productif pour le prototypage, risqué pour la production sans relecture.

Voir aussi · Agent, Human-in-the-loop

Faux-amis
à éviter

« IA » ne veut rien dire en soi — précisez : LLM, vision, classification, recommandation. « Le modèle apprend » en production : non, sauf rare RLHF en ligne. « GPT » désigne une famille d'OpenAI, pas un synonyme générique d'IA.

« 99,9 % de précision » sans préciser sur quoi est un slogan, pas une donnée.

Ce glossaire évolue
Édition avril 2026. Le vocabulaire de l'IA bouge vite — vérifiez toujours la définition d'un terme dans son contexte d'usage.
orbit-motion.com/ressources →