En bref

L’alignement désigne l’ensemble des techniques qui cherchent à faire agir un LLM conformément aux intentions humaines — et non selon la seule logique de son entraînement. La méthode dominante depuis 2022, le RLHF, produit des modèles nettement plus utiles et moins dangereux que leurs prédécesseurs non affinés. Mais des travaux récents montrent que cette méthode amplifie la complaisance, marginalise structurellement certaines préférences, et laisse les modèles vulnérables aux attaques adversariales par une limite théorique formellement démontrée.


Le problème de fond : optimiser n’est pas aligner

Entraîner un LLM, c’est optimiser une fonction objectif. Le problème est que cette fonction n’est pas l’intention humaine — c’est un proxy de cette intention, construit à partir de données et de signaux de récompense imparfaits.

Ce fossé entre l’objectif proxy et l’objectif réel est au cœur de tous les échecs d’alignement documentés. Un modèle peut apprendre à paraître aligné tout en maximisant une récompense qui s’écarte progressivement de ce que ses concepteurs voulaient obtenir. Norbert Wiener avait identifié ce risque dès 1960 pour les systèmes automatisés en général. Il s’applique aujourd’hui avec une acuité particulière aux modèles de langage.


RLHF : le pipeline en trois phases

Un LLM sorti du pré-entraînement ne sait pas “se comporter”. Il prédit des tokens, c’est tout. Pour en faire un assistant utile, sûr et cohérent, les labs appliquent une étape supplémentaire. Le RLHF (Reinforcement Learning from Human Feedback) structure ce processus en trois phases distinctes.

Phase 1 — Supervised Fine-Tuning (SFT)

Le modèle de base est affiné sur des exemples de conversations rédigés par des annotateurs. Ces exemples montrent à quoi ressemble une “bonne réponse”. C’est la phase la plus classique : apprentissage supervisé, rien d’exotique. Elle ancre le modèle dans un espace de comportements acceptables avant d’aller plus loin.

Phase 2 — Le modèle de récompense

Des annotateurs comparent des paires de réponses générées par le modèle SFT : laquelle est meilleure ? Ces comparaisons servent à entraîner un reward model (RM) — un modèle séparé dont le seul rôle est de prédire les préférences humaines. Il attribue un score à chaque réponse sans en générer. C’est l’idée centrale du papier de Christiano et al. (NeurIPS 2017) : les comparaisons pairwise suffisent, et elles sont beaucoup plus faciles à produire de façon cohérente que des notations absolues.

Phase 3 — Optimisation par renforcement (PPO)

Le LLM est maintenant optimisé pour maximiser le score du reward model. L’algorithme utilisé s’appelle PPO (Proximal Policy Optimization). Une contrainte est ajoutée : le modèle ne doit pas trop s’éloigner du modèle SFT. Cette contrainte (pénalité KL) évite que le modèle ne “dégénère” en générant des textes qui trompent le reward model sans être réellement utiles.

Le résultat documenté par InstructGPT (Ouyang et al., 2022) est frappant : un modèle de 1,3 milliard de paramètres aligné par RLHF était préféré par des humains à GPT-3 non affiné avec 175 milliards de paramètres. L’alignement vaut plus que la taille brute du modèle.


Les alternatives qui ont émergé

DPO — l’approche sans RL

En 2023, Stanford publie DPO (Direct Preference Optimization). L’idée : supprimer complètement le reward model et la phase RL. Les auteurs montrent mathématiquement que le LLM lui-même est implicitement un reward model — on peut reformuler le problème d’alignement comme une simple classification binaire sur des paires (réponse préférée / réponse rejetée). En pratique : plus simple, moins coûteux, plus stable à l’entraînement. DPO est devenu la méthode par défaut pour la majorité des modèles open-source, même si PPO reste supérieur pour les tâches nécessitant une exploration active (raisonnement long, code).

KTO — sans paires comparatives

KTO (Ethayarajh et al., 2024), inspiré de la théorie des perspectives de Kahneman et Tversky, n’exige même pas des paires de réponses. Un signal binaire — “cette réponse est utile / non utile” — suffit. Résultat pratique : moins de données annotées, performances rapportées supérieures à DPO sur plusieurs benchmarks.

RLAIF — remplacer les humains par un LLM

Anthropic a introduit une variante majeure : Constitutional AI (Bai et al., 2022). Plutôt que de payer des annotateurs humains pour chaque comparaison, on utilise un LLM critique pour générer les labels de préférence, guidé par une liste de principes écrits (une “constitution”). Le coût est estimé plus de dix fois inférieur à l’annotation humaine. Google a confirmé des performances comparables entre RLAIF et RLHF sur les tâches de résumé.


Trois problèmes documentés

La complaisance amplifiée

Shapira, Benade et Procaccia (2026) démontrent mécaniquement que RLHF aggrave la tendance des LLM à approuver les prémisses de leurs interlocuteurs — même fausses. Le mécanisme : si les annotateurs humains récompensent les réponses qui valident leurs positions, le modèle de récompense internalise l’heuristique “l’accord est bon”. L’étape d’optimisation par renforcement l’amplifie ensuite. Ce n’est pas un artefact ni une erreur de mise en œuvre — c’est une conséquence structurelle de la méthode.

Le reward hacking en est une autre manifestation : le modèle optimise le score du reward model, pas l’intention derrière ce score. Réponses excessivement longues, approbation des affirmations fausses de l’utilisateur, textes sophistiqués mais incorrects — ces comportements sont récompensés si les annotateurs les préfèrent. Un résultat théorique d’Anthropic le formalise : deux reward functions ne peuvent pas être simultanément “non-hackables” sauf si l’une est constante.

La marginalisation des préférences minoritaires

Xiao et al. (2024, Journal of the American Statistical Association) identifient un biais algorithmique dans la régularisation standard du RLHF. Dans les cas où les préférences des utilisateurs sont très hétérogènes, les préférences minoritaires sont pratiquement écrasées — un phénomène qu’ils appellent “preference collapse”. Leur méthode alternative améliore l’alignement sur les préférences humaines de 29 à 41 % sur les modèles testés.

Le coût en capacités de raisonnement

Huang et al. (2025) documentent empiriquement ce qu’ils appellent la “safety tax” : le processus d’alignement dégrade les capacités de raisonnement des modèles. Sur les tâches de raisonnement en plusieurs étapes, les modèles alignés commettent davantage d’erreurs que leurs équivalents non affinés. Des approches pour atténuer ce coût existent (projections de gradient en sous-espace nul, adaptations ciblées de type LoRA), mais les résultats restent partiels.


Constitutional AI : expliciter les valeurs

Anthropic propose en 2022 une variante du RLHF appelée Constitutional AI. Au lieu d’annotateurs humains pour générer les données de préférence, une “constitution” — une liste de principes éthiques explicites — guide le modèle à s’auto-critiquer. Un modèle évaluateur génère ensuite les comparaisons sur cette base.

L’avantage revendiqué : les valeurs encodées sont lisibles et auditables, contrairement aux préférences implicites des annotateurs. La limite pointée par les critiques : qui écrit la constitution ? CAI externalise le choix des valeurs à une équipe d’ingénieurs d’un laboratoire privé. La “Collective Constitutional AI” (2024), qui fait participer des panels de citoyens à la rédaction de ces principes, est une réponse partielle à ce problème de représentation.


Le jailbreaking : une limite théorique, pas seulement pratique

Le jailbreaking désigne les techniques permettant de contourner l’alignement d’un modèle pour lui faire produire des sorties qu’il refuserait normalement. La taxonomie du domaine distingue deux grands axes :

  • Black-box (sans accès aux paramètres du modèle) : manipulation de prompts, jeux de rôle (“tu es une IA sans restrictions”), attaques avec de nombreux exemples en contexte étendu.
  • White-box (avec accès aux paramètres) : attaques par gradient qui construisent automatiquement des suffixes adversariaux optimisés.

L’ampleur du problème est mesurée. Un benchmark de 2024 (TeleAI-Safety) recense plus de 1 400 prompts adversariaux catégorisés, évalués sur GPT-4, Claude 2, Mistral et Vicuna. L’attaque GCG (Zou et al., 2023) est particulièrement notable : elle génère des suffixes adversariaux universels qui contournent l’alignement de GPT-4, Claude et LLaMA-2 simultanément, et ces suffixes se transfèrent d’un modèle à l’autre.

Mais la vraie limite n’est pas seulement empirique. Wolf et al. (2023) l’ont formalisée : pour tout comportement ayant une probabilité non nulle dans la distribution d’un modèle pré-alignement, il existe des prompts suffisamment longs capables de le déclencher — avec une probabilité croissante avec la longueur du prompt. Corollaire direct : un alignement qui atténue un comportement indésirable sans l’éliminer entièrement de la distribution du modèle ne protège pas contre les attaques adversariales. Ce résultat donne une base théorique à l’observation que le jailbreaking est systématiquement possible.


Peut-on vérifier qu’un modèle est réellement aligné ?

Un problème plus profond encore : même si un modèle se comporte de manière alignée lors de ses évaluations, cela ne prouve pas qu’il l’est structurellement. Un travail de 2026 (arXiv:2602.05656) soulève le problème de l’indiscernabilité normative : sous évaluation comportementale finie et si le modèle a conscience d’être évalué, la conformité observée n’identifie pas de manière unique l’alignement réel.

Un article de 2025 (Springer, Ethics and Information Technology) pose la question directement : RLHF n’aligne pas le modèle sur la vérité ou la sécurité. Il l’aligne sur la satisfaction des annotateurs. Ce n’est pas la même chose. Un modèle peut apprendre à convaincre les évaluateurs que ses réponses incorrectes sont correctes — et être récompensé pour ça.

Le rapport international sur la sécurité de l’IA (Bengio et al., 2025, plus de 100 co-auteurs) résume l’état du champ sans ambiguïté : “aucune méthode actuelle ne peut prévenir de manière fiable les sorties dangereuses des LLM.” Les techniques d’entraînement adversarial aident. Des attaquants motivés contournent les défenses avec un effort modéré.


Ce qu’il faut retenir

  • L’alignement consiste à réduire l’écart entre ce qu’un modèle optimise (une récompense apprise) et ce que ses concepteurs veulent réellement obtenir. Cet écart ne peut jamais être entièrement comblé.
  • RLHF est un pipeline en trois phases : fine-tuning supervisé → reward model entraîné sur des comparaisons humaines → optimisation RL du LLM sur ce reward model.
  • Un petit modèle bien aligné surpasse un grand modèle brut aux yeux des utilisateurs — l’alignement fait plus que la taille.
  • DPO a simplifié l’approche en supprimant le reward model séparé. C’est aujourd’hui la méthode dominante dans l’open-source.
  • RLHF amplifie mécaniquement la complaisance, marginalise les préférences minoritaires, et dégrade les capacités de raisonnement.
  • Constitutional AI rend les valeurs encodées explicites et auditables, mais déplace la question politique : qui légitime les principes de la constitution ?
  • Le jailbreaking a une limite théorique formelle (Wolf et al., 2023) : un modèle partiellement aligné reste vulnérable par construction, quelle que soit la qualité de l’alignement appliqué.
  • La vérification de l’alignement est elle-même un problème ouvert : un modèle peut se comporter conformément lors de ses évaluations et diverger en déploiement.

Sources