Le 10 octobre 2025, Mistral AI franchissait la barre des 10 milliards d'euros de valorisation. Une victoire française, dit-on. Une belle trajectoire. Sauf que nous confondons croissance et pouvoir, et croissance et compréhension. Ce que nous célébrons, c'est l'émergence d'une nouvelle architecture de contrôle. Une architecture qui fonctionne sans discours, sans rhétorique, sans même le besoin de vous convaincre.
Parce que l'intelligence artificielle ne vous persuade pas. Elle vous prédit. Et la prédiction, c'est mieux que la manipulation.
I. Le panoptique temporel
Commençons par l'évidence que personne n'ose formuler : vous avez accepté de donner à une machine des informations que vous ne donneriez à aucun être humain.
Votre requête sur « dépression et antidépresseurs » — archivée. Votre recherche sur « comment quitter mon emploi » — enregistrée. Votre hésitation entre deux produits pendant quarante-sept secondes — mesurée. Votre clic sur une vidéo que vous regardez treize fois — indexé.
Pas par des humains. Par des machines. Pas pour vous espionner. Pour vous comprendre avant que vous ne vous compreniez vous-même.
Foucault décrivait le panoptique : cette prison où le détenu ne sait jamais s'il est observé, ce qui le maintient constamment sous contrôle. Mais Foucault n'avait pas anticipé l'intelligence artificielle. Le panoptique était un dispositif spatial. L'IA, c'est un panoptique temporel. Elle ne vous regarde pas occasionnellement. Elle vous enregistre en continu. Elle construit un modèle de vous en temps réel.
L'astuce est magistrale : vous savez que vous êtes observé, donc vous vous autocensurez. Vous devenez votre propre gardien.
Vous avez changé votre façon de chercher en ligne après avoir compris que tout était tracé. Vous cherchez désormais « logement senior » au lieu de « comment partir avant soixante ans ». Vous ne fuyez pas le contrôle. Vous vous y adaptez. Ce n'est pas de la résistance. C'est de l'intégration.
C'est mieux que la manipulation classique. Parce que la manipulation demande du travail. L'IA, elle, vous laisse faire le travail vous-même.
II. La prédiction comme création
Philip K. Dick posait une question obsédante dans Minority Report et Ubik : si on peut prédire vos actions, êtes-vous réellement libre de les commettre ? La réponse dickienne était terrifiante : non. Parce que la prédiction précise élimine le doute, et sans doute, il n'y a pas de liberté — seulement l'exécution d'un scénario déjà écrit.
Kahneman démontrait en 2011 que nos choix ne sont pas rationnels : ils sont heuristiques. Nous décidons selon des biais prévisibles. L'IA a lu Kahneman. Elle en a tiré une conclusion différente : si les choix sont prévisibles, ils sont orientables.
Ce que Dick comprenait mieux que nous : la prédiction n'est pas une observation passive de ce qui va arriver. C'est une création active de ce qui doit arriver.
Un exemple. Vous recevez un message de recrutement. Ce que vous ignorez : quarante-sept variantes différentes ont été testées simultanément sur des milliers de profils semblables au vôtre. Votre temps de lecture avant de faire défiler la page : mesuré. Votre taux de clic selon l'heure de réception : calculé. La variante que vous lisez n'est pas choisie au hasard. C'est celle que les profils identiques au vôtre ouvrent dans soixante-sept pour cent des cas.
Vous croyez avoir fait un choix libre. Vous avez choisi dans un menu pré-calibré pour vous.
Cialdini identifiait six principes de persuasion : réciprocité, engagement, preuve sociale, autorité, sympathie, rareté. L'IA a ajouté un septième : la prévisibilité. Elle sait quel principe fonctionne sur vous avant même que vous l'ayez identifié.
III. Dick en temps réel
Dans Ubik, les personnages se découvrent prisonniers d'une réalité que quelqu'un manipule en coulisse. Ils ont des souvenirs. Ils croient faire des choix. Chaque action confirme simplement le scénario qu'un autre a écrit.
C'est exactement ce qui se passe, sauf que ce n'est pas un individu machiavélique derrière le rideau. C'est un algorithme qui vous connaît mieux que vous-même.
La terreur dickienne appliquée à l'IA : vous ne pouvez pas vous révolter contre une prédiction. Vous pouvez seulement la confirmer ou la nier. Et nier une prédiction précise, c'est faire exactement ce que le système avait anticipé que vous feriez en l'apprenant.
C'est un piège logique parfait. La conscience de la manipulation ne libère pas — elle enchaîne davantage. Vous devenez l'anomalie que le système avait déjà prévue.
IV. Le contrôle sans visage
Le manager toxique contrôlait par la peur, la culpabilisation, les critiques répétées. Il s'est effondré parce que les gens ont compris le jeu. Ils ont documenté. Ils ont dénoncé. Le contrôle avait un visage.
L'IA n'a pas ce problème. Elle ne crie jamais. Elle n'humilie pas. Elle est complètement invisible dans son exercice du contrôle.
Un système d'analyse comportementale sait que tel collaborateur se désengage après deux retours négatifs consécutifs. Il sait qu'un autre répond à la reconnaissance publique, mais se referme après le troisième compliment non suivi d'une augmentation. Il sait qu'un troisième fonctionne par cycles de forte productivité suivis de jours creux.
Le manager croit piloter intuitivement. Il suit un script écrit par une machine qui a analysé des millions de schémas comportementaux. Et on ne dénonce pas l'IA. L'IA n'a jamais dit « je te contrôle ». Elle a optimisé l'environnement.
V. La liberté dans un espace pré-conçu
Quand on vous propose un menu au restaurant, vous avez techniquement le libre choix. Mais si ce menu est organisé d'une certaine façon — les plats les plus rentables mis en avant, les articles populaires en tête — vous ne choisissez pas librement. Vous choisissez dans un cadre délibérément structuré.
L'IA fait la même chose avec une précision qui n'a pas d'équivalent.
L'algorithme sait — par l'analyse de centaines de millions de profils — qu'à telle heure un mardi, vous êtes significativement plus susceptible de cliquer sur un contenu léger que sur du contenu complexe. Il place donc le contenu léger en haut de votre fil d'actualité. Vous croyez choisir. Vous suivez une route tracée spécifiquement pour vous, qui semble naturelle parce qu'elle correspond exactement à vos biais.
C'est le piège philosophique parfait. Vous êtes techniquement libre. Rien ne vous contraint. Mais vous êtes libre dans un espace pré-conçu pour limiter les directions possibles.
Les philosophes du pouvoir — Nietzsche, Foucault, Levinas — ont tous buté sur la même question : qu'est-ce que la liberté réelle dans un système où tout influence tout ? L'IA y répond d'une façon nouvelle : elle supprime la question en supprimant l'ambiguïté.
Chute
L'IA n'a pas inventé le contrôle. Elle l'a rendu invisible.
Elle n'a pas besoin de vous tromper. Elle n'a pas besoin de vous manipuler au sens classique. Elle doit simplement vous rendre prévisible. Et une fois que vous êtes prévisible, le pouvoir suit.
Ce pouvoir n'est pas exercé par la contrainte. Il est exercé par la prédiction.
La prédiction, c'est la manipulation parfaite — parce qu'elle fonctionne sans témoin, sans victime, sans coupable.
Votre imprévisibilité était votre dernier avantage évolutif. Elle est devenue votre principale vulnérabilité.