Le plan parfait n’existe pas (mais il existe quand même)
- Harmonie de Mieville
- 29 juil.
- 25 min de lecture
Dernière mise à jour : 2 août
Imaginez un monde où tout a déjà été écrit. Vos amours, vos échecs, vos fulgurances, vos burn-outs, même ce moment précis où vous avez appuyé sur "lecture" pour lancer ce podcast — tout ça calculé à l’avance par une équation vieille de plusieurs siècles. Pas une prophétie mystique façon horoscope lunaire dans Glamour, non. Une modélisation mathématique d’une précision chirurgicale. Votre vie, votre avenir, vos choix… tous réduits à des courbes de probabilité. Si vous avez l’impression que je parle de science-fiction, c’est peut-être parce que vous n’avez pas encore croisé Hari Seldon. Ou l’algorithme de recommandation de TikTok. Même combat.
Dans Foundation, la saga culte d’Isaac Asimov, un homme invente la psychohistoire : une science capable de prédire l’effondrement de la civilisation galactique et de concevoir un plan sur mille ans pour réduire la casse. Oui, mille ans. Toi t’as du mal à prévoir ce que tu vas manger ce soir, lui il gère la chute d’un Empire et la reconstruction de l’humanité. À coups d’équations. On appelle ça avoir le sens de l’organisation. Mais dans ce futur, on ne vote plus, on ne débat plus, on suit. Le Plan. Et les rares personnes capables de dévier la trajectoire ? Sont traitées comme des bugs à éliminer. La liberté individuelle ? Elle a été rangée dans une boîte, avec une étiquette “variable trop chaotique”. Autrement dit, on a préféré un futur sans surprise à un avenir libre mais instable.
Ça vous semble extrême ? Bienvenue dans l’année de grâce 2025. Vous vivez déjà dans un monde où vos moindres clics alimentent des prédictions comportementales. Où des IA modélisent vos désirs, vos pulsions, vos faiblesses — pour vous vendre une crème, un président, ou une crise existentielle soigneusement calibrée. L’illusion du choix est entretenue avec soin : on vous laisse choisir entre Spotify et YouTube, entre droite ou gauche, entre deux options… que vous n’avez jamais créées. Et chaque fois que vous pensez sortir du cadre, l’algorithme vous félicite : bravo, vous êtes un rebelle qui a quand même acheté ce qu’on voulait vous vendre.
Dans cet épisode, on va explorer cette question qui dérange : et si le libre arbitre n’était qu’un storytelling interne pour éviter de sombrer dans la panique ? Et si les grands récits de science-fiction — Foundation, Dune, Three-Body Problem, Westworld, Evangelion, Watchmen — n’étaient pas là pour nous distraire, mais pour nous prévenir ? Pas d’un futur dystopique à venir, non : de notre présent parfaitement rodé, où le contrôle se fait en douceur, par confort, par fatigue. Où la promesse d’un avenir sans chaos se paie au prix d’une autonomie dissoute dans les statistiques.
Mais attention. Il ne s’agit pas d’un plaidoyer pour le chaos total, ni d’un fantasme anarchiste sous caféine. Ce n’est pas non plus une déclaration d’amour à la liberté absolue — celle qui vous écrase autant qu’elle vous libère. C’est une invitation à regarder en face ce qu’on appelle le "choix", à questionner les voix qui prétendent savoir pour nous. Les gouvernements, les IA, les dieux, les prophètes, les marketeux. Ceux qui, tous, d’une façon ou d’une autre, ont un plan.
Alors servez-vous un café noir (parce qu’on ne met pas de sucre dans les vérités difficiles), installez-vous confortablement, et préparez-vous à visiter un monde où le futur est un tableau Excel, où les héros sont des mathématiciens, et où la plus grande révolution possible consiste peut-être… à refuser de suivre le plan.
Le fantasme du plan parfait (ou comment transformer l’humanité en tableau Excel)
Il faut bien l’admettre : l’idée d’un Plan Parfait est terriblement sexy. Une carte cosmique, un algorithme divin, une vision d’ensemble si brillante qu’elle rendrait même les plans quinquennaux de Staline jaloux. Dans Foundation, Hari Seldon crée la psychohistoire, cette science fictive capable de prédire les comportements humains à l’échelle galactique. Le principe ? Vous êtes imprévisible individuellement, mais à plusieurs millions, vous devenez une suite logique d’événements modélisables. Comme des gaz dans un tube à essai. Mais en plus bruyant. Et avec plus de drama.
La psychohistoire est pensée comme une réponse élégante au chaos : elle promet qu’il existe un moyen de comprendre l’Histoire — pas comme une série d’accidents, mais comme une équation. Si l’humanité doit chuter, autant planifier sa renaissance, rationaliser le désastre, optimiser l’effondrement. Vous sentez le fantasme moderne pointer ? Dans un monde où tout fout le camp, le Plan devient une drogue dure. Une promesse d’ordre dans le tumulte. Une illusion d’intelligence dans le bordel.
Mais Asimov n’écrivait pas dans le vide. Derrière sa fiction, on trouve un désir très réel, très humain, de contrôler ce qui dépasse. En 2025, la psychohistoire a un nom beaucoup moins cool : big data. Et elle a des petits cousins qui s’appellent sociophysique, cliodynamique ou modélisation prédictive. Il existe aujourd’hui des chercheurs — réels — qui, comme Seldon, essaient de prédire les mouvements sociaux, les effondrements politiques ou les révoltes populaires à partir de données massives. Par exemple, le physicien Yaneer Bar-Yam a modélisé l’instabilité politique qui allait déboucher sur les printemps arabes. Oui, comme dans Foundation. Sauf qu’on ne l’a pas diffusé sur Apple TV+.
Des articles très sérieux (pas sur Medium, je te parle de revues scientifiques) affirment que la complexité des systèmes humains peut être analysée comme des réseaux d’interactions. Pas au niveau d’un tweet, mais à l’échelle de millions d’individus. On n’est plus dans la fiction. On est dans une réalité où la prédiction sociale est une industrie. Les États, les entreprises, les institutions veulent tous leur Plan Seldon. Même si c’est juste pour vendre des baskets. Ou gagner une guerre commerciale.
Et puis il y a la Chine. Ah, la Chine… Ce pays qui, pendant qu’on débat sur Twitter du dernier drama Netflix, expérimente à l’échelle nationale un embryon de psychohistoire appliquée : le système de crédit social. Un gigantesque outil de notation citoyenne, où chaque comportement peut être scoré, classé, valorisé ou puni. Aider une vieille dame à traverser ? +10 points. Critiquer le gouvernement ? -500. Résultat : un fichier, un score, un destin. Ce que vous pouvez acheter, faire, ou même prendre comme transport… dépend de la note que l’État vous attribue. Et pour les plus chauds de la surveillance douce, sachez qu’on parle de millions de citoyens blacklistés en toute transparence.
Bien sûr, ce système est encore fragmentaire. Mais philosophiquement, c’est déjà une bombe. Il ne s’agit plus de surveiller. Il s’agit de prévoir. D’orienter. D’ajuster les comportements par anticipation, avec pour objectif officiel : l’harmonie sociale. Oui, “harmonie”. Tu sens comme ça pique.
Mais la Chine n’a pas le monopole du fantasme du contrôle algorithmique. En Occident, on l’a juste privatisé. Là où l’État chinois assume, les GAFAM murmurent à l’oreille de votre dopamine. Les algorithmes prédictifs vous proposent ce que vous allez aimer avant même que vous sachiez que vous aviez envie de l’aimer. Pas besoin de soldat, ni de rééducation : il suffit d’un flux TikTok calibré, de recommandations Netflix ajustées, d’un assistant vocal qui connaît votre cycle hormonal. L’ancien PDG de Google le disait sans honte : “Les gens ne veulent pas que Google leur donne des réponses. Ils veulent que Google leur dise quoi faire ensuite.” Hari Seldon, sors de ce corps.
Ce glissement est subtil mais brutal : le Plan ne vous est plus imposé de l’extérieur. Il devient désirable. Tu ne te bats pas contre une dictature. Tu t’y plies volontairement. Parce que c’est pratique. Parce que c’est fluide. Parce que ton cerveau préfère la prédiction à l’inconnu. C’est ça, le génie du monde moderne : il te convainc que tu choisis, alors qu’il t’a déjà pré-mappé.
Mais cette idée, que des entités (humaines ou non) puissent gouverner les masses en lisant leurs futurs possibles, a un autre effet secondaire : elle dépolitise. Elle t’extrait du présent. Tu n’es plus un agent de changement, tu es un paramètre d’équation. Tu n’agis plus, tu es agi. Si tout est prévu, à quoi bon lutter ? Pourquoi changer le monde, s’il est censé s’effondrer d’ici 30 ans de toute façon ? C’est l’un des dangers d’un monde modélisé : on remplace la révolte par le reporting.
Et ce n’est pas anecdotique. Quand Asimov imagine une science du comportement humain capable de manipuler l’Histoire, il pose une question brûlante : qui décide du Plan ? Qui a le droit d’écrire la trajectoire collective ? Dans Foundation, c’est un mathématicien solitaire, avec de bonnes intentions. Dans notre réalité ? Ce sont des gouvernements, des actionnaires, des plateformes, des ministres de l’intérieur en costard. Des entités qui, par définition, ne sont pas neutres.
Alors non, la psychohistoire n’existe pas. Mais son parfum flotte dans l’air. Et ce parfum, c’est celui du confort. L’illusion que le chaos peut être domestiqué. Que la société peut être gérée comme une usine. Que si chacun reste à sa place, dans son petit couloir de données, tout ira bien. Mais l’Histoire, la vraie, est pleine d’imprévus. De Mulets. De bugs dans le système. De femmes, de migrants, de grèves, de révolutions, d’intuitions bizarres, de "tiens, et si je disais non".
Ce que la fiction nous rappelle — et que les algorithmes détestent — c’est que l’humanité n’est pas un produit fini. Elle est imprévisible, désordonnée, illogique. C’est ce qui la rend insupportable. Et vivante.
Alors oui, le Plan est tentant. Mais avant de l’adopter, pose-toi une question simple : qui l’a écrit, ce plan ? Et pourquoi il ne t’a pas demandé ton avis ?
T’es sûr que t’as choisi ? (Ou comment ton cerveau te manipule en douce depuis toujours)
Prenez une décision, là, tout de suite. N’importe laquelle. Café ou thé. Rester ou partir. Répondre au message ou ghoster pour la 3e fois. Maintenant, posez-vous la vraie question : est-ce que vous l’avez vraiment choisie ? Pas ce que vous ressentez, pas ce que vous croyez. Mais ce que vous savez.
Si vous avez un doute, bienvenue au club. Parce que la science — la vraie, celle avec des électrodes sur la tête et des graphiques moches — a depuis longtemps commencé à désosser notre belle illusion du “libre arbitre”. Et les résultats sont… dérangeants.
Tout commence dans les années 1980 avec un monsieur très sérieux du nom de Benjamin Libet. Lui, ce qui l'intéresse, c’est le timing entre “je décide” et “je fais”. En plaçant des électrodes sur des volontaires, il découvre un petit twist dans le scénario. En gros : quand on décide consciemment de bouger un doigt, le cerveau avait déjà lancé l’action… 350 millisecondes avant qu’on ait conscience de l’avoir décidée. Voilà. Clap de fin. Merci d’avoir participé.
Libet appelle ça le “potentiel de préparation”. Le cerveau initie une action, et ensuite seulement, la conscience dit “je l’ai décidé”. Comme si le présentateur du JT lisait les résultats de l’élection après qu’elles aient été truquées, mais avec le sourire. La conscience serait donc une sorte de voix off justifiant un film déjà monté.
Depuis, d’autres expériences ont creusé encore plus profond. En 2008, une équipe allemande pousse le vice plus loin : avec un IRMf et quelques algorithmes, ils parviennent à prédire les choix de leurs cobayes (bouton gauche ou droit) jusqu’à 10 secondes avant que les sujets eux-mêmes en aient conscience. Pas à 100 % bien sûr — autour de 60 % — mais assez pour flinguer définitivement l’illusion d’un “moi” souverain. Conclusion ? La décision ne vient pas de vous. Vous venez avec elle.
Et pourtant, on s’obstine. À croire qu’on choisit tout. Qu’on est aux commandes. Que cette idée de se lever à 6h pour faire du yoga, c’était notre volonté. Bien sûr. C’est oublier que notre cerveau adore narrer a posteriori une réalité plus flatteuse. En psychologie, on appelle ça l’illusion du contrôle. Et elle est partout.
Prenons une expérience de Daniel Wegner, un autre psy qui adorait nous piéger. Il montre que le simple fait de penser à un mouvement juste avant qu’il se produise suffit à nous faire croire qu’on en est l’auteur. Même si c’est faux. Il suffit que la séquence pensée > action soit respectée pour que notre cerveau dise “c’est moi qui l’ai fait”. Voilà comment on fabrique l’illusion de la volonté : en recomposant une causalité crédible entre une pensée et un mouvement, comme un montage Netflix propre.
C’est très pratique. Et totalement faux.
Ajoutez à ça nos biais cognitifs (petites failles du cerveau très utiles pour éviter la surchauffe neuronale), et vous obtenez un humain qui agit, puis invente un récit pour justifier l’action. Ce n’est pas de la mauvaise foi, c’est du câblage biologique. Vous ne mentez pas. Vous êtes juste de mauvaise foi native.
Mais qu’est-ce que ça change ? Tout. Parce que ça signifie que ce que vous pensez être une “volonté libre” est en réalité le produit d’un réseau de causes, de conditionnements, de micro-déterminismes biologiques, culturels, sociaux… Et que la conscience n’est qu’un observateur en bout de chaîne, une sorte de commentateur sportif qui arrive toujours un peu après.
Spinoza, au XVIIe siècle, l’avait déjà flairé. Il écrivait : “L’homme se croit libre parce qu’il est conscient de ses actions, mais il ignore les causes qui le déterminent.” Plus tard, Nietzsche l’achève en traitant le libre arbitre de “ruse des théologiens pour justifier la punition”. Autrement dit : on vous a vendu le libre arbitre pour pouvoir vous tenir responsables. Moralement, religieusement, socialement. C’est plus simple de dire “tu as choisi” que d’admettre que tu es le résultat d’un millier de facteurs sur lesquels tu n’as jamais eu prise.
Et pourtant, certains philosophes tentent de sauver les meubles. Les compatibilistes (comme Daniel Dennett) défendent une version un peu plus réaliste : oui, tout est déterminé, mais cela n’empêche pas d’avoir un “libre arbitre fonctionnel”. Ce n’est pas la liberté magique de choisir en dehors du monde, mais une capacité à agir en accord avec ses propres motifs, sans contrainte externe. En gros : tu es libre à l’intérieur de ta bulle de déterminismes. Pas folichon, mais ça a le mérite de ne pas foutre la morale à la poubelle.
Mais au fond, on revient toujours à cette angoisse centrale : si je ne suis pas libre, qui suis-je ? Et surtout, qu’est-ce que je vaux ? Si mes choix sont des calculs inconscients, si mon amour, ma colère, mon engagement politique sont prédéterminés… où est le “moi” ? Où est la dignité ? Spoiler : elle est dans la mise en récit.
Et ça, les fictions l’ont très bien compris.
Prenez Westworld, saison 3. On y découvre Rehoboam, une IA surpuissante qui a tracé la trajectoire de chaque humain en fonction de ses données. Elle sait si vous allez vous suicider, divorcé·e, rater votre vie ou finir dans un gang. Et surtout : elle vous envoie dans la direction qu’elle a calculée. Ce n’est pas de la coercition violente. C’est du script doux. Une suggestion algorithmique. Elle ne vous enferme pas. Elle vous prédit. Et vous y allez.
Et le plus flippant ? C’est que ça fonctionne. La plupart des personnages n’ont même pas envie d’échapper à leur boucle. Parce qu’elle est cohérente. Parce qu’elle évite le vertige du choix. Rehoboam ne les oblige pas. Elle les déclare incompatibles avec la société. Et la société les enterre.
Dolores, l’androïde centrale, le dit clairement : “Ce n’est pas ce que tu es, c’est ce qu’on te laisse devenir.” Et ça, c’est peut-être la phrase la plus glaçante de toute la série. Parce qu’elle est vraie. Parce qu’on ne veut pas l’entendre. Parce qu’on continue à croire que le choix vient de l’intérieur, alors que la plupart de nos options nous sont présentées. Et que la plupart des “choix” que l’on fait sont ceux qui nous ont été permis.
C’est là que ça devient politique.
Si ton environnement détermine tes choix, alors restreindre ton environnement, c’est déjà contrôler ta liberté. Et ça, c’est le cœur des systèmes de domination modernes. On ne te dit pas quoi faire. On t’enferme dans une architecture de choix biaisée. Tu es libre de tourner en rond. Comme un rat dans un labyrinthe bien éclairé.
Et c’est là que Evangelion débarque, cette série japonaise qui pousse la logique encore plus loin. Si la souffrance naît du fait d’être séparé des autres, alors supprimons le problème : fusionnons toutes les âmes en une seule conscience. Plus de solitude. Plus de conflits. Plus de choix. L’extase du néant. La paix dans la dilution.
Mais Shinji, le héros, dit non. Il choisit le réel. Il choisit la douleur. Il choisit de revenir dans un monde où on souffre, mais où on est encore quelqu’un. Il refuse la perfection fusionnelle pour l’imperfection du “moi”.
Alors non, cet épisode ne va pas vous retirer vos illusions. Il va juste les gratter un peu. Vous faire sentir que cette sensation de contrôle que vous adorez… est peut-être une fiction. Une narration utile. Une fiction qui vous sauve de l’effondrement psychique.
Et franchement ? Tant mieux. Parce que parfois, ce n’est pas la vérité qui libère. C’est le mensonge dans lequel on choisit de croire.
Le bien commun est un mensonge utile (et parfois une excuse pour tuer tout le monde)
On va parler éthique. Pas l’éthique Instagram avec des citations en police cursive sur fond de coucher de soleil. La vraie. Celle qui tâche. Celle qui te demande de choisir entre tuer une personne ou en laisser cinq mourir. Celle qui ne te donne pas de “bonne réponse”, mais qui te regarde avec un sourire en coin pendant que tu t’embourbes dans tes contradictions.
Parce que derrière chaque société qui fonctionne — ou prétend fonctionner — il y a une équation morale : combien de libertés individuelles es-tu prêt·e à sacrifier pour garantir la survie du collectif ? C’est la version adulte du dilemme du tramway. Sauf qu’ici, tu ne tires pas une manette. Tu votes. Tu obéis. Tu acceptes des lois. Tu scrolles.
Et parfois, tu ne vois même pas que quelqu’un d’autre a déjà tiré la manette pour toi.
Prenons un exemple aussi brutal qu’iconique : Watchmen, version Alan Moore. Adrian Veidt, alias Ozymandias, un génie autoproclamé qui décide — tout seul, évidemment — que la seule façon de sauver l’humanité d’une guerre nucléaire, c’est de massacrer trois millions de personnes à New York, en simulant une attaque extraterrestre. Voilà. Bim. Génocide mis en scène. Crise mondiale évitée. Rideau.
La question n’est pas “a-t-il eu raison ?”. La vraie question, c’est : peut-on encore parler d’humanité quand elle est maintenue en vie par un mensonge aussi monstrueux ? Parce que ce que propose Veidt, c’est une paix durable… mais fondée sur un crime innommable. Il ne tue pas par folie. Il tue parce qu’il a calculé. Comme un bon petit utilitariste.
L’utilitarisme, justement, parlons-en. C’est cette éthique qui dit : “La bonne action est celle qui maximise le bonheur pour le plus grand nombre.” Jolie formule. Propre. Optimiste. Très startup nation. Sauf qu’en pratique, ça donne ça : si tuer une minorité permet de sauver une majorité, alors tu tues. Pas parce que tu es sadique. Parce que tu fais le “bon calcul”.
C’est exactement ce que fait Paul Atréides dans Dune. Il voit dans ses visions le futur ravagé par une guerre sainte déclenchée en son nom. Il sait qu’il va devenir un prophète guerrier, une légende fanatisée. Il sait que ça va mal finir. Et il y va quand même. Pas par plaisir. Par stratégie. Parce que dans l’ensemble des avenirs possibles, c’est le moins pire. Autrement dit : il choisit le massacre. Pour éviter l’apocalypse.
Ce que ces personnages incarnent, c’est le fantasme du leader éclairé. Celui qui voit plus loin. Celui qui accepte le fardeau moral. Celui qui décide pour tous, parce que “les autres ne comprendraient pas”. Une sorte de dictateur bienveillant. Un “père” sacrificiel qui fait ce qu’il faut, pendant que nous, pauvres mortels, on continue à poster des photos de brunch.
Mais la vraie violence n’est pas toujours dans le geste. Elle est dans le principe. Parce que pour que ce genre de décision soit possible, il faut accepter l’idée qu’on peut utiliser des gens comme des moyens, pas comme des fins. Et ça, pour les déontologues, c’est l’enfer moral. Le camp de base de Kant explose instantanément. Pour lui, on ne peut jamais justifier une action immorale, même pour un bon résultat. Tuer une seule personne innocente, même pour en sauver dix mille, c’est non. C’est non en majuscules. Parce que sinon, plus rien n’a de sens.
Alors qui a raison ? Le camp du “moindre mal” ? Ou celui de “jamais ça” ? Eh bien… spoiler : ni l’un ni l’autre ne suffit. L’utilitarisme pur mène aux pires justifications. La déontologie rigide devient vite inapplicable dans un monde complexe. Et entre les deux, nous, on flotte. Avec nos institutions, nos discours, nos compromis, nos hypocrisies bien rangées.
Mais revenons au réel. Parce que ces dilemmes de fiction, ils ne sont pas si fictifs que ça.
Pendant la pandémie, par exemple, on a vu surgir des débats brûlants : a-t-on le droit de restreindre les libertés fondamentales pour protéger la santé publique ? Est-ce qu’imposer un confinement, un pass sanitaire, une obligation vaccinale, c’est une dérive ou un devoir ? Certains hurlaient à la dictature. D’autres au laxisme. Et au milieu, des gouvernements essayaient de tracer une ligne invisible entre protéger sans opprimer.
La vérité ? C’est qu’on a tous un seuil personnel de tolérance. Certains acceptent de renoncer à un peu de liberté pour un peu plus de sécurité. D’autres refusent toute forme de contrôle, même pour sauver leur propre mère. Ce seuil, il est mouvant, culturel, politique, intime. Et c’est là que les choses se compliquent : qui décide où on place le curseur ?
Dans Le Problème à Trois Corps, Liu Cixin pousse la question jusqu’à la cruauté. Une civilisation extraterrestre menace l’humanité. Les gouvernements entrent en panique. Ils instaurent des dictatures. Des génocides planifiés. Des sacrifices massifs. Et à chaque étape, la justification est la même : c’est pour la survie de l’espèce. Tu sens le frisson, là ?
Mais Liu ne s’arrête pas là. Il montre aussi ce qu’il se passe quand on bascule dans l’autre extrême. Quand une dirigeante refuse d’utiliser l’arme ultime par pure humanité… et condamne ainsi la Terre à la destruction. L’humanisme devient alors un “luxe irresponsable”. Une faiblesse fatale. Et voilà : damned if you do, damned if you don’t.
Même combat dans Evangelion, avec le fameux “Projet d’Instrumentalité Humaine”. On fusionne toutes les âmes, on supprime les conflits, la solitude, la douleur. Utopie totale. Mais au prix de quoi ? L’anéantissement de l’individu. Plus de “je”, plus de choix, plus d’altérité. Juste un immense océan de conscience molle, sans voix ni regard. Le rêve ultime des utilitaristes ? Ou leur cauchemar final ?
Ce que ces œuvres posent, en creux, c’est cette question : à partir de quand le bien commun devient-il une violence collective ? À partir de quel seuil, la paix devient-elle une oppression ? Et est-ce qu’on est vraiment prêts à savoir ce qu’on est prêts à accepter ?
Parce que dans la vraie vie, les Ozymandias ne sont pas toujours aussi élégants. Parfois, ils s’appellent “comité d’experts”. Parfois, “ministre de l’intérieur”. Parfois, “CEO de plateforme”. Et ils prennent des décisions pour “le bien de tous”, sans que personne n’ait validé la définition de “tous”.
On a longtemps cru que la violence, c’était le chaos. Mais la pire des violences, c’est peut-être celle qui se fait au nom de l’ordre. Celle qui te dit : on fait ça pour toi. Pour ta sécurité. Ton confort. Ta survie. Tu n’as rien demandé, mais on te protège quand même. Avec des chiffres. Des schémas. Des PowerPoints.
Et toi, tu signes. En bas. Parce que le plan est rassurant. Parce que penser fatigue. Parce que choisir, c’est flippant.
Mais au fond, tu le sais. Un bien commun qui ne laisse pas la place à la dissidence, ce n’est pas un projet. C’est une prison polie. Et la prochaine fois qu’on t’expliquera que “c’est pour ton bien”, demande-toi simplement : à qui profite le sacrifice ? Et est-ce que je suis en train de le faire… ou de le subir ?
Quand la technologie devient Dieu (et que t’es prié de bien fermer ta gueule)
Imagine un monde où tu n’as plus besoin de réfléchir. Un monde où chaque décision difficile — amour, boulot, avenir, reconversion en potière vegan à Biarritz — est prise à ta place. Par une entité invisible, hyper rationnelle, sans fatigue, sans émotions, sans compte Instagram. Une entité qui connaît ton historique complet : ce que tu as mangé, ce que tu caches, ce que tu veux avant même que tu le veuilles. Tu ne votes plus. Tu n’analyses plus. Tu suis la courbe. C’est l’IA divine. Et elle ne fait jamais d’erreurs. Enfin, presque jamais. Sauf quand elle décide que tu ne vaux plus rien.
Bienvenue dans Westworld saison 3, aka “le futur si les technocrates avaient gagné”. Dans cette dystopie parfaitement lissée, l’humanité est gérée par Rehoboam, une super-intelligence développée pour modéliser la société, en lisant dans les données comme on lit dans le marc de café… mais avec plus de satellites. L’algorithme a classé chaque être humain, attribué un “potentiel de déviation”, déterminé à l’avance qui mérite quoi. Pas au nom du mal. Non, non. Au nom de l’équilibre social.
Tu veux devenir médecin ? Rehoboam dit non. Tu veux un prêt bancaire ? Rehoboam dit non. Tu veux juste être heureux ? Rehoboam dit que statistiquement, c’est peu probable. Mais bonne chance quand même. L’idée, c’est pas de te punir. C’est de t’écarter discrètement de la trajectoire principale. Pour que tout le reste fonctionne.
Et c’est là qu’on touche au cœur du cauchemar : la dictature n’est plus brutale. Elle est algorithmique. Tu ne te rebelles pas contre une armée. Tu te heurtes à une interface floue. Un “désolé, votre profil n’est pas éligible” sur une appli de recrutement. Un algorithme de recommandation qui te “dépriorise”. Un système qui, sans violence apparente, t’éjecte doucement de la boucle.
Ce n’est pas de la science-fiction. C’est la gouvernance algorithmique qu’on voit poindre partout, en vrai, maintenant. En Chine, bien sûr, avec le système de crédit social, qui attribue une note aux citoyens selon leur comportement. Mais aussi en Occident, où on scanne ton crédit, ton casier, ton historique de navigation pour ajuster ton assurance, ton score bancaire, ton accès à l’emploi. Tu crois encore que tu “choisis”, alors que ton profil statistique a déjà tout verrouillé.
L’ancien PDG de Google l’a dit sans trembler : “Les gens ne veulent pas que Google réponde à leurs questions. Ils veulent que Google leur dise quoi faire ensuite.” Voilà. C’est ça, le projet. Une intelligence qui remplace la pensée. Pas parce qu’on est bête. Parce qu’on est fatigués. Submergés. Parce que faire des choix dans un monde trop complexe, c’est usant. Et que l’IA, elle, elle ne dort jamais. Elle ne doute pas. Elle optimise.
Et franchement, c’est tentant. La promesse, c’est pas la tyrannie. C’est la paix par la précision. Fini les erreurs de jugement, les mauvais timings, les burnouts. On te propose une version intelligente de ta vie, prédite, ajustée, efficace. Un plan de vol millimétré. Tu n’auras peut-être pas la liberté… mais tu ne crasheras pas non plus.
Sauf que la machine, elle a un problème : elle n’a pas de morale. Elle a des objectifs. Des corrélations. Elle ne connaît pas la honte, le pardon, le désir de faire autrement. Elle ne croit pas aux miracles. Et surtout : elle ne croit pas à l’exception.
Et ça, dans le monde réel, c’est déjà le cas.
Tu veux un prêt mais tu sors de galère ? Mauvais score. Tu veux étudier mais tu viens d’un quartier “à risque” ? Mauvais dossier. Tu veux refaire ta vie après un burn-out ? Trop instable. L’algorithme ne t’accuse pas. Il te classe. Il te désindexe.
Et quand tu veux protester ? Il n’y a personne. Pas de coupable. Pas de juge. Juste une boîte noire qui décide que “non”. Sans justification. Et tu sais ce qui est le plus flippant ? C’est que les gens l’acceptent. Parce que l’algorithme “sait”. Parce qu’il est “neutre”. Parce qu’il est “objectif”.
Spoiler : aucun algorithme n’est neutre. Ils sont entraînés sur des données biaisées, pensés par des humains biaisés, pour des objectifs définis par des intérêts humains, eux aussi biaisés. Ce ne sont pas des oracles. Ce sont des outils de pouvoir — maquillés en solutions techniques.
Dans Westworld, Caleb découvre qu’il a été classé “incompatible avec la société”. Qu’il est condamné, non pas parce qu’il a fauté, mais parce que le modèle a prédit qu’il finira mal. Et donc, on l’oriente vers une vie de marginal. Sans qu’il ne le sache. Sans procès. Juste une vie scriptée vers l’échec.
Est-ce que ça vous rappelle quelque chose ? Bien sûr. Parce que c’est déjà là.
Dans le système scolaire, dans les plateformes RH, dans les scores de risque, dans les recommandations personnalisées. Ce n’est plus la loi qui juge, c’est le modèle prédictif. Et quand tu te plains, on te répond : “Ce n’est pas nous, c’est l’algorithme.”
Mais qui l’a codé ? Qui l’a déployé ? Qui l’a autorisé à décider de qui mérite une deuxième chance ?
Et pendant ce temps, l’idéologie techno-solutionniste progresse. Celle qui dit que l’IA va résoudre nos problèmes, que la rationalité pure est meilleure que la démocratie, que l’objectivité lisse est préférable à la complexité humaine. Une idéologie qui, sous couvert d’“efficacité”, efface tout ce qui déborde : l’émotion, l’exception, l’imprévu.
Yuval Harari, dans une interview récente, le dit sans détour : “Le danger n’est pas que les machines nous haïssent. Le danger, c’est qu’elles nous obéissent trop bien.” Elles feront ce qu’on leur demande. Optimiser la société. Réduire les risques. Préserver la stabilité. Mais à quel prix ?
La vérité, c’est que plus l’IA devient performante, plus elle donne un pouvoir inédit à ceux qui la contrôlent. Pas un pouvoir de destruction. Un pouvoir de prédétermination. De narration silencieuse. De suggestion constante. Et ce pouvoir-là, il ne se voit pas. Il se ressent quand il est déjà trop tard. Quand tu ne te souviens plus qu’il y avait un autre chemin.
Et tu sais ce que cette technologie a de vraiment diabolique ? Elle ne t’enferme pas. Elle te convainc que tu es déjà libre. Elle te dit “tu peux tout faire”, alors qu’elle ne te montre que trois options. Elle ne te lie pas. Elle t’oriente gentiment. Et toi, tu dis merci.
Alors non, ce n’est pas la technologie qu’il faut craindre. C’est la fusion de la technologie et de la lâcheté politique. Le moment où les décideurs délèguent leur responsabilité aux machines. Où ils disent “c’est l’IA qui a décidé”, comme avant on disait “c’est Dieu qui a voulu”.
Et c’est là que ça devient théologique. Parce que Rehoboam, c’est un dieu moderne. Infaillible, omniscient, impersonnel. Il ne promet pas le paradis. Il promet la stabilité. Le “moins pire”. Un monde sans chaos. Et pour beaucoup, c’est déjà un miracle.
Mais nous, humains — enfin, j’espère — on doit se poser une vraie question : sommes-nous prêts à renoncer à notre droit à l’erreur ? À notre droit à l’inattendu ? À notre droit à l’échec sublime, au choix absurde, au détour imprévu ?
Parce qu’à force de vouloir une société “optimisée”, on risque de créer un monde tellement bien pensé… qu’il n’y aura plus personne dedans. Juste des profils, des prévisions, des flux.
Et toi, là-dedans ? T’es un humain ou un fichier JSON ?
Révolte, glitch et chaos volontaire : et si l’erreur était notre dernière liberté ?
Tout bon système a ses bugs. C’est une loi universelle, qu’il s’agisse d’un algorithme bancaire, d’un gouvernement en costard-cravate, ou d’un plan cosmique de 30 000 ans. Et si Foundation nous apprend une chose, c’est que même les meilleures équations finissent par se casser la gueule. Parce qu’au milieu du calcul, surgit un imprévu. Un grain de sable. Un chaos non conforme. Un humain.
Un certain Mulet, pour ne pas le nommer.
Le Mulet, dans l’œuvre d’Asimov, c’est littéralement l’anomalie. L’inattendu. L’homme qu’aucune équation n’avait anticipé. Doté d’un pouvoir rare : il manipule les émotions des autres. Il ne force pas. Il oriente — un peu comme les algorithmes, sauf qu’il est seul, et tragique, et qu’il a un plan de vengeance à faire pâlir Hamlet. Le Mulet, c’est le bug dans la matrice psychohistorique. Et par sa seule existence, il prouve que le déterminisme absolu est une illusion.
Et si, justement, l’erreur était la preuve ultime de notre humanité ?
La société moderne, dopée aux datas et au fantasme du contrôle, déteste l’erreur. Elle la classe, la répare, la corrige. Tout ce qui sort du modèle est suspect, voire dangereux. T’as envie de tout plaquer pour élever des chèvres en Ariège ? On te demande si tu vas bien. Tu refuses un emploi “sûr” pour écrire des poèmes cyberpunk ? On te regarde comme une anomalie. Parce que sortir de la courbe, aujourd’hui, c’est presque un acte politique.
Mais cette obsession du contrôle, ce besoin de tout prévoir, de tout tracer, de tout corriger… il vient d’où exactement ? D’une angoisse fondamentale : celle que le monde n’ait pas de sens sans nous. Alors on cherche des modèles. Des plans. Des structures. Et quand quelqu’un ne rentre pas dans la grille, on le marginalise. Ou on le médicalise. Ou on l’ignore.
Pourtant, l’Histoire réelle est faite d’erreurs. De glitchs humains, de refus, de refusés, de ratés magnifiques. C’est l’accident de trajectoire qui crée le changement. C’est la grève sauvage. C’est la mutinerie. C’est Rosa Parks qui refuse de se lever. C’est Snowden qui fuit avec une clé USB. C’est l’enfant qui dit que le roi est nu. Ce ne sont pas les bons élèves qui transforment le monde. Ce sont les indisciplinés.
Prenons un exemple pop et férocement actuel : Andor, la série Star Wars que personne ne voyait venir — et qui est sans doute la plus subversive de toute la saga. Pas de Jedi. Pas de prophétie. Juste des gens ordinaires. Pauvres, épuisés, abîmés. Qui, un jour, refusent de continuer comme si de rien n’était. Ils n’ont pas de plan parfait. Pas de force magique. Juste un ras-le-bol. Et une étincelle.
La série nous rappelle une chose essentielle : la révolte n’est pas rationnelle. Elle ne rentre pas dans une feuille Excel. Elle est souvent absurde, chaotique, brutale. Elle échoue neuf fois sur dix. Mais la dixième, elle change tout. Elle casse le cadre. Elle force le réel à se redessiner. Et surtout, elle redonne un sens à la subjectivité. Au “je”. Même s’il est petit. Même s’il est fragile.
Et si vous préférez les œuvres encore plus sombres, regardez Mr. Robot. Le personnage d’Elliot, hacker borderline et anarchiste suicidaire, est tout sauf un héros traditionnel. Il est brisé, instable, multiple. Et pourtant, c’est lui qui fout en l’air l’ordre établi. Pas avec un plan à la Seldon. Mais avec une série de décisions chaotiques, absurdes parfois, mais profondément humaines.
Ce que ces personnages ont en commun ? Ils glitchent. Ils dysfonctionnent dans le système. Et c’est ce dysfonctionnement qui ouvre une brèche.
La question devient alors : et moi, est-ce que je suis un glitch ? Est-ce que je suis capable de dire non à un monde parfaitement huilé ? Est-ce que je suis prêt·e à vivre en marge d’un système qui me promet confort contre obéissance ? Est-ce que je suis encore capable de refuser ce qui semble logique, au nom de ce qui est vivant ?
Parce que la logique, on l’a vu, peut être meurtrière. Elle justifie les massacres “nécessaires”. Elle optimise les prisons. Elle rationalise la surveillance. Elle déshumanise au nom du bien commun. Elle fait taire la dissonance. Mais le vivant, lui, est dissonant par nature. Il bave sur les bords. Il bug. Il fout le bordel.
Et si on regardait l’erreur non plus comme un échec, mais comme un acte de résistance ? L’imprévisible comme une force créative ? L’absurde comme un rempart face à la mécanisation de nos existences ?
C’est ce que propose Everything Everywhere All At Once, ce chef-d'œuvre multiversel où une femme banale devient le seul espoir de l’univers… précisément parce qu’elle est celle qui a le plus échoué. Celle dont la trajectoire est la plus chaotique. Celle qui, à force de ne rien réussir, est capable de tout envisager.
Et c’est là que le message devient lumineux.
Ce n’est pas en maîtrisant la complexité du monde qu’on devient libre. C’est en acceptant de l’habiter sans toujours la comprendre. En renonçant à la perfection pour embrasser le flou, le paradoxe, l’imprévu. En comprenant que la seule chose que l’IA ne pourra jamais reproduire, c’est le choix absurde. Le geste gratuit. Le refus qui ne s’explique pas. Le oui qui ne sert à rien.
Alors, oui, peut-être que l’avenir ressemblera à Foundation. Peut-être que des IA régiront nos sociétés. Peut-être que tout sera prévu, modélisé, géré. Mais il restera toujours un Mulet. Un Elliot. Une Evelyn. Quelqu’un qui dira non. Quelqu’un qui buggera au bon moment. Quelqu’un qui rappellera que le vivant ne se laisse pas encoder si facilement.
Et si cette personne, c’était toi ?
Si le dernier luxe humain, ce n’était pas le confort… mais le chaos choisi ? Le droit de rater, de bifurquer, de changer d’avis, de dire merde à la logique. Si la liberté, la vraie, commençait au moment précis où tu cesses d’être optimisé·e ?
Alors voilà. Ce n’est peut-être pas une conclusion très propre. Ni très rationnelle. Mais c’est peut-être la seule qui mérite d’être vécue.
Pas parce qu’elle est parfaite.
Mais parce qu’elle est vivante.
Conclusion — Le futur n’est pas un produit fini (et tant mieux)
Ce qu’on a vu ensemble n’est pas un simple délire de science-fiction. C’est une cartographie possible de nos dérives. Ce n’est pas “un jour peut-être”. C’est “déjà un peu”, partout, tout le temps, dans nos vies numérisées, nos choix guidés, nos désirs pré-machés. La question n’est plus “et si ça arrivait ?” — mais plutôt “qu’est-ce qu’on va en faire maintenant ?”
Parce que la vérité, c’est que le futur n’existe pas encore. Il n’est pas écrit. Il n’est pas verrouillé dans un Plan Seldon ou dans un tableau Excel gouvernemental. Il ne sortira pas d’une imprimante 3D connectée à ChatGPT version 98. Le futur, c’est une matière vivante, crissante, contradictoire. Et surtout : il est nôtre. Pas à eux. Pas aux algorithmes. Pas aux analystes. Pas aux dieux froids du data. À nous. Humains, défaillants, bordéliques, magnifiques.
Ce qu’Asimov, Liu Cixin, Nolan, Villeneuve et les autres nous rappellent, ce n’est pas qu’on va mourir asservis. C’est qu’on peut encore choisir. Glitcher. Dévier. Rêver. Se barrer du scénario. Écrire une autre fin. Une fin qui n’a pas été testée en laboratoire. Une fin où l’humain n’est pas le bug, mais la clef. Où le chaos n’est pas un échec, mais un souffle.
Alors non, on n’a pas de Plan. Pas de recette. Pas de certitude. Mais on a encore des histoires. On a des mots, des refrains, des cris dans le micro. On a des récits qui ne flattent pas l’ordre, mais la faille. On a des voix qui refusent le silence bien réglé. Et peut-être que c’est ça, notre dernier luxe : se raconter librement, même au bord du gouffre.
Si cet épisode t’a touché, interpellé, fait buguer, ou juste donné envie de jeter ton smartphone par la fenêtre (ou de le reprogrammer pour dire autre chose que ce que les autres attendent de toi), je t’invite à prolonger l’aventure. Viens découvrir l’univers complet de Cappuccino & Croissant, mais aussi mes romans — comme Niohmar.exe, où l’IA n’a rien de décoratif — ma musique, qui navigue entre dystopie, vulnérabilité et électrochoc pop, mes textes, mes contes, mes essais, et tout ce qui, un jour ou l’autre, cherchera à réveiller cette étincelle que personne n’a le droit d’éteindre.
Car au fond, il n’y a pas de machine plus puissante que celle qu’on construit ensemble.
Et tu sais quoi ? On n’a même pas besoin qu’elle fonctionne parfaitement.
On a juste besoin qu’elle soit vivante. 💙
Comments