Quand une machine écrit, qui décide encore ?
La question n’est plus théorique. Depuis la mise en circulation de ChatGPT le 30 novembre 2022, des outils capables de produire du texte, des images et des réponses “prêtes à l’emploi” se sont installés dans le quotidien de millions d’utilisateurs.
Ce basculement nourrit une inquiétude simple : à force de déléguer, que reste-t-il de notre jugement, de notre style, de notre capacité à choisir ? C’est précisément le cœur de la critique portée par Éric Sadin dans son essai Le Désert de nous-mêmes, publié en 2025.
Une critique technologique devenue politique
Éric Sadin n’en est pas à son premier coup de semonce. Depuis plus de quinze ans, il scrute l’extension du numérique, ses usages, et surtout ses effets sur la vie sociale. Son angle est clair : l’IA générative n’est pas un simple progrès technique. Elle participe, selon lui, à une normalisation industrielle des façons de parler, d’écrire, d’imaginer et même de décider.
Ce débat dépasse la technique. En France, la CNIL a déjà inscrit l’intelligence artificielle dans ses priorités, avec des recommandations sur un usage conforme au RGPD et un plan d’action dédié aux IA génératives. Autrement dit, la question n’est plus seulement “peut-on le faire ?”, mais aussi “dans quel cadre, avec quelles garanties, et pour qui ?”.
Ce que dénonce Éric Sadin
Dans son essai, le philosophe vise surtout les IA génératives. Leur logique repose sur l’analyse de masses de textes numérisés et sur des calculs statistiques. Elles ne “pensent” pas au sens humain du terme. Elles prédisent la suite la plus probable. Pour Sadin, cela produit un effet majeur : ces systèmes reproduisent ce qui a déjà eu lieu, puis l’habillent d’une apparence d’originalité.
Le reproche est double. D’un côté, l’outil attire par sa simplicité et sa rapidité. De l’autre, il risque d’installer un langage standardisé, des réponses moyennes et des comportements plus dociles. Le philosophe y voit une forme d’emprise numérique. Pas forcément brutale. Mais diffuse, continue, et donc plus difficile à percevoir.
Le livre intervient aussi dans un contexte symbolique fort. La France a accueilli en février 2025 un sommet international sur l’intelligence artificielle, tandis qu’un contre-sommet a été organisé à Paris par des voix critiques du secteur. Ce face-à-face résume bien le débat public : innovation et compétitivité d’un côté, vigilance démocratique et sociale de l’autre.
Ce que cela change concrètement
Pour les citoyens, l’enjeu n’est pas abstrait. Quand une IA rédige un mail, résume un dossier, produit une image ou suggère une réponse, elle influence déjà la manière de travailler, d’apprendre et de communiquer. À grande échelle, cela peut alléger certaines tâches. Mais cela peut aussi réduire la place de l’effort, de l’invention et de la nuance.
Dans le monde de l’éducation, du journalisme, de la création ou de l’administration, la question devient très concrète. Qui signe le contenu ? Qui contrôle les biais ? Qui est responsable si le système se trompe ? C’est là que le débat quitte la philosophie pour entrer dans le droit, la régulation et l’organisation du travail.
Le point sensible, chez Sadin, tient à la place qu’occupent les grandes plateformes. Plus les usages d’IA se diffusent, plus la dépendance à quelques acteurs dominants augmente. Cela donne à ces entreprises un poids décisif sur les outils, les formats et, au bout du compte, sur une partie du paysage informationnel.
Entre enthousiasme technologique et refus de la passivité
Les partisans de l’IA générative mettent en avant des gains de productivité, des services plus rapides et des usages utiles dans l’entreprise comme dans le service public. Les régulateurs, eux, cherchent un équilibre : encourager l’innovation sans laisser filer les risques pour les données personnelles, la transparence et les droits fondamentaux.
La position de Sadin est plus radicale. Il ne demande pas seulement des garde-fous. Il alerte sur un déplacement plus profond : le risque de s’habituer à déléguer des fonctions qui structurent l’humain lui-même. C’est là que son propos dérange autant qu’il intéresse. Il ne parle pas seulement d’outils. Il parle de dépendance intellectuelle.
Entre ces deux lignes, le débat public reste ouvert. D’un côté, l’IA peut soutenir la recherche, l’accès à l’information ou certains métiers. De l’autre, elle peut aussi renforcer la standardisation, l’opacité et la concentration de pouvoir. La vraie question politique est donc la suivante : veut-on des systèmes qui assistent l’humain, ou des systèmes qui le formatent ?
Ce qu’il faudra surveiller
La suite se jouera sur deux fronts. D’abord, dans la régulation européenne et française de l’IA, où les obligations imposées aux acteurs vont continuer à se préciser. Ensuite, dans les usages quotidiens, car c’est là que se mesurera le vrai rapport de force : non pas dans les slogans, mais dans la place concrète laissée au jugement humain.















