Sélectionner une page

Tout contre l’IA, osons défendre la société !

.

.

« Lumières sombres », « dette cognitive », « accélération réactionnaire » : faut-il « oser l’IA » si elle nous condamne à plonger dans nouvelle servitude volontaire face aux géants de la tech ? C’est sans compter sur les possibilités qu’offre la régulation de ces technologies, qui peuvent être ainsi mises au service de nos intérêts individuels et collectifs.

.

« Osez l’IA ![1] » : tel est le mot d’ordre qui donne son nom au plan national lancé le 1er juillet par le gouvernement français, visant à promouvoir la diffusion de l’IA dans les entreprises; sans surprise, l’argument avancé est celui de la compétitivité.

En plus de nous promettre l’augmentation et l’immortalité, l’IA nous assure aussi des gains de productivité. Il s’agit donc de « faire de l’IA un outil accessible, concret et utile pour toutes les entreprises », à travers des opérations de sensibilisation, de formation et d’accompagnement, spécifiquement destinées à celles qui n’auraient pas encore « osé ».

.

.

Oser l’IA ou oser penser ?

 Un tel slogan promotionnel ne manque pas de résonner avec une certaine devise philosophique, souvent associée à la modernité. « Sapere aude ! », « Ose savoir ! », « telle est la devise des Lumières », écrivait Emmanuel Kant en 1784, dans sa célèbre « Réponse à la question “Qu’est-ce que les Lumières ?”[2] ». Pour le philosophe allemand, « oser savoir » signifie « avoir le courage de se servir de son propre entendement », « penser par soi-même », « sans la direction d’autrui ». Kant enjoint alors les citoyens à exercer leur jugement par eux-mêmes, à ne pas se contenter des préjugés et d’un état de tutelle. Il insiste sur la nécessité de ne pas déléguer l’activité de la pensée, qui implique toujours un effort difficile et courageux : « Si j’ai un livre pour me tenir lieu d’entendement, un directeur pour ma conscience, un médecin pour mon régime… Je n’ai pas besoin de me fatiguer moi-même. Je n’ai pas besoin de penser, pourvu que je puisse payer ; d’autres se chargeront à ma place de ce travail fastidieux. »

.

Pour Kant, cette délégation de la pensée au livre, au prêtre ou au médecin enferme les individus dans un état de minorité : à l’inverse, le citoyen majeur exerce son esprit critique, il ne confie pas au support technique que constitue le livre la tâche de penser à sa place. Le passage à la majorité se caractérise justement par la sortie hors de l’« état de tutelle » et la capacité à penser par soi-même. Les individus peuvent alors comprendre et critiquer les lois et les institutions qui régissent leur société, afin de les transformer, en exprimant leurs opinions publiquement, « devant le public qui lit ».

Le livre retrouve ainsi une fonction émancipatrice en rendant possible le débat public. Selon Kant, dans une république, chaque citoyen devrait ainsi être autorisé à exercer « l’usage public de sa raison », à savoir, sa « liberté de formuler publiquement, en tant que savant, c’est-à-dire par ses écrits, ses remarques sur les défauts de l’institution du moment ». Seul cet « usage public de notre raison » permettra de « répandre les lumières parmi les hommes ». L’exercice d’une telle « pensée libre » rendra ainsi le peuple « apte à agir librement » – peuple qui devra alors être considéré par le gouvernement « conformément à sa dignité », comme étant « plus qu’une simple machine ».

.

Les lumières sombres de l’IA générative : biais algorithmiques et dette cognitive

 À l’époque des « Lumières sombres[3] », du nom de l’idéologie néo-réactionnaire qui nourrit la plupart des industriels de la Silicon Valley, il ne s’agirait donc plus d’ « oser savoir », mais d’« oser l’IA ». A travers un renversement de la perspective des Lumières, dont Adorno et Horkheimer avaient longuement décrit la possibilité[4], ce ne sont plus les citoyens qui sont engagés à « penser par eux- mêmes », mais ce sont les entrepreneurs et leurs employés qui sont encouragés à utiliser des systèmes d’IA générative. Si ceux-ci permettent peut-être d’augmenter la productivité, leur usage par le grand public demeure néanmoins problématique, comme en témoigne une récente étude du MIT, qui souligne l’« atrophie cérébrale » et la « dette cognitive » engendrée par le recours à ChatGPT : « les régions du cerveau impliquées dans l’intégration sémantique et l’idéation créative » ne sont plus activées et le « retour à une activité cérébrale normale » devient très difficile lorsque les usagers se voient privés de leur prothèse cognitive[5]. Aujourd’hui, ce n’est plus le support technique du livre qui risque de « tenir lieu d’entendement » mais ce sont les machines d’écriture automatisées qui court-circuitent les activités de pensée : « Je n’ai pas besoin de me fatiguer moi- même. Je n’ai pas besoin d’écrire, de réfléchir ou de penser, tant que je peux payer mon abonnement à ChatGPT ! »

Une relation de dépendance technologique ne tarde pas à s’instaurer à l’égard de ces automates numériques, pour la plupart développés par des géants ou des start up de la Silicon Valley, dont les fonctionnements demeurent bien souvent hermétiques et incompréhensibles pour les usagers. Ceux-ci intègrent ainsi les biais implémentés dans les algorithmes et dans les jeux de données, sans même se rendre compte que ces technologies sont loin de toute neutralité. Par exemple, l’IA générative nommée Grok, conçue et développée par l’entreprise xAI d’Elon Musk, ne produit pas le même type de texte que ChatGPT, l’AI générative conçue et développée par l’entreprise OpenAI de Sam Altman : la première se veut moins « politiquement correcte » que la seconde, que Musk a tenté de racheter.

Outre les biais idéologiques, les biais statistiques sont aussi à considérer : une étude de l’Unesco sur les grands modèles de langage de Meta et d’OpenAI souligne que dans au moins 30% des textes générés, les femmes sont présentées comme des mannequins, des serveuses ou des prostituées[6] : comme ces clichés sont très répandus sur la toile, ils ressortent de manière amplifiée dans les contenus générés et se voient ainsi performativement renforcés. Enfin, plusieurs études suggèrent que les scientifiques qui s’appuient sur ChatGPT pour les assister dans la rédaction d’articles finissent par employer de manière plus fréquente les termes spécifiques au logiciel. Or, les catégories de langage conditionnent les catégories de pensée[7] : nous finirons donc tous par écrire, parler et penser comme ChatGPT, ou comme une autre de ces machines numériques (par exemple, Grok ou Deepseek), qui dirigent désormais les consciences et les entendements de millions d’individus connectés.

.

L’ « emmerdification » de l’espace numérique de publication

L’exercice de la libre pensée n’est pas aisé dans le contexte de ces nouvelles industries culturelles, qui mettent aussi en péril l’usage public de la raison et l’expression démocratique des opinions. Si les réseaux sociaux commerciaux, qui constituent désormais les principales technologies de publication, donnent à chacun l’illusion de pouvoir s’exprimer librement, ce sont les algorithmes de recommandation qui sélectionnent les contenus amplifiés ou non. Le fonctionnement de ces réseaux n’est donc pas démocratique, puisqu’une seule entreprise privée décide de manière opaque de ceux qui auront droit à la visibilité : alors que certains contenus sont viralement répandus, d’autres demeurent à jamais ignorés.

Or, tout comme les IA de génération, les IA de recommandation ne sont pas neutres politiquement : les algorithmes amplifient les contenus rentables pour les entreprises propriétaires des plateformes, qui cherchent à garder les utilisateurs captifs en suscitant des réactions immédiates et polarisées, afin d’augmenter leurs profits fondés sur la publicité ciblée[8]. Les Facebook Files révélés par Frances Haugen en 2021 avaient montré qu’en favorisant les publications haineuses, les algorithmes de recommandation de Facebook contraignaient les politiciens à être de plus en plus clivants pour survivre médiatiquement. Avec le développement fulgurant des IA génératives, l’espace médiatique numérique sera vite envahi par des contenus truqués ou falsifiés. Sur le réseau X, l’IA générative Grok est désormais directement intégrée : il devient donc possible, en deux ou trois clics, de produire n’importe quelle image truquée et de la publier. Des armées de faux comptes se chargeront ensuite de la commenter ou de la cliquer pour générer une apparence d’activité, afin que l’image soit massivement diffusée.

.

Dans un rapport d’avril 2025, la société Imperva du groupe Thales révélait que pour la première fois, le trafic Web généré par des programmes informatiques automatisés (bots) avait dépassé celui des internautes, atteignant 51 % de l’ensemble des activités en ligne. Sur la plateforme LinkedIn, une précédente étude effectuée par l’entreprise Originality.ai juste après le lancement de ChatGPT avait déjà constaté une augmentation de 189 % de contenus automatiquement générés (en un mois, de janvier à février 2023). Sur la même plateforme, l’étude évaluait alors le nombre de posts longs générés par IA à plus de la moitié. La part de contenus automatiques, désormais produits en quantité industrielle, ne tardera donc pas à dépasser la part de contenus humains sur le Web.

Or, comme le suggère un récent article de recherche[9], les résultats générés perdent en qualité lorsque les modèles sont entraînés sur des contenus artificiels – de même, si vous photocopiez une image déjà photocopiée, vous obtiendrez une image de moins bonne qualité qu’en partant de l’original. Outre les phénomènes de désinformation, la tendance à l’uniformisation et à la déqualification des contenus diffusés risque de se généralise, poursuivant le processus d’« emmerdification » d’Internet que le journaliste Cory Doctorow a récemment identifié[10].

.

S’orienter dans la pénombre des algorithmes

En dépit de ses promesses (discutables) dans le champ économique, le développement de l’IA soulève donc de nombreux enjeux politiques, encore largement sous-estimés par les citoyens et la puissance publique. Alors que l’idéologie des Lumières sombres, qui prône la disruption numérique, la dérégulation économique et l’autoritarisme politique, se concrétise aux États-Unis, il conviendrait pourtant de s’interroger sur les politiques technologiques permettant d’éviter une telle « accélération réactionnaire[11] ». Il ne s’agit évidemment pas de revenir aux Lumières : nous ne sommes plus à l’époque du livre, ni même à celle des industries culturelles, mais à celle de la « gouvernementalité algorithmique » et du « capitalisme computationnel[12] ». Comme le rappelait Michel Foucault dans son commentaire du texte de Kant, il ne s’agit donc pas d’« être pour ou contre l’Aufklärung », mais bien de réactiver une attitude critique à l’égard de notre actualité et de mettre au jour « les effets de pouvoir propres à un discours considéré comme scientifique[13] ».

.

Car contrairement à une certaine conception des Lumières, les avancées scientifiques et technologiques ne sont pas toujours synonymes de progrès social et d’émancipation politique, en particulier dans un contexte où les sciences sont devenues technosciences et où les technologies sont devenues industries. A l’heure de l’intelligence artificielle, nous n’avons plus affaire à des théories décrivant une réalité indépendante et s’appliquant ensuite dans cette même réalité, mais à des innovations industrielles qui transforment performativement le réel, financées par des fonds de capital risque attendant leurs retours sur investissements. De telles innovations, soumises aux impératifs du passage à l’échelle et de la croissance-éclair, ne se déploient pas dans l’intérêt des populations : elles disruptent les savoirs et les institutions, à travers un « coup d’État permanent[14] », sans laisser aux citoyens les temps de la réflexion et de la délibération.

Nous ne sommes donc « plus à l’époque des pures Lumières, nous sommes entrés dans l’époque des Ombres et des Lumières[15] », dans laquelle il s’agit de se demander comment remettre ledit « progrès » technologique au service des sociétés. Dans un tel contexte, la « sortie hors de l’état de tutelle » passera sans doute par une transformation des systèmes d’intelligence artificielle. Dans leur déploiement actuel, sous forme de grands modèles de langage ou d’algorithmes de recommandation hégémoniques, les technologies numériques atrophient les capacités psychiques et menacent les régimes démocratiques. Nous ne pouvons plus ignorer que ces dispositifs conditionnent nos manières de penser et de faire société : il est temps d’oser mettre les technologies algorithmiques au service des esprits individuels et collectifs.

.

Osons mettre l’IA au service de la société !

 Sans doute est-ce d’ailleurs la meilleure manière d’augmenter la productivité. Que pourront bien produire des citoyens dépossédés de leurs capacités à réfléchir et incapables de vie collective ? L’entreprise Anthropic l’a sans doute bien compris, elle qui recommande à ses futurs employés de ne pas utiliser Claude, le logiciel d’IA générative qu’elle a elle-même développé. En ces temps d’hubris, peut-être faut-il aussi oser poser des limites. Ainsi l’association Tournesol propose-t-elle d’appliquer un principe de présomption de non-conformité aux systèmes d’IA: il s’agirait d’empêcher le déploiement à grande échelle d’une innovation numérique tant qu’il n’a pas été prouvé qu’elle ne représentait pas de risque systémique pour les usagers[16].

L’ancienne députée européenne Marietje Schaake ne dit pas autre chose, lorsqu’elle rappelle que « dans le domaine de la santé », l’innovation « s’accompagne toujours d’essais cliniques rigoureux et de garanties solides avant qu’un nouveau traitement soit appliqué sur des personnes » : « il ne faudrait pas envisager l’IA autrement, il s’agit d’une expérimentation à grande échelle et en temps réel sur l’ensemble de la société[17] ». Limiter ou réguler le déploiement de certaines innovations pourrait laisser le temps à des dispositifs alternatifs de se développer, diversifiant ainsi le marché : la régulation ne s’oppose pas nécessairement à l’innovation ni à la compétitivité. Il s’agit justement de sortir des oppositions entre innovation et régulation, accélération et ralentissement, technosolutionnisme et technophobie, machine et humain ou technique et pensée. L’enjeu consiste au contraire à réconcilier les technologies numériques et les libertés de l’esprit.

.

Loin du mythe de l’intelligence artificielle générale cher aux transhumanistes, nous pouvons développer des modèles locaux et frugaux, visant des tâches spécialisées et entraînés sur des jeux de données contrôlés, qui permettent d’assister les décisions humaines dans tel ou tel domaine, sans les court-circuiter. Nous pouvons aussi limiter les usages des grands générateurs de textes ou d’images, qui pillent les ressources culturelles et collectent les données personnelles. De même, au lieu de nous soumettre aux algorithmes opaques des réseaux sociaux commerciaux, nous pouvons exiger leur transparence, comme l’implique le règlement européen sur les services numériques. Nous pouvons également obliger ces plateformes à s’ouvrir à d’autres algorithmes alternatifs et exiger un « pluralisme algorithmique[18] », comme les États Généraux de l’Information nous y invitent. Nous pouvons enfin promouvoir et soutenir des réseaux sociaux non-lucratifs, comme Mastodon ou Bluesky, ou encore investir dans le développement d’algorithmes collaboratifs et de plateformes délibératives, comme Tournesol ou Pol.is, qui permettent d’articuler l’exercice des jugements humains et les calculs algorithmiques[19].

.

Autant de pistes qui montrent qu’un avenir est possible par delà les fausses alternatives entre adaptation et rejet ou entre lumière et obscurité : il s’agit plutôt d’ouvrir nos imaginaires technologiques et d’oser faire preuve de « technodiversité[20] », face à la pénombre numérique dans laquelle l’IA nous a plongé.

.

Anne Alombert

Philosophe, maîtresse de conférences en philosophie contemporaine à l’Université Paris 8 et membre du Conseil National du numérique

.

Notes

[1] « Osez l’IA : un plan pour diffuser l’IA dans toutes les entreprises », site du ministère de l’économie, 1er juillet 2025.

[2] E. Kant, « Réponse à la question « Qu’est-ce que les lumières ? » », 1784.

[3] G. da Empoli (dir.), L’Empire de l’ombre. Guerre et terre au temps de l’IA, Paris, Gallimard, 2025.

[4] T. Adorno et M. Horkheimer, La dialectique de la raison (1944), Paris, Gallimard, 1983 (traduction de l’allemand Dialektik der Aufklärung qui signifie mot à mot : « dialectique des Lumières »).

[5]  ChatGPT est-il en train de casser le cerveau humain ? 5 points sur le preprint du MIT sur les effets de l’IA », Le Grand Continent, 19 juin 2025.

[6] « Challenging systematic prejudices: an investigation into bias against women and girls in large language models », Unesco, 2024.

[7] « E. Benvéniste, « Catégories de pensée et catégories de langue », Les Études philosophiques, 13e Année, n° 4, 1958.

[8] H. Verdier et J.-L. Missika, Le Business de la haine. Internet, la démocratie et les réseaux sociaux, Paris, Calmann- Lévy, 2022.

[9] I. Shumailov, I., Z. Shumaylov, Y. Zhao, et al., « AI models collapse when trained on recursively generated data »,

Nature, n° 631, 2024.

[10] C. Doctorow, « The ‘Enshittification’ of TikTok. Or how, exactly, platforms die », Wired, 23 janvier 2023. Cory Doctorow désigne ainsi le dégradation de la qualité des services fournis par les plateformes numériques, en particulier en raison de leurs modèles d’affaires publicitaires.

[11] L. Castellani, « Avec Trump, l’ère de l’accélération réactionnaire », Le Grand Continent, 8 novembre 2024.

[12] A. Rouvroy et T. Berns, « Gouvernementalité algorithmique et perspectives d’émancipation », Réseaux, n° 177, février-avril 2014 et B. Stiegler, Dans la disruption, Paris, Les liens qui libèrent, 2016.

[13] M. Foucault, et M. Foucault, « Il faut défendre la société » Cours au Collège de France 1976, Paris Seuil, 1997.

[14] M. Schaake, « Le coup d’État permanent de la Silicon Valley », in L’Empire de l’ombre. Guerre et terre au temps de l’IA, Paris, Gallimard, 2025.

[15] B. Stiegler, Etats de choc. Bêtise et savoir au XXIème siècle, Paris, Fayard, 2012.

[16] L. Nguyen-Hoang et J.-L. Fourquet, La Dictature des algorithmes. Une transition numérique démocratique est possible, Paris, Tallandier, 2024.

[17] M. Schaake, « Le coup d’État permanent de la Silicon Valley », in L’Empire de l’ombre. Guerre et terre au temps de l’IA, sous la direction de Giuliano da Empoli, Paris, Gallimard, 2025.

[18] Voir « Pour le pluralisme algorithmique », Le Monde, 25 septembre 2024 et Rapport des États Généraux de l’Information, « Protéger et développer le droit à l’information, une urgence démocratique », 15 septembre 2024

[19] Voir les sites de Tournesol (https://tournesol.app/) et de Pol.is (https://pol.is/home).

[20] Y. Hui, « Penser la technodiversité autrement », Le Courrier de l’Unesco, 20 mars 2023.

Poster le commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *