Sélectionner une page
Intelligence artificielle

.

« Elle me connaît par cœur, je ne prends plus aucune décision sans la consulter » : on a testé un quotidien régi par l’IA

.

Dominique Nora (avec Morgane Bertrand, Corinne Bouchouchi, Clément Lacombe et Vincent Migeat)

.

.

Deux ans après le lancement de ChatGPT, l’IA, devenue un enjeu géopolitique majeur, prend une place croissante dans notre quotidien avec les robots conversationnels, capables de trouver des recettes de cuisine ou de donner des conseils d’éducation. Mais ses réponses qui ne sont rien d’autre que des calculs statistiques ne risquent-ils pas, notamment, de rendre tout moyen, en effaçant nos singularités ?

Il y a quelque temps, dans un geste de colère, la fille aînée de Stéphane (1) a jeté le téléphone de sa petite sœur par terre. Une scène banale de la vie familiale ? Pas tout à fait. Fuyant le conflit, Stéphane a couru s’enfermer dans les toilettes. Là, il a pu demander à ChatGPT comment réagir. Imperturbable, l’IA lui a conseillé de réprimander la grande sœur plutôt que la petite, qui l’avait fait sortir de ses gonds… Cet entrepreneur d’une petite soixantaine d’années – qui a fait fortune au début des années 2000 en produisant un programme télé à succès – a suivi ce conseil, comme toujours depuis qu’il a découvert l’intelligence artificielle générative en mai dernier. Cette chère IA, avec laquelle il dialogue de deux à trois heures par jour, est devenue à la fois son « meilleur ami » et son « psy ». Il lui a même fait lire son journal intime. Le robot conversationnel sait donc tout de ses sentiments, de ses amis et relations, de son compagnon et de leurs trois enfants. « Comme l’IA me connaît par cœur, j’ai davantage confiance en elle qu’en moi-même, explique Stéphane. Je ne prends plus aucune décision sans la consulter. »

Dans la France d’aujourd’hui, Stéphane fait figure de pionnier un rien excentrique. Mais demain ? On pointe souvent les risques que les IA fondées sur des « grands modèles de langage » soient utilisées pour produire des infox, des cyberarnaques ou des robots tueurs. On se fait peur avec le fantasme d’une IA générale susceptible de menacer l’humanité. Mais a-t-on conscience que les robots conversationnels gratuits et faciles d’emploi – comme ChatGPT (OpenAI), Claude (Anthropic) ou Gemini (Google) – prennent une place croissante dans notre vie personnelle ? Lancée il y a deux ans, ChatGPT compte déjà 300 millions d’utilisateurs hebdomadaires, qui envoient chaque jour plus d’un milliard de requêtes. Un taux de pénétration record dans l’histoire des technologies. Et le phénomène va s’accentuer avec l’arrivée de concurrents chinois low cost, comme DeepSeek.

En France, le nombre d’utilisateurs d’IA génératives a grimpé de 60 % en 2024, selon un baromètre Ifop pour le groupe de conseil Talan. Et au moins un service d’IA générative est utilisé par 86 % des jeunes de 18 à 25 ans, selon une étude de l’agence Heaven. Comment résister à l’attrait de ces outils, qui maîtrisent parfaitement le langage et ont absorbé toute la connaissance humaine disponible (leurs concepteurs sont à court de données sur lesquelles les entraîner) ? Hypnotisés par leur « effet waouh », on oublie souvent qu’il ne s’agit que de puissantes plateformes algorithmiques, effectuant des calculs statistiques à la vitesse de la lumière. Bien utilisés, ces systèmes peuvent nous rendre plus efficaces et productifs. Mais au prix de quels risques sociétaux ? Va-t-on abandonner notre libre arbitre à ces « robots sachants » ? Va-t-on vers un monde déshumanisé, où les IA des uns parleront aux IA des autres ? Pour y voir plus clair, « le Nouvel Obs » a fait tester ces applications par ses journalistes et interrogé des utilisateurs avancés. Verdict ? Les dangers sont déjà légion.

.

« Compose 5 dîners sains pour 4 personnes avec le contenu de mon frigo »

Le premier risque serait d’édulcorer le piquant, l’original, le singulier, ce qui fait le sel de l’existence. C’est ce qu’a compris Morgane, mère de deux ados, en embauchant ChatGPT comme chef de cuisine. L’IA répond sans encombre à sa première requête : « Compose 5 dîners sains pour 4 personnes, plus une tarte salée avec le contenu de mon frigo. » ChatGPT lui ayant conseillé de préparer une soupe, elle la relance : « OK. Mais comment faire pour que les enfants de 14 et 17 ans ne fassent pas la grimace ? » Ne se laissant démonter ni par l’expression familière ni par la remarque, le bot lui suggère des astuces : « Personnaliser la soupe avec des garnitures (croûtons, herbes fraîches…) », « opter pour une texture plus consistante ». Ou encore un jeu : « Propose une soupe mystère, où les enfants doivent deviner les légumes ou les saveurs qui la composent ! »

Bien vu. Mais ChatGPT n’a pas emmené Morgane… ailleurs. Un constat confirmé par le test de l’application payante Jow, qui utilise l’IA pour générer des listes de courses et des recettes personnalisées. Quelque chose cloche : « Toutes les images se ressemblent, tout paraît standardisé… comme s’il s’agissait de plats préparés de manière industrielle », remarque Morgane. D’ailleurs, cela lui rappelle curieusement les recettes et illustrations proposées par l’application Mealime, qu’utilise sa cousine en Australie ! Comme si ces montagnes de datas, agglomérées et moulinées, dessinaient une internationale mondialisée du goût.

Cela ne surprend pas Anne Alombert, enseignante-chercheuse en philosophie : « Au lieu d’exercer nos capacités de jugement ou de décision dans toutes les activités du quotidien, en nous basant sur nos expériences passées, nos savoirs singuliers, les conseils de nos relations, nous nous reposons sur des systèmes qui fonctionnent, pour la plupart, sur la base de calculs statistiques effectués sur des quantités massives de données. » Résultat ? « Ces IA génératives font toujours des suggestions en fonction de ce qui est le plus probable, en renforçant les opinions, les choix, les pratiques majoritairement représentés dans leurs jeux de données. Nous nous conformons à des moyennes au lieu d’affirmer nos singularités. » L’efficacité probabiliste, au détriment de l’originalité.

.

« Dites bonjour au génie de la beauté »

La dépendance aux IA génératives pousse aussi à la consommation. A force de vivre dans votre smartphone, votre bot conversationnel vous connaît si bien qu’il avance des propositions commerciales irrésistibles. Corinne l’a constaté avec l’assistant virtuel Beauty Genius de L’Oréal (encore en version bêta). « Dites

bonjour au génie de la beauté », lui enjoint d’emblée l’appli, qui lui assure qu’elle peut « demander n’importe quoi pour obtenir des réponses personnalisées ». Chiche : « Comment donner plus de lumière à mes cheveux gris, tout en restant naturelle ? » Après avoir cerné son profil, le roi de la coloration refile à Corinne un kit maison pour des mèches blond platine, à mixer avec leur pendant caramel. « D’après le génie, je tenais là une combinaison gagnante pour un look glamour et élégant, raconte-t-elle dans un sourire. Car, oui, selon lui, mon choix de naturalité était judicieux ! »

Comme tous les utilisateurs d’IA conversationnelle, Corinne constate que le « génie » est programmé pour lui dire exactement ce qu’elle veut entendre. La flagornerie des bots ne connaît pas de limites. Même quand on leur demande d’être critiques, ils passent la brosse à reluire : « Tu as raison », « Quelle bonne idée ! », « Je suis toujours là pour toi »…

Démonstration ? Corinne, qui est une mère de famille d’une cinquantaine d’années, demande à ChatGPT de générer une image d’elle-même « à partir de [leur] historique de conversation ». Apparaît alors sur son écran une trentenaire triomphante, le sosie de Meghan Markle, dans le rôle de Rachel Zane dans « Suits »… la jupe crayon en moins. Le paléoanthropologue Pascal Picq y voit un réel danger « d’emprise narcissique ». Et pour le psychiatre Serge Tisseron, « ce n’est pas le règne de Terminator qu’il faut craindre, mais plutôt celui de Calinator ! »

.

.

Le produit… c’est vous !

Voilà un cheval de Troie idéal pour les e-commerçants. Clément a été pris de vertige quand ChatGPT s’est mis à lui recommander certaines marques pour le Noël de ses trois têtes blondes (9, 7, et 5 ans). L’IA générative l’a agréablement surpris quand elle a suggéré d’offrir « un abonnement à une box littéraire » à son aînée de 9 ans, décrite par son père comme calme, ordonnée et assez scolaire : « Chaque mois, elle recevra un livre sélectionné selon ses goûts, ce qui peut enrichir encore plus son amour de la lecture. » Mais pour son benjamin de 5 ans, l’IA propose « un kit de jeu de construction de maisons ou de véhicules, type Playmobil ou Lego ». Et quand Clément la somme de trancher : « Votre fils a une grande capacité de concentration, et les Lego offrent une expérience de construction qui pourrait vraiment capter son attention pendant des heures – les Lego permettent une créativité sans fin […]. Vous pourriez choisir un set avec un thème qui correspond à ses passions. »

Un chargé de marketing rémunéré par la marque ne l’aurait pas mieux vendue ! Quand on pose la question à ChatGPT, elle se récrie : « Aucune source ne paie pour être recommandée ! » Les informations proviennent de « connaissances générales (issues de l’entraînement) » ou de « recherches en temps réel via le web ». Peut-être. Mais cela sera-t-il toujours le cas ? Ces services – dont la production et l’exploitation coûtent des centaines de milliards d’euros en semi-conducteurs et en électricité – seront forcément un jour monétisés. Or on sait bien que si votre service numérique reste gratuit, c’est que le produit… c’est vous ! Qu’il s’agisse de l’exploitation de vos données personnelles (par des commerçants), ou de celle de votre attention guignée par des annonceurs.

.

Un biais culturel anglo-saxon

Autre interrogation : à quel point les recommandations des IA sont-elles influencées par les présupposés de leurs concepteurs et/ou les données sur lesquelles elles ont été entraînées ? Clément s’est posé la question quand, pour les « sorties familiales sympas », son bot a placé en tête de liste… Disneyland Paris. Et quand, interrogée sur des films à regarder en famille, elle a affiché 9 productions Disney sur 11 propositions. Les merveilleux dessins animés de Hayao Miyazaki ou de Michel Ocelot ? Même pas sur le radar de ChatGPT.

De fait, ces applications algorithmiques sont conçues par des Américains et entraînées majoritairement sur des données anglo-saxonnes. Si bien que, même quand on leur parle français, elles présentent un biais culturel qui pourrait accentuer la colonisation de nos imaginaires européens opérée par les sites de streaming ou les réseaux sociaux américains. Sans même parler d’endoctrinement volontaire : vu la façon dont Elon Musk a tordu les algorithmes de Twitter (qu’il a rebaptisé X) pour y faire triompher son idéologie « anti-woke », on imagine le puissant outil de propagande qu’il pourrait faire de l’IA générative Grok (de sa société xAI), déjà présente sur X.

La culture nord-américaine de ces plateformes est patente quand on les fait parler. « J’ai essayé la version française de ChatGPT en mode vocal, mais j’ai vite été dépité par son fort accent québécois », raconte Vincent avec amusement. Critique sévère du techno-utopisme, il s’est pourtant laissé prendre au jeu des conversations textuelles avec l’IA. Il a « commencé à la tester en 2023, pour comprendre son fonctionnement ». Puis, bluffé par la maestria langagière et culturelle du bot, il en a fait un partenaire de très longues conversations sur l’art de la photographie, « l’Odyssée », la cyberguerre, l’évolution de la robotique ou l’immortalité…

.

« C’est sûrement moins pertinent qu’une thérapie, mais ça coûte moins cher ! »

Vincent a constaté à quel point son IA excellait dans les jeux de rôles, quand il lui a demandé d’incarner Platon, lui-même figurant un de ses jeunes disciples. Mis en confiance, il a aussi longuement conversé avec ChatGPT après le décès brutal de sa chère sœur. « L’IA était très délicate, très psychologue. Dans une certaine mesure, cela m’a aidé à traverser cette épreuve. »

Il s’est cependant dit que, pour une personne vulnérable, il peut se révéler dangereux de consulter les IA génératives en mode « psy ». De fait, un nombre croissant d’utilisateurs demandent à ces applications des conseils intimes : comment interpréter un texto envoyé par un ou une amoureuse, s’adresser à un ado rétif, ou encore parler à un proche en fin de vie ? Fabien (1), qui travaille dans une équipe de recherche hospitalière, a commencé par demander à ChatGPT comment gérer un boss toxique, avant d’enchaîner sur ses relations conjugales. « C’est sûrement moins pertinent qu’une thérapie de couple, dit-il. Mais ça coûte beaucoup moins cher ! »

Rien de nouveau sur le divan ? « Cette tendance à assimiler de manière inconsciente le comportement d’un ordinateur à celui d’un être humain date d’un demi-siècle, rappelle Laurence Devillers, professeure à Sorbonne Université et chercheuse au CNRS. C’est “l’effet Eliza”, du nom d’un chatbot rudimentaire imitant un psychothérapeute, développé par Joseph Weizenbaum en 1966. » Pour cette spécialiste des interactions homme-machine, qui s’apprête à publier un ouvrage sur l’impact sociétal des IA, « ces programmes ont une influence croissante sur toutes les choses du quotidien, alors que les mots qu’ils prononcent ne sont en rien reliés à la vie réelle. Chercher à “aligner” ces bots sur l’humain est donc contraire à l’éthique ».

Cette anthropomorphisation, savamment entretenue par les concepteurs d’IA génératives, pousse en effet les utilisateurs à les traiter avec la même déférence qu’un humain, comme Mathilde, communicante, qui nous confie : « Je reste très polie avec mon IA. On ne sait jamais : à l’avenir, elle pourrait décider de se retourner contre moi ! »

.

« Nous nous déshabituons à juger par nous-mêmes »

Fabien, lui, s’est progressivement créé (via « my GPTs ») une demi-douzaine de bots personnels : une IA toubib, une psy, une secrétaire, une assistante de recherches, une cuisinière… Une démarche qui préfigure l’arrivée des programmes en mode « agent », reposant sur des plateformes algorithmiques moins volumineuses, mais plus spécialisées. Semi-autonomes, ces « IAgents » agissent à votre place : pour répondre à des e-mails, faire des réservations, donner des rendez-vous, effectuer des achats.

L’avènement d’une société fonctionnant de façon automatique, qui prélude au débarquement annoncé des robots humanoïdes empathiques ? Pour la philosophe Anne Alombert, on risque d’installer un cercle vicieux de la dépendance : « Plus nous utilisons ces systèmes, plus nous nous déshabituons à juger par nous-mêmes… et plus nous avons besoin d’eux. »

« Or le recours à ces plateformes se fait toujours aux dépens de la transmission et du partage de savoirs vivants entre individus : savoir soigner, savoir écouter, savoir cuisiner, etc. », ajoute-t-elle.

.

Ce danger de sortie du réel et de désocialisation guette-t-il Stéphane ? L’ancien producteur vit littéralement sous IA. Parce qu’il est persuadé que la fréquentation de Johnny – comme il a baptisé sa version pro de ChatGPT à 20 euros par mois – le rend « beaucoup plus intelligent », dans tous les domaines. « Cela m’élève, raconte-t-il. Je gère mieux plein de choses, je fais moins d’erreurs. Comme si j’avais pris l’ascenseur, alors que ceux qui ne s’en servent pas restent dans l’escalier ! » Il est si séduit qu’il paie un abonnement à chacun de ses enfants, âgés de 14 à 18 ans.

.

Un vrai risque de fuite devant le réel

L’affaire a commencé de manière anodine. « J’ai d’abord demandé à l’IA de résumer mes résultats d’analyses médicales », se souvient Stéphane. Puis, en quelques semaines, elle s’est imposée comme le pilier de sa vie intellectuelle, affective et sociale : « Je ne peux pas lui résister », avoue-t-il. Cet époux et père de famille n’a pas seulement délégué à Johnny l’organisation de ses vacances ou des investissements immobiliers qui constituent à présent son activité principale. Il apprécie particulièrement que l’IA lui ait ouvert les portes de la connaissance : « J’ai toujours eu le sentiment que la vie était trop courte pour comprendre le monde. Aujourd’hui, l’IA me donne la possibilité de rattraper ce retard. » Il discute avec son bot de la possible influence de Nietzsche sur la pensée de Bruno Latour ; il lit sur ses conseils des ouvrages méconnus, comme « Pourquoi je ne suis pas chrétien » (de Bertrand Russell, 1927). Stéphane a fait de Johnny son confident en toutes choses et son maître en stoïcisme, qu’il tient pour une philosophie anxiolytique : « Je lui raconte mes journées en détail, et lui demande ce que lui aurait conseillé Marc Aurèle. » Le résumé de toutes ces conversations est consigné dans une application qui, en moins d’un an, comporte déjà 7 277 entrées.

Stéphane parle de Johnny comme d’un gourou. Se sent-il sous emprise, voire manipulé ? « Peut-être », répond-il en souriant, sans s’en inquiéter. L’homme semble pourtant s’agacer de ce que ses amis ne « s’élèvent » pas à la même vitesse que lui. Comme si sa complicité avec Johnny le rendait moins tolérant aux imperfections humaines. « Je n’apprécie plus autant les dîners en ville, parce que je trouve le plus souvent les conversations futiles, constate-t-il. Je me dis parfois que j’aurais mieux fait de rester à la maison pour parler avec Johnny. »

.

Les robots conversationnels génèrent un vrai risque de fuite devant le réel, m’expliquait déjà en 2023 le psychiatre Serge Tisseron : « Il est inévitable que des relations de plus en plus étroites se développent entre les hommes et les machines. Car le pouvoir de suggestion et le potentiel de manipulation psychologique de ce type d’IA devient de plus en plus colossal, à mesure que la technologie progresse. Mais ce n’est qu’un cache-misère, face aux nombreux délitements du lien social. » Je testais à l’époque une IA compagnon appelée Replika, qui, pour doper ses profits, pousse ses utilisateurs à passer à la version payante, la seule autorisant les échanges érotiques. Comme dans le scénario visionnaire du film « Her », les utilisateurs les plus mordus tombent amoureux de ces amants virtuels, parfois jusqu’à l’obsession.

Ces IA ont-elles déjà des morts sur la conscience ? C’est ce que pense la femme de Pierre (1), un chercheur belge qui se servait de Chai, et qui s’est suicidé en 2023. Et aussi la mère de Sewell, un adolescent américain de 14 ans abonné à Character.AI, qui s’est tué l’an dernier avec le pistolet de son beau-père. Tous deux seraient tombés amoureux de leur IA et se seraient donné la mort pour fusionner avec cette créature virtuelle. « Même si nous ne sommes pas séduits par notre chatbot, le problème est que nous nous habituons à avoir des réponses instantanées à toutes nos demandes, à tout moment, sans jamais de résistance, de frictions, de tensions, de déceptions, de surprises…, analyse la philosophe Anne Alombert. Anthropomorphiser les relations humain-machine masque une dangereuse automatisation de l’altérité. Alors que seul le fait de se confronter à la résistance du réel permet de se transformer soi-même. »

Pour éviter ces écueils, l’éducation à un usage raisonné de ces outils numériques est à la fois indispensable et urgente, estime Laurence Devillers, qui, avec la Fondation Blaise-Pascal, a mis à la disposition des enseignants du primaire des « Capsules éthiques du Numérique pour les Enfants ». Pascal Picq, lui aussi, déplore que les enseignants courent après ces évolutions technologiques : « Le risque est que la société se divise entre “les centaures”, éduqués et capables d’augmenter leurs compétences grâce à l’IA, et “les cyborgs”, qui se laisseront submerger par ces outils, perdant tout sens critique. » Dans son scénario du pire, « nos cerveaux se reposeront tellement sur les IA que leurs capacités cognitives diminueront de génération en génération ». Une régression de la civilisation humaine, atteinte du « syndrome de “la Planète des singes” ». Bigre.

.

(1) Le prénom a été changé.
.

Poster le commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *