Tronche de biais

Laura Sibony
5 min readOct 11, 2024

L’intelligence artificielle, ses biais et les nôtres (Rémy Demichelis, Faubourg, juin 2024)

Lien : https://editionsdufaubourg.fr/livre/lintelligence-artificielle-ses-biais-et-les-notres

Dans un monde où il faut être pour ou contre, où il faut juger pour comprendre, et non l’inverse, l’I.A. aussi a son procès. J’y tiendrai la défense, face à Rémy Demichelis, journaliste du groupe Les Échos — Le Parisien, philosophe, et auteur de L’intelligence artificielle, ses biais et les nôtres — Pourquoi la machine réveille nos démons (Éd. Faubourg, juin 2024)

Avant de plaider l’acquittement d’un ensemble de technologies trop souvent accusées de discrimination ou de manipulation, alors qu’elle ne fait que reproduire nos biais, j’ai voulu connaître le réquisitoire.

J’ai trouvé dans l’ouvrage de Rémy Demichelis une critique très rigoureuse des biais algorithmiques, qui dessine les contours d’une éthique de l’IA, au croisement entre philosophie, sociologie et informatique.

Riche d’exemples, le livre s’ouvre sur une description de Nosedive, l’épisode de Black Mirror qui se déroule dans un univers où la place de chacun est déterminée par son score social. La mésaventure de Lacie, qui passe bêtement sous la barre des 4.2 étoiles, ce qui lui fait manquer son avion et s’engager dans le sordide engrenage de la déchéance sociale, sert de fil rouge à la première partie. J’attends avec impatience le prochain ouvrage de Rémy Demichelis pour jeter la lumière de ses analyses techno-philosophiques sur les notations Amazon, en particulier pour les auteurs.

L’histoire donne le ton de l’ensemble du livre, qui sera imagé, mais à charge contre l’I.A. Il s’articule en trois grandes parties :

  • Biais, catégories, préjugés, discriminations : pour expliquer ce que sont les biais cognitifs et les biais culturels, auxquels nul ne peut échapper, mais que l’IA légitime. Biais raciaux, biais sexistes, sur des tâches de classification, de traduction ou de génération d’images : les algorithmes entraînés sur des données imparfaites perpétuent et souvent accentuent un mode de pensée discriminatoire. Mais il faut alors distinguer biais statistiques, humains, et biais qui sont nécessaires à la connaissance, ce qui demande encore de redéfinir ce que sont les catégories de l’esprit et les préjugés. Dans cette partie, Rémy Demichelis va bien au-delà de l’opinion courante selon laquelle tous les biais seraient mauvais mais inévitables. Ses distinctions conceptuelles sont parfois subtiles, mais toujours pertinentes : il critique essentiellement les biais qui prennent force de règle.
  • Injustice algorithmique : de façon assez surprenante, l’analyse critique de Demichelis s’appuie sur la pensée du philosophe américain Michael Walzer (surtout connu pour Sphères de Justice, 1983) et du sociologue français Pierre Bourdieu. Au croisement de ces deux penseurs, assez éloignés des questions technologiques, il trace une éthique de l’IA, fondée sur la reconnaissance des inégalités sociales et la pluralité des valeurs. En mobilisant Walzer, il souligne l’importance de la répartition équitable des ressources et des biens symboliques dans les différentes sphères de la société, tandis qu’avec Bourdieu, il met l’accent sur les rapports de pouvoir et la reproduction des inégalités à travers les algorithmes. Cette approche permet ainsi de formuler une critique nuancée des biais algorithmiques, non seulement en termes d’inefficacité technique, mais surtout en tant que mécanismes de perpétuation des hiérarchies sociales et des dominations culturelles préexistantes.
  • L’interprétation dans l’IA : on pourrait attendre de cette courte dernière partie une solution, suite à la critique raisonnée des biais. Mais le titre du dernier chapitre est éloquent “Difficultés pratiques et enfumage”. L’éthique de l’IA n’évite ni l’écueil du relativisme, ni la tyrannie sociale de la Silicon Valley.

En somme, L’intelligence artificielle, ses biais et les nôtres est un ouvrage de technocritique extrêmement documenté, clair et rigoureux. Il fait prendre conscience de l’importance de développer une I.A. plus éthique et transparente. Au lendemain de la sortie de Chat-GPT, il résume les défis auxquels nos sociétés font face, et les tâches qui s’imposent à nous pour éviter de creuser les inégalités, et de les appuyer sur les discriminations.

C’est un excellent réquisitoire, auquel on ne pourrait reprocher que, précisément, d’être un réquisitoire. Demichelis, en philosophe, pose les bonnes questions, mais n’y apporte que des solutions générales et peu opérationnelles — charge aux développeurs, aux politiques, aux entreprises de l’I.A. de s’en saisir. Souvent, à la lecture, on se demande “Comment supprimer ces biais ?” avant de se rendre compte qu’on ne sait pas ce qu’est un monde sans biais. On se retrouve face à une aporie : pour contrer le biais raciste des I.A. de prévention du crime et de la récidive, on devrait collecter des données ethniques, ce qui ne semble guère mieux. Comment corriger un biais sans le remplacer par un autre ? C’est impossible, et c’est pour cela que l’auteur propose plutôt de construire une éthique de l’I.A., autrement dit de choisir les biais qui concilient au mieux nos valeurs contradictoires. Lorsqu’on ferme le livre, le quatrième de couverture conclut : “L’informatique n’est pas à la hauteur de ses ambitions de neutralité.”

Alors, quel verdict ? Notre controverse a suscité de vives réactions dans le public, qui était intéressé, mais manquait peut-être d’une vision claire de ce qu’est et n’est pas l’IA. Les questions tournaient surtout autour de la Singularité, de la possibilité pour l’IA de ressentir des émotions et de remplacer l’Homme, sans critique de ses biais. Au fond, le procès, qui avait commencé comme celui de l’IA, a fini comme celui de l’homme, et on y a retrouvé les deux camps traditionnels, optimistes et pessimistes, ceux qui croient en un usage vertueux des technologies, ceux qui y voient la manipulation. Two faces of the same coin: l’IA est un ensemble de technologies particulièrement ambiguës, capables du meilleur comme du pire, mais qui, a la différence d’un couteau qu’on utilise aussi bien pour couper un gâteau que pour tuer, est présente sans même qu’on s’en rende compte.

Je ressors de cette controverse persuadée que la critique des technologies et de leurs biais est nécessaire, mais qu’elle vient dans un second temps, après avoir raconté ce qu’est l’IA. L’expliquer de façon neutre est impossible, la juger sans la connaître est dangereux, mais la raconter laisse à chacun le loisir de se faire une opinion, incomplète, imprécise et sujette à changement — heureusement !

--

--