Intelligence Artificielle : peut-on sortir des biais racistes et sexistes ?

Intelligence Artificielle : peut-on sortir des biais racistes et sexistes ?

L’intelligence Artificielle (IA) est loin de la perfection robotique que l’on pouvait attendre d’une telle technologie. Il a en effet été démontré qu’à l’image des humains qui les conçoivent, les algorithmes peuvent reproduire des préjugés sexistes et racistes.

Des machines à l’image de leurs créateurs 

L’intelligence Artificielle est souvent perçue comme un pur produit de science et de technologie, n’exprimant qu’un regard objectif sur le monde. C’est vite oublier que les algorithmes sont également des objets sociaux, codés par des humains et existant au sein d’une société qui connaît ses propres biais racistes et sexistes.

Alors, comment ces biais s’expriment-ils au travers de l’IA, la technologie qui se trouve dans toutes les poches ?   

Peut-être ne l’avez-vous pas remarqué, mais certains traducteurs en ligne ont tendance à traduire au masculin les professions socialement valorisées, comme celle de « docteur », quand ils traduiront plutôt au féminin le métier d’« infirmière ».  Si cela vous semble encore trop « anecdotique », sachez que certains programmes ont commis des impairs bien plus graves, et dont l’impact a été très concret :

En 2018, le logiciel de recrutement d’Amazon a été accusé de favoriser les candidatures masculines. Tenez-vous bien, le logiciel pénalisait les CVs contenant le mot-clef « women’s », pouvant se traduire ici comme « féminin », comme dans « capitaine de l’équipe féminine d’échec ».

En 2019, un nouveau scandale éclate aux USA : un logiciel utilisé par de nombreux hôpitaux avait tendance, face à un patient noir et un patient blanc souffrant de maux équivalents, à refuser au patient noir l’accès à des soins spéciaux.

Ces deux exemples montrent bien l’ampleur du problème causé par des biais au sein d’une technologie présente dans de si nombreux aspects de nos vies. Alors, est-ce que tout cela n’est que le résultat d’une vague machination entre quelques ingénieurs machistes et racistes ? Le problème est bien plus compliqué que cela.

Comment se transmettent les stéréotypes ?

La question du « comment ? » n’est pas si simple, car il existe beaucoup de cas particuliers et qu’il est, en outre, souvent difficile de savoir comment un système d’Intelligence Artificielle construit son « raisonnement ».

L’explication qui semble revenir le plus souvent est celle de la qualité des bases de données qui sont à l’origine de l’apprentissage de l’IA. En effet, si les bases de données contiennent des informations porteuses de stéréotypes, l’algorithme ne pourra que les répéter.

Le premier exemple de base de données biaisée est celui où les échantillons fournis à l’algorithme sont trop homogènes : si je souhaite coder un logiciel de reconnaissance faciale et que je n’inclus pas de visage de personnes noires dans ma base de données, mon logiciel aura bien plus de mal à reconnaître ce type de visage.

Le deuxième exemple est celui de l’utilisation d’annotations humaines pour aider au référencement d’images : le fait d’annoter « pomme » sur une image de pomme pour apprendre au programme à les reconnaître, par exemple. Le problème survient quand les annotations portent sur des images de personnes, car on finit bien souvent par trouver des labels extrêmement stéréotypés, voir offensants. Or pour le logiciel, ces informations ne sont que des chiffres : si la photographie d’une femme est largement annotée comme celle d’une « secrétaire », alors le programme apprendra à associer cette image avec le label « secrétaire », sans en comprendre les implications sociales.

Vers une intelligence artificielle sans stéréotypes ?

 Joy Buolamwini est informaticienne et chercheuse. Elle milite notamment pour l’utilisation de « l’incoding », le code inclusif, pour combattre les préjugés reproduits par les algorithmes.

Les solutions qu’elle dessine peuvent se résumer en trois parties :

 Il est d’abord primordial de savoir QUI code. En effet, ce sont très probablement les personnes concernées qui se poseront naturellement la question de leur propre représentation dans les bases de données et dans le fonctionnement de l’algorithme. Créer des équipes hétérogènes permet donc de se prémunir des angles morts et de se poser les bonnes questions dès le début de la programmation. 

Il faut également se demander COMMENT nous codons. D’un point de vue technique, un programme peut être biaisé, que la base de données utilisée le soit ou non. Il est donc essentiel d’être proactif dans la recherche d’éventuels biais: certain.e.s parlent de la possibilité de faire passer des tests au programme, avant de pouvoir en autoriser la commercialisation.

Enfin, il est essentiel de se demander POURQUOI nous codons : les outils numériques ont déjà permis de créer de grandes richesses, ne serait-il pas temps de les utiliser au service de l’égalité et de faire de la justice sociale une priorité ?  

 Les systèmes d’Intelligence Artificielle ne sont que des outils au service de l’humanité, il ne tient qu’à nous de décider comment s’en servir.

Pour aller plus loin : L’intelligence artificielle, pas sans elles ! Aude BERNHEIM, Flora VINCENT, Annie BATLLE, Collection égale à égale, éditions Belin.