La scientifique noire Timnit Gebrut, qui travaillait chez Google sur les questions d’éthique liées à l’intelligence artificielle (IA), vient tout juste d’être licenciée. Explications.
Ces conditions de licenciement restent floues et c’est bien ça qui pose problème. Le 2 décembre dernier, sur Twitter, la chercheuse a révélé que sa hiérarchie avait accepté sa démission. Seul hic, elle affirme ne jamais l’avoir soumise.
Mais pourquoi un tel renvoi ? Pour cette américaine d’origine éthiopienne, cela intervient peu de temps après qu’elle s’est plainte, auprès d’un groupe interne, du fait que Google « réduise au silence les voix marginalisées ». Selon ses dires, l’entreprise lui a reproché certains « aspects » du message envoyé à ce groupe, qui seraient « en contradiction avec ce qu’on attend d’un manager ».
Contre cette décision insensée, près de 1 400 employés Google, ainsi que 1 900 universitaires et autres membres de la société civile ont partagé une lettre ouverte. Tous réclament la même chose : des précisions sur les motifs de ce renvoi inexpliqué. Dans ce texte, les rédacteurs font l’éloge de la chercheuse et défendent sa position :
« Jusqu’au 2 décembre 2020, le Dr Gebru était l’une des très rares femmes noires chercheuses scientifiques de l’entreprise, qui compte au total 1,6 % d’employées noires. Ses réalisations en matière de recherche sont considérables (…) au lieu d’être considérée par Google comme une contributrice exceptionnellement talentueuse et prolifique, le Dr Gebru a dû faire face à la défensive, au racisme, à de la manipulation, à la censure de la recherche, et maintenant à un licenciement en représailles. »
Pour rappel, Timnit Gebru milite en faveur d’une plus grande diversité. Elle a notamment cofondé le collectif « Black in AI », qui rassemble des chercheurs noirs dans le domaine de l’IA. De plus, la scientifique a étudié les biais de la reconnaissance faciale, notamment le sexisme et le racisme. Son licenciement intervient alors que Google a été accusé, par une entreprise fédérale, d’avoir surveillé d’autres employés qui étaient, comme elle, militants.
A lire : notre article sur les biais racistes et sexistes de l’IA.