En France, seulement 14,88% des chercheurs en intelligence artificielle sont… des femmes. A l’échelle mondiale, on passe à 12%. Problématique lorsque l’on sait que les algorithmes d’intelligence artificielle reflètent les biais, les idées reçues et les stéréotypes des humains qui les créent. Les assistants virtuels, les moteurs de recherche, les traducteurs automatiques et j’en passe propagent donc énormément de préjugés sexistes, que leurs concepteurs intègrent de façon consciente ou non. Or, ce constat est inquiétant quand on observe la place toujours plus importante qu’occupe l’intelligence artificielle dans nos vies quotidiennes.
Le Laboratoire de l’Egalité, une des premières associations à avoir travaillé sur des solutions pour atténuer les biais sexistes de l’IA, a ainsi présenté son pacte, en partenariat avec Renault et Engie, pour rendre l’intelligence artificielle égalitaire lors de l’événement Explor’IA organisé par Impact AI.* Cedric O, Secrétaire d’Etat en charge du Numérique est même intervenu lors de la conférence pour exprimer sa vision d’une IA éthique, inclusive, égalitaire et a appelé à la mobilisation de tous les acteurs pour déployer ce pacte.
Ce « pacte pour une Intelligence Artificielle égalitaire » appelle à une prise de conscience générale des effets discriminant de l’IA et s’adresse aux dirigeant-es des secteurs public ou privé, aux organismes de recherche et de formation, aux entreprises qui produisent et/ou utilisent du numérique ainsi qu’aux consultant-es en IA. Il est le fruit de plusieurs mois de recherches et de travaux entre le Laboratoire de l’Egalité, les deux autrices Flora Vincent et Aude Bernheim du livre « L’intelligence artificielle, pas sans elles » ainsi que des expert-es, des entreprises (Renault et Engie), des startups mais aussi des associations tel que Femmes@Numérique. Le Pacte décline des solutions concrètes pour lutter contre les dérives sexistes de l’IA et accélérer la mixité dans les équipes qui travaillent sur l’IA :
Ici, il s’agit de mesurer les inégalités, les identifier et en les corriger au sein des bases de données. Le volume des informations sur les femmes et les hommes devrait être équilibré. Il faudrait par exemple faire attention aux noms de métiers (comme par exemple « UNE » infirmière, « UNE » caissière, biais de sexe que l’on voit à répétition), aux images et aux vidéos dans les bases de données. « Ce nettoyage est un gros travail, il peut être très coûteux, admet Muriel Garnier, chargée du projet IA au sein du Laboratoire de l’Egalité. Mais il existe des bases de données égalitaires, des banques d’images mixtes en open sources et gratuites, il faut les promouvoir, les rendre davantage visibles ! »
De l’écriture de l’algorithme à son codage, il faut vérifier les enjeux de genre sur toute la chaine de production de l’IA. Le pacte propose également d’introduire des lignes de code volontairement égalitaires (comme fournir 50% de CV de femmes et 50% de CV d’hommes) ou encore de rendre les assistants virtuels neutres pour éviter l’utilisation systématique des voix féminines.
Le fonctionnement des algorithmes pose des questions éthiques : algorithmes simplistes, erreurs statistiques, reproduction des inégalités, opacité de fonctionnement… Pour pallier à cela, Muriel Garnier estime qu’il faut « définir clairement ce qu’est l’IA éthique et à partir de là, mettre au point un cadre pour évaluer et contrôler l’ensemble des outils ». Ces évaluations et contrôles des dérives des programmes algorithmiques se feraient à l’aide d’instruments statistiques, d’analyse des biais et de méthodes de correction durable. Ce travail, selon le Laboratoire, passe par la création d’une instance éthique et de régulation de l’IA en France mais aussi par le développement de recherches multidisciplinaires associant philosophes, sociologues, psychologues, universitaires et expert-es IA. Dans la recherche sur l’IA et dès la conception des programmes, il faut y intégrer le genre. Le Laboratoire souhaite également qu’un label IA éthique soit mis au point et intégré dans les appels d’offres des organisations afin de sélectionner des fournisseurs d’IA capables de respecter des critères d’algorithmes non biaisés.
La lutte contre les stéréotypes doit se faire ici directement à la source. En effet, s’il y a peu de femmes dans le secteur de l’IA, c’est parce que les jeunes filles ne sont pas orientées et informées correctement sur les domaines dans lesquels elles sont aptes à travailler. Le Pacte propose alors une mobilisation générale : il faut former les conseiller-es d’orientation à l’IA et aux biais de genre, inciter plus de filles à poursuivre des études dans les filières scientifiques, apprendre aux femmes et au filles à coder mais aussi intégrer systématiquement des modules d’enseignement à l’égalité homme-femme dans les formations et dans l’éducation. Il faut donc former et sensibiliser les femmes aux métiers qui utilisent l’IA et les attirer en mettant en place des conditions d’accueil plus inclusives.
« Les femmes ne représentent que 12% des salarié.es dans l’IA et une fois qu’elles intègrent les métiers techniques du numérique 45% en sortent à cause du sexisme ambiant. Sans oublier que 15% des startups du numérique sont créées par des femmes et qu’on leur accorde très peu de levées de fonds » rappelle Muriel Garnier.
Il est urgent de lutter contre les pratiques sexistes de la culture « geek » en organisant des débats, en prévoyant des sanctions ou en créant une campagne d’information par exemple. Les médias doivent être sensibilisés aux enjeux d’une IA non sexiste avec la présence de femmes notamment ainsi qu’un meilleur choix et traitement des sujets. Il faut également favoriser l’accès des femmes aux financements dans les startups du numérique développées par des femmes.
Espérons que ce Pacte qui veut promouvoir une IA non discriminante, égalitaire, responsable et éthique inspire un plus grand nombre et amène à une mobilisation générale ; car l’intelligence humaine doit en partie prendre conscience de ses propres biais pour pouvoir créer une IA enfin égalitaire. « Chaque partie de l’écosystème IA doit se sentir concernée, travailler ensemble et s’approprier ce Pacte. En le signant, elle s’engage au service d’une culture de l’IA non-sexiste et non-discriminante », conclut Muriel Garnier.
*Du 25 mai au 4 juin a eu lieu l’événement Explor’IA organisé par Impact AI, qui permettait au grand public de découvrir l’intelligence artificielle sous toutes ses formes. Catalix y a d’ailleurs participé en présentant plusieurs Webinars pour l’occasion.
Sources :
– Article rédigé par Cynthia Billaud.
Intéressés par les formations de Catalix ? Cliquez pour plus d’informations.