Les associations Politiqu’elles et Social Builder publient ce jour le rapport « Intelligence Artificielle Et Sexisme : Comment Lutter Contre La Reproduction Des Stéréotypes Et Biais Sexistes ? » avec la participation de plusieurs personnalités issues des sphères publiques ou privées.

Le rapport est disponible à la lecture ci-dessous et au téléchargement ici :

Intelligence artificielle et sexisme_Etat des lieux et propositions

Ce rapport tire la sonnette d’alarme, à la suite d’une conférence tenue lors de la journée nationale contre le sexisme le 24 janvier dernier, ayant rassemblé plus de 100 participant.e.s (universitaires, développeur.se.s, étudiant.e.s, cadres dirigeant.e.s de grands groupes, associations). Au-delà des nombreuses actualités autour du sexisme présent dans certains algorithmes ou dans certaines formes d’intelligence artificielle, et alors que la Commission Européenne prépare et finalise ses recommandations autour de l’intelligence artificielle, le temps de la concertation doit laisser place à un temps d’actions concrètes pour cesser l’invisibilisation des femmes dans le numérique et pour rendre l’intelligence artificielle responsable et non sexiste. 

S’appuyant sur l’expertise d’Isabelle Collet, maîtresse d’enseignement et de recherche en science de l’éducation à l’Université de Genève, Frédéric Bardolle membre d’Algotransparency et Data for Good, et Hugo Ruggieri responsable juridique et DPO de Doctrine.fr et cofondateur de ThinkH+ et Galatea, nous formulons les 12 recommandations suivantes :

  1. A l’École, former les équipes pédagogiques aux nouvelles disciplines du numérique pour instaurer l’informatique comme discipline fondamentale
  2. Former les enseignant.e.s de l’informatique des enjeux de mixité pour faciliter l’orientation non genrée autour de ces disciplines
  3. En formation, mobiliser les équipes dirigeantes et pédagogiques autour de la question de la mixité
  4. Auditer les algorithmes vecteurs de stéréotypes sexistes (débiaiser les jeux de données, forcer les algorithmes à ignorer les biais identifiés)
  5. Proposer un panel d’avatars plus représentatifs de la population
  6. Proposer des modules de formation sur les stéréotypes de genre dans les formations numériques
  7. Promouvoir un code éthique et des bonnes pratiques en matière d’algorithmes non biaisés chez les concepteur.rice.s de programmes
  8. Exploiter le potentiel de l’IA comme moyen de lutter contre les discriminations sexistes : encourager les recherches sur des programmations algorithmiques prenant en compte des logiques d’objectifs, promouvoir une IA plus transparente et responsable en préférant l’IA symbolique
  9. Clarifier la définition du sexisme afin de donner des outils législatifs à sa répression (définition commune des éléments caractérisant l’infraction sexiste)
  10. Renforcer les règles internes aux entreprises en matière d’éthique (obligations de transparence et de loyauté, contrôles par une autorité compétente française et/ou européenne)
  11. Créer une plateforme de signalement de contenus illicites
  12. Sensibiliser le grand public à l’intelligence artificielle et ses potentiels biais dans son usage quotidien (campagne, plateforme d’informations)

 

A l’occasion de la sortie du rapport, nous avons présenté nos recommandations lors d’un atelier organisé par la Fondation La France s’engage :

Politiqu’elles est une association loi 1901 qui œuvre à la promotion des femmes dans la politique et la société, et lutte contre le sexisme.

Social Builder est une start-up sociale dont la mission est de construire l’égalité femmes-hommes dans l’économie numérique.