Gender Data Gap : le monde a été conçu par et pour les hommes

Gendered innovations, gender data gap, gender bias… Le sexisme dans les sciences est un phénomène qui a des conséquences pour tou-te-s et dans tous les domaines : santé, nouvelles technologies, emplois…

Photo by Science in HD on Unsplash

La société collecte davantage de données sur les hommes que sur les femmes. Ce fossé entre les données, c’est ce qu’on appelle le Gender Data Gap. Ce sont sur ces données que se basent les décisions politiques, la technologie, la science et même le design d’aujourd’hui. Autrement dit, on crée, on réfléchit, on fait de la recherche sur la base de données biaisées et ce qui tend à accentuer l’invisibilisation des femmes et des filles.

Dans leur ouvrage L’intelligence artificielle, pas sans elles ! Les chercheuses Aude Bernheim et Flora Vincent rappellent qu’ « un rapport de l’OCDE publié en 2017 montre que la majeure partie des données récoltées par les institutions laissent les femmes sur le banc de touche. On dispose de beaucoup moins d‘informations sur leur lieu de naissance, sur leurs horaires de travail, sur ce qu’elles gagnent et sur les violences dont elles sont victimes. »

« La recherche d’aujourd’hui c’est les produits qu’on aura dans 20 ou 30 ans »

« Ne pas avoir les données concernant un certain domaine, comportement ou société, signifie qu’on ne peut pas élaborer les bonnes politiques, progresser ou évaluer », affirme dans le New York Times Mayra Buvinic, membre de la Fondation des Nations unies en charge du Data2X, une initiative qui a pour but d’en finir avec le fossé entre les genres.

Dans leur ouvrage Aude Bernheim et Flora Vincent s’interrogent également : « seuls 41% des pays dans le monde produisent régulièrement des statistiques de violences faites aux femmes ; seuls 15% des pays ont adopté des législations qui demandent explicitement des études de genre spécialisées ; et seuls 13% des pays ont alloué un budget aux statistiques genrées. En l’absence des données comment fournir des indicateurs fiables et donc mettre en place des politiques efficaces ? »

Ce manque de données a également des conséquences sur la santé et la sécurité. Aude Bernheim affirme que « la tuberculose a été longtemps sous-diagnostiquée » car le test consistait en des tests de crachats. Or, nous explique la chercheuse, l’homme crache généralement mieux que la femme. « Il faut savoir que la recherche d’aujourd’hui c’est les produits qu’on aura dans 20 ou 30 ans. On en sera donc encore là. », regrette la généticienne. Selon une étude de l’Université de Leeds, 50% des femmes ayant eu une crise cardiaque pourraient être mal diagnostiquées. Enfin, dans une conférence en 2015, Aude Bernheim affirmait que « sur le marché américain des médicaments, en trois ans, quatre médicaments sur cinq qui ont été retirés de ce marché l’ont été car ils avaient plus d’effets secondaires sur les femmes que sur les hommes, et, cela simplement car les chercheurs n’avaient pas regardé l’effet des médicaments sur les rats femelles ». Une perte de temps, et d’argent pour tout le secteur.

Améliorer le quotidien de tou-te-s

Caroline Criado Perez, est une journaliste et activiste féministe britannique, son ouvrage Invisible Women : Data Bias in a World Designed for Men, analyse toute une série de gendered innovations, des innovations genrées qui sont la conséquence directe du gender data gap. Ainsi, selon elle, une femme a 47% plus de possibilités d’être blessée dans un accident de voiture et 17% plus de possibilités de mourir d’un accident de voiture car les mannequins crash-tests sont des hommes : « C’est très normatif, c’est un homme blanc de 70 kg, mais tout le monde n’est pas comme ça sur terre », précise Aude Bernheim qui prône la prise en compte de la variabilité inter-individuelle « cela peut passer par le sexe, mais également l’âge ». explique-t-elle. En plus du gender data gap il existe également un racial data gap. Le manque de données collectées sur l’identité raciale et ethnique entraîne ou renforce une discrimination raciale déjà existante.

Dans un article du Guardian, Caroline Criado Perez insiste quant à elle sur le danger de ces biais pour la femme enceinte. En effet, alors qu’il existe depuis 1996 un mannequin crash test enceinte, ce dernier n’est pas utilisé pour les tests ni aux États-unis, ni en Europe car il n’existe pas encore de ceinture de sécurité conçue pour la femme enceinte. Et ce, alors que la ceinture standard ne convient pas à 62% des femmes qui ont atteint le troisième trimestre de grossesse. En plus du gender data gap il existe également un racial data gap. Le manque de données collectées sur l’identité raciale et ethnique entraîne ou renforce une discrimination raciale déjà existante.

Remédier aux Gender data gap, permettrait d’améliorer le quotidien de tou-te-s. Caroline Criado Perez pointe les longues files d’attentes dans les toilettes féminines. Selon elle, si, à première vue, l’espace des WC est le même pour les hommes et les femmes, cette donnée ne prend pas en considération les besoins des femmes : elles prennent généralement plus de temps, doivent changer leur protection hygiénique, sont plus souvent accompagnées par les enfants ou les personnes âgées.

L’utilisation de données désagrégées par genre, permet également de mieux appréhender l’usage des transports en commun et de mieux catégoriser les déplacements des usag-er-ère-s. L’étude d’Inés Sanchez de Madariaga, professeure à l’Université Polytechnique de Madrid introduit ainsi le concept de mobilité du care soit la mobilité marquée par le travail domestique et les soins. En ajoutant cette nouvelle catégorie, à celles déjà existantes comme la mobilité liée à l’emploi ou le shopping, on valorise un travail fait en majorité par les femmes, qui est de s’occuper des tâches domestiques (faire les courses) ou de s’occuper d’autrui (personnes âgées, enfants). En prenant en compte ces trajets et pas uniquement ceux liés à l’emploi, il est possible d’optimiser les horaires de passages des bus ainsi que l’agencement des stations en fonction des besoins des usag-er-ère-s.

Cependant, si la planification des systèmes de transport comporte un biais sexiste c’est notamment parce que très peu de femmes font partie des postes à responsabilité dans le secteur du transport. Les transports sont ainsi planifiés en général par des hommes pour les hommes.

Mon robot est-il sexiste ?

Les algorithmes eux aussi sont sexistes. Ainsi, Siri, l’intelligence artificielle d’Apple, trouve plus facilement des prostituées et du Viagra, qu’une clinique d’avortement. Par ailleurs, précise Caroline Criado Perez dans The Guardian, il est possible de demander de l’aide à Siri en cas de crise cardiaque mais si vous lui dites que vous avez été violée, elle vous répond « je ne sais pas ce que signifie «ai été violée » ». De même, explique-t-elle « si ces applications peuvent nous permettre de trouver le chemin le plus rapide elles ne nous indiquent pas les chemins les plus sûrs ! ». Enfin, la voix des intelligences artificielles, de Apple, Amazon, Google sont toutes féminines renvoyant ainsi à l’image de la femme soumise, aux ordres de l’homme. Selon Melinda Gates, interrogée sur CNN en mai 2019, l’absence de femmes et de personnes de couleurs à la table des décisions crée des biais dans le système or l’intelligence artificielle prend une place de plus en plus importante dans nos vies aujourd’hui et un rôle dans nos achats, nos embauches…

Pour Aude Bernheim, le plus important c’est que les act-rice-eur-s de la société aient conscience de ces biais sexistes : « une fois qu’on sait, on fait davantage attention » affirme-t-elle, c’est pourquoi avec Flora Vincent et leur association, WAX science, elles souhaitent pousser à intégrer cette prise de conscience à la formation universitaire. Pour elles, les algorithmes, utilisés sont le reflet de notre société : plein de préjugés. « Les données reflètent le sexisme de la société. Il est très difficile de changer les mentalités, bien qu’il faille le faire. C’est plus facile de changer les algorithmes de sorte qu’ils limitent les inégalités. Par exemple, je vais programmer mon algorithme pour qu’il me sélectionne une moitié de CV de femmes », suggère Aude Bernheim.

L’éducation, la solution ?

L’éducation et la réappropriation des sciences par les femmes est indispensable pour mettre fin aux biais sexistes. Se pencher sur ces biais, les reconnaître et vouloir les combattre, ouvre une nouvelle dimension et de nouveaux champs de recherches : « Nous avons par exemple remarqué que la perception de la douleur diffère selon si c’est un homme ou une femme qui manipule la souris, et ceci en raison des hormones »,illustre Aude Bernheim.

Ainsi, en prenant compte des biais sexistes et en luttant contre, les décisions politiques seraient plus efficaces, plus égalitaires et moins stéréotypées. Dans leur ouvrage, Aude Bernheim et Flora Vincent vont encore plus loin : « Transformons l’intelligence artificielle et ses concept·eurs·rices pour transformer toute la société » concluent-elles dans leur ouvrage. N’est-ce-pas là justement le rôle de la science : faire progresser la société ?

Cet article a été publié dans le deuxième numéro de notre revue papier féministe, publié en décembre 2019. Si vous souhaitez l'acheter, c'est encore possible ici.

Un commentaire sur « Gender Data Gap : le monde a été conçu par et pour les hommes »

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s