Sommaire
-
Le parcours de Daphné Marnat, de l’anthropologie à l’intelligence artificielle
-
La création d’entreprise au service de l’innovation
-
Combattre les biais sexistes dans le langage courant
-
Comment les biais de genre se reproduisent massivement à cause de l’IA
-
Unbias cible le sexisme, demain le racisme et l’homophobie
Pour ce premier portrait de femme dans la tech dans l’émission Smart Tech présentée par Delphine Sabattier, sur la chaîne B-Smart, nous avons eu envie de vous parlé de Daphné Marnat, anthropologue au parcours atypique et créatrice d’entreprise, et de sa toute dernière boîte qui s’appelle Unbias-ia, lancée en mars 2021. Basée à Sophia Antipolis, près de Nice, dans l’incubateur Telecom Paris Eurecom, Unbias-ia est une entreprise dont la vocation est de réduire l’intensité des biais sexistes dans le langage des intelligences artificielles. (Pour info, c’est la seule entreprise incubée chez Telecom actuellement, dirigée par une femme.)
Le parcours de Daphné Marnat, de l’anthropologie à l’intelligence artificielle
Après des débuts académiques en anthropologie appliquée à l’université de Paris Descartes. qui vont être vite écourtés car sa thèse de doctorat sur la marque Lego va être refusée par sa faculté, à l’époque le mix entreprise privée et université ne fait pas bon ménage.Daphné se met à chercher du boulot. Elle commence sa carrière par hasard dans une agence de communication, Innovacorp, séduite par son profil d’anthropologue à la science appliquée, concrète, très utile pour les études marketing qu’elle va suivre et la gestion de projets qu’elle va porter pendant 5 ans. Une agence où, vu son énergie débordante, Daphné est vite sur le devant de la scène, mais qu’elle quitte dès qu’on la met en posture de manager client et agence.
La création d’entreprise au service de l’innovation
Elle a 30 ans et un fils de 3 ans. Elle décide de devenir indépendante car elle “en a marre de ne plus voir son fils” nous dit-elle lors d’une interview. Sous le régime d’auto entrepreneur, d’abord, puis via sa première entreprise, Twisting, qu’elle fonde en 2012, Daphné continue à appliquer les principes de la recherche anthropologique aux études qualitatives et se lance dans le design thinking et l’accompagnement en innovation pour des grandes entreprises avec des team d’ingénieurs tech où on l’interroge sur l’utilisateur final. C’est là que les implications et les interactions entre l’humain, sujet central de sa discipline, et les machines trouvent leur raison d’être. Par ses différentes missions via Twisting, Daphné se confronte à la technologie en tant qu’anthropologue. Et qu’elle découvre, de fil en aiguille, les biais dans l’intelligence artificielle, notamment ceux du sexisme ordinaire, que l’on ne repère pas au premier coup d’œil, mais qui vont s’amplifier à démesure à cause de leur reproduction massive.
Le mécanisme du traitements des données par l’IA
« Les intelligences artificielles, que l’on appelle communément IA, traitent des données qu’elles n’analysent pas forcément elle-même », nous explique Daphné Marnat. « Ces technologies apprennent grâce aux exemples qu’ elles reproduisent, ainsi que le langage appris au fur et à mesure de ces apprentissages. Si certains biais de genre sont utilisés, elles vont donc les reproduire à très large échelle, de l’ordre de milliards, ce qui va engendrer encore plus de biais de langage sexistes » poursuit-elle. C’est ainsi que Daphné Marnat a eu l’idée d’Unbias qui, via sa technologie de pointe, va intercepter les éléments de langage pour les transformer de façon plus neutre.
Combattre les biais sexistes dans le langage courant
Elle est partie du constat que dans nos interactions digitales courantes, on a à faire avec des chatbots, des robots, des algorithmes, des prédictions par exemple. Et on va, sans vraiment s’en rendre compte, faire face à des biais de genre. Le robot de l’Insee ou du service des impôts va vous demander “Qui est le chef de famille?”, implicitement un homme, sans tenir compte de la cheffe de famille mono ou homoparentale. Dans les prédictions de mutuelle, de banque ou de RH, l’algo ne va pas accorder le même niveau de crédit, de poste ou de compétences à un homme qu’à une femme. Comme dans une entreprise on parlera de “l’ensemble des collaborateurs”, à première vue on n’y voit aucun mal. Mais dans l’imaginaire, c’est implicitement un ensemble d’hommes blancs. Daphné nous cite un autre exemple cocasse: “J’ai rdv à la banque. Associée à 51% et PDG d’Unbias, j’ai tous les pouvoirs et la machine sort tous les papiers au nom de mon associé masculin.”
Comment les biais de genre se reproduisent massivement à cause de l’IA
Daphné nous explique que “pris individuellement ce n’est pas si grave, mais c’est la masse qui est inquiétante”. Quand vous êtes en permanence confrontés à des textes où le masculin fait référence, cela crée des réflexes et on va finir par attribuer des compétences ou des qualités à un genre plutôt qu’à un autre. Évidemment ces biais de sexisme ordinaire ne sont pas créés par l’algorithme mais il les reprend de façon tellement extensive qu’ils en deviennent systémiques et très difficiles à détricoter car ils sont dans tous les processus. Néanmoins, les machines peuvent aider à voir l’intensification des biais.
Unbias ia s’attaque donc à limiter les biais de genre que l’on distingue clairement d’un sexisme hostile qui pourrait être, lui, intentionnel, pour rendre l’intelligence artificielle plus éthique. Accompagnée de son associé, un data scientist concentré sur la technologie, Daphné s’applique à retravailler avec des experts le langage des algorithmes, qu’on appelle le corpus d’apprentissage, avec un algèbre sémantique en forçant leur trait féminin. “La seule manière de retrouver l’équilibre, c’est de surpondérer au féminin”, nous dit-elle et de mettre en place des pratiques de discrimination positive. Le seul site qui soit vraiment neutre, selon elle, semble être celui de Wikipédia.
« »Les intelligences artificielles, que l’on appelle communément IA, traitent des données qu’elles n’analysent pas forcément elle-même. Si certains biais de genre sont utilisés, elles vont donc les reproduire à très large échelle, de l’ordre de milliards, ce qui va engendrer encore plus de biais de langage sexistes. « Daphné Marnat, anthropologue et co-fondatrice de Unbias-IA
Unbias cible le sexisme, demain le racisme et l’homophobie
Aujourd’hui Daphné Marnat cible le sexisme des applications en traitement et compréhension profonde du langage naturel (le NLP). Demain, son intention est de traiter les problèmes de racisme, de xénophobie, d’homophobie et de toute autre minorité, dans le langage écrit mais aussi vocal et dans celui véhiculé par les images. Comme elle le souligne avec l’humour qui la caractérise, “les objets qui utilisent la reconnaissance vocale sont moins performants sur les voix des femmes que celles des hommes. Pourquoi donc? Ces machines en fait ont appris et ont été éduquées par des voix d’hommes. Les femmes se disent plus souvent “ah je ne suis pas douée avec les machines”. Au lieu de se dire que c’est la machine qui ne marche pas, elles pensent que le problème vient d’elles et que le high-tech est fait pour les hommes. C’est typiquement un biais de genre qui rentre en compte, au-delà même des mots utilisés.C’est dire le long chemin à faire pour en finir avec la masculinisation de l’intelligence artificielle. Les entreprises et les institutions, avec leurs nouvelles politiques RSE et leur engagement pour la parité sont en première ligne pour améliorer les choses. “On vit l’équité dans notre réalité, la loi contre les discriminations existe en France” nous dit Daphné: “à nous d’aider les machines quand les humains n’y arrivent pas malgré une volonté affichée”. On est tentée d’ajouter que tant qu’il n’y aura que des hommes dans les services de R&D où Daphné se confronte souvent, le parcours risque fort d’être encore semé d’embûches.
Retrouvez l’actualité des nouvelles technologies, dans l’émission Smart Tech, conçue et présentée par Delphine Sabattier, toutes les semaines du lundi au vendredi à 8h30 dès la rentrée, sur la chaîne business, B-Smart, présente dans les bouquets Orange, Bouygues et Free ou en replay sur www.bsmart.fr.