Les technologies d’Intelligence artificielle s’invitent de plus en plus dans notre quotidien et révèlent d’inquiétantes failles, à l’image des biais générés par les algorithmes, notamment dans le domaine de la reconnaissance faciale. Les entreprises comme les pouvoirs publics se sont saisis du problème et entendent mettre en œuvre des systèmes biométriques plus éthiques et plus inclusifs.
Reconnaissance faciale et délits de faciès
On le sait aujourd’hui : un algorithme n’est pas forcément neutre ou équitable. Les «biais» algorithmiques que l’on peut détecter dans les logiciels d’Intelligence artificielle (IA) font régulièrement parler d’eux, tant ils génèrent frustration, impuissance et un sentiment d’injustice chez les utilisateurs. En témoignent les nombreux dysfonctionnements de Parcoursup, plateforme française d’admission à l’enseignement supérieur. Comment expliquer ces failles dans des systèmes supposés… infaillibles ? « Il y a (…) des biais mathématiques, qui sont le problème du programmeur. Puis, il y a tous les biais cognitifs, que le programmeur peut oublier, ou partiellement ne pas prendre en compte, s’il se concentre sur la performance » explique Romain Warlop, data scientist chez Fifty Five.
Dans le domaine de la reconnaissance faciale, ces failles peuvent entraîner de graves préjudices sociaux, des erreurs judiciaires ou policières par exemple, notamment lorsqu’elles génèrent des discriminations à l’égard de certaines communautés. Pour Joy Buolamwini, data scientist ghanéenne au MIT Media Lab, ces biais entraînent notamment une discrimination à l’égard des populations non blanches, dont les visages ne sont pas toujours reconnus par certains programmes informatiques. Dernier exemple en date, l’IA de Facebook proposait des vidéos de singes à des utilisateurs venant de visionner une altercation d’hommes noirs avec des policiers blancs… La mathématicienne et ancienne analyste à Wall Street Cathy O’Neil estime de son côté que ces biais algorithmiques seraient si nocifs qu’ils s’apparenteraient à des « armes de destruction mathématiques ».
L’IDIAP, Sicpa et l’Université de Zurich au service d’une reconnaissance faciale inclusive
Du côté des entreprises, la réponse ne s’est pas fait attendre face à ces dérives. En Suisse par exemple, l’Institut de recherche IDIAP (anciennement Institut d’intelligence artificielle perceptive) est en train d’élaborer, dans le cadre du projet SAFER, un répertoire, équilibré et inclusif, de visages humains afin de lutter contre les biais de la reconnaissance faciale. «Pour éviter les biais, les chercheurs ont non seulement besoin d’un grand stock d’images très diverses, mais aussi équilibré en terme de genre, d’âge ou encore d’origine de la personne représentée» estime Sébastien Marcel, responsable de recherche à l’IDIAP.
Connu pour avoir permis de reconnaître la voix de Ben Laden dans le cadre d’une enquête de la chaîne France 2, l’IDIAP va donc créer de nombreux visages de synthèse afin d’englober la diversité humaine. Objectif affiché : un million de figures. Le projet est financé par la fondation Hasler et regroupe l’Université de Zurich et l’entreprise suisse Sicpa, spécialiste des systèmes de sécurité et de traçabilité et leader mondial de la fourniture d’encres. Sicpa « jouera un rôle clé en testant, évaluant et utilisant les logiciels, les bases de données et les méthodes de générations de ces bases de données », précise l’IDIAP. Autant d’outils et de systèmes innovants qui pourraient contribuer à rendre les IA plus performantes et à leur permettre d’échapper aux dérives.
Un cadre juridique européen commun
Dans l’Hexagone, les pouvoirs publics s’appuient de plus en plus sur les fleurons français du secteur, tels que Thales, le leader mondial de la biométrie et de l’Identité Augmentée Idemia ou encore Ercom, à l’image de certaines municipalités : Nice, La Défense, Marseille ou Toulouse. Parallèlement, de plus en plus d’entreprises affichent leur volonté de mettre en place des technologies biométriques plus éthiques. Une charte internationale pour une Intelligence artificielle inclusive lancée au printemps 2020 par Orange et Arborus a déjà été signée par Danone, EDF ou encore L’Oréal.
Une ambition portée également à l’échelle des institutions européennes à l’occasion d’une proposition de loi sur l’IA. La Commission européenne a présenté le 21 avril 2021 un cadre juridique sur l’intelligence artificielle afin de dessiner une vision européenne commune fondée sur l’éthique, alertant notamment sur « des risques élevés dans les domaines touchant les infrastructures critiques (énergie, transports…), l’éducation, la formation professionnelle, l’emploi, les ressources humaines, les services privés et publics essentiels, le maintien de l’ordre, la justice, les processus démocratiques…».
Le 24 novembre dernier, l’UNESCO adoptait également une recommandation sur l’éthique de l’intelligence artificielle, mettant en avant les risques provoqués par les biais discriminants et l’indispensable refonte des data bases. « On veut que les bases de données soient représentatives et inclusives et que les minorités soient représentées », a résumé Mariagrazia Squicciarini, chef du secteur des sciences sociales et humaines de l’UNESCO.