L’Intelligence Artificielle et ses préjugés
Aujourd’hui, l’Intelligence Artificielle n’est plus propre à la science-fiction, elle s’invite peu à peu dans notre quotidien. De nombreux domaines tels que la santé, la finance ou même l’art misent déjà beaucoup sur cette technologie.
Au niveau international , l’an dernier, 50 milliards de dollars ont été investis par les entreprises dans l’intelligence artificielle, et ce chiffre devrait atteindre 110 milliards de dollars d’ici 2024.1 À l’échelle des entreprises françaises, l’investissement dans l’IA est estimé à 350 millions d’euros en 2020, avec un objectif pour les entreprises de l’hexagone à plus de 1,3 milliards d’euros en 2023.
Cependant, de nombreux progrès restent encore nécessaires avant que nous puissions avoir pleinement confiance dans l’utilisation de cette technologie. En effet cette dernière présente des “prises de décisions discriminantes”, basées sur des préjugés , comme le déclare Renée Richardson Gosline dans une conférence du MIT Sloan Expert Series : «Il y a eu une quantité énorme de recherches soulignant les problèmes de préjugés algorithmiques et la menace que cela représente de manière systémique»1.
Il faut savoir que le succès de la prise de décision d’une IA est intrinsèquement corrélé au jeu de données que les développeurs lui mettent à disposition lors de sa confection. C’est cette étape d’apprentissage qui permet par la suite à l’Intelligence Artificielle de décider de manière autonome.
Un résultat discriminant résulte donc principalement de l’utilisation de données biaisées comme source du développement de la technologie.
Ces données biaisées peuvent être induites par une “sur” ou “sous” représentativité de certaines populations ou par des inégalités inhérentes à la société.
Les systèmes d’IA ont, par exemple, offert des limites de carte de crédit plus basses aux femmes qu’aux hommes malgré des profils financiers similaires. Les publicités numériques ont démontré des préjugés raciaux dans les offres de logement et de prêt hypothécaire.2
Les données sont le plus grand enjeu de l’Intelligence Artificielle fonctionnelle.
Vers la mise en place d’une Intelligence Artificielle éthique
Depuis peu, nous observons une prise de conscience internationale à propos de cette problématique. Une enquête menée par le “Center for the Governance of AI” de l’Université d’Oxford a montré que 82% des personnes interrogées estiment que l’IA doit être gérée avec soin et deux tiers des internautes interrogés par la Brookings Institution estiment que les entreprises devraient avoir un code d’éthique et un comité d’examen de l’IA.
Certains dirigeants ont commencé à mettre en place des mesures. La France et le Canada, par exemple, souhaitent tous deux mettre en place un Groupe international d’experts en Intelligence Artificielle afin de façonner une intelligence éthique, responsable, centrée sur l’humain et respectueuse des droits de l’Homme. Des grandes sociétés comme Google ont, elles, mis en place un comité d’éthique sur l’IA.
Il est donc nécessaire de comprendre et de répertorier les préjugés humains et éliminer les biais algorithmiques. Des instituts tel que l’ANITI (“Artificial and Natural Intelligence Toulouse Institute”) effectuent des travaux de recherche qui traitent les différentes facettes du problème de l’acceptabilité sociale, économique, juridique et éthique de systèmes intégrant des algorithmes d’Intelligence Artificielle.3
Avec l’ensemble des informations recueillies par ce type d’institut, des processus correctifs peuvent être élaborés dans lesquels les algorithmes et les humains, travaillant conjointement pour compenser les préjugés présents aussi bien chez l’un que l’autre, et ainsi limiter les risques propres aux biais, préjugés dans les prise de décisions.
L’Intelligence Artificielle au service des entreprises et l’ ”IA Responsable”
Pour les entreprises “l’IA Responsable” ne peut pas être considérée seulement comme un mécanisme permettant d’éviter les biais, mais également comme un outil qui permet à l’entreprise d’engendrer des récompenses financières.
En effet, lorsque des entreprises pratiquent l’ ”IA Responsable”, la confiance et la fidélité de la clientèle tend à se renforcer, elles acquièrent donc le potentiel d’augmenter leur part de marché et leur rentabilité à long terme.2 C’est sur cette analyse que de grands groupes tels que Microsoft et Google ont rendu publique leur démarche pour mettre en place une IA responsable.
La mise en place d’une IA responsable est un processus long qui peut être résumé en 6 étapes distinctes. Il est important de noter que “chaque étape peut commencer petit et s’étendre avec le temps à mesure qu’une initiative mûrit. L’important est que les organisations progressent dans chacune de ces étapes.”2
La dynamique est lancée, l’ “IA Responsable” fait son chemin !
L’Intelligence Artificielle est omniprésente dans notre quotidien, mais comporte encore un trop grand nombre de biais dont la cause principale est l’ensemble de données fournies à l’IA lors de son apprentissage.
Dans le but de limiter les décisions algorithmiques discriminantes, un ensemble de dirigeants et d’entreprises se sont mobilisés afin de mettre en place une IA intégrant les notions d’éthique et de responsabilité, une “IA Responsable”.
Cette dernière est un atout majeur dans les entreprises, elle allie performance et gain financier. L’intégration de ce type d’outil dans nos sociétés est un processus long qui peut être réalisé en 6 étapes.
En apparence “simple” sur le papier, la mise en place d’une Intelligence Artificielle responsable a récemment semé la discorde au sein de la maison mère de Google, signe de la difficulté de la tâche. En effet deux chercheuses et responsables de l’équipe travaillant sur les questions d’éthique dans l’Intelligence Artificielle ont été remerciées par Google après avoir fait part de leurs critiques envers la politique de l’entreprise autour de l’IA et de son engagement pour la diversité. Une petite histoire qui nous rappelle à tous que le chemin vers l’IA responsable reste pavé d’obstacles et que certains préjugés sont bien ancrés et demeurent avant tout humains!
1Dylan Walsh, (02/02/2021)How can human-centered AI fight bias in machines and people?, MIT sloan school of management. Site : https://mitsloan.mit.edu/ideas-made-to-matter/how-can-human-centered-ai-fight-bias-machines-and-people
2Steven Mills, Elias Baltassis, Maximiliano Santinelli, Cathy Carlisi, Sylvain Duranton, and Andrea Gallego (08/09/2020),Six Steps to Bridge the Responsible AI Gap, BCG Site : https://www.bcg.com/fr-fr/publications/2020/six-steps-for-socially-responsible-artificial-intelligence
3 Philippe Raimbault, (2021), Pôle majeur de l’intelligence artificielle, ANITI Site : https://aniti.univ-toulouse.fr/les-chaires-2/