• Passer à la navigation principale
  • Passer au contenu principal
  • Passer à la barre latérale principale

Business-technologie

  • Nos dossiers
    • Aides aux Entreprises
    • Entreprise Digitale et IA
    • Intelligence Artificielle et Propriété Intellectuelle
  • PME Augmentée
  • Show Search
Hide Search
Accueil/Actualités-Business/L’INTELLIGENCE ARTIFICIELLE ET LES « BIAIS » : UNE FATALITE ?

L’INTELLIGENCE ARTIFICIELLE ET LES « BIAIS » : UNE FATALITE ?

L’Intelligence Artificielle et ses préjugés

Aujourd’hui, l’Intelligence Artificielle n’est plus propre à la science-fiction, elle s’invite peu à peu dans notre quotidien. De nombreux domaines tels que la santé, la finance ou même l’art misent déjà beaucoup sur cette technologie.

Au niveau international , l’an dernier,  50 milliards de dollars ont été investis par les entreprises dans l’intelligence artificielle, et ce chiffre devrait atteindre 110 milliards de dollars d’ici 2024.1 À l’échelle des entreprises françaises, l’investissement dans l’IA est estimé à 350 millions d’euros en 2020, avec un objectif pour les entreprises de l’hexagone à plus de 1,3 milliards d’euros en 2023.

Cependant, de nombreux progrès restent encore nécessaires avant que nous puissions avoir pleinement confiance dans l’utilisation de cette technologie. En effet cette dernière présente des “prises de décisions discriminantes”, basées sur des préjugés , comme le déclare Renée Richardson Gosline dans une conférence du MIT Sloan Expert Series : «Il y a eu une quantité énorme de recherches soulignant les problèmes de préjugés algorithmiques et la menace que cela représente de manière systémique»1. 

 Il faut savoir que le succès de la prise de décision d’une IA est intrinsèquement corrélé au jeu de données que les développeurs lui mettent à disposition lors de sa confection. C’est cette étape d’apprentissage qui permet par la suite à l’Intelligence Artificielle de décider de manière autonome. 

Un résultat discriminant résulte donc principalement de l’utilisation de données biaisées comme source du développement de la technologie. 

Ces données biaisées peuvent être induites par une “sur” ou “sous” représentativité de certaines populations ou par des inégalités inhérentes à la société. 

Les systèmes d’IA ont, par exemple,  offert des limites de carte de crédit plus basses aux femmes qu’aux hommes malgré des profils financiers similaires. Les publicités numériques ont démontré des préjugés raciaux dans les offres de logement et de prêt hypothécaire.2 

Les données sont le plus grand enjeu  de l’Intelligence Artificielle fonctionnelle.  

Vers la mise en place d’une Intelligence Artificielle éthique

Depuis peu, nous observons une prise de conscience internationale à propos de cette problématique. Une enquête menée par le “Center for the Governance of AI” de l’Université d’Oxford a montré que 82% des personnes interrogées estiment que l’IA doit être gérée avec soin et deux tiers des internautes interrogés par la Brookings Institution estiment que les entreprises devraient avoir un code d’éthique et un comité d’examen de l’IA.

Certains dirigeants ont commencé à mettre en place des mesures. La France et le Canada, par exemple, souhaitent tous deux mettre en place un Groupe international d’experts en Intelligence Artificielle afin de façonner une intelligence éthique, responsable, centrée sur l’humain et respectueuse des droits de l’Homme. Des grandes sociétés comme Google ont, elles, mis en place un comité d’éthique sur l’IA. 

Il est donc nécessaire de comprendre et de répertorier les préjugés humains et éliminer les biais algorithmiques. Des instituts tel que l’ANITI (“Artificial and Natural Intelligence Toulouse Institute”) effectuent des travaux de recherche qui traitent les différentes facettes du problème de l’acceptabilité sociale, économique, juridique et éthique de systèmes intégrant des algorithmes d’Intelligence Artificielle.3

Avec l’ensemble des informations recueillies par ce type d’institut, des processus correctifs  peuvent être élaborés dans lesquels les algorithmes et les humains, travaillant conjointement pour compenser les préjugés présents aussi bien chez l’un que l’autre, et ainsi limiter les risques propres aux biais, préjugés dans les prise de décisions. 

L’Intelligence Artificielle au service des entreprises et l’ ”IA Responsable”

Pour les entreprises “l’IA Responsable” ne peut pas être considérée seulement comme un mécanisme permettant d’éviter les biais, mais également comme un outil qui permet à l’entreprise d’engendrer des récompenses financières.

En effet, lorsque des entreprises pratiquent l’ ”IA Responsable”, la confiance et la fidélité de la clientèle tend à se renforcer, elles acquièrent donc le potentiel d’augmenter leur part de marché et leur rentabilité à long terme.2 C’est sur cette analyse que de grands groupes tels que Microsoft et Google ont rendu publique leur démarche pour mettre en place  une IA responsable. 

La mise en place d’une IA responsable est un processus long qui peut être résumé en 6 étapes distinctes. Il est important de noter que  “chaque étape peut commencer petit et s’étendre avec le temps à mesure qu’une initiative mûrit. L’important est que les organisations progressent dans chacune de ces étapes.”2 

Les Six étapes du BCG pour combler le fossé de l’ « IA Responsable »

La dynamique est lancée, l’ “IA Responsable” fait son chemin !

L’Intelligence Artificielle est omniprésente dans notre quotidien, mais comporte encore un trop grand nombre de biais dont la cause principale est l’ensemble de données fournies à l’IA lors de son apprentissage.    

Dans le but de limiter les décisions algorithmiques discriminantes, un ensemble de dirigeants et d’entreprises se sont mobilisés afin de mettre en place une IA intégrant les notions d’éthique et de responsabilité, une “IA Responsable”. 

Cette dernière est un atout majeur dans les entreprises, elle allie performance et gain financier. L’intégration de ce type d’outil dans nos sociétés est un processus long qui peut être réalisé en 6 étapes. 

En apparence “simple” sur le papier, la mise en place d’une Intelligence Artificielle responsable a récemment semé la discorde au sein de la maison mère de Google, signe de la difficulté de la tâche. En effet deux chercheuses et responsables de l’équipe travaillant sur les questions d’éthique dans l’Intelligence Artificielle ont été remerciées par Google après avoir fait part de leurs critiques envers la politique de l’entreprise autour de l’IA et de son engagement pour la diversité. Une petite histoire qui nous rappelle à tous que le chemin vers l’IA responsable reste pavé d’obstacles et que certains préjugés sont bien ancrés et demeurent avant tout humains!                                                                                                                                                              

1Dylan Walsh, (02/02/2021)How can human-centered AI fight bias in machines and people?, MIT sloan school of management. Site : https://mitsloan.mit.edu/ideas-made-to-matter/how-can-human-centered-ai-fight-bias-machines-and-people

2Steven Mills, Elias Baltassis, Maximiliano Santinelli, Cathy Carlisi, Sylvain Duranton, and Andrea Gallego (08/09/2020),Six Steps to Bridge the Responsible AI Gap, BCG Site : https://www.bcg.com/fr-fr/publications/2020/six-steps-for-socially-responsible-artificial-intelligence

3 Philippe Raimbault, (2021), Pôle majeur de l’intelligence artificielle, ANITI  Site : https://aniti.univ-toulouse.fr/les-chaires-2/

Partager :

Written by:
Michel Vaudescal
Published on:
mars 10, 2022

Categories: Actualités-Business

À propos Michel Vaudescal

Directeur de Mayfair Village Diplômé de l’IAE d’Aix et de l’Institut National Polytechnique de Grenoble, Expert en conduite de projets d'IA, Certifié Blockchain Technologies (MIT). Accompagnateur de créateurs d’entreprises pour le Réseau Entreprendre. Michel Vaudescal allie une double expertise à l’international dans le sourcing financier et l’accompagnement de projets technologiques à haute valeur ajoutée.

Barre latérale principale

Votre entreprise peut-elle recevoir des aides ?

MayFair Village édite le site business-technologie.com.

MayFair Village réalise vos projets, vous apporte créativité et innovation dans la recherche grâce à ‘intelligence artificielle. Notre équipe d’ingénieurs de haut niveau accélère et sécurise l’adoption de l’IA de la et Blockchain dans votre organisation.

Voir notre site

devenir-une-pme-augmentee

PME augmentée by MAYFAIR VILLAGE

La PME Augmentée, une solution à votre portée ! En tant que dirigeant de PME, vous faites partie des 99 % des entreprises …

Articles récents

  • Chimie & Intelligence Artificielle : L’Ecole Européenne de Chimie de Strasbourg (ECPM) et MAYFAIR Village entérinent leur collaboration en ce début d’année 2022
  • L’INTELLIGENCE ARTIFICIELLE ET LES « BIAIS » : UNE FATALITE ?
  • ENTREPRENEURS: COMMENT RENDRE EFFICIENTE VOTRE STRATÉGIE D’INNOVATION ? ÉPISODE#3 L’ AGRÉMENT CIR
  • Présentation de l’un de nos partenaires privilégiés : la société IPaidThat
  • Le paradoxe de L’Intelligence Artificielle dans le secteur de la santé, ou comment profiter des apports de l’IA tout en assurant le respect de nos données personnelles?

Footer

MAYFAIR VILLAGE (FR)

55 Rue de Caudéran 33000 Bordeaux

+33) 07.69.89.07.64

Copyright DEVEUM © 2023 · Se connecter

MAYFAIR VILLAGE (CAN)

INC, 880 rue Roy Est, MONTRÉAL (Québec) CANADA H2L 1E6

+1 (438) 409 8737