L’intelligence artificielle (IA) est un enjeu technologique mondial. Elle intéresse tous les secteurs de la société, et est présente dans des domaines spécifiques comme la recherche, la défense, la santé, la formation… et aussi dans notre quotidien, avec de nombreuses applications intelligentes et personnalisées pour nos activités professionnelles et privées. L’intelligence artificielle est une révolution qui participe à augmenter les capacités humaines, mais en même temps elle soulève de nombreuses problématiques liées au développement et aux usages de systèmes algorithmiques complexes. Cet article explique en quoi il est primordial de mettre en place un cadre réglementaire pour avoir un système d’intelligence artificielle éthique, équitable et responsable.
Avec l’IA générative, nous déléguons beaucoup de tâches, de raisonnements et de décisions de plus en plus critiques à des machines. Or, dans cette exploration des possibles portée par un environnement technologique changeant, la question d’une IA éthique en phase avec les valeurs et les attentes de la société est centrale. L’intelligence artificielle est un vecteur de progrès indiscutable, mais le développement et l’intervention de cette technologie numérique doivent tenir compte de tous les impacts sociétaux potentiels en matière de partialité, de transparence et de protection de la vie privée.
Voici les principaux défis à relever pour transformer une IA en intelligence artificielle éthique :
La solution pour une IA éthique, sûre, fiable et responsable repose sur la mise en œuvre d’un cadre réglementaire accepté par tous les acteurs (concepteurs, professionnels, utilisateurs).
Au regard de ces risques, il est donc important de poser un ensemble de principes universels s’appliquant à tous les concepteurs et déployeurs d’IA. L’idée est de créer un environnement fiable et robuste, propice à l’innovation, et d’encadrer le développement et l’usage d’une IA éthique. L’Europe est particulièrement active et volontaire sur le sujet. Elle est animée par la volonté de « faire en sorte que l’IA soit centrée sur l’humain et digne de confiance [1] ».
Comme nous allons le voir, les principes et valeurs d’une intelligence artificielle éthique concernent toutes les strates de cette technologie.
L’IA générative est capable de générer des contenus originaux (texte, image, audio, vidéo, lignes de code…) en réponse à une requête utilisateur. Son fonctionnement repose sur un modèle de fondation, un modèle d’apprentissage profond qui peut être exploité dans différents types de systèmes numériques embarquant une IA générative. À titre d’exemple, pour une IA générative de contenus textuels, les modèles de fondation les plus répandus sont les grands modèles de langage (LLM) représenté par Open AI avec notamment Chat GPT (Generative Pre-trained Transformer) et DALL-E (générateur d’image à partir de texte) mais aussi Claude. Ces algorithmes sont entraînés sur des masses de données afin de comprendre et générer des textes en langage naturel.
L’éthique, mais aussi les performances et la fiabilité d’un modèle de fondation dépendent de son architecture et de la qualité des données qui l’approvisionnent. Un modèle de fondation entraîné sur un corpus de données fortement marquées par des stéréotypes, des données erronées, ou encore des données sensibles ou inappropriées, reproduira mécaniquement ces biais et donnera des contenus nuisibles.
Pour qu’un modèle de fondation soit éthique, il faut que les données soient :
Enfin, les données exploitées doivent respecter les réglementations relatives à la protection des données (RGPD), au respect de la confidentialité et au consentement, et ne pas être sous copyright.
La singularité technologique est une théorie selon laquelle les systèmes d’intelligence artificielle finiront par avoir des capacités cognitives supérieures aux capacités humaines, avec en plus la faculté de s’améliorer de manière autonome. Le terme singularité se réfère à des concepts mathématiques désignant un stade où le modèle existant s’effondre. Cette théorie prédit l’évolution rapide et non contrôlée de l’IA, donnant naissance à des systèmes autonomes, capables d’innovations échappant à la compréhension et au contrôle humain.
Le cadre réglementaire d’une IA éthique est la solution pour préserver nos sociétés des risques d’une croissance technologique incontrôlée et irréversible, entraînant des bouleversements profonds dans la civilisation humaine et dans les systèmes de valeur.
Les systèmes numériques basés sur l’IA offrent un gain de productivité important grâce à l’automatisation des tâches les plus répétitives et mécaniques. Le FMI considère qu’elle va affecter 60 % des emplois dans les pays économiquement avancés [2]. Et pour la revue de l’Institut Polytechnique de Paris, ce sont près de 75 millions d’emplois dans le monde qui pourraient être automatisés [3].
L’article met également en évidence l’impact du déploiement de l’intelligence artificielle :
Suivant leurs domaines d’application, les innovations technologiques ont toujours eu des répercussions importantes. Avec l’IA, les effets sur les sociétés et l’emploi sont sans commune mesure. L’automatisation par les systèmes numériques d’intelligence générative remet en cause la pérennité de certaines catégories d’emplois et accélère l’obsolescence de nombreuses compétences.
Mais le déploiement de l’IA peut être aussi synonyme de prospérité collective, d’amélioration de la qualité du travail, et participer à la réduction des inégalités. Afin de préserver la place centrale de l’humain dans la création de richesses durables, il faut mettre en œuvre une gouvernance de l’intelligence artificielle éthique axée sur la formation à de nouveaux métiers et l’acquisition de nouvelles compétences.
Le respect de la vie privée et la protection des données confidentielles font partie des principes fondateurs de l’IA éthique. Même si son développement repose sur l’exploitation de données massives, l’intelligence artificielle doit protéger les données personnelles des individus en adoptant des mécanismes similaires à ceux du RGPD [4], où chaque individu doit pouvoir exprimer son consentement de façon libre et éclairée et accéder à tout moment à ses informations personnelles pour les modifier, voire les supprimer.
La conception et le développement d’un système numérique basé sur une IA éthique doivent garantir :
La responsabilité et la transparence figurent aussi parmi les principes d’une IA éthique. La responsabilité veut que la conception, le développement, le déploiement et l’utilisation de ces technologies soient alignés sur les valeurs des parties prenantes, les normes juridiques et les principes éthiques.
La transparence concerne le fonctionnement des algorithmes, afin de faciliter les contrôles et la compréhension des utilisateurs.
La gouvernance est la première brique d’une intelligence artificielle éthique. Cette méthode de gestion est basée sur des mécanismes de surveillance des phases de conception des algorithmes et d’apprentissage profond pour corriger les éventuels biais : malveillance, violation des données confidentielles, discrimination, surreprésentation d’opinions, manque de diversité… La gouvernance détermine un cadre équilibré, indispensable à l’émergence d’une IA éthique et responsable.
L’IA éthique peut être mise en œuvre dans 10 domaines :
La promotion en entreprise de pratiques responsables en matière d’intelligence artificielle, basée sur des valeurs centrées sur le respect des droits humains, l’éthique et la transparence, est indispensable. Elle assure le développement de technologies améliorant nos capacités et notre performance dans un cadre éthique résilient en termes d’impartialité, de transparence et de protection de la vie privée.
La contribution de l’IA à la formation est déterminante. Les entreprises et les organismes de formation profitent de la puissance et de l’agilité des systèmes numériques intelligents pour :
Ce système numérique intelligent optimise la personnalisation des offres de formation, pour plus d’efficacité, et prépare les collaborateurs à un environnement augmenté par l’IA plus immersif. En devenant acteurs de leur formation, les apprenants s’engagent pleinement dans la réussite de leur programme. C’est aussi un retour sur investissement concret et plus encadré pour l’entreprise.
L’utilisation d’assistant IA de formation avec l’outil lms (Learning Management System) Didask personnalise l’expérience d’apprentissage et la rend plus efficace grâce à une méthode basée sur les sciences cognitives. L’IA pédagogique Didask s’inscrit dans une démarche éthique forte et respectueuse des valeurs d’équité, de transparence, de responsabilité et de protection de la vie privée. Cet outil technologique ne remplace pas l’humain ; il permet simplement de démocratiser l’accès à une pédagogie de qualité et de favoriser un enseignement sur mesure, pour une efficacité accrue.
La plateforme d’intelligence artificielle pédagogique Didask est éthique car :
Sources :
[1] https://digital-strategy.ec.europa.eu/fr/policies/european-approach-artificial-intelligence
Prenez directement rendez-vous avec nos experts du eLearning pour une démo ou tout simplement davantage d'informations.
Intelligence Artificielle
Intelligence Artificielle
Intelligence Artificielle