Bien que l’intelligence artificielle générative ait transformé radicalement nos usages, l’urgence de définir et d’implémenter une IA éthique demeure un défi majeur et complexe.
La convergence globale sur ce qui constitue une IA éthique reste évasive, malgré la reconnaissance universelle de son importance pour le développement responsable de cette technologie. Tour d’horizon des initiatives prises par les États ou les GAFAM, qui reflètent un paysage complexe où des avancées significatives vers une régulation éthique de l’IA se confrontent à des défis persistants, nécessitant une coordination continue à l’échelle globale.
Une régulation mondiale de l’IA à plusieurs vitesses
Commençons par le vieux continent : après près de six ans de travail, la Commission européenne a récemment finalisé l’IA ACT, visant à réguler l’intelligence artificielle. Bien que cet encadrement juridique introduise des principes de responsabilité humaine, d’explicabilité et de transparence, il laisse encore des zones d’ombre, notamment dans la classification des risques associés aux différentes catégories d’IA (IA Interdites, IA à hauts risques, IA à usage générale, IA “non à risque”).
Aux Etats-Unis, l’“U.S. Executive Order on AI” proposé par l’administration Biden en fin d’année dernière promeut le développement et l’utilisation éthiques, sûrs et fiables de l’IA au travers de quelques lignes directrices qui semblent cette fois peu contraignantes. Comme souvent chez l’Oncle Sam, il ne faut pas que les droits civils et les libertés d’entreprendre et d’innover soient contraintes de façon trop brutale…
Même si ce texte appelle à une législation transversale sur l’IA et la protection des données, ce sont surtout les applications au niveau des États qui donneront le tempo et la trajectoire. Certains États commencent déjà à préciser des règles applicables localement : la Floride par exemple, qui souhaiterait renforcer la transparence du contenu de type politique généré par l’IA, ou encore la Californie qui propose des règles autour des ” systèmes d’automatisation”. Pour autant, les choses avancent quand même avec la création de “l’AI Safety Institute Consortium”, une structure qui aura pour mission officielle de définir des limites pour “l’utilisation et le développement de l’IA”…Et, probablement, comme but caché de garantir que les États-Unis soient toujours en tête de l’innovation en matière d’IA.
Au nord du continent Américain, le Canada a annoncé en fin 2023 la mise en œuvre d’un “Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés”. Cela doit permettre de vérifier que les entreprises qui développent et utilisent ces technologies le fassent de façon sécurisée et non discriminatoire. En somme, un début d’éthique volontariste
Et puis il y a la Chine, qui investit dans l’IA depuis de très nombreuses années. Facile quand on maitrise la donnée (y compris biométrique) de plusieurs milliards de personnes dans son pays et probablement quelques millions supplémentaires en dehors de ses frontières ! Mais tout aussi surprenant que cela puisse paraître, des efforts sont faits en Chine pour décrire un cadre éthique à l’utilisation de l’IA, avec notamment des règles et recommandations algorithmiques afin d’éviter toute discrimination basée sur l’âge, le sexe ou l’origine des personnes.
Le but pour le gouvernement Chinois est de faire en sorte que le contenu généré ne contienne pas d’“informations fausses et nuisibles” et soit surtout en phase avec la ligne directrice politique sans entraver le développement et les investissements, et ainsi rester dans la course avec les Etats-Unis.
Sur le plan mondial, des organisations comme l’UNESCO ont établi des recommandations sur l’éthique de l’IA, qui influencent progressivement les politiques nationales.
Les GAFAM et acteurs de la GenIA à la recherche de l’authenticité
Pour terminer ce tour d’horizon, citons les intentions vertueuses des acteurs de l’IA génératives et des GAFAM qui affichent, chacun leur tour, une volonté de mettre en place des mécanismes d’identification des contenus générés par l’IA : Synthid chez Google pour l’intégration d’un filigrane et de métadonnées identifiant les images générées par IA au sein de son écosystème pour “promouvoir une information digne de confiance”.
Chez Meta, la lutte contre la désinformation prend forme en ajoutant, grâce à un modèle de Deep Learning, des filigranes invisibles comme l’a annoncé Nick Clegg, le responsable des affaires internationales de Meta. On retrouve également des initiatives similaires chez OpenAI, Midjourney et d’autres pour donner la possibilité de retracer l’origine des contenus.
Et enfin, Microsoft, Adobe qui ont fondé la “Coalition pour la provenance et l’authenticité des contenus” (C2PA).Autant d’initiatives qui, même si elles ne sont pas directement liées à l’éthique, permettront de tracer et d’identifier du contenu généré par l’IA et espérons-le, l’authenticité des contenus en ligne.
Réguler… mais aussi éduquer : l’autre enjeu majeur derrière le développement de l’IA
Dans le domaine en rapide évolution de l’intelligence artificielle, l’éthique ne se résume pas simplement à établir des normes morales ; elle doit avant tout garantir que l’application de ces technologies n’enfreint pas les droits fondamentaux de l’humanité, tels que la dignité, la vie privée et la liberté d’expression. Une IA éthique se doit d’éviter la tromperie, la discrimination, et nécessite des algorithmes transparents et explicables, tout en responsabilisant ses concepteurs et utilisateurs. Bien que les initiatives comme les filigranes numériques soient prometteuses pour identifier les contenus manipulés, elles ne stoppent pas leur propagation, ni la diffusion de fausses informations issues de modèles non régulés. À une époque où l’évolution technologique précède souvent la législation, il est crucial non seulement de collaborer à l’élaboration d’un cadre éthique global mais aussi de renforcer l’éducation. Il est essentiel d’apprendre à nos enfants, et de réapprendre nous-mêmes, à analyser et à évaluer de manière critique les informations avant de les accepter comme fiables. L’urgence de comprendre et d’utiliser l’IA générative de manière responsable n’a jamais été aussi critique, particulièrement à l’approche d’échéances électorales majeures susceptibles d’être influencées par la désinformation…
Ne perdons plus de temps à vouloir trop détailler des textes de lois qui seront toujours en retard sur la technologie… Mais expliquons, formons, éduquons !
D’après JDN.net