Benjamin Larsen, responsable, Intelligence artificielle et apprentissage automatique, Forum économique mondial : “Un dialogue soutenu jette les bases d’une plus grande coopération et d’un éventuel renversement de la fragmentation numérique.” Face aux défis posés par les progrès rapides de l’IA et de la technologie, une série de problèmes et de solutions innovantes apparaissent au premier plan.
Le risque de concentration du marché et son impact potentiel sur les incitations à la sécurité nationale nécessitent un effort concerté pour renforcer les structures de gouvernance mondiale. Des initiatives comme Groupe consultatif de haut niveau des Nations Unies et la déclaration du Sommet britannique sur la sécurité de l’IA, auquel participent la Chine, les États-Unis, l’UE, le Rwanda et la Corée du Sud, illustrent les pas dans la bonne direction. Même si l’objectif à long terme consiste à œuvrer en faveur de régimes réglementaires harmonisés, il s’agit là d’efforts initiaux importants visant à un plus grand engagement des parties prenantes au niveau international.
L’intégration des technologies d’IA dans les conflits présente des risques d’escalade involontaire et d’autonomisation asymétrique des acteurs malveillants. Les cadres normatifs, tels que la Déclaration politique sur l’utilisation militaire responsable de l’IA et l’autonomie, lancée en 2023, visent à guider le développement et le déploiement responsables de l’IA militaire par les États. De plus, la collaboration sur IA et cyberguerre est considérée comme essentielle pour faire face efficacement à ces risques.
La politisation des chaînes d’approvisionnement de l’IA nécessite un retour à une diplomatie constructive et à une coopération multilatérale. Les récentes discussions entre le président américain Biden et le président chinois Xi, reconnaissant les risques associés aux systèmes avancés d’IA, témoignent d’une reconnaissance mondiale croissante de la nécessité d’une gestion responsable.
Même s’il ne constitue pas une solution immédiate à la concurrence géopolitique, un dialogue soutenu jette les bases d’une plus grande coopération et d’un éventuel renversement de la fragmentation numérique.
xxxx
Lutte contre les risques liés à l’IA :
Un pacte mondial voit le jour
Un accord ” inédit ” a été conclu sur la sécurité de l’intelligence artificielle (IA) lors d’un sommet mondial qui s’est tenu les 30 et 31 mai 2024 au Royaume-Uni, précisément à Bletchley Park, l’emblématique centre de décryptage des codes de la Seconde guerre mondiale. Sommet marqué par la visite de la vice-présidente américaine, Kamala Harris, accompagné de son mari, Douglas Emhoff.
Ce pacte ficèle l’accord obtenu sur ce qu’il est convenu d’appeler, désormais, La déclaration de Bletchley sur la sécurité de l’IA. Une déclaration signée par des représentants et des entreprises de 28 pays, dont les États-Unis, la Chine et l’Union européenne. Elle vise à lutter contre les risques liés aux modèles d’IA dits “pionniers”, c’est-à-dire les grands modèles de langage développés par des entreprises telles qu’OpenAI.
Même si nous attendons de voir comment cet accord sera mis en œuvre, le gouvernement britannique l’a qualifié de “première mondiale” entre les signataires. Cet accord vise à identifier les “risques de sécurité de l’IA d’intérêt commun” et à élaborer des “politiques respectives basées sur les risques dans les différents pays”.
La Secrétaire d’État britannique à la Science, à l’Innovation et à la Technologie, Michelle Donelan, affirme que l’accord est une “réalisation historique” et qu’il “jette les bases des discussions d’aujourd’hui”.
Jeter les bases, l’expression est lâchée, puisqu’il s’agit d’un accord à minima, comme le pensent les experts, pour lesquels, cet accord n’est pas allé loin. Mais cela augure déjà de l’ère d’un consensus mondial sur la lutte contre les effets néfastes de l’IA car, comme “science sans conscience n’est que ruine de l’âme” comme le disait Rabelais.
D’ailleurs, le gouvernement britannique s’inscrit dans cette logique d’amélioration des dispositions de lutte contre les effets néfastes de l’IA l’accord en annonçant déjà la tenue de futurs sommets sur la sécurité de l’IA.
De son côté, la Corée du Sud lancera un autre sommet “mini virtuel” sur l’IA dans les six prochains mois et la France accueillera le prochain sommet sur l’IA, l’année prochaine, précisément en 2025.