Le développement rapide de l’IA est une source de transformations profondes qui génèrent de nombreuses opportunités positives mais également des risques considérables pour la continuité de nos modèles sociaux et économiques, quoique difficilement mesurables et anticipables dans leur globalité. Un traitement résolument ambitieux, à l’échelle internationale, des questions liées à la confiance en l’IA, incluant les sujets de sécurité et de sûreté, est par conséquent indispensable pour favoriser l’adoption de modèles « d’IA de confiance ».

Dans la lignée des sommets organisés par le Royaume-Uni en novembre 2023 puis par la Corée du Sud en mai 2024, le Sommet pour l’Action sur l’IA aura pour but de présenter de manière globale, ouverte et positive la détermination de la communauté internationale à développer la confiance dans l’IA et à la mettre au service du bien commun. 

Plusieurs axes de travail se dégagent mais nécessitent encore d’être précisés et enrichis par les nombreuses parties prenantes au niveau international dont toutes les contributions sont les bienvenues. Cette approche repose sur trois piliers : la science, les solutions et les standards. En s'appuyant sur un consensus scientifique international robuste en matière d'IA, il est temps de développer des solutions techniques ouvertes et accessibles à tous et de créer des normes internationales communes reconnues par tous afin d'éviter la fragmentation et d’encourager la convergence à tous les niveaux. A ce titre, une bonne articulation avec les autres thématiques du sommet ainsi que les autres travaux en cours sera recherchée.

Les travaux s’appuient sur les initiatives déjà lancées, à l’image du rapport scientifique international sur la sécurité de l’IA avancée, et instruiront la question de leur pérennisation. 

Concernant les sujets d’inquiétude sur le mésusage de l’IA, plusieurs sont systématiquement cités ; ils nécessitent d’être objectivés autant que possible afin de permettre l’action : 

  1. La lutte contre la manipulation de l’information, notamment sur les réseaux sociaux. Le marquage des contenus générés par l’IA, l’identification des contenus authentiques, la détection des contenus artificiels sont autant de thèmes qui doivent être encouragés, financés et questionnés.
  2. L’impact de l’IA sur la cybersécurité, et inversement. L’IA représente une cible pour les attaquants en tant que système d’information mais également durant des phases particulières tel que l’apprentissage durant lequel l’empoisonnement d’une faible quantité de données peut faire diverger les modèles. L’IA constitue également une aide majeure pour démultiplier les capacités d’attaque ainsi qu’une évolution certaine dans le domaine défensif, notamment dans le cadre de la détection précoce de tentatives d’intrusion.
  3. L’identification et la maîtrise des risques élevés que pourraient engendrer un usage incontrôlé de l’IA s’inscrit directement dans la suite du premier sommet tenu à Bletchley Park (UK) en novembre 2023. L’objectivation des risques par une approche scientifique est indispensable, à l’image des démarches qui apparaissent dans plusieurs pays au travers d’instituts nationaux d’évaluation et de sécurité de l’IA.
  4. La définition de standards de mesure de ces risques applicables le plus objectivement possible à l’analyse de modèles et de systèmes d’IA doit être un objectif dont le sommet sera un jalon à l’échelle mondiale. D’intérêt général, ouverts par nature, de tels standards pourraient être un point de convergence international.

Par ailleurs, les grandes entreprises pionnières de l’IA se sont engagées à respecter des engagements volontaires. Le sommet leur permettra de faire un point d’étape sur les différentes initiatives, idéalement sur leur convergence, ainsi que sur l’opérationnalisation de ces engagements en pratique, le partage de méthodes et les résultats obtenus à ce jour.

Mis à jour le : 2 octobre 2024