27225421738901b27e7c7o 2

Interview du Président de la République, Emmanuel Macron, pour Wired sur l'intelligence artificielle en version française

Écouter
Rubrique : Numérique

Emmanuel Macron évoque pour WIRED la stratégie de la France en matière d’intelligence artificielle

 

Retrouvez la version originale de l'interview ici

 

Jeudi dernier, le président français Emmanuel Macron a exposé dans un discours la nouvelle stratégie de son pays en matière d’intelligence artificielle. Afin de soutenir la recherche dans ce domaine, d’encourager les start-ups et de recueillir des données qui pourront être utilisées et mises en commun par les ingénieurs, le gouvernement français investira 1,5 milliard d’euros sur cinq ans, l’objectif étant de rattraper le retard de la France sur les États-Unis et la Chine et de faire en sorte que les meilleurs spécialistes de l’intelligence artificielle – hello Yann LeCun - choisissent Paris de préférence à Palo Alto.

Juste après ce discours, M. Macron a accordé en exclusivité à notre rédacteur en chef Nicholas Thompson une interview détaillée, entièrement en anglais, sur ce sujet et sur les raisons qui l’ont amené à le prendre à cœur.

Nicholas Thompson : Avant toute chose, merci de m’avoir permis de m’entretenir avec vous. Cela fait du bien de voir un responsable politique national aborder un tel sujet d’une manière aussi dense et complexe. Pour commencer, je vous poserai une question simple. Vous-même et les membres de votre équipe avez rencontré des centaines de personnes pour préparer cette intervention. Quel est le domaine d’application de l’intelligence artificielle qui vous a le plus frappé et amené à penser qu’elle allait prendre une très grande importance ?

Emmanuel Macron : Probablement la santé, avec ses possibilités personnalisées de médecine préventive et de traitement. J’ai eu plusieurs occasions de voir des innovations qui permettent, en améliorant les moyens d’analyse, de prédire les maladies que l’on risque d’avoir à l’avenir et de les prévenir ou de mieux traiter les patients. Il y a quelques années, je me suis rendu au CES. J’ai été très impressionné par certaines des sociétés présentes. J’étais accompagné par plusieurs entreprises françaises mais j’ai aussi pu découvrir des entreprises américaines, israéliennes et autres actives dans le même domaine. L’innovation apportée aux systèmes de santé par l’intelligence artificielle est de nature à changer totalement les choses grâce à des moyens nouveaux de traiter les patients, de prévenir diverses maladies et, non pas de remplacer les médecins, mais de réduire les risques potentiels. Le deuxième domaine est sans doute celui de la mobilité : certaines sociétés françaises et un grand nombre de sociétés américaines sont actives dans ce secteur. Je suis très impressionné par la conduite autonome. Je pense que ce sont ces deux secteurs, la santé et la mobilité, qui m’ont vraiment frappé par leurs possibilités d’avenir. Quand on voit ce que font ces entreprises, il est impossible de ne pas se dire que quelque chose est en train de changer radicalement et que ce que l’on pensait réservé à la décennie à venir est en fait une réalité d’aujourd’hui. Nous sommes en présence d’une accélération gigantesque.

NT : Il semble que votre action soit due en partie au fait qu’il est manifestement dans l’intérêt national de la France d’être forte dans le domaine de l’intelligence artificielle. Cela dit, il est aussi apparu dans votre discours que vous estimez qu’il existe des valeurs françaises ou européennes qui peuvent contribuer à définir l’évolution de ce domaine. Est-ce exact et quelles sont ces valeurs ?

EM : Je pense que l’intelligence artificielle va bouleverser tous les modèles économiques existants, que c’est la prochaine grande mutation qui nous attend. C’est pourquoi je veux y participer ; sinon, je ne ferai que subir cette mutation sans créer d’emplois dans ce pays. Nous en sommes à ce stade-là, face à une accélération gigantesque, et, comme toujours, c’est le gagnant qui rafle tout. C’est pourquoi mon premier objectif, en termes d’éducation, de formation, de recherche et de création de start-ups, consiste à rationaliser un certain nombre de choses, à disposer des systèmes, des financements et de la réglementation appropriés pour nous doter de champions dans notre pays et pour y attirer les champions existants.

En même temps, vous avez raison : l’intelligence artificielle va soulever toute une série de questions d’ordre éthique et politique, remettre en cause notre démocratie et nos préférences collectives. Si l’on prend la santé, par exemple, on peut transformer totalement les soins de santé, en accroître les capacités de prévention et les rendre plus personnalisés, si l’on dispose d’un grand nombre de données. En France, nous allons ouvrir l’accès à nos données, j’en ai pris la décision et je l’ai annoncée cet après-midi. Mais si l’on se met à traiter des questions qui relèvent de la vie privée, si l’on se met à ouvrir l’accès à ces données et à divulguer des informations personnelles, on ouvre une boîte de Pandore et il risque d’y avoir certaines utilisations qui n’iront pas dans le sens du bien commun et de l’amélioration des traitements. Cela crée, en particulier, la possibilité pour les acteurs de vous sélectionner. C’est un modèle économique qui peut être très avantageux car ces données pourront être utilisées pour mieux traiter les personnes, pour suivre les patients, mais elles pourront aussi être vendues à un assureur qui disposera de renseignements sur vous et sur vos risques médicaux et qui pourra en tirer beaucoup d’argent. Si l’on commence à faire des affaires à partir de ces données, une chance immense devient un risque immense. Cela pourrait totalement mettre à mal notre cohésion nationale et notre vivre-ensemble, ce qui m’amène à conclure que cette gigantesque révolution technologique est en fait une révolution politique.

Si l’on considère l’intelligence artificielle aujourd’hui, les deux leaders sont les États-Unis et la Chine. Aux États-Unis, c’est entièrement le fait du secteur privé, de grosses sociétés et de quelque start-ups travaillant avec eux. Tous les choix qu’ils vont faire sont des choix privés qui portent sur des valeurs collectives. C’est exactement le problème que l’on a avec Facebook et Cambridge Analytica, ou encore avec la conduite autonome. De l’autre côté, en Chine, les acteurs recueillent un grand nombre de données qui relèvent d’un gouvernement dont les principes et les valeurs ne sont pas les nôtres. Or, l’Europe n’a pas exactement les mêmes préférences collectives que les États-Unis ou la Chine. Si nous voulons défendre notre manière d’aborder les questions de vie privée, la préférence que nous accordons tous, face au progrès technologique, aux libertés individuelles, à l’intégrité de l’être humain et de l’ADN humain, si nous voulons maîtriser notre propre choix de société, notre choix de civilisation, nous devons être partie prenante de cette révolution de l’intelligence artificielle : c’est la condition pour avoir son mot à dire dans la conception de l’intelligence artificielle et la définition des règles qui la régissent. C’est là une des principales raisons qui expliquent pourquoi je veux participer à cette révolution et même en être un des chefs de file. Je veux orienter le débat au niveau mondial. Le facteur essentiel doit être non seulement le progrès technologique mais aussi le progrès humain. C’est un sujet immense. Je crois effectivement que c’est en Europe que nous pouvons affirmer ces préférences collectives en les reliant à des valeurs universelles. Je veux dire que c’est en Europe que s’est formé l’ADN de la démocratie, et je pense donc que l’Europe doit faire face à ce qui risque de devenir un grand défi pour les démocraties.

NT : À vos yeux, les enjeux ne portent donc pas uniquement sur la croissance économique en France mais sur tout le système de valeurs qui sera englobé dans cette mutation technologique au niveau mondial. Vous voulez faire en sorte que les valeurs de votre pays, de votre continent, y soient associées ?

EM : C’est tout à fait cela. Je veux donner directement un avantage à mon pays dans le domaine de l’intelligence artificielle. C’est pourquoi nous voyons Facebook, Google, Samsung, IBM, DeepMind ou Fujitsu annoncer qu’ils font le choix de Paris pour y implanter des laboratoires et des centres de recherche sur l’intelligence artificielle : c’est très important pour moi. En deuxième lieu, je veux que mon pays soit partie prenante de la révolution que l’intelligence artificielle va susciter dans les domaines de la mobilité, de l’énergie, de la défense, de la finance, de la santé et ainsi de suite, car cela va également créer de la valeur. Troisièmement, je veux que l’intelligence artificielle soit totalement mutualisée. Pourquoi ? Parce que c’est un facteur de mutation et qu’il s’agit d’en traiter les effets. Ce type de mutation peut, par exemple, détruire de nombreux emplois dans certains secteurs, d’où la nécessité de reconversion de certaines personnes. Mais elle peut aussi être l’une des solutions qui permettront de mieux former ces personnes et de les aider à trouver de nouveaux emplois, ce qui est bon pour mon pays et très important.

Je veux que la France soit le pays où l’on mettra en place cette nouvelle vision de l’intelligence artificielle sur une base interdisciplinaire, ce qui implique d’associer les mathématiques, les sciences sociales, la technologie et la philosophie. C’est absolument essentiel car parvenu à un certain stade, si ces innovations n’ont pas été encadrées dès le début, un scénario catastrophe nous forcera à traiter ce problème après coup. Je pense qu’aux États-Unis le débat sur la vie privée a été occulté depuis longtemps. À présent, nous le voyons faire surface à cause de l’affaire Facebook. La question de la sécurité a elle aussi été occultée en matière de conduite autonome : aujourd’hui, on la voit surgir avec Uber. Donc, si l’on ne veut pas entraver l’innovation, il vaut mieux l’encadrer volontairement dans des limites éthiques et philosophiques. Je pense que nous sommes très bien placés pour le faire, tout en développant ces activités dans mon pays.

Mais je pense tout autant que l’intelligence artificielle risque de porter totalement atteinte à la démocratie. Nous l’utilisons, par exemple, pour organiser l’accès de nos étudiants à l’université, ce qui impose une lourde responsabilité à un algorithme. Beaucoup y voient une sorte de boîte noire sans comprendre comment s’opère le processus de sélection des étudiants. À partir du moment où ils comprennent qu’il repose sur un algorithme, celui-ci a une responsabilité particulière. Si l’on veut structurer le débat, on doit établir les conditions qui font que cet algorithme est équitable et pleinement transparent. Je dois, pour mes concitoyens, être sûr qu’il est impartial. Je dois pouvoir dire aux Français que, oui, j’ai encouragé cette innovation parce qu’elle leur donnera accès à de nouveaux services et améliorera leur vie, que c’est pour eux une bonne innovation. Je dois garantir qu’il n’y a aucun parti pris en termes de genre, d’âge ou d’autres caractéristiques individuelles, à part ce qui a été décidé ouvertement en ce qui les concerne. C’est un problème immense auquel on doit répondre. Si on ne le traite pas d’entrée de jeu, si on ne considère pas que c’est aussi important que de développer l’innovation, on passera à côté de l’enjeu et il viendra un moment où tout sera bloqué parce qu’en définitive cette innovation sera rejetée par le public.

NT : Les mesures que vous prenez pour garantir que tous les algorithmes mis au point par les autorités françaises soient ouverts devront-elles aussi s’appliquer à ceux des sociétés subventionnées par le gouvernement français ?

EM : Oui.

NT : Y a-t-il d’autres mesures qui permettront de garantir cette transparence ?

EM : Nous accentuerons la pression collective pour rendre ces algorithmes transparents. Nous ouvrirons les données émanant des pouvoirs publics et des programmes qui bénéficient de financements publics, nous ouvrirons l’accès à ces programmes et nous inciterons les acteurs privés à les rendre totalement publics et transparents. De toute évidence, certains d’entre eux diront que leur algorithme représente une valeur commerciale et qu’ils ne veulent pas le rendre transparent mais je pense que nous devons avoir un débat franc entre les prestataires de services et les consommateurs, qui sont aussi des citoyens et qui diront qu’ils veulent mieux comprendre tel ou tel algorithme pour s’assurer qu’il est digne de confiance. Le pouvoir de la société de consommation est si fort que les gens sont amenés à accepter de communiquer de nombreuses informations personnelles pour avoir accès à des services qui reposent en grande partie sur l’intelligence artificielle, sur leurs applications, leurs ordinateurs portables et ainsi de suite. Mais à un certain moment, en tant que citoyens, ils diront « Je veux être sûr que toutes ces données personnelles ne sont pas utilisées contre moi mais de manière éthique et que tout est supervisé, je veux comprendre ce qu’il y a derrière cet algorithme qui joue un rôle dans ma vie ». Je suis sûr qu’à l’avenir, nous verrons apparaître un grand nombre de start-ups, de laboratoires ou d’initiatives qui diront à leur clientèle : « Nous vous donnons la possibilité de mieux comprendre l’algorithme que nous utilisons et son caractère impartial ou non ». Je suis persuadé que c’est une des tendances à venir dans le domaine de l’intelligence artificielle et je pense que cela accentuera la pression sur les acteurs privés. Ces nouvelles applications ou ces nouveaux sites seront en mesure de dire au public : « C’est bon, vous pouvez choisir cette entreprise ou aller sur cette application car nous avons tout vérifié pour vous, c’est sans danger », ou au contraire : « Si vous allez sur ce site, cette application ou ce modèle de recherche, cela pose un problème : je n’ai pas de garantie car je n’ai pas pu vérifier les informations nécessaires sur l’algorithme ou y avoir accès ».

NT: Lorsque vous parlez de la façon dont l’IA va transformer la démocratie, est-ce que vous imaginez qu’un jour vous prendrez des décisions sur la base de recommandations issues d’algorithmes d’IA, qu’il y aura un système qui vous dira quel type de réforme du travail est nécessaire et que vous direz « OK ? ».

EM: Sur ce point, je pense que l’IA peut aider. Mais elle ne remplacera jamais la façon de décider. Quand on prend une décision, c’est le résultat d’une série de contrôles croisés. L’IA peut parfois être utile car lorsqu’on lance une réforme, on n’a pas toute la clarté sur ses effets potentiels, directs ou indirects, et l’on peut avoir des hésitations. Cela peut donc aider à prendre la bonne décision. L’algorithme est pertinent pour cette partie de l’équation. Par exemple, sur les réformes économiques et sociales, cela permet d’avoir une vision plus claire des effets directs et indirects mesurables. Mais en plus de cela, quand on prend une décision politique, il faut qu’il y ait une part de jugement personnel. C’est là que se situe la qualité du décideur et l’intelligence artificielle ne la remplacera jamais. Et il y a une chose que l’IA ne pourra jamais remplacer : à savoir l’obligation de rendre compte et la responsabilité. Parce que c’est sa décision et qu’il en sera tenu responsable, un dirigeant politique ne pourra jamais dire, « OK, je suis désolé, cette décision était mauvaise parce que c’est un algorithme qui l’a prise. »

NT: Revenons un bref instant sur les ruptures. Vous avez beaucoup évoqué les transports, vous en avez parlé dans votre discours. L’IA va créer des bouleversements majeurs dans le secteur des transports et beaucoup de gens vont perdre leur emploi quand on va passer à la voiture sans conducteur. Cela va créer de nouveaux emplois mais c’est un domaine où les Français protestent déjà. Il y a eu une grève des cheminots ce weekend, il y a eu des grèves de camionneurs à l’automne dernier. Ne prenez-vous pas des risques énormes en vous alignant sur une dynamique qui va perturber un secteur qui proteste déjà de façon véhémente?

EM : Ecoutez, je pense qu’il existe dans ce pays – et dans bon nombre de pays – une tradition du débat. J’ai lancé une série de réformes que bien des gens croyaient impossibles en France. Par conséquent, je suis absolument sûr que c’est possible si on explique aux gens, si on a l’énergie et la détermination de faire adopter ces réformes. Je n’hésiterai certainement pas à le faire et je ne me sens certainement pas, je dirais, perturbé ou menacé, en abordant la question de l’intelligence artificielle et en persuadant mes compatriotes de la pertinence de sa mise en œuvre. En tant que consommateurs, ce sont déjà de grands amateurs de l’intelligence artificielle. Et de grands amateurs de solutions innovantes. Tous les spécialistes des technologies pourront vous dire que le marché français est un excellent marché. Les gens raffolent de technologie dans ce pays. C’est pour cela, je crois, que la philosophie générale à laquelle je reste attaché depuis le tout début de mon mandat consiste à dire : freiner les changements et se focaliser sur la protection des emplois n’est pas la bonne solution. Ce sont les gens qu’il faut protéger. A cette fin, il faut leur offrir des perspectives et les former et les recycler afin qu’ils obtiennent de nouveaux emplois. Ne pas freiner le changement car il est en marche et les gens vont l’accepter. Mais essayer d’être à l’avant-garde de ce changement afin de mieux le comprendre et y faire face. Le changement peut détruire des emplois à très court terme, mais en créer parallèlement de nouveaux dans d’autres secteurs.

A mon sens, l’un des principaux enjeux de l’intelligence artificielle est qu’elle réduira probablement les activités humaines les plus répétitives et astreignantes. Et bien sûr, toute une série de nouvelles opportunités se présenteront pour les personnes peu, moyennement, ou hautement qualifiées. Le gros risque pour notre société est d’augmenter uniquement les débouchés pour les personnes très qualifiées et, d’une certaine manière, pour les travailleurs très peu qualifiés. Il faut particulièrement surveiller la qualification de la catégorie moyenne car c’est elle qui risque d’être la plus perturbée. Si je prends vos exemples, cela comprendrait les chauffeurs de taxi, les travailleurs de l’industrie, ou ceux qui effectuent des tâches très répétitives. Il faut donc les former afin qu’ils changent de secteur d’activité ou qu’ils améliorent leurs qualifications pour pouvoir travailler avec une machine. Nous aurons besoin de gens qui travaillent avec des machines.

En effet, je ne crois pas qu’il existera des véhicules autonomes sans aucun conducteur. Selon moi, c’est un pur fantasme. Il existe déjà des programmes entièrement automatisés pour conduire les avions. Par conséquent, techniquement, nous pourrions avoir des avions sans pilotes. Mais il y a toujours deux pilotes dans chaque avion, même si presque tout est automatisé. C’est précisément parce qu’il faut quelqu’un qui assume la responsabilité. Par conséquent, ce que nous limiterons avec les voitures autonomes, c’est le nombre de risques. Ce que l’on limitera, c’est la pénibilité de devoir conduire aussi longtemps, mais il faudra des gens pour effectuer les choix cruciaux aux moments cruciaux pour les véhicules autonomes. J’en suis pratiquement convaincu. L’intelligence artificielle va donc modifier la pratique, mais dans la plupart des cas, elle ne détruira pas les emplois dans les transports.

Pour l’essentiel, je voudrais dire ceci : je réussirai à convaincre mon pays à propos du changement justement parce que je l’accueille. Mon rôle n’est pas de freiner ce changement, mais d’être en mesure de former ou de recycler les gens afin qu’ils bénéficient d’opportunités dans ce monde nouveau.

NT : Je comprends. Je voudrais vous poser une question portant sur le domaine militaire. Je sais que les Nations Unies ont mené des débats sur les restrictions concernant les armes autonomes létales. Pensez-vous que l’on pourra un jour se fier à des machines – des machines dotées d’intelligence artificielle – pour prendre la décision de tuer, sans intervention humaine ?

EM : J’y suis catégoriquement opposé. Car je pense qu’il faut toujours une responsabilité et une reconnaissance de responsabilité. Techniquement parlant, dans certains cas, il sera possible d’avoir une certaine automatisation, mais l’automatisation, ou la possibilité donnée à des machines de prendre cette décision, aboliraient toute responsabilité, ce qui constitue pour moi un problème crucial. Par conséquent, c’est absolument impossible. C’est pourquoi il faut toujours un contrôle humain. Et à certains égards, un dernier ressort humain. A un moment, la machine peut tout préparer, réduire les incertitudes jusqu’à les éliminer, et c’est une amélioration impossible sans elle, mais à un moment donné, la décision de donner le feu vert doit être prise par un être humain parce qu’il faut quelqu’un qui en prenne la responsabilité.

NT : Permettez-moi de vous poser une question sur la concurrence internationale en matière d’intelligence artificielle. Elon Musk a tweeté il y quelques mois : « Selon moi, la concurrence internationale pour la supériorité en matière d’intelligence artificielle sera presque certainement la cause d’une 3ème guerre mondiale. » Pensez-vous que Musk exagère ? Ou pensez-vous qu’elle va s’intensifier, en particulier entre les Etats-Unis et la Chine ?

EM : Je pense qu’elle va s’intensifier. Je ne serai pas si pessimiste car à mon avis, le fondement essentiel de l’intelligence artificielle est la recherche. Et la recherche est mondiale. Et selon moi, cette intelligence artificielle est liée en permanence à la coopération et la compétition. Par conséquent, il faut un monde ouvert et une coopération de grande ampleur si l’on veut être compétitif. Et à un moment donné, dans certains domaines, il faut de la concurrence. Mais je pense qu’il faudra repenser une forme de souveraineté. Je l’ai évoquée dans mon discours aujourd’hui. L’intelligence artificielle est un programme d’innovation mondial où l’on trouve de grands acteurs privés et un gouvernement disposant d’une foule de données – la Chine. Mon objectif est de récréer une souveraineté européenne en matière d’intelligence artificielle, comme je vous l’ai dit au début de cette discussion, notamment à propos de la réglementation. Il y aura des luttes de souveraineté à réglementer, certains pays tentant de défendre leurs choix collectifs. Il y aura une bataille en matière de commerce et d’innovation, exactement comme il en existe dans divers secteurs. Mais je ne crois pas que l’on en viendra aux extrêmes évoqués par Elon Musk, car je suis d’avis que si l’on veut progresser, un modèle d’innovation ouvert présente un énorme avantage.

NT : Mais alors, permettez-moi d’être un peu cynique et de vous poser la question suivante : si la France commence à se constituer un véritable secteur de l’intelligence artificielle, dans une certaine mesure elle entre en concurrence avec Google et Facebook. Cela ne va-t-il pas inciter l’Europe et la France à imposer une réglementation de plus en plus stricte à ces entreprises ? Et cela ne risque-t-il pas de créer une dynamique étrange poussant les pays à mettre en place une réglementation plus importante ainsi que des mesures anticoncurrentielles ?

EM : Écoutez, je dirais que c’est exactement le contraire. Aujourd’hui, Google, Facebook et les autres sont les bienvenus dans le secteur de l’intelligence artificielle. La plupart des gens en pensent du bien, ces entreprises investissent en France, y développent des emplois et recrutent bon nombre de nos talents. Elles font partie de notre écosystème. La difficulté, pour ces énormes acteurs, réside dans les différents problèmes qu’ils devront affronter. Le premier se pose très souvent dans une situation de monopole : ce sont des acteurs colossaux et un jour (mais cela sera, selon moi, un problème américain et non européen) il est possible que votre gouvernement, la population, se disent « Attention. Ils sont trop gros. ». Et non seulement trop gros pour faire faillite (« too big to fail »), mais aussi trop gros pour être régulés. C’est entièrement nouveau. Si ce jour arrive, ils risqueront d’être démantelés. C’est d’ailleurs ce qui est arrivé aux géants pétroliers lorsque ce secteur n’en était qu’à ses premiers jours. Question de concurrence.

Le deuxième problème est territorial, en raison de la nature entièrement numérique de ces acteurs. Ils bouleversent les secteurs traditionnels de l’économie, ce qui peut être positif, d’une certaine manière, car ils sont également capables de fournir de nouvelles solutions. Mais notre population devra se reconvertir, et ce ne sont pas ces entreprises qui en supporteront les coûts. Ce seront les États. À l’heure actuelle, les GAFA [Google, Apple, Facebook, Amazon] ne paient pas autant d’impôts qu’ils devraient le faire en Europe. Ils ne remédient en aucune façon aux externalités négatives qu’ils produisent. Et ce sont les secteurs perturbés qui en font les frais, parce qu’eux, les secteurs traditionnels, paient la TVA, l’impôt sur les sociétés et bien d’autres impôts. Cela ne peut pas durer.

Troisièmement, la population devrait rester souveraine en ce qui concerne les règles de protection de la vie privée. La France et l’Europe ont leurs préférences à cet égard : je veux protéger la vie privée des gens comme ceci ou comme cela. Les règles ne sont pas les mêmes aux États-Unis. Et puisque nous en parlons, comment puis-je garantir aux Français que les acteurs économiques américains vont respecter notre réglementation ? Viendra un moment où ils devront créer de vraies entités juridiques et les enregistrer en Europe, en étant soumis à ces règles. Ils auront donc besoin de disposer d’une organisation bien plus européenne ou nationale pour traiter l’information, s’organiser et bien d’autres choses, et ils devront à leur tour se réinventer afin d’exister dans un monde beaucoup plus fragmenté. En effet, la responsabilité et la démocratie sont mises en place à l’échelle nationale ou régionale, pas mondiale. Si je ne m’engage pas dans cette voie, je ne peux pas protéger les citoyens français et garantir leurs droits. Si je ne le fais pas, je ne peux pas assurer un traitement équitable pour les entreprises françaises. Parce qu’aujourd’hui, lorsque je parle des GAFA, je les accueille à bras ouverts et je veux qu’ils soient intégrés dans mon écosystème, mais ils ne jouent pas sur un pied d’égalité avec les autres acteurs de l’économie numérique ou traditionnelle. Et il m’est impossible, à long terme, de garantir à mes concitoyens que leurs préférences collectives ou que mes règles seront totalement mises en œuvre par ces acteurs, car aux États-Unis vous n’avez pas la même réglementation que nous. Voilà tout ce que je sais : si, à un moment, je n’ai pas cette discussion et je ne les régule pas, je me mets dans une situation dans laquelle je suis privé de ma souveraineté.

NT : Mais ces deux objectifs ne sont-ils pas contradictoires ? Vous voulez attirer les GAFA en France, vous ne l’avez pas caché (Google investit dans l’intelligence artificielle [en France] depuis 2012) mais vous êtes aussi très désireux de sévir à leur encontre. Comment peut-on faire les deux en même temps ?

EM : Écoutez, tout d’abord je pense qu’il ne s’agit pas juste des GAFA. Beaucoup d’autres acteurs évoluent dans ce domaine, notamment des start-ups. Eux aussi sont concernés, il me semble, je veux dire qu’ils découvrent qu’il leur faudra composer avec des questions de démocratie et de politique dans votre pays.

NT : Ils commencent tout juste à l’apprendre !

EM : Oui, oui ! Enfin, c’est juste. La toute première phase de leur existence touche à sa fin ; c’était une espèce de « phase-test » sans aucune réglementation, pendant laquelle ils étaient en position de fixer toutes les règles. À présent, ils vont devoir faire avec les gouvernements, mais je veux que cela se passe de façon collaborative. Je ne veux pas dire « Je ne veux plus d’Untel », mais tout le contraire. Je veux un dialogue permanent. Toutefois, je veux qu’ils comprennent et qu’ils respectent mes limites. Je veux qu’ils participent à ma réflexion et je veux aussi tenir compte de la leur. Je veux qu’ils réalisent qu’il n’est pas tenable de vivre dans un monde d’où la responsabilité est absente et où nul ne rend des comptes de façon démocratique.

NT : Compris. J’en reviens donc à la grande question : comment vous représentez-vous le succès [de votre plan] ? Comment saurez-vous que cela a marché ? Et comment définiriez-vous l’échec ? Si vous vous projetez dans les années à venir, par exemple.

EM : Tout d’abord, il m’est très difficile de répondre à cette question parce que par définition, je ne sais pas précisément ce qui va se produire en matière d’intelligence artificielle dans les cinq prochaines années. Mais je dirais que si je parviens à mettre en place un écosystème robuste et puissant, numéro un en Europe, en matière d’intelligence artificielle, qui touche à la fois la mobilité, la défense, la santé, la technologie financière, etc., ce sera un succès. Et pour moi, si une majorité de Français comprennent et approuvent ce changement, je considérerais que c’est une réussite. L’échec, en revanche, consisterait en laisser nos craintes et nos angoisses nous empêcher d’avancer. Ce qui m’inquiète, c’est la déconnexion entre la rapidité de l’innovation et de certaines pratiques, et le temps d’assimilation nécessaire pour de nombreuses personnes dans nos démocraties. Je dois instaurer une sorte de confiance réciproque ou mutuelle entre les chercheurs, les acteurs privés et les start-ups et mes concitoyens. Si la première catégorie croit en mon pays et estime qu’il constitue un écosystème adapté, et si, en parallèle, j’arrive à donner confiance à mes concitoyens dans l’intelligence artificielle, je gagne. Si j’échoue à gagner la confiance des uns ou des autres, je perds.

 

Rechercher dans les actualités

Une liste des raccourcis clavier pour le calendrier est disponible dans la page accessibilité. Lors de la validation d'une date ou de la sortie du champ, l'agenda sera automatiquement mis à jour. Entre et

Dernières actualités