Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Avantages et inconvénients de l'intelligence artificielle

Le visage très réaliste de l'actroïde Repliee Q2 conçue en 2005 par Hiroshi Ishiguro de l'ATR Intelligent Robotics and Communication Laboratories (IRC Labs) de l'Université d'Osaka. Ce type de gynoïde est destiné au mannequinat.

Vers un usage éthique de l'IA (IV)

Malgré ces tendances à la robotisation et à vouloir tout contrôler et tout savoir sur tout le monde, a priori nous pouvons rester optimiste et avoir confiance en l'avenir si on en juge par les développements récents et les réflexions que se posent les gouvernements et les chercheurs, du moins dans les pays démocratiques.

Ainsi, depuis 1979 les chercheurs en robotique et en intelligence artificielle, notamment ceux de l'Association for the Advancement of Artificial Intelligence (AAAI) se réunissent périodiquement pour débattre des questions politiques, socioéconomiques, légales et éthiques touchant l'intelligence artificielle comme par exemple la perte éventuelle du contrôle humain sur les systèmes d'informations, l'expansion de l'intelligence artificielle et le danger de l'éventuelle Singularité Technologique - qui n'est qu'une hypothèse parmi d'autres - pour l'avenir de l'humanité (l'avenir de l'humanité tendrait vers un ordre supérieur où la société serait contrôlé par des IA superintelligentes). Les synthèses de leurs travaux sont publiées sur le site AITopics.

Les pays développant ou utilisant des IA ont bien conscience des avantages mais aussi des risques qu'elles représentent. Nous allons décrire l'évolution de cette prise de conscience non pas chronologiquement car le résumé serait confus mais en décrivant les actions entreprises dans les principaux pays concernés. Cela nous permettra ensuite de plus facilement décrire les enjeux politiques de l'IA.

En Corée

Le premier pays qui réglementa l'usage de l'IA fut la Corée du Sud. En 2007, un an après la présentation du gynoïde EveR-1, le gouvernement sud-coréen annonça qu'il émettrait un code d'éthique afin que les humains n'abusent pas des robots et vice versa. Cette charte s'appliquerait aux utilisateurs comme aux fabricants (cf. NGS).

Selon Park Hye-Young, du ministère de l'Information et de la Communication, la Charte reflète les trois lois d'Asimov et définit des règles de base pour le développement futur de la robotique et de l'Industrie 4.0, c'est-à-dire gérée par l'intelligence artificielle.

Aux Etats-Unis

Mais il existe peu d'efforts similaires aux États-Unis où le gouvernement fédéral agit tout à fait à l'opposé de l'Europe, concentrant ses intérêts sur une législation limitant la réglementation de l'IA afin de promouvoir son usage à des fins de sécurité nationale. Or, ces actions dites "légales" voire injustement couvertes par la Justice ou même par la "raison d'État" peuvent directement conduire à un scénario Orwellien sous l'oeil scrutateur de Big Brother (cf. les abus de la NSA avec son programme d'espionnage Echelon auquel le Parlement Européen s'est opposé et autres violations de la vie privée). En effet, si nous ne sommes pas prudents, ce qui n'est pas arrivé en 1984 pourrait arriver en 2024.

A l'inverse de l'Europe, le gouvernement fédéral américain est très intéressé par l'IA et a largement incité les entreprises à développer des systèmes d'IA à des fins de sécurité nationale et militaires. Cette orientation "patriotique" a parfois donné lieu à des controverses, des erreurs et à la violation de la vie privée.

Document Shutterstock.

Ainsi, en 2018 Google annula son Project Maven, un contrat avec le Pentagone qui aurait analysé automatiquement les vidéos prises par des avions militaires et des drones. En réponse à ses opposants, Google fit valoir que l'objectif était uniquement de signaler des objets pour examen humain, mais les critiques craignaient que la technologie ne soit utilisée pour cibler automatiquement les personnes et les lieux pour les frappes de drones. Des lanceurs d'alerte travaillant chez Google ont mis le projet en lumière, entraînant finalement une pression publique suffisamment forte pour que l'entreprise mette un terme à son projet.

Selon le webzine "Inside Defense", en 2020 le Pentagone dépensait 1.4 milliard de dollars par an en contrats relatifs aux systèmes d'IA et les applications militaires et de sécurité nationale d'apprentissage automatique en font partie étant donné l'enthousiasme de la Chine pour atteindre la suprématie en IA. En effet, aucun pays, pas même le leader mondial - les États-Unis - ne peut empêcher un État souverain de développer des technologies d'IA. La seule parade consiste donc à les développer soi-même pour pouvoir les comprendre et nous protéger.

Mais en parallèle, des efforts sont menés par les autorités américaines locales pour freiner l'usage de l'IA en raison des erreurs et abus portant préjudice à des personnes innocentes. Ainsi, une étude du National Institute of Standards and Technology publiée en 2019 révéla que les logiciels renvoyaient plus de fausses correspondances (faux positifs) pour les Noirs et les Asiatiques que pour les Blancs, ce qui signifie que la technologie est susceptible d'accentuer les disparités lors du screening des personnes de couleur pouvant entraîner des arrestations arbitraires (cf. ABCNews, 2020).

Etant donné ce risque, aux Etats-Unis plusieurs villes ou comtés (San Francisco en 2019 et le comté de King dans l'État de Washington en 2021) ont interdit l'utilisation par le gouvernement et donc par la police d'un logiciel de reconnaissance faciale. Depuis d'autres villes ont suivi.

Finalement, lors d'une réunion avec les dirigeants des principales entreprises d'IA générative qui s'est tenue en mai 2023, le président Biden rappela aux responsables de l'industrie leur responsabilité de "confronter les dangers de leur logiciel", soulignant l'importance de la régulation et de la responsabilité dans le développement de l'IA.

En octobre 2023, le président Biden signa un décret exécutif (EO) sur l'intelligence artificielle, intitulé "Safe, Secure, and Trustworthy Artificial Intelligence" (IA sûre, sécurisée et digne de confiance) visant à encadrer le développement de l'IA en garantissant que ses bénéfices soient maximisés tout en minimisant ses risques, affirmant que "Pour accomplir la promesse de l'intelligence artificielle et éviter les risques, nous devons réguler cette technologie."

Les déclarations de Biden contrastent avec celles de Trump concernant l'IA, ce dernier mettant l'accent sur l'investissement massif pour maintenir la compétitivité mondiale alors que Biden insiste sur la régulation pour garantir un développement éthique et sécurisé de la technologie.

Au Canada

Autre problématique, en 2020 la gendarmerie canadienne (GRC) utilisa la reconnaissance faciale de façon illégale et recueillit pendant plusieurs mois des renseignements personnels sur des salariés d'une société américaine (cf. Radio Canada).

Selon Daniel Therrien, le commissaire à la protection de la vie privée du Canada, "l'utilisation de la technologie de reconnaissance faciale par la GRC pour effectuer des recherches dans d'énormes dépôts de données de Canadiens qui sont innocents de tout soupçon de crime présente une grave violation de la vie privée."

Suite à ce scandale, le 6 juillet 2020 Therrien annonça que l'entreprise Clearview AI qui fournissait ce logiciel avait cessé d'offrir son service de reconnaissance faciale au Canada. Mais cela sous-entend aussi qu'elle continuera à le proposer aux pays où la législation est moins attentive à la protection de la vie privée, en particulier aux Etats-Unis !

Selon un communiqué de presse, au 25 mars 2022 Clearview AI possédait "une base de données rassemblant plus de 20 milliards de visages publiquement disponibles", autrement dit des portraits de personnes dont elle s'est débrouillée pour obtenir l'image sans leur consentement sous le motif qu'elles ont été publiées sur des sites "publics". Selon le magazine "TIME", Clearview AI compte par les "100 entreprises les plus influentes" et bien sûr l'entreprise s'en vente.

Face aux risques grandissants d'usages incontrôlés ou malveillants de l'IA, le 24 novembre 2021 l'UNESCO adopta une Recommandation sur l'Éthique de l'Intelligence Artificielle.

En Europe

A l'échelle européenne, en 2017 le Parlement Européen proposa à la Commission d'accorder une personnalité juridique aux robots (cf. §59 du rapport 2015/2103(INL)), ouvrant la voie à la déresponsabilité des constructeurs de robots en cas de défaillance de leurs systèmes ou de leurs machines...

Mais dès la publication de ce rapport, 156 experts se sont opposés à cette idée dans une lettre ouverte à la Commission européenne. Pour les rassurer, le Parlement Européen précisa que cela ne concernerait que les robots les plus sophistiqués. Vu l'emprise des lobbies à la solde des industriels dans les institutions européennes, on peut franchement douter de la réponse du P.E.

En 2021, la Commission européenne publia un projet de réglementation visant à fixer des limites sur la façon dont l'IA peut être utilisée. Selon la Commission, "La combinaison du tout premier cadre juridique sur l'IA et d'un nouveau plan coordonné avec les États membres garantira la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en renforçant l'adoption de l'IA, les investissements et l'innovation dans l'ensemble de l'UE. Cette approche sera complétée par de nouvelles règles concernant les machines, qui visent à accroître la confiance des utilisateurs dans la nouvelle génération polyvalente de produits en adaptant les dispositions relatives à la sécurité."

Pour éviter que l'usage abusif et les problèmes rencontrés avec les IA précités ne surviennent en Europe, en 2021 le Conseil de l'Europe - l'Organisation de défense des droits de l'homme forte de 46 États membres (depuis l'exclusion de la Russie en 2022) - proposa d'instaurer une réglementation stricte pour empêcher les violations des droits de l'homme. Le Conseil proposa de nouvelles lignes directrices sur la reconnaissance faciale aux gouvernements, aux décideurs et aux entreprises, parmi lesquelles "d'interdire l'utilisation de la reconnaissance faciale dans le seul but de déterminer la couleur de la peau, les croyances religieuses ou autres, le sexe, l'origine raciale ou ethnique, l'âge, l'état de santé ou le statut social d'une personne."

Selon Marija Pejčinović Burić, Secrétaire Générale du Conseil de l'Europe, "Si la reconnaissance faciale peut être pratique dans notre vie quotidienne, elle peut aussi menacer nos droits humains essentiels, notamment le respect de la vie privée, l'égalité de traitement et la non-discrimination, en donnant aux pouvoirs publics et autres la possibilité de surveiller et de contrôler des aspects importants de notre vie - souvent à notre insu ou sans notre consentement. Mais cela peut être arrêté. Ces lignes directrices garantissent la protection de la dignité personnelle, des droits de l'homme et des libertés fondamentales, y compris la sécurité des données à caractère personnel" (cf. COE).

Ce projet de réglementation se concrétisa par le Pacte sur l'IA.

Le Pacte sur l'IA de l'Union européenne

Le 8 décembre 2023, l'Union européenne (la Commission européenne, le Parlement Européen et les Etats membres) signa un accord sur une législation pour réglementer l'intelligence artificielle, le Pacte sur l'IA ou l'AI Act (cf. Europa et la Loi sur l'IA). Selon Ursula von der Leyen, présidente de la Commission européenne, "Le Pacte sur l'IA de l'UE est le premier cadre juridique complet pour l'intelligence artificielle au monde. C'est donc un moment historique." La loi fut adoptée le 13 mars 2024.

Avec ce pacte, l'Europe est en avance sur tous les autres pays. C'est assez rare pour être souligné. On peut même supposer que d'autres pays s'en inspireront pour adapter leur législation afin de mieux contrôler l'usage des IA.

Document T.Lombry

Malgré cet enthousiasme, les spécialistes confirment que la mise en œuvre du texte qui entrera en vigueur en 2026, s'annonce très compliquée. Il faut en effet d'abord établir un classement des systèmes d'IA selon leur profil de risque. Les applications exploitant l'IA sont utilisées dans la plupart des secteurs dont celui de l'énergie, la finance, la médecine, la sécurité, les transports, le support informatique, les centres de recherches, etc.

Pour prendre quelques exemples, le Pacte sur l'IA interdit les systèmes qui tentent de contourner le libre arbitre des utilisateurs ou les systèmes qui permettent tout type de classement social (cf. la Chine) par le gouvernement. D'autres types d'applications sont considérées comme "à haut risque" et doivent répondre à des exigences de transparence, de sécurité et de surveillance pour être mises sur le marché. Celles-ci incluent l'usage de l'IA dans les infrastructures critiques, l'application de la loi, le contrôle des frontières, l'identification biométrique ou le suivi numérique (cf. le Covid-19).

Le Parlement Européen a également insisté sur une interdiction totale de l'identification biométrique tandis que la reconnaissance faciale en temps réel ne sera autorisée que dans la recherche de victimes. Le "social scoring" tel qu'il est pratiqué en Chine sera interdit.

La transparence sera aussi la règle. Toute personne utilisant un système informatique devra être clairement informée le cas échéant qu'elle utilise ou communique avec une IA (par exemple l'assistant ou chatbot des services clients Internet, de votre banque en ligne ou celui d'Amazon, y compris les jeux vidéos compatibles avec l'IA). Les personnages et les images générées par une IA, les deepfakes et autres contenus générés par l'IA évoqués précédemment devront également toujours être étiquetés comme tels (ce qui encore trop peu souvent le cas sur les réseaux sociaux et dans les banques d'images).

Quant aux IA telles que ChatGPT, Bard ou Gemini, ces modèles devront non seulement être transparents (la boîte noire algorithmique sera interdite) mais ils devront respecter le droit d'auteur (pour compléter ses catalogues et entraîner ses IA, Google par exemple scanne depuis des années des livres complets sans demander l'autorisation des auteurs, exemple avec ce livre sur l'IA) et ils devront être accompagnés de résumés détaillés du contenu utilisé pour entraîner les modèles. Des obligations supplémentaires seront imposées pour l'IA générative qui pourrait comporter des risques systémiques.

Concrètement cette réglementation aura des impacts au quotidien sur notre usage des outils d'IA, y compris génératives. Cela concerne les majors du secteur dont Google, Microsoft, OpenAI qui devront s'assurer de la qualité des données utilisées dans le développement des algorithmes afin qu'ils ne violent pas la législation européenne. De plus, les développeurs auront l'obligation de s'assurer que les documents (sons, images et textes) produits seront bien identifiés comme générés par une IA (on voit trop souvent sur Internet des images et vidéos générées par une IA mais publiées sans référence comme expliqué page précédente). Enfin, des contraintes plus sévères devront être appliquées aux systèmes d'IA les plus puissants.

Les entreprises qui ne respectent pas le Pacte sur l'IA risqueront des amendes pouvant aller de 7.5 millions d'euros ou 1.5% de leur chiffre d'affaires mondial à 35 millions d'euros ou 7% de leur chiffre d'affaires, en fonction de la nature de l'infraction et de la taille de l'entreprise.

Sachant que 52% des entreprises utilisant l'IA résident en dehors de l'Europe (cf. Statista, 2022), si elles n'acceptent pas les règles européennes, comme on le voit aujourd'hui avec le consentement des cookies, au pire ces applications d'IA afficheront une page blanche lorsqu'un utilisateur européen essayera d'y accéder car son accès sera bloqué. Or comme l'apprit Apple à ses dépens avec son connecteur propriétaire, l'Europe représente un marché de 750 millions de clients potentiels qu'aucune entreprise ne peut ignorer. Si ces entreprises d'IA veulent continuer à vendre leurs produits en Europe, elles devront se conformer à la législation européenne.

Le Pacte sur l'IA a déjà été signé par plus de 179 entreprises (fév 2025), dont des multinationales et des PME européennes provenant de divers secteurs tels que l'informatique, les télécommunications, la santé, la finance, l'automobile et l'aéronautique. Parmi les signataires notables figurent Microsoft, OpenAI, SAP, Google, IBM, Orange, Samsung, Dassault Systèmes, Accenture, Adobe, Amazon, Booking, Cisco, Deutsche Telekom, HPE, Lenovo et Qualcomm. Pour une liste complète des entreprises signataires, consultez le site de la Commission européenne.

Reste à voir comment les constructeurs de systèmes d'IA et les développeurs vont l'appliquer ou détourner l'esprit de la réglementation.

Mais ne soyons pas naïfs. Si certains gouvernements et en particulier les militaires bafouent les lois de la guerre et les Droits de l'Homme, on ne voit pourquoi ce serait différent à propos de l'usage de l'IA... Les bonnes intentions et les belles paroles sont une chose, la réalité des enjeux politiques en est une autre. En voici un aperçu.

Les enjeux politiques de l'IA

Régulièrement, les chefs-d'Etats soulignent que l'IA représente un enjeu politique, la considérant comme un levier essentiel pour le progrès économique, la compétitivité internationale et l'amélioration des services publics de leur pays. Mais les Grandes Puissances considèrent plutôt l'IA comme une arme stratégique. En fait, l'IA est devenue un enjeu stratégique majeur et même une arme politique, influençant la compétitivité économique, la souveraineté technologique et la sécurité nationale des États. Sa maîtrise conditionne la puissance des nations et redéfinit les équilibres géopolitiques.

Passons brièvement en revue les enjeux politiques de l'IA dans les principaux pays et quels investissements ils lui consacrent.

Les États-Unis : leader incontesté mais contesté

Les États-Unis ont historiquement été à la pointe de l'innovation en matière d'IA, grâce à des géants technologiques tels que Google, Microsoft, OpenAI et NVIDIA. Ces entreprises ont investi massivement dans la recherche et le développement, consolidant ainsi la position dominante du pays dans ce secteur.

Le gouvernement américain investit massivement via ses deux principales organisations militaires, le Pentagone et le DARPA, pour développer des applications militaires et stratégiques. L'IA est également utilisée pour la cybersécurité et la surveillance.

Document T.Lombry.

Pour maintenir cette avance, en 2020 l'administration Biden alloua une enveloppe de 625 millions de dollars sur cinq ans, destinée à financer la recherche en IA et en informatique quantique. Ce financement fut complété par un apport de 340 millions de dollars provenant de partenariats privés et académiques, totalisant près d'un milliard de dollars pour la création de 12 nouveaux centres de recherche et développement dédiés à l'avancement de l'IA et des technologies quantiques aux États-Unis (cf. Forbes, 2022)

Cette politique s'inscrit dans le cadre de l'American AI Initiative, une stratégie nationale visant à promouvoir le leadership américain en matière d'intelligence artificielle. Ces investissements reflètent la reconnaissance par les autorités américaines de l'importance stratégique de l'IA pour la sécurité nationale, la croissance économique et le maintien de la compétitivité technologique face à des concurrents internationaux tels que la Chine.

La montée en puissance de la Chine et sa pénétration toujours plus profonde dans les marchés occidentaux remet en question cette suprématie, poussant Washington à restreindre l'accès aux semi-conducteurs et aux technologies avancées, ce qui n'a pas empêché la Chine de proposer sa première IA générative au grand public (cf. DeepSeek).

En janvier 2025, au cours de son second mandat, le président Donald Trump annonça la création de "Stargate LLC", une alliance entre OpenAI, SoftBank, Oracle et MGX, visant à investir immédiatement 100 milliards de dollars qui seront portés à 500 milliards de dollars d'ici 2029 dans les infrastructures d'IA aux États-Unis. Ce projet prévoit la construction de data centers et de centrales énergétiques pour soutenir le développement de la prochaine génération d'IA, avec une création estimée de plus de 100000 emplois à travers le pays. Lors de cette annonce, Trump déclara que "Stargate est le plus grand projet d'infrastructure d'IA de l'histoire." (cf. TWP, CNN).

En parallèle, le Département de la Défense (DoD) des États-Unis a mis en place des stratégies d'intégration de l'IA dans ses systèmes de défense pour renforcer la cybersécurité, l'analyse des données et la prise de décision stratégique. Le DoD publie régulièrement des informations sur les avancées de l'IA dans la défense nationale (cf. DoD News et DoD AI Spotlight).

La 5G (la cinquième génération de la norme de réseau de téléphonie mobile) est une autre technologie stratégique où la compétition est intense. Lors de son premier mandat, le président Trump avait, par exemple, interdit Huawei sur le sol américain en raison de préoccupations liées à la sécurité nationale. Parallèlement, des voix s'élèvent aux États-Unis pour réduire la régulation afin de favoriser l'innovation et contrer la montée en puissance de la Chine dans le domaine de l'IA.

Malgré ces efforts, la domination américaine est contestée, notamment par la Chine. En 1990, plus d'un tiers des semi-conducteurs (microprocesseurs, GPU, ASIC, mémoires DRAM et NAND, etc) utilisés dans le monde étaient fabriqués aux États-Unis, mais cette part est tombée à 15% en 2021. Selon des analystes de la banque britannique Barclay, la Chine pourrait plus que doubler sa production de semi-conducteurs d'ici 2028-2030, qui pourrait donc représenter 25% de la production mondiale (cf. Le siècle digital).

La Chine : ambition d'hégémonie technologique

En 2017, Beijing publia le plan de développement de l'IA, définissant des objectifs ambitieux pour rattraper les États-Unis et les dépasser d'ici 2030. La Chine a fait de l'IA un enjeu stratégique national, intégrant cette technologie dans divers secteurs tels que le commerce, l'emploi et les relations sociales (cf. Fondapol). L'IA est considérée comme un levier de puissance économique, militaire et géopolitique, avec des applications allant de la surveillance à la défense (cf. DigiChina). Cette ambition est soutenue par des investissements massifs dans la recherche en IA et une planification stratégique à long terme.

La Chine investit massivement dans les semi-conducteurs, les supercalculateurs, les réseaux 5G et les infrastructures de Cloud notamment pour réduire sa dépendance aux technologies occidentales.

Document T.Lombry.

Depuis des années, l'IA est un outil clé pour le Parti Communiste Chinois (PCC) dans la surveillance de la population, la cybersécurité et les systèmes de notation sociale. Le système de crédit social repose sur des algorithmes analysant les comportements des citoyens. Des technologies de reconnaissance faciale développées par des entreprises comme Hikvision, SenseTime et Megvii sont utilisées pour la surveillance de masse, notamment au Xinjiang. Des entreprises comme Huawei, Alibaba et Baidu jouent également un rôle clé.

Lors du sommet du G20 en novembre 2024, Xi Jinping déclara que l'IA ne devait pas être le "jeu des pays riches", appelant à une coopération internationale et à une gouvernance inclusive de l'IA. Il insista sur le fait que l'IA ne devait pas être contrôlée exclusivement par les nations les plus aisées, mais devait bénéficier à l'ensemble de la communauté internationale.

Lors d'un symposium avec des leaders du secteur privé en février 2025, le président Xi Jinping souligna l'importance de l'IA pour le développement économique et technologique de la Chine. Il mit en avant le rôle crucial des entreprises privées dans la réalisation des ambitions technologiques du pays, notamment dans des domaines tels que l'IA et la conduite autonome. Le but avoué de la Chine est de renforcer le secteur privé face aux tensions technologiques sino-américaines et à encourager une approche plus audacieuse dans l'application de technologies avancées (cf. Reuters).

Cependant, cette progression rapide suscite des préoccupations internationales, notamment de la part des États-Unis, qui craignent des transferts technologiques avantageant Beijing. En réponse, Washington a restreint les investissements américains dans le secteur chinois de l'IA, arguant des risques potentiels pour la sécurité nationale (cf. Le Monde). Washington imposa des restrictions à l'exportation de semi-conducteurs avancés (CPU, processeurs graphiques, mémoires, etc), notamment ceux fabriqués par NVIDIA, pour ralentir les progrès chinois en IA.

En réponse, Beijing accéléra le développement d'une industrie des semi-conducteurs souveraine, via des entreprises comme SMIC et Huawei. Malgré les restrictions imposées par l'administration Trump, Huawei, qui est la plus grande entreprise chinoise de technologies de l'information, rappela qu'elle compte bien s'implanter à l'échelle mondiale (cf. ChosenBiz).

Sur les plans militaire et géopolitique, la Chine intègre l'IA dans ses stratégies militaires, notamment avec des drones autonomes, la cyber-guerre et l'analyse des données stratégiques. Le PCC mise aussi sur l'IA dans la propagande, avec des algorithmes sophistiqués pour manipuler l'opinion publique et influencer l'information à l'international.

Contrairement à l'Europe, qui promeut une IA éthique et régulée, la Chine privilégie une approche pragmatique et centralisée, favorisant les avancées technologiques rapides. Le modèle chinois d'IA séduit certains pays autoritaires cherchant à renforcer leur contrôle social.

L'approche chinois de l'IA, mêlant développement économique, souveraineté technologique, surveillance de masse et influence géopolitique, contraste avec celle des États-Unis et de l'Europe. Sa rivalité avec les États-Unis et dans une moindre mesure avec l'Europe façonne l'avenir de cette technologie et pourrait redéfinir les rapports de force internationaux.

L'Europe : entre régulation et innovation

Paradoxalement, alors que l'Europe dispose d'une population deux fois plus importante et de plus de main-d'oeuvre qualifiée en programmation que les Etats-Unis, elle manque de ressources (de moyens financiers et les centres de recherches) pour imposer sa technologie. Si l'idéal européen séduit beaucoup d'étrangers, c'est principalement dans les pays pauvres d'Amérique du Sud, d'Afrique et d'Asie. En revanche, sur le plan politique, cela fait des décennies qu'on a du mal à identifier un interlocuteur fort et ambitieux, représentatif des Européens. En fait ce leader n'existe toujours pas du fait même du fonctionnement du modèle européen. On y reviendra.

L'Europe a tenté sa chance en adoptant une approche unique en matière d'IA, se distinguant par une stratégie axée sur la régulation (cf. le Pacte sur l'IA) afin de garantir le respect des droits fondamentaux, l'innovation et la souveraineté technologique. Elle veut jouer un rôle de régulateur mondial, en poussant d'autres pays à adopter ses normes sur l'IA, comme elle l'a fait avec le RGPD.

Document T.Lombry.

L'Europe accuse un retard technologie important par rapport aux États-Unis et la Chine, qui dominent l'IA grâce à leurs investissements massifs. Elle tente de combler cet écart en développant ses propres modèles de langage (LLM) et supercalculateurs. Elle souhaite aussi limiter sa dépendance des GAFAM (Google, Apple, Facebook, Amazon, Microsoft) et BATX (Baidu, Alibaba, Tencent, Xiaomi) par des initiatives comme Horizon Europe (un programme de financement de la recherche de 95.5 milliards d'euros), Gaia-X (un projet de Cloud souverain pour contrer la dépendance aux géants américains AWS, Google Cloud et Microsoft Azure) ou le Chips Act européen (un plan de 43 milliards d'euros pour renforcer la production de semi-conducteurs et réduire sa dépendance envers l'Asie). La France et l'Allemagne poussent des projets comme Mistral AI ou Aleph Alpha pour créer des IA européennes alternatives à OpenAI.

La présidente de la Commission européenne, Ursula von der Leyen, souligna à plusieurs reprises l'importance de l'IA pour l'Europe, en mettant l'accent sur la nécessité d'une régulation proactive et d'une gouvernance responsable. Dans son discours sur l'état de l'Union du 13 septembre 2023, elle avertit qu'il ne fallait "pas sous-estimer les menaces très réelles" de l'IA, en insistant sur la nécessité d'un cadre législatif solide pour encadrer son développement. Elle proposa également la création d'un "panel mondial" d'experts, inspiré du GIEC, pour évaluer les risques de l'IA pour l'humanité, soulignant que "réduire ce risque devrait être une priorité mondiale, au même titre que d'autres risques menaçant la société tout entière, comme les pandémies et la guerre nucléaire."

En réponse au projet "Stargate" annoncé par le président Donald Trump, l'Union européenne lança l'initiative "InvestAI", mobilisant 200 milliards d'euros pour développer des infrastructures d'IA au sein de l'UE (cf. Europa).

L'Europe veut également encadrer l'usage de l'IA militaire tout en développant des capacités défensives. L'OTAN et certains États européens investissent dans les drones autonomes, la cybersécurité et la détection des menaces IA. Mais la politique de défense européenne reste fragmentée et en opposition avec les modèles américain (dominé par le privé) et chinois (centralisé et autoritaire).

Enfin, l'Europe tente d'établir des coopérations technologiques avec des partenaires stratégiques (Japon, Canada) pour éviter une dépendance totale aux géants américains et chinois.

Mais le modèle européen se heurte à des intérêts nationaux contradictoires y compris des dettes publiques importantes, qui ralentissent les innovations, et à la domination des géants américain et chinois. Malgré l'annonce de l'initiative "InvestAI", son manque de leadership fort, d'investissements et d'innovations pourrait compromettre sa compétitivité à long terme.

La France : de timides initiatives

Le 9 février 2025, à la veille du Sommet pour l'action sur l'intelligence artificielle à Paris, le président Emmanuel Macron annonça un plan d'investissement de 109 milliards d'euros dans le secteur de l'IA en France pour les années à venir. Cette initiative vise à démontrer que la France et l'Europe sont pleinement engagées dans la compétition mondiale de l'IA. Macron souligna la nécessité pour la France et l'Europe de "se réveiller" et de développer une stratégie européenne ambitieuse en matière d'IA, afin de ne pas dépendre des autres puissances mondiales.

Ces investissements, provenant de fonds privés français mais également étrangers, sont destinés à renforcer les infrastructures d'IA, notamment par la construction de data centers et de clusters de calcul. Parmi les contributeurs majeurs figurent le gestionnaire d'actifs canadien Brookfield, avec un engagement de 20 milliards d'euros, et les Émirats Arabes Unis qui envisagent des investissements à concurrence de 50 milliards d'euros. Des entreprises comme Amazon, Apollo Global Management et Digital Realty ont également annoncé des contributions significatives pour soutenir le développement de l'IA en France (cf. Reuters, Gouv.fr).

La Russie : IA et stratégie militaire

La Russie de Poutine considère l'IA comme un outil stratégique essentiel, principalement axé sur la sécurité nationale, la défense militaire et l'influence géopolitique, y compris via la guerre de l'information et la propagande. Cependant, la Russie accuse un retard sur l'Occident en matière de développement d'IA civile et de recherche fondamentale, en raison de son économie plus restreinte, un manque d'investissements, des sanctions occidentales et d'un secteur technologique moins avancé.

Moscou veut promouvoir un modèle alternatif à la gouvernance numérique occidentale, basé sur un contrôle accru de l'information et des infrastructures numériques souveraines.

La Russie mise sur l'IA pour moderniser son armée et ses capacités de renseignement. Le Kremlin développe des drones autonomes, des robots de combat et des systèmes de guerre électronique intégrant des algorithmes avancés. L'analyse des données et la reconnaissance faciale sont utilisées par les services de renseignement pour la surveillance intérieure et le contrôle politique.

Le président Vladimir Poutine considère l'IA comme un facteur déterminant de la puissance mondiale. En septembre 2017, il affirma que "celui qui deviendra le leader en cette sphère sera le maître du monde." (cf. La revue du digital). Cette déclaration souligne l'importance stratégique que la Russie accorde au développement de l'IA pour renforcer sa position sur la scène internationale.

La carte graphique A100 de NVIDIA sur laquelle s'entraîne notamment ChatGPT d'OpenAI. Ce genre de composant high-tech à 6400 € (2025) est interdit d'exportation vers la Russie.

Plus récemment, en novembre 2023, Poutine exprima des préoccupations concernant les biais anti-russes des outils d'IA développés en Occident. Il déclara que ces outils "ignorent simplement et annulent la culture russe" et imposent des valeurs occidentales que la Russie rejette. Cette position reflète la volonté de la Russie de développer des technologies d'IA nationales qui respectent et promeuvent sa culture et ses valeurs (cf. Euronews).

Le président Vladimir Poutine souligna l'importance de l'innovation technologique pour le développement et la stabilité du pays. Face aux sanctions occidentales limitant l'accès aux technologies avancées, la Russie cherche à renforcer sa coopération avec la Chine dans le domaine de l'IA, visant à combler les lacunes technologiques et à contrer l'hégémonie américaine (cf. Areion24news).

En novembre 2024, la Russie annonça des investissements de 11.2 billions de roubles soit ~107 milliards de dollars dans le secteur de l'IA d'ici 2030 (cf. Reuters). De plus, la Russie vise à former 80% de sa main-d'œuvre aux compétences liées à l'IA, démontrant une volonté de modernisation et d'adaptation aux nouvelles réalités technologiques.

Comme en Chine, pour la Russie, l'IA est une arme géopolitique et un pilier de la propagande et de la désinformation russe. Des algorithmes avancés sont utilisés pour manipuler l'opinion publique via des campagnes numériques sur les réseaux sociaux. Des entités comme l'Internet Research Agency (IRA) exploitent l'IA pour automatiser la diffusion de rumeurs (fake news) et influencer les élections étrangères (cf. la première élection de Trump ou la tentative avortée de Georgescu en Roumanie évoquée précédemment).

La Russie a développé des capacités avancées de cyberguerre, utilisant des IA capables de mener des attaques contre des infrastructures critiques occidentales.

Face aux sanctions occidentales, la Russie tente de développer une IA souveraine, indépendante des technologies américaines et européennes. Elle investit dans des entreprises comme Sberbank AI Lab et Yandex, mais son écosystème reste limité par l'accès restreint aux semi-conducteurs et au matériel informatique de pointe.

Par conséquent, la Russie cherche à renforcer sa coopération technologique avec certains pays pour contourner les restrictions imposées par les États-Unis et l'Europe. La Russie collabore avec la Chine sur des projets d'IA appliqués à la cybersécurité et à la propagande numérique. Elle exporte ses technologies de surveillance et de cyberdéfense vers l'Iran, le Venezuela et certains États africains.

Ceci dit, tout bon commercial sait qu'il est toujours possible de contourner le boycott américain en faisant transiter les marchandises étrangères par un pays tiers tel que le Kazakhstan qui n'est pas soumis aux restrictions.

Contrairement à la Chine et aux États-Unis, la Russie manque d'un écosystème technologique compétitif en IA, notamment en raison de la fuite des cerveaux et du manque d'investissements privés. Le secteur de l'IA en Russie dépend largement du financement de l'État, ce qui limite l'innovation et la diversification des applications commerciales.

Conclusion, en raison de son retard technologique et des sanctions internationales, la Russie peine à rivaliser avec les États-Unis et la Chine sur le plan économique et scientifique. Son avenir en IA dépendra de sa capacité à contourner les restrictions et à développer des partenariats technologiques avec d'autres puissances non occidentales.

Le Japon : Innovation et éthique

Le Japon adopte une approche proactive en matière d'IA, cherchant un équilibre entre innovation technologique et responsabilité éthique, tout en favorisant la collaboration internationale pour maximiser les bénéfices de l'IA en minimisant ses risques.

Le Japon considère l'IA comme un levier stratégique pour relever divers défis économiques et sociétaux, notamment le vieillissement de la population et la pénurie de main-d'œuvre.

Le gouvernement japonais a élaboré une politique de base sur l'utilisation de l'IA, visant à renforcer la défense nationale et à promouvoir la paix et la stabilité de la région. Cette politique souligne que l'IA doit soutenir le jugement humain, excluant le développement de systèmes d'armement entièrement autonomes.

Parallèlement, le secteur privé japonais investit massivement dans la recherche et le développement en IA. Des entreprises telles que Sony, Fujitsu, Toshiba, Hitachi, Panasonic, Mitsubishi Electric et Sharp ont annoncé des investissements significatifs dans l'IA, visant à renforcer leur compétitivité industrielle (cf. Gouv.fr).

L'Inde

L'Inde reconnaît l'IA comme un levier stratégique pour son développement économique et social. L'IA est principalement exploitée pour stimuler la croissance, améliorer les services publics et renforcer la compétitivité internationale du pays.

L'Inde annonça en mars 2024 un investissement de 1.2 milliard de dollars dans des projets d'IA sur cinq ans. Cet investissement, connu sous le nom de "IndiaAI Mission", vise à développer une infrastructure informatique robuste et à soutenir les startups spécialisées dans l'IA. Le Premier ministre indien Narendra Modi souhaite intégrer l'IA dans des secteurs clés tels que l'agriculture, la santé et l'éducation. Le ministre indien des Technologies de l'information, Rajeev Chandrasekhar, déclara que cette initiative "stimulera l'écosystème indien de l'IA et lui permettra de façonner l'avenir de l'IA". L'objectif est d'utiliser l'IA pour résoudre des défis sociaux et économiques, tout en renforçant la position de l'Inde en tant que leader technologique (cf. FMI, 2023; TIME, 2024).

Israël

Israël considère l'IA comme un atout stratégique majeur pour renforcer sa position en matière de sécurité, d'innovation technologique et de compétitivité économique.

Sur le plan de la sécurité nationale, l'IA est intégrée dans les systèmes de défense israéliens pour améliorer la précision des opérations militaires (cf. BBC, 2024).

Israël est également réputé en cybersécurité et dans la collecte de renseignements. Les forces de défense israéliennes (FDI) exploitent l'IA pour analyser de vastes quantités de données provenant de diverses sources, y compris des images satellites, des interceptions de communications et des activités sur les réseaux sociaux. Cette approche permet d'identifier rapidement des cibles potentielles et de planifier des opérations ciblées.

Egalement reconnu pour son secteur technologique dynamique, Israël investit dans le développement de solutions d'IA pour divers secteurs, notamment la santé, l'agriculture et les services financiers. L'objectif est de maintenir sa position de leader en matière d'innovation et de stimuler la croissance économique.

Le Premier ministre israélien Benjamin Netanyahu a mis l'accent sur le développement de l'IA comme moteur de croissance économique et de sécurité nationale. Israël investit dans des technologies avancées pour renforcer ses capacités de défense et stimuler l'innovation dans le secteur technologique (cf. Le Point, 2024).

En résumé, ainsi qu'on le constate, l'IA est une source de développement mais en contrepartie elle exacerbe les rivalités internationales. La guerre technologique entre les États-Unis et la Chine se traduit par des restrictions commerciales sur les semi-conducteurs et les logiciels d'IA avancés. La désinformation alimentée par des algorithmes sophistiqués est un autre enjeu de taille, influençant les élections et la stabilité des démocraties.

L'IA redessine la géopolitique mondiale en renforçant la puissance des États qui la maîtrisent. La compétition entre les États-Unis et la Chine façonnera l'avenir de cette technologie, tandis que l'Europe tente de concilier innovation et régulation. Les implications en matière de sécurité, d'économie et de société font de l'IA un enjeu central du XXIe siècle.

Dernier chapitre

L'avenir de l'IA

Page 1 - 2 - 3 - 4 - 5 -


Back to:

HOME

Copyright & FAQ