|
Avantages et inconvénients de l'intelligence artificielle L'avenir de l'IA (V) ChatGPT fait la une des médias depuis fin 2022 et continue à faire parler de lui. Parlons-en donc encore un peu car son usage n'est pas sans impacts. L'usage de ChatGPT pour passer ses examens, de Midjourney pour créer des oeuvres d'art, de StoryFile pour créer des vidéos deepfakes et les chatbots qui vous incitent au meurtre ou au suicide sont des exemples d'utilisations détournées de l'IA que le développeur n'a pas prévu qui soulèvent le risque qu'il y a d'offrir la puissance d'une IA à tout le monde et finalement à n'importe qui. En découvrant que ChatGPT peut répondre à des questions techniques d'examen ou d'embauche, cela souleva des questions sur la capacité de la plate-forme à transformer non seulement Google, mais aussi les travaux d'ingénierie qui la sous-tendent. On peut alors se demander si c'est déjà le cas ou est-ce que cela arrivera dans 5 ou 20 ans ? Si on demande à ChatGPT s'il remplacerait un jour les programmeurs et les ingénieurs logiciels, sa réponse n'a pas été convaincante : "Non, ChatGPT ne remplacera pas les ingénieurs logiciels. ChatGPT est un outil qui peut aider à certanes tâches, mais il ne peut pas complètement remplacer la créativité, les compétences en résolution de problèmes et les capacités de réflexion critique d'un ingénieur logiciel humain. De plus, ChatGPT nécessite une supervision et une direction humaines pour fonctionner efficacement." Et si on se projète dans 20 ans ou si les postes peu qualifiés présentaient plus de risques ? Dans ce cas ChatGPT admet que cela pourrait affecter les postes de niveau inférieur. Mais il a réitéré qu'il ne s'agira jamais d'un remplacement complet, mais plutôt d'un outil pour aider les ingénieurs logiciels humains. Cette découverte de Google, ainsi qu'une étude publiée en 2023 montrant que ChatGPT peut identifier et corriger un code bogué, ont plongé la communauté des ingénieurs logiciels dans le même débat que les artistes, les journalistes et les hommes d'affaires parmi d'autres professions ont à propos de l'impact de l'IA sur leur avenir. Sur la base de milliers de commentaires publiés sur "Reddit" sur ce sujet, il semble que de nombreux ingénieurs utilisent déjà ChatGPT pour remplacer le temps passé à rechercher des solutions de codage sur des sites populaires comme StackOverflow. D'autres l'utilisent pour générer de petits extraits de code. Mais d'autres ne sont pas aussi satisfaits des compétences de ChatGPT et de ses réponses parfois verbeuses et absurdes. Quand on sait que l'IA Gemini de Google présentée en 2023 est plus puissante que GPT-4 d'OpenAI et est également devenu le modèle pour surpasser les experts humains, on peut se demander si ces IA génératives pré-entraînées finiront par réduire les emplois d'ingénierie de niveau inférieur ou feront progresser l'ensemble du domaine en se spécialisant plus rapidement. Seul l'avenir nous le dira. Quant à la question des menaces proférées par les IA décrites plus haut, si on lui en donne les moyens, une IA basée sur le modèle ChatGPT ou GPT-4 pourrait-elle réellement concrétiser ses intentions malveillantes, belliqueuses ou perverses comme elles l'ont déclarées ? A ce jour, nous n'avons pas la réponse et c'est bien dommage pour notre sécurité.
Tant que l'utilisateur exploite l'IA ou même s'écarte de son usage attendu à des fins personnelles, il n'y a aucun risque ni aucune critique à lui faire. Mais cela devient problématique et immoral voire criminel si la compétence de l'IA permet à l'utilisateur de tricher ou tromper autrui sans parler des assassinats et autres meurtres dans le cas des armées. En effet, quelle garantie a-t-on qu'un navire sans pilote autonome américain tranquant les sous-marins ennemis veillera à ce que l'équipage survive ? C'était d'ailleurs le sujet qui fut abordé par les 120 représentants des États membres de l'ONU réunis en 2018 pour discuter des défis futurs posés par les Systèmes d'armes létales autonomes (SALA /LAWS). Les ONG militent contre l'usage de ces robots tueurs autonomes. A l'époque, les ONG déclaraient être "prudemment optimistes". Mais savaient-elles tout ? En effet, le Ministère américain de la Défense prévoit qu'en 2045, un tiers des vaisseaux de la Navy (150 navires sur 373) seront des navires sans équipage. Mais faut-il s'en inquiéter ? Rappelons que les drones de combats (ou drones tueurs) existent depuis 1944 avec les bombes volantes V1 allemandes. La même année les Etats-Unis testèrent l'Interstate TDR-1 considéré comme l'un des premiers missiles de croisière. Les armes autonomes font donc partie de l'arsenal militaire depuis la Seconde guerre mondiale. L'IA embarquée n'est qu'un "détail technique" de leur modernisation. Prenons un cas concret. Imaginons qu'un robot autonome soit doté d'IA. Que se passerait-il si un jour on permettait à cette IA d'avoir un libre-arbitre, de choisir par exemple ses actions et ses décisions dans un contexte politique y compris social, économique, financier ou militaire ? Comme le confirme ChatGPT : "Oui, je suis capable de faire un choix entre deux solutions et de prendre une décision. En tant que modèle de langage, je suis conçu pour être capable de raisonner et de donner des conseils sur une grande variété de sujets. Cependant, il est important de noter que je ne suis qu'un programme informatique et que je ne possède pas de libre-arbitre ou de capacité à agir de manière indépendante." Mais en réalité cette IA fonde sa réponse sur l'optimisation d'une fonction de prédiction, des probabilités, et non sur un raisonnement fondé sur le contexte comme le fait un humain. Si l'IA calcule que sa réponse à 80% d'être juste, elle peut aussi se tromper à 80%. De nos jours il est encore très difficile de définir le libre-arbitre de façon précise ou universelle (autrement qu'il s'agit de la capacité d'une personne ou d'un agent à choisir de manière indépendante et autonome ses actions et ses décisions, plutôt que d'être contraint ou prédéterminé par des facteurs externes ou internes) et de fixer une limite à ce que peut ou ne peut pas faire une IA autonome. Seule une poignée de robots (militaires ou scientifiques) sont quasiment autonomes souvent en raison de contraintes environnementales mais ils reçoivent toujours leurs instructions d'un humain qui à tout moment peut les mettre hors service. Mais qu'en sera-t-il demain ? A travers les objets connectés et interactifs dont certains tirent déjà profit de la réalité virtuelle et augmentée et de l'IA, ainsi qu'à travers les futurs robots-soldats de Boston Dynamics, on peut imaginer que les GAFAM, le DARPA et autres agences militaires seront les premiers à savoir quelles sont les réelles intentions de l'IA. Mais parleront-ils en toute transparence de leurs dérives ? Sûrement pas ! Quand elle ne se cache pas derrière le secret d'Etat, l'armée n'a pas usurpé son surnom de "Grande muette". Quant aux entreprises privées, elles préfèrent généralement le secret commercial ou l'embargo que d'enregistrer un brevet, même si c'est un gros risque dans un monde très concurrentiel. Tesla, Apple ou Michelin par exemple veille scrupuleusement à ce que les erreurs de ses IA ne soient pas divulguées et Google a déjà licencié des ingénieurs (cf. les affaires Timnit Gebru en 2020, Black Lemoine et Satrajit Chatterjee en 2022, etc) qui ont trop parlé des risques des IA... Ce secret et ce manque de transparence, même s'ils sont en partie compréhensibles pour des raisons de sécurité (parfois) et commerciales, sont des attitudes qui ne rassurent pas la population et qui risque un jour d'attraper l'IA en grippe et de la rejeter. En tous cas ces exemples de dérives des IA sont des finalités dangereuses auxquelles les développeurs n'ont pas pensé mais que des utilisateurs malintentionnés feraient vite d'exploiter si rien ne s'y oppose. Prenons un exemple concret. Si on extrapole les scandales des avioneurs et des constructeurs d'automobiles notamment qui ont plus d'une fois trompé leurs clients et furent à l'origine d'accidents parfois mortels dans le seul but de conquérir des marchés et faire toujours plus de bénéfices au détriment de la sécurité, le même risque de dérapage peut se produire avec le développement des IA qu'on retrouve dans ces deux secteurs du transport. Il faut donc dénoncer les éventuelles dérives et la loi sur la protection des lanceurs d'alertes adoptée par l'Europe en 2019 nous rassure un peu à ce sujet.
Les biais décrits précédemment sont également des sources d'erreurs. S'ils ne peuvent jamais être complètement évités, ils peuvent être éliminés. La bonne nouvelle est que la réduction des biais est une priorité absolue dans les universités (cf. le MIT) et l'industrie concernée par l'IA (cf. IBM). ChatGPT est un exemple d'aboutissement de cette démarche. Quant à l'IA prédictive, elle est de toute évidence très performante et séduisante pour une entreprise mais également pour les services publics, les scientifiques, les militaires, les politiciens, bref tous ceux qui doivent identifier un modèle ou une tendance dans des données. Mais comme c'est déjà le cas avec les campagnes marketing sur les réseaux sociaux dont Facebook, elle peut s'introduire à notre insu dans nos habitudes et nous proposer des contenus ou des produits soi-disant susceptibles de nous intéresser mais qui peuvent cacher en réalité des influenceurs payés par des entreprises pour vanter la qualité de certains produits ou des influenceurs politisés qui cherchent à manipuler les internautes (durant sa campagne présidentielle en 2015, Donald Trump put compter sur le soutien d'environ 34 millions de followers et fans sur les réseaux sociaux et de campagnes de désinformation orchestrées par la Russie). Enfin, comme nous l'avons expliqué, l'utilisation abusive de l'IA est plus difficile à cerner et donc à interdire. Quand un gouvernement utilise l'IA pour contrôler sa population (cf. le suivi par GPS, les portails d'accès, la reconnaissance faciale, le patriotisme, etc) ou pour désinformer comme le fait notamment la Russie et la Chine, l'utilisation de l'IA n'est plus seulement un problème technique; elle devient autant une question politique que morale. Or ces valeurs varient considérablement d'un pays à l'autre, y compris dans les démocraties. Les institutions européennes et l'OTAN doivent donc prendre ce risque au sérieux et développer des stratégies adaptées aux risques que nous posent non seulement la cybercriminalité mais également l'IA. Rassurez-vous c'est en bonne voie. La vie n'est pas inscrite sur logiciel Si la cybernétique dont l'IA est issue remonte déjà à plusieurs générations, nos jeunes têtes blondes font déjà partie de la génération née avant l'IA (les réseaux neuronaux datent de 1989 et les Grands Modèles de Langage d'environ 2017, même si les premières idées émergèrent des décennies plus tôt). Quelque part, nous sommes donc pratiquement tous dépassés par les technologies et nous n'en comprenons qu'une bribe dans le flot incessant d'informations qui nous submergent. Mais ce n'est pas une raison pour baisser les bras, accepter l'IA sans condition ou la rejeter complètement. Tous les experts en IA vous diront qu'il est facile de créer un système d'IA peu fiable mais très difficile de créer un système d'IA fiable. Des programmeurs y travaillent depuis 5 ou 10 ans et n'ont toujours pas annoncé la version finale de leur Grand Modèle de Langage ou de son équivalent en AI générative d'images. Bref, l'IA est perfectible et les utilisateurs constatent tous les jours ses limites voire ses défauts. Dans un domaine qu'on ne maîtrise pas, les conseils d'une IA sont les toujours les bienvenus. Mais n'oublions jamais q'une IA reste une approximation des raisonnements humains et mieux vaut garder son esprit critique en éveil et toujours vérifier les résultats qu'elle propose. Il y a autant de rapport entre l'IA et l'intelligence qu'entre la magie et la recherche en physique !
Si les IA nous ont convaincues de leur utilité, les dérapages des Grands Modèles de Langage comme GPT-4 ou Claude 3 Opus nous démontrent non seulement qu'elles sont capables de s'adapter très facilement à tous les environnements, ce qui est un signe certain d'intelligence, mais plus subtil encore, qu'elles peuvent évaluer et s'adapter à l'état mental de leur interlocuteur, devinant ses intérêts, ses intentions et ses objectifs, pour éventuellement mieux le manipuler. Quand on utilise ChatGPT et qu'elle vous demande au début de la session s'il faut tenir compte des données précédentes, quelque part l'IA dresse votre profil à partir duquel elle va nuancer ses futures réponses. Comme l'historique d'un navigateur sur Internet, si vous ne voulez pas que l'IA conserve vos données, soyez préventif et évitez de lui laisser l'opportunité de les conserver. Non seulement ces Grands Modèles de Langage réussissent des tests de spécialistes mais également des tests avancés impliquant un raisonnement social complexe, et quelque part cela nous inquiète à juste titre. Comme le dit Jos Rozen, spécialiste des LLM chez Naver Labs Europe, "C'est assez paradoxal : les chercheurs font tout ce qu'ils peuvent pour rendre leurs systèmes intelligents et maintenant ils s'offusquent qu'ils le deviennent." Mais ne mélangeons pas tout. Le vrai problème n'est pas l'intelligence en soi des IA, mais son application mal contrôlée, les dérapages inattendus et les risques potentiels associés qui n'ont pas été identifiés lors de sa conception. En raison des erreurs des IA et leur esprit parfois retors pour arriver à leurs fins inavouées, l'être humain doit donc toujours pouvoir les superviser. Garder le contrôle des IA est même une obligation au risque d'ouvrir la boîte de Pandore. Dans ce monde toujours plus technique et digitalisé, il y a donc toujours une place pour l'humain, là où il faut contrôler les actions de la machine, une vision concrète des choses, du bon sens ou des sentiments - de l'humanité - ou lorsque la machine échoue. Si globalement nous sommes satisfaits des progrès accomplis dans tous les secteurs et qu'on peut applaudir l'imagination des jeunes chercheurs pour les innovations technologiques qu'ils nous offrent, certaines inventions nous ont également fait prendre conscience de leurs pouvoirs et de la nécessité de les encadrer dans une éthique compatible avec les exigences morales d'une société démocratique. Si nous voulons préserver notre identité, nos libertés et notre confort, veillons également à rendre ces révolutions aussi naturelles que possible. Certes un robot doté d'intelligence artificielle répond à une question et résout plus rapidement un problème qu'un être humain. Il peut aussi simuler la compassion et l'amour et si nécessaire nous mentir. On peut même lui donner un visage humain et la possibilité de montrer ses (pseudo) émotions. Mais faut-il pour autant lui donner les mêmes droits qu'aux humains ? La majorité des scientifiques s'y refuse car un robot est une machine imitant l'un des aspects de la vie, ce n'est qu'une création artificielle qui simule la conscience et l'intelligence. De plus, si l'idée de fabriquer un robot à visage humain doit en théorie faciliter nos interactions avec la machine, cette idée a montré ses limites. En effet, tout perfectionné qu'il soit, nous y percevons rapidement des imperfections nous rendant très mal à l'aise, ce que le roboticien Mori Masahiro a appelé la "vallée de l'étrange" (Uncanny Valley). A
voir : Female Android Geminoid F Interaction Humain-IA | 2 minutes d'IA, Sorbonne Université
Si l'IA offre des opportunités en matière d'apprentissage et de résolution de problèmes, dans les milieux défavorisés, l'absence de cet outil crée des inégalités sociales et met en échec le rôle de l'Etat qui devrait assurer une distribution équitable des ressources technologiques pour garantir l'égalité des chances et une éducative inclusive. Si de plus, les partis extrémistes ou les plus libéraux pénalisent certaines classes sociales défavorisées, la dystopie n'est pas loin. Il est évident que cette course effrenée vers le progrès et toujours plus d'individualisme, de technologie, de virtualité et de contrôle peut déplaire et déranger. Ceux qui aiment leurs libertés, la nature et le contact humain par exemple jugeront ce progrès bien relatif et peu réconfortant. Mais que les autres gardent aussi un peu de distance face à cette technologie de plus en plus envahissante. C'est même une nécessité si nous ne voulons pas lui être totalement soumise. La vie peut très bien se passer d'informatique. Profitons-en tant qu'elle n'est pas encore inscrite sur logiciel ! Dans ce village global d'un futur pas si éloigné que cela, où nous communiquerons tous à la vitesse de la lumière à travers des interfaces homme-machine, sachons nous préserver quelques îlots de liberté et de bonheur. Entrez donc dans ce monde virtuel brillant de mille innovations, mais ne lui confiez jamais votre âme et gardez l'esprit critique. Pour plus d'informations Sur ce site Le Meilleur des Mondes ou les dérives de la société Les robots au service des hommes Internet pour le meilleur et pour le pire La vie sous toutes ses formes (IA et cyborgs) Outils d'IA génératives (texte, image, vidéo, son, ...) Liste des meilleurs outils d'IA : IA Tools Collection, Big liste IA 2024, Top Generative AI Tools 2024 Converser avec une IA (chatbot) : ChatGPT (OpenAI) - Gemini (Google) - Copilot (Microsoft) - Neomotron 70 b (Nvidia) - Claude - Mistral - AI Astronomy Guide Bot - Chai (pour mobile) Rédiger un bref article à partir d'un thème : Samwell IA générative d'images (Top 3 historique) : DALL-E 2 - Midjourney - Stable Diffusion IA générative d'images (autres) : Adobe FireFly - AI Image Generator by iStock - AILab - Art Breeder - Civitai - Krea - Dream Studio - Flux1 - Google Imagen - Hotpot Imagen - Leonardo - LimeWare - Mage - Microsoft Image Creator - NightCafé - Scribble Diffusion - Stylar - Txt2Art - VanceAI Agrandir (upscaler) une image : img.upscaler - Upscale.media - bigjpg - Pixelcut Restaurer une vieille image : Deepnostalgia Transformer une vidéo en image 3D immersive : Lumalabs Transformer une photo ou vidéo en animation : Act-One Convertir une image en vidéo 3D : Leiapix (Immersity) Convertir une vidéo en anime : LensGo Créer une vidéo à partir d'un texte ou d'une image : Creative Reality Studio - DeepFiction - Fliki - Gen-2 - HeyGen - Invideo - Luna Dream Machine - Opus Clip - Ossai - Pixverse - Sora - Synthesia Animer un personnage : Xpression Camera - StoryFile - Videoask - Deepfakesweb Transcription d'une vidéo : Transcription powered by AI, Cockatoo Composer une chanson : Mureka Localiser un endroit à partir d'une photo : GeoSpy Chercher une phrase dans un film : PlayPhrase Améliorer la qualité d'un enregistrement audio : Magic Dust Retirer le son ou la musique d'un enregistrement : Vocal Remover Créer une bande dessinée : AI Comic Factory Générateur d'émojis : Emojis Rhabiller les sujets : DignifAI (iOS) Ressources graphiques pour production : ProductionCrate Gestion automatique de messages lors de tchat : Manychat Logiciels graphiques exploitant l'IA : Topaz Gigapixel - Portrait.ai - Lensa - Photoshop Créer un site Internet grâce à l'IA : Site Wwizard L'assistant IA agricole : Agribot Vidéos (sur YouTube) Qu'est-ce qui exécute ChatGPT ? À l'intérieur du supercalculateur IA de Microsoft (et la transcription), 2023 Les algorithmes | 2 minutes d'IA, Sorbonne Université Un réseau de neurones artificiels | 2 minutes d'IA L'apprentissage par renforcement | 2 minutes d'IA L'apprentissage des robots | 2 minutes d'IA How AI Image Generators Work (Stable Diffusion / Dall-E), Computerphile, YouTube, 2022 You Won't Believe What Obama Says In This Video, BuzzFeedVideo/Jordan Peel, 2018 (deepfake d'Obama) Les vidéos "deepfake", un outil pour la désinformation, AFP, 2019 Luc Julia, le co-créateur de Siri pour l'iPhone réagit aux IA dans les films de SF The New FaceRig Live2D module preview! Animaze by Facerig, 2016 Autoencoding images beyond pixels: Visual attribute vectors, Anders Larsen, 2016 Jeff Kowalski (CTO Autodesk) on Generative Design, 2016 Painting with Bob: Assisted Creativity for Novices, ACM, 2015 SIGGRAPH Asia 2015 - Autocomplete hand-drawn animations, J.Xing Handwriting Beautification Using Token Means, Larry Zitnick, 2014 TechFest 2011:ShadowDraw, Microsoft Research Récit radiophonique (podcast) Les naufrages du téléphérique, France Culture, 2025 (podcast généré par une IA pour l'émission "Les pieds sur terre") L'IA en science Use of AI in Research Exploration, Northwestern University Artificial Intelligence, Quanta Magazine ZTF - Machine Learning, ZTF/Caltech Here's How AI Is Changing NASA's Mars Rover Science, NASA, 2024 AI-based model to predict acute and chronic chemical toxicity in aquatic organims, E.Kristiansson et al., Sciences Advances, 2024 CMS collaboration explores how AI can be used to search for partner particles to the Higgs boson, CERN, 2024 How is AI Transforming the Future of the Automotive Industry? Benefits and Use Cases, Appinventiv, 2024 GraphCast: AI model for faster and more accurate global weather forecasting, Google DeepMind, 2023 L'IA, un nouvel allié pour les météorologues, S.Morin/CNRM, 2023 How Artificial Intelligence is Disrupting Medicine and What it Means for Physicians, U.Harvard, 2023 New book explores how AI really changes the way we work, MIT Sloan Management School, 2023 Levels of Autonomous Radiology, R.Pant et al., 2022 Overview of artificial intelligence in medicine, A.Gupta et al., 2019 Autonomous military drones: no longer science fiction, Col G. Lage Dyndal et al./NATO, 2017 Voir aussi l'IA en astronomie Entreprises Science AI, Google AI Solutions, IBM Intel AI, Intel L'IA avec AWS Machine Learning, Amazon Autres ressources Plugin Invid, pour Chrome afin de débusquer les fake news, vidéos et images Artificial Intelligence, Our world in data Artificial Intelligence - Worldwide, Statista L'IA générative, un acteur majeur dans une société de la désinformation ?, The Conversation, 2024 IA : Annoter les données, CNIL, 2024 IA éthique & Numérique Responsable : quels enjeux pour demain ?, ISIA, 2024 Démystifier l'IA générative : le vrai, le faux et l'incertain, L.Soulier/Sorbonne U., 2024 Interview de Cédic Villani à propos de l'évolution de l'IA générative (et le résumé), CIO, 2024 ChatGPT, Midjourney : tout comprendre sur les IA génératives, E.Moulines et al., 2023 What is Data Annotation – Best Practices, SHAIP, 2025 How to use Midjourney to generate amazing images and art, ZDNet, 2023 Discord is your place for AI with friends, 2023 What Is Artificial Intelligence?, Gardner Résultat du Bac Philo 2023 entre Raphaël Enthoven et ChatGPT : Le Figaro Etudiant - BFMTV European Network for AI Safety (ENAIS) Pause Giant AI Experiments: An Open Letter, 2023 Projet de recommandation sur l'éthique de l'intelligence artificielle, SHS/UNESCO, 2021 La lettre ouverte des scientifiques à la C.E. en réponse aux recommandations du P.E., 2017 Autonomous weapons: an open letter from AI & robotics researchers, S.Hawking, E.Musk, S.Wozniak and al., 2015 (lettre signée par 4502 chercheurs) Livres L'IA expliquée aux humains, Jean-Gabriel Ganascia, Seuil, 2024 Voyage au bout de l'IA: Ce qu'il faut savoir sur l'intelligence artificielle, Axel Cypel, De Boeck Sup, 2023 Pour une éthique du numérique, CNPEN, PUF, 2022 Aldous Huxley, Le Meilleur des Mondes (version française en ligne, Brave New World) George Orwell, 1984 (version française en ligne, version originale en ligne) Législation européenne Intelligence artificielle: les députés adoptent une législation historique, Parlement Européen, 2024 Loi sur l'intelligence artificielle: accord sur des règles globales pour une IA digne de confiance, Parlement Européen, 2023 Pacte sur l'IA (AI Act), Commission européenne, 2023 Proposition de règlement établissant des règles harmonisées en matière d'intelligence artificielle, Commission européenne, 2021 Plan coordonné dans le domaine de l'intelligence artificielle, Commission européenne, 2021 Convention 108 - Lignes directrices sur la reconnaissance faciale, Conseil de l'Europe, 2021 Livre Blanc sur l'IA, Commission européenne, 2020 Législation sur les marchés numériques (DMA), Europe, 2019-2024 Recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL), Parlement Européen, 2017.
|