Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Avantages et inconvénients de l'intelligence artificielle

Document T.Lombry.

L'avenir de l'IA (III)

ChatGPT fait la une des médias depuis 2022 et continue à faire parler de lui. Parlons-en donc encore un peu car son usage n'est pas sans impacts.

L'usage de ChatGPT pour passer ses examens, de Midjourney pour créer des oeuvres d'art, de StoryFile pour créer des vidéos deepfakes et les chatbots qui vous incitent au meurtre ou au suicide sont des exemples d'utilisations détournées de l'IA que le développeur n'a pas prévu qui soulèvent le risque qu'il y a d'offrir la puissance d'une IA à tout le monde et finalement à n'importe qui.

En découvrant que ChatGPT peut répondre à des questions techniques d'examen ou d'embauche, cela souleva des questions sur la capacité de la plate-forme à transformer non seulement Google, mais aussi les travaux d'ingénierie qui la sous-tendent. On peut alors se demander si c'est déjà le cas ou est-ce que cela arrivera dans 5 ou 20 ans ?

Si on demande à ChatGPT s'il remplacerait un jour les programmeurs et les ingénieurs logiciels, sa réponse n'a pas été convaincante : "Non, ChatGPT ne remplacera pas les ingénieurs logiciels. ChatGPT est un outil qui peut aider à certanes tâches, mais il ne peut pas complètement remplacer la créativité, les compétences en résolution de problèmes et les capacités de réflexion critique d'un ingénieur logiciel humain. De plus, ChatGPT nécessite une supervision et une direction humaines pour fonctionner efficacement." Et si on se projète dans 20 ans ou si les postes peu qualifiés présentaient plus de risques ? Dans ce cas ChatGPT admet que cela pourrait affecter les postes de niveau inférieur. Mais il a réitéré qu'il ne s'agira jamais d'un remplacement complet, mais plutôt d'un outil pour aider les ingénieurs logiciels humains.

Cette découverte de Google, ainsi qu'une étude publiée en 2023 montrant que ChatGPT peut identifier et corriger un code bogué, ont plongé la communauté des ingénieurs logiciels dans le même débat que les artistes, les journalistes et les hommes d'affaires parmi d'autres professions ont à propos de l'impact de l'IA sur leur avenir.

Sur la base de milliers de commentaires publiés sur "Reddit" sur ce sujet, il semble que de nombreux ingénieurs utilisent déjà ChatGPT pour remplacer le temps passé à rechercher des solutions de codage sur des sites populaires comme StackOverflow. D'autres l'utilisent pour générer de petits extraits de code. Mais d'autres ne sont pas aussi satisfaits des compétences de ChatGPT et de ses réponses parfois verbeuses et absurdes.

Quant on sait que l'IA Gemini de Google présentée en 2023 est plus puissante que GPT-4 d'OpenAI et est également devenu le modèle pour surpasser les experts humains, on peut se demander si ces IA génératives pré-entraînées finiront par réduire les emplois d'ingénierie de niveau inférieur ou feront progresser l'ensemble du domaine en se spécialisant plus rapidement. Seul l'avenir nous le dira.

Quant à la question des menaces proférées par les IA décrites plus haut, si on lui en donne les moyens, une IA basée sur le modèle ChatGPT ou GPT-4 pourrait-elle réellement concrétiser ses intentions malveillantes, belliqueuses ou perverses comme elles l'ont déclarées ? A ce jour, nous n'avons pas la réponse et c'est bien dommage pour notre sécurité.

Un navire sans pilote autonome américain traquant les sous-marins ennemis diesel électriques silencieux. Document DARPA.

Tant que l'utilisateur exploite l'IA ou même s'écarte de son usage attendu a des fins personnelles, il n'y a aucun risque ni aucune critique à lui faire. Mais cela devient problématique et immoral voire criminel si la compétence de l'IA permet à l'utilisateur de tricher ou tromper autrui sans parler des assassinats et autres meurtres dans le cas des armées. En effet, quelle garantie a-t-on qu'un navire sans pilote autonome américain tranquant les sous-marins ennemis veillera à ce que l'équipage survive ?

C'était d'ailleurs le sujet qui fut abordé par les 120 représentants des États membres de l'ONU réunis en 2018 pour discuter des défis futurs posés par les Systèmes d'armes létales autonomes (SALA /LAWS). Les ONG militent contre l'usage de ces robots tueurs autonomes. A l'époque, les ONG déclaraient être "prudemment optimistes". Mais savaient-elles tout ? En effet, le Ministère américain de la Défense prévoit qu'en 2045, un tiers des vaisseaux de la Navy seront des navires sans équipage.

Mais faut-il s'en inquiéter ? Rappelons que les drones de combats (ou drones tueurs) existent depuis 1944 avec les bombes volantes V1 allemandes. La même année les Etats-Unis testèrent l'Interstate TDR-1 considéré comme l'un des premiers missiles de croisière. Les armes autonomes font donc partie de l'arsenal militaire depuis la Seconde guerre mondiale. L'IA embarquée n'est qu'un "détail technique" de leur modernisation.

Prenons un cas concret. Imaginons qu'un robot autonome soit doté d'IA. Que se passerait-il si un jour on permettait à cette IA d'avoir un libre-arbitre, de choisir par exemple ses actions et ses décisions dans un contexte politique y compris social, économique, financier ou militaire ? Comme le confirme ChatGPT : "Oui, je suis capable de faire un choix entre deux solutions et de prendre une décision. En tant que modèle de langage, je suis conçu pour être capable de raisonner et de donner des conseils sur une grande variété de sujets. Cependant, il est important de noter que je ne suis qu'un programme informatique et que je ne possède pas de libre-arbitre ou de capacité à agir de manière indépendante."

De nos jours il est encore très difficile de définir le libre-arbitre de façon précise ou universelle (autrement qu'il s'agit de la capacité d'une personne ou d'un agent à choisir de manière indépendante et autonome ses actions et ses décisions, plutôt que d'être contraint ou prédéterminé par des facteurs externes ou internes) et de fixer une limite à ce que peut ou ne peut pas faire une IA autonome. Seule une poignée de robots (militaires ou scientifiques) sont quasiment autonomes souvent en raison de contraintes environnementales mais ils reçoivent toujours leurs instructions d'un humain qui à tout moment peut les mettre hors service. Mais qu'en sera-t-il demain ?

A travers les objets connectés et interactifs dont certains tirent déjà profit de la réalité virtuelle et augmentée et de l'IA, ainsi qu'à travers les futurs robots-soldats de Boston Dynamics, on peut imaginer que les GAFAM, le DARPA et les militaires seront les premiers à savoir quelles sont les réelles intentions de l'IA. Mais parleront-ils en toute transparence de leurs dérives ? Surement pas !

Quand elle ne se cache pas derrière le secret d'Etat, l'armée n'a pas usurpé son surnom de "Grande muette". Quant aux entreprises privées, elles préfèrent généralement le secret commercial ou l'embargo que d'enregistrer un brevet, même si c'est un gros risque dans un monde très concurrentiel. Tesla, Apple ou Michelin par exemple veille scrupuleusement à ce que les erreurs de ses IA ne soient pas divulguées et Google a déjà licencié des ingénieurs (cf. les affaires Timnit Gebru en 2020, Black Lemoine et Satrajit Chatterjee en2022, etc) qui ont trop parlé des IA...

Ce secret et ce manque de transparence, même s'ils sont en partie compréhensibles pour des raisons de sécurité et commerciales, sont des attitudes qui ne rassurent pas la population et qui risque un jour d'attraper l'IA en grippe et de la rejeter.

En tous cas ces exemples de dérives des IA sont des finalités dangereuses auxquelles les développeurs n'ont pas pensé mais que des utilisateurs malintentionnés feraient vite d'exploiter si rien ne s'y oppose.

A l'industrie 4.0 ou l'homme face au robot épaulé par l'IA. A droite, des ingénieurs automobiles utilisent une tablette et la CAO 3D pour afficher un concept d'Audi en réalité virtuelle et augmentée, montrant comment l'industrie 4.0 intègre déjà l'Internet des Objets (IoT), la réalité virtuelle et l'IA pour améliorer la conception des produits. Photomontage basé sur une photo d'iStockPhoto et document iStockPhoto (2020).

Les biais décrits plus haut sont également des sources d'erreurs. S'ils ne peuvent jamais être complètement évités, ils peuvent être éliminés. La bonne nouvelle est que la réduction des biais est une priorité absolue dans les universités (cf. le MIT) et l'industrie concernée par l'IA (cf. IBM). ChatGPT est un exemple d'aboutissement de cette démarche.

Quant à l'IA prédictive, elle est de toute évidence très performante et séduisante pour une entreprise mais également pour les services publics, les scientifiques, les militaires, les politiciens, bref tous ceux qui doivent identifier un modèle ou une tendance dans des données. Mais comme c'est déjà le cas avec les campagnes marketing sur les réseaux sociaux dont Facebook, elle peut s'introduire à notre insu dans nos habitudes et nous proposer des contenus ou des produits soi-disant susceptibles de nous intéresser mais qui peuvent cacher en réalité des influenceurs payés par des entreprises pour vanter la qualité de certains produits ou des influenceurs politisés qui cherchent à manipuler les internautes (durant sa campagne présidentielle en 2015, Donald Trump put compter sur le soutien d'environ 34 millions de followers et fans sur les réseaux sociaux et de campagnes de désinformation orchestrées par la Russie).

Enfin, comme nous l'avons expliqué, l'utilisation abusive de l'IA est plus difficile à cerner et donc à interdire. Quand un gouvernement utilise l'IA pour contrôler sa population (cf. le suivi par GPS,  les portails d'accès, la reconnaissance faciale, le patriotisme, etc) ou pour désinformer comme le fait notamment la Russie, l'utilisation de l'IA n'est plus seulement un problème technique; elle devient autant une question politique que morale. Or ces valeurs varient considérablement d'un pays à l'autre, y compris dans les démocraties.

Vers un usage éthique de l'IA

Malgré ces tendances à la robotisation et à vouloir tout contrôler et tout savoir sur tout le monde, a priori nous pouvons rester optimiste et avoir confiance en l'avenir si on en juge par les développements récents et les réflexions que se posent les gouvernements et les chercheurs, du moins dans les pays démocratiques.

Le visage très réaliste de l'actroïde Repliee Q2 conçue en 2005 par Hiroshi Ishiguro de l'ATR Intelligent Robotics and Communication Laboratories (IRC Labs) de l'Université d'Osaka. Ce type de gynoïde est destiné au mannequinat.

Ainsi, depuis 1979 les chercheurs en robotique et en intelligence artificielle, notamment ceux de l'Association for the Advancement of Artificial Intelligence (AAAI) se réunissent périodiquement pour débattre des questions politiques, socioéconomiques, légales et éthiques touchant l'intelligence artificielle comme par exemple la perte éventuelle du contrôle humain sur les systèmes d'informations, l'expansion de l'intelligence artificielle et le danger de l'éventuelle Singularité Technologique - qui n'est qu'une hypothèse parmi d'autres - pour l'avenir de l'humanité (l'avenir de l'humanité tendrait vers un ordre supérieur où la société serait contrôlé par des IA superintelligentes). Les synthèses de leurs travaux sont publiées sur le site AITopics.

Comme le rapporta le "National Geographic", en 2007 un an après la présentation du gynoïde EveR-1, le gouvernement sud-coréen annonça qu'il émettrait un code d'éthique afin que les humains n'abusent pas des robots et vice versa. Cette charte s'appliquerait aux utilisateurs comme aux fabricants. Selon Park Hye-Young, du ministère de l'Information et de la Communication, la Charte reflète les trois lois d'Asimov et définit des règles de base pour le développement futur de la robotique et de l'Industrie 4.0, c'est-à-dire gérée par l'intelligence artificielle.

A l'échelle européenne, en 2017 le Parlement européen proposa à la Commission d'accorder une personnalité juridique aux robots (cf. §59 du rapport 2015/2103(INL)), ouvrant la voie à la déresponsabilité des constructeurs de robots en cas de défaillance de leurs systèmes ou de leurs machines....

Mais dès la publication de ce rapport, 156 experts se sont opposés à cette idée dans une lettre ouverte à la Commission européenne. Pour les rassurer, le Parlement européen précisa que cela ne concernerait que les robots les plus sophistiqués. Vu l'emprise des lobbies à la solde des industriels dans les institutions européennes, on peut franchement douter de la réponse du P.E.

En 2021, la Commission européenne publia un projet de réglementation visant à fixer des limites sur la façon dont l'IA peut être utilisée. Selon la Commission, "La combinaison du tout premier cadre juridique sur l'IA et d'un nouveau plan coordonné avec les États membres garantira la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en renforçant l'adoption de l'IA, les investissements et l'innovation dans l'ensemble de l'UE. Cette approche sera complétée par de nouvelles règles concernant les machines, qui visent à accroître la confiance des utilisateurs dans la nouvelle génération polyvalente de produits en adaptant les dispositions relatives à la sécurité." Mais il s'agit d'un cadre légal. Reste à voir comment les constructeurs de systèmes d'IA et les développeurs vont l'appliquer ou détourner l'esprit de la réglementation. Affaire à suivre.

En Chine, la reconnaissance faciale aide le gouvernement à entraver la vie des citoyens qui ne sont pas de bons patriotes et des entreprises privées participent à ce contrôle. Sur cette photo, Xu Li, CEO de SenseTime Group Ltd. dont le slogan est "SenseTime - L'IA pour un avenir meilleur", est identifié par l'IA de reconnaissance faciale dans la salle d'exposition de l'entreprise à Béijing, le 15 juin 2018. Document Gilles Sabrie/Bloomberg/Getty Images.

La future réglementation européenne sur l'IA (voir plus bas) interdira les systèmes qui tentent de contourner le libre arbitre des utilisateurs ou les systèmes qui permettent tout type de classement social (cf. la Chine) par le gouvernement. D'autres types d'applications sont considérées comme "à haut risque" et doivent répondre à des exigences de transparence, de sécurité et de surveillance pour être mises sur le marché. Celles-ci incluent l'usage de l'IA dans les infrastructures critiques, l'application de la loi, le contrôle des frontières, l'identification biométrique ou le suivi numérique (cf. le Covid-19). D'autres systèmes, tels que les chatbots des services clients Internet ou les jeux vidéos compatibles avec l'IA, sont considérés comme à faible risque et ne sont pas soumis à un examen minutieux mais l'utilisateur devra être informé qu'il communique avec une IA.

Mais il existe peu d'efforts similaires aux États-Unis où le gouvernement fédéral agit tout à fait à l'opposé de l'Europe, concentrant ses intérêts sur une législation limitant la réglementation de l'IA afin de promouvoir son usage à des fins de sécurité nationale. Or, ces actions dites "légales" voire injustement couvertes par la Justice ou même par la "raison d'État" peuvent directement conduire à un scénario Orwellien sous l'oeil scrutateur de Big Brother (cf. les abus de la NSA avec son programme d'espionnage Echelon auquel le Parlement européen s'est opposé et autres violations de la vie privée). En effet, si nous ne sommes pas prudents, ce qui n'est pas arrivé en 1984 pourrait arriver en 2024.

A l'inverse de l'Europe, le gouvernement fédéral américain est très intéressé par l'IA et a largement incité les entreprises à développer des systèmes d'IA à des fins de sécurité nationale et militaires. Cette orientation "patriotique" a parfois donné lieu à des controverses, des erreurs et à la violation de la vie privée.

Ainsi, en 2018 Google annula son Project Maven, un contrat avec le Pentagone qui aurait analysé automatiquement les vidéos prises par des avions militaires et des drones. En réponse à ses opposants, Google fit valoir que l'objectif était uniquement de signaler des objets pour examen humain, mais les critiques craignaient que la technologie ne soit utilisée pour cibler automatiquement les personnes et les lieux pour les frappes de drones. Des lanceurs d'alerte travaillant chez Google ont mis le projet en lumière, entraînant finalement une pression publique suffisamment forte pour que l'entreprise mette un terme à son projet.

Selon le webzine "Inside Defense", en 2020 le Pentagone dépensait 1.4 milliard de dollars par an en contrats relatifs aux systèmes d'IA et les applications militaires et de sécurité nationale d'apprentissage automatique en font partie étant donné l'enthousiasme de la Chine pour atteindre la suprématie en IA. En effet, aucun pays, pas même le leader mondial - les États-Unis - ne peut empêcher un État souverain de développer des technologies d'IA. La seule parade consiste donc à les développer soi-même pour pouvoir les comprendre et nous protéger.

Mais en parallèle, des efforts sont menés par les autorités américaines locales pour freiner l'usage de l'IA en raison des erreurs et abus portant préjudice à des personnes innocentes. Ainsi, une étude du National Institute of Standards and Technology publiée en 2019 révéla que les logiciels renvoyaient plus de fausses correspondances (faux positifs) pour les Noirs et les Asiatiques que pour les Blancs, ce qui signifie que la technologie est susceptible d'accentuer les disparités lors du screening des personnes de couleur pouvant entraîner des arrestations arbitraires (cf. ABCNews, 2020).

Etant donné ce risque, aux Etats-Unis plusieurs villes ou comtés (San Francisco en 2019 et le comté de King dans l'État de Washington en 2021) ont interdit l'utilisation par le gouvernement et donc par la police d'un logiciel de reconnaissance faciale. Depuis d'autres villes ont suivi.

La reconnaissance faciale. Document Metamorworks/Shutterstock.

Autre problématique, en 2020 la gendarmerie canadienne (GRC) utilisa la reconnaissance faciale de façon illégale et recueillit pendant plusieurs mois des renseignements personnels sur des salariés d'une société américaine (cf. Radio Canada).

Selon Daniel Therrien, le commissaire à la protection de la vie privée du Canada, "l'utilisation de la technologie de reconnaissance faciale par la GRC pour effectuer des recherches dans d’énormes dépôts de données de Canadiens qui sont innocents de tout soupçon de crime présente une grave violation de la vie privée."

Suite à ce scandale, le 6 juillet 2020 Therrien annonça que l'entreprise Clearview AI qui fournissait ce logiciel avait cessé d'offrir son service de reconnaissance faciale au Canada. Mais cela sous-entend aussi qu'elle continuera à le proposer aux pays où la législation est moins attentive à la protection de la vie privée, en particulier aux Etats-Unis !

Selon un communiqué de presse, au 25 mars 2022 Clearview AI possédait "une base de données rassemblant plus de 20 milliards de visages publiquement disponibles", autrement dit des portraits de personnes dont elle s'est débrouillée pour obtenir l'image sans leur consentement sous le motif qu'elles ont été publiées sur des sites "publics". Selon le magazine "TIME", Clearview AI compte par les "100 entreprises les plus influentes" et bien sûr l'entreprise s'en vente.

Face aux risques grandissants d'usages incontrôlés ou malveillants de l'IA, le 24 novembre 2021 l'UNESCO adopta une Recommandation sur l'Éthique de l'Intelligence Artificielle.

Pour éviter que ces abus et problèmes surviennent en Europe, en 2021 le Conseil de l'Europe - l'Organisation de défense des droits de l'homme forte de 46 États membres (depuis l'exclusion de la Russie en 2022) - proposa d'instaurer une réglementation stricte pour empêcher les violations des droits de l'homme. Le Conseil proposa de nouvelles lignes directrices sur la reconnaissance faciale aux gouvernements, aux décideurs et aux entreprises, parmi lesquelles "d'interdire l'utilisation de la reconnaissance faciale dans le seul but de déterminer la couleur de la peau, les croyances religieuses ou autres, le sexe, l'origine raciale ou ethnique, l'âge, l'état de santé ou le statut social d'une personne."

Selon Marija Pejčinović Burić, la Secrétaire Générale du Conseil de l'Europe, "Si la reconnaissance faciale peut être pratique dans notre vie quotidienne, elle peut aussi menacer nos droits humains essentiels, notamment le respect de la vie privée, l'égalité de traitement et la non-discrimination, en donnant aux pouvoirs publics et autres la possibilité de surveiller et de contrôler des aspects importants de notre vie - souvent à notre insu ou sans notre consentement. Mais cela peut être arrêté. Ces lignes directrices garantissent la protection de la dignité personnelle, des droits de l'homme et des libertés fondamentales, y compris la sécurité des données à caractère personnel" (cf. COE).

Le Pacte sur l'IA de l'Union européenne

Le 8 décembre 2023, l'Union européenne (la Commission européenne, le Parlement européen et les Etats membres) signa un accord sur une législation pour réglementer l'intelligence artificielle (cf. Europa et la Loi sur l'IA). Selon Ursula von der Leyen, présidente de la Commission européenne, "Le Pacte sur l'IA de l'UE est le premier cadre juridique complet pour l'intelligence artificielle au monde. C'est donc un moment historique." La loi fut adoptée le 13 mars 2024.

Malgré cet enthousiasme, les spécialistes confirment que la mise en œuvre du texte qui entrera en vigueur en 2026, s'annonce très compliquée. Il faut en effet d'abord établir un classement des systèmes d'IA selon leur profil de risque. Les applications exploitant l'IA sont utilisées dans la plupart des secteurs dont celui de l'énergie, la finance, la médecine, la sécurité, les transports, le support informatique, les centres de recherches, etc.

Pour prendre quelques exemples, le Parlement européen a insisté sur une interdiction totale de l'identification biométrique tandis que la reconnaissance faciale en temps réel ne sera autorisée que dans la recherche de victimes. Le "social scoring" tel qu'il est pratiqué en Chine sera interdit.

Document Shutterstock.

La transparence sera aussi la règle. Toute personne utilisant un système informatique devra être clairement informée le cas échéant qu'elle communique avec une IA (par exemple le chatbot d'Amazon). Les personnages et les images générées par une IA, les deepfakes et autres contenus générés par l'IA évoqués précédemment devront également toujours être étiquetés comme tels (ce qui encore trop peu souvent le cas sur les réseaux sociaux et dans les banques d'images).

Quant aux IA telles que ChatGPT, Bard ou Gemini, ces modèles devront non seulement être transparents (la boîte noire algorithmique sera interdite) mais ils devront respecter le droit d'auteur (pour compléter ses catalogues et entraîner ses IA, Google par exemple scanne depuis des années des livres complets sans demander l'autorisation des auteurs, exemple avec ce livre sur l'IA) et ils devront être accompagnés de résumés détaillés du contenu utilisé pour entraîner les modèles. Des obligations supplémentaires seront imposées pour l'IA générative qui pourrait comporter des risques systémiques.

Concrètement cette réglementation aura des impacts au quotidien sur notre usage des outils d'IA y compris génératives. Cela concerne les majors du secteur dont Google, Microsoft, OpenAI qui devront s'assurer de la qualité des données utilisées dans le développement des algorithmes afin qu'ils ne violent pas la législation européenne. De plus, les développeurs auront l'obligation de s'assurer que les documents (sons, images et textes) produits seront bien identifiés comme générés par une IA (on voit trop souvent sur Internet des images et vidéos générées par une IA mais publiées sans référence comme expliqué page précédente). Enfin, des contraintes plus sévères devront être appliquées aux systèmes d'IA les plus puissants.

Les entreprises qui ne respectent pas le Pacte sur l'IA risqueront des amendes pouvant aller de 7.5 millions d'euros ou 1.5% de leur chiffre d'affaires mondial à 35 millions d'euros ou 7% de leur chiffre d'affaires, en fonction de la nature de l'infraction et de la taille de l'entreprise.

Sachant que 52% des entreprises utilisant l'IA résident en dehors de l'Europe (cf. Statista, 2022), si elles n'acceptent pas les règles européennes, comme on le voit aujourd'hui avec le consentement des cookies, au pire ces applications d'IA afficheront une page blanche lorsqu'un utilisateur européen essayera d'y accéder car son accès sera bloqué. Or comme l'apprit Apple à ses dépens avec son connecteur propriétaire, l'Europe représente un marché de 750 millions de clients potentiels qu'aucune entreprise ne peut ignorer. Si ces entreprises d'IA veulent continuer à vendre leurs produits en Europe, elles devront se conformer à la législation européenne.

Selon von der Leyen, environ 100 entreprises ont déjà manifesté leur intérêt pour ce Pacte (en déc 2023).

Mais ne soyons pas naïfs. Si certains gouvernements et en particulier les militaires bafouent les lois de la guerre et les droits de l'homme, on ne voit pourquoi ce serait différent à propos de l'usage de l'IA... Les bonnes intentions et les belles paroles sont une chose, la réalité des enjeux politiques en est une autre.

A voir : Interaction Humain-IA | 2 minutes d'IA, Sorbonne Université

La vie n'est pas inscrite sur logiciel

En résumé, une IA reste une approximation des raisonnements humains et mieux vaut garder son esprit critique en éveil et toujours vérifier les résultats qu'elle propose. Il y autant de rapport entre l'IA et l'intelligence qu'entre la magie et la recherche en physique !

Tous les experts en IA vous diront qu'il est facile de créer un système d'IA peu fiable mais très difficile de créer un système d'IA complexe fiable. Bref, l'IA est perfectible. L'être humain doit donc toujours pouvoir la superviser. Dans ce monde toujours plus technique et digitalisé, il y a donc toujours une place pour l'humain, là où il faut une vision concrète des choses, du bon sens ou des sentiments, ou lorsque la machine échoue.

Si globalement nous sommes satisfaits des progrès accomplis dans tous les secteurs et qu'on peut applaudir l'imagination des jeunes chercheurs pour les innovations technologiques qu'ils nous offrent, certaines inventions nous ont également fait prendre conscience de leurs pouvoirs et de la nécessité de les encadrer dans une éthique compatible avec les exigences morales d'une société démocratique. Si nous voulons préserver notre identité, nos libertés et notre confort, veillons également à rendre ces révolutions aussi naturelles que possible.

Certes un robot doté d'intelligence artificielle répond à une question et résout plus rapidement un problème qu'un être humain. Il peut aussi simuler la compassion et l'amour. On peut même lui donner un visage humain et la possibilité de montrer ses (pseudo) émotions. Mais faut-il pour autant lui donner les mêmes droits qu'aux humains ? La majorité des scientifiques s'y refusent car un robot est une machine imitant l'un des aspects de la vie, ce n'est qu'une création artificielle qui simule la conscience et l'intelligence.

De plus, si l'idée de fabriquer un robot à visage humain doit en théorie faciliter nos interactions avec la machine, cette idée a montré ses limites. En effet, tout perfectionné qu'il soit, nous y percevons rapidement des imperfections nous rendant très mal à l'aise, ce que le roboticien Mori Masahiro a appelé la "vallée de l'étrange" (Uncanny Valley).

A voir : Female Android Geminoid F

A gauche, Geminoid F et un gros-plan sur son visage. Ce gynoïde présenté à Osaka en 2010 a été développé par ATR Intelligent Robotics and Communication Laboratories (IRC Labs) et Kokoro Androids. Comme tous les gynoïdes, sa plastique est tout autant charmante que dérangeante. Il pourrait être commercialisé pour 10 millions de yens soit 80000 €. Au centre et à droite, un robot anthropomorphe et un androïde qui n'existent encore que virtuellement. Dotés d'intelligence artificielle, séduisants et efficaces, ils ont réponse à tout et peuvent simuler nos gestes et nos émotions bien mieux que les robots actuels les plus performants. Dans quelques générations, ils seront peut-être les assistants des humains. Mais faudra-t-il pour autant leur donner les mêmes droits qu'aux humains ? La majorité des scientifiques s'y refusent car un robot n'est qu'une machine imitant l'un des aspects de la vie. Documents T.Lombry et mennovandijk/iStockPhoto.

Il est évident que cette course effrenée vers le progrès et toujours plus d'individualisme, de technologie, de virtualité et de contrôle peut déplaire et déranger. Ceux qui aiment leurs libertés, la nature et le contact humain par exemple jugeront ce progrès bien relatif et peu réconfortant.

Mais que les autres sachent également se distancer de temps en temps de cette technologie de plus en plus envahissante. La vie peut très bien se passer d'informatique. Profitons-en tant qu'elle n'est pas encore inscrite sur logiciel !

Dans ce village global d'un futur pas si éloigné que cela, où nous communiquerons tous à la vitesse de la lumière à travers des interfaces homme-machine, sachons nous préserver quelques îlots de liberté et de bonheur. Entrez donc dans ce monde virtuel brillant de mille innovations, mais ne lui confiez jamais votre âme et gardez l'esprit critique.

Pour plus d'informations

Sur ce site

Le Meilleur des Mondes ou les dérives de la société

Le suivi numérique

La cybernétique

Les robots au service des hommes

Internet pour le meilleur et pour le pire

La cybercriminalité

La Singularité Technologique

La vie sous toutes ses formes (IA et cyborgs)

Chatbots, vidéobots et IA génératives

Converser avec une IA : ChatGPT - Gemini - Mistral - Claude - AI Astronomy Guide Bot - Chai (pour mobile)

IA générateur d'images (Top 3 historique) : DALL-E 2 - Midjourney - Stable Diffusion

IA générateur d'images (autres) : AI Image Generator by iStock - Adobe FireFly - Art Breeder - Civitai - Dream Studio - Google Imagen - Microsoft Image Creator - Leonardo - LimeWare - Mage - NightCafé - Scribble Diffusion - Txt2Art - VanceAI - AILab - Hotpot.ai

Rhabiller les sujets : DignifAI (iOS)

Le descriptif d'une image de Stable Diffusion : img2prompt

Créer une vidéo grâce à l'IA : Sora - Fliki - Gen-2 - HeyGen - Opus Clip - Synthesia - Creative Reality Studio

Animer un personnage grâce à l'IA : Xpression Camera - StoryFile - Videoask - Deepfakesweb

Transcription d'une vidéo : Transcription powered by AI, Cockatoo

Logiciels graphiques exploitant l'IA : Topaz Gigapixel - Portrait.ai - Lensa - Photoshop

L'assistant IA agricole : Agribot

Vidéos (sur YouTube)

Les algorithmes | 2 minutes d'IA, Sorbonne Université

Un réseau de neurones artificiels | 2 minutes d'IA

L'apprentissage par renforcement | 2 minutes d'IA

L'apprentissage des robots | 2 minutes d'IA

How AI Image Generators Work (Stable Diffusion / Dall-E), Computerphile, YouTube, 2022

Les vidéos "deepfake", un outil pour la désinformation, AFP, 2019

Luc Julia, le co-créateur de Siri pour l'iPhone réagit aux IA dans les films de SF

The New FaceRig Live2D module preview! Animaze by Facerig, 2016

Autoencoding images beyond pixels: Visual attribute vectors, Anders Larsen, 2016

Jeff Kowalski (CTO Autodesk) on Generative Design, 2016

Painting with Bob: Assisted Creativity for Novices, ACM, 2015

SIGGRAPH Asia 2015 - Autocomplete hand-drawn animations, J.Xing

Handwriting Beautification Using Token Means, Larry Zitnick, 2014

TechFest 2011:ShadowDraw, Microsoft Research

L'IA en science

Use of AI in Research Exploration, Northwestern University

Artificial Intelligence, Quanta Magazine

AI-based model to predict acute and chronic chemical toxicity in aquatic organims, E.Kristiansson et al., Sciences Advances, 2024

CMS collaboration explores how AI can be used to search for partner particles to the Higgs boson, CERN, 2024

How is AI Transforming the Future of the Automotive Industry? Benefits and Use Cases, Appinventiv, 2024

L'IA, un nouvel allié pour les météorologues, S.Morin/CNRM, 2023

How Artificial Intelligence is Disrupting Medicine and What it Means for Physicians, U.Harvard, 2023

New book explores how AI really changes the way we work, MIT Sloan Management School, 2023

Overview of artificial intelligence in medicine, A.Gupta et al., 2019

Voir aussi l'IA en astronomie

Entreprises

Science AI, Google

AI Solutions, IBM

Intel AI, Intel

L'IA avec AWS Machine Learning, Amazon

IA Microsoft

OpenAI

DJI

Alphafold

Aleph Alpha

Autres ressources

Démystifier l'IA générative : le vrai, le faux et l'incertain, L.Soulier/Sorbonne U., 2024

IA éthique & Numérique Responsable : quels enjeux pour demain ?, ISIA, 2024

ChatGPT, Midjourney : tout comprendre sur les IA génératives, E.Moulines et al., 2023

How to use Midjourney to generate amazing images and art, ZDNet, 2023

Discord is your place for AI with friends, 2023

Résultat du Bac Philo 2023 entre Raphaël Enthoven et ChatGPT : Le Figaro Etudiant - BFMTV

Pour une éthique du numérique, CNPEN, PUF, 2022

Projet de recommandation sur l'éthique de l'intelligence artificielle, SHS/UNESCO, 2021

La lettre ouverte des scientifiques à la C.E. en réponse aux recommandations du P.E., 2017

Autonomous weapons: an open letter from AI & robotics researchers, S.Hawking, E.Musk, S.Wozniak and al., 2015 (lettre signée par 4502 chercheurs)

Aldous Huxley, Le Meilleur des Mondes (version française en ligne, Brave New World)

George Orwell, 1984 (version française en ligne, version originale en ligne)

Législation européenne

Intelligence artificielle: les députés adoptent une législation historique, Parlement Européen, 2024

Loi sur l'intelligence artificielle: accord sur des règles globales pour une IA digne de confiance, Parlement Européen, 2023

Pacte sur l'IA (AI Act), Commission européenne, 2023

Proposition de règlement établissant des règles harmonisées en matière d’intelligence artificielle, Commission européenne, 2021

Plan coordonné dans le domaine de l’intelligence artificielle, Commission européenne, 2021

Convention 108 - Lignes directrices sur la reconnaissance faciale, Conseil de l'Europe, 2021

Livre Blanc sur l'IA, Commission européenne, 2020

Recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL), Parlement Européen, 2017.

Retour aux Technologies

Page 1 - 2 - 3 -


Back to:

HOME

Copyright & FAQ