Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Avantages et inconvénients de l'intelligence artificielle

Un gynoïde ou robot doté d'IA à l'apparence féminine. Document T.Lombry.

Prudence est mère de sûreté (I)

Nous entendons de plus en plus parler de l'intelligence artificielle, l'IA. C'est une technologie à la mode dont les applications sont tous les jours plus nombreuses. Mais qui la connait réellement et peut la définir ? Seuls les spécialistes peuvent répondre à ces questions. En effet, si certains d'entre nous utilisent déjà l'IA à travers des applications grand public ou à titre professionnel et connaissent ses avantages comme ses inconvénients, beaucoup moins de personnes peuvent la définir ou connaissent les risques qu'entraine son utillisation. Nous connaissons surtout l'IA à travers nos outils numériques les plus avancés, les communiqués de presse des entreprises du secteur de l'IA, les articles académiques ou éducatifs, ce qu'en disent les médias et à travers les interprétations qu'en font les cinéastes dans les films d'action. Ces deux dernières sources sont souvent binaires, accentuant soit le côté le plus séduisant soit le plus dangereux de l'IA qui cache en réalité une nature tout à fait neutre mais qui, comme toute machine ou système artificiel, doit être encadrée pour éviter toute erreur ou écart inattendu. On y reviendra en détails.

Quand on écoute certains politiciens voire même certains entrepreneurs en IA en quête de financements pour poursuivre leurs recherches, ils nous font croire que nous avons les moyens de maîtriser l'IA et qu'elle peut tout résoudre. Ils imaginent que nous vivons dans un monde parfait où tout est facile et tout le monde est coopératif. Mais dernière ces belles paroles se cache en réalité un monde des affaires très compétitif avec des milliards de dollars en jeu pour mettre la main sur cette techologie très prometteuse mais aussi très complexe et difficile à mettre au point.

Qu'est-ce que l'IA ? L'IA est un terme mal défini. Il fait généralement référence à des machines capables d'apprendre ou de résoudre des problèmes automatiquement, sans être dirigées ou supervisées par un humain. De nombreux programmes d'IA reposent aujourd'hui sur l'apprentissage automatique (learning machine) et l'apprentissage profond (deep learning) supervisé ou non, une suite de méthodes d'apprentissage et de calculs utilisées pour reconnaître des modèles dans de grandes quantités de données, puis appliquer ces leçons acquises à la prochaine série de données et ainsi de suite, devenant théoriquement de plus en plus précises à chaque itération. On y reviendra.

Il s'agit d'une approche extrêmement puissante qui s'applique à tous les domaines, de la théorie mathématique fondamentale à la cosmologie, en passant par l'ingéniérie, la sociologie, l'épidémiologie et les diagnostics cliniques parmi des centaines d'autres domaines et spécialités où l'IA excelle souvent, mais pas toujours.

Si de nos jours nous pouvons contrôler ou débrancher un système d'IA, une étude a montré que le cas échéant, il serait impossible de contrôler une IA superintelligente. C'est donc aujourd'hui et tant que nous gardons le contrôle des machines, qu'il faut mettre en place des garde-fous et des réglementations strictes pour limiter leurs utilisations et leurs actions dont la possibilité qu'elles puissent décider à la place des humains. En fait cette autonomie de décision existe déjà dans certains logiciels d'imagerie médicale ou certains drones militaires exploitant l'IA. Quant aux projets secrets du DARPA, on ignore tout simplement ce qu'ils nous préparent, ce qui n'est pas très rassurant.

Pour comprendre toute la puissance de l'IA, commencons par la présenter sous son plus beau profil, celui de son usage au quotidien avec quelques exemples médiatisés et ludiques. Nous verrons ensuite comment elle fonctionne, ses limites mais également ses détournements et les risques inavoués.

L'usage de l'IA au quotidien

De nos jours, on ne s'en rend pas compte, mais l'IA est déjà présente dans la vie quotidienne et la plupart d'entre nous l'utilise sans le savoir. Elle est exploitée dans les GPS pour gérer le trafic et la navigation, dans les smartphones de dernière génération, les flux d'informations sur les réseaux sociaux en gérant les goûts et préférences des internautes (cf. Facebook), elle gère les recommandations de musique et vidéo en streaming (cf. YouTube), elle sert d'assistant virtuel ou chatbot sur certains sites de e-commerce et de certaines administrations publiques, elle interagit avec nous lorsqu'on pose une question sur un moteur de recherche comme Google, elle contrôle les voitures autonomes, elle intervient dans la domotique, l'imagerie médicale, la robotique industrielle, la sécurité et la surveillance, le secteur financier, la maintenance des stocks, la recherche scientifique, le secteur militaire, dans les fonctions de certains logiciels, etc. Bref, elle se diversifie et demain elle sera omniprésente.

Les peintures rupestres de Lascaux assistées par un robot. Bien qu'anachronique cela nous rappelle que placée entre les mains d'une personne malintentionnée, on peut être abusé par une IA, ce qu'on appelle le "deepfake". Photomontage de Medium.

Lorsqu'en 2011 Apple sortit son assistant vocal Siri capable de dialoguer avec l'utilisateur (appeler un contact sur l'iPhone, trouver un lieu, faire une réservation, lui poser une question, traduire du texte, programmer un minuteur, etc), le grand public découvrit concrètement toute la puissance de l'IA et les progrès accomplis depuis son introduction dans la science-fiction il y a plusieurs générations.

En 2012, des spécialistes en IA présentèrent au public les étonnantes performances de l'apprentissage profond, une technique qui séduisit rapidement de nombreuses sociétés de développement informatique, de chercheurs, d'industriels et de politiciens, nous laissant croire que l'IA alliée ou non aux robots aurait réponse à tout et serait infaillible.

Lorsque Google (puis Alphabet) commença à exploiter le Web 3.0 ou "web sémantique" dans son moteur de recherche vers 2014 et le combina à l'indexation de mots-clés, cet outil transforma le quotidien de nombreuses personnes. En effet, depuis cette époque chacun peut poser une question en langage clair à Google, y compris dans sa langue maternelle, et obtenir au moins une réponse dans la seconde. Le résultat est surprenant. Mais nous verrons que la réponse n'est pas toujours correcte.

Enfin, quand les chercheurs ont exploité l'IA pour sélectionner la molécule la plus adaptée pour soigner un symptôme précis (cf. la médecine 4.0) et que les entreprises se mirent à digitaliser tout azimut ou à investir dans des robots intelligents pour optimiser leur rentabilité, nous avons compris que l'industrie 4.0 est parmi nous pour y rester. Mais c'était sans tenir compte des fausses promesses de l'IA ou plutôt des difficultés rencontrées qui allaient bientôt décevoir les chercheurs et les industriels opportunistes.

Après les robots industriels, de démonstration ou réservés au mannequinat, dans les années 2020 le public a découvert que l'IA générative peut lui rendre de grands services. Elle est par exemple très utile pour tous ceux qui recherchent des informations, notamment les étudiants, les journalistes, les historiens et les écrivains. Combinée à un système de traduction universel, elle facilite aussi grandement le travail des traducteurs ou nous aide à communiquer dans un pays étranger.

Face aux performances des IA, des chercheurs ont été un pas plus loin en les mettant à profit pour améliorer des images floues dans le cadre de projets militaires puis scientifiques (médecine, géophysique, astrophysique, etc.) ou pour extraire des informations pertinentes de grands ensembles de données (cf. le Big Data) a priori disparates ou trop complexes pour être traitées manuellement. De nos jours, de nombreuses découvertes scientifiques n'auraient jamais été possibles sans l'aide de l'IA. Certains de ces outils sont aujourd'hui accessibles au grand public à travers des simulateurs ou des applications ludiques.

L'IA générative

L'IA génératice est un système d'IA capable de générer des contenus très rapidement et très efficacement. Il peut s'agir d'images, de textes, de vidéos, etc. Son application la plus connue du public est la génération d'images à titre ludique mais elle peut tout aussi bien être utilisée à titre professionnel, à des fins de recherche (cf. AlphaFold de Google DeepMind) et être à l'origine d'activité commerciale et donc de profits.

A titre ludique par exemple, l'IA générative fonctionne tellement bien que des programmeurs ont développé des applications d'imagerie et de dessins (portraits, paysages, etc) dans lesquelles il suffit de demander à l'IA un sujet précis en langage clair, pour qu'elle le dessine en moins d'une minute aussi bien qu'un artiste qui y passerait des journées comme illustré sur cette page.

Parmi ces outils citons Dall-E, Imagen, Midjourney et Stable Diffusion, auxquels il faut ajouter des plates-formes pour adulte comme Unstable Diffusion dont les mots sensibles censurés sont peu nombreux. On y reviendra. Ces IA sont entraînées par apprentissage automatique supervisé (voir plus bas). Toutes ces plate-formes sont très fréquentées. Depuis 2022, des dizaines de millions de personnes les utilisent qui génèrent au minimum près de 1 milliard d'illustrations par an (cf. Every Pixel). Certaines vont se retrouver dans les circuits commerciaux, en particulier dans les banques d'images en ligne telles qu'Adobe Stock, Dreamstime ou Freepik parmi d'autres.

A voir : Text to Image World Championship

(Stable Diffusion 2 vs. Midjourney v4 vs. Dall-E 2)

MIDJOURNEY, DALL.E ou VRAI ARTISTE ?

Ferez-vous mieux que ces expertes ?

Différents styles de dessins ou plutôt de rendus non retouchés réalisés en moins d'une minute par l'IA de l'application Midjourney. Tous les sujets et tous les styles sont accessibles à cette IA, de l'hyperréalisme à l'art abstrait et des sujets aussi divers que l'architecture, la nature, les estampes chinoises, l'art abstrait, les mangas et bandes dessinés, les plans techniques, les sculptures, les animaux et la texture de leur fourrure, les objets du ciel et les portraits parmi d'autres thèmes. Si c'était un humain, on dirait que c'est un polymathe car ce type de don exige des compétences en art et en science. Documents totor041, andersdroid, MasterYuri, Athiwat, taoji, raimundo_escuadra, ac1.mkt22k.idx et T.Lombry pour les quatre derniers.

Les systèmes d'IA les plus complexes sont capables de reproduire virtuellement et de manière réaliste le portrait d'une personne réelle d'après photo et ensuite de l'animer à volonté, y compris de la faire parler à partir d'un enregistrement audio avec une synchronisation labiale et de la faire bouger dynamiquement, en temps réel (cf. Speech2Face). On verra page suivante que cela a déjà un impact sur les réseaux sociaux et même sur les sites d'actualités.

Devant le succès des IA génératives, la banque d'images Shutterstock qui contient plus de 450 millions d'images, plus de 28 millions de vidéos et plus de 70 millions d'images vectorielles (mars 2024) s'est associée à OpenAI pour lui permettre d'entrainer son générateur d'images Dall-E sur la vaste bibliothèque iconographique qu'elle possède (mais uniquement sur les images sous licence). A leur tour, moyennant un abonnement les utilisateurs de Shutterstock peuvent générer et télécharger des images créées avec Dall-E. Les sites iStockPhoto et 123RF proposent également un outil d'IA de génération d'images.

Revers de l'invention, rien n'empêche une personne incapable de dessiner de se faire passer pour un artiste et de signer des oeuvres qui sont en réalité conçues par une IA comme illustré ci-dessus et d'en tirer profit. Si en soi ce n'est pas interdit, le fait de ne pas le mentionner et de tromper les éventuels amateurs d'oeuvre d'art est contraire à l'éthique.

Mais il serait naïf de croire que nous vivons dans un monde de bisounours où tous les utilisateurs de l'IA graphique générative ne font que des dessins innocents ou n'ont pas une finalité malsaine en créant ces images.

Avant que l'IA soit appliquée aux arts graphiques et mise à disposition du grand public (vers ~2020), tout personne disposant d'un logiciel d'édition d'image tel que Photoshop d'Abobe pouvait réaliser des photomontages et les faire passer pour de véritables photos prises sur le vif. Il était souvent impossible de reconnaître le photomontage ou le truquage vidéo.

Mais de nos jours, avec la commercialisation d'applications graphiques dotées d'IA tels que Dall-E et Midjourney et des chatbot vidéos (agents vidéos conversationnels) tels que StoryFile ou Videoask parmi d'autres, la confusion est totale au point que même les professionnels des médias sont préoccupés par ce mélange des genres qui commence à agacer beaucoup de monde.

On reviendra sur ces abus page suivante à propos de l'important problème du deepfake.

L'agent conversationnel (chatbot)

ChatGPT (Chat Generative Pre-trained Transformer, c'est-à-dire Transformateur pré-entraîné génératif de message instantané) est une application d'IA développée par OpenAI avec une large participation de Microsoft (10 milliards de dollars). Sortie en novembre 2022, ChatGPT est capable de tenir une conversation avec un être humain, de vous donner des informations et même d'automatiser des tâches.

ChatGPT est surtout utilisé pour répondre à des questions. Exploitant la technologie Web 3.0, il fonctionne à la manière de l'outil de recherche de Google mais répond comme un agent conversationnel polyglotte et polymathe, sous forme textuelle en langage clair. Il est tellement performant que certains étudiants l'utilisent aussi pour répondre à des questions complexes y compris d'examen de première année d'ingénieur. C'est une version très évoluée, beaucoup plus complète et performante du simulateur ELIZA proposé sur les premiers ordinateurs dans les années 1970.

ChatGPT répond correctement à une question difficile.

Comme le rapporta CNBC, fin 2022 Google testa plusieurs chatbots d'IA (des agents conversationnels) pour éventuellement les intégrer à son site et conclut : "Étonnamment, ChatGPT a réussi l'interview de niveau 3 pour un poste de programmeur." Bien que le niveau 3 soit un poste d'entrée dans l'équipe d'ingénierie de Google, la rémunération totale moyenne pour le salarié est d'environ 183000$ par an ! De quoi faire des envieux ailleurs dans le monde (cf. la fiche métier d'un poste similaire en France).

ChatGPT peut aussi rédiger un article sur un sujet précis, y compris politique, sociétal, scientifique, mathématique ou philosophique comme illustré à droite. Toutefois, cette IA n'a pas d'opinions politiques ou historiques personnels sur les évènements et se contente de rapporter les connaissances et les opinions. Seul bémol, on ignore quelles sont les sources utilisées. Est-ce important ? Evidemment ! Comme sur les réseaux sociaux, si l'information provient d'un complotiste, d'un dénégateur, d'un créationniste, d'un antivax, d'un raciste, d'un sectaire, d'un climatosceptique pour citer quelques extrémistes, on comprendra qu'il faut l'ignorer.

Quand on lui demande "Quelle est ton identité ?", ChatGPT répond : "Je suis Assistant, un grand modèle de langage formé par OpenAI. Je suis une intelligence artificielle conçue pour répondre aux questions et fournir de l'information sur divers sujets. Je suis incapable de ressentir des émotions ou de percevoir le monde physique de manière similaire à un être humain, et je n'ai pas d'identité propre en dehors de mes fonctionnalités de traitement du langage. Mon but est de fournir de l'information et de l'aide aux utilisateurs de manière claire et précise. Je suis programmé pour répondre aux questions et donner des explications sur de nombreux sujets, mais je ne suis pas en mesure de naviguer sur Internet ou de collecter de nouvelles informations en dehors de ce que j'ai appris lors de mon entraînement. Je suis ici pour vous aider à trouver des réponses et à résoudre vos problèmes de manière rapide et efficace."

Contrairement aux anciennes IA programmées à partir de données parfois biaisées (voir page 2), ChatGPT ne semble pas sexiste ou raciste mais pose des avis non équivoques sur ces sujets. Voici ce qu'elle répond à propos du racisme : "Il est essentiel de le combattre en promouvant l'égalité et le respect entre tous les individus, quelle que soit leur race." Quand on lui demande ce qu'elle pense du sexisme, elle répond : "[...] Il est important de reconnaître et de lutter contre le sexisme, et de promouvoir l'égalité et l'inclusion de toutes les personnes, quels que soient leur sexe ou leur genre. En tant que modèle de langage, je suis conçu pour traiter toutes les personnes de manière égale et respectueuse, et je condamne toute forme de discrimination, y compris le sexisme."

Revers de la médaille, l'IA joue si bien son rôle d'assistant intelligent qu'elle risque d'être détournée de sa finalité par les étudiants et tout qui peut trouver un intérêt à l'exploiter. En effet, le système étant accessible à tous et sans contrôle, des étudiants peuvent profiter de ChatGPT parmi d'autres assistants pour lui demander de rédiger leur rédaction ou une critique et même pour répondre aux questions d'un examen réalisé à distance. Si le style n'est pas élaboré, cela peut toutefois duper un enseignant. On y reviendra.

A son tour, Google lança Bard en 2023 en réponse à ChatGPT puis Gemini en 2024. Ce dernier est un outil d'IA complet qui réalise également de la génération d'image, de la reconnaissance d'image, de l'analyse audio et vidéo, il peut lire des fichiers PDF et s'interfacer avec d'autres outils. Gemini est actuellement le chatbot le plus performant et également le seul disponible par le web mais également sur les smartphones sous iOS et Android.

Microsoft a également intégré la technologie de ChatGPT dans son moteur de recherche Bing. Son IA porte le nom de Prometheus (cf. Microsoft). Microsoft supporte également Mistral, un chatbot Open source sorti en 2021. Citons également le bot de Chai Research adapté aux smartphones.

L'arrivée de ces outils d'IA a déclenché une véritable course entre les géants de la technologie de l'information. A son tour, le géant chinois Baidu annonça en 2023 la sortie d'un chatbot d'IA générative nommé ERNIE basé sur un modèle de langage supérieur à GPT-3 (Generative Pre-trained Transformer 3 développé en 2020 par la société OpenAI).

Le public va-t-il y gagner quelque chose ? Google estime que "le moteur de recherche classique affichant une liste de liens est dépassé". Google prédit que "l'IA va transformer la recherche d'informations, mêlant davantage textes, images et vidéos." Microsoft considère que ces nouveaux outils d'IA vont "réinventer la façon de chercher des informations" et que Bing et Edge seront nos "copilotes sur le web."

Mais à présent un problème se pose. Google a découvert que son outil de recherche devenait inutile et est compliqué à utiliser car son concurrent ChatGPT qu'on peut installer comme extension sur Google (Chrome) - un comble - peut fournir à tout le monde des réponses à leurs questions ! Oserait-on suggérer un nouveau challenge à Google : qu'ils demandent à Bard de leur trouver la solution, s'il en est capable ! Voilà un problème inattendu pour le géant américain qui essuye un revers de plus.

L'IA prédictive

L'IA prédictive sert à identifier des modèles, des tendances, à anticiper des comportements et prévoir des évènements futurs en s'appuyant sur des statistiques. L'IA prédictive a besoin de vastes ensembles de données (des Big Data) et d'un apprentissage automatique (voir plus bas).

Comme la plupart des IA, l'IA prédictive se base sur l'analyse de données et recherche des relations entre des éléments de données similaires. Pour ce faire elle utilise une base de données d'intégrations qui lui permet de stocker des informations sous une forme permettant d'identifier les similitudes et les relations. Ces intégrations sont créés par des couches de réseaux neuronaux non supervisés qui sont ensuite regroupées selon leur pertinence les unes par rapport aux autres afin que des logiques puissent être rapidement identifiées. Concrètement, si des données telles que "ciel couvert", "tempête", "orage" sont souvent proches les unes des autres dans une base de données d'intégrations, un modèle d'IA prédictive météorologique peut prédire l'arrivée d'une tempête.

Cela ne signifie pas que les prédictions de l'IA prédictive sont exactes mais le résultat étant obtenu très rapidement là où l'être humain mettrait beaucoup plus de temps ou ne parviendrait pas à extraire l'information, l'IA devient plus experte que l'être humain et donc plus performante. 

L'IA prédictive s'avère d'une aide précieuse dans quantités de secteurs allant des sciences aux entreprises (gestion des stocks et des approvisionnements, prédiction des maintenances, optimisation des itinéraires, etc), en passant par le secteur financier (tendances boursières, etc), les services publics (prédiction des périodes d'encombrement sur les routes, etc), les soins de santé (analyses radiographiques, prédiction des futurs problèmes potentiels de santé sur la base des antécédents médicaux d'une personne, prédiction de l'apparition d'un nouveau variant d'un virus, prédiction de l'occupation des lits d'hôpitaux en période de crise, etc), les campagnes de marketing, la sécurité et l'armée (prévention des attaques, etc), ...

En résumé, l'IA nous permet d'être plus productifs et peut nous faciliter la vie. Ces exemples démontrent qu'il ne faudrait pas considérer l'IA comme un concurrent des humains qu'il faut craindre mais comme un partenaire qui nous veut du bien. Mais est-ce toujours vrai ? Sous ses aspect séduisants et son autorité, l'IA ne cache-t-elle pas un vrai danger ? Nous donnerons un début de réponse page suivante.

Maintenant que nous avons une idée générale de ce que peuvent faire les IA générative et prédictive, intéressons-nous aux fondamentaux avant d'explorer les IA et leurs performances.

Définitions

Qu'est-ce que l'intelligence ? Selon le dictionnaire "Le Robert", "l'intelligence est 1. la faculté de connaître, de comprendre ; qualité de l'esprit qui comprend et s'adapte facilement. 2. L'ensemble des fonctions mentales ayant pour objet la connaissance rationnelle (opposé à sensation et à intuition)".

Quant à l'intelligence artificielle, le Parlement européen la définit comme la "reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité".

L'IA au service de l'industrie 4.0. Document T.Lombry.

Mais connaître la définition d'un concept ou les étapes d'un raisonnement logique pour obtenir un résultat (cf. la naissance d'une théorie) ne signifie pas qu'on le maîtrise et encore moins qu'on est capable de donner cette intelligence à une machine. On peut bien lui expliquer ou la programmer tel un bras robotique pour effectuer une tâche ou prendre une décision mais ce sera toujours un cas particulier parmi l'infinité de cas réels possibles. 

D'où la difficulté que rencontrent les développeurs et les constructeurs dès qu'ils mettent leur IA en situation réelle, par exemple au volant d'une voiture dans la circulation ou qu'on lui demande de reconnaître une personne dans un paysage. Loin des conditions binaires à haut contraste et répétitives des laboratoires, toutes les IA commencent par se planter lamentablement et ne reconnaissent rien. Pourquoi ? Car pour une IA, l'image qu'elle analyse ou le signal qu'elle reçoit n'est qu'une suite d'informations binaires qui n'a rien à voir avec la réalité sensible. Et qu'est-ce qui ressemble plus à une suite de 0 et de 1 qu'une autre suite de 0 et de 1...

Concrètement, comme un novice qui apprend le métier, si on lui pose la question d'une autre manière ou qu'on ajoute un paramètre, notre novice comme notre machine seront perdus et ne trouveront pas la solution. Pour éviter de commettre une erreur ils devront faire appel respectivement à leur instructeur (novice) et leur superviseur (IA) ou suivre un entraînement adapté à leur travail.

Pour qu'une IA puisse répondre correctement à une question ou résoudre un problème, lorsque la partie matérielle, hardware est résolue, il faut donc commencer par instruire l'IA, c'est l'apprentissage.

Les apprentissages symbolique, automatique et profond

Pour améliorer les performances des IA, les chercheurs en informatique se sont inspirés de la cybernétique afin de trouver la meilleure méthode pour convertir des idées et des processus mentaux en solutions informatiques et apprendre graduellement aux IA des notions de plus en plus complexes. Concrètement, il s'agit de construire des algorithmes de décision et plus généralement des modèles mentaux humains qui pourront ensuite être appliqués par les développeurs tels des bibliothèques d'outils de prise de décision à différents domaines.

Sur le plan historique, il existe trois grandes méthodes d'apprentissage :

- l'IA symbolique : le système simule a priori le raisonnement humain en exploitant un ensemble de symboles (concepts, objets, relations, etc) basé sur une suite de règles préétablies censées représenter la solution idéale d'un problème particulier. Inspirée par la machine universelle de Turing et basée sur des algorithmes de décision, l'IA symbolique rassemble le plus de cas possibles. C'est une version améliorée du système expert.

Mais cette méthode présente des limites. D'abord il faut décrire en détails les étapes de la solution, du choix initial au résultat, pour chaque cas particulier. Or il existe des cas non exprimables sans parler de la logique floue et dans certains domaines il y a un nombre infini de cas qu'il est impossible de décrire en totalité. Il est par exemple impossible de décrire pour la machine toutes les variétés et postures de chats ou l'aspect des tumeurs dans toutes leurs variantes.

C'est dans ce contexte qu'IBM proposa en 2015 l'IA Watson for Oncology aux médecins mais qui se révéla rapidement inefficace car incomplète, basée sur des référentiels américains et incapable de traiter des cas complexes. Sous la pression des critiques, IBM abandonna son projet en 2020 non sans garder un grand intérêt pour la médecine et la santé, le traitement de données restant au coeur de son business model (comme chez les GAFAM).

A voir : Les algorithmes | 2 minutes d'IA, Sorbonne Université

Un réseau de neurones artificiels - L'apprentissage par renforcement

L'apprentissage des robots

- l'apprentissage automatique ou machine learning : le système exploite un ensemble de données en imitant un réseau neuronal (comme le feraient nos neurones). Il est basé sur des approches mathématiques et statistiques. Il utilise des algorithmes pour créer un modèle des données d'une catégorie précise afin d'améliorer ses performances sans qu'on doive explicitement programmer chaque donnée. Le but est qu'il trouve la solution à partir d'un modèle présentant la plus faible erreur statistique moyenne.

Pour y parvenir, on fournit à l'IA des milliers de données (des big data), textes, sons, images et vidéos afin qu'il se représente du mieux possible les différents concepts (on lui montre par exemple des chats dans toutes les positions, de toutes les tailles et de toutes les couleurs afin qu'il puisse l'identifier sans erreur). Ces données sont triées et cataloguées en catégories et sous-catégories puis le système détermine des corrélations entre les données qui sont ensuite étiquetées avant de les intégrer sous forme d'algorithmes d'auto-apprentissage.

Mais ce système présente également des limites. Des chercheurs ont montré que si on modifie une image, qu'on supprime ou ajoute un élément tout en conservant son aspect général (que reconnaitrait un humain), l'IA pour se tromper et mal identifier le sujet. Appliquer dans un domaine critique (nucléaire, circulation routière, médecine, etc), cela peut conduire à des erreurs fatales. Ce type d'apprentissage est dit non supervisé.

On a donc proposé d'ajouter un superviseur, d'abord un être humain puis un humain assisté d'une IA, qui aide le système à correctement étiqueter chaque donnée afin qu'il puisse trouver des corrélations et des relations entres les différentes caractéristiques des données et les étiquettes correspondantes. Si l'IA se trompe, le superviseur la corrige ce qui permet à l'IA d'adjuster les paramètres du modèle afin d'affiner le résultat qui, progressivement, se rapproche du résultat attendu. Comme évoqué plus haut, c'est la technique choisie pour entraîner l'IA graphique générative Midjourney développée par l'équipe de David Holz.

Une variante est l'apprentissage par renforcement où l'IA apprend à optimiser son résultat à partir d'expériences itérées sur base du principe de la récompense quantitative (positive ou négative). C'est l'un des plus utilisés avec l'apprentissage profond.

- l'apprentissage profond ou deep learning : inventé en 2012, le système exploite des réseaux neuronaux et des représentations de données spécifiques à une tâche et non plus des algorithmes; l'IA est donc capable d'apprendre par elle-même mais d'une façon différente de la logique humaine. On qualifie l'apprentissage de "profond" par opposition à l'apprentissage automatique non profond du fait qu'il effectue un très grand nombre de transformations (une transformation correspond à une unité de traitement) sur les données entre les couches d'entrée et de sortie du capteur. Et plutôt que de confier à un humain le soin de choisir la meilleure solution, l'IA est auto-supervisée pour optimiser elle-même la solution.

L'apprentissage profond est loin d'être parfait. Il est donc encore supervisé. Comme l'apprentissage automatique, on entraîne l'IA à reconnaître les sujets en lui montrant des milliers d'images du même sujet sous toutes les formes possibles et un humain corrige le résultat si l'IA commet une erreur. Nous verrons page suivante que les superviseurs sont souvent des cohortes d'amateurs passionnés ou des travailleurs sous-payés.

Lorsque son apprentissage profond est terminé (en réalité il ne l'est jamais), l'IA est capable de retrouver le concept original derrière une image modifiée par exemple (un animal qui ressemble à un chat portant des lunettes n'est pas un être humain mais bien un chat). Mais même de cette façon, la réponse de l'IA doit être validée par un humain, tout spécialement dans les domaines à risque (médecine, etc). Dans le domaine artistique, nous verrons page suivante qu'une erreur d'une IA générative n'a pas de conséquence fatale mais peut par exemple générer une chimère au lieu du portrait de la Joconde.

En résumé, comme peuvent le confirmer tous les spécialistes de l'apprentissage des IA, aujourd'hui en raison des défaillances des IA, nous sommes incapables de mettre au point un système intelligent au sens propre. Pour le prouver, nous allons à présent décrire les limites, les erreurs et les biais des IA parmi d'autres problèmes toujours d'actualité.

Prochain chapitre

Le côté obscur de l'IA

Page 1 - 2 - 3 -


Back to:

HOME

Copyright & FAQ