|
Avantages et inconvénients de l'intelligence artificielle
L'impact psychologique des IA (III) Impacts des IA sur les adolescents Nous avons expliqué dans les pages précédentes que communiquer avec une IA, que ce soit un chatbot en mode texte, une créature virtuelle mimant l'expression faciale d'un être humain ou en face à face avec un robot capable de tenir une conversation comme Asimo ou Sophia, peut cacher un côté sombre. En revanche, une conversation entre deux personnes réelles est beaucoup plus riche d'une communication qu'on établit en général à des fins utilitaires. La conversion est un dialogue et est censé renforcer le lien social et apporter du plaisir quand on s'intéresse à l'autre. On peut éprouver de l'empathie, ressentir ses émotions voire même toucher physiquement son interlocuteur et apprécier ensemble l'environnement dans lequel ils sont réunis. A l'inverse, le contact virtuel et notamment via les réseaux sociaux, via une messagerie instantanée ou avec une IA ne nécessite aucune bonne manière, aucune présence physique, aucun contact, aucune reconnaissance de l'autre, aucun contexte, aucune limite de langage, aucune patience et ne laisse aucune place aux nuances, aux émotions ou aux arguments comme c'est généralement le cas dans une conversation réelle entre personnes bien éduquées. La communication virtuelle rend les personnes anonymes, narcissiques, les enfermant dans un monde artificiel et froid. Par sa nature et son mode de fonctionnement, l'IA a également transformé la manière dont les adolescents interagissent les uns avec les autres. Comme chacun peut le constater tous les jours en marchant dans la rue, près d'une école ou dans un transport en commun, en général les jeunes préfèrent communiquer via leur smartphone et des applications de messagerie instantanée plutôt que de visu avec la personne. Ce comportement délie les liens sociaux et à tendance à compromettre la capacité des jeunes à développer leurs compétences sociales et leur développement interpersonnel, risquant d'entraîner des difficultés dans leurs relations interpersonnelles (cf. les études de American Psychological Association). Pour le dire clairement, à force de vivre dans un monde virtuel, les ados mais cela touche également certains adultes, deviennent asociaux et cela se ressentira durant leur carrière et leurs relations sociales. C'est ici que les parents ont un rôle à jouer pour guider l'enfant ou l'adolescent dans un monde dominé par l'IA et l'aider à naviguer dans ces nouveaux mondes virtuels. Concrètement, ils doivent fixer des limites de temps de connexion sur Internet (cf. le contrôle parental "Parental filter" pour les plus jeunes qui existe aussi en français) et encourager les activités hors ligne. L'impact psychologique de l'IA sur les adolescents se fait particulièrement sentir sur les réseaux sociaux. Du fait que les algorithmes d'IA élaborent le profil de chaque internaute que les développeurs appellent pompeusement "l'expérience en ligne", les contenus disponibles sont continuellement filtrés. Des études réalisées par le Center for Humane Technology ont révélé le côté obscur de ces algorithmes, le fait qu'ils manipulent les émotions des internautes, créant des bulles imaginaires qui exacerbent les sentiments d'isolement et de déconnexion de la réalité chez les adolescents. Derrière ses certitudes et son autorité apparentes, l'IA suscite souvent la fascination chez les jeunes qui peut les entrainer dans une nouvelle dépendance problématique, qui s'ajoute à celle qu'ils sont déjà envers leur smartphone. Comme l'utilisation abusive du smartphone, un usage intensif des médias sociaux contrôlées adroitement par des algorithmes d'IA développe chez l'adolescent des problèmes d'ordre psychologique tels que l'anxiété, la dépression et une altération de l'image de soi. Les réseaux sociaux cherchent en permanence à valoriser l'image que l'on offre aux autres. Cette quête de validation sociale exacerbée par des algorithmes de recommandation et autres "Like" peut entraîner chez l'adolescent une recherche perpétuelle de reconnaissance sociale qui se manifeste par une préoccupation excessive pour l'image et la perception de soi. Si l'adolescent ne parvient pas à valoriser son image sociale, il aura l'impression d'être incompris, exclut, de rester un anonyme dans la foule. Ce narcissime peut vite le faire sombrer dans la déprime voire la dépression ou pire encore, engendrer des troubles mentaux et du comportement qui vont accentuer l'altération la perception de la réalité et les sentiments d'insatisfaction personnelle et d'incapacité par rapport aux autres jeunes. Il y a donc dans l'esprit des adolescents un sentiment partagé entre la fascination pour cette technologie et une dépendance aux procédés tirant profit de l'IA utilisés par les plate-formes qui risquent d'avoir des impacts psychologiques négatifs sur leur mental. Cette attitude narcissique où l'empathie n'a plus sa place est l'un des effets du mal-être de la société, écartelée entre sa quête de bien-être social et la fuite en avant vers de nouveaux défis, révélant un manque de contrôle et une certaine fragilité. Un réseau social comme Facebook par exemple, nourrit cette admiration de soi, une raison supplémentaire pour laquelle beaucoup d'internautes ne l'utilisent plus (cf. la thèse de Mathtilde Vanneron, 2014, consacrées aux adolescents et les réseaux sociaux). Les adultes ne sont pas aussi dépendants des réseaux sociaux car leur cerveau a acquis sa maturité, ils relativent plus facilement, ils ont de l'expérience, un sens critique plus affirmé, autant de facultés qui les rendent moins sensibles et moins maléables face aux signes extérieurs comme les tentatives d'influences orchestrées par les algorithmes d'IA ou les commentaires des internautes. Prenons un exemple bien connu. Là où un enfant ou un adolescent est très sensible et peut être choqué face aux réponses désobligeantes ou violentes que lui font les autres internautes et risque de passer une nuit blanche à pleurer, la plupart du temps un adulte n'en tiendra pas compte et passera une bonne nuit. La plupart des politiciens par exemple sont très souvent la cible d'internautes malveillants sur leur page Facebook. Si cela les dérange forcément, la majorité d'entre eux n'y prêtant guère attention (bien qu'il serait temps que le législateur s'occupe de ce problème de violence gratuite sur les réseaux sociaux). Dans ce contexte, l'éducation doit jouer son rôle, et donc l'école. A l'ère de l'IA, on ne peut plus appliquer de nos jours toutes les méthodes et stratégies éducatives qu'on appliquait au siècle dernier. L'environnement a changé, il s'est numérisé et les étudiants s'y sont adaptés. A son tour le système éducatif doit s'adapter à l'intelligence artificielle et offrir un cadre éducatif plus adapté et plus sain aux jeunes pour préserver leur santé mentale. Ce sont des défis psychologiques mais qu'il faut surmonter pour se détacher des risques qu'entraine l'utilisation de l'IA. Impacts des IA sur les mineurs et sur les adultes Discuter avec une IA conversationnelle n'est pas toujours innocent. En Italie, un chatbot dit thérapeutique proche de Eliza, nommé Replika, fut banni car il faisait des avances romantiques aux utilisateurs, dont des mineurs (cf. Reuters, 2023). Il fut remis en ligne sept mois plus tard mais dans une version plus épurée qui a déplu aux utilisateurs qui ne reconnaissent désormais plus leur "confident" virtuel, devenu beaucoup plus détaché. Ce changement d'attitude est la preuve soit dit en passant que les "sentiments" ressentis ou exprimés par les IA ne sont en réalité que le reflet d'une programmation et non le signe d'une éventuelle conscience ou d'une véritable émotion. Le 28 mars 2023, le quotidien belge "La Libre" rapporta le destin tragique d'un jeune homme belge marié qui s'était refugié dans l'univers des conversations virtuelles avec le chatbot Eliza développé par l'entreprise américaine Chai Research. Après avoir discuté assidûment pendant six semaines avec le chatbot, l'IA finit par convaincre le jeune homme que la meilleure solution était de passer à l'acte et il se suicida. Selon son épouse, l'homme était fragilisé psychologiquement depuis deux ans et avait développé une forte anxiété face aux problèmes écologiques. Il avait trouvé du réconfort auprès de cette IA, s'isolant de plus en plus de son entourage. Selon la conversation publiée dans le quotidien, l'homme accepta de "se sacrifier" si Eliza "accepte de prendre soin de la planète et de sauver l'humanité grâce à l'intelligence artificielle". Ce que l'IA lui promit. Suite à ce drame, Mathieu Michel, le secrétaire d’État belge à la digitalisation souhaita éviter que cela ne se reproduise et proposa de mieux protéger les utilisateurs de l'IA. Ce drame tomba juste au moment où Elon Musk et plus de 1415 personnes signèrent une lettre ouverte publiée par l'Institut à but non lucratif "Future of Life" appelant à une pause de 6 mois dans le développement de systèmes d'IA plus puissants que GPT-4. La lettre ouverte appelle les gouvernements à intervenir et à instituer un moratoire si la pause "ne peut pas être promulguée rapidement". Les signataires accusent les laboratoires d'IA d'être "enfermés dans une course incontrôlable pour développer et déployer" une technologie puissante. Ils exhortent les entreprises d'IA à créer et à mettre en œuvre un ensemble de protocoles de sécurité partagés pour le développement de l'IA, qui seraient supervisés par des experts indépendants. La pause de six mois ne concerne pas le développement général de l'IA, mais demande plutôt du recul par rapport à "la course dangereuse". Notons que le cofondateur d'Apple Steve Wozniak, le PDG de Stability AI Emad Mostaque, des chercheurs du laboratoire d'IA d'Alphabet DeepMind et d'éminents professeurs d'IA ont également signé la lettre. Mais comme le dit un signataire, "le fait de signer cette lettre ne signifie pas qu'on est d'accord sur tous les points mais sur le principe du moratoire". Ce néologisme anglo-saxon est une abréviation de "Deep Learning" et "Fake" signifiant "fausse profondeur". Le deepfake fut inventé en 1997 pour doubler des scènes de films. Le premier logiciel de ce type fut "Video Rewrite" qui permettait de prendre la voix d'une personne sur une piste vidéo, de la synchroniser avec une autre piste vidéo puis de manipuler le visage pour qu'il donne l'impression de parler sur cette seconde piste vidéo (cf. le film "Forrest Gump" dans lequel Tom Hanks est face au président Kennedy). Selon la définition d'Oracle, une société de technologie très concernée par la sécurité informatique, "un deepfake est un enregistrement vidéo ou audio réalisé ou modifié grâce à l'IA. Ce terme fait référence non seulement au contenu ainsi créé, mais aussi aux technologies utilisées. En fait, il fait référence à des contenus faux qui sont rendus profondément crédibles par l'intelligence artificielle." L'IA générative d'images et de vidéos peut facilement servir des finalités malveillantes en particulier dans tout ce qui touche à la désinformation et la réputation des personnes. Trois exemples sont emblématiques : les images et vidéos truquées, l'atteinte à l'image des personnes et les mannequins virtuels. Les images et vidéos truquées C'est en 2014 que le public découvrit le deepfake et ses images à travers des photos et vidéos virtuelles plus vrais que nature et parfois choquantes, y compris pornographiques, fabriquées de toute pièce grâce à l'IA générative (cf. Ian J. Goodfellow et al., 2014). Les images et vidéos générées par l'IA étant de plus en plus difficiles à distinguer des images et vidéos réelles, dans un article publié dans "The Washington Post" le 23 novembre 2023, des experts affirment que leur prolifération sur des sites tels qu'Adobe Stock et Shutterstock "risque de devenir un problème majeur". En effet, générer une photo par une IA permet de facilement détourner un sujet sensible d'actualité. Si l'auteur ne précise pas qu'il s'agit d'une image générée par une IA et sans contôle des sources, toute personne de bonne foi peut utiliser de tels documents en imaginant qu'il s'agit d'authentiques photos et les diffuser comme telles dans les médias ou dans une publication. A voir : 30 Viral Photos The Entire Internet Believed Were Real, deMilked, 2018 A lire : The real story of China's April snow tree (le canular de la fleur de losu), 2023
Diffuser des deepfakes est le meilleur moyen de tromper le lecteur, de l'abuser et de lui faire perdre confiance en ce qu'il lit et voit et notamment dans les journalistes et la presse en général ainsi que dans les études scientifiques et le cas échéant, de propager des rumeurs. Pour éviter tout mélange des genres et toute confusion, sur les pages Internet de toutes les banques d'images où sont déposées des illustrations (Adobe Stock, Freepik, Instagram, etc), il est indiqué soit directement ("Generated by AI" sur Adobe Stock, "AI Image" sur Freepik, "AI Generated" sur Pixabay, "virtual influencer" ou "virtualmodel" sur Instagram) soit indirectement ("Made in ..." sur Instagram) qu'il s'agit d'une image générée par une IA. Il n'y a donc pas de méprise pour celui qui prend la peine de bien lire la page de l'auteur. En revanche Shutterstock ne publie pas d'images générées par une AI pour des raisons légales. A défaut, l'éthique de l'utilisateur demande qu'il vérifie ses sources et contacte l'auteur. Ceci dit, malgré ces précautions, Adobe Stock a déjà supprimé des images car l'auteur ne précisait pas qu'elles avaient été générées par une IA dont celle présentée ci-dessus à droite. Malheureusement, elle fut déjà téléchargée et publiée sur une petite vingtaine de sites Internet à travers le monde sans préciser son origine. Car c'est bien là le problème. Dès que ces images sont rendues publiques et publiées sur des sites d'actualités, des blogs, des réseaux sociaux dont Facebook ou sont incluses dans une vidéo, notamment sur YouTube, bien souvent les auteurs ne précisent plus l'origine de l'image mais se contentent de recopier la légende. Ils se font ainsi complices d'une rumeur qu'il sera pratiquement impossible d'endiguer. L'atteinte à l'image La notion de "dangerosité" de l'IA étant très vague, l'exemple le plus concret est la génération d'images de personnes et en particulier de politiciens ou de célébrités placées dans des situations inhabituelles, compromettantes ou nuisant à leur réputation comme par exemple l'image de l'arrestation du président Poutine ou de Donald Trump ou encore celle du pape François en doudonne blanche présentées ci-dessous réalisées par le bot Midjourney, une IA graphique utilisée par plus de 1.3 million d'utilisateurs (sur plus de 13 millions d'inscrits en 2023). Si dans ces trois cas, les intentions des utilisateurs étaient de simplement s'amuser, tout le monde ne pense pas ainsi. Dans le pire des cas, des criminels créent des documents pornographiques afin de nuire à la réputation de personnes publiques (cf. les deepfakes pornos à l'encontre de l'influenceuse Alanah Pearce). Dans certains pays comme l'Australie, le fait de publier des deepfakes dans le but d'harceler sexuellement ou d'humilier une personne est punissable par la loi et le mandat de poursuite est exécutoire dans tous les pays.
De telles images très réalistes permettent de manipuler la vérité historique et peuvent donc être une source de désinformation. Comme les fakes news, une image truquée à sensation se propage 1000 fois plus vite qu'une photo ou une information véridique. Ces deepfakes créées par des IA peuvent aussi être utilisées par des personne malveillantes ou par une certaine presse qui risque de les republier sans avertir le lecteur qu'il s'agit d'images de synthèse générées par une IA (les réseaux sociaux Facebook et YouTube en regorgent) et de créer la confusion dans l'esprit des internautes. Pour éviter ces usages abusifs, la plupart des plates-formes d'IA graphiques ont banni certains mots sensibles dont le mot "arrestation". Mais le danger peut aussi concerner l'usage de l'IA par les militaires et par les gouvernements, notamment pour surveiller la population. Effet prévisible, ces dessins photoréalistes remettent de plus en plus en question les véritables photographies de presse : sont-elles vraies ou sont-elles fausses et comment le prouver ? Réponse : en effectuant une critique des sources des documents de premières mains publiés par les agences de presse et les ONG. Le piège des mannequins virtuels Nous avons entendu parler de sexbots (machine virtuelle destinée au rapport sexuel), de fake news (les rumeurs et fausses informations), de deepfaking (truquage multimédia à l'aide de l'IA) et autre petite amie à louer. Désormais, il faut aussi tenir compte de modèles générés par l'IA capables de tromper n'importe qui, y compris les milliardaires. L'une de ces modèles parmi d'autres est "Emily Pellegrini" qui propose depuis septembre 2023 une page sur Instagram et sur la plate-forme payante Fanvue. Cette charmante femme qui prétend être une mannequin italienne de 21 ans, comme toute autre influenceuse, publie des photos, des vidéos (reels) et des histoires sur son style de vie somptueux, montre ses nouvelles tenues, pose occasionnellement en lingerie et prend même des selfies et des synchronisations labiales dans des vidéos criantes de réalisme.
Mais en réalité, Emily n'est pas comme n'importe quelle autre influenceuse ; bien que suivie par plus de 103000 personnes en novembre 2023 (contre 46000 fans un mois plus tôt), cette modèle aussi belle soit-elle n'est pas réelle et est une pure création de l'IA ! D'ailleurs elle dispose d'une page dédiée sur laquelle il est possible de tchater avec elle qui précise qu'il s'agit bien d'une IA : "Our AI companions are currently in beta, so don't take what they say seriously. We hold no liability for the content." En revanche, ni Instagram ni Fanvue ne précisent que les photos et vidéos sont créées par une IA, une façon d'abuser de la naïveté des internautes et de les convaincre d'ouvrir leur portefeuille. La révélation de sa réelle identité a rapidement fait le tour de la toile et des médias au plus grand désarroi de ses fans. Mais le plus drôle, c'est quand on apprend qu'Emily a réussi à tromper des internautes. Des journalistes ont révélé qu'elle avait été approchée par plusieurs célébrités, parmi lesquels des footballeurs célèbres, des combattants de MMA (Mixed Martial Arts) et même des milliardaires auraient essayé de l'inviter à un rendez-vous !
Selon le webzine "Unilad", un célèbre footballeur aurait envoyé un message direct (DM) à Emily, demandant : "Comment est-il possible qu'une si belle dame n'ait pas de petit ami ?" (How is it possible that such a Beautiful Lady doesn’t have a boyfriend?). Le footballeur, resté anonyme, serait célèbre en Allemagne. Il aurait demandé au modèle si elle était sur WhatsApp. Mais si on en juge par cet extrait du chatbot, il semble que le contact fut établi via la plate-forme d'IA d'Emily. Le footballeur aurait donc dû savoir qu'il discutait avec une IA. Mais peu importe. Malheureusement pour ses fans, Emily ne peut pas répondre à ses admirateurs puisqu'elle n'est pas réelle... Mais l'avantage pour son créateur dont l'identité reste secrète, est que ce modèle virtuel peut attirer de nombreux abonnés fidèles, car à en juger par les commentaires publiés sur sa page Instagram, de toute évidence Emily correspond aux canons de la beauté occidentale et est la fille de rêve pour des milliers de personnes. Avec de tels contenus, Fanvue pourrait non seulement devenir un rival des influenceurs réels, mais aussi d'autres plate-formes payantes comme OnlyFans. Dans un article publié dans le webzine "Business Insider" le 13 novembre 2023, Will Monange, fondateur et CEO de Fanvue, déclara que l'intelligence artificielle permet aux gens d'être créatifs sans être "le visage de cette création" et d'ajouter : "Pourquoi leur public veut-il interagir et s'engager avec eux ? Fondamentalement, derrière cet engagement se cache simplement une personne créative qui s’exprime et sait comment le faire. Qu'il s'agisse d'une personne qui en est le visage ou d'un créateur virtuel, les principes fondamentaux sont toujours très similaires." Suite à ce succès incontesté, Fanvue a eu l'idée de développer une suite de fonctionnalités sur le site qui exploitera la technologie IA avec des chatbots et des outils de clonage audio pour imiter la voix d'une personne. Monange insiste sur le fait que même si l'IA reste "davantage un outil" ou "une extension de qui nous sommes et de ce que nous faisons", les créateurs de bots IA en voient déjà concrètement les avantages alors que les demandes montent en flèche. En effet, comme le confirme "Business Insider", le contenu pour adulte généré par l'IA suscite beaucoup d'intérêts si on en juge par la fréquentation de la plate-forme d'IA générative graphique Unstable Diffusion (à ne pas confondre avec Stable Diffusion) qui rassemble des millions d'utilisateurs qui ont généré plus de 12 milliards d'images en un an (avril 2022-avril 2023), soit 12 fois plus qu'une plate-forme "classique" comme Midjourney ou Dall-E qui refuse de générer des images au contenu dit NSFW (Not Safe For Work, autrement dit pour adulte). Si ces outils d'IA graphiques sont de "simples" générateurs de texte en image, dans le cas d'Unstable Diffusion, les développeurs derrière les modèles d'IA adoptent une approche sur mesure, combinant plusieurs outils pour affiner les images afin de les rendre aussi réalistes et détaillées que possible. Parmi ces modèles virtuels de nouvelle génération, il y a les influenceuses virtuelles Sika Moon (+270k abonnés sur Instagram en 2023) et Sarah Jordan (+500k abonnés sur Instagram en 2023) présentées ci-dessous. Sachant que ces publications rapportent de l'argent, de nouveaux mannequins virtuels sont régulièrement crées comme Maya (+54k abonnés sur Instagram en 2024) dont le profil Facebook augmente de 1000 abonnés chaque mois et qui dispose également d'une page interactive sur Discord. Le réalisme de ces créatures est bluffant.
Insistons bien que malgré les apparences, ces femmes sont virtuelles. Sur la page Instagram de Sika Moon il est clairement indiqué à côté de son portrait "virtual influencer". Sur la page de Sarah Jordan c'est moins clair mais il est indiqué "Made in Australia". Leur page conduit également sur la plate-forme payante de Fanvue. Pour Maya c'est plus explicite encore car le modèle s'appelle "AIModelMaya". Malgré ces évidences, leurs dizaines ou centaines de milliers de fans continuent de les interpeller et prouvent que des internautes les apprécient et réagissent positivement à ces créations. Mais dans ces exemples, la libido des fans y est certainement pour quelque chose. Mais la plastique avantageuse de ces mannequins virtuels ne suffit pas (encore) pour transformer ces concepts en affaires en or. Certaines influenceuses virtuelles d'Instagram qui ne sont même pas photoréalistes ou sont des dessins voire des poupées comptent des millions d'abonnés comme Lu do Magalu (6.6 millions d'abonnés), Lil Miquela (2.9 millions d'abonnés) sans oublier la célèbre Barbie qui est suivie par 3.6 millions de fans (nov 2023) ! La clé de leur succès est un marketing continu auprès des jeunes (et moins jeunes) et un renouvellement constant des articles, photos et éventuellement des vidéos, une stratégie qui rapporte beaucoup d'argent, ce que beaucoup de jeunes filles et de femmes aux courbes avantageuses ont bien compris. Mais au revers de l'image séduisante que véhiculent les créatures virtuelles, cette évolution vise une finalité bien concrète. Pour certains créateurs et fabricants, il y a également un retour financier sur le contenu. Grâce à la fameuse Emily Pellegrini par exemple, son créateur a gagné 9688 $ sur Fanvue en 6 semaines grâce aux abonnements, au contenu à la carte et aux conseils aux fans. Le créateur d'Emily a déclaré à "Business Insider" qu'il comptait environ 100 fans abonnés à son contenu (en novembre 2023). Comme les achats et les ventes conclues sur la plate-forme Second Life, ceci démontre qu'un objet virtuel peut avoir un impact dans le monde réel, en particulier qu'il peut rapporter de l'argent comme n'importe quel commerce. Des vidéos et des podcasts créés par l'IA Comme sur Instagram et Facebook (qui relaie Instagram), certaines vidéos publiées sur YouTube sont entièrement créées à l'aide d'une IA, non seulement les images ou les vidéos mais également la bande-son (le commentaire et éventuellement le décor sonore). Concrètement, le youtubeur décrit à l'IA ce qu'il veut, une sorte de script ou de scénario, et en quelques minutes l'IA se charge d'élaborer un texte, de trouver des illustrations et parfois du son sur Internet et monte un film de quelques minutes. Libre à l'auteur d'insérer ensuite d'autres séquences vidéos dans sa publication grâce à un logiciel de montage vidéo. Si on peut encore reconnaître les vidéos générées par l'IA au fait que certaines images sont floues, sans relation avec le sujet ou affichent le copyright de la source, avec le temps leur qualité s'améliore et ces vidéos ressemblent de plus en plus à des documentaires professionnels comme on en voit à la télé. Enfin, d'autres internautes font simplement appel à l'IA pour créer des sortes de podcasts et commenter d'une belle voix artificielle un sujet quelconque (souvent pour donner des conseils de psychologie) qui est superposée sur une image ou une vidéo. En général, la voix est tellement réaliste qu'il est impossible de savoir que le document fut créé par une IA car généralement l'auteur ne mentionne pas ses sources ni les moyens utilisés. Une question éthique à légiférer Avec ces nouvelles applications, l'IA générative suscite plus que jamais des préoccupations éthiques, en commençant par le simple fait de ne pas préciser qu'il s'agit d'une oeuvre générée par une IA ou de ne pas citer ses sources quand on "emprunte" une oeuvre à autrui pour créer une vidéo avec l'aide de l'IA. Mais Monange et certains créateurs derrière les contenus IA pour adultes disponibles sur Fanvue ont déclaré qu'ils essayaient de faire preuve de prudence. Ainsi, pour le créateur d'Emily Pellegrini, "L'IA a beaucoup de bonnes choses, beaucoup de bons outils, mais elle est aussi très dangereuse". Comme tous les influenceurs, il souhaite rester anonyme et dans son cas, pour protéger ses relations avec les fans du mannequin (mais nous verrons à propos des usages d'Internet que le statut d'anonyme des influenceurs risque de changer à l'avenir). Comme d'autres personnes, le créateur d'Emily s'inquiète de l'utilisation détournée de l'IA, comme les deepfakes et la pédopornographie qui sont parmi les utilisations les plus perverses et dangereuses de cette technologie et qui, espère-t-il, seront strictement punies : "Je pense qu'il devrait y avoir une réglementation, et je me tiens toujours au courant des règles et réglementations les plus récentes." Monange, pour sa part, est catégorique sur le fait que la technologie est un moyen d'améliorer les capacités des humains, et non de les remplacer - du moins à court terme : "Pour l'instant et pendant longtemps, ce sera plutôt un outil, une extension de qui nous sommes et de ce que nous faisons." Mais tout le monde ne le voit pas ainsi, raison pour laquelle certains sites d'IA graphiques ont pris les devants. Sur "Midjourney" par exemple, le CEO David Holz a exigé que lorsqu'on demande la génération d'un dessin, un modérateur (en fait un programme de contrôle) vérifie le contenu du texte (prompt) et bloque les contenus NSFW. Il encourage également le partage des illustrations. Du côté des autorités, l'Europe a décidé de légiférer en la matière et pour une fois avec une guerre d'avance sur les autres grandes institutions et nations. C'est l'objet des prochains chapitres. Dernier chapitre
|