Lorem ipsum dolor sit amet, consectetur, adipisicing elit. Voluptatum, commodi, pariatur. En savoir plus
Tribunes

Le péril éthique des IA génératives

Publié le 06/02/2023

Si vous n’avez pas encore fait l’exercice de la joute verbale avec ChatGPT, vous avez déjà un train de retard. Et, à moins d’avoir passé les trente derniers jours dans une grotte sans accès à Internet, vous avez sûrement été exposé aux expérimentations de vos relations avec ChatGPT à longueur de fil d’actualité LinkedIn.

Commençons par un bref rappel. GPT-3 est un modèle de langage, c'est-à-dire un outil d’intelligence artificielle dont la vocation est de produire du texte. Il a été lancé en 2020. ChatGPT n’est autre que sa version Chat, i.e. conversationnelle et avec une expérience utilisateur simplifiée. Vous pouvez maintenant interagir avec cet outil et, en fonction de ce que vous lui demanderez, cet outil va formuler une réponse plus ou moins longue ou élaborée.

GPT est une intelligence artificielle générative. Comprendre : des algorithmes qui utilisent du savoir existant au service de leur apprentissage, pour générer de nouveaux contenus. C’est un outil absolument fascinant que nous devons tous, professionnels et particuliers, apprendre à utiliser. Mais il est si puissant qu’il pose nombre de questions, notamment éthiques.

Ceux qui craignent sa version 3 vont faire un collapsus. Sa nouvelle version GPT-4, sera dotée de 100 trillions de paramètres pour analyser les requêtes et y répondre. GPT-3 n’en possède « que » 175 milliards. Par ailleurs, pour ceux qui souhaiteraient freiner cette innovation, là encore, il est déjà trop tard. Meta a conçu un « grand modèle de langage », l’OPT-175B. Google a quant à lui présenté son bot LaMDA il y a deux ans. Nous ne sommes pas en reste avec Bloom, une IA fondée par des Français ; quant à la Chine, elle a Wu Dao pour « chemin de la conscience » environ dix fois plus volumineux que GPT.

IA : De la technologie au language

Deux éléments amplifient la puissance de la technologie, c’est la convergence et l’invisibilisation. Ils rendent les modèles de langage tels GPT et leurs itérations sidérantes.

La convergence permet d’associer les forces de plusieurs technologies. Prenons un avatar numérique (GAN), associons-le à ChatGPT3, ajoutons des neurosciences comportementales, proposons de cet avatar une présentation en réalité augmentée (AR) ou une diffusion vidéo sur un réseau social type Instagram, le tout imaginé et livré par une société de lobbying malveillante. Vous obtenez un expert convaincant, photoréaliste, proposant une lecture déformée de la réalité à des fins de manipulation.

L'invisibilité quant à elle, permet de faire oublier la technologie. Elle est le fruit de la miniaturisation et de l’intégration des technologies. Imaginez le nombre de services intégrés dans votre iPhone. Dans le cas de notre expert malveillant, la stratégie sera inspirée ni plus ni moins, de Georges Lucas, avec la « suspension consentie de l'incrédulité ». Soit, en narratologie, le fait de penser que ce que l’on vous présente est réel ; et la « verisimilitude », soit en épistémologie l’appropriation de la vérité. En simplifiant, vous avez tendance à oublier que l’expert devant vous est une intelligence artificielle. C’est l’exemple du film Her, de Spike Jonze.

Lorsque ce type de technologie s’immisce dans nos vies, sans qu’il soit possible de faire la différence entre une production humaine et machine, lorsque les populations, citoyens, consommateurs ou leaders d’opinions tels des journalistes, des cadres dirigeants ou des élus, peuvent être dupés par des machines, cela pose un problème majeur.

De la nécessité de la main humaine

J’ai demandé à l'intéressé (ChatGPT) quels étaient les problèmes éthiques posés par lui-même, en matière de communication sur les réseaux sociaux. Sa réponse est honnête mais courte : manipulation de l'opinion publique, discrimination, atteinte à la vie privée, faux contenus. C’est cohérent. Les critiques sur les Languages Models de la part notamment de chercheurs tels Timnit Gebru et Margaret Mitchell, membres du laboratoire d'éthique de l'intelligence artificielle de Google, leur ont coûté leur place...

Il faut comprendre que d’ici 10 ans au maximum, il sera absolument impossible de détecter le réel de l’artificiel en termes de langage, de photo, de vidéo. Seuls les fournisseurs de ces services, Big Tech, seront en mesure de vous prévenir, moyennant paiement, de la production de leurs modèles génératifs. Ce qui donne toute sa force à la phrase : « la vérité a un prix ». C’est aussi, en politique, une illustration du centralisme démocratique. Rappelons que selon NewsGuard, ChatGPT relaie des fake news dans 80% des requêtes portant sur des sujets sensibles tels la COVID et la guerre en Ukraine.

Rendons-nous compte : ces grands modèles de langage tels GPT sont déjà capables d’analyser instantanément un texte de loi ou un document de milliers de pages. Ils savent en déceler les failles objectives et ensuite produire des milliers de requêtes (amendements) qui viendront obstruer le débat en créant du bruit (des spams). En d’autres termes, on assiste à une automatisation du lobbying avec un effet volume disproportionné. Celui-ci vise à saturer la capacité humaine ou celle des organisations à traiter l’information. Or on sait combien « l'information obesity » ralentit voire empêche la prise de décision.

Imaginons maintenant, cette même démarche “spam” réalisée sur l’intégralité des textes de lois d’un gouvernement ou d’un parti, sur l’intégralité des prises de paroles d’une marque -Twitter, Instagram, presse - le tout en simultané et la démultiplication induite des « effets spams ». Vous asphyxiez l'émetteur des messages et brouillez la compréhension possible de sa dialectique. De là à nous retrouver avec sur les bras avec un Cambridge Analytica 2.0...

GPT-3 a été développé au sein d'OpenAI, à l’origine une organisation non-profit créée notamment par Elon Musk et des investisseurs comme Sam Altman, son actuel CEO. Aujourd’hui, le statut non-profit est passé au for-profit. On ne peut éviter le parallèle avec Arpanet, cet outil universitaire dédié à la recherche qui devint Internet, ou encore se remémorer l’éthique informatique des pionniers du MIT. Les idéaux des origines ont été dévoyés par les dérives de l’internet commercial (les réseaux sociaux et autres dévoiements du Dark Web).

Les technologies doivent être manipulées, au sens cette fois du latin médiéval « conduire par la main ». Elle doit simplifier le travail de l'Homme pour lui permettre de monter dans la chaîne de valeur. Penser qu’elle pourrait réfléchir à sa place, surtout en matière de prospective ou de progrès, est une erreur à ne jamais commettre. Chez JIN, nous invitons tous nos consultants à utiliser GPT, mais en leur imposant de garder la main. Il nous faut garder la maîtrise des nouvelles technologies, mais n’oublions jamais que celles-ci doivent rester au service de l’humain.

La technologie doit libérer l’Homme de la commodité et de la routine.

Auteur
Articles en rapport
Tribunes
L’IA générative signera-t-elle la fin des applications ?
L’IA générative signera-t-elle la fin des applications ?
Lire l'article
Evénement
Colloque IA au Sénat, la Souveraineté numérique en ligne de mire
Colloque IA au Sénat, la Souveraineté numérique en ligne de mire
Lire l'article
Evénement
GPTs : Comprendre le conflit israélo-palestinien grâce à l’IA
GPTs : Comprendre le conflit israélo-palestinien grâce à l’IA
Lire l'article
Tribunes
L’IA générative : un espoir pour la Silicon Valley, un défi pour l’Europe
L’IA générative : un espoir pour la Silicon Valley, un défi pour l’Europe
Lire l'article