Pourquoi le génial générateur de texte d’OpenAI créé-t-il la polémique ?

3 Août 2020 - Carlito

0 commentaire(s)
© Franki Chamaki – Unsplash

L’intelligence artificielle commence à faire son chemin dans la vie de tous les jours, dans des domaines divers et variés comme le traitement de l’image. Dans les labos de recherche et les entreprises, elle est utilisée soit en tant qu’outil, soit à des fins exploratoires, avec parfois des résultats spectaculaires à la clé. Et s’il y a bien une entreprise qui symbolise cet aspect à la perfection, c’est certainement OpenAI. L’entreprise fondée, entre autres, par Elon Musk en 2015 est devenue coutumière des coups d’éclat avec plusieurs projets très médiatisés, avec des débouchés très concrets et des résultats souvent assez impressionnants. Et on peut affirmer sans trop de risques que ce n’est pas son dernier bébé GPT-3 qui va inverser cette dynamique, bien au contraire.

GPT-3, pour Generative Pre-trained Transformer-3, est la dernière itération de l’un des projets les plus excitants, mais aussi les plus clivants d’OpenAI. La raison d’être de cette IA qui s’entraîne à partir du contenu disponible sur le web ? Générer du texte, sur tout, n’importe quoi, et dans n’importe quel style. Cette dernière mouture, âgée d’à peine trois mois, vient tout juste d’entrer en bêta privée et quelques heureux élus de l’industrie ont pu commencer à jouer avec l’API. Le concept est simple : fournissez ou non des instructions quelconques (ton, contexte, nom de l’auteur, style, années…), et GPT-3 vous recrachera un texte correspondant. Et le moins que l’on puisse dire, c’est que les premiers retours sont carrément bluffants.

Commençons par le blog de Gwern Branwen, (en anglais), qui regorge d’exemples variés et assez impressionnants, qui vont de la fiction au dialogue. Dans ce bel exemple, Mario Klingermann a simplement fourni le nom d’un auteur imaginaire, la première lettre du texte et un titre… et le système a répondu avec une drôle de mini-histoire (disponible en entier ici) semi-philosophique sur les réflexions d’un Londonien de 1897 sur Twitter.

Another attempt at a longer piece. An imaginary Jerome K. Jerome writes about Twitter. All I seeded was the title, the author’s name and the first « It », the rest is done by #gpt3

Here is the full-length version as a PDF:https://t.co/d2gpmlZ1T5 pic.twitter.com/1N0lNoC1eZ

— Mario Klingemann (@quasimondo) July 18, 2020

Utile ? Certainement pas. Cohérent et très impressionnant ? Oh que oui ! Certains exemples de niche sont même particulièrement fascinants : l’auteur lui a par exemple demandé d’imaginer à quoi pourrait ressembler un futur changelog (la liste des changements apportés par les développeurs dans un nouveau patch)  de Dwarf Fortress ! Un exemple qui illustre cependant bien la flexibilité rédactionnelle de l’outil. Sur la base d’un système comme celui-ci, on peut tout à fait imaginer que certains articles de presse strictement factuels, comme le compte-rendu d’un match de football ou d’un procès, puissent être produits par de tels systèmes. C’est une piste déjà largement explorée, et des exemples comme celui-ci nous en rapprochent un petit peu plus chaque jour.

Le contenu textuel, mais pas seulement

Mais souvenez-vous : GPT-3 est un générateur de texte, au sens le plus général du terme. Cela signifie qu’il peut écrire des phrases, comme nous l’avons vu plus haut… mais pas seulement. Le développeur web Sharif Shameem a par exemple programmé et publié un exemple particulièrement phénoménal à partir de l’API d’OpenAI : entrez simplement une description verbale d’une interface web souhaitée… et ce générateur produira le code web correspondant (JSX en l’occurrence). Autant vous prévenir tout de suite, si vous avez déjà mis les mains dans la programmation web auparavant, ces deux minutes de vidéo pourraient bien bloquer votre mâchoire en position ouverte pendant quelques temps. En moins de temps qu’il n’en faut à un webdesigner pour dire “Ils nous volent not’ travail!”, le système permet ainsi de générer le code web correspondant à un texte, un bouton en forme de pastèque, une bannière arc-en-ciel, ou tout ce que votre esprit pourrait imaginer…

This is mind blowing.

With GPT-3, I built a layout generator where you just describe any layout you want, and it generates the JSX code for you.

W H A T pic.twitter.com/w8JkrZO4lk

— Sharif Shameem (@sharifshameem) July 13, 2020

A partir de là, les limites s’envolent. On peut facilement imaginer qu’un tel outil serait capable de générer différentes grammaires pour effectuer de la génération procédurale, décoder des langages encore mystérieux, imaginer de nouveaux langages de programmation… de la poésie aux chansons en passant par les discours ou les épitaphes, tous les fantasmes textuels sont autorisés !

Des inquiétudes vieilles comme l’IA

En partant de ces constats, on pourrait penser que tout le monde serait unanime et approuverait ces démarches sans réserve. Mais ce n’est pas le cas, loin de là; aujourd’hui, de plus en plus de voix s’élèvent pour faire part de leur inquiétude vis-à-vis de ces technologies, et pour demander davantage de contrôle. A commencer par… Elon Musk lui-même, pourtant perché tout en haut de l’organigramme d’OpenAI, qui n’y va pas de main morte avec son “tact” légendaire.

If you’re not concerned about AI safety, you should be. Vastly more risk than North Korea. pic.twitter.com/2z0tiid0lc

— Elon Musk (@elonmusk) August 12, 2017

Le principal souci, c’est que comme tous les modèles hautement autonomes, OpenAI produit parfois du contenu incohérent, ou dont la logique échappe en tout cas à notre esprit humain à première vue. Pour estimer l’ampleur du phénomène, le mathématicien et chercheur en informatique Kevin Lacker s’est livré à un petit jeu : faire passer un mini-test de Turing (qui consiste à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain, pour juger de son “humanité” )  à GPT-3. Et ses conclusions sont pour le moins troublantes et peu claires, mais peu surprenantes : GPT-3 est très fort pour synthétiser du contenu factuel, c’est un fait. Mais comme on peut s’y attendre, dès que le sujet nécessite de la nuance ou du bon sens, l’équation devient beaucoup, beaucoup plus compliquée.

L’autre problème qui fait réagir autant de gens sur le dernier-né d’OpenAI trouve ses origines dans la même ressource qui fait sa force : Internet. Comme mentionné plus haut, GTP-3 se gave de milliards de lignes de texte glanées sur la toile pour progresser, mais comme chacun le sait, le Web est tout sauf un sanctuaire et on y trouve légion de commentaires racistes, sexistes ou homophobes. Résultat : lorsqu’on propose au générateur des mot-clés comme “noir”, “femme”, “juifs”, ou “holocauste”, GPT-3 a vite fait de générer des remarques inacceptables.

No one should be surprised by this. How do we keep this from happening accidentally? Don’t have all the answers yet, but fine-tuning on strong and generalizable normative priors helped with GPT-2 https://t.co/V12NM8ZtAH https://t.co/1bn6G6eWjM

— Mark O. Riedl (@mark_riedl) July 18, 2020

Autant de points qui permettent d’apprécier tout le chemin qui reste à parcourir avant de parvenir à créer une “vraie” intelligence artificielle dite forte, capable de raisonner, ressentir et réagir avec des émotions et des réflexes qui restent aujourd’hui propres à l’humain.

« It’s not a bug, it’s a feature »

Si ces questions sont aussi prépondérantes, c’est pour deux raisons. La première, c’est qu’à long terme, cette technologie est immanquablement destinée à finir sur le marché d’une façon ou d’une autre. Et cela va sans dire que la désinformation sur le web est déjà bien assez présente, et que l’on se passerait volontiers des services d’une IA journalistique raciste et complotiste. Ces biais potentiels sont d’autant plus inquiétants que l’entreprise s’est fixé un but ultime : celui de concevoir une intelligence artificielle dite générale (AGI). Contrairement à l’algorithme qui améliore les photos de votre smartphone, il ne s’agirait pas d’un simple morceau de code entraîné au préalable pour accomplir une tâche très particulière. A la place, les chercheurs essayent de reproduire l’intelligence humaine dans son intégralité, avec la capacité d’appréhender, de comprendre et d’apprendre les concepts humains : on parle parfois d’ « IA forte« . Un tel système aurait de nombreux avantages, au-delà du simple exploit conceptuel d’avoir recréé un petit esprit humain. En théorie, cela permettrait par exemple de révolutionner un champ du machine learning  où l’on demande à un algorithme d’organiser, interpréter et utiliser des données brutes tout seul, sans intervention humaine.

Mais ce faisant, nous pourrions ainsi donner lieu à des IA fortes intrinsèquement racistes, voire pire encore : la SF s’est déjà largement chargée de faire l’inventaire des scénarios catastrophe possibles et nous ne nous attarderons pas là-dessus. En revanche, presque tous les chercheurs sur le sujet s’accordent à dire qu’il s’agit en substance de “bugs”, qu’il serait possible de résoudre pour éviter ces biais. Mais est-ce vraiment le cas ? Il existe en informatique un dicton sarcastique, utilisé par les développeurs en guise d’auto-dérision ou de moquerie: “ce n’est pas un bug, c’est une fonctionnalité”. Et dans le cadre de l’IA forte, on pourrait se demander si ce n’est pas également le cas. Car cette IA est construite sur notre Internet, en parcourant notre contenu, écrit avec notre langage et issu de nos cerveaux… Dès lors la solution sera peut-être de limiter les cas où l’IA a pour consigne de nous imiter… ou, encore mieux, de modifier nos comportements afin de lui fournir un modèle plus honorable.