Produite par OpenAI, l’appli GPT-3 (Generative Pre-trained Transformer 3) est basée sur une utilisation massive de données référencées. En gros, GPT-3 a tout lu ce qu’elle pouvait lire sur le Web ou ailleurs et tout indexé. Les résultats ont surpris tout le monde y compris les auteurs qui ont renoncé à ouvrir le code aux usagers tant le logiciel était devenu dangereux. Trop puissant GPT-3 fait peur.
Juste pour rappel, OpenAi, la société californienne à l’origine du projet, se voulait être de type « open source » pour l’IA afin de démystifier cette technologie. Et bien c’est raté. Elle est maintenant sous l’emprise de Microsoft et compte bien monétariser sa percée dans l’IA. Elon Musk, qui avait financé les débuts d’OpenAi, alors que ce n’était qu’une association à but non lucratif, s’est retiré des opérations en critiquant vivement la dérive de la société. Elon Musk pense aujourd’hui que l’IA est dangereuse car elle a dépassé les limites des capacités de contrôle humain.
Essayons de comprendre la situation.
D’abord il faut voir que le GPT-3 s’occupe de l’écrit. Il est capable de beaucoup de chose dans ce domaine. Par exemple GPT-3 peut répondre en langage naturel à la question « pourquoi le pain est gonflé » en se basant sur un article Wikipédia sur le mot « pain ».
GPT-3 peut nourrir une discussion avec des humains. Il peut aussi composer du texte à partir de quelques mots clés. Il peut imiter à volonté le style d’écriture de n’importe quel écrivain. Il peut traduire dans toutes les langues. Il peut raconter des histoires, synthétiser des documents ou encore générer des idées. Fascinant.
Ensuite, GPT-3 peut écrire du code informatique (dans n’importe quel langage) à partir d’instruction en langage naturel. C’est sans doute la partie la plus «bluffante» de ce logiciel. Car sans beaucoup de connaissance informatique, n’importe qui peut créer avec son aide : un site Web, un programme de moteur de recherche ou toutes autres applications d’intelligence artificielle. C’est clair l’informatique semble pouvoir échapper aux informaticiens. Énorme.
C’est cette question avec laquelle l’humanité est maintenant confrontée : le « code IA » va nous échapper.
Que devons-nous faire?
Trois options : (1) Regarder les prouesses de l’IA. (2) Essayer d’édicter des normes éthiques de bonne conduite, des labels de qualité ou encore un ensemble de règles de responsabilités délictuelles pour freiner les méfaits potentiels. Ou alors (3) dernière option, considérer le problème de manière plus fondamentale. La 4e révolution industrielle a produit ces nouvelles technologies de l’IA. Il faut donc leur trouver une place dans la société. Au lieu de l’aborder mollement par des «soft laws», il faudrait tout au contraire l’aborder sérieusement par des «hard laws» avec un nouveau code juridique et de nouvelles juridictions spécialisées. Il faut réécrire notre «code», comme on l’avait fait à la 1ère révolution industrielle avec la SA (la société anonyme) en lui donnant un statut juridique autonome. L’IA doit être dotée d’une personnalité juridique pour qu’elle puisse d’une part vivre sa vie à nos côtés et que nous puissions d’autre part nous défendre.