• Vanguard
  • Changenligne
  • FMP
  • Rent Swiss
  • Gaël Saillen
S'abonner
Publicité

Jasper, qui a écrit à Alain Berset, accède au statut de licorne

«L’Agefi» a publié pour la première fois un texte généré par l'intelligence artificielle. L’outil utilisé repose sur le plus grand système jamais entraîné, GPT-3, un modèle qui a ses limites.

Une visualisation de l'assistant de rédaction Jasper. Basée à Austin, au Texas, la société compte plus de 60.000 clients dont Airbnb, IBM ou Zoom qui utilise ses services pour créer rapidement du contenu textuel.
Une visualisation de l'assistant de rédaction Jasper. Basée à Austin, au Texas, la société compte plus de 60.000 clients dont Airbnb, IBM ou Zoom qui utilise ses services pour créer rapidement du contenu textuel.
19 octobre 2022, 7h00
Partager

Moins d’actes médicaux inutiles, un prix plafonné pour les médicaments, un nombre restreint d’hôpitaux: voici quelques idées à soumettre au conseiller fédéral Alain Berset, pour baisser les coûts de la santé en Suisse. Ces recommandations, publiées dans L'Agefi ce mercredi, ne sont pas celles d’une faitière ou d’un politicien en manque de visibilité mais celles d'un robot assistant de rédaction, Jasper. Ce nouveau contributeur a justement clos un tour de table de 125 millions de dollars, mardi soir, accédant au statut de licorne après 18 mois d'activités seulement. 

Jasper rédige tant la biographie LinkedIn d'une entreprise que le contenu de son site web ou la légende de ses photos Instagram. Précédemment appelé Jarvis, cet assistant de rédaction ne serait rien sans GPT-3, un projet du laboratoire OpenAi. 

Ce centre de recherche basé à San Francisco a été fondé en 2015 par Elon Musk. Le patron de Tesla en a quitté le conseil d’administration en 2018. Un an plus tard, l’organisation a renoncé à sa vocation à but non lucratif et à ses objectifs scientifiques, pour se muer en une entreprise. Elle a reçu un milliard de dollars de financement de Microsoft. «GPT-3 a alors vu son accès technique verrouillé. Il ne peut être exploité qu’à travers les serveurs et les conditions générales d’OpenAi», précise Timothy O'Hear, président de la fondation ImpactIA, à Genève, qui favorise l’adoption de cette technologie de façon éthique.

Si Timothy O'Hear recommande de s’intéresser à des alternative open source comme Bloom ou EleutherAI, il assure que «GPT-3 (Generative Pre-trained Transformer 3) est de loin le plus gros modèle de réseau neuronal générateur de langage». Entraîné sur un volume inouï d’archives du web et de pages Wikipédia, il est capable de produire du texte, de la musique, des images ou encore des lignes de code.

Facturés au mot

Informaticien spécialisé en machine learning, Timon Zimmermann explique de son côté que «l’application Jasper exploite la brique technologique mise à disposition par OpenAi. Les requêtes qui y sont introduites sont livrées à GPT-3, accompagnées d’instructions spécifiques. Sa force, c’est d’avoir trouvé les bonnes directives pour générer du texte.» Basée à Austin, au Texas, Jasper emploie une centaine de personnes et compte plus de 60.000 clients dont Airbnb, IBM, Zoom ou encore Visium, la start-up de Timon Zimmermann. «Notre équipe marketing l’utilise pour écrire des publications», indique le fondateur et CTO de Visium.

Plus vous générez de lignes [sur GPT-3], plus cela coûte. Jasper limite ainsi la taille des textes pour se garantir une rentabilité de base

Timothy O'Hear d'ImpactIA

Comme Jasper, d’autres ont déjà été construits sur les fondements d’OpenAi, «en y ajoutant un joli packaging et un modèle de commercialisation», précise Timon Zimmermann. Il évoque Algolia, qui ajoute une fonctionnalité de recherche performante pour des sites comme celui de Decathlon; ou GitHub Copilot qui suggère des portions de code aux développeurs de logiciels. Vis-à-vis de tous ces projets, la facturation d’OpenAi reste la même, au prix de 2 cents pour 750 mots introduits. «Plus vous générez de lignes, plus cela coûte. Jasper limite ainsi la taille des textes via ses abonnements, ce qui lui garantit une rentabilité de base», dit Timothy O'Hear. 

Danger sémantique et biais

Le modèle GPT-3 est limité par son approche probabilistique. «Il ne donne pas la vérité. Il ne ment pas non plus. Il enchaîne avec le mot qui lui semble le plus raisonnable», prévient Timothy O'Hear. Lorsqu’il ne trouve pas l’information qui convient dans son immense corpus, «il risque donc d’inventer ce qui correspond sémantiquement, un chiffre ou une date par exemple», dit Timon Zimmermann.

[Le modèle GPT-3] risque d’inventer ce qui correspond sémantiquement, un chiffre ou une date par exemple

Timon Zimmermann de Visium

Autre inquiétude: les lignes écrites par Jasper dépendent de la littérature disponible. Dans l’exemple de la lettre à Alain Berset, «si les assurances maladies bombardaient le web de publications, elles donneraient un avantage à leurs arguments», avertit Timothy O'Hear. GPT-3 est ainsi «un reflet de tout ce que les humains ont fait jusqu’ici», avertit Delphine Seitiée, secrétaire générale d’Alp ICT, qui invite à la prudence face à nos propres biais de représentation. 

Aux risques liés à l’automatisation et aux sources imparfaites, s’ajoute une autre peur: celle des responsables marketing et rédacteurs qui craignent que leur poste de travail soit bientôt occupé par un robot. «Non, il faut voir Jasper comme un assistant très puissant», rassure Delphine Seitiée, qui espère voir cet outil alléger les tâches, pour plus d’inventivité du côté de l’humain.

Article modifié ce mercredi 19.10.22 à 10:00 avec les précisions sur le tour de table de Jasper.

Lisez le texte généré par l'intelligence artificielle et publié dans l'édition de L'Agefi