Imaginez dans quelques années, la plupart des lieux de travail auront un agent d’intelligence artificielle (IA) affecté aux employés, aux dirigeants et aux gestionnaires notamment de fortune. Un jour, le CEO demandera à l’agent IA, qui a toute liberté d’agir, ce qu’il faudrait décider face à un problème donné. Admettons que le CEO soit en désaccord avec la proposition de l’IA. Une bataille débutera à coups d’arguments, de volontés et d’ego. Si les choses tournent mal. Qui est licencié? Le CEO ou l’agent IA? Qui prend cette décision? Le conseil d’administration humain ou l’agent IA du conseil d’administration?
Ce n’est peut-être plus une fiction pour longtemps, mais sommes-nous prêts à affronter une telle situation?
Tout tranquillement, les choses se mettent en place. Certains outils d’IA, comme ChatGPT, ont déjà un rôle d’agent (en intelligence artificielle, un agent est une entité autonome capable de percevoir son environnement et d’agir sur celui-ci afin de réaliser des objectifs). En quelque sorte, nous «anthropomorphisons» l’IA. Dans une organisation où les agents IA sont engagés, ils apprennent vite à traiter, non seulement, les données de l’entreprise mais aussi, petit à petit, les relations sociales et les interactions avec et entre les employés, les clients et les fournisseurs. Ils deviennent des acteurs de plus en plus importants. N’oublions pas qu’ils rédigent, par exemple, déjà les offres d’emploi, les CV et les lettres de motivation!
Les agents IA sont très différents des technologies de l’information et de la communication (TIC) standard, que nous avons pratiquées jusqu’ici, car ils ont un pouvoir d’action, de décision. Par exemple, en rédigeant des PV de séance, ils font des choix! Anciennement les systèmes informatiques n’étaient pas neutres bien sûr, mais ils ne prenaient pas de décisions. Les humains le faisaient seuls. Il s’agit d’une distinction cruciale. Cela va s’amplifier encore plus avec le déploiement des nouvelles IA pour les entreprises qui vont s’infiltrer dans les outils classiques de l’informatique: traitement de texte, Excel, Power Point, Data base, ERP, etc.
Les gains de productivité seront tellement gigantesques que ceux qui ne suivront pas disparaîtront
Xavier Comtesse
On peut alors se demander si ce processus de développement de l’IA dans nos sociétés pourrait encore être arrêté?
Deux choses nous font dire qu’il est déjà beaucoup trop tard. Premièrement, les gains de productivité seront tellement gigantesques que ceux qui ne suivront pas disparaîtront. Deuxièmement, l’IA est portée par les entreprises dominantes de l’économie actuelle, à savoir les Gafam. Donc aucune chance que cela s’arrête!
La seule chose éventuellement à faire serait de tenter d’établir des règles, des lois de hiérarchie entre agents humains et agents IA… un peu comme Isaac Asimov l’avait formulé dans son triptyque «Fondation» en 1942… Cela donnerait les trois lois suivantes:
1. Un «agent IA» ne peut porter atteinte à un être humain ni laisser cet être humain exposé au danger en restant passif;
2. Un «agent IA» doit obéir aux ordres donnés par les humains, sauf si c’est en contradiction avec la première loi;
3. Un «agent IA» doit protéger son existence sans entrer en contradiction avec la première ou la deuxième loi.
Si le terme de la «nouvelle économie» avait été attribué en l’an 2000 à l’émergence de l’économie numérique, on peut dire que la nouvelle «nouvelle économie» est celle de l’IA.