Depuis Laplace (1814) la notion de déterminisme a été essentielle à l’évolution technico-scientifiques de nos sociétés. En effet, pouvoir prédire au mieux l’avenir à partir du présent a été un progrès immense par rapport à l’obscurantisme et l’ignorance.
La statistique a été au cœur de cette démarche qui a fait avancer la science et la technologie. La société industrielle naissante va largement en profiter. Mais il faut remonter à Leibniz (1668) pour découvrir une autre notion essentielle au raisonnement scientifique, celle de causalité: «Jamais rien n’arrive sans qu’il y ait une cause» telle était sa formule.
Le déterminisme du XIXe siècle englobera la causalité pour créer une méthodologie puissante, celle du raisonnement scientifique. Avec la logique mathématique et la reproductibilité des expériences (on doit pouvoir authentifier une hypothèse scientifique en tout temps et en en tout lieu), on avait grosso modo mis au point les piliers du système moderne.
Voilà qu’à l’aube du XXIe siècle, tout s’effondre.
L’Intelligence artificielle, telle qu’on la connaît aujourd’hui n’est ni déterministe, ni reproductible… elle est au mieux probabiliste.
Comment dès lors envisager le futur de notre société?
Prenons un exemple réel. Le 22 mars 2018, il y a tout juste 3 ans, une voiture autonome (sans chauffeur) d’UBER renverse une femme qui traversait la chaussée en poussant son vélo en dehors d’un passage clouté en Arizona ! L’IA a bien détecté quelque chose mais comme c’était en plein désert, elle a conclu qu’en probabilité cela devrait être un «bush» (genre de petit arbuste rond porté par le vent que l’on rencontre fréquemment dans les déserts américains). Cet accident mortel est le fruit d’une probabilité très mal appréciée par l’IA.
Prédire: telle est la fonction de l’IA. Ce monde émergent est donc celui du prédictif. C’est donc un monde hautement aléatoire!
La médecine prédictive qui entraîne des actes de chirurgie par anticipation, la maintenance prédictive qui prévoit en avance des pannes machines, la lecture automatisée des transactions financières qui anticipe les fraudes, les algorithmes qui s’autocorrigent... font tous appel à l’IA pour deviner l’avenir.
Les Big Data, les algorithmes et les probabilités sont donc les trois éléments piliers de cette méthodologie du raisonnement contemporain. Ils ne sont ni déterministes, ni reproductibles ni souvent explicables (on parle de la boîte noire de l’IA). Pire encore, leur causalité est souvent mal interprétée par les machines elles-mêmes (cf. exemple de la voiture autonome d’UBER).
Attention danger! L’homme n’est certainement pas prêt à un tel saut dans le non déterminisme et le non reproductible.