Il est temps de donner l’alerte: l’IA nous échappe. Et même si la problématique est vaste et complexe, il faut essayer de décortiquer tout cela dans ce premier volet.
Commençons par les réseaux sociaux. Un film choc de Netflix: The Social Dilemma en explique assez bien les tenants et aboutissants. En français le documentaire s’appelle: Derrière nos écrans de fumée. À voir absolument. On y apprend comment à l’aide d’algorithmes de l’IA, les GAFA sont capables de nous fragiliser en nous rendant addicts aux écrans de nos smart phones notamment envers les théories complotistes ou/et les ««fake news».La publicité est le modèle économique des entreprises de réseaux sociaux (Facebook, Twitter, TikTok, Instagram, etc.). Ils doivent en conséquence nous garder connecter le plus longtemps possible pour vendre votre présence. Car ils monétarisent ce service à d’autres compagnies en promettant de cibler de façon très précise la diffusion du contenu aux personnes les plus susceptibles d’être intéressées par leurs produits. Cependant, pour maximiser la diffusion de contenu, ils ont surtout besoin que les utilisateurs passent un maximum de temps sur la plateforme. Ainsi, ils conçoivent à l’aide de l’IA leurs applications avec des mécanismes créant des addictions auprès des individus.En d’autres termes, ces sociétés ont compris comment avec un smartphone, on peut activer le système dopaminergique des individus. Une fois que les individus développent une addiction au réseau social en question, des algorithmes optimisent le contenu dans nos fils d’actualités afin que l’on s’y intéresse de plus en plus. On observe ainsi sur Twitter que les «fake news» se propagent 6 fois plus vite que les «vraies» news! Ce n’est pas un hasard, c’est dans la conception même de l’application.
L’IA constate que certaines publications sont virales (statistiquement parlant) et les exploite pour rendre ses utilisateurs fidèles. C’est par design dans la structure même des logiciels!Contrairement aux médias qui engagent des journalistes afin de générer le contenu, les médias sociaux ne sont pas régulés à la publication. Il en découle que les utilisateurs se mettent à croire tout ce qu’ils lisent. On a observé ainsi dans les dix dernières années, une radicalisation des opinions politiques. Cela est simplement dû au fait que l’IA propose surtout du contenu que l’on aime avec lequel on va être d’accord. Un biais de confirmation s’effectue ainsi auprès des utilisateurs. Elle va ainsi opérer un changement «perceptuel latent» sur nos opinions politiques en occultant une exposition à des contenus contraires à nos opinions nous permettant de pondérer notre propos. Ce changement «perceptuel latent» ne s’effectue pas uniquement sur nos opinions du monde, mais aussi sur notre opinion de soi, en altérant directement notre identité.Sur les dix dernières années, on observe une augmentation significative de suicides chez les adolescents, le taux a plus que doublé aux USA. Cela coïncide avec l’avènement des réseaux sociaux sur nos téléphones mobiles. Les réseaux sociaux permettent ce phénomène à grande échelle et jamais auparavant les jeunes n’avaient eu à subir les approbations/désapprobations de «selfies» par des centaines de personnes anonymes.Ainsi l’IA nous a ainsi fait franchir une étape à laquelle la société n’a pas encore trouvé de réponse adéquate. Il a évidemment beaucoup d’autres exemples -en plus des réseaux sociaux- que nous allons examiner dans nos prochains billets.