Les algorithmes de l’intelligence artificielle (AI) comme pouvoir politique, ou le risque de la tyrannie informatique

intelligence artificielle AI pouvoir politique tyrannie informatique
 
L’intelligence artificielle (AI) comme pouvoir politique ? « Nous n’en sommes qu’aux balbutiements de la régulation algorithmique » estime Maëlle Gavet sur le site du World Economic Forum, citant l’utilisation par les polices américaines de technologies de reconnaissance faciale ou le déploiement de logiciels de jugements. « Discrètement et sans protestations, la technologie transforme la façon dont nous sommes contrôlés, catégorisés et peut-être bientôt gouvernés », prédit Maëlle Gavet, vice-présidente de Priceline Group, leader mondial du voyage en ligne.
 

L’intelligence artificielle pour réguler les comportements et faire appliquer la loi ?

 
Nous disposons déjà, relève Mme Gavet, de machines qui utilisent les banques de données, qui apprennent, « et de l’intelligence artificielle qui permet de réguler les comportements humains et de faire appliquer la loi ». Ces outils ont des répercussions profondes sur les relations entre les citoyens et l’Etat. Or l’émergence de ces technologies survient au moment-même où, dans les pays occidentaux, la confiance dans les gouvernements s’est effondrée, en témoignent ces résultats électoraux « erratiques » aux yeux de l’oligarchie mondialiste.
 
Il conviendrait de quantifier à quel point l’économisme forcené des élites, coupées de toute transcendance, sape la confiance des peuples. Maëlle Gavet n’en dit mot mais s’inquiète tout de même des prétentions de l’intelligence artificielle. « Dans ce climat volatile, on estime de plus en plus que la technologie peut fournir une solution alternative », note-t-elle. « La perspective n’est pas si lointaine d’une intelligence artificielle qui pourra légiférer de façon autonome, anticipant et prévenant des problèmes sociaux ». Mais Mme Gavet relève cinq objections.
 

Pour Maëlle Gavet l’AI, dépourvue d’imagination, ne peut que renforcer les tendances passées

 
D’abord, l’intelligence artificielle ne peut que renforcer les tendances existantes, sans imagination et privée de ce mystère qu’est l’intuition humaine. « Elle excelle à analyser des millions de données en temps réel, identifiant les tendances et proposant des conclusions du type “voici ce qui est, il faut donc” », relève Mme Gavet, induisant une accentuation de la tendance. Ainsi, en partant de données qui montrent qu’il y a plus de délinquance dans les quartiers noirs aux Etats-Unis, leurs populations vont être plus souvent surveillées, augmentant – assure-t-elle – l’occurrence d’affrontements.
 
Deuxième objection, la vulnérabilité aux attaques. Pratiquement tous les organismes – jusqu’au ministère américain de la Justice – ont subi des intrusions informatiques. Par ailleurs, « Compte tenu de la complexité des programmations nécessaires au basculement vers la machine, il est presque inévitable qu’elles seront truffées de bogues », note encore Mme Gavet.
 

Les algorithmes de l’intelligence artificielle au service de la tyrannie informatique

 
Troisième question, celle de l’articulation entre pouvoirs publics et intérêts (informatiques) privés qui marchandisent ainsi l’action publique. « Les logiciels ne sont pas développés par les gouvernements mais par des entreprises privées, souvent multinationales (…) qui exigent des droits de propriété stricts et entretiennent souvent des relations opaques avec les autorités. » Maëlle Gavet s’inquiète donc des conséquences de ces partenariats sur la transparence des algorithmes, « question essentielle au regard de leur impact sur la vie des gens ». Elle relève : « Les entreprises (informatiques) sont très favorables au libre accès des données quand leur source est gouvernementale, mais elles se battent becs et ongles pour s’assurer que leurs propres programmations et données demeurent leur pleine propriété. »
 

L’ignorance des hommes politiques face aux enjeux de l’AI et des banques de données

 
Quatrième problème : les gouvernements sont-ils prêts ? « La grande majorité des hommes politiques, pour ce que j’en sais, ont une compréhension des limites des technologies proche de zéro. Cette incapacité signifie qu’ils ne sont pas en mesure de réguler correctement les entreprises informatiques qui écrivent les logiciels » dont ils équiperont leurs administrations, estime Mme Gavet. Ils ne sont pas à même d’opérer le « saut cognitif » qu’exigent la régulation algorithmique et son extrême complexité. De même, les réglementations que les gouvernements français et britannique sont en train d’édicter, et qui permettent à l’Etat de disposer de toujours plus de données sur les citoyens, démontrent qu’ils n’ont aucune idée du risque : « Le prochain scandale autour d’un abus de pouvoir gouvernemental ne saurait tarder. »
 

L’AI aux mains d’un pouvoir politique qui n’en mesure pas les dangers

 
Cinquième et dernier défi posé par l’IA : l’absence de nuance. A l’image de l’orgueil des pontes de la Silicon Valley, la réglementation par l’AI soutient qu’il existe toujours une solution optimale. La prétention scientiste de l’ingénieur social au carré. « Or le traitement de questions sociales apparemment insolubles exige de la patience, des compromis et, par-dessus tout, une capacité d’arbitrage », dit Mme Gavet qui prend l’exemple des restrictions d’eau en Californie. Ces dernières se heurtent à des revendications contradictoires, agriculteurs contre urbains ; partisans du combat contre le changement climatique contre climato-sceptiques, etc… « Un algorithme peut-il vraiment arbitrer entre ces parties ? », demande-t-elle.
 

L’incapacité des algorithmes à intégrer les changements voulus par les hommes

 
Conclusion : les algorithmes, rassurants avec leur vision binaire, sont incapables d’intégrer nuances, compromis ou valeurs philosophiques. « Si nous pouvons écrire des algorithmes prenant en compte un certain type de société, encore faudrait-il d’abord nous mettre d’accord sur le type de société », écrit Maëlle Gavet. Mais, là encore, objection : « Qu’adviendra-t-il si la société en question subit des changements fondamentaux (…) sur la base de décisions adoptées par une majorité des électeurs ? ».
 
Maëlle Gavet prône donc, devant « l’inéluctable », d’incrémenter dans les logiciels des options « positives » plutôt que « traditionnelles » : « Offrir aux jeunes délinquants une formation représente une solution préférable à une application agressive de la loi. » Mais cette position représente elle-même un évident conformisme ! In fine, la question est bien celle de la souveraineté de l’esprit public, création divine, face à la machine, création humaine. Mme Gavet se garde de poser le problème en ces termes.
 

Matthieu Lenoir