Cela suscite débat. En vue des Jeux Olympiques, la police a testé et teste six caméras régies par intelligence artificielle lors de deux concerts de Depeche Mode cette semaine à l’Accor Arena, dedans et dehors, afin d’analyser les mouvements de foule et y détecter toute activité anormale ou potentiellement dangereuse. L’usage de telles caméras a été autorisé par les deux chambres en mai dernier, pour les événements sportifs ou récréatifs, à la suite de la finale de la ligue des champions où des jeunes venus des banlieues avait semé le chaos, molestant et rançonnant des dizaines de familles dont de nombreux étrangers venus soutenir leurs équipes. Les caméras testées doivent en particulier détecter huit choses : les déplacements contre le flux principal, toute présence en zone interdite, les mouvements de foule, les objets abandonnés, les corps à terre, le feu, la surpopulation dans un lieu, et bien sûr l’usage d’armes. Une fois le comportement suspect détecté, le personnel de surveillance décide ou non d’avertir les autorités. Mais la reconnaissance faciale demeure interdite, par peur d’une surveillance « big brother ». Mais le groupe Quadrature du net s’inquiète cependant d’un « glissement », qui, par le biais de l’intelligence artificielle, restreindrait la liberté : « La vidéo surveillance algorithmée est une technique biométrique intrinsèquement dangereuse. L’accepter, c’est ouvrir la porte aux pires outils de surveillance. » On pourrait répondre que sans de tels outils, les JO peuvent tourner à la catastrophe, mais cela revient à imposer une société policière par la peur : c’est en effet la conjonction d’un événement de foule international et d’une société rendue dangereusement hétérogène par l’immigration et la paupérisation qui crée la menace à laquelle on décide de parer par l’IA : on a donc provoqué un problème insoluble pour imposer une solution passant par la surveillance par l’IA.