Le gouvernement français accélère une législation spéciale pour les Jeux olympiques de Paris de 2024 qui permettrait l’utilisation de la vidéosurveillance assistée par des systèmes d’intelligence artificielle (IA).

Les ministres ont fait valoir que certaines mesures de sécurité exceptionnelles étaient nécessaires pour assurer le bon déroulement des événements qui attireront 13 millions de spectateurs, mais des groupes de défense des droits ont averti que la France cherchait à utiliser les Jeux comme prétexte pour étendre les pouvoirs de surveillance policière, qui pourraient alors devenir permanent.

Les mesures comprennent une proposition visant à légaliser l’utilisation de la vidéosurveillance assistée par l’IA.

Pour la première fois en France, cela permettrait une surveillance automatisée par caméra vidéo, dans laquelle des algorithmes d’IA seraient utilisés pour détecter une activité suspecte ou « anormale » dans les foules. Ces algorithmes analyseraient des images vidéo provenant de caméras de vidéosurveillance fixes ou de drones, mettant en évidence des comportements jugés anormaux ou suspects, qui seraient automatiquement signalés à la police, qui pourrait agir.

Les systèmes d’IA seraient utilisés pour surveiller les foules telles que les 600 000 personnes attendues lors de la cérémonie d’ouverture de Paris, mais pourraient également être utilisés autour des stades, dans les rues de la ville et dans les transports publics.

La ministre française des sports, Amélie Oudéa-Castéra, a décrit le projet de loi comme introduisant des « ajustements essentiels » au bon déroulement des jeux. Le ministre de l’Intérieur, Gérald Darmanin, a déclaré que le projet de loi donnerait un « cadre » français pour la sécurité des jeux.

La proposition intervient alors que la France cherche à éviter une répétition du chaos de la finale de la Ligue des champions de l’année dernière entre Liverpool et le Real Madrid au Stade de France, où des supporters, y compris des enfants, ont été gazés, et de nombreux supporters se sont plaints d’avoir été agressés autour du stade.

Le gouvernement français a souligné que ses propositions de sécurité pour les Jeux Olympiques n’incluent pas l’utilisation des technologies de reconnaissance faciale. Les ministres ont également déclaré que la vidéosurveillance automatisée était une mesure expérimentale pour une période définie.

Mais les groupes de défense des droits ont déclaré que la proposition couvrirait tous les événements sportifs, festifs et culturels dans un large laps de temps, qui s’étendrait de ce printemps jusqu’en juin 2025, bien après la fin des Jeux. Ils ont averti qu’il y avait un danger que la mesure devienne alors une loi permanente.

Le projet de loi sera examiné par la chambre basse de l’Assemblée nationale en février après l’approbation du Sénat mardi, mais les militants ont appelé à davantage de débats publics.

Amnesty International a qualifié la proposition de « tournant » dans l’utilisation des technologies de surveillance de l’IA en France et a déclaré qu’elle marquait une « étape dangereuse » pour les droits de l’homme et le droit à la vie privée.

Katia Roux, chargée de plaidoyer sur la technologie et les droits de l’homme à Amnesty International France, a déclaré: « Nous sommes profondément inquiets du fait que ces algorithmes seront capables d’analyser des images de caméras de vidéosurveillance fixes ou de drones pour détecter des comportements » anormaux ou suspects « . . Il y a d’abord la question de la définition d’un comportement anormal ou suspect – qui décidera quel comportement est la norme ou non ?… Aussi, en termes de droits de l’homme et de libertés fondamentales, nous considérons que la proposition présente un danger pour le droit à la vie privée, cela pourrait également avoir un impact sur la liberté d’expression, la liberté de réunion et le principe de non-discrimination.

Roux a déclaré que même si le gouvernement avait déclaré qu’aucune donnée biométrique ne serait utilisée, « en réalité, les algorithmes analyseront le comportement et les données physiques, qui sont des données qui doivent être protégées ».

Roux a déclaré que l’efficacité de ces techniques de surveillance automatique n’avait pas été prouvée. Elle a indiqué que le contexte du projet de loi était important, s’inscrivant dans « une volonté très claire des autorités françaises depuis plusieurs années d’élargir les pouvoirs de surveillance de la police ».

Amnesty a averti que les Jeux « ne doivent pas servir de prétexte » pour permettre à des mesures exceptionnelles de devenir une loi permanente.

Roux a déclaré qu’il y avait des exemples de lois de surveillance mises en place pour des événements spéciaux qui ont ensuite été utilisées de manière répressive, citant l’introduction par la Russie de la surveillance par reconnaissance faciale lors de la Coupe du monde de football 2018.

Bastien Le Querrec, de l’ONG française La Quadrature du Net, qui milite sur les questions de données et de vie privée, a déclaré que la proposition d’autoriser la vidéosurveillance par algorithme « nous semble particulièrement dangereuse, disproportionnée et met en place un mécanisme de surveillance de masse ».

Il a déclaré que jusqu’à présent en France, la vidéosurveillance nécessitait « un humain derrière un écran » analysant les images de vidéosurveillance, ce qui rendait impossible de surveiller tout l’espace public en permanence. « Mais avec l’utilisation d’algorithmes, cette limite humaine n’est plus là – il serait possible de surveiller en permanence toutes les images des caméras vidéo – et il existe plusieurs centaines de milliers de caméras vidéo en France. Cela signifie que toute personne filmée pourrait voir son comportement analysé, ses mouvements détectés et classés et décidés par algorithme s’ils sont normaux ou anormaux.

Il a dit qu’il craignait que les Jeux olympiques ne soient présentés comme un «moment politique» pour adopter une législation qui serait autrement considérée comme inacceptable.