Jeux Olympiques et caméras :
Données personnelles et contrôle de la CNIL
Désigné pays d’accueil des Jeux olympiques 2024, la France ne s’attend à pas moins de 15 millions de spectateurs pour l’évènement qui rivera les yeux du monde sur l’Hexagone entre le 26 juillet et le 11 août 2024. Bien que la capitale parisienne soit habituée à la foule, à l’engorgement des transports, ainsi qu’à une tendance à la surpopulation, le renforcement de la sécurité intérieure a son rôle à jouer dans la mesure où la surveillance et l’intervention des acteurs de la sécurité publique peuvent être rendues plus difficiles.
À ce titre, et « à la seule fin d’assurer la sécurité de manifestations sportives, récréatives ou culturelles, qui par l’ampleur de leur fréquentation ou par leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes » (art 10 de a loi n°2023-380 du 19 mai 2023), le Parlement a adopté de manière définitive, le 12 avril 2023, le projet de loi datant du 22 décembre 2022 relative aux Jeux Olympiques et Paralympiques 2024 (Loi n° 2023-380 du 19 mai 2023 relative aux Jeux olympiques et Paralympiques de 2024), autorisant notamment le traitement algorithmique des images collectées par les caméras des systèmes de vidéoprotection. La Commission Nationale de l’Informatique et des Libertés (CNIL) s’est en ce sens légitimement posé des questions sur l’utilisation de ces caméras dans la mesure où les images collectées et leur traitement suscitent d’inquiétantes interrogations quant à leur conformité avec la règlementation en matière de données personnelles.
Alors, la mise en place de ces caméras augmentées est-elle réellement légitime, nécessaire et, surtout, conforme au respect de la vie privée des individus ?
Des objectifs légitimes
Le climat actuel français appelant à la méfiance et au contrôle, le fond de l’utilisation du traitement algorithmique des images collectées par des systèmes de vidéosurveillance peut s’avérer utile et légitime. En effet, à l’aide d’analyse d’image en temps réel, ce traitement est censé se borner à signaler aux agents concernés la présence de certains évènements tels que :
– La présence d’objets abandonnés
– La présence/l’utilisation de certaines armes
– Le non-respect par un véhicule d’un sens de circulation
– La présence d’un bien/véhicule dans un lieu interdit
– La présence d’une personne au sol
– Les mouvements de foule
– La densité trop importante de personne
– Le départ de feux
Pour être fonctionnelle, l’intelligence artificielle doit bien évidemment être « nourrie » en amont (à travers une phase de conception) d’un grand nombre de données ayant pour finalité de modéliser et d’identifier les caractéristiques des évènements cités plus haut.
Par exemple, pour les objets abandonnés, l’algorithme a vraisemblablement été nourri de nombreuses images présentant des biens mobiliers personnels pouvant contenir des objets/substances, et laissés à l’abandon dans différents lieux (ex : valises, sacs, cartons, colis, etc).
Ainsi, un colis suspect abandonné sur la voie publique pendant un certain temps (en fonction de l’algorithme du logiciel) lors d’un évènement des Jeux olympiques, pourrait faire l’objet d’un signalement instantané aux agents afin que ces derniers puissent intervenir le plus rapidement et éviter ainsi tout trouble à la sécurité publique, par le biais d’un attentat par exemple, dans les cas les plus extrêmes.
Pour ce qui est du départ de feux, et de la détection potentielle d’un incendie, l’algorithme a certainement été entrainé par des images de feux, potentiellement par des analyses de couleurs (rouge, orange, jaune), ainsi qu’à des analyses de mouvements de ces dernières (qui représenteraient la direction des flammes), ou encore la détection d’une couleur plus grisâtre au-dessus des premières qui pourraient traduire la présence de fumée. Les pompiers seraient dès lors prévenus en temps réel afin de permettre une intervention efficace.
En ce sens, les objectifs légaux mis en avant grâce à cette loi semblent à première vue légitimes dans le sens où ils poursuivent des buts tendant à la sécurité publique.
Pour autant, les moyens nécessaires au fonctionnement de ce traitement algorithmique sont loin d’être sans danger, notamment au regard du respect de la vie privée des personnes, garantie par le Code Civil (art 5 du Code Civil) et la Convention Européenne des droits de l’Homme (art 8 de la convention Européenne des Droits de l’Homme). Qu’en est-il également du climat social, que cette utilisation pourrait impacter ?
Les dangers des caméras augmentées
C’est en ce sens que s’exprimait la CNIL lors de l’annonce d’une consultation publique le 14 janvier 2022, soit plus d’une année avant l’adoption de ladite loi, par laquelle elle invitait les acteurs du secteur à participer à cette consultation.
Dans sa délibération du 8 décembre 2023 dans laquelle elle se prononce sur le projet de loi et son article 6, la commission considère que « le déploiement, même expérimental, de ces dispositifs de caméras augmentées est un tournant qui va contribuer à définir le rôle qui sera confié dans notre société à ces technologies, et plus généralement à l’intelligence artificielle ».
Ainsi, la Commission appelle à la prudence et à l’encadrement. Elle rappelle d’ailleurs que ces traitements algorithmiques ne sont pas infaillibles et restent parfois même moins efficaces qu’une détection humaine.
Pour que l’algorithme des caméras intelligentes puisse fonctionner, celui-ci a besoin d’être entrainé en amont par des masses de données. Se pose donc la question de la qualification de « données personnelles », voire « sensibles » de celles-ci.
Par exemple, les images d’agressions, qui permettront aux caméras intelligentes d’en détecter de nouvelles en direct, peuvent vraisemblablement contenir des informations telles que des signes d’appartenance religieuse, des signes prouvant une origine ethnique, ou tout simplement un visage identifiable.
La CNIL rappelle tout de même que les dispositifs de reconnaissance faciale restent exclus, ce qui a notamment été repris par la loi du 19 mai 2023, et proscrit par l’article 9 du RGPD.
La reproduction de biais racistes, sexistes ou encore culturels par l’outil pourrait également faire débat, ce qui a été le cas de l’intelligence artificielle générative Tay, mise en place puis retirée par Microsoft.
Ces traitements constants par les différents acteurs (police, gendarmerie, pompiers, RATP et SNCF), peuvent conduire à une collecte massive de données personnelles, ainsi qu’à une surveillance automatisée en temps réel qu’il convient pourtant d’éviter. Bien que la CNIL précise que ces données seront conservées pour une durée maximale d’un an après l’enregistrement, il est en pratique très difficile de mettre en place une réelle traçabilité de celles-ci. De plus, le fait que l’expérimentation de ces caméras intelligentes dure jusqu’au 31 mars 2025 suscite l’interrogation. Pourquoi ne pas mettre fin à cette expérimentation à la clôture des Jeux olympiques ? Peut-être que l’attribution des Jeux olympiques d’hiver aux Alpes françaises serait un argument politique pour prolonger l’utilisation de ces caméras jusqu’à pérennisation du procédé, avec les conséquences que cela implique.
La véracité du terme « expérimentale » de l’utilisation de ces caméras peut en effet être remise en question. En ce sens, en 2012, les Jeux olympiques de Londres ont entrainé la généralisation de la vidéosurveillance sur les voies publiques, ou encore, en Russie pour qui, suite à la Coupe du monde de football en 2018, la reconnaissance faciale a continué d’être utilisée pour surveiller la population.
Qu'en est-il de l'État français ? A-t-il pour réelle ambition de mettre fin à ces utilisations en 2025
De récentes enquêtes suscitent également des interrogations plus générales quant à la transparence de l’État français et de ses organes pour ce qui est des modalités et des moyens de traitement de ces images. Ces caméras intelligentes ne datent en pratique ni des Jeux olympiques, ni de la loi adoptée en 2023 à ce sujet.
En effet, des doutes auraient été émis sur l’équipement des polices municipales depuis plusieurs années, par les communes, d’un logiciel algorithmique de traitement vidéo. Ce dernier serait « Vidéo Synopsis », développé par la société Israélienne BriefCam rachetée par Canon, sans aucune information ou consultation de la CNIL à cet égard.
Cet outil permettrait notamment d’activer une fonctionnalité de reconnaissance faciale d’un simple clic. Une récente décision du Tribunal Administratif de Caen a enjoint la communauté de communes Cœur Côte Fleurie, utilisant Video Synopsis, à effacer les données à caractères personnel contenues dans le fichier de traitement. Selon le Tribunal, l’utilisation du dispositif litigieux porte une « atteinte grave et manifestement illégale au respect de la vie privée » (Tribunal de Caen, 22 novembre 2023, 2303004).
En ce sens, si le traitement algorithmique des vidéos de surveillance pendant les Jeux olympiques était opéré à travers le logiciel en question développé par Brief Cam, le respect de la vie privée des citoyens pourrait être compromise dans la mesure où le fonctionnement et l’utilisation de cet outil ne seraient pas en conformité avec le RGPD.
De plus, comment l’État français pourrait-il tracer le sort de ces données collectées par des caméras, dont le logiciel pourrait avoir été développé par un État étranger dont les intérêts politiques, culturels, juridiques et sociaux pourraient être en contrariété avec ceux de notre État ?
Ensuite, d’où viennent les données qui ont entrainé ces intelligences artificielles ?
Enfin et surtout, comment garantir le droit des personnes filmées ?
Le contrôle de la CNIL
Véritable autorité administrative indépendante, la CNIL est chargée de préserver les libertés individuelles à l’ère du numérique. Face à ces questions intéressant la vie privée des citoyens à travers le traitement de leur donnée personnelles, la CNIL n’a pas manqué de se pencher sur les différentes questions liées à l’utilisation des caméras augmentées pendant les Jeux olympiques, en amont et en aval. Suite au scandale journalistique qu’a suscité l’enquête traitant de l’utilisation par la police française du logiciel édité par Brief Cam, la CNIL a annoncé le 15 novembre 2023 sur X, « La CNIL initie une procédure de contrôle vis-à-vis du ministère de l’Intérieur suite à la publication d’une enquête journalistique informant d’une possible utilisation par la police nationale d’un logiciel de vidéosurveillance édité par #Briefcam ».
Si les faits de l’enquête sont avérés, l’autorité pourra dès lors :
– Prononcer un rappel à l’ordre
– Enjoindre de mettre le traitement en conformité, y compris sous astreinte
– Limiter temporairement ou définitivement un traitement
– Suspendre les flux de données
– Ordonner de satisfaire aux demandes d’exercice des droits des personnes, y compris sous astreinte
– Prononcer une amende administrative.
Pour ce qui est des Jeux olympiques à proprement parler, la CNIL a prononcé toutes ses recommandations qui sont censées avoir été entendues par la loi traitant du sujet. Reste seulement à savoir si la pratique sera, cette fois-ci, à la hauteur de la théorie.
Théophile TARABAY
Solucia SPJ