Refusons la surveillance biométrique (SVB)
Pendant les manifestations organisées par les syndicats, voilà ce que les députés ont voté en procédure rapide et en catimini la surveillance biométrique :
https://www.numerama.com/politique/1315338-jo-2024-les-deputes-valident-la-videosurveillan
Pour éviter la reconnaissance au facies par des Intelligences Artificielles, il est proposé masque, maquillage …
Est-ce que ce genre de voilette de protection des CEM pourrait le faire aussi ? :
http://www.choix-de-vie.com/2008-medium_default/voilette-visage-anti-ondes-headnet-leblok.jpg
Et, comme l’a recommandé un médecin, si un agent de police me demande de l’enlever pour identification, je le fais pour la remettre ensuite.
** **
La loi JO 2024 vient d’être approuvée ce mardi 28/03 par l’assemblée nationale : détail des votes (ici par élu·e) RN Pour 77 Abstension 2 (sur un total de 88 voix possibles), LR Pour 59 (61), Renaissance Pour 167 (170), Horizon Pour 28 (29), MODEM Pour 49 (51), LIOT Pour 14 Abstension 4 (20), PS Abstension 31 (31), PC Abstension 17 Pour 3 (22), EELV Contre 20 (22), LFI Contre 72 (74), Non inscrits Pour 3 Contre 1 (5).
Si on compare aux votes au Sénat pour le même texte, et à ceux concernant la loi LOPMI (autre loi ultra-sécuritaire que le ministre Darmanin a promu pour engager le « réarmement du ministère de l’Intérieur » (avec exosquelettes, casques de réalité virtuelle, sans oublier les surdotations dans des armes plus classiques, LBD et grenades de désencerclement, blindés…) : toute la droite et l’extrème droite ont tout voté (avec ce 1e amendement commun qui valide l’extrème droite comme l’alliée du pouvoir), le PS (qui avait voté au sénat pour la LOPMI, se situe aujourd’hui dans l’abstention, LFI et les verts étant constants dans l’opposition. Plus surprenant, le PC, jusque là toujours opposé, a cette fois choisi l’abstension.
Cette expérimentation jusqu’à fin 2024 au moins de la vidéosurveillance biométrique, ou « augmentée », c’est à dire capable d’associer images prises par les caméras de vidéosurveillance, algorithmes d’analyse et accès à des bases de données (dont les fichiers TAJ et TES dans lesquels la plupart des habitant·es du pays ont désormais leur portrait numérisé). Comme souligné dans notre article, sa mise en oeuvre pourra être immédiate dans toutes les villes – et campagnes – dotées d’un CSU (Centre de Supervision Urbaine, plus d’explications ici).
L’expérimentation ira bien au delà des seules villes concernées par les JO : elle concernera aussi les « manifestations sportives, récréatives ou culturelles » qui, « par leur ampleur ou leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ». Donc potentiellement tous les évènements publics, partout en France…
Il faut rappeler que cette surveillance biométrique est la 1e à être mise en place en Europe, et que 38 organisations de toute l’Europe pour la défense des droits ont dénoncé début mars ce projet de loi français, rejoint par 40 eurodéputé·es qui soulignent : « Si la loi est adoptée dans sa forme actuelle, la France créera un précédent de surveillance jamais vu en Europe. »
Stop Linky 5G Loire et Halte au contrôle numérique
Commentaires reçus
« Plus surprenant, le PC, jusque là toujours opposé, a cette fois choisi abstention. » Décevant, mais de mémoire, il me semble que le PC s’était positionné pour le numérique, et la 5G gérée par un service public.
Le PCF en Gironde ne s’est pas opposé au déploiement de la 5 G comme d’ailleurs à celui des compteurs communicants. Quelques militants à titre individuel oui mais c’est tout, donc aucune surprise sur le vote du PCF à l’A.N .
Il faut dire aussi que EELV est pour le compteur vert .
Ce sont les Citoyens qui doivent s’emparer de leur avenir et faire valoir leur avis. La démocratie ne s’arrête pas à un bulletin de vote comme beaucoup de gens croient.
** **
Argumentaire
Nous avons préparé quelques arguments phares que vous pouvez sélectionner, utiliser, remanier à votre sauce lorsque vous appelez les parlementaires. D’abord, cinq points d’alarme sur les dangers de la vidéosurveillance algorithmique. Ensuite deux « débunkages » d’arguments que l’on retrouve souvent dans la bouche des adeptes de la surveillance.
La VSA est par essence un outil de surveillance totale
La VSA n’est pas un simple logiciel : elle analyse des milliers d’heures de vidéos pour catégoriser les comportements suivant ce que les autorités auront qualifié de « suspect » ou « anormal » pour l’appliquer en temps réel sur les caméras de surveillance. Cela crée un gigantesque système de ciblage « d’anomalies » afin d’automatiser le travail de la police. Il s’agit d’un réel changement de dimension de la surveillance et d’industrialisation du travail d’image pour démultiplier les notifications et interpellations, guidées par cette intelligence artificielle.
La VSA existe déjà et elle est déployée dans l’opacité
Déployée ces dernières années en toute opacité, la VSA est une technologie quasiment inconnue de la population. Développée et vendue discrètement par des entreprises, elle est implantée sans information par les collectivités, empêchant les habitant·es d’avoir facilement accès à ce qui est installé dans leur ville. Ce déploiement ne répond pas à un besoin démocratique mais à des logiques économiques alors qu’aucune preuve d’efficacité n’existe.
Par exemple, le logiciel de l’entreprise Briefcam, déployé en catimini dans plus de 200 municipalités en France, permet de réaliser des recherches par attributs (couleur des vêtements, couvre-chef, sac, type de vêtement et supposé genre de la personne), de faire du suivi de personne à travers toutes les caméras de la ville et possède même l’option « comparaison faciale » qui permet de faire une recherche parmi les flux vidéos du visage identifié. C’est grâce à un long travail de documentation de notre part et d’investigation de journalistes qu’il a été possible de comprendre ce que peut réellement faire ce fameux logiciel de VSA le plus vendu en France.
Cette opacité rend totalement impossible l’expression d’un choix démocratique sur la question.
La VSA n’est pas moins dangereuse que la reconnaissance faciale
La VSA et la reconnaissance faciale reposent sur les mêmes algorithmes d’analyse d’images et de surveillance biométrique. La seule différence est que la première isole et reconnaît des corps, des mouvements ou des objets, lorsque la seconde détecte un visage. Ce sont généralement les mêmes entreprises qui développent ces deux technologies. Par exemple, la start-up française Two-I s’est d’abord lancé dans la détection d’émotion, a voulu la tester dans les tramways niçois, avant d’expérimenter la reconnaissance faciale sur des supporters de football à Metz. Finalement, l’entreprise semble se concentrer sur la VSA et en vendre à plusieurs communes de France. La VSA est une technologie biométrique intrinsèquement dangereuse, l’accepter c’est ouvrir la voie aux pires outils de surveillance.
La France est la cheffe de file de l’Europe en terme de surveillance
Avec cette loi, la France sera le premier État membre de l’Union européenne à légaliser et autoriser la surveillance biométrique, à l’opposée d’autres positions au sein de l’UE. Les discussions en cours sur le règlement européen sur l’intelligence artificielle envisagent même son interdiction formelle. La France confirmerait sa place de cheffe de file de la surveillance en Europe, s’éloignant toujours plus des idéaux de respect des droits fondamentaux et se rapprochant de la culture de la surveillance d’autres pays plus autoritaires. Les pays qui ont profité d’évènements sportifs pour tester et rendre acceptables des technologies de surveillance sont la Russie, la Chine et le Qatar.
Aucun garde-fou possible pour la VSA
Pour faire des traitements d’images pointus et reconnaître des formes avec précision, les algorithmes de VSA doivent être basés sur une technologie complexe dite de « deep learning » qui fonctionne grâce à des calculs si sophistiqués qu’ils dépassent l’entendement humain. L’algorithme décide lui-même quels paramètres sont pertinents pour détecter un évènement, sans qu’il soit possible de savoir lesquels ont été retenus pour donner le résultat. Il est impossible de garantir que le logiciel n’exploitera pas de données sensibles et de caractéristiques biométriques. Même les concepteurs de ces algorithmes n’ont pas de visibilité sur les données qu’ils exploitent. Ces technologies sont intrinsèquement dangereuses et ne pourront jamais être limitées efficacement sur le plan légal ou technique. Le seul garde-fou envisageable est l’interdiction de leur usage sur des activités humaines filmées dans l’espace public.
Réponses aux contre-arguments
« La VSA sera expérimentée uniquement pour les Jeux Olympiques »
Faux, les Jeux olympiques ne sont pas une expérimentation : la VSA est déjà déployée en toute opacité et illégalité et continuera à l’être après. On a retrouvé des traces de contrat entre la ville de Toulouse et IBM pour détecter des comportements anormaux dès 2017, on compte au bas mot deux cent villes en France qui l’emploient et elle s’installe aussi dans les magasins. Il y a donc un projet politique de long terme et les JO ne sont qu’un prétexte pour tenter de légaliser cette technologie. Après les Jeux, la vidéosurveillance algorithmique sera généralisée : une fois que des dizaines de milliers d’agents de sécurité et de police seront formés, que la technologie sera achetée et mise au point grâce à des fonds publics, il faudra bien la rentabiliser. Son abandon après cette soi-disant expérimentation est donc illusoire.
« La VSA est seulement une aide à la décision »
Faux, la VSA n’est pas une simple aide technique : pour la concevoir, les entreprises doivent prendre une série de décisions morales et subjectives (qu’est-ce qu’un comportement « suspect » ?). Son application est également politique puisque la VSA est un instrument de pouvoir donné à des services coercitifs. La VSA n’est pas un outil neutre mais analyse en permanence les corps et les déplacements, en particulier de celles et ceux qui passent le plus de temps dans la rue. Se cacher derrière une machine, c’est déresponsabiliser les choix des agents de sécurité : « c’est pas nous qui avons ciblé cette personne, c’est l’algorithme ». C’est aussi accepter la déshumanisation du rapport des citoyens avec l’État, qui finira par ne prendre que des décisions automatisées sur sa population comme cela commence à être le cas avec la vidéoverbalisation. La VSA n’est pas une « aide à la décision » mais constitue bien un changement d’échelle dans les capacités de surveillance de l’État.
laquadrature.net
** **
Dernière minute
Deux documents intéressants
Balance ton smartphone+LaPoste-EcranTotalOccitanie0323
Seule en Europe, la France macronienne adopte la vidéosurveillance biométrique (VSB)