Fabrication de la liasse
Photo de monsieur le député Sébastien Peytavie
Photo de madame la députée Sandra Regol
Photo de monsieur le député Jérémie Iordanoff
Photo de monsieur le député Benjamin Lucas-Lundy
Photo de madame la députée Francesca Pasquini
Photo de madame la députée Christine Arrighi
Photo de monsieur le député Nicolas Thierry
Photo de monsieur le député Julien Bayou
Photo de madame la députée Lisa Belluco
Photo de madame la députée Cyrielle Chatelain
Photo de monsieur le député Charles Fournier
Photo de madame la députée Marie-Charlotte Garin
Photo de monsieur le député Hubert Julien-Laferrière
Photo de madame la députée Julie Laernoes
Photo de madame la députée Marie Pochon
Photo de monsieur le député Jean-Claude Raux
Photo de madame la députée Sandrine Rousseau
Photo de madame la députée Eva Sas
Photo de madame la députée Sabrina Sebaihi
Photo de monsieur le député Aurélien Taché
Photo de madame la députée Sophie Taillé-Polian

Compléter l’alinéa 7 par la phrase suivante :

« Ces personnes sont particulièrement sensibilisées à la reconnaissance de biais discriminatoires dans l’application de l’algorithme, notamment ceux basés sur la couleur de peau ou la situation de handicap. »

Exposé sommaire

Le déploiement de la vidéosurveillance algorithmique qu’ambitionne le présent projet de loi laisse planer de sérieuses craintes sur les dérives sécuritaires que prend l’organisation des Jeux Olympiques et Paralympiques. Il présente non seulement un risque sur nos libertés mais également sur l’existence de biais dans le traitement des données, notamment de comportement que l’algorithme trouverait « anormaux ». 

Amnesty International avertit, en effet, des risques de biais discriminatoires dans l’analyse des données, notamment des biais racistes, comme cela a déjà largement été documenté concernant les technologies de reconnaissance faciale à des fins sécuritaires.

De plus, de sérieux doutes sont à relever concernant cette technologie qui, parce qu’elle repose sur la détection « d’événements anormaux » comporte également de sérieux biais concernant certaines personnes en situation de handicap, déjà largement discriminées au quotidien dans un espace public dominé par le validisme. Les personnes en situation de handicap peuvent, en effet, avoir une manière de se déplacer ou une gestuelle différente de ce que l’algorithme considère comme « un comportement normal ». 

En conséquence, et malgré toutes les supposées précautions avancées par le gouvernement, les algorithmes de vidéosurveillance sont éminemment politiques et traversés par des biais discriminatoires qui prennent le risque de porter préjudice à une fraction significative des citoyens et citoyennes. Dans cette optique, nous demandons, a minima, que les personnes qui manipuleront ces technologies de reconnaissance faciale bénéficient d’une sensibilisation à la reconnaissance de biais discriminatoires dans l’application de l’algorithme, notamment ceux basés sur la couleur de peau ou la situation de handicap.