France: Proposed Olympic surveillance measures violate international human rights law

Topic
Country/Region

Civil society public letter on the proposed French law on the 2024 Olympic and Paralympic Games condemns a legal proposal to deploy algorithmic surveillance cameras in public spaces. The law would make France the first EU country to explicitly legalise such practices, violate international human rights law by contravening the principles of necessity and proportionality, and pose unacceptable risks to fundamental rights, such as the right to privacy, the freedom of assembly and association, and the right to non-discrimination.

Support our work: become a Friend of Statewatch from as little as £1/€1 per month.

French below/français ci-dessous. Letter coordinated by the European Center for Not-for-Profit Law.


Civil society public letter on the proposed French law on the 2024 Olympic and Paralympic Games

Dear Members of Assemblée nationale,

We, the undersigned 38 civil society organisations, are writing to express our deep concern regarding Article 7 of the proposed law on the 2024 Olympic and Paralympic Games (projet de loi relatif aux jeux Olympiques et Paralympiques de 2024[1]). This provision creates a legal basis for the use of algorithm-driven cameras to detect specific suspicious events in public spaces.

The proposal paves the way for the use of invasive algorithm-driven video surveillance under the pretext of securing big events. Under this law, France would become the first EU member state to explicitly legalise such practices. We believe that the proposed surveillance measures violate international human rights law as they contravene the principles of necessity and proportionality, and pose unacceptable risks to fundamental rights, such as the right to privacy, the freedom of assembly and association, and the right to non-discrimination.

We call on you to consider rejecting Article 7 and to open up the issue for further discussion with civil society. Otherwise, its adoption would establish a worrying precedent of unjustified and disproportionate surveillance in publicly accessible spaces to the detriment to fundamental rights and freedoms.

The proposal constitutes a serious threat to civic freedoms and democratic principles

The mere existence of untargeted (often called indiscriminate) algorithmic video surveillance in publicly accessible areas can have a chilling effect on fundamental civic freedoms, especially the right to freedom of assembly, association and expression. As noted by the European Data Protection Board and the European Data Protection Supervisor,[2] biometric surveillance stifles people’s reasonable expectation of anonymity in public spaces and reduces their will and ability to exercise their civic freedoms, for fear of being identified, profiled or even wrongly prosecuted. As such, this measure threatens the very essence of the right to privacy and data protection, which is incompatible with international and European human rights law.

In line with democratic values and principles, upholding the full protection of these fundamental rights and creating enabling conditions for public debate, including political expression in public spaces, is especially crucial during important events, such as the Olympics.

What is more, the proposed legislation significantly and dangerously expands the reasons justifying the surveillance of public spaces. The classification of situations such as begging or stationary assemblies as “atypical” creates the risk of stigmatisation and discrimination of people who spend more time in public spaces, for example due to their homelessness, economic vulnerabilities or disability. Evidence has shown that the use of surveillance technologies creates a state of permanent monitoring, profiling, and tracking that disproportionately harms marginalised people. Using algorithmic systems to fight crime has resulted in over-policing, structural discrimination in the criminal justice system, and over-criminalization of racial, ethnic and religious minorities, leading to the violation, among others, of the principle of non-discrimination enshrined in international and European human rights standards.

The proposal would lead to biometric mass surveillance

Article 7 - III of the proposed law wrongly asserts that algorithmic video surveillance systems will not process biometric data. The EU General Data Protection Regulation (GDPR) defines biometric data as “personal data resulting from specific technical processing relating to the physical, physiological or behavioural characteristics of a natural person, which allow or confirm the unique identification of that natural person” (Article 4(14) of the GDPR). If the purpose of algorithm-driven cameras is to detect specific suspicious events in public spaces, they will necessarily capture and analyse physiological features and behaviours of individuals present in these spaces, such as their body positions, gait, movements, gestures, or appearance. Isolating individuals from the background, without which it would be impossible to achieve the aim of the system, will amount to “unique identification”. As established by EU data protection law, and as interpreted by the European Data Protection Board,[3] the ability to single a person out from a crowd or their surroundings, regardless of whether the person’s name or ID number is known, constitutes “unique identification”.

It is important to remember that the use of AI-based systems to analyse and predict people's behaviours, emotions or intentions can be equally as invasive and dangerous as those which are used to identify people. Classifying people as exhibiting “risky” behaviour based on their biometric data would amount to biometric categorisation, defined by the French Défenseur des droits and the proposed EU Artificial Intelligence Act as assigning natural persons to specific categories based on their biometric features. We bring to your attention that this measure risks colliding with the future EU AI Act. While legislative work is still ongoing, a number of parliamentary amendments propose to prohibit biometric categorisation entirely, given their severe risks to fundamental rights.

The serious interference with human rights does not meet the requirements of necessity and proportionality

Effective human rights protection begins with understanding the limits of technologies and presenting evidence that they are indeed fit for purpose. A corollary of that is the need to investigate how technologies introduced in the name of security respond to actual threats and how they will impact human rights and civic freedoms.

Despite this proposed law presenting a grave risk to fundamental human rights and existing evidence[4] of actual inefficiency of video surveillance to prevent crime or security threats, the government has not demonstrated how this proposal meets the principles of necessity and proportionality, nor meaningfully engaged with civil society about the measure. As such, we believe that the proposed restrictions to human rights do not meet the three-part test of legality, legitimate aim, and necessity and proportionality. This is a violation of the state’s human rights obligations, imposed by international treaties, such as the International Covenant on Civil and Political Rights and the European Convention on Human Rights.

The proposal is a step towards the normalisation of exceptional surveillance powers

The proposed Article 7 is indicative of a worrying trend of governments expanding their surveillance powers as an emergency measure in the name of security. Yet rarely are these “exceptional” measures promptly revoked. Instead, surveillance and control become normalised, often lacking appropriate safeguards, transparency, stakeholder engagement and accountability mechanisms.

This has notably been the case for surveillance measures introduced over the last 20 years in the name of counterterrorism and more recently – with digital solutions adopted during the Covid-19 pandemic.[5] But we have also seen that previous Olympic games similarly served as a terrain for experimentation[6] with increased state powers later repurposed for non-emergency situations.

These experiences provide valid justification for our concern that algorithmic video surveillance will not be abandoned after 2025. If adopted, this law will also set a dangerous precedent for other European countries which have - so far unsuccessfully - attempted to legalise a range of risky biometric surveillance practices, including Portugal and Serbia. France would then become an infamous “leader” in surveillance policies within the European Union.

We sincerely hope that you will take urgent steps in consultation with civil society to address the concerns outlined in this letter. We remain available to further elaborate on the issues raised.

Yours sincerely,

Access Now, Global
AlgoRace, Spain
AlgorithmWatch, Germany
AlgorithmWatch CH, Switzerland
Amnesty International, Global
ApTI, Romania
ARTICLE 19, Global
Association Nationale des Supporters, France
Big Brother Watch, UK
Bits of Freedom, The Netherlands
Centre for Democracy & Technology, Europe
Chaos Computer Club Lëtzebuerg, Luxembourg
Citizen D / Državljan D, Slovenia
Civil Liberties Union for Europe, Europe
Deutsche Vereinigung für Datenschutz e.V. (DVD), Germany
Digitalcourage e.V., Germany
Digitale Gesellschaft, Switzerland
Digitale Freiheit e.V., Germany
Elektronisk Forpost Norge, Norway
Eticas Tech, Spain
European Center for Not-for-Profit Law Stichting (ECNL), Europe
European Digital Rights, Europe
Fair Trials, Global
Forum Civique Européen, France/Europe
Football Supporters Europe, Europe
Homo Digitalis, Greece
Human Rights Watch, International
Irish Council for Civil Liberties, Ireland
IT-Pol, Denmark
Iuridicum Remedium, Czech Republic
Liberty, UK
Panoptykon Foundation, Poland
Privacy International, Global
Privacy Network, Italy
Share Foundation, Serbia
Society Vrijbit, The Netherlands
Statewatch, Europe
Today is a new day / Danes je nov dan, Slovenia

Lettre de la société civile aux députés français sur le projet de loi relatif aux Jeux olympiques et paralympiques 2024

Nous, 38 organisations de la société civile soussignées, exprimons notre vive inquiétude en ce qui concerne l’article 7 du projet de loi relatif aux Jeux olympiques et paralympiques de 2024.[1] Cette disposition crée une base juridique pour l’utilisation de caméras dotées d’algorithmes en vue de détecter des événements suspects spécifiques dans l’espace public.

Ce projet de loi ouvre la voie à l’utilisation d’une vidéosurveillance algorithmique intrusive sous couvert d’assurer la sécurité lors d’événements de grande ampleur. En vertu de cette loi, la France deviendrait le premier État de l’Union européenne (UE) à légaliser de manière explicite ce type de pratiques. Nous estimons que les mesures de surveillance introduites sont contraires au droit international relatif aux droits humains dans la mesure où elles ne satisfont pas aux principes de nécessité et de proportionnalité et impliquent des risques inacceptables vis-à-vis de plusieurs droits fondamentaux tels que le droit à la vie privée, le droit à la liberté de réunion et d’association et le droit à la non-discrimination.

Nous invitons les députés français à envisager le retrait de l’article 7 et à consulter la société civile en ouvrant un débat sur cette question. Si l’article était adopté, il créerait un précédent inquiétant en matière de surveillance injustifiée et disproportionnée dans l’espace public, au détriment des droits fondamentaux et des libertés.

Ce projet de loi représente une grave menace pour les libertés civiques et les principes démocratiques.

Par sa simple présence dans des zones accessibles au public, la vidéosurveillance algorithmique non ciblée (souvent appelée « indiscriminée ») peut avoir un effet dissuasif sur les libertés civiques fondamentales, et notamment sur le droit à la liberté de réunion, d’association et d’expression. Comme l’ont souligné le Comité européen de la protection des données et le Contrôleur européen de la protection des données,[2] la surveillance biométrique a de graves répercussions sur les attentes raisonnables des personnes en matière d’anonymat dans les espaces publics et a un effet négatif sur leur volonté et leur capacité d’exercer leurs libertés civiques, car elles redoutent d’être identifiées, repérées ou même poursuivies à tort. En l’état, cette mesure menace l’essence même du droit à la vie privée et à la protection des données, ce qui la rend contraire au droit international et européen relatif aux droits humains.

Conformément aux valeurs et aux principes démocratiques, lors d’événements de grande ampleur tels que les Jeux olympiques, il est essentiel de garantir l’entière protection de ces droits fondamentaux et d’offrir des conditions propices au débat public, et notamment à l’expression politique dans les espaces publics.

Par ailleurs, ce projet de loi allonge considérablement et dangereusement la liste des motifs justifiant la surveillance des espaces publics. Ainsi, les situations de mendicité ou de rassemblements statiques pourraient être qualifiées d’ « atypiques », créant un risque de stigmatisation et de discrimination pour les personnes qui passent beaucoup de temps dans l’espace public, par exemple parce qu’elles sont sans abri, en situation de vulnérabilité économique ou de handicap. Il est prouvé que l'utilisation des technologies de surveillance crée un état de contrôle, de profilage et de suivi permanent qui nuit de manière disproportionnée aux personnes marginalisées. L'utilisation de systèmes algorithmiques pour lutter contre la criminalité a entraîné une surveillance excessive de la part de la police, une discrimination structurelle dans le système de justice pénale et une criminalisation disproportionnée des minorités raciales, ethniques et religieuses. Cela conduit à la violation, entre autres, du principe de non-discrimination inscrit dans les normes internationales et européennes relatives aux droits humains.

Ce projet de loi entraînerait une surveillance biométrique de masse

Le paragraphe III de l'article 7 du projet de loi dispose de manière erronée que les systèmes algorithmiques de vidéosurveillance ne traiteront aucune donnée biométrique. Le règlement général sur la protection des données (RGPD) de l’Union européenne définit les données biométriques comme des « données à caractère personnel résultant d'un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d'une personne physique, qui permettent ou confirment son identification unique » (article 4-14 du RGPD).

Si l’usage de caméras dotées d’algorithmes est destiné à détecter des événements suspects spécifiques dans l’espace public, ces caméras capteront et analyseront forcément des traits physiologiques et des comportements de personnes présentes dans ces espaces. Il pourra s’agir de la posture de leurs corps, de leur démarche, de leurs mouvements, de leurs gestes ou de leur apparence. Le fait d’isoler des personnes par rapport à leur environnement, qui s’avère indispensable en vue de remplir l’objectif du système, constitue une « identification unique ». Tel que l’établit la loi sur la protection des données de l’UE et selon l’interprétation du Comité européen de la protection des données,[3] la capacité d’isoler une personne parmi une foule ou par rapport à son environnement, que son nom ou son identité soient connus ou non, constitue une « identification unique ».

Il est important de garder à l’esprit que l’utilisation de systèmes basés sur l’intelligence artificielle en vue d’analyser et de prédire les comportements, les émotions ou les intentions des personnes peut être tout autant intrusive et dangereuse que celle de systèmes visant à identifier des personnes. Le fait de placer des personnes dans une catégorie regroupant les comportements « à risque » sur la base de leurs données biométriques constituerait une catégorisation biométrique, que le Défenseur des droits et le projet de loi sur l’intelligence artificielle de l’UE définissent comme le fait de catégoriser des personnes physiques en fonction de caractéristiques spécifiques en se fondant sur leurs données biométriques. Nous attirons l’attention des députés français sur le risque que cette mesure soit en contradiction avec la future loi de l’UE sur l’intelligence artificielle. Dans le cadre du travail législatif en cours, plusieurs amendements proposent l’interdiction totale de la catégorisation biométrique au regard des risques importants qu’elle entraîne pour les droits fondamentaux.

Les atteintes graves aux droits humains contreviennent aux exigences de nécessité et de proportionnalité

Pour garantir une véritable protection des droits humains, il convient de commencer par comprendre les limites des technologies et apporter des preuves de leur adéquation par rapport aux objectifs poursuivis. Dès lors, il est indispensable de mener une étude en vue de déterminer si les technologies introduites au nom de la sécurité répondent à des menaces avérées et quelles incidences leur utilisation aura sur les droits humains et les libertés civiques.

Bien que ce projet de loi présente des risques élevés pour les droits fondamentaux et malgré les preuves existantes[4] de l’inefficacité de la vidéosurveillance en matière de prévention des infractions et des menaces à la sécurité, le gouvernement n’a pas démontré la conformité de ce projet de loi aux principes de nécessité et de proportionnalité et il n’a pas engagé de véritable dialogue avec la société civile au sujet de cette mesure. De ce fait, nous estimons que les restrictions des droits humains introduites ne satisfont pas aux trois critères de légalité, de but légitime et de nécessité et de proportionnalité. Elles constituent une violation des obligations incombant aux États en matière de droits humains en vertu de traités internationaux, et notamment du Traité international relatif aux droits civils et politiques et de la Convention européenne des droits de l’homme.

Ce projet de loi constitue une étape vers la normalisation de pouvoirs d’exception en matière de surveillance

L'article 7 du projet de loi est représentatif de la tendance inquiétante des gouvernements à étendre leurs pouvoirs de surveillance dans le cadre de mesures d’urgence prises au nom de la sécurité. Or, il est rare que ces mesures dites « d’exception » soient levées rapidement. En lieu et place, les mesures de surveillance et de contrôle deviennent la norme. Souvent, elles ne s’accompagnent pas de garanties suffisantes et de mécanismes de responsabilité, elles manquent de transparence et elles ne font l’objet d’aucun dialogue avec les parties intéressées.

Cette tendance a été amplement constatée en ce qui concerne les mesures de surveillance prises au cours des deux dernières décennies sous couvert de la lutte contre le terrorisme et, plus récemment, avec les solutions numériques adoptées dans le contexte de la pandémie de Covid-19.[5] Nous avons également observé par le passé que les Jeux olympiques peuvent servir de terrain d’expérimentation[6] pour doter l’État de pouvoirs renforcés qui sont ensuite maintenus lorsque la situation d’exception prend fin.

Ces exemples suffisent à justifier nos craintes de voir l’utilisation de la vidéosurveillance algorithmique perdurer au-delà de 2025. Si elle est adoptée, cette loi constituera également un précédent dangereux pour d’autres pays européens, tels que le Portugal et la Serbie, qui ont tenté, à ce jour sans succès, de légaliser une série de pratiques de surveillance biométrique risquées. La France endosserait alors le rôle peu reluisant de « leader » des politiques de surveillance au sein de l’Union européenne.

Nous espérons sincèrement que les députés français prendront des mesures de toute urgence en consultation avec la société civile afin de répondre aux préoccupations exposées ci-dessus.

Access Now, Global
AlgoRace, Spain
AlgorithmWatch, Germany
AlgorithmWatch CH, Switzerland
Amnesty International, Global
ApTI, Romania
ARTICLE 19, Global
Association Nationale des Supporters, France
Big Brother Watch, UK
Bits of Freedom, The Netherlands
Centre for Democracy & Technology, Europe
Chaos Computer Club Lëtzebuerg, Luxembourg
Citizen D / Državljan D, Slovenia
Civil Liberties Union for Europe, Europe
Deutsche Vereinigung für Datenschutz e.V. (DVD), Germany
Digitalcourage e.V., Germany
Digitale Gesellschaft, Switzerland
Digitale Freiheit e.V., Germany
Elektronisk Forpost Norge, Norway
Eticas Tech, Spain
European Center for Not-for-Profit Law Stichting (ECNL), Europe
European Digital Rights, Europe
Fair Trials, Global
Forum Civique Européen, France/Europe
Football Supporters Europe, Europe
Homo Digitalis, Greece
Human Rights Watch, International
Irish Council for Civil Liberties, Ireland
IT-Pol, Denmark
Iuridicum Remedium, Czech Republic
Liberty, UK
Panoptykon Foundation, Poland
Privacy International, Global
Privacy Network, Italy
Share Foundation, Serbia
Society Vrijbit, The Netherlands
Statewatch, Europe
Today is a new day / Danes je nov dan, Slovenia

Notes

[1] https://www.senat.fr/leg/pjl22-220.html

[2] https://edpb.europa.eu/system/files/2021-10/edpb-edps_joint_opinion_ai_regulation_fr.pdf

[3] https://edpb.europa.eu/sites/default/files/files/file1/edpb_guidelines_201903_video_devices_en_0.pdf

[4] https://www.lemonde.fr/societe/article/2021/12/22/une-etude-commandee-par-les-gendarmes-montre-la-relative-inefficacite-de-la-videosurveillance_6106952_3224.html

[5] https://ecnl.org/publications/under-surveillance-misuse-technologies-emergency-responses

[6] https://www.scielo.br/j/cm/a/zcKnN9ChT9Wqc4hfGWKSk4d/?format=pdf&lang=en

Our work is only possible with your support.
Become a Friend of Statewatch from as little as £1/€1 per month.

 

Spotted an error? If you've spotted a problem with this page, just click once to let us know.

Report error