Amnesty International se mobilise contre les dérives liberticides des technologies
En ligne, nos libertés individuelles sont de plus en plus compromises : ce n'est pas un hasard si, depuis 4 ans, l'association Amnesty International France en a fait l'un de ses axes de travail prioritaire. Katia Roux, chargée de plaidoyer Libertés, alerte sur ces technologies qui se retournent contre les citoyen·nes.

Interview
Katia Roux
Chargée de plaidoyer Libertés au sein d’Amnesty International France, en charge des questions Technologies et droits humains
Depuis quand l'association Amnesty International a-t-elle commencé à s'intéresser aux problématiques en lien avec le numérique ?
Amnesty International travaille depuis plus d’une dizaine d’années sur l’impact des technologies sur les droits humains. L’expertise et les problématiques suivies se sont diversifiées au fil du temps (surveillance ciblée ou de masse, modèle des Big Tech, utilisation d’algorithmes discriminatoires dans les services publics, gouvernance de l’intelligence artificielle, etc.). Amnesty International France en a fait un de ses axes prioritaires de travail depuis 2021.
Pourquoi avoir choisi de prendre position sur ces sujets ?
Les technologies numériques offrent d’immenses possibilités dans de nombreux domaines de l’activité humaine, mais elles représentent également une grave menace pour les droits humains lorsqu’elles sont utilisées comme moyen de contrôle social, de surveillance de masse et de discrimination.
Katia Roux
Les grandes entreprises technologiques et les États qui ont recours aux nouvelles technologies n’ont jamais eu autant de pouvoir qu’aujourd’hui. Partout dans le monde, des technologies de pointe sont utilisées par des États pour surveiller de manière très large la population ou espionner illégalement des membres de la société civile.
Par ailleurs l’intelligence artificielle, désormais présente dans pratiquement tous les aspects de notre vie quotidienne, repose sur des algorithmes qui collectent toujours plus de données, toujours plus personnelles, qui sont ensuite utilisées de manière abusive par les grandes plateformes du numérique comme dans les services publics.
- ❌ 0% publicité
- 🫀 100% du contenu écrit par un·e humain·e
- ✏️ Le dessin du mois réalisé par le dessinateur Théo Schulthess
- 💡 Le meilleur du numérique responsable
Actuellement, quelle est la situation en France ?
Face aux enjeux sécuritaires, la France se tourne de plus en plus vers les technologies de surveillance, au mépris de ses engagement en matière de droits humains. Des responsables politiques ont affiché publiquement leur volonté de voir la reconnaissance faciale se déployer en France, toujours au nom de la sécurité. Tout récemment, le ministre de la Justice a également pris la parole en ce sens.
Expérimentations de la reconnaissance faciale dans plusieurs villes, utilisation des drones pendant les manifestations, légalisation de la vidéosurveillance algorithmique à l’occasion des Jeux Olympiques de 2024… les outils de surveillance sont de plus en plus présents dans l’espace public français, malgré les risques en matière de droits humains.
Katia Roux
A travers le globe, les discours de certaines personnalités politiques semblent donner la priorité à la sécurité... au détriment de nos libertés. En quoi est-ce problématique ?
Garantir la sécurité ne peut se faire au détriment des libertés. La question du besoin doit se poser de la conception à l’utilisation des technologies. Celles-ci sont souvent présentées par nos dirigeant·es comme des moyens efficaces et rapides pour lutter contre la criminalité, prévenir des attentats, etc. Si leur efficacité en la matière n’a jamais été prouvée, la question de leur nécessité et de leur proportionnalité est systématiquement ignorée.
Or ces critères, dictés par le droit international, doivent guider tout recours à ces outils. Les responsables politiques doivent prouver qu’il n’existe pas d’autre moyen moins attentatoire aux libertés pour garantir l’objectif légitime de sécurité.
Au lieu de comprendre et traiter les causes profondes d’un problème, un nouvel outil technique est déployé. Il vient alors masquer ou sanctionner les symptômes de ce problème en exploitant et alimentant un sentiment d'insécurité. Ce techno-solutionnisme s’accompagne d’un « effet cliquet » par lequel aucun retour en arrière n’est possible.
Katia Roux
En tant que citoyen·ne, pourquoi est-il crucial de rester vigilant·e sur ces questions - même si l'on se dit qu'on n'a rien à cacher ?
Il est crucial de rester vigilant·e sur ces questions car ce sont petits à petits nos libertés fondamentales qui sont restreintes. De la protection du droit à la vie privée dépend donc de nombreux autres droits fondamentaux.
Sans n’avoir rien à se reprocher ou à cacher, on ne se comporte pas de la même manière lorsque l’on se sait, se sent ou simplement se pense surveillé·e. L’effet dissuasif est tel qu’il peut, par exemple, nous faire renoncer à exprimer une opinion critique ou rejoindre une manifestation.
Katia Roux
Par ailleurs, vouloir protéger son intimité ou sa vie privée ne signifie pas avoir quelque chose à se reprocher. Nos faits et gestes dans la rue n’ont pas à être observés et analysés sans motif clair. Le droit à la vie privée doit être protégé par la loi, y compris dans l’espace public.
Loin de prévenir la criminalité, l’effet dissuasif de ces technologies risque avant tout de mener à l’autocensure et au non-exercice de nos droits. La normalisation des comportements, induite par les technologies d’identification biométriques, menace l’expression pacifique de nos opinions, de nos convictions, de notre identité personnelle.
Dans les autres pays européens, y a-t-il aussi des raisons de s'inquiéter ?
Les États européens utilisent de plus en plus les nouvelles technologies et divers outils de surveillance pour mener une surveillance ciblée et de masse des manifestant·es. Cela comprend le suivi et la surveillance des activités, ainsi que la collecte, l’analyse et le stockage de données. Plusieurs États ont élargi la surveillance au moyen de la législation sans mettre en place de garanties adéquates, laissant ainsi le champ libre pour des abus généralisés.
On a constaté une nette augmentation de l’utilisation de la technologie de reconnaissance faciale en Europe. Elle est actuellement utilisée par les organes chargés de l’application des lois dans plusieurs pays européens.
Y a-t-il des pays exemplaires quant à l'utilisation de ces technologies ?
Même si certains pays ont plus recours que d’autres à ces technologies, aucun ne se démarque par une réelle volonté de donner la priorité aux droits humains.
Comment l'Union Européenne se positionne-t-elle par rapport à ces enjeux ?
L’Union européenne se montre pionnière en matière de régulation des technologies. Malheureusement les textes adoptés ne sont pas toujours à la hauteur des enjeux.
La loi sur les services numériques (Digital Services Act) comprend de nouvelles règles qui obligent les grands plateformes du numériques à évaluer et atténuer les risques systémiques posés par leurs services. C’est une réelle avancée, même si le modèle de développement de ces plateformes fondées sur la surveillance n’est pas fondamentalement remis en cause.
L’adoption du règlement de l’UE sur l’IA (AI Act) représente également une avancée historique, puisque c'est le premier texte au monde visant à encadrer l’utilisation et le développement de systèmes d’IA au regard des risques qu’ils font peser sur nos droits fondamentaux.
Il est en revanche décevant que l’UE et ses 27 membres aient choisi de donner la priorité aux intérêts du secteur et des agences d’application des lois plutôt qu’à la protection des personnes et de leurs droits humains. L’AI Act ne propose que des protections limitées aux personnes touchées et marginalisées. Il n’interdit pas l’utilisation dangereuse et l’exportation des technologies draconiennes d’intelligence artificielle.
Toutes les technologies interdites ou partiellement interdites par l’AI Act, comme la reconnaissance faciale, le sont au sein de l’UE. Nous nous étions mobilisé·es pour que l’exportation de ces technologies soit également interdite, mais ces demandes ont été ignorées. En conséquence, certaines technologies sont considérées comme tellement dangereuses qu’elles ne peuvent pas être utilisées au sein de l’UE, mais elles peuvent être exportées vers des pays tiers.
Katia Roux
L'AI Act n’assure en outre pas une protection égale aux personnes migrantes, réfugiées et demandeuses d’asile. De même, il ne prévoit pas de dispositions adaptées d’obligation de rendre des comptes ou de transparence, ce qui pourrait exacerber les atteintes aux droits humains.
Quels sont les moyens d'action d'Amnesty ?
Amnesty International comprend une équipe dédiée – Amnesty Tech - dont la mission est de réagir face aux menaces émergentes qui planent sur les droits humains à l’ère du numérique, et d’aider à formuler et protéger nos droits pour l’avenir.
A travers ses recherches, ses campagnes publiques et son travail de plaidoyer, Amnesty Tech œuvre pour amener les géants technologiques à rendre des comptes, tout en luttant contre un État numérique et automatisé, et en dénonçant la surveillance et la censure croissantes exercées par les gouvernements à l’aide de ces technologies.
Quelles sont vos victoires récentes ?
Ces dernières années, Amnesty a contribué à dénoncer la crise mondiale de la surveillance numérique ciblée, à travers la révélation de plusieurs scandales tels que le Projet Pegasus ou les Predator Files.
Nos recherches, menées dans plusieurs pays, ont également montré comment les systèmes de surveillance numérisée et de reconnaissance faciale reproduisent des formes dangereuses de discrimination à l'encontre des minorités raciales et ethniques. Nous avons également réussi à exposer l’impact du modèle d’activité des plateformes numériques sur les droits humains, notamment dans des contextes de violences ethniques ou à l’encontre de certains groupes de la population (femmes, enfants).
Quels sont les prochains sujets en lien avec le numérique sur lesquels vous vous mobiliserez ?
Cette année nous allons particulièrement nous mobiliser sur la question de l’impact du modèle d’activité de TikTok sur la santé mentale des jeunes. Nous allons également poursuivre le travail de plaidoyer contre l’utilisation, en France et ailleurs, de technologies permettant la surveillance de masse et la surveillance ciblée discriminatoire.
Concrètement, quels leviers utilisez-vous pour attirer l'attention du grand public ?
Nous menons des campagnes grand public, comme celle déployée à l’occasion des Jeux Olympiques de 2024, pour sensibiliser sur l’impact des technologies sur les droits humains. Nous alertons dans les médias et interpellons les décideurs·ses politiques et économiques afin de placer les personnes concernées et les droits humains au cœur des discussions sur le déploiement et l’utilisation des technologies.
A l'échelle individuelle, que peut-on faire si l'on souhaite se mobiliser ?
On peut bien sûr commencer par s’informer sur le sujet, sensibiliser autour de soi, initier des discussions. Les technologies font désormais partie de notre quotidien. Nous sommes tous et toutes concerné·es, mais nous ne sommes pas toutes et tous affecté·es de la même manière par ces outils. Il est important d’en avoir conscience. Il est ensuite possible de s’engager dans des actions (signature d’une pétition, participation à des événements, etc.) ou auprès d’organisations mobilisées sur le sujet.
Références :
- Amnesty International France - Le Projet Pegasus : des fuites massives de données révèlent que le logiciel espion israélien de NSO Group est utilisé contre des militant·e·s, des journalistes et des dirigeant·e·s politiques partout dans le monde
- Amnesty International France - Predator Files : un logiciel espion européen cible journalistes et personnalités politiques
- Amnesty International France - Reconnaissance faciale en France : agissons avant qu'elle ne devienne une réalité
- Amnesty International France - Sommet de l’IA à Paris : un dossier de presse et des experts pour comprendre
- Nations Unies - Pacte international relatif aux droits civils et politiques
- Nations Unies - A/HRC/51/17 : Le droit à la vie privée à l'ère numérique
[Photo de couverture : Nick Fancher]
Soutenez-nous en partageant l'article :