Ne bradons pas la liberté de manifester !


Les annonces faites hier soir par le Premier ministre ont été présentées de manière trompeuse sous le prisme d’une réponse évidente à une situation qui dégénère. Elles constituent en réalité de nouveaux reculs massifs pour les droits fondamentaux, au premier chef desquels le droit de manifester.

Pour mieux feindre l’innocuité des mesures présentées, Edouard Philippe s’est d’abord risqué à un parallèle audacieux entre les casseurs dans les enceintes sportives et ceux qui opèrent pendant des mobilisations. Puisque le dispositif d’interdiction de stade et de fichage des hooligans « a bien fonctionné », c’est tout simple, il suffit de le transposer aux manifestations. A en croire le Premier ministre, le niveau de protection du droit de manifester ne constitue pas un enjeu différent de celui du droit d’assister à un match. Si dans ce dernier cas la liberté de circulation est aussi en jeu, ce qui justifie de veiller au principe de proportionnalité entre les atteintes qui y sont portées et la nécessité de prévenir les violences et dégradations, un paramètre supplémentaire vient s’ajouter s’agissant du droit de manifester : celui de la liberté d’expression.

Dans le détail, le Premier ministre a indiqué que le gouvernement reprenait globalement à son compte la proposition de loi déposée par Bruno Retailleau et adoptée par le Sénat qui sera discutée à l’Assemblée nationale dès début février.

A l’extension sans fin du cadre pénal, permettant des interpellations et des gardes à vue en amont de tout acte de violences ou de dégradation avéré, s’ajoutent dans ce projet de nouveaux dispositifs restrictifs de droits relevant de la seule autorité administrative.

D’abord, un nouvel avatar des périmètres de « protection » instaurés dans la lignée de l’état d’urgence en matière de terrorisme : les personnes se verront refuser l’accès aux lieux de manifestation et leurs abords en cas de refus des fouilles et palpations, à partir de six heures avant la manifestation.

Ensuite, l’instauration d’interdictions de manifester décidées par les préfets, qui reposeront sur deux critères cumulatifs. Le premier, vise « toute personne à l’égard de laquelle il existe des raisons sérieuses de penser que son comportement constitue une menace d’une particulière gravité pour l’ordre public ». Le second critère vise soit des personnes ayant été condamnées pénalement notamment pour violence, soit des personnes « appart[enant] à un groupe ou entr[ant] en relation de manière régulière avec des individus incitant, facilitant ou participant à la commission de ces mêmes faits ». Ces critères sont là encore voisins de ceux permettant depuis la fin de l’état d’urgence à l’autorité administrative de décider d’assignation à résidence ou de visites domiciliaires. Ces décisions seront prises sur la base de présomptions, déterminées par des notes blanches non sourcées. Le droit administratif poursuit ainsi sa mutation pour devenir le socle de véritables restrictions de libertés sans contrôle du juge a priori et sans l’imputation d’un fait précis dont la preuve résulterait d’une enquête contradictoire.

Nul besoin d’expliciter les dangers que recèle la création d’un fichier qui sera alimenté majoritairement par ces interdictions administratives elles-mêmes éminemment contestables, sur la base d’informations des services du renseignement concernant « l’appartenance » supposée « à un groupe » ou les « relations » supposées d’un individu avec d’autres.

Autre annonce, car le droit pénal n’est jamais en reste, l’interdiction de dissimuler totalement ou partiellement son visage deviendrait un délit. Si le texte prévoit que seules les personnes ayant la volonté de dissimuler leur identité seront punissables, – et non ceux qui couvrent leur visage en raison de gaz lacrymogènes ou pour se protéger du froid – la preuve de l’intention réelle pourra être difficile à rapporter, et, surtout, dans l’attente d’éléments complémentaires, l’interpellation et la garde à vue seront rendues possibles. Après le délit d’attroupement en vue de commettre des violences ou dégradations créé en 2010, dont l’interprétation extrêmement large – permettant de prendre des « dispositions préventives » selon la ministre de la Justice – a fait le « pivot du maintien de l’ordre » ces dernières semaines, le gouvernement souhaite ainsi ajouter de nouvelles cordes pénales à son arc pour interpeller des personnes en l’absence de tout fait de dégradations ou violences avérées.

Le gouvernement poursuit la logique d’érosion de l’Etat de droit et des libertés individuelles à l’œuvre depuis des années, par une hypertrophie de la police administrative s’entremêlant avec un droit pénal de plus en plus malléable. Les effets de cette déliquescence ne sont pas théoriques, comme l’ont montré ces dernières semaines les gardes à vue massives d’adultes et de lycéens, par la suite largement remis en liberté sans aucune suite pénale.

Qui voudra demain être fouillé et palpé pour pouvoir accéder à un lieu de rassemblement, qui prendra le risque d’une mesure de garde à vue pour s’être protégé de gaz lacrymogènes avec une écharpe ou des lunettes de piscine, ou encore celui de devoir rembourser collectivement des dégâts causés par d’autres ?

En fait de « loi anti-casseurs », il s’agit plutôt d’un projet « anti-manifestants » bien commode pour étouffer toute contestation à la source.

Publicités

Dispositifs de surveillance cachés par les flics dans nos espaces de vie


Les États, dans leur rôle de répression des individus et groupes pratiquant des activités subversives, déploient un certain nombre de moyens pour surveiller ces individus et ces groupes. Il semble qu’une partie de cette surveillance passe par la dissimulation de dispositifs de surveillance dans des espaces de vie.

Les dispositifs en question sont variés : microphones, caméras, balises de localisation. Les espaces visés peuvent être tous les espaces qu’on traverse : bâtiments, véhicules, espace public. Ces pratiques sont parfois légales, réalisées avec l’accord d’un juge d’instruction par exemple, et parfois non, réalisées par les services de renseignement hors d’un cadre légal.

On a constaté le manque d’informations disponibles autour de nous sur ce type de surveillance. Quelle est l’utilisation réelle de ces dispositifs par les services de renseignement ? Quels types de dispositifs sont utilisés ? Dans quels contextes ? Avec quelle efficacité ? Quels moyens mettre en place pour contrer ce type de surveillance ?

Du coup, on a décidé de collecter des informations à ce sujet, avec l’idée d’écrire et de publier une brochure d’ici quelques mois. On souhaite se concentrer dans cette brochure sur la surveillance exercée par les services de renseignement et de police politique des États en Europe à l’encontre d’individus ou groupes pratiquant des actions subversives. De plus, on se limite à l’étude des dispositifs de surveillance physiques dissimulés dans les espaces traversés par les individus ou groupes surveillés (on ne parlera donc pas d’autres types de surveillance comme les filatures, les écoutes téléphoniques ou la surveillance d’Internet).

C’est pas toujours facile de trouver des informations précises et fiables concernant ce sujet, compte tenu du secret relatif qui entoure souvent les pratiques policières, et plus encore les pratiques des services de renseignement. Pour réaliser cette brochure, on souhaite se baser en premier lieu sur des exemples documentés de découvertes de dispositifs de surveillance vraisemblablement mis en place par des flics.

On a donc commencé par établir une liste de tous les exemples qu’on a pu trouver sur Internet. Pour le moment, cette liste recense 24 cas de dispositifs de surveillance retrouvés dans des bâtiments (souvent des micros et des caméras), et 16 cas de dispositifs retrouvés dans des véhicules (souvent des balises GPS, parfois accompagnées de micros). Les exemples proviennent surtout d’Italie, mais aussi d’autres pays européens : France, Espagne, Belgique. La plupart des exemples sont accompagnés de photos des dispositifs.

La liste d’exemples et les photos des dispositifs peuvent être téléchargés ici :

Cette liste serait inclue dans la brochure finale, et accompagnée de synthèses concernant les emplacements des dispositifs, leurs fonctionnements, et des moyens possibles de les détecter.

On écrit cet appel à contributions dans l’idée de continuer à récolter des informations pour écrire la brochure. On est intéressé par d’autres exemples de cas de dispositifs découverts, notamment des exemples qui indiqueraient précisément les modèles des appareils découverts (mais tous les exemples sont bons à prendre). On est bien sûr aussi intéressé par tout autres types d’informations : informations techniques sur ce genre de dispositifs, retours d’expérience sur des tentatives de détection, critiques concernant notre projet de brochure, etc.

On veut partir à l’attaque des oreilles et des yeux (et des balises GPS) cachés par les flics dans les espaces qu’on traverse.

Tu peux nous contacter par mail sur desoreillesetdesyeux ‘at’ riseup.net. On parle français et anglais. Si tu nous écris dans une autre langue, on peut essayer de se débrouiller pour traduire. Notre clé PGP est disponible ici :

PS : n’hésite pas à traduire cet appel dans d’autres langues et à le diffuser ailleurs si tu en as envie

This entry was posted in General. Bookmark the permalink.


Étude : tout ce que Google sait de vous


Suite au scandale Cambridge Analytica, Facebook a été largement critiqué pour sa gestion des données personnelles. Dans l’esprit du grand public, Facebook sait tout de nos vies. Il est pourtant très loin d’en savoir autant que Google qui est présent à nos côtés une grande partie de la journée. Douglas C. Schmidt, Professeur d’informatique à l’Université Vanderbilt aux USA vient de publier une étude présentant toutes les données collectées par Google, et tout ce que le géant sait de vous et de vos habitudes. La liste est longue, et compilée dans une étude complète de 55 pages. Voici les point principaux de l’étude :

datasgoogle

  • Un téléphone Android en veille, et sans mouvement, avec Chrome en tâche de fond communique la localisation du téléphone à Google 340 fois sur une période de 24 heures, soit une moyenne de 14 envois de datas par heure. La localisation représente 35% des données collectées par Google.
  • Avec un téléphone iOS, sous Safari, Google est incapable de recevoir et d’exploiter les données de localisation.
  • Un téléphone sous Android avec Chrome, envoie 50 fois plus de demande de collectes de données qu’un device iOS sous Safari.
  • Un device Android en veille communique avec Google 10 fois plus qu’un device Apple communique avec les serveurs Apple.
  • Android et Chrome sont les principales sources de datas pour Google lorsque les devices sont inactifs.
  • Google sait si vous marchez, courrez ou conduisez, même si vous n’êtes pas connecté en WIFI. Google envoie quand même des requêtes aux réseaux WIFI publics et privés afin d’analyser vos déplacement, tout en les couplant aux capteurs des devices Android.
  • Google est capable d’associer des datas anonymes avec les informations personnelles d’un utilisateur. Les identifiants publicitaires, supposés anonymisés, sont en fait associables à des identités réelles d’utilisateurs Google, grâce à l’identification sur les serveurs Google, ou via Android.
  • Les cookies utilisateurs DoubleClick (régie publicitaire Google) qui trackent le comportement des utilisateurs sur des pages et services sont supposés anonymiser les utilisateurs, mais sont en fait associés à des comptes Google.
  • La majeure partie des données collectées par Google se fait alors que l’utilisateur est inactif, et n’est pas en train d’utiliser un produit Google. C’est d’autant plus vrai sur les devices Android qui collectent de l’information 24 heures sur 24, 7 jours sur 7, à plus de 2 milliards d’utilisateurs.

La conclusion principale de cette étude est que vous êtes tracké en permanence via les différents services Google : Analytics, AdSense, Chromecast, YouTube, Google Map, Android, AMP, Google Assistant, Chrome, etc. Mais surtout, toutes ces données sont en fait associées par Google, qui sait à peu près tout sur ce que vous faites de vos journées.

Toutes les données analysées dans l’étude sont issues d’un téléphone neuf, sans historique de navigation, et les données sont collectées via My Activity et TakeOut.

L’étude complète est disponible sur ce lien.

Recevez nos meilleurs articles


La protection des données au travail, un enjeu syndical et de négociation collective – – S.I.Lex –

scinfolex.com

Un blog publié par Calimaq calimaq

C’est une chose que l’on oublie souvent, mais les employés au travail disposent encore de leur droit à la vie privée et au contrôle de l’usage de leurs données. Cette dimension de la protection des données personnelles fait moins parler d’elle que celle des internautes face aux GAFAM, mais pourtant entre 5 et 20% des plaintes adressées à la CNIL chaque année concernent les relations entre employés et employeurs, notamment à propos du droit d’accès aux informations personnelles.

Cette semaine, j’étais invité à l’événement de lancement d’une Charte éthique et numérique RH, proposée par le syndicat CFE-CGC et le Lab RH. Ce document vise à accompagner l’entrée en vigueur du Règlement Général de Protection des Données (RGPD), en listant une série de bonnes pratiques en matière de numérique appliqué aux ressources humaines. La Charte s’attache notamment à formuler des principes à respecter lors de la mise en oeuvre de technologies comme le Big Data, les traitements algorithmiques ou même l’intelligence artificielle, qui sont de plus en plus employés dans les phases de recrutement ou la gestion des ressources humaines.

L’un des points les plus intéressants de ce texte constitue à mon sens le renvoi qu’il fait à l’article 88 du RGPD :

Incité par le Règlement Général de Protection des Données et son article 88 offrant la possibilité de porter ce sujet au sein de conventions collectives, cette charte constitue pour ses adhérents un outil méthodologique de facilitation de mise en conformité de leurs obligations.

Cet article concerne le « traitement des données dans les relations de travail » et il prévoit en particulier une articulation possible entre le RGPD et des conventions collectives qui viendraient préciser les garanties apportées au respect des droits des travailleurs :

Les États membres peuvent prévoir, par la loi ou au moyen de conventions collectives, des règles plus spécifiques pour assurer la protection des droits et libertés en ce qui concerne le traitement des données à caractère personnel des employés dans le cadre des relations de travail, aux fins, notamment, du recrutement, de l’exécution du contrat de travail, y compris le respect des obligations fixées par la loi ou par des conventions collectives, de la gestion, de la planification et de l’organisation du travail, de l’égalité et de la diversité sur le lieu de travail, de la santé et de la sécurité au travail, de la protection des biens appartenant à l’employeur ou au client, aux fins de l’exercice et de la jouissance des droits et des avantages liés à l’emploi, individuellement ou collectivement, ainsi qu’aux fins de la résiliation de la relation de travail.

Ces règles comprennent des mesures appropriées et spécifiques pour protéger la dignité humaine, les intérêts légitimes et les droits fondamentaux des personnes concernées, en accordant une attention particulière à la transparence du traitement, au transfert de données à caractère personnel au sein d’un groupe d’entreprises, ou d’un groupe d’entreprises engagées dans une activité économique conjointe et aux systèmes de contrôle sur le lieu de travail.

Cet aspect assez méconnu du RGPD me paraît important dans la mesure où il peut faire de la protection des données des travailleurs un enjeu de négociation syndicale et de démocratie sociale, envisagé d’emblée avec une dimension collective. Cela rejoint l’idée d’un droit social des données et d’une protection sociale des données, mais envisagés sous l’angle de la sphère professionnelle.

Les organisateurs de l’événement autour du lancement de la Charte m’avait demandé de faire une intervention autour de la question : « Quel rôle pour le consentement dans la protection des données des employés ? ». Je colle ci-dessous les éléments dont j’avais prévu de parler et que je n’ai pas eu le temps de détailler dans leur intégralité lors de la soirée.

Quel rôle pour le consentement dans la protection des données des employés ?

La notion de consentement est parfois considérée comme le « coeur névralgique » du RGPD, car même si le texte n’en fait pas un principe général, il constitue néanmoins le moyen principal donné à l’individu pour contrôler l’usage de ses données par des tiers. Le RGPD prévoie même un «super-consentement » qui doit être «libre, spécifique, éclairée et univoque».

Une grande partie de la capacité du RGPD à offrir aux personnes des droits effectifs de contrôle sur les données tiendra à la portée qui sera conférée par la jurisprudence à ces conditions de validité du consentement. On constate d’ailleurs que la plupart de la trentaine d’actions de groupe lancées en Europe suite à l’entrée en vigueur du RGPD se basent sur la violation de la liberté du consentement, notamment lorsque des acteurs comme les GAFAM manœuvrent pour arracher à leurs utilisateurs un consentement forcé à travers l’exercice d’un « chantage au service ».

Mais paradoxalement, si le respect du consentement est appelé à jouer un rôle central dans la protection des internautes, ce ne sera pas le cas pour les employés en situation de travail. La raison en est assez logique : l’employé est lié à l’employeur par une relation de subordination qui fait que par construction, le consentement ne peut pas être considéré comme « libre » en raison du déséquilibre des forces en présence. Le RGPD contient notamment un considérant 43 assez explicite quant à l’incompatibilité entre liberté du consentement et subordination :

Pour garantir que le consentement est donné librement, il convient que celui-ci ne constitue pas un fondement juridique valable pour le traitement de données à caractère personnel dans un cas particulier lorsqu’il existe un déséquilibre manifeste entre la personne concernée et le responsable du traitement […]

Même si cela peut paraître contre-intuitif, c’est bien pour protéger les personnes que l’on interdit à l’employeur de s’appuyer sur le consentement des subordonnés comme fondement pour traiter leurs données, car cela permet d’éviter que le consentement ne soit retourné contre l’individu pour le faire participer à l’affaiblissement de ses propres droits. En matière de ressources humaines, le consentement devra néanmoins parfois être recueilli, notamment pour traiter les données de candidats postulant sur un poste, mais c’est précisément parce que dans ce cas le lien de subordination avec l’employeur ne s’est pas encore noué.

Du coup, le traitement des données des employés devra s’appuyer sur d’autres fondements que le RGPD prévoit comme bases légales aux traitements. La première d’entre elles concerne les traitements nécessaires à l’exécution d’un contrat, ici en l’occurrence le contrat de travail (on peut songer au traitement des données bancaires du salarié, nécessaire pour lui verser sa paie). Mais il ne s’agit pas néanmoins d’un blanc-seing donné à l’employeur, en vertu notamment des principes de limitation des finalités et de minimisation des données, qui impliqueront de retenir une interprétation restrictive de « ce qui est nécessaire à l’exécution du contrat ». L’employeur pourra aussi s’appuyer sur certaines obligations légales, qui lui imposent, en matière fiscale ou sociale notamment, de traiter certaines des données des employés (numéro de sécurité sociale, par exemple).

Mais il y a fort à parier que ce soit la notion « d’intérêt légitime de l’entreprise » qui joue un rôle clé dans les relations entre les employés et les employeurs. Celle-ci a déjà fait couler beaucoup d’encre, car il s’agit d’une des « zones grises » les plus problématiques du RGPD. Le texte prévoit en effet qu’une entreprise puisse invoquer un de ses intérêts légitimes pour traiter des données sans le consentement des personnes concernées. Le réglement ne définit pas vraiment ce concept, mais il en donne quelques exemples comme la sécurisation des systèmes d’information ou le transfert des données entre les entités d’un même groupe. Mais pour l’essentiel, la signification de ce qui peut constituer « l’intérêt légitime d’une entreprise » à traiter des données reste encore à déterminer par la pratique.

Le règlement fixe néanmoins des gardes-fous en prévoyant que l’intérêt légitime est invocable, à moins que « les intérêts ou les libertés et droits fondamentaux de la personne ne prévalent compte tenu des attentes raisonnables des personnes concernées fondées sur leur relation avec le responsable de traitement« . Or cette idée d’un équilibre à trouver entre les intérêts de l’entreprise et les droits fondamentaux des personnes est intéressante, car elle reconnecte l’enjeu de la protection des données à ce qui constitue la justification traditionnelle de l’existence du droit du travail, et plus largement du droit social. Le Code du Travail contient déjà en effet un article 1121-1 qui pose un principe général l’interdiction de prendre des mesures restreignant les droits et libertés des personnes qui ne seraient pas justifiées ni proportionnées par rapport à l’objectif poursuivi.

Cette référence à l’impératif de respect des droits et libertés est cruciale et un exemple concret permettra d’en mieux saisir l’importance. On a appris récemment qu’en Chine, un certain nombre d’entreprises commençaient à déployer des techniques « d’affectice computing » sous la forme de casques dotés de capteurs cérébraux permettant de surveiller les émotions des salariés : le stress, la colère, la fatigue, etc. Les firmes qui ont recours à ces technologies disent le faire au nom de la productivité ou pour améliorer la sécurité au travail, ce qui pourrait correspondre à ce que le RGPD appelle des « intérêts légitimes ». En Chine, les employés n’ont visiblement pas pu s’opposer au déploiement de ces méthodes de contrôle terriblement intrusives et un article de Slate rapporte même ce témoignage glaçant d’un manager chinois à propos des réactions des travailleurs :

Ils pensaient que l’on voulait lire leurs pensées. Certains étaient mal à l’aise et il y a eu de la résistance au début.

En Europe, la résistance à ces procédés pourraient s’appuyer sur le RGPD et faire obstacle à l’invocation de l’intérêt légitime de l’entreprise pour atteinte disproportionnée à des libertés et droits fondamentaux. Sachant que si l’arrivée des casques détectant les émotions paraît encore assez improbable, d’autres signes inquiétants commencent à poindre, comme ce dépôt de brevet d’Amazon sur un bracelet connecté destiné à enregistrer en permanence les mouvements des mains des employés de ses entrepôts…

La notion d’intérêt légitime va plus généralement jouer un rôle important pour ce qui concerne l’introduction des technologies les plus « innovantes » dans le secteur des ressources humaines, comme le Big Data, les traitements algorithmiques ou l’intelligence artificielle. Ces méthodes relèvent de ce que le RGPD appelle le « profilage » et pour lequel il prévoit des précautions particulières : « toute forme de traitement automatisé de données […] pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail ».

Il y a peu de chances que de tels traitements puissent être considérés comme « nécessaires à l’exécution du contrat de travail« , dont on a vu qu’il faudra garder une interprétation restrictive. Cela signifie que les entreprises qui voudront déployer ces technologies vis-à-vis de leurs salariés devront le faire sur la base de leur « intérêt légitime », ce qui peut s’avérer pour elles assez inconfortable. Car elles devront veiller à ne pas porter atteinte aux libertés et droits fondamentaux des personnes, sous peine de s’exposer aux redoutables sanctions du RGPD qui, depuis les réformes récentes du Code du travail, sont largement plus intimidantes que les dommages et intérêts pouvant être obtenus aux Prud’hommes !

Et c’est là que le renvoi de la Charte éthique et numérique RH à l’article 88 du RGPD pourrait prendre tout son sens, en ouvrant la voie à ce que certaines notions du Règlement fassent l’objet d’une déclinaison sectorielle par le biais de conventions collectives. Cela signifie que la détermination de ce que sont les intérêts légitimes des entreprises en matière de traitement de données ne devrait pas relever d’une définition unilatérale par les employeurs. Cela peut au contraire devenir un enjeu de négociation collective et de démocratie sociale, ce qui serait parfaitement logique étant donné qu’il est question de protection des droits et de la dignité des personnes. Ce serait même renouer avec les grands principes fondateurs du droit du travail, comme le principe de faveur et la hiérarchie des normes, qui ont reçu des coups très rudes avec la loi El Khomri et les ordonnances Macron, mais qui pourraient retrouver tout leur sens en matière de protection des données des employés : les normes inférieures – en l’occurrence les conventions collectives – viendraient en la matière ajouter des garanties supplémentaires par rapport au socle légal que constitue le RGPD.

C’est pourquoi il paraît essentiel que la protection des données devienne un enjeu syndical, notamment pour venir compenser le déséquilibre des forces en présence en ne laissant pas les salariés isolés face aux employeurs pour défendre leur vie privée. C’est dire en somme que l’intérêt légitime de l’entreprise ne sera vraiment « légitime » que s’il est collectivement discuté selon les principes de la démocratie sociale. De ce point ce vue, cette Charte éthique et numérique RH peut constituer un élément précieux pour aider à l’émergence d’un « droit social des données » dont le RGPD peut favoriser l’avènement, à condition que les syndicats s’emparent de cet enjeu.

Ces questions dépassent même en un sens la seule sphère de la protection des données au travail et pourraient avoir une incidence plus large. Pour le comprendre, on peut citer le juriste Alain Supiot, professeur au Collège de France, notamment dans un passage de son livre Homo Juridicus, paru en 2005. Il y consacre un chapitre aux rapport entre le droit et la technique, en faisant valoir que le droit constitue une « technique d’humanisation de la technique« , qui depuis la révolution industrielle a joué un grand rôle pour préserver les humains des excès de la mécanisation du travail. Alors qu’en 2005 Facebook existait à peine, il se penche sur les enjeux de protection de la vie privée, à travers la loi Informatique et Libertés, et il souligne un paradoxe :

Aujourd’hui, la protection de la vie privée du citoyen semble beaucoup mieux assurée dans l’entreprise que dans la Cité.

Il fait notamment remarquer en ce sens qu’un travailleur est mieux protégé par la loi face à son employeur du point de vue du respect de sa vie privée que ne l’est un simple client vis-à-vis de son banquier, qui peut connaître une grande partie de son intimité à travers le détail de ses opérations bancaires. Et il conclut le passage avec cette remarque intéressante :

En matière de libertés, l’histoire du droit du travail était jusqu’à présent celle d’une pénétration dans l’entreprise des libertés garanties dans la Cité. On s’achemine peut-être vers une démarche inverse où il faudra diffuser dans la Cité des libertés garanties dans l’entreprise.

Cette réflexion garde toute sa pertinence, car on peut dire que l’employé paraît aujourd’hui parfois mieux protégé que ne l’est le simple internaute face aux grandes plateformes comme les GAFAM, alors même que, contrairement au salarié, il dispose en théorie du consentement individuel pour contrôler ses données. Les employés peuvent s’appuyer sur ce qui fait actuellement cruellement défaut aux internautes, à savoir des moyens collectifs de défense de leurs droits sur les données. Une fois mises en œuvre dans le champ des relations de travail, ces méthodes d’organisation et de négociation collectives pourraient être appropriées plus largement par la société civile pour défendre les données en général, y compris face aux grandes plateformes vis-à-vis desquelles nous sommes tous des «travailleurs de la donnée».


Vidéosurveillance : paradigme du technosolutionnisme


La lecture du livre du sociologue Laurent Mucchielli (@lmucchielli), Vous êtes filmés ! Enquête sur le bluff de la vidéosurveillance, m’a profondément déprimé. Elle m’a profondément déprimé parce qu’elle montre que ceux qui n’ont cessé de dénoncer l’inutilité de la vidéosurveillance n’ont absolument pas été entendus. Ils ont été laminés par le bulldozer d’une désinformation sans précédent… alors même que les constats initiaux sur l’inefficacité de la vidéosurveillance (voir notamment les articles de Jean-Marc Manach de 2009 et 2010 ou encore le dossier que consacrait déjà en 2010 Laurent Mucchielli sur son blog) n’ont cessé d’être confortés par les rares évaluations qui ont eu lieu. Après des années de développement, la vidéosurveillance, rapportée à son coût, ne sert toujours à rien et pourtant, elle s’est imposée partout. Elle est devenue si banale désormais, qu’on s’étonne plutôt quand une collectivité locale n’en est pas équipée. Pourtant, ces années d’équipements, ces ces centaines de millions d’euros dépensés, n’ont pas changé le constat initial, celui pointé depuis très longtemps par les chercheurs : à savoir que la vidéosurveillance sur la voie publique ne produit rien. Le retour sur investissement de cette technologie est scandaleux. Le taux « d’utilité » aux enquêtes comme le taux de « participation » à l’élucidation de voies de fait est quasiment inexistant. Elle ne parvient même pas à combattre le sentiment d’insécurité que les caméras promettaient de résoudre comme par magie.

La vidéosurveillance : un programme politico-industriel massif

Dans son livre, Mucchielli rappelle que la vidéosurveillance municipale consiste à surveiller la voie publique, la rue, pour gérer un risque protéiforme et difficilement prévisible appelé selon les moments délinquance, insécurité, terrorisme voire incivilités…

Depuis l’origine (la « télésurveillance » naît après la 2de guerre mondiale, mais prend son premier essor dans les années 70 avec l’enregistrement par cassettes analogiques et les premiers programmes de vidéosurveillance publique, notamment à Time Square à New York dès 1973), la vidéosurveillance pose la question de son efficacité en regard des questions de libertés publiques et d’autres choix politiques sécuritaires possibles, mais son efficacité même est pourtant rarement interrogée. En fait, sa raison d’être n’est pas là. Son déploiement est tout entier lié à la montée de l’idéologie sécuritaire. Ses phases de progression sont d’ailleurs liées à la fois à l’essor des politiques conservatrices et au développement de crises sécuritaires, notamment les attentats de 2001 aux États-Unis ou de 2015 en France. Les dispositifs mis en place n’auront pourtant pas réellement d’impacts ni pour prévenir, ni pour dissuader, ni pour résoudre les actes de terrorisme.

En France, le sociologue décèle trois étapes dans son déploiement. Un premier temps à la fin des années 90, à l’initiative de communes plutôt conservatrices qui s’accélère et s’élargit avec les élections municipales de 2001 qui font de la sécurité un enjeu local majeur. La seconde phase correspond à une accélération du déploiement à un niveau national liée à l’élection de Nicolas Sarkozy en 2007, qui instaure une politique de financement et d’équipement massive. Les enjeux avancés alors visent à protéger les bâtiments et lieux publics, réguler le trafic et les infractions, prévenir les atteintes à la sécurité des personnes et des biens, lutter contre le terrorisme et diminuer le sentiment d’insécurité. Une nouvelle phase, plus invisible, se déploie depuis les attentats de 2015, sous couvert d’État d’urgence et de terrorisme, dans les petites communes et les villages, où le risque est très faible et où l’efficacité encore plus problématique. Tant et si bien que les villes les plus vidéosurveillées de France aujourd’hui, c’est-à-dire celles où le ratio caméra par habitant est le plus fort, sont avant tout de petites villes et des villages. Le traumatisme des attentats a fait de la vidéosurveillance la première des technologies de sécurité.

Mucchielli estime qu’aujourd’hui il y aurait environ 1,5 million de caméras filmant des lieux publics et des voies publiques, dont environ 150 000 à l’initiative des communes (soit le triple des estimations officielles). Seulement 5 des 60 plus grandes villes françaises ne sont pas équipées. Début 2018, 88% des villes de 15 000 à 150 000 habitants sont pourvues d’équipement ou de programmes. La moyenne serait de près de 52 caméras par ville en 2016, un chiffre qui a doublé depuis 2010. 80 à 90% des communes en zones urbaines sont vidéosurveillées et l’extension se poursuit depuis 2015 en direction des petites villes et des territoires périurbains et ruraux. La vidéosurveillance s’est imposée partout !

Pourquoi la vidéosurveillance a-t-elle si bien marché ?

Les critiques à l’encontre de la vidéosurveillance ont plus interrogé le coût des dispositifs que leur efficacité ou que leurs effets discriminatoires (à l’encontre des jeunes et des « minorités visibles » notamment, ou leur développement dans des quartiers qui ne sont pas toujours les plus criminogènes…). Ses partisans par contre ont promu le caractère irréfutable de la preuve de l’image, notamment via le « vidéo-flag », le flagrant délit capturé par la vidéo qui permettrait de confondre sans erreur possible les délinquants par l’image, mais qui n’existe quasiment pas dans les faits (même si les rares exemples sont très relayés par les médias). « A contrario, ne sont jamais mentionnées les procédures dans lesquelles la présence de caméras n’a pas aidé les enquêteurs de police ni celles dans lesquelles l’existence d’images enregistrées a permis d’innocenter les personnes suspectées par les forces de l’ordre ».

 

La principale raison du succès de la vidéosurveillance n’est pas à chercher du côté de son efficacité, mais tient purement d’un couplage entre une injonction politique et des incitations financières. Depuis 2007 notamment, l’État et les collectivités locales ont développé des modalités de financement public pour aider les communes à s’équiper. 150 millions d’euros ont été investis par l’État entre 2007 et 2013 (213 millions entre 2007 et 2017 selon le ministère de l’Intérieur) auquel il faut ajouter presque autant de la part des aides provenant des collectivités ainsi que les dépenses des communes elles-mêmes. Si le financement public s’est un peu réduit à partir de 2012 (mais sans être remis en question), le coût pour les communes a été considérablement réduit par ces aides, rendant le coût de l’équipement « acceptable ». Enfin, il faut compter sur les efforts marketing et le lobbying des industriels du secteur (Thales, Safran, mais également Eiffage, Cofely, SPIE… et Anaveo, leader français des systèmes de « surveillance intelligente »…), des associations (notamment l’Association nationale des villes vidéosurveillées, née en 2004, devenue Association nationale de vidéoprotection en 2011) et des lobbies comme le Conseil des industries de la confiance et de la sécurité (CICS, né fin 2013, qui se présente comme l’interlocuteur industriel de l’État dans un domaine qui revendique 125 000 emplois et 21 milliards d’euros de CA en 2017). Le marché mondial de la vidéosurveillance a doublé de volume dans les années 90. Et cette tendance s’est amplifiée avec un taux de croissance à deux chiffres depuis les années 2000. Aux marchés initiaux, qui se développent jusque dans les pays en développement, il faut ajouter l’entretien et le renouvellement du parc (la durée de vie d’une caméra est de 5 à 8 ans) ainsi bien sûr que la surveillance humaine des écrans et des enregistrements, c’est-à-dire le coût de fonctionnement (opérateurs et lieux dédiés). Politisation, médiatisation et commercialisation expliquent largement le succès.

Un autre facteur, et non des moindres, explique encore le succès sans précédent de la vidéosurveillance : son relai jusqu’aux politiques locales ! Si on constate des clivages politiques entre droite et gauche dans son déploiement initial (la droite a adhéré plus rapidement à ces dispositifs et engagé plus lourdement les budgets), depuis, les élus de gauche se sont alignés sur le modèle. Mucchielli montre que la vidéosurveillance s’impose par contagion et sous la pression citoyenne qui voit dans les promesses de la vidéosurveillance une solution pour réduire le sentiment d’insécurité réel comme ressenti. Mucchielli pointe la crédulité des édiles qui suivent la pression politique, médiatique, marketing. Mais également la pression des assurances qui l’exigent de plus en plus souvent, de la police locale qui y voit un moyen d’accroître sa légitimité… Une pression de conformité s’exerce sur les élus qui subissent également des demandes précises de leurs administrés (commerçants, populations politisées ou âgées). La vidéosurveillance est utilisée comme une réponse pour calmer colère et inquiétude. Elle permet de mener une action concrète et visible. « Le calcul politique n’est rentable qu’à court terme, d’une part parce que la demande de caméras risque d’être sans fin, d’autre part parce qu’il ne semble pas que le sentiment d’insécurité soit réellement impacté par l’installation de la vidéosurveillance », rappelle le chercheur. Les maires ont effectivement une responsabilité de sécurité et de prévention alors que dans la réalité leur rôle en la matière est assez limité. La vidéosurveillance leur permet d’exister, de s’affirmer dans ce domaine. Beaucoup concèdent qu’ils sont cernés par les pressions qu’elles viennent d’élus, des politiques des communes avoisinantes, des demandes de certaines catégories de citoyens. Face à la pression globale de conformité, bien peu parviennent à résister. « La vidéosurveillance est un symbole visant à donner l’impression d’une action sur le thème de la sécurité ».

La vidéosurveillance ne sert à rien !

Reste que le coeur de la démonstration du sociologue repose sur l’inefficacité de la vidéosurveillance. La vidéosurveillance ne protège personne. Elle n’arrête ni les délinquants, ni les terroristes, ni les incivilités. Pire, elle n’a que peu d’effet sur la résolution des enquêtes. Le rapport coût/efficacité est si dérisoire, qu’il explique de lui-même pourquoi l’évaluation de ces équipements a été si inexistante.

Aujourd’hui, on a l’impression que les citoyens sont devenus les premiers demandeurs de vidéosurveillance. Pourtant, rappelle Laurent Mucchielli, ce n’est pas si exact. D’abord, quand on livre des informations concrètes sur les coûts et l’efficacité, on constate qu’ils en comprennent très bien les limites, à l’exemple d’une commune du Lot-et-Garonne de 7000 habitants qui fin 2011 avait réalisé un référendum consultatif sur l’utilité de la vidéosurveillance (au plus fort de son engouement) et qui l’a clairement rejeté (à 59%). De même, quand on interroge d’une manière plus ouverte la population, la vidéosurveillance n’est pas la réponse préférée de la population en matière de sécurité. Souvent, ils valorisent d’autres politiques : la lutte contre l’échec scolaire, la prévention et l’aide aux familles en difficulté ou le recrutement des policiers viennent devant l’installation de caméras.

Les rares études d’évaluation montrent pourtant que l’utilité de la vidéosurveillance est faible, pour ne pas dire dérisoire. Elles soulignent également qu’il n’y a pas de corrélation systématique entre la densité de caméras sur un espace et leurs supposés effets préventifs. Quant à la thèse du déplacement de la délinquance, là encore, les études estiment qu’elle est difficile à évaluer. Les rapports des Cours des comptes régionales sur ces questions, par exemple à Saint-Étienne en 2010, montrent combien l’efficacité est dérisoire. Pour un coût de 1,3 million d’euros annuels, le taux de faits « repérés ou élucidés » culmine à 2% sur l’année. À Lyon, à la même époque, un autre rapport montrait que pour un coût de 2,7 à 3 millions par an, c’est seulement 0,7 à 1,6% des faits délictueux sur la voie publique qui ont recours aux images de vidéosurveillance. Nice (ville emblématique puisque grande ville la mieux équipée avec une caméra pour 600 habitants), le taux de participation à l’élucidation serait de 1,2%, pour un coût en constante augmentation qui devrait dépasser les 17 millions d’euros annuels en 2018 !

Dans la seconde partie de son ouvrage, le sociologue enfonce le clou en rendant compte d’études sur l’efficacité de ces dispositifs sur des communes très différentes en taille et ampleur d’équipement. Les trois enquêtes vont dans le même sens. « La contribution de la vidéosurveillance aux enquêtes est bien trop réduite » pour avoir un impact sur la délinquance. Même les responsables de la police municipale semblent sans illusion : beaucoup d’agents conviennent finalement que les caméras ne servent pas à grand-chose. Dans la plus petite commune étudiée, les problèmes relèvent plus d’incivilités (nuisances sonores, dégradations légères de véhicules, tags, agressivité verbale, conduite automobile, problème de salubrité, encombrements sur la voie publique…) que de délinquance. Tant et si bien que la vidéosurveillance semble surtout instrumentée pour transformer les incivilités en délits. Le sentiment d’insécurité n’est pas tant lié à une délinquance qui dans les chiffres est plutôt basse, qu’à d’autres problématiques : fragilités individuelles, isolement, individualisme, intolérance à la vie sociale… La vidéosurveillance semble une politique sécuritaire qui se développe à la place d’une offre de sociabilité et de cohésion sociale, de loisirs et de vivre ensemble, d’une politique de prévention ou d’accompagnement des populations en difficulté qui seraient peut-être plus utiles pour développer un sentiment de sécurité et une meilleure sociabilité. Mais les budgets pour la prévention de la délinquance sont partis dans la vidéosurveillance et celle-ci n’a eu aucune action sur le vivre ensemble, au contraire : elle semble plutôt en aiguiser l’intolérance. L’activité fondamentale des opérateurs de vidéosurveillance relève plus de la gestion urbaine de proximité que de la lutte contre la délinquance, souligne le chercheur. Les images ne visent pas tant à visualiser une infraction ou un délit sur le fait, qu’à prouver une présence de véhicule sur les lieux, qu’à pointer une incivilité… Même constat sur la plus grande ville (Marseille, même si elle n’est pas nommée explicitement) qu’étudie le sociologue. Là encore, on compte environ une demande d’image par caméra en moyenne sur l’année. En fait, elles sont déjà surtout utilisées pour la vidéoverbalisation plus que pour lutter contre la délinquance. La taux d’élucidation grâce aux images est très faible. Et l’utilité des images aux enquêtes (une notion déclarative assez floue) est également très moyenne. Mucchielli estime le taux d’élucidation par vidéosurveillance à, « au mieux », 3,5% des réquisitions d’images !

Au final, Laurent Mucchielli pose clairement la question qui fâche : celle de l’intérêt de ces investissements au regard de leur coût financier et en comparaison avec d’autres investissements possibles pour développer la sécurité. Certes, pour la police, cette élucidation même minimale est toujours bonne à prendre. Reste qu’en terme d’efficacité, la vidéosurveillance semble surtout un exemple édifiant de gabegie. Elle n’est ni déterminante ni décisive. Elle est « utile » dans 1 à 2% du total des enquêtes en moyenne, « décisive » pour 0,5% des enquêtes pour infractions sur la voie publique ! Elle n’a pas d’impact sur le niveau global de délinquance sur la voie publique. « La vidéosurveillance n’est pas un outil majeur de lutte contre la délinquance », conclut-il dans son livre.

La vidéosurveillance : paradigme du techno-solutionnisme

En lisant le livre de Mucchielli, je me faisais la réflexion que la vidéosurveillance est certainement l’emblème du technosolutionnisme, proposant une réponse technologique à un problème de société. Et que, comme le dénoncent tous ceux qui pointent les limites des solutions purement technologiques, elle ne marche ABSOLUMENT PAS.

Mais les dénonciations de leur inefficacité n’ont servi à rien. L’opposition aux caméras de surveillance sur la voie publique est restée marginale : elle est demeurée l’oeuvre de groupuscules, certes actifs, mais sans moyens et sans relais. Le discours dominant, lui, a fait son oeuvre, s’est imposé dans toute sa simplicité. Le marketing et la technostructure proposant une solution technique à un problème social ont tout balayé. Même les collectifs plus structurés de consommateurs ou de citoyens contribuables, toujours à la chasse des dépenses publiques inconsidérées n’ont pas été très actifs sur le sujet, certainement mal à l’aise avec la question de la sécurité. La vidéosurveillance s’est développée sans faillir. Les contre-discours, même ceux construits de faits et de chiffres, qui démontraient le non-effet de la vidéosurveillance n’ont pas été entendus. La solution technique s’est imposée par-devers toute réalité, démultipliant les promesses à mesure qu’elle n’en tenait aucune. À croire que la promesse de la vidéosurveillance était une fake news avant les fake news : une dépense sacrificielle sur l’autel de l’irrationalité sécuritaire.

Le développement des caméras de surveillance sur la voie publique – que je me permets de qualifier à l’aune de ses résultats de surréaliste – montre combien la technique s’impose à nous toujours comme une solution et pointe le fait qu’il y a quelque chose que nous n’arrivons pas à prendre en compte dans la réalité technicienne. Comme me le confiait Laurent Mucchielli : « outre les enjeux industriels et politiques, il faut prendre en compte l’imaginaire des technologies dans nos sociétés modernes. Aujourd’hui, ce qui reste de croyance dans le progrès se situe tout entier dans la technologie. La technologie, c’est forcément bien en soi. » Nous demeurons enfermés dans une forme de crédulité vis-à-vis de la technologie que l’on pense par principe plus efficace que l’humain. « Mais d’où vient cette croyance que la caméra serait plus efficace que le policier sur le terrain ? », interroge le chercheur sans obtenir de réponse.

L’autre grande question qui naît à la lecture de ce livre est de comprendre pourquoi, à l’heure où la moindre dépense est sommée de démontrer son efficacité, la vidéosurveillance échappe à cette loi d’airain. Ici, souligne le sociologue, il faut rappeler que les questions de sécurité échappent souvent plus que les autres aux démarches évaluatives. La politisation des questions de sécurité en fait un enjeu sensible. Les questions de surveillance, de sécurité, leurs implications dans des enjeux de démagogie politique et régalienne, liés aux questions militaro-industrielles, expliquent pourquoi elles sont dispensées d’évaluation. Il souligne combien son essor ne se soumet pas à la raison ni aux réalités, mais se développe pour et par lui-même. Appuyée par un discours politique et marketing, simple, voire simpliste, la vidéosurveillance s’est imposée à la société, sans évaluation ni réelle concertation. À l’heure où pourtant toutes les actions publiques sont mesurées à l’aune de leur productivité, comment expliquer que la vidéosurveillance échappe à cette loi d’airain quand celle-ci s’abat jusqu’à ceux qui sont chargés de faire manger et de laver nos anciens dans les maisons de retraite ?

Vidéoverbalisation et vidéosurveillance intelligente : nouvelles promesses de productivité des caméras

Reste qu’on peut espérer que la question puisse demain se poser avec plus d’éléments d’évaluation à disposition et, en cela, le travail de Laurent Mucchielli est essentiel. Mais ce n’est pas si certain, tant les audits indépendants se révèlent rares… Tant finalement l’évitement de la question de l’évaluation des politiques de vidéosurveillance demeure tabou. Comme souvent, la nouvelle génération d’outils de vidéosurveillance se développe sur de nouvelles promesses, alors même que les promesses précédentes n’ont rien produit. Avec la vidéoverbalisation, la vidéosurveillance promet enfin la rentabilité. Avec la reconnaissance faciale et l’analyse automatique des images, elle promet une plus grande efficacité. Pourtant, il est probable que ces nouvelles promesses de productivité des caméras ne soient pas plus magiques que les précédentes.

Comme nous le confie le sociologue, « la mise à jour des promesses est un grand classique de la propagande des technologies ». Avec la vidéoverbalisation, il concède pourtant que les caméras pourraient se révéler plus efficaces qu’elles ne le sont aujourd’hui. « Les machines sont plus performantes quand elles doivent réaliser des tâches simples ». Et un opérateur peut ainsi produire du procès-verbal au kilomètre. Reste à savoir s’il est plus efficace que celui qui verbalise sur place. Surtout, cette nouvelle fonction est bien différente de la précédente et il n’est pas sûr qu’elle soit aussi bien acceptée que la vidéosurveillance. La loi de décembre 2016 a ouvert la question. Elle élargit la possibilité de vidéoverbaliser à toute infraction routière et pas seulement le stationnement. Mais ces infractions du quotidien promettent un détournement majeur des objectifs initiaux des caméras. Ce nouvel usage, même s’il est profitable aux recettes, paraîtra certainement beaucoup moins légitime aux populations et risque de faire monter la contestation. En tout cas, pour l’instant, ce nouvel enjeu ne s’affiche pas beaucoup dans le discours politique. Il faut dire que cet enjeu de répression sera beaucoup moins consensuel que la promesse de sécurité initiale.

Quant à la surveillance intelligente, expérimentée dans les aéroports depuis les années 2000, les études pointent surtout son inefficacité à prévenir le risque et le fait qu’elle renforce des pratiques de discrimination. En 2017, lors du carnaval de Notting Hill qui attire chaque année un million de personnes fin août à Londres, la police a déployé un système d’analyse des images afin d’identifier des personnes recherchées par la police. À 35 reprises, le programme a cru reconnaître une personne. Le programme s’est trompé 35 fois ! Outre les sérieux problèmes de libertés publiques que pose la surveillance intelligente, les biais de la détection automatisée et son taux d’erreur (qui, même faible, est démultiplié par le déploiement des caméras et la foule) risque surtout de générer plus de bruit que de signal, de dépense que d’efficacité.

Peut-on lutter contre la vidéosurveillance ?

Malgré ces constats, timidement énoncés depuis longtemps, la vidéosurveillance et le contrôle qu’elle instaure continuent d’être convoqués pour résoudre les tensions de la société. Dans le contexte de démagogie sécuritaire où nous sommes plongés, au final, on se sent bien dépourvu pour lutter contre cette gabegie d’argent public qui met à mal les libertés publiques sans avoir démontré son efficacité et qui n’améliore ni ne restaure le sentiment de sécurité ou le lien social. De plus en plus souvent convoquée pour lutter contre les incivilités (à l’exemple des annonces récentes de Martin Hirsch patron de l’Assistance publique-Hôpitaux de Paris (APHP)), les caméras produisent un contrôle improductif, enregistrent les tensions plus qu’elles ne les résolvent, criminalisent les incivilités plutôt que de les apaiser… Elles illustrent comment on produit de la réponse technologique à tout problème, sans que cette réponse technologique n’ait démontré son efficacité. On remplace les besoins par la mesure de leurs lacunes. La caméra est devenue la réponse rationnelle à l’irrationnel, alors qu’elle est une réponse irrationnelle au rationnel.

Comment expliquer aux gens que la vidéosurveillance ne marche pas quand on la leur a tant vendue ? Comment expliquer qu’elle n’est pas la réponse qu’ils attendaient ? Tout discours d’opposition à la vidéosurveillance semble toujours plus inaudible, même étayé de chiffres. Même en pointer les limites en terme d’utilité ou de performance semble n’être audible par personne, tant nous sommes sur des questions où le discours est disjoint des faits.

Les citoyens disposent de peu de moyens d’action face au rouleau compresseur de la vidéosurveillance. Aujourd’hui, « la seule façon d’arrêter la vidéosurveillance est la limite budgétaire », pointe Laurent Mucchielli. C’est ce qui se produit déjà en Angleterre, où, la crise financière des collectivités et les coupes drastiques de budgets ont contraint des villes à faire des choix stricts, comme arrêter des systèmes ou ne plus en assurer la maintenance. Mais la vidéosurveillance est d’autant plus difficile à arrêter que la démagogie et le marketing ont conditionné l’opinion publique et fabriqué une revendication à la sécurité, où chacun estime avoir droit à sa caméra. C’est là un engrenage infernal dans lequel les élus sont de plus en plus piégés. Comment ré-élargir le champ de réponse sécuritaire, par la proximité, par la prévention, par la lutte sur d’autres terrains que la répression quand toutes les politiques publiques semblent s’être cristallisées sur une réponse unique ? Il y a là certainement un défi capital : montrer que d’autres politiques sont possibles et peut-être plus efficaces. Rouvrir le champ des politiques de sécurité et de prévention au-delà de la seule réponse qu’apportent les caméras et le contrôle.

Comment nous défaire du « terrorisme feutré » de la technologie

Reste une dernière question, qui s’adresse à nous tous en tant que société et à chacun en tant que citoyens, ainsi bien sûr qu’à la communauté de la technologie qui est l’angle sous lequel nous interrogeons le monde à InternetActu.net. Celle que nous posions dans le titre de ce long édito : où avons-nous failli ? Comment expliquer que nous acceptions l’évaluation de toutes les politiques publiques, comme le soin aux personnes âgées, et pas dans la sécurité ? Comment expliquer que notre réponse par la seule technologie produise finalement des résultats aussi pauvres, mais autant acceptés ? Comment expliquer que la technologie nous ramène si souvent,  si pauvrement et si uniquement à des questions de surveillance et de contrôle ?

L’échec de la vidéosurveillance montre que nous devons poser un autre regard sur la technologie, que nous devons trouver des limites à notre fascination technique et à la volonté de contrôle qu’elle induit. Pourtant, nous n’y parvenons désespérément pas. Jacques Ellul, nous le disait déjà clairement dans Le Bluff technologique (1988). Il y dénonçait notamment le bluff de la productivité, mais aussi, rappelons-nous « le terrorisme feutré » de la technologie, c’est-à-dire notre fascination pour la réalisation de la technologie pour elle-même, son côté inéluctable, irrécusable, sans alternative. Il nous expliquait pourtant que la technologie ne pouvait être absoute. Qu’elle devait aussi apprendre à rendre des comptes de ses impacts sociaux, psychologiques, écologiques, politiques, économiques !

Nous voyons bien que la surveillance n’est pas une bonne réponse, mais nous ne savons pas pour autant nous en défaire et ce d’autant qu’elle est bien souvent intrinsèque au fait technologique. Au contraire, aux errements des technologies de contrôle, nous avons tendance à répondre par encore plus de technologies de contrôle. Le risque est de les rendre de moins en moins soutenables à mesure qu’elles ne se développent sous couvert d’une efficacité absente, en tout cas ni démontrée ni démontrable.

Le philosophe Michaël Foessel dans son petit livre, État de vigilance, critique de la banalité sécuritaire (2010) le disait autrement : la banalité sécuritaire résulte non seulement d’une désillusion à l’égard du libéralisme, mais d’un éloignement de la démocratie. Il soulignait que la technologie ne peut pas se cantonner à nier l’émancipation sociale, sous prétexte de contrôle et d’optimisation. La sécurité ne crée aucune confiance, au contraire, elle isole ceux qui s’en revendiquent. La sécurité ne peut pas être la seule finalité du politique et de l’économique. Elle ne peut pas non plus être la seule finalité de la technologie.

Hubert Guillaud

Signaler ce contenu comme inapproprié


Les données anonymisées n’ont-elles aucune valeur ?


L’anonymisation est encore parfois critiquée pour être une pratique qui rend les données inutiles, car supprimant de l’information importante. La Cnil a décidé de prouver le contraire avec le projet Cabanon mené courant 2017. Elle s’est notamment appuyée sur la plateforme big data TeraLab de l’IMT pour anonymiser les données de taxis new-yorkais et montrer la possibilité de créer un service de transport.

Le 10 mars 2014, une infographie publiée sur Twitter par le régulateur des taxis new-yorkais éveille la curiosité de Chris Whong. Ce n’est pas tant le taux d’occupation des véhicules à l’heure de pointe renseignée sur le graphique qui intéresse le jeune urbaniste. Son regard est plutôt attiré par la source des données, indiquée en bas, ayant permis à la New York City’s Taxi and Limousine Commission (NYC TLC) de réaliser l’illustration. Par un commentaire du tweet, il se joint à la demande d’un autre utilisateur du réseau social, Ben Wellington, afin de savoir si les données brutes sont disponibles. S’ensuit un échange qui permet à Chris Whong de récupérer le jeu de données via une procédure fastidieuse, mais accessible à toute personne suffisamment déterminée pour entrer dans les méandres de la paperasse administrative. Une fois en possession de ces données, il les met en ligne. Grâce à cela, Vijay Pandurangan, ingénieur en informatique, montrera que l’identité des chauffeurs, des clients, ainsi que leurs adresses peuvent être retrouvées à partir des informations stockées sur les courses.

Les problèmes d’anonymisation des jeux de données ouvertes ne sont pas nouveaux. Ils ne l’étaient d’ailleurs déjà pas en 2014 lorsque l’histoire des données de la NYC TLC est apparue. Pourtant ce genre de cas persiste encore aujourd’hui. L’une des raisons est que les jeux de données anonymisées sont réputés être moins utiles que leurs équivalents non filtrés. Supprimer la possibilité de remonter à l’identité revient à supprimer de l’information. Dans le cas des taxis new-yorkais, cela signifie par exemple limiter la localisation des taxis à des zones géographiques, plutôt que d’indiquer des coordonnées au mètre près. Pour les créateurs de service qui souhaitent bâtir des applications, mais également pour les responsables des données qui veulent que celles-ci soient utilisées le plus efficacement possible,  anonymiser, c’est perdre de la valeur.

Fervente défenseuse de la protection des données personnelles, la Commission nationale informatique et libertés (Cnil) a décidé de confronter cette idée reçue. Le projet Cabanon, mené par son laboratoire d’innovation numérique (le Linc) en 2017, a relevé le défi d’anonymiser le jeu de données de la NYC TLC et de les utiliser dans des scénarios concrets de création de nouveaux services. « Il y a plusieurs façons d’anonymiser des données, mais aucune n’est une solution miracle qui conviendrait à tous les usages » avertit Vincent Toubiana, en charge de l’anonymisation des jeux de données sur le projet — passé depuis de la Cnil à l’Arcep. L’équipe de Cabanon a donc réfléchi à une solution dédiée.

Dégrader spatialement et temporellement

Première étape : les coordonnées GPS ont été remplacées par le code ZCTA, équivalent américain de nos codes postaux. C’est la méthode choisie par Uber pour garantir la sécurité des données personnelles. Cette opération dégrade la donnée spatiale ; elle noie les positions de départ et d’arrivée des taxis dans des zones regroupant plusieurs pâtés de maison. Cependant, elle peut s’avérer insuffisante pour vraiment garantir l’anonymat des clients et des chauffeurs. À certaines heures de la nuit, il arrive qu’un seul taxi effectue une course d’une zone à une autre. Même si les positions GPS sont effacées, il est alors tout de même possible de lier position géographique et identité.

« En plus de la dégradation spatiale, nous avons donc introduit une dégradation temporelle » ajoute Vincent Toubiana. Les tranches horaires sont adaptées pour éviter le problème du client unique. « Dans chaque zone de départ et d’arrivée, nous regardons toutes les personnes qui prennent un taxi sur des tranches de 5, 15, 30 et 60 minutes » poursuit-il. Dans le jeu de données, le calibrage temporel est réglé de sorte qu’aucun segment horaire ne compte moins de dix personnes. Si malgré tout ce cas se présente sur le segment le plus large de 60 minutes, la donnée est tout simplement supprimée. Pour Vincent Toubiana « le but est de trouver les meilleurs compromis d’un point de vue mathématique pour garder un maximum de données en ayant les intervalles de temps les plus petits possible ».

Sur les données de 2013 utilisées par la Cnil — celles-là mêmes rendues publiques par Chris Whong — la NYC TLC comptait plus de 130 millions de trajet. La double opération de dégradation demande donc de grosses ressources de calcul. La manipulation des données pour les traiter en fonction des différentes découpes temporelles et spatiales a nécessité de faire appel à TeraLab, plateforme big data de l’IMT. « Passer par TeraLab était essentiel afin de faire des requêtes sur la base de données pour voir les intervalles de 5 minutes, ou pour tester combien de personnes nous pouvions regrouper au minimum » assure Vincent Toubiana.

À lire sur I’MTech : TeraLab, une plateforme big data d’ambition européenne

La dataviz’ au service de l’usage des données

Une fois le jeu de données anonymisé de la sorte, reste à démontrer son utilité. Pour faciliter sa lecture, une data visualisation sous forme de carte choroplèthe a été réalisée ­— comprendre : une représentation géographique associant à chaque zone une couleur en fonction du volume des courses. « L’expérience visuelle permet à la fois de mieux réaliser la différence entre les données anonymisées et celles qui ne le sont pas, et de faciliter l’analyse et la narration autour de ces données » souligne Estelle Hary, designer à la Cnil ayant réalisé la data visualisation.

À gauche : carte représentant les trajets à partir des données non anonymisées. À droite : carte choroplèthe représentant les trajets avec une granularité permettant d'assurer l'anonymat.
À gauche : carte représentant les trajets à partir des données non anonymisées. À droite : carte choroplèthe représentant les trajets avec une granularité permettant d’assurer l’anonymat.

Sur la base de cette carte, une réflexion a été enclenchée sur les services à créer avec les données anonymisées. Elle a permis d’identifier des points à Brooklyn d’où les personnes commandent des taxis pour terminer leur trajet vers chez eux. « Nous sommes partis sur l’idée d’un réseau de transport privé qui viendrait en complément des transports publics new-yorkais » raconte Estelle Hary. Moins chers que les taxis, ces transports en commun privés pourraient combler les zones délaissées par les bus. « C’est typiquement un exemple de service viable que des données anonymisées permettent de créer » poursuit-elle. Dans ce cas, l’information perdue pour protéger les données personnelles n’a pas d’impact. Le jeu de données traité est tout aussi efficace. Et ce n’est qu’un exemple d’utilisation. « En couplant un jeu de données anonymisées avec d’autres données publiques, les possibilités deviennent vraiment multiples » pointe la designer. Une façon de dire que la valeur d’un jeu de données ouvertes se joue aussi sur la capacité à être créatif.

Certes, il existera toujours des cas où la dégradation des données brutes est une limite à la création d’un service. C’est le cas notamment pour les services les plus personnalisés. Mais peut-être faut-il alors imaginer l’anonymat non pas comme une valeur binaire, mais comme un gradient. Plutôt que de voir l’anonymat comme une caractéristique présente ou absente des jeux de données, n’est-il pas plus pertinent de considérer plusieurs degrés d’anonymat accessibles en fonction de l’exposition du jeu de données et du contrôle exercé sur l’utilisation ? C’est ce que propose la Cnil en conclusion du projet Cabanon. Les données pourraient être publiquement accessibles sous une forme complètement anonymisée. En complément, le même jeu de données pourrait être accessible dans des versions de moins en moins anonymes, avec en contrepartie un niveau de contrôle sur l’usage de plus en plus important.

 

TeraLab, le big data au service des chercheurs

Teralab est une plateforme big data et intelligence artificielle servant la recherche, l’innovation et l’enseignement. Elle est pilotée par l’Institut Mines-Télécom (IMT) et le Groupe des écoles nationales d’économie et statistique (GENES). C’est au travers de l’appel à projet « Cloud computing et big data » du programme Investissements d’avenir que Teralab a vu le jour en 2014. L’objectif de la plateforme est de fédérer la demande en logiciels et en infrastructures pour des projets mettant en jeu de grands volumes de données. Elle apporte également la sécurité et la souveraineté qui permettent aux acteurs de mettre plus facilement leurs données au service des chercheurs.


Comment les applis nous transforment en zombies…

hbrfrance.fr

par Asma Mhalla

Chroniques d’experts

Digital

Le 21/02/2017

Contrairement à ce qu’on lit parfois, la technologie est tout sauf neutre. Selon les finalités et les biais avec lesquels on choisit de la nourrir, elle devient un support de médiation hautement idéologique.

Les outils numériques bouleversent profondément le rapport à soi, aux autres, au monde. A l’heure des plateformes Web géantes, du big data, du quantified self ou du transhumanisme, le numérique pose une question centrale, celle de son éthique. Appliquée au champ des écrans qui monopolisent nos quotidiens, la question éthique peut se formuler en ces termes : avons-nous instauré une relation de dépendance réellement volontaire au déferlement d’applications ou n’est-ce qu’une illusion de choix ? Aujourd’hui, de plus en plus de voix s’élèvent pour alerter contre les mécanismes de manipulation cognitive, socle de l’« app economy » (l’économie des applications mobiles, NDLR). Son objectif ? Capter notre attention. Au risque de nous transformer en « digital zombies » de cette économie nouvelle génération.

La bataille de l’attention

Depuis environ vingt ans, le numérique transforme en continu et en profondeur l’ensemble des paradigmes fordistes de production et de consommation de masse, impulsant un changement de cadre conceptuel communément nommé « économie de l’attention ». Celle-ci a été formalisée tour à tour par les chercheurs Herbert Simon et Yves Citton (lire aussi la chronique « L’attention, le nouveau graal du marketeur »).

Ainsi, les plateformes géantes californiennes se livrent désormais une bataille sans précédent pour attirer à elles cette ressource devenue très rare. Elles mettent en place des stratégies bien huilées à la tête desquelles travaillent quelques rares « designers de l’éthique ». En théorie, l’« éthique by design » consiste à intégrer le plus en amont possible de la conception (écrans, interfaces, applications) les questions éthiques et d’acceptabilité sociale. Dans les faits, elle semble s’être peu à peu muée en l’étude de nos vulnérabilités psychologiques afin de concevoir les applications les plus addictives possibles.

En la matière, l’ex-designer de Google, Tristan Harris, est l’un des lanceurs d’alerte les plus actifs. La publication au printemps 2016 d’un billet dans lequel il démonte méthodiquement les mécanismes de manipulation de nos vulnérabilités psychologiques ne cesse de faire parler de lui.

Le design de nos fragilités

Au cœur du design des applications Google de 2013 à 2016, Tristan Harris a observé de l’intérieur les abus de conception des interfaces. La limite ? Aucune, à l’exception du seul seuil de saturation physique des utilisateurs. Il dénonce cinq techniques en particulier :

1. Contrôler nos choix via des menus orientés. Les menus contrôlent le choix et par extension prédéterminent certaines options (proposées) au détriment d’autres (celles qui n’apparaissent pas). En effet, lorsqu’on nous propose une sélection d’items, nous aurons tendance à choisir parmi la liste proposée plutôt qu’à nous demander ce qui ne nous est pas proposé. Or, quels arbitrages, quels biais se cachent derrière ce « téléguidage » ? Ici se pose la question du libre choix, voire du libre arbitre.

2. Créer de la dépendance avec des techniques addictives. Inspirées des machines à sous pour maximiser la dépendance, les interfaces proposent une récompense variable. L’incertitude et l’espoir de gagner quelque chose font revenir l’utilisateur. Sur Tinder, par exemple, nous jouons en faisant défiler les profils, en passant d’un visage à un autre. Ici, la récompense est le « match ». Mais, en chemin, nous perdons petit à petit la main sur l’intensité du rythme des notifications et devenons rapidement incapables de nous défaire de ces addictions virtuelles. Les designers vont toujours plus loin, comme avec Snapstreak, dernière fonctionnalité de l’application Snapchat, qui récompense les utilisateurs les plus actifs, poussant de nombreux adolescents à trouver des subterfuges pour ne plus jamais se déconnecter (lire aussi la chronique « Pour convaincre les jeunes consommateurs, adoptez Snapchat »).

3. Profiter de notre anxiété numérique (ou FOMO, pour « Fear of Missing Out »). Sur le Web, nous avons en permanence peur de manquer quelque chose d’important. Or, si l’interface est perçue comme un canal d’informations, de messages ou d’amitiés, elle sera alors d’autant plus difficilement « désactivable ». Cette anxiété nous incite, voire nous contraint, à consulter très régulièrement nos applications, nos mails et nos notifications sans qu’à aucun moment nous nous interrogions sur ce que Tristan Harris appelle « le bon usage du temps ».

4. Activer notre besoin d’approbation sociale. « Nous sommes tous vulnérables à l’approbation sociale. Le besoin d’appartenir, d’être approuvé ou apprécié par nos pairs fait partie des motivations humaines les plus élevées », explique Tristan Harris. Le designer prend l’exemple d’un ami qui le taggue sur Facebook. A priori, il est difficile d’imaginer comment les entreprises pourraient s’emparer de ce choix. En réalité, Facebook nous suggère explicitement le tag. Plus généralement, toutes les actions que nous entreprenons (tag, like, share, follow…) nous sont soufflées par le design lui-même. Ces actions sont les pierres angulaires du système d’approbation des réseaux sociaux auquel sont particulièrement perméables certaines cibles, à commencer par les adolescents.

5. Enclencher la réciprocité sociale. Tristan Harris rappelle que « nous sommes vulnérables au besoin de réciprocité. Mais comme avec l’approbation sociale, les entreprises technologiques manipulent la fréquence à laquelle nous allons éprouver ce besoin ». Ainsi, les sms, les messages, les mails, les likes et les shares sont autant d’outils de réciprocité sociale auxquels nous sommes sensibles. Le secret ? L’asymétrie de perception. Lorsque vous recevez une invitation de quelqu’un pour entrer en contact sur Facebook ou sur Linkedin, vous imaginez que cette personne a fait le choix conscient de vous inviter, alors qu’en réalité, elle a certainement répondu inconsciemment à la liste de profils qui lui ont été suggérés par le système. « En d’autres termes, explique Tristan Harris, ces plateformes transforment vos pulsions inconscientes (« ajouter » une personne) en nouvelles obligations sociales. »

« Nos actions ont été volontairement mécanisées », pour B.J. Fogg, professeur au Stanford Persuasive Technology Lab. Nous, l’armée d’utilisateurs accros, serions donc devenus à notre insu les petites mains (au sens propre et figuré) de cette nouvelle industrie. De nos actions digitales dépend désormais la valeur économique des plateformes Web dont on peut mesurer la puissance et le pouvoir à l’aune de « la force des habitudes qu’elles ont créées chez leurs utilisateurs ». Pire, il y aurait « un conflit fondamental entre ce dont les gens ont besoin et ce dont les entreprises ont besoin ».

Suite à la victoire imprévue de Donald Trump à l’élection présidentielle américaine, en novembre 2016, les prises de parole se sont multipliées, accusant Facebook d’avoir pris le parti de ne rien censurer, y compris les dérapages outranciers du candidat. Bien que ces sujets soient plus complexes qu’ils n’y paraissent, devant être maniés avec une grande précaution intellectuelle, il n’en reste pas moins que les biais intégrés dans les algorithmes de recommandation interrogent.

En l’occurrence, la course aux clics s’est traduite par la volonté des réseaux sociaux de « pousser » aux utilisateurs les liens les plus en accord avec leurs goûts, leurs préférences et leurs croyances. Ce tri et ces arbitrages ont créé des effets pervers notables, à commencer par la propagation de « fake news » (des fausses actualités, généralement bien plus virales qu’une information de qualité) mais aussi l’enfermement des utilisateurs dans des bulles de confort où ils ne seraient confrontés qu’aux seules idées qui les rassurent, ce que le militant américain Elie Pariser appelle les « bulles de filtres ».

Le label d’une technologie éthique

La solution n’est évidemment pas de se déconnecter mais bien de changer d’approche, afin de promouvoir le design de technologies plus vertueuses, respectant davantage notre libre arbitre (dont le droit à se déconnecter sans culpabiliser).

Pour tenter de faire bouger les lignes, Tristan Harris a créé le label « Time Spent Well », qu’il compare aux labels bio, visant à rédiger une charte des normes de conception éthiques et à récompenser les bonnes pratiques dans le domaine du design éthique. Pocket, Calendly, F.lux, Duolingo, Unroll.me, Hinge ou encore Meetup sont des start-ups qu’il cite régulièrement.

Par ailleurs, de nombreuses conférences lui donnent la parole pour « éveiller les consciences ». Dans son sillage, diverses initiatives ont vu le jour, dont un mouvement organisé par le collectif Digital Detox, qui propose régulièrement des soirées de désintoxication numérique à San Francisco. Un concept qui arrive doucement en Europe.

Mais pour réussir, l’enjeu est double : le premier est de « conscientiser » les designers tech à la nécessité d’intégrer une éthique forte lors de la conception des interfaces ; le second est de sensibiliser les utilisateurs afin qu’ils privilégient les interfaces « green ».

Asma Mhalla

Maître de conférence à Sciences Po Paris où elle enseigne les enjeux émergents de l’économie informationnelle et de l’attention, elle est aussi spécialiste des stratégies de transformation digitale, accompagnant la mutation de grands groupes comme Solocal (ex-Pages Jaunes). Diplômée de l’ESCP Europe et ex-consultante en stratégie d’entreprises au sein du cabinet […]

Voir tous les billets >