Étude : tout ce que Google sait de vous


Suite au scandale Cambridge Analytica, Facebook a été largement critiqué pour sa gestion des données personnelles. Dans l’esprit du grand public, Facebook sait tout de nos vies. Il est pourtant très loin d’en savoir autant que Google qui est présent à nos côtés une grande partie de la journée. Douglas C. Schmidt, Professeur d’informatique à l’Université Vanderbilt aux USA vient de publier une étude présentant toutes les données collectées par Google, et tout ce que le géant sait de vous et de vos habitudes. La liste est longue, et compilée dans une étude complète de 55 pages. Voici les point principaux de l’étude :

datasgoogle

  • Un téléphone Android en veille, et sans mouvement, avec Chrome en tâche de fond communique la localisation du téléphone à Google 340 fois sur une période de 24 heures, soit une moyenne de 14 envois de datas par heure. La localisation représente 35% des données collectées par Google.
  • Avec un téléphone iOS, sous Safari, Google est incapable de recevoir et d’exploiter les données de localisation.
  • Un téléphone sous Android avec Chrome, envoie 50 fois plus de demande de collectes de données qu’un device iOS sous Safari.
  • Un device Android en veille communique avec Google 10 fois plus qu’un device Apple communique avec les serveurs Apple.
  • Android et Chrome sont les principales sources de datas pour Google lorsque les devices sont inactifs.
  • Google sait si vous marchez, courrez ou conduisez, même si vous n’êtes pas connecté en WIFI. Google envoie quand même des requêtes aux réseaux WIFI publics et privés afin d’analyser vos déplacement, tout en les couplant aux capteurs des devices Android.
  • Google est capable d’associer des datas anonymes avec les informations personnelles d’un utilisateur. Les identifiants publicitaires, supposés anonymisés, sont en fait associables à des identités réelles d’utilisateurs Google, grâce à l’identification sur les serveurs Google, ou via Android.
  • Les cookies utilisateurs DoubleClick (régie publicitaire Google) qui trackent le comportement des utilisateurs sur des pages et services sont supposés anonymiser les utilisateurs, mais sont en fait associés à des comptes Google.
  • La majeure partie des données collectées par Google se fait alors que l’utilisateur est inactif, et n’est pas en train d’utiliser un produit Google. C’est d’autant plus vrai sur les devices Android qui collectent de l’information 24 heures sur 24, 7 jours sur 7, à plus de 2 milliards d’utilisateurs.

La conclusion principale de cette étude est que vous êtes tracké en permanence via les différents services Google : Analytics, AdSense, Chromecast, YouTube, Google Map, Android, AMP, Google Assistant, Chrome, etc. Mais surtout, toutes ces données sont en fait associées par Google, qui sait à peu près tout sur ce que vous faites de vos journées.

Toutes les données analysées dans l’étude sont issues d’un téléphone neuf, sans historique de navigation, et les données sont collectées via My Activity et TakeOut.

L’étude complète est disponible sur ce lien.

Recevez nos meilleurs articles

Publicités

La protection des données au travail, un enjeu syndical et de négociation collective – – S.I.Lex –

scinfolex.com

Un blog publié par Calimaq calimaq

C’est une chose que l’on oublie souvent, mais les employés au travail disposent encore de leur droit à la vie privée et au contrôle de l’usage de leurs données. Cette dimension de la protection des données personnelles fait moins parler d’elle que celle des internautes face aux GAFAM, mais pourtant entre 5 et 20% des plaintes adressées à la CNIL chaque année concernent les relations entre employés et employeurs, notamment à propos du droit d’accès aux informations personnelles.

Cette semaine, j’étais invité à l’événement de lancement d’une Charte éthique et numérique RH, proposée par le syndicat CFE-CGC et le Lab RH. Ce document vise à accompagner l’entrée en vigueur du Règlement Général de Protection des Données (RGPD), en listant une série de bonnes pratiques en matière de numérique appliqué aux ressources humaines. La Charte s’attache notamment à formuler des principes à respecter lors de la mise en oeuvre de technologies comme le Big Data, les traitements algorithmiques ou même l’intelligence artificielle, qui sont de plus en plus employés dans les phases de recrutement ou la gestion des ressources humaines.

L’un des points les plus intéressants de ce texte constitue à mon sens le renvoi qu’il fait à l’article 88 du RGPD :

Incité par le Règlement Général de Protection des Données et son article 88 offrant la possibilité de porter ce sujet au sein de conventions collectives, cette charte constitue pour ses adhérents un outil méthodologique de facilitation de mise en conformité de leurs obligations.

Cet article concerne le « traitement des données dans les relations de travail » et il prévoit en particulier une articulation possible entre le RGPD et des conventions collectives qui viendraient préciser les garanties apportées au respect des droits des travailleurs :

Les États membres peuvent prévoir, par la loi ou au moyen de conventions collectives, des règles plus spécifiques pour assurer la protection des droits et libertés en ce qui concerne le traitement des données à caractère personnel des employés dans le cadre des relations de travail, aux fins, notamment, du recrutement, de l’exécution du contrat de travail, y compris le respect des obligations fixées par la loi ou par des conventions collectives, de la gestion, de la planification et de l’organisation du travail, de l’égalité et de la diversité sur le lieu de travail, de la santé et de la sécurité au travail, de la protection des biens appartenant à l’employeur ou au client, aux fins de l’exercice et de la jouissance des droits et des avantages liés à l’emploi, individuellement ou collectivement, ainsi qu’aux fins de la résiliation de la relation de travail.

Ces règles comprennent des mesures appropriées et spécifiques pour protéger la dignité humaine, les intérêts légitimes et les droits fondamentaux des personnes concernées, en accordant une attention particulière à la transparence du traitement, au transfert de données à caractère personnel au sein d’un groupe d’entreprises, ou d’un groupe d’entreprises engagées dans une activité économique conjointe et aux systèmes de contrôle sur le lieu de travail.

Cet aspect assez méconnu du RGPD me paraît important dans la mesure où il peut faire de la protection des données des travailleurs un enjeu de négociation syndicale et de démocratie sociale, envisagé d’emblée avec une dimension collective. Cela rejoint l’idée d’un droit social des données et d’une protection sociale des données, mais envisagés sous l’angle de la sphère professionnelle.

Les organisateurs de l’événement autour du lancement de la Charte m’avait demandé de faire une intervention autour de la question : « Quel rôle pour le consentement dans la protection des données des employés ? ». Je colle ci-dessous les éléments dont j’avais prévu de parler et que je n’ai pas eu le temps de détailler dans leur intégralité lors de la soirée.

Quel rôle pour le consentement dans la protection des données des employés ?

La notion de consentement est parfois considérée comme le « coeur névralgique » du RGPD, car même si le texte n’en fait pas un principe général, il constitue néanmoins le moyen principal donné à l’individu pour contrôler l’usage de ses données par des tiers. Le RGPD prévoie même un «super-consentement » qui doit être «libre, spécifique, éclairée et univoque».

Une grande partie de la capacité du RGPD à offrir aux personnes des droits effectifs de contrôle sur les données tiendra à la portée qui sera conférée par la jurisprudence à ces conditions de validité du consentement. On constate d’ailleurs que la plupart de la trentaine d’actions de groupe lancées en Europe suite à l’entrée en vigueur du RGPD se basent sur la violation de la liberté du consentement, notamment lorsque des acteurs comme les GAFAM manœuvrent pour arracher à leurs utilisateurs un consentement forcé à travers l’exercice d’un « chantage au service ».

Mais paradoxalement, si le respect du consentement est appelé à jouer un rôle central dans la protection des internautes, ce ne sera pas le cas pour les employés en situation de travail. La raison en est assez logique : l’employé est lié à l’employeur par une relation de subordination qui fait que par construction, le consentement ne peut pas être considéré comme « libre » en raison du déséquilibre des forces en présence. Le RGPD contient notamment un considérant 43 assez explicite quant à l’incompatibilité entre liberté du consentement et subordination :

Pour garantir que le consentement est donné librement, il convient que celui-ci ne constitue pas un fondement juridique valable pour le traitement de données à caractère personnel dans un cas particulier lorsqu’il existe un déséquilibre manifeste entre la personne concernée et le responsable du traitement […]

Même si cela peut paraître contre-intuitif, c’est bien pour protéger les personnes que l’on interdit à l’employeur de s’appuyer sur le consentement des subordonnés comme fondement pour traiter leurs données, car cela permet d’éviter que le consentement ne soit retourné contre l’individu pour le faire participer à l’affaiblissement de ses propres droits. En matière de ressources humaines, le consentement devra néanmoins parfois être recueilli, notamment pour traiter les données de candidats postulant sur un poste, mais c’est précisément parce que dans ce cas le lien de subordination avec l’employeur ne s’est pas encore noué.

Du coup, le traitement des données des employés devra s’appuyer sur d’autres fondements que le RGPD prévoit comme bases légales aux traitements. La première d’entre elles concerne les traitements nécessaires à l’exécution d’un contrat, ici en l’occurrence le contrat de travail (on peut songer au traitement des données bancaires du salarié, nécessaire pour lui verser sa paie). Mais il ne s’agit pas néanmoins d’un blanc-seing donné à l’employeur, en vertu notamment des principes de limitation des finalités et de minimisation des données, qui impliqueront de retenir une interprétation restrictive de « ce qui est nécessaire à l’exécution du contrat ». L’employeur pourra aussi s’appuyer sur certaines obligations légales, qui lui imposent, en matière fiscale ou sociale notamment, de traiter certaines des données des employés (numéro de sécurité sociale, par exemple).

Mais il y a fort à parier que ce soit la notion « d’intérêt légitime de l’entreprise » qui joue un rôle clé dans les relations entre les employés et les employeurs. Celle-ci a déjà fait couler beaucoup d’encre, car il s’agit d’une des « zones grises » les plus problématiques du RGPD. Le texte prévoit en effet qu’une entreprise puisse invoquer un de ses intérêts légitimes pour traiter des données sans le consentement des personnes concernées. Le réglement ne définit pas vraiment ce concept, mais il en donne quelques exemples comme la sécurisation des systèmes d’information ou le transfert des données entre les entités d’un même groupe. Mais pour l’essentiel, la signification de ce qui peut constituer « l’intérêt légitime d’une entreprise » à traiter des données reste encore à déterminer par la pratique.

Le règlement fixe néanmoins des gardes-fous en prévoyant que l’intérêt légitime est invocable, à moins que « les intérêts ou les libertés et droits fondamentaux de la personne ne prévalent compte tenu des attentes raisonnables des personnes concernées fondées sur leur relation avec le responsable de traitement« . Or cette idée d’un équilibre à trouver entre les intérêts de l’entreprise et les droits fondamentaux des personnes est intéressante, car elle reconnecte l’enjeu de la protection des données à ce qui constitue la justification traditionnelle de l’existence du droit du travail, et plus largement du droit social. Le Code du Travail contient déjà en effet un article 1121-1 qui pose un principe général l’interdiction de prendre des mesures restreignant les droits et libertés des personnes qui ne seraient pas justifiées ni proportionnées par rapport à l’objectif poursuivi.

Cette référence à l’impératif de respect des droits et libertés est cruciale et un exemple concret permettra d’en mieux saisir l’importance. On a appris récemment qu’en Chine, un certain nombre d’entreprises commençaient à déployer des techniques « d’affectice computing » sous la forme de casques dotés de capteurs cérébraux permettant de surveiller les émotions des salariés : le stress, la colère, la fatigue, etc. Les firmes qui ont recours à ces technologies disent le faire au nom de la productivité ou pour améliorer la sécurité au travail, ce qui pourrait correspondre à ce que le RGPD appelle des « intérêts légitimes ». En Chine, les employés n’ont visiblement pas pu s’opposer au déploiement de ces méthodes de contrôle terriblement intrusives et un article de Slate rapporte même ce témoignage glaçant d’un manager chinois à propos des réactions des travailleurs :

Ils pensaient que l’on voulait lire leurs pensées. Certains étaient mal à l’aise et il y a eu de la résistance au début.

En Europe, la résistance à ces procédés pourraient s’appuyer sur le RGPD et faire obstacle à l’invocation de l’intérêt légitime de l’entreprise pour atteinte disproportionnée à des libertés et droits fondamentaux. Sachant que si l’arrivée des casques détectant les émotions paraît encore assez improbable, d’autres signes inquiétants commencent à poindre, comme ce dépôt de brevet d’Amazon sur un bracelet connecté destiné à enregistrer en permanence les mouvements des mains des employés de ses entrepôts…

La notion d’intérêt légitime va plus généralement jouer un rôle important pour ce qui concerne l’introduction des technologies les plus « innovantes » dans le secteur des ressources humaines, comme le Big Data, les traitements algorithmiques ou l’intelligence artificielle. Ces méthodes relèvent de ce que le RGPD appelle le « profilage » et pour lequel il prévoit des précautions particulières : « toute forme de traitement automatisé de données […] pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail ».

Il y a peu de chances que de tels traitements puissent être considérés comme « nécessaires à l’exécution du contrat de travail« , dont on a vu qu’il faudra garder une interprétation restrictive. Cela signifie que les entreprises qui voudront déployer ces technologies vis-à-vis de leurs salariés devront le faire sur la base de leur « intérêt légitime », ce qui peut s’avérer pour elles assez inconfortable. Car elles devront veiller à ne pas porter atteinte aux libertés et droits fondamentaux des personnes, sous peine de s’exposer aux redoutables sanctions du RGPD qui, depuis les réformes récentes du Code du travail, sont largement plus intimidantes que les dommages et intérêts pouvant être obtenus aux Prud’hommes !

Et c’est là que le renvoi de la Charte éthique et numérique RH à l’article 88 du RGPD pourrait prendre tout son sens, en ouvrant la voie à ce que certaines notions du Règlement fassent l’objet d’une déclinaison sectorielle par le biais de conventions collectives. Cela signifie que la détermination de ce que sont les intérêts légitimes des entreprises en matière de traitement de données ne devrait pas relever d’une définition unilatérale par les employeurs. Cela peut au contraire devenir un enjeu de négociation collective et de démocratie sociale, ce qui serait parfaitement logique étant donné qu’il est question de protection des droits et de la dignité des personnes. Ce serait même renouer avec les grands principes fondateurs du droit du travail, comme le principe de faveur et la hiérarchie des normes, qui ont reçu des coups très rudes avec la loi El Khomri et les ordonnances Macron, mais qui pourraient retrouver tout leur sens en matière de protection des données des employés : les normes inférieures – en l’occurrence les conventions collectives – viendraient en la matière ajouter des garanties supplémentaires par rapport au socle légal que constitue le RGPD.

C’est pourquoi il paraît essentiel que la protection des données devienne un enjeu syndical, notamment pour venir compenser le déséquilibre des forces en présence en ne laissant pas les salariés isolés face aux employeurs pour défendre leur vie privée. C’est dire en somme que l’intérêt légitime de l’entreprise ne sera vraiment « légitime » que s’il est collectivement discuté selon les principes de la démocratie sociale. De ce point ce vue, cette Charte éthique et numérique RH peut constituer un élément précieux pour aider à l’émergence d’un « droit social des données » dont le RGPD peut favoriser l’avènement, à condition que les syndicats s’emparent de cet enjeu.

Ces questions dépassent même en un sens la seule sphère de la protection des données au travail et pourraient avoir une incidence plus large. Pour le comprendre, on peut citer le juriste Alain Supiot, professeur au Collège de France, notamment dans un passage de son livre Homo Juridicus, paru en 2005. Il y consacre un chapitre aux rapport entre le droit et la technique, en faisant valoir que le droit constitue une « technique d’humanisation de la technique« , qui depuis la révolution industrielle a joué un grand rôle pour préserver les humains des excès de la mécanisation du travail. Alors qu’en 2005 Facebook existait à peine, il se penche sur les enjeux de protection de la vie privée, à travers la loi Informatique et Libertés, et il souligne un paradoxe :

Aujourd’hui, la protection de la vie privée du citoyen semble beaucoup mieux assurée dans l’entreprise que dans la Cité.

Il fait notamment remarquer en ce sens qu’un travailleur est mieux protégé par la loi face à son employeur du point de vue du respect de sa vie privée que ne l’est un simple client vis-à-vis de son banquier, qui peut connaître une grande partie de son intimité à travers le détail de ses opérations bancaires. Et il conclut le passage avec cette remarque intéressante :

En matière de libertés, l’histoire du droit du travail était jusqu’à présent celle d’une pénétration dans l’entreprise des libertés garanties dans la Cité. On s’achemine peut-être vers une démarche inverse où il faudra diffuser dans la Cité des libertés garanties dans l’entreprise.

Cette réflexion garde toute sa pertinence, car on peut dire que l’employé paraît aujourd’hui parfois mieux protégé que ne l’est le simple internaute face aux grandes plateformes comme les GAFAM, alors même que, contrairement au salarié, il dispose en théorie du consentement individuel pour contrôler ses données. Les employés peuvent s’appuyer sur ce qui fait actuellement cruellement défaut aux internautes, à savoir des moyens collectifs de défense de leurs droits sur les données. Une fois mises en œuvre dans le champ des relations de travail, ces méthodes d’organisation et de négociation collectives pourraient être appropriées plus largement par la société civile pour défendre les données en général, y compris face aux grandes plateformes vis-à-vis desquelles nous sommes tous des «travailleurs de la donnée».


Vidéosurveillance : paradigme du technosolutionnisme


La lecture du livre du sociologue Laurent Mucchielli (@lmucchielli), Vous êtes filmés ! Enquête sur le bluff de la vidéosurveillance, m’a profondément déprimé. Elle m’a profondément déprimé parce qu’elle montre que ceux qui n’ont cessé de dénoncer l’inutilité de la vidéosurveillance n’ont absolument pas été entendus. Ils ont été laminés par le bulldozer d’une désinformation sans précédent… alors même que les constats initiaux sur l’inefficacité de la vidéosurveillance (voir notamment les articles de Jean-Marc Manach de 2009 et 2010 ou encore le dossier que consacrait déjà en 2010 Laurent Mucchielli sur son blog) n’ont cessé d’être confortés par les rares évaluations qui ont eu lieu. Après des années de développement, la vidéosurveillance, rapportée à son coût, ne sert toujours à rien et pourtant, elle s’est imposée partout. Elle est devenue si banale désormais, qu’on s’étonne plutôt quand une collectivité locale n’en est pas équipée. Pourtant, ces années d’équipements, ces ces centaines de millions d’euros dépensés, n’ont pas changé le constat initial, celui pointé depuis très longtemps par les chercheurs : à savoir que la vidéosurveillance sur la voie publique ne produit rien. Le retour sur investissement de cette technologie est scandaleux. Le taux « d’utilité » aux enquêtes comme le taux de « participation » à l’élucidation de voies de fait est quasiment inexistant. Elle ne parvient même pas à combattre le sentiment d’insécurité que les caméras promettaient de résoudre comme par magie.

La vidéosurveillance : un programme politico-industriel massif

Dans son livre, Mucchielli rappelle que la vidéosurveillance municipale consiste à surveiller la voie publique, la rue, pour gérer un risque protéiforme et difficilement prévisible appelé selon les moments délinquance, insécurité, terrorisme voire incivilités…

Depuis l’origine (la « télésurveillance » naît après la 2de guerre mondiale, mais prend son premier essor dans les années 70 avec l’enregistrement par cassettes analogiques et les premiers programmes de vidéosurveillance publique, notamment à Time Square à New York dès 1973), la vidéosurveillance pose la question de son efficacité en regard des questions de libertés publiques et d’autres choix politiques sécuritaires possibles, mais son efficacité même est pourtant rarement interrogée. En fait, sa raison d’être n’est pas là. Son déploiement est tout entier lié à la montée de l’idéologie sécuritaire. Ses phases de progression sont d’ailleurs liées à la fois à l’essor des politiques conservatrices et au développement de crises sécuritaires, notamment les attentats de 2001 aux États-Unis ou de 2015 en France. Les dispositifs mis en place n’auront pourtant pas réellement d’impacts ni pour prévenir, ni pour dissuader, ni pour résoudre les actes de terrorisme.

En France, le sociologue décèle trois étapes dans son déploiement. Un premier temps à la fin des années 90, à l’initiative de communes plutôt conservatrices qui s’accélère et s’élargit avec les élections municipales de 2001 qui font de la sécurité un enjeu local majeur. La seconde phase correspond à une accélération du déploiement à un niveau national liée à l’élection de Nicolas Sarkozy en 2007, qui instaure une politique de financement et d’équipement massive. Les enjeux avancés alors visent à protéger les bâtiments et lieux publics, réguler le trafic et les infractions, prévenir les atteintes à la sécurité des personnes et des biens, lutter contre le terrorisme et diminuer le sentiment d’insécurité. Une nouvelle phase, plus invisible, se déploie depuis les attentats de 2015, sous couvert d’État d’urgence et de terrorisme, dans les petites communes et les villages, où le risque est très faible et où l’efficacité encore plus problématique. Tant et si bien que les villes les plus vidéosurveillées de France aujourd’hui, c’est-à-dire celles où le ratio caméra par habitant est le plus fort, sont avant tout de petites villes et des villages. Le traumatisme des attentats a fait de la vidéosurveillance la première des technologies de sécurité.

Mucchielli estime qu’aujourd’hui il y aurait environ 1,5 million de caméras filmant des lieux publics et des voies publiques, dont environ 150 000 à l’initiative des communes (soit le triple des estimations officielles). Seulement 5 des 60 plus grandes villes françaises ne sont pas équipées. Début 2018, 88% des villes de 15 000 à 150 000 habitants sont pourvues d’équipement ou de programmes. La moyenne serait de près de 52 caméras par ville en 2016, un chiffre qui a doublé depuis 2010. 80 à 90% des communes en zones urbaines sont vidéosurveillées et l’extension se poursuit depuis 2015 en direction des petites villes et des territoires périurbains et ruraux. La vidéosurveillance s’est imposée partout !

Pourquoi la vidéosurveillance a-t-elle si bien marché ?

Les critiques à l’encontre de la vidéosurveillance ont plus interrogé le coût des dispositifs que leur efficacité ou que leurs effets discriminatoires (à l’encontre des jeunes et des « minorités visibles » notamment, ou leur développement dans des quartiers qui ne sont pas toujours les plus criminogènes…). Ses partisans par contre ont promu le caractère irréfutable de la preuve de l’image, notamment via le « vidéo-flag », le flagrant délit capturé par la vidéo qui permettrait de confondre sans erreur possible les délinquants par l’image, mais qui n’existe quasiment pas dans les faits (même si les rares exemples sont très relayés par les médias). « A contrario, ne sont jamais mentionnées les procédures dans lesquelles la présence de caméras n’a pas aidé les enquêteurs de police ni celles dans lesquelles l’existence d’images enregistrées a permis d’innocenter les personnes suspectées par les forces de l’ordre ».

 

La principale raison du succès de la vidéosurveillance n’est pas à chercher du côté de son efficacité, mais tient purement d’un couplage entre une injonction politique et des incitations financières. Depuis 2007 notamment, l’État et les collectivités locales ont développé des modalités de financement public pour aider les communes à s’équiper. 150 millions d’euros ont été investis par l’État entre 2007 et 2013 (213 millions entre 2007 et 2017 selon le ministère de l’Intérieur) auquel il faut ajouter presque autant de la part des aides provenant des collectivités ainsi que les dépenses des communes elles-mêmes. Si le financement public s’est un peu réduit à partir de 2012 (mais sans être remis en question), le coût pour les communes a été considérablement réduit par ces aides, rendant le coût de l’équipement « acceptable ». Enfin, il faut compter sur les efforts marketing et le lobbying des industriels du secteur (Thales, Safran, mais également Eiffage, Cofely, SPIE… et Anaveo, leader français des systèmes de « surveillance intelligente »…), des associations (notamment l’Association nationale des villes vidéosurveillées, née en 2004, devenue Association nationale de vidéoprotection en 2011) et des lobbies comme le Conseil des industries de la confiance et de la sécurité (CICS, né fin 2013, qui se présente comme l’interlocuteur industriel de l’État dans un domaine qui revendique 125 000 emplois et 21 milliards d’euros de CA en 2017). Le marché mondial de la vidéosurveillance a doublé de volume dans les années 90. Et cette tendance s’est amplifiée avec un taux de croissance à deux chiffres depuis les années 2000. Aux marchés initiaux, qui se développent jusque dans les pays en développement, il faut ajouter l’entretien et le renouvellement du parc (la durée de vie d’une caméra est de 5 à 8 ans) ainsi bien sûr que la surveillance humaine des écrans et des enregistrements, c’est-à-dire le coût de fonctionnement (opérateurs et lieux dédiés). Politisation, médiatisation et commercialisation expliquent largement le succès.

Un autre facteur, et non des moindres, explique encore le succès sans précédent de la vidéosurveillance : son relai jusqu’aux politiques locales ! Si on constate des clivages politiques entre droite et gauche dans son déploiement initial (la droite a adhéré plus rapidement à ces dispositifs et engagé plus lourdement les budgets), depuis, les élus de gauche se sont alignés sur le modèle. Mucchielli montre que la vidéosurveillance s’impose par contagion et sous la pression citoyenne qui voit dans les promesses de la vidéosurveillance une solution pour réduire le sentiment d’insécurité réel comme ressenti. Mucchielli pointe la crédulité des édiles qui suivent la pression politique, médiatique, marketing. Mais également la pression des assurances qui l’exigent de plus en plus souvent, de la police locale qui y voit un moyen d’accroître sa légitimité… Une pression de conformité s’exerce sur les élus qui subissent également des demandes précises de leurs administrés (commerçants, populations politisées ou âgées). La vidéosurveillance est utilisée comme une réponse pour calmer colère et inquiétude. Elle permet de mener une action concrète et visible. « Le calcul politique n’est rentable qu’à court terme, d’une part parce que la demande de caméras risque d’être sans fin, d’autre part parce qu’il ne semble pas que le sentiment d’insécurité soit réellement impacté par l’installation de la vidéosurveillance », rappelle le chercheur. Les maires ont effectivement une responsabilité de sécurité et de prévention alors que dans la réalité leur rôle en la matière est assez limité. La vidéosurveillance leur permet d’exister, de s’affirmer dans ce domaine. Beaucoup concèdent qu’ils sont cernés par les pressions qu’elles viennent d’élus, des politiques des communes avoisinantes, des demandes de certaines catégories de citoyens. Face à la pression globale de conformité, bien peu parviennent à résister. « La vidéosurveillance est un symbole visant à donner l’impression d’une action sur le thème de la sécurité ».

La vidéosurveillance ne sert à rien !

Reste que le coeur de la démonstration du sociologue repose sur l’inefficacité de la vidéosurveillance. La vidéosurveillance ne protège personne. Elle n’arrête ni les délinquants, ni les terroristes, ni les incivilités. Pire, elle n’a que peu d’effet sur la résolution des enquêtes. Le rapport coût/efficacité est si dérisoire, qu’il explique de lui-même pourquoi l’évaluation de ces équipements a été si inexistante.

Aujourd’hui, on a l’impression que les citoyens sont devenus les premiers demandeurs de vidéosurveillance. Pourtant, rappelle Laurent Mucchielli, ce n’est pas si exact. D’abord, quand on livre des informations concrètes sur les coûts et l’efficacité, on constate qu’ils en comprennent très bien les limites, à l’exemple d’une commune du Lot-et-Garonne de 7000 habitants qui fin 2011 avait réalisé un référendum consultatif sur l’utilité de la vidéosurveillance (au plus fort de son engouement) et qui l’a clairement rejeté (à 59%). De même, quand on interroge d’une manière plus ouverte la population, la vidéosurveillance n’est pas la réponse préférée de la population en matière de sécurité. Souvent, ils valorisent d’autres politiques : la lutte contre l’échec scolaire, la prévention et l’aide aux familles en difficulté ou le recrutement des policiers viennent devant l’installation de caméras.

Les rares études d’évaluation montrent pourtant que l’utilité de la vidéosurveillance est faible, pour ne pas dire dérisoire. Elles soulignent également qu’il n’y a pas de corrélation systématique entre la densité de caméras sur un espace et leurs supposés effets préventifs. Quant à la thèse du déplacement de la délinquance, là encore, les études estiment qu’elle est difficile à évaluer. Les rapports des Cours des comptes régionales sur ces questions, par exemple à Saint-Étienne en 2010, montrent combien l’efficacité est dérisoire. Pour un coût de 1,3 million d’euros annuels, le taux de faits « repérés ou élucidés » culmine à 2% sur l’année. À Lyon, à la même époque, un autre rapport montrait que pour un coût de 2,7 à 3 millions par an, c’est seulement 0,7 à 1,6% des faits délictueux sur la voie publique qui ont recours aux images de vidéosurveillance. Nice (ville emblématique puisque grande ville la mieux équipée avec une caméra pour 600 habitants), le taux de participation à l’élucidation serait de 1,2%, pour un coût en constante augmentation qui devrait dépasser les 17 millions d’euros annuels en 2018 !

Dans la seconde partie de son ouvrage, le sociologue enfonce le clou en rendant compte d’études sur l’efficacité de ces dispositifs sur des communes très différentes en taille et ampleur d’équipement. Les trois enquêtes vont dans le même sens. « La contribution de la vidéosurveillance aux enquêtes est bien trop réduite » pour avoir un impact sur la délinquance. Même les responsables de la police municipale semblent sans illusion : beaucoup d’agents conviennent finalement que les caméras ne servent pas à grand-chose. Dans la plus petite commune étudiée, les problèmes relèvent plus d’incivilités (nuisances sonores, dégradations légères de véhicules, tags, agressivité verbale, conduite automobile, problème de salubrité, encombrements sur la voie publique…) que de délinquance. Tant et si bien que la vidéosurveillance semble surtout instrumentée pour transformer les incivilités en délits. Le sentiment d’insécurité n’est pas tant lié à une délinquance qui dans les chiffres est plutôt basse, qu’à d’autres problématiques : fragilités individuelles, isolement, individualisme, intolérance à la vie sociale… La vidéosurveillance semble une politique sécuritaire qui se développe à la place d’une offre de sociabilité et de cohésion sociale, de loisirs et de vivre ensemble, d’une politique de prévention ou d’accompagnement des populations en difficulté qui seraient peut-être plus utiles pour développer un sentiment de sécurité et une meilleure sociabilité. Mais les budgets pour la prévention de la délinquance sont partis dans la vidéosurveillance et celle-ci n’a eu aucune action sur le vivre ensemble, au contraire : elle semble plutôt en aiguiser l’intolérance. L’activité fondamentale des opérateurs de vidéosurveillance relève plus de la gestion urbaine de proximité que de la lutte contre la délinquance, souligne le chercheur. Les images ne visent pas tant à visualiser une infraction ou un délit sur le fait, qu’à prouver une présence de véhicule sur les lieux, qu’à pointer une incivilité… Même constat sur la plus grande ville (Marseille, même si elle n’est pas nommée explicitement) qu’étudie le sociologue. Là encore, on compte environ une demande d’image par caméra en moyenne sur l’année. En fait, elles sont déjà surtout utilisées pour la vidéoverbalisation plus que pour lutter contre la délinquance. La taux d’élucidation grâce aux images est très faible. Et l’utilité des images aux enquêtes (une notion déclarative assez floue) est également très moyenne. Mucchielli estime le taux d’élucidation par vidéosurveillance à, « au mieux », 3,5% des réquisitions d’images !

Au final, Laurent Mucchielli pose clairement la question qui fâche : celle de l’intérêt de ces investissements au regard de leur coût financier et en comparaison avec d’autres investissements possibles pour développer la sécurité. Certes, pour la police, cette élucidation même minimale est toujours bonne à prendre. Reste qu’en terme d’efficacité, la vidéosurveillance semble surtout un exemple édifiant de gabegie. Elle n’est ni déterminante ni décisive. Elle est « utile » dans 1 à 2% du total des enquêtes en moyenne, « décisive » pour 0,5% des enquêtes pour infractions sur la voie publique ! Elle n’a pas d’impact sur le niveau global de délinquance sur la voie publique. « La vidéosurveillance n’est pas un outil majeur de lutte contre la délinquance », conclut-il dans son livre.

La vidéosurveillance : paradigme du techno-solutionnisme

En lisant le livre de Mucchielli, je me faisais la réflexion que la vidéosurveillance est certainement l’emblème du technosolutionnisme, proposant une réponse technologique à un problème de société. Et que, comme le dénoncent tous ceux qui pointent les limites des solutions purement technologiques, elle ne marche ABSOLUMENT PAS.

Mais les dénonciations de leur inefficacité n’ont servi à rien. L’opposition aux caméras de surveillance sur la voie publique est restée marginale : elle est demeurée l’oeuvre de groupuscules, certes actifs, mais sans moyens et sans relais. Le discours dominant, lui, a fait son oeuvre, s’est imposé dans toute sa simplicité. Le marketing et la technostructure proposant une solution technique à un problème social ont tout balayé. Même les collectifs plus structurés de consommateurs ou de citoyens contribuables, toujours à la chasse des dépenses publiques inconsidérées n’ont pas été très actifs sur le sujet, certainement mal à l’aise avec la question de la sécurité. La vidéosurveillance s’est développée sans faillir. Les contre-discours, même ceux construits de faits et de chiffres, qui démontraient le non-effet de la vidéosurveillance n’ont pas été entendus. La solution technique s’est imposée par-devers toute réalité, démultipliant les promesses à mesure qu’elle n’en tenait aucune. À croire que la promesse de la vidéosurveillance était une fake news avant les fake news : une dépense sacrificielle sur l’autel de l’irrationalité sécuritaire.

Le développement des caméras de surveillance sur la voie publique – que je me permets de qualifier à l’aune de ses résultats de surréaliste – montre combien la technique s’impose à nous toujours comme une solution et pointe le fait qu’il y a quelque chose que nous n’arrivons pas à prendre en compte dans la réalité technicienne. Comme me le confiait Laurent Mucchielli : « outre les enjeux industriels et politiques, il faut prendre en compte l’imaginaire des technologies dans nos sociétés modernes. Aujourd’hui, ce qui reste de croyance dans le progrès se situe tout entier dans la technologie. La technologie, c’est forcément bien en soi. » Nous demeurons enfermés dans une forme de crédulité vis-à-vis de la technologie que l’on pense par principe plus efficace que l’humain. « Mais d’où vient cette croyance que la caméra serait plus efficace que le policier sur le terrain ? », interroge le chercheur sans obtenir de réponse.

L’autre grande question qui naît à la lecture de ce livre est de comprendre pourquoi, à l’heure où la moindre dépense est sommée de démontrer son efficacité, la vidéosurveillance échappe à cette loi d’airain. Ici, souligne le sociologue, il faut rappeler que les questions de sécurité échappent souvent plus que les autres aux démarches évaluatives. La politisation des questions de sécurité en fait un enjeu sensible. Les questions de surveillance, de sécurité, leurs implications dans des enjeux de démagogie politique et régalienne, liés aux questions militaro-industrielles, expliquent pourquoi elles sont dispensées d’évaluation. Il souligne combien son essor ne se soumet pas à la raison ni aux réalités, mais se développe pour et par lui-même. Appuyée par un discours politique et marketing, simple, voire simpliste, la vidéosurveillance s’est imposée à la société, sans évaluation ni réelle concertation. À l’heure où pourtant toutes les actions publiques sont mesurées à l’aune de leur productivité, comment expliquer que la vidéosurveillance échappe à cette loi d’airain quand celle-ci s’abat jusqu’à ceux qui sont chargés de faire manger et de laver nos anciens dans les maisons de retraite ?

Vidéoverbalisation et vidéosurveillance intelligente : nouvelles promesses de productivité des caméras

Reste qu’on peut espérer que la question puisse demain se poser avec plus d’éléments d’évaluation à disposition et, en cela, le travail de Laurent Mucchielli est essentiel. Mais ce n’est pas si certain, tant les audits indépendants se révèlent rares… Tant finalement l’évitement de la question de l’évaluation des politiques de vidéosurveillance demeure tabou. Comme souvent, la nouvelle génération d’outils de vidéosurveillance se développe sur de nouvelles promesses, alors même que les promesses précédentes n’ont rien produit. Avec la vidéoverbalisation, la vidéosurveillance promet enfin la rentabilité. Avec la reconnaissance faciale et l’analyse automatique des images, elle promet une plus grande efficacité. Pourtant, il est probable que ces nouvelles promesses de productivité des caméras ne soient pas plus magiques que les précédentes.

Comme nous le confie le sociologue, « la mise à jour des promesses est un grand classique de la propagande des technologies ». Avec la vidéoverbalisation, il concède pourtant que les caméras pourraient se révéler plus efficaces qu’elles ne le sont aujourd’hui. « Les machines sont plus performantes quand elles doivent réaliser des tâches simples ». Et un opérateur peut ainsi produire du procès-verbal au kilomètre. Reste à savoir s’il est plus efficace que celui qui verbalise sur place. Surtout, cette nouvelle fonction est bien différente de la précédente et il n’est pas sûr qu’elle soit aussi bien acceptée que la vidéosurveillance. La loi de décembre 2016 a ouvert la question. Elle élargit la possibilité de vidéoverbaliser à toute infraction routière et pas seulement le stationnement. Mais ces infractions du quotidien promettent un détournement majeur des objectifs initiaux des caméras. Ce nouvel usage, même s’il est profitable aux recettes, paraîtra certainement beaucoup moins légitime aux populations et risque de faire monter la contestation. En tout cas, pour l’instant, ce nouvel enjeu ne s’affiche pas beaucoup dans le discours politique. Il faut dire que cet enjeu de répression sera beaucoup moins consensuel que la promesse de sécurité initiale.

Quant à la surveillance intelligente, expérimentée dans les aéroports depuis les années 2000, les études pointent surtout son inefficacité à prévenir le risque et le fait qu’elle renforce des pratiques de discrimination. En 2017, lors du carnaval de Notting Hill qui attire chaque année un million de personnes fin août à Londres, la police a déployé un système d’analyse des images afin d’identifier des personnes recherchées par la police. À 35 reprises, le programme a cru reconnaître une personne. Le programme s’est trompé 35 fois ! Outre les sérieux problèmes de libertés publiques que pose la surveillance intelligente, les biais de la détection automatisée et son taux d’erreur (qui, même faible, est démultiplié par le déploiement des caméras et la foule) risque surtout de générer plus de bruit que de signal, de dépense que d’efficacité.

Peut-on lutter contre la vidéosurveillance ?

Malgré ces constats, timidement énoncés depuis longtemps, la vidéosurveillance et le contrôle qu’elle instaure continuent d’être convoqués pour résoudre les tensions de la société. Dans le contexte de démagogie sécuritaire où nous sommes plongés, au final, on se sent bien dépourvu pour lutter contre cette gabegie d’argent public qui met à mal les libertés publiques sans avoir démontré son efficacité et qui n’améliore ni ne restaure le sentiment de sécurité ou le lien social. De plus en plus souvent convoquée pour lutter contre les incivilités (à l’exemple des annonces récentes de Martin Hirsch patron de l’Assistance publique-Hôpitaux de Paris (APHP)), les caméras produisent un contrôle improductif, enregistrent les tensions plus qu’elles ne les résolvent, criminalisent les incivilités plutôt que de les apaiser… Elles illustrent comment on produit de la réponse technologique à tout problème, sans que cette réponse technologique n’ait démontré son efficacité. On remplace les besoins par la mesure de leurs lacunes. La caméra est devenue la réponse rationnelle à l’irrationnel, alors qu’elle est une réponse irrationnelle au rationnel.

Comment expliquer aux gens que la vidéosurveillance ne marche pas quand on la leur a tant vendue ? Comment expliquer qu’elle n’est pas la réponse qu’ils attendaient ? Tout discours d’opposition à la vidéosurveillance semble toujours plus inaudible, même étayé de chiffres. Même en pointer les limites en terme d’utilité ou de performance semble n’être audible par personne, tant nous sommes sur des questions où le discours est disjoint des faits.

Les citoyens disposent de peu de moyens d’action face au rouleau compresseur de la vidéosurveillance. Aujourd’hui, « la seule façon d’arrêter la vidéosurveillance est la limite budgétaire », pointe Laurent Mucchielli. C’est ce qui se produit déjà en Angleterre, où, la crise financière des collectivités et les coupes drastiques de budgets ont contraint des villes à faire des choix stricts, comme arrêter des systèmes ou ne plus en assurer la maintenance. Mais la vidéosurveillance est d’autant plus difficile à arrêter que la démagogie et le marketing ont conditionné l’opinion publique et fabriqué une revendication à la sécurité, où chacun estime avoir droit à sa caméra. C’est là un engrenage infernal dans lequel les élus sont de plus en plus piégés. Comment ré-élargir le champ de réponse sécuritaire, par la proximité, par la prévention, par la lutte sur d’autres terrains que la répression quand toutes les politiques publiques semblent s’être cristallisées sur une réponse unique ? Il y a là certainement un défi capital : montrer que d’autres politiques sont possibles et peut-être plus efficaces. Rouvrir le champ des politiques de sécurité et de prévention au-delà de la seule réponse qu’apportent les caméras et le contrôle.

Comment nous défaire du « terrorisme feutré » de la technologie

Reste une dernière question, qui s’adresse à nous tous en tant que société et à chacun en tant que citoyens, ainsi bien sûr qu’à la communauté de la technologie qui est l’angle sous lequel nous interrogeons le monde à InternetActu.net. Celle que nous posions dans le titre de ce long édito : où avons-nous failli ? Comment expliquer que nous acceptions l’évaluation de toutes les politiques publiques, comme le soin aux personnes âgées, et pas dans la sécurité ? Comment expliquer que notre réponse par la seule technologie produise finalement des résultats aussi pauvres, mais autant acceptés ? Comment expliquer que la technologie nous ramène si souvent,  si pauvrement et si uniquement à des questions de surveillance et de contrôle ?

L’échec de la vidéosurveillance montre que nous devons poser un autre regard sur la technologie, que nous devons trouver des limites à notre fascination technique et à la volonté de contrôle qu’elle induit. Pourtant, nous n’y parvenons désespérément pas. Jacques Ellul, nous le disait déjà clairement dans Le Bluff technologique (1988). Il y dénonçait notamment le bluff de la productivité, mais aussi, rappelons-nous « le terrorisme feutré » de la technologie, c’est-à-dire notre fascination pour la réalisation de la technologie pour elle-même, son côté inéluctable, irrécusable, sans alternative. Il nous expliquait pourtant que la technologie ne pouvait être absoute. Qu’elle devait aussi apprendre à rendre des comptes de ses impacts sociaux, psychologiques, écologiques, politiques, économiques !

Nous voyons bien que la surveillance n’est pas une bonne réponse, mais nous ne savons pas pour autant nous en défaire et ce d’autant qu’elle est bien souvent intrinsèque au fait technologique. Au contraire, aux errements des technologies de contrôle, nous avons tendance à répondre par encore plus de technologies de contrôle. Le risque est de les rendre de moins en moins soutenables à mesure qu’elles ne se développent sous couvert d’une efficacité absente, en tout cas ni démontrée ni démontrable.

Le philosophe Michaël Foessel dans son petit livre, État de vigilance, critique de la banalité sécuritaire (2010) le disait autrement : la banalité sécuritaire résulte non seulement d’une désillusion à l’égard du libéralisme, mais d’un éloignement de la démocratie. Il soulignait que la technologie ne peut pas se cantonner à nier l’émancipation sociale, sous prétexte de contrôle et d’optimisation. La sécurité ne crée aucune confiance, au contraire, elle isole ceux qui s’en revendiquent. La sécurité ne peut pas être la seule finalité du politique et de l’économique. Elle ne peut pas non plus être la seule finalité de la technologie.

Hubert Guillaud

Signaler ce contenu comme inapproprié


Les données anonymisées n’ont-elles aucune valeur ?


L’anonymisation est encore parfois critiquée pour être une pratique qui rend les données inutiles, car supprimant de l’information importante. La Cnil a décidé de prouver le contraire avec le projet Cabanon mené courant 2017. Elle s’est notamment appuyée sur la plateforme big data TeraLab de l’IMT pour anonymiser les données de taxis new-yorkais et montrer la possibilité de créer un service de transport.

Le 10 mars 2014, une infographie publiée sur Twitter par le régulateur des taxis new-yorkais éveille la curiosité de Chris Whong. Ce n’est pas tant le taux d’occupation des véhicules à l’heure de pointe renseignée sur le graphique qui intéresse le jeune urbaniste. Son regard est plutôt attiré par la source des données, indiquée en bas, ayant permis à la New York City’s Taxi and Limousine Commission (NYC TLC) de réaliser l’illustration. Par un commentaire du tweet, il se joint à la demande d’un autre utilisateur du réseau social, Ben Wellington, afin de savoir si les données brutes sont disponibles. S’ensuit un échange qui permet à Chris Whong de récupérer le jeu de données via une procédure fastidieuse, mais accessible à toute personne suffisamment déterminée pour entrer dans les méandres de la paperasse administrative. Une fois en possession de ces données, il les met en ligne. Grâce à cela, Vijay Pandurangan, ingénieur en informatique, montrera que l’identité des chauffeurs, des clients, ainsi que leurs adresses peuvent être retrouvées à partir des informations stockées sur les courses.

Les problèmes d’anonymisation des jeux de données ouvertes ne sont pas nouveaux. Ils ne l’étaient d’ailleurs déjà pas en 2014 lorsque l’histoire des données de la NYC TLC est apparue. Pourtant ce genre de cas persiste encore aujourd’hui. L’une des raisons est que les jeux de données anonymisées sont réputés être moins utiles que leurs équivalents non filtrés. Supprimer la possibilité de remonter à l’identité revient à supprimer de l’information. Dans le cas des taxis new-yorkais, cela signifie par exemple limiter la localisation des taxis à des zones géographiques, plutôt que d’indiquer des coordonnées au mètre près. Pour les créateurs de service qui souhaitent bâtir des applications, mais également pour les responsables des données qui veulent que celles-ci soient utilisées le plus efficacement possible,  anonymiser, c’est perdre de la valeur.

Fervente défenseuse de la protection des données personnelles, la Commission nationale informatique et libertés (Cnil) a décidé de confronter cette idée reçue. Le projet Cabanon, mené par son laboratoire d’innovation numérique (le Linc) en 2017, a relevé le défi d’anonymiser le jeu de données de la NYC TLC et de les utiliser dans des scénarios concrets de création de nouveaux services. « Il y a plusieurs façons d’anonymiser des données, mais aucune n’est une solution miracle qui conviendrait à tous les usages » avertit Vincent Toubiana, en charge de l’anonymisation des jeux de données sur le projet — passé depuis de la Cnil à l’Arcep. L’équipe de Cabanon a donc réfléchi à une solution dédiée.

Dégrader spatialement et temporellement

Première étape : les coordonnées GPS ont été remplacées par le code ZCTA, équivalent américain de nos codes postaux. C’est la méthode choisie par Uber pour garantir la sécurité des données personnelles. Cette opération dégrade la donnée spatiale ; elle noie les positions de départ et d’arrivée des taxis dans des zones regroupant plusieurs pâtés de maison. Cependant, elle peut s’avérer insuffisante pour vraiment garantir l’anonymat des clients et des chauffeurs. À certaines heures de la nuit, il arrive qu’un seul taxi effectue une course d’une zone à une autre. Même si les positions GPS sont effacées, il est alors tout de même possible de lier position géographique et identité.

« En plus de la dégradation spatiale, nous avons donc introduit une dégradation temporelle » ajoute Vincent Toubiana. Les tranches horaires sont adaptées pour éviter le problème du client unique. « Dans chaque zone de départ et d’arrivée, nous regardons toutes les personnes qui prennent un taxi sur des tranches de 5, 15, 30 et 60 minutes » poursuit-il. Dans le jeu de données, le calibrage temporel est réglé de sorte qu’aucun segment horaire ne compte moins de dix personnes. Si malgré tout ce cas se présente sur le segment le plus large de 60 minutes, la donnée est tout simplement supprimée. Pour Vincent Toubiana « le but est de trouver les meilleurs compromis d’un point de vue mathématique pour garder un maximum de données en ayant les intervalles de temps les plus petits possible ».

Sur les données de 2013 utilisées par la Cnil — celles-là mêmes rendues publiques par Chris Whong — la NYC TLC comptait plus de 130 millions de trajet. La double opération de dégradation demande donc de grosses ressources de calcul. La manipulation des données pour les traiter en fonction des différentes découpes temporelles et spatiales a nécessité de faire appel à TeraLab, plateforme big data de l’IMT. « Passer par TeraLab était essentiel afin de faire des requêtes sur la base de données pour voir les intervalles de 5 minutes, ou pour tester combien de personnes nous pouvions regrouper au minimum » assure Vincent Toubiana.

À lire sur I’MTech : TeraLab, une plateforme big data d’ambition européenne

La dataviz’ au service de l’usage des données

Une fois le jeu de données anonymisé de la sorte, reste à démontrer son utilité. Pour faciliter sa lecture, une data visualisation sous forme de carte choroplèthe a été réalisée ­— comprendre : une représentation géographique associant à chaque zone une couleur en fonction du volume des courses. « L’expérience visuelle permet à la fois de mieux réaliser la différence entre les données anonymisées et celles qui ne le sont pas, et de faciliter l’analyse et la narration autour de ces données » souligne Estelle Hary, designer à la Cnil ayant réalisé la data visualisation.

À gauche : carte représentant les trajets à partir des données non anonymisées. À droite : carte choroplèthe représentant les trajets avec une granularité permettant d'assurer l'anonymat.
À gauche : carte représentant les trajets à partir des données non anonymisées. À droite : carte choroplèthe représentant les trajets avec une granularité permettant d’assurer l’anonymat.

Sur la base de cette carte, une réflexion a été enclenchée sur les services à créer avec les données anonymisées. Elle a permis d’identifier des points à Brooklyn d’où les personnes commandent des taxis pour terminer leur trajet vers chez eux. « Nous sommes partis sur l’idée d’un réseau de transport privé qui viendrait en complément des transports publics new-yorkais » raconte Estelle Hary. Moins chers que les taxis, ces transports en commun privés pourraient combler les zones délaissées par les bus. « C’est typiquement un exemple de service viable que des données anonymisées permettent de créer » poursuit-elle. Dans ce cas, l’information perdue pour protéger les données personnelles n’a pas d’impact. Le jeu de données traité est tout aussi efficace. Et ce n’est qu’un exemple d’utilisation. « En couplant un jeu de données anonymisées avec d’autres données publiques, les possibilités deviennent vraiment multiples » pointe la designer. Une façon de dire que la valeur d’un jeu de données ouvertes se joue aussi sur la capacité à être créatif.

Certes, il existera toujours des cas où la dégradation des données brutes est une limite à la création d’un service. C’est le cas notamment pour les services les plus personnalisés. Mais peut-être faut-il alors imaginer l’anonymat non pas comme une valeur binaire, mais comme un gradient. Plutôt que de voir l’anonymat comme une caractéristique présente ou absente des jeux de données, n’est-il pas plus pertinent de considérer plusieurs degrés d’anonymat accessibles en fonction de l’exposition du jeu de données et du contrôle exercé sur l’utilisation ? C’est ce que propose la Cnil en conclusion du projet Cabanon. Les données pourraient être publiquement accessibles sous une forme complètement anonymisée. En complément, le même jeu de données pourrait être accessible dans des versions de moins en moins anonymes, avec en contrepartie un niveau de contrôle sur l’usage de plus en plus important.

 

TeraLab, le big data au service des chercheurs

Teralab est une plateforme big data et intelligence artificielle servant la recherche, l’innovation et l’enseignement. Elle est pilotée par l’Institut Mines-Télécom (IMT) et le Groupe des écoles nationales d’économie et statistique (GENES). C’est au travers de l’appel à projet « Cloud computing et big data » du programme Investissements d’avenir que Teralab a vu le jour en 2014. L’objectif de la plateforme est de fédérer la demande en logiciels et en infrastructures pour des projets mettant en jeu de grands volumes de données. Elle apporte également la sécurité et la souveraineté qui permettent aux acteurs de mettre plus facilement leurs données au service des chercheurs.


Comment les applis nous transforment en zombies…

hbrfrance.fr

par Asma Mhalla

Chroniques d’experts

Digital

Le 21/02/2017

Contrairement à ce qu’on lit parfois, la technologie est tout sauf neutre. Selon les finalités et les biais avec lesquels on choisit de la nourrir, elle devient un support de médiation hautement idéologique.

Les outils numériques bouleversent profondément le rapport à soi, aux autres, au monde. A l’heure des plateformes Web géantes, du big data, du quantified self ou du transhumanisme, le numérique pose une question centrale, celle de son éthique. Appliquée au champ des écrans qui monopolisent nos quotidiens, la question éthique peut se formuler en ces termes : avons-nous instauré une relation de dépendance réellement volontaire au déferlement d’applications ou n’est-ce qu’une illusion de choix ? Aujourd’hui, de plus en plus de voix s’élèvent pour alerter contre les mécanismes de manipulation cognitive, socle de l’« app economy » (l’économie des applications mobiles, NDLR). Son objectif ? Capter notre attention. Au risque de nous transformer en « digital zombies » de cette économie nouvelle génération.

La bataille de l’attention

Depuis environ vingt ans, le numérique transforme en continu et en profondeur l’ensemble des paradigmes fordistes de production et de consommation de masse, impulsant un changement de cadre conceptuel communément nommé « économie de l’attention ». Celle-ci a été formalisée tour à tour par les chercheurs Herbert Simon et Yves Citton (lire aussi la chronique « L’attention, le nouveau graal du marketeur »).

Ainsi, les plateformes géantes californiennes se livrent désormais une bataille sans précédent pour attirer à elles cette ressource devenue très rare. Elles mettent en place des stratégies bien huilées à la tête desquelles travaillent quelques rares « designers de l’éthique ». En théorie, l’« éthique by design » consiste à intégrer le plus en amont possible de la conception (écrans, interfaces, applications) les questions éthiques et d’acceptabilité sociale. Dans les faits, elle semble s’être peu à peu muée en l’étude de nos vulnérabilités psychologiques afin de concevoir les applications les plus addictives possibles.

En la matière, l’ex-designer de Google, Tristan Harris, est l’un des lanceurs d’alerte les plus actifs. La publication au printemps 2016 d’un billet dans lequel il démonte méthodiquement les mécanismes de manipulation de nos vulnérabilités psychologiques ne cesse de faire parler de lui.

Le design de nos fragilités

Au cœur du design des applications Google de 2013 à 2016, Tristan Harris a observé de l’intérieur les abus de conception des interfaces. La limite ? Aucune, à l’exception du seul seuil de saturation physique des utilisateurs. Il dénonce cinq techniques en particulier :

1. Contrôler nos choix via des menus orientés. Les menus contrôlent le choix et par extension prédéterminent certaines options (proposées) au détriment d’autres (celles qui n’apparaissent pas). En effet, lorsqu’on nous propose une sélection d’items, nous aurons tendance à choisir parmi la liste proposée plutôt qu’à nous demander ce qui ne nous est pas proposé. Or, quels arbitrages, quels biais se cachent derrière ce « téléguidage » ? Ici se pose la question du libre choix, voire du libre arbitre.

2. Créer de la dépendance avec des techniques addictives. Inspirées des machines à sous pour maximiser la dépendance, les interfaces proposent une récompense variable. L’incertitude et l’espoir de gagner quelque chose font revenir l’utilisateur. Sur Tinder, par exemple, nous jouons en faisant défiler les profils, en passant d’un visage à un autre. Ici, la récompense est le « match ». Mais, en chemin, nous perdons petit à petit la main sur l’intensité du rythme des notifications et devenons rapidement incapables de nous défaire de ces addictions virtuelles. Les designers vont toujours plus loin, comme avec Snapstreak, dernière fonctionnalité de l’application Snapchat, qui récompense les utilisateurs les plus actifs, poussant de nombreux adolescents à trouver des subterfuges pour ne plus jamais se déconnecter (lire aussi la chronique « Pour convaincre les jeunes consommateurs, adoptez Snapchat »).

3. Profiter de notre anxiété numérique (ou FOMO, pour « Fear of Missing Out »). Sur le Web, nous avons en permanence peur de manquer quelque chose d’important. Or, si l’interface est perçue comme un canal d’informations, de messages ou d’amitiés, elle sera alors d’autant plus difficilement « désactivable ». Cette anxiété nous incite, voire nous contraint, à consulter très régulièrement nos applications, nos mails et nos notifications sans qu’à aucun moment nous nous interrogions sur ce que Tristan Harris appelle « le bon usage du temps ».

4. Activer notre besoin d’approbation sociale. « Nous sommes tous vulnérables à l’approbation sociale. Le besoin d’appartenir, d’être approuvé ou apprécié par nos pairs fait partie des motivations humaines les plus élevées », explique Tristan Harris. Le designer prend l’exemple d’un ami qui le taggue sur Facebook. A priori, il est difficile d’imaginer comment les entreprises pourraient s’emparer de ce choix. En réalité, Facebook nous suggère explicitement le tag. Plus généralement, toutes les actions que nous entreprenons (tag, like, share, follow…) nous sont soufflées par le design lui-même. Ces actions sont les pierres angulaires du système d’approbation des réseaux sociaux auquel sont particulièrement perméables certaines cibles, à commencer par les adolescents.

5. Enclencher la réciprocité sociale. Tristan Harris rappelle que « nous sommes vulnérables au besoin de réciprocité. Mais comme avec l’approbation sociale, les entreprises technologiques manipulent la fréquence à laquelle nous allons éprouver ce besoin ». Ainsi, les sms, les messages, les mails, les likes et les shares sont autant d’outils de réciprocité sociale auxquels nous sommes sensibles. Le secret ? L’asymétrie de perception. Lorsque vous recevez une invitation de quelqu’un pour entrer en contact sur Facebook ou sur Linkedin, vous imaginez que cette personne a fait le choix conscient de vous inviter, alors qu’en réalité, elle a certainement répondu inconsciemment à la liste de profils qui lui ont été suggérés par le système. « En d’autres termes, explique Tristan Harris, ces plateformes transforment vos pulsions inconscientes (« ajouter » une personne) en nouvelles obligations sociales. »

« Nos actions ont été volontairement mécanisées », pour B.J. Fogg, professeur au Stanford Persuasive Technology Lab. Nous, l’armée d’utilisateurs accros, serions donc devenus à notre insu les petites mains (au sens propre et figuré) de cette nouvelle industrie. De nos actions digitales dépend désormais la valeur économique des plateformes Web dont on peut mesurer la puissance et le pouvoir à l’aune de « la force des habitudes qu’elles ont créées chez leurs utilisateurs ». Pire, il y aurait « un conflit fondamental entre ce dont les gens ont besoin et ce dont les entreprises ont besoin ».

Suite à la victoire imprévue de Donald Trump à l’élection présidentielle américaine, en novembre 2016, les prises de parole se sont multipliées, accusant Facebook d’avoir pris le parti de ne rien censurer, y compris les dérapages outranciers du candidat. Bien que ces sujets soient plus complexes qu’ils n’y paraissent, devant être maniés avec une grande précaution intellectuelle, il n’en reste pas moins que les biais intégrés dans les algorithmes de recommandation interrogent.

En l’occurrence, la course aux clics s’est traduite par la volonté des réseaux sociaux de « pousser » aux utilisateurs les liens les plus en accord avec leurs goûts, leurs préférences et leurs croyances. Ce tri et ces arbitrages ont créé des effets pervers notables, à commencer par la propagation de « fake news » (des fausses actualités, généralement bien plus virales qu’une information de qualité) mais aussi l’enfermement des utilisateurs dans des bulles de confort où ils ne seraient confrontés qu’aux seules idées qui les rassurent, ce que le militant américain Elie Pariser appelle les « bulles de filtres ».

Le label d’une technologie éthique

La solution n’est évidemment pas de se déconnecter mais bien de changer d’approche, afin de promouvoir le design de technologies plus vertueuses, respectant davantage notre libre arbitre (dont le droit à se déconnecter sans culpabiliser).

Pour tenter de faire bouger les lignes, Tristan Harris a créé le label « Time Spent Well », qu’il compare aux labels bio, visant à rédiger une charte des normes de conception éthiques et à récompenser les bonnes pratiques dans le domaine du design éthique. Pocket, Calendly, F.lux, Duolingo, Unroll.me, Hinge ou encore Meetup sont des start-ups qu’il cite régulièrement.

Par ailleurs, de nombreuses conférences lui donnent la parole pour « éveiller les consciences ». Dans son sillage, diverses initiatives ont vu le jour, dont un mouvement organisé par le collectif Digital Detox, qui propose régulièrement des soirées de désintoxication numérique à San Francisco. Un concept qui arrive doucement en Europe.

Mais pour réussir, l’enjeu est double : le premier est de « conscientiser » les designers tech à la nécessité d’intégrer une éthique forte lors de la conception des interfaces ; le second est de sensibiliser les utilisateurs afin qu’ils privilégient les interfaces « green ».

Asma Mhalla

Maître de conférence à Sciences Po Paris où elle enseigne les enjeux émergents de l’économie informationnelle et de l’attention, elle est aussi spécialiste des stratégies de transformation digitale, accompagnant la mutation de grands groupes comme Solocal (ex-Pages Jaunes). Diplômée de l’ESCP Europe et ex-consultante en stratégie d’entreprises au sein du cabinet […]

Voir tous les billets >


Les contrôles d’identité et les fouilles de l’état d’urgence déclarés contraires à la Constitution


Les préfets avaient massivement utilisé les pouvoirs de contrôles d’identité et de fouilles permis par l’état d’urgence.

LE MONDE | • Mis à jour le | Par Julia Pascual

Contrôle d’identité lors de la braderie de Lille, le 2 septembre.
Contrôle d’identité lors de la braderie de Lille, le 2 septembre. PHILIPPE HUGUEN / AFP

C’était devenu l’outil de l’état d’urgence le plus communément employé. Il vient d’être déclaré contraire à la Constitution. Vendredi 1er décembre, le Conseil constitutionnel a censuré l’article de la loi relative à l’état d’urgence qui autorise, dans certains périmètres, les préfets à ordonner des contrôles d’identité, des fouilles de bagages et des visites de véhicules.

Cette décision intervient un mois après que la France est sortie du régime d’exception déclaré au soir des attentats du 13 novembre 2015. Le pouvoir de police administrative relatif aux contrôles d’identité et aux fouilles a été ajouté à la palette des pouvoirs de l’état d’urgence lors de sa quatrième prorogation, votée le 21 juillet 2016, peu après l’attentat de la promenade des Anglais, à Nice. Jusque-là, dans le droit commun, de telles prérogatives ne pouvaient être mises en œuvre par la police que sous le contrôle du procureur de la République ou sur la réquisition de ce dernier.

Un arrêté « quotidiennement renouvelé »

Entre juillet 2016 et novembre 2017, date à laquelle l’état d’urgence a pris fin, environ 5 000 arrêtés préfectoraux – d’une durée maximale de 24 heures – ont été pris autorisant ces contrôles. L’efficacité d’un tel outil n’a jamais été évaluée, par exemple en nombre d’objets dangereux qu’il a permis de découvrir. Son effet dissuasif est par ailleurs difficile à mesurer.

Reste qu’il a été massivement déployé sur le territoire et à des occasions très diverses comme, par exemple, la Fête de la cerise de Saint-Hilaire-Saint-Mesmin (Loiret), autour des bureaux de vote à Paris pendant l’élection présidentielle ou encore afin de lutter contre la recrudescence des vols avec effraction en Seine-et-Marne. Huit départements sont à l’origine de 90 % de ces mesures, au premier rang desquels figurent la Saône-et-Loire, le Nord, la Seine-et-Marne et le Calvados.

La Ligue des droits de l’homme (LDH), à l’origine de la question prioritaire de constitutionnalité examinée par le Conseil constitutionnel, avait contesté un de ces arrêtés, pris à Paris le 4 avril 2017 pour autoriser les contrôles dans « les transports en commun de voyageurs par voie ferrée de Paris ». Il a été « systématiquement et quotidiennement renouvelé » jusqu’au 20 juin, soulignait la LDH, « en justifiant invariablement cette décision par les mêmes circonstances générales », à savoir le « niveau élevé de la menace terroriste ».

Une violation de la liberté d’aller et venir

La LDH considère que ces contrôles d’identité, fouilles de bagages et visites de véhicules sont une violation de la liberté d’aller et venir et du droit au respect de la vie privée, dans la mesure où ils ne sont pas subordonnés à des circonstances particulières.

« Il peut être procédé à ces opérations, dans les lieux désignés par la décision du préfet, à l’encontre de toute personne, quel que soit son comportement et sans son consentement », observe à son tour le Conseil constitutionnel. Il estime qu’« en prévoyant que ces opérations peuvent être autorisées en tout lieu » sans qu’elles soient justifiées par « des circonstances particulières établissant le risque d’atteinte à l’ordre public », le législateur « n’a pas assuré une conciliation équilibrée » entre la sauvegarde de l’ordre public et la liberté d’aller et de venir et le droit au respect de la vie privée.

La censure du Conseil constitutionnel « est un nouveau coin enfoncé dans le mécanisme d’exception de l’état d’urgence », a réagi, vendredi, MPatrice Spinosi, avocat de la LDH.

Si l’état d’urgence n’est plus en vigueur, la loi du 30 octobre 2017 renforçant la sécurité intérieure et la lutte contre le terrorisme en transpose une partie des pouvoirs dans le droit commun. Face au risque terroriste, les préfets ont désormais le pouvoir d’instaurer des « périmètres de protection » autour d’un lieu ou d’un événement. L’accès à ces périmètres pourra être soumis à des palpations de sécurité ainsi qu’à la fouille des bagages et des véhicules. Si la personne ne se soumet pas aux contrôles, elle se verra refuser l’accès ou sera conduite hors du périmètre de sécurité. La LDH a contesté cette disposition par le biais d’une nouvelle question prioritaire de constitutionnalité.


Google, un faux ami ?

theconversation.com

Google est‑il l’ami de la production
et de la circulation des idées ?

Julien Falgas

L’entonnoir, Google sous la loupe des sciences de l’information et de la communication coordonné par Gabriel Gallezot et Brigitte Simonnot, préface de Hervé Le Crosnier. C & F éditions, 2009.

Tandis que le PDG de Google France annonce d’importants recrutements, le géant de l’Internet poursuit une tournée auprès de 100 villes de France sous le signe de la formation au numérique. Or, les résultats de travaux de plus en plus nombreux à se pencher sur le pouvoir exercé par les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) sur nos sociétés vont à l’encontre de la perception très positive dont témoignent bon nombre d’utilisateurs à l’égard de Google (universitaires y compris).

Accéder à la vie numérique par le petit bout de l’entonnoir

Dès 2009, Google a été ouvertement qualifié d’entonnoir. Hervé Le Crosnier explique le choix de cette métaphore en ces termes :

« La métaphore de l’entonnoir, comme toutes celles auxquelles on peut penser, ne peut représenter qu’une partie du Google-monde. Il s’agit pour Google de transvaser tout l’Internet, les milliards de pages disponibles, dans ses centres serveurs, puis de rendre indispensable l’usage du moteur de recherche à celui qui veut retrouver une information, un document, une personne, une vidéo, une musique, voire même un extrait d’une conversation par mail ou forum. Bref, d’accéder à la vie numérique par le petit bout de l’entonnoir. »

L’appétit des géants, pouvoir des algorithmes, ambitions des plateformes par Olivier Ertzscheid, préface de Antonio Casilli. C & F éditions, 2017.

C’est sur la base d’un constat similaire qu’Olivier Ertzscheid – reprenant l’idée de Dirk Lewandowski – martèle l’appel à constituer un index indépendant pour les contenus du web. Les moyens nécessaires pour constituer et maintenir à jour un index comparable à celui de Google sont si massifs que cela empêche l’émergence d’alternatives compétitives.

Or l’expérience utilisateur tout comme les résultats fournis par une recherche sur Google ne sont ni neutres ni transparents : ils découlent du modèle économique de l’entreprise et de l’idéologie de ses dirigeants. En somme, Google est un média comme les autres… Si ce n’est que ses concurrents se comptent sur les doigts de la main et qu’ensemble ils concentrent aujourd’hui l’essentiel de l’accès à l’information pour une population mondialisée de plus en plus nombreuse.

Google, un média à part entière masqué derrière un leurre numérique ?

« L’impensé numérique : Tome 1 : Des années 1980 aux réseaux sociaux », coordonné par Pascal Robert, postface de Serge Proulx. Archives contemporaines, 2016.

Ce problème de pluralisme de l’accès à l’information en ligne est amplifié par l’illusion d’une neutralité technologique. Nous faisons face à ce que Pascal Robert désigne comme un impensé : une marginalisation des questionnements autour des enjeux de société que soulève le numérique. L’impensé s’abrite derrière l’illusion du choix : si vous n’aimez pas Google, après tout, vous êtes libre de ne pas l’utiliser. Le discours vaut également pour les autres géants que sont Facebook, Microsoft, Apple ou Amazon. En dernier recours, rien ne vous empêche de vous tourner vers l’offre alternative issue du logiciel libre ; et tant pis si vous préfériez consacrer vos soirées à votre famille ou vos passions plutôt qu’à cultiver votre maîtrise de l’informatique pour tout faire fonctionner.

Si la neutralité technologique est un leurre, c’est que les algorithmes qui gouvernent les services numériques sont le fruit de décisions humaines. Ces algorithmes encodent un certain nombre de règles qui, en d’autres temps, relevaient d’une charte éditoriale. Par exemple, sur The Conversation France la charte éditoriale prévoit que seuls les détenteurs d’un doctorat (ou doctorants en préparation d’une thèse) sont habilités à publier. Eh bien la magie de l’informatique a permis d’encoder cette contrainte, de sorte que nos amis journalistes ne peuvent pas surseoir à cette règle quand bien même une occasion justifiée se présenterait.

Voilà ce qu’est un algorithme : c’est un code (informatique) plus ou moins complexe qui prédétermine ce qui pourra se produire ou non (accéder à une information, recevoir une alerte, s’inscrire à l’université, freiner pour éviter l’accident, presser sur une détente…) en fonction de la décision préalable de ses concepteurs. Il ne s’agit pas de dire si c’est bien ou mal, mais de s’interroger sur ce que nous devons en faire. En l’occurrence, on peut considérer avec Olivier Ertzcheid qu’il serait nécessaire d’imposer une transparence des algorithmes afin que les utilisateurs puissent se tourner vers tel ou tel infomédiaire en toute connaissance de cause, tout comme les lecteurs d’une publication ont besoin d’en connaître la ligne éditoriale.

Un hold-up intellectuel et économique ?

Les industries culturelles et créatives face à l’ordre de l’information et de la communication par Bernard Miège. Presses universitaires de Grenoble, 2017.

Google, un « média à part entière » masqué derrière un « leurre numérique » ? On retrouve ces mots sous la plume (ou le clavier ?) de Bernard Miège lorsqu’il constate que les industries culturelles et créatives font face à l’ordre de l’information et de la communication. Bien que ma recherche doctorale ait consisté en un travail minutieux autour de deux innocents récits numériques héritiers de la bande dessinée, il m’est nettement apparu que l’impossibilité à reproduire ces innovations narratives en dépit de leur relative réussite tenait aux caractéristiques de l’environnement numérique.

À la lecture des rapports consacrés à l’état du secteur littéraire ou de celui de la presse, il semble que tout comme les auteurs de bande dessinée, tous ceux qui produisent une œuvre intellectuelle ou artistique soient aujourd’hui en difficulté pour en vivre et même pour la faire simplement connaître. Ces modestes observations ne font que corroborer l’analyse de Bernard Miège ou celle de Nikos Smyrnaios :

Nikos Smyrnaios sur l’oligopole de l’Internet contre l’autonomie journalistique, à Metz le 30 janvier 2017.

Une menace pour la démocratie ?

Les GAFAM contre l’Internet, une économie politique du numérique par Nikos Smyrnaios. INA éditions, 2017.

Récapitulons : un oligopole de l’Internet grignote chaque jour un peu plus le pluralisme de l’information tandis que les chartes éditoriales inavouées que déclinent ses algorithmes coupent court à l’expression individuelle des auteurs, des artistes et de tous ceux qui produisent des idées. Mais Google et consorts sont de formidables réussites économiques. Or, dès 2013 un rapport sur la fiscalité de l’économie numérique pointait la place centrale de la collecte de données personnelles dans la création de valeur par les acteurs de l’économie numérique.

Le rapport avançait que les GAFA (Google, Apple, Facebook, Amazon) ne s’acquittaient que de 4 millions d’euros d’impôts en France sur les 500 millions dont ils seraient redevables « si le régime fiscal leur était pleinement appliqué ». Selon un article du Monde diplomatique consacré en 2013 à cette traque méthodique de l’internaute, « en France, sur 2,5 milliards d’euros de recettes publicitaires en ligne – liens sponsorisés inclus –, Google à lui seul capte 1,8 milliard d’euros ». Pourtant, comme le rappelle Marie Bénilde dans ce même article, les GAFA ne produisent aucun contenu et se bornent à organiser le contenu produit par d’autres.

Les moyens qui alimentaient jusqu’alors la presse et les médias sont donc confisqués par des acteurs qui non seulement ne contribuent pas à la production de contenu culturel, mais ne reversent pas non plus ce qu’ils devraient à la collectivité. Google a beau jeu de donner des gages de sa bonne volonté en ouvrant des fonds à l’innovation pour la presse (dont la rubrique Data de The Conversation France a bénéficié) ou en soutenant des initiatives humanitaires ou de santé. Aussi longtemps que les bénéfices des ogres du numérique échapperont à l’impôt et qu’ils profiteront d’une absence de régulation, l’utilisation de ces moyens échappera au débat démocratique tout en contribuant à faire advenir un projet de société pensé par et pour une minorité.