Merci nous sommes 12 000
Après six semaines d'une campagne qui a été dense et très bien relayée, nous avons recueilli plus de 12 000 mandats pour attaquer les GAFAM dans le cadre de l'entrée en application du RGPD.

Merci à vous pour votre soutien, votre confiance et pour les relais nombreux de cette action ! Merci aussi à toutes celles et ceux qui ont participé à l'écriture collective des textes des plaintes.

Nous avons officiellement déposé cinq plaintes devant la CNIL le 28 mai dernier contre Facebook, Google Search, Gmail, Youtube, iOS, Amazon et LinkedIn.
La première décision devrait être rendue un mois après le dépôt : nous saurons alors quelle sera la suite des op
érations.
Bref, on vous tient au courant !

<3
Action de groupe contre les GAFAM
Les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) nous font payer leurs services avec nos libertés.

Notre liberté de conscience, les laissant accéder aux détails de notre esprit pour nous manipuler de façon individualisée et automatisée. Notre vie privée et notre intimité, sans laquelle nous ne pouvons plus nous construire nous-mêmes.

Ce contrat est illicite : en démocratie, personne ne peut vendre ses libertés fondamentales. Ainsi, le droit interdit désormais qu'un service soit rémunéré par des données personnelles.

Pour récupérer nos libertés, le 25 mai, La Quadrature du Net a engagé avec 12 000 personnes des actions collectives contre chacun des GAFAM.
Action de groupe contre Google
Google multiplie sa présence dans nos vies : il est la nouvelle télévision via YouTube, nous accompagne partout sous Android, filtre notre accès au monde sur son moteur de recherche, analyse nos messages sur Gmail, vend des espaces publicitaires sur des millions de sites Internet et espère demain s'immiscer dans nos interactions physiques, via son Assistant notamment intégré dans Google Home.

Toutes ces activités se couplent à une surveillance de masse, destinée à affiner l'emprise qu'il a sur nous.

Cette surveillance est illégale car se basant sur un consentement qui nous a été arraché.

L'entreprise Google

Fondée il y a 20 ans par Larry Page et Sergueï Brin, créateurs du moteur de recherche Google, l'entreprise compte aujourd'hui 74 000 salariés et 90,6 milliards d'euros de chiffre d'affaire. Son modèle économique n'est pas exclusivement basé sur la publicité, bien que ses revenus publicitaires représentent 86 % de son chiffre d'affaires.

Aujourd'hui, Google est une filiale d'Alphabet, la maison-mère d'un groupe implanté partout dans le monde. Ses services se sont multipliés : gestion des e-mails avec Gmail, du calendrier avec Agenda, stockage et édition de documents avec Drive et Gsuite, mobile avec Android, publication de vidéos avec Youtube, etc.

Ce que Google sait de nous

Google soumet presque tous ses services à un corpus unique de « règles de confidentialité » qui prévoient que l'entreprise peut collecter :
  • nom, photo, adresse e-mail et numéro de téléphone renseignés par les personnes ayant un compte Google ;
  • identifiant de l'appareil ;
  • informations sur l'utilisation des services (vidéos, images consultées, quand et comment) et l'historique de navigation ;
  • les requêtes de recherches (sur Google search, Youtube, Maps, etc.) ;
  • le numéro de téléphone des personnes appelées ou contactées par SMS, l'heure, la date et la durée des appels, ainsi que la liste des contacts ajoutés ;
  • l'adresse IP depuis laquelle les services sont utilisés ;
  • la localisation des appareils, définie à partir de l'adresse IP, de signaux GPS, des points d'accès WiFi et des antennes-relais téléphoniques à proximité ;
  • d'autres informations collectées par les partenaires de Google.
Google explique utiliser toutes ces données pour mieux cibler ses utilisateurs afin de leur proposer les publicités les plus à même de les convaincre, au bon moment. Comme nous l'avons vu avec Facebook, l'analyse en masse d'informations d'apparence anodines permet d'établir des corrélations censées cerner en détail l'intimité de chaque personne.

Même si Google permet de limiter l'interconnexion de certains types de données brutes (localisation, recherches effectuées et vidéos consultées), il ne laisse aucun contrôle sur tous les autres types de données. Surtout, il ne permet pas de bloquer l'analyse faite sur les données dérivées (nos profils), qui sont pourtant les plus sensibles, et que nous sommes contraints d'abandonner à Google pour utiliser ses services. L'accès aux services Google implique l'obligation de céder ces informations personnelles. Cet abandon résultant d'un consentement non-libre, l'analyse de ces données est illicite — c'est ce que nous attaquons.

La chimère du contrôle

Il ne faut pas se tromper sur le soi-disant contrôle que Google nous laisserait sur l'interconnexion de certains types de données (localisation, recherches, vidéos). Par défaut, Google récupère et croise une quantité monstrueuse de données. Il ne suffit pas que l'entreprise nous donne la possibilité de limiter certaines mesures pour que celles-ci deviennent licites. Qui a déjà activé les options limitant la collecte de données personnelles par Google ? L'entreprise tente de s'acheter une image en laissant à l'utilisateur, par un acte volontaire, cette possibilité, en sachant pertinemment que la majorité des utilisateur ne le feront pas. Le consentement est alors dérobé.

Heureusement, le règlement général sur la protection des données (RGPD) a parfaitement anticipé cette tentative de contourner notre volonté. Il prévoit précisément que, pour être valide, notre consentement doit être explicite : « il ne saurait dès lors y avoir de consentement en cas de silence, de cases cochées par défaut ou d'inactivité » (considérant 32). Or, les mesures de surveillance sur lesquelles Google feint de nous laisser un certain contrôle sont « acceptées » par défaut au moyen de cases précochées. Puisqu'elles ne reposent pas sur un consentement explicite, ces mesures sont illicites — nous l'attaquons aussi.

Gmail

Google s'autorise à analyser le contenu des e-mails de ses utilisateurs, envoyés comme reçus. L'entreprise se permet ainsi clairement d'analyser les correspondances de ses utilisateurs. Plus sournois encore, Google lit les conversations avec les correspondants des utilisateurs de Gmail alors que ceux-ci n'ont jamais donné leur consentement et n'ont même jamais été informés de cette surveillance.

De plus, même si Google a annoncé (EN) ne plus souhaiter analyser le contenu des e-mails à des fins publicitaires, ses « règles » continuent à l'y autoriser — rendant ses déclarations bien superficielles.

Dans tous les cas, en dehors de l'analyse à des fins publicitaires, Google entend bien continuer à analyser les contenus des e-mails pour « nourrir » ses algorithmes de prédiction (et les algorithmes de Google sont, sur le long terme, probablement ce que l'entreprise a de plus précieux).

Ainsi, sur Gmail, l'entreprise présente ses algorithmes comme des assistants à la gestion des rendez-vous et des correspondances et en affiche fièrement l'ambition : remplacer les humains dans la multitude de choix qu'elle juge « secondaires » (avec qui parler, quand, pour dire quoi), pour que l'humanité reste concentrée sur ce à quoi elle devrait être dédiée - être productive.

Enfin, s'agissant de son activité traditionnelle — la publicité —, Google ne se cache pas de continuer à analyser les métadonnées des e-mails (qui parle avec qui, quand, à quelle fréquence) pour identifier plus précisément ses utilisateurs et leurs contacts. Cette analyse se retrouve également dans l'application maison de messageries instantanées, Allo : les messages sont par défaut enregistrés sur les serveurs de Google. Pire, les messages vocaux sont écoutés et transcrits par Google et l'utilisateur ne peut pas s'y opposer.

Ces métadonnées, qui sont créées « par des machines, pour des machines », sont bien plus simples à analyser automatiquement que le contenu des e-mails (écrit par des humains, et donc soumis à la subtilité du langage) tout en pouvant révéler des informations au moins aussi intimes : savoir que vous écrivez subitement à un cancerologue peut révéler plus d'informations sur votre état de santé que le détail de ce que vous lui dites, par exemple.

Ici, au cœur de l'activité de Google, plus question de laisser à l'utilisateur le moindre contrôle sur ce qui peut être ou non analysé — pour utiliser Gmail, nous devons entièrement céder notre droit fondamental à la confidentialité de nos communications (ainsi que celui de nos correspondants, malgré eux).

Google nous piste sur le Web

16 % du chiffre d'affaires de Google proviennent de ses activités d'entremetteur publicitaire, qui consiste à mettre en relation des annonceurs avec « plus de deux millions » de sites ou blogs tiers qui souhaitent se rémunérer par la publicité ciblée. Sur chacun de ces sites, c'est Google qui affiche techniquement chaque publicité, et cet affichage lui permet de déposer les cookies et autres pisteurs grâce auxquels il peut retracer la navigation de tout internaute (inscrit ou non à ses services). Ici encore, nous n'avons jamais consenti de façon valide à ce pistage.

De l'exacte même façon, Google nous piste sur les innombrables sites qui ont recours au service Google Analytics. Ce service aide les sites à analyser l'identité de leurs visiteurs, tout en laissant Google accéder aux mêmes informations.

Une simple analyse de trafic sur des sites comme lemonde.fr, lefigaro.fr, hadopi.fr ou defense.gouv.fr permet par exemple de constater qu'en accédant à ces sites, diverses requêtes sont envoyées à doubleclick.net (la régie publicitaire de Google) et/ou google-analytics.com, permettant à Google de connaître ne serait-ce que notre adresse IP, la configuration unique de notre navigateur et l'adresse URL de chaque page visitée sur chacun de ces sites.

Les responsables de ces sites sont tout autant responsables que Google de ce pistage illégal - nous nous en prendrons à eux plus tard - par lequel le géant publicitaire peut encore plus précisément nous ficher.

Enfin, Google compte bien étendre sa présence sur l'ensemble du Web en régulant lui-même la publicité : en configurant son navigateur Google Chrome (utilisé par 60 % des internautes) pour qu'il bloque partout sur le Web les publicités qui ne correspondraient pas aux critères (de format, d'ergonomie...) décidés par l'entreprise. Le message est ainsi clair : « si vous voulez faire de la publicité en ligne, utilisez les services Google, vous vous éviterez bien des soucis ! »

D'une pierre trois coups, Google passe d'une part pour un défenseur de la vie privée (puisqu'il bloque certaines publicités intrusives), incite d'autre part les internautes à désactiver les bloqueurs tiers (tel que uBlocks Origin qui neutralise efficacement nombre de traçeurs de Google) puisque que Google Chrome en intègre un par défaut, et incite enfin encore plus d'éditeurs de page Web à afficher ses publicités et donc à intégrer ses traçeurs, partout, tout le temps.

Youtube

La plus grosse plateforme vidéo d'Internet (et le second site le plus visité au monde, d'après Alexa), Youtube, appartient à Google.

Youtube ne se contente pas seulement d'héberger des vidéos : il s'agit d'un véritable média social de contenus multimédia, qui met en relation des individus et régule ces relations.

En effet, lorsqu'une vidéo est visionnée sur Youtube, dans 70 % des cas, l'utilisateur à été amené à cliquer sur cette vidéo via l'algorithme de recommandation de Youtube. Un ancien employé de Youtube, Guillaume Chaslot (voir notamment son entretien dans le numéro 5 de la revue Vraiment, paru le 18 avril 2018), expose les conséquences de cet algorithme. Le but de l'algorithme n'est pas de servir l'utilisateur mais de servir la plateforme, c'est-à-dire de faire en sorte que l'on reste le plus longtemps possible sur la plateforme, devant les publicités. L'employé raconte que lors de la mise en ligne d'une vidéo, celle-ci est d'abord montrée à un échantillon de personnes et n'est recommandée aux autres utilisateurs que si elle a retenu cet échantillon de spectateurs suffisamment longtemps devant l'écran.

Cet algorithme ne se pose pas la question du contenu - de sa nature, de son message… En pratique, cependant, l'ancien employé constate que les contenus les plus mis en avant se trouvent être les contenus agressifs, diffamants, choquants ou complotistes. Guillaume Chaslot compare : « C'est comme une bagarre dans la rue, les gens s'arrêtent pour regarder. »

Nécessairement, on comprend que, en réponse à cet algorithme, de nombreux créateurs de contenus se soient spontanément adaptés, proposant des contenus de plus en plus agressifs.

Dans le but de faire le maximum de vues, Youtube surveille donc le moindre des faits et gestes des utilisateurs afin de les mettre dans la condition la plus propice à recevoir de la publicité et afin de les laisser exposés à cette publicité le plus longtemps possible… mais ce n'est pas tout !

Youtube, désirant ne pas perdre une seconde de visionnage de ses utilisateurs, ne prend pas le risque de leur recommander des contenus trop extravagants et se complait à les laisser dans leur zone de confort. L'ancien employé déclare qu'ils ont refusé plusieurs fois de modifier l'algorithme de façon à ce que celui-ci ouvre l'utilisateur à des contenus inhabituels. Dans ces conditions, le débat public est entièrement déformé, les discussions les plus subtiles ou précises, jugées peu rentables, s'exposant à une censure par enterrement.

De plus, Youtube bénéficie du statut d'hébergeur et n'est donc pas considéré comme étant a priori responsable des propos tenus sur sa plateforme. En revanche, il est tenu de retirer un contenu « manifestement illicite » si celui-ci lui a été notifié. Compte tenu de la quantité de contenus que brasse Youtube, il a décidé d'automatiser la censure des contenus potentiellement « illicites », portant atteinte au droit de certains « auteurs », au moyen de son RobotCopyright, appelé « ContentID ». Pour être reconnu « auteur » sur la plateforme, il faut répondre à des critères fixés par Youtube. Une fois qu'un contenu est protégé par ce droit attribué par Youtube (en pratique, il s'agit en majorité de grosses chaînes de télévision), la plateforme se permet de démonétiser ou supprimer les vidéos réutilisant le contenu « protégé » à la demande de leur « auteurs ».

Un moyen de censure de plus qui démontre que Youtube ne souhaite pas permettre à chacun de s'exprimer (contrairement à son slogan « Broadcast yourself ») mais cherche simplement à administrer l'espace de débat public pour favoriser la centralisation et le contrôle de l'information. Et pour cause, cette censure et cet enfermement dans un espace de confort est le meilleur moyen d'emprisonner les utilisateurs dans son écosystème au service de la publicité.

Contrairement à ce que Google tente de nous faire croire, la surveillance et la censure ne sont pas la condition inévitable pour s'échanger des vidéos en ligne. On peut parfaitement le faire en total respect de nos droits. PeerTube est une plateforme de partage de vidéos proposant les mêmes fonctionnalités que Youtube mais fonctionne avec des rouages différents. Les vidéos ne sont pas toutes hébergées au même endroit : n'importe qui peut créer son instance et héberger chez lui des vidéos. Les différentes instances sont ensuite connectées entre elles. Chaque instance a donc ses propres règles, il n'y a pas une politique de censure unifiée comme sur Youtube, et surtout ces règles ne sont pas dictées par une logique commerciale.

Infiltration de l'open source sur Android, cheval de Troie de la surveillance

Google porte le logiciel Android, son système d'exploitation pour smartphones. En diffusant des outils réutilisables afin d'« aider » les développeurs à développer des applications mobiles pour Android, Google a réussi à faire largement adopter ses « pratiques » par de nombreux développeurs : les codes diffusés contiennent souvent des pisteurs Google et ceux-ci se retrouvent ainsi intégrés dans de nombreuses applications qui, a priori, n'ont absolument aucune raison de révéler à l'entreprise des informations sur leurs utilisateurs.

C'est ce que révèle parfaitement l'association Exodus Privacy : des traces des pisteurs Google Ads, Firebase Analytics, Google Analytics ou DoubleClick ont été retrouvées dans le code de plus de 3 000 applications analysées, dont Deezer, Spotify, Uber, Tinder, Twitter, Le Figaro, L'Equipe, Crédit Agricole, Boursorama ou Angry Birds.

Par ailleurs, Google tente régulièrement de s'acheter une image au sein du milieu du logiciel libre. Ainsi, les sources de Android sont libres de droit. Cela ne veut pas dire que son développement est ouvert : Google choisit quasiment seul les directions dans le développement du système.

En outre, en plus du système Android stricto sensu, Google impose aux constructeurs de smartphones d'embarquer sur leurs produits les mouchards que sont ses applications. En effet, le marché des applications étant ce qu'il est, les constructeurs de smartphone considèrent qu'un téléphone Android ne se vendra pas s'il n'intègre pas le Play Store (magasin d'applications) fourni par Google.

Or, pour pourvoir accéder au Play Store, un téléphone doit avoir les applications de surveillance de Google. Ces services Google étendent les possibilités du système et deviennent parfois indispensables pour faire fonctionner un certain nombre d'applications, permettant à l'entreprise de traquer les utilisateurs de smartphones : la géolocalisation continue de l'utilisateur est récupérée, permettant à Google de connaître les habitudes de déplacement des usagers ; la liste des réseaux WiFi est envoyée à Google quand bien même l'utilisateur a désactivé le WiFi de son téléphone ; le Play Store impose de synchroniser son compte Google, permettant un recoupage encore plus fin des données.

Et, bien évidemment, ces services Google ne sont pas libres. Android devient donc le prétexte open-source pour placer dans la poche de l'utilisateur toute une série d'applications Google dont le but est d'espionner. Cela n'empêche pas l'entreprise de communiquer massivement sur ses projets libres très souvent intéressés, à l'image de son dernier outil libre de tracking.

Enfin, l'intégration du Play Store conduit à attribuer automatiquement un identifiant publicitaire unique à chaque utilisateur. Cet identifiant est gratuitement mis à disposition de toutes les applications et, à la façon d'un « méga-cookie », permet aux applications de tracer le comportement des utilisateurs sur l'ensemble des services utilisés. Ici, les outils de surveillance de Google sont gracieusement offerts à des développeurs tiers afin d'attirer le plus grand nombre d'applications sur Android — où Google, au sommet de cette structure, pourra librement surveiller tout un chacun.


Voir la plainte
Apple, le plus riche des GAFAM, tire ses profits de la vente au public de ses appareils (iPhone, Mac, iPad...) équipés par ses systèmes d'exploitation.

Son modèle commercial repose sur l'enfermement de ses utilisateurs sur sa plateforme : les dissuader de rejoindre d'autres systèmes et les pousser à consommer toujours plus d'Apple.

Dans cette stratégie, Apple fournit gratuitement aux applications venant sur sa plateforme un méga-cookie permettant de tracer chaque utilisateur. Mais il le fait sans notre consentement explicite, ce qui est illégal.

L'entreprise Apple

Apple, c'est 200 milliards d'euros de chiffre d'affaires annuel et tout autant de réserve en trésorerie (pour comparer, le budget annuel de l'État français est d'environ 300 milliards). En bourse, l'ensemble des actions de l'entreprise vaudrait maintenant 1 000 milliards de dollars, ce qui en fait la première capitalisation boursière du monde.

Fondée en 1976, notamment par Steeve Jobs et bien avant l'avènement d'Internet, l'entreprise se centre sur la vente de ses propres ordinateurs, équipés de systèmes d'exploitation qu'elle développe elle-même.

En 1984, Apple annonce le lancement de son Macintosh au moyen d'une publicité vidéo réalisée par Ridley Scott, naïvement intitulée « 1984 » et posant l'entreprise en rempart contre une future société de surveillance (la vidéo originale est disponible sur YouTube, mais nous lui préférons le détournement qu'en ont fait nos amis de la Startuffe Nation !). Tout comme le slogan interne de Google, « Don't be evil », la posture prise en 1984 par Apple n'est finalement qu'une sinistre anti-prophétie : l'entreprise jouera bien un rôle décisif dans la transformation des outils numériques en moyens d'enfermement et de contrôle.

Par la suite, Apple ne cessera d'ailleurs pas de briller par ses stratégies de communication aussi confuses qu'insidieuses : sa fameuse injonction « Think different » ne nous disant surtout pas « de quoi » il s'agirait penser différemment, elle nous demande surtout, en vérité, de penser différemment « de nous-même » (de notre singularité) pour « penser Apple » et nous fondre dans un « cool » finalement très commun.

En 2007, il y a à peine plus de 10 ans, sort l'iPhone. Ses ventes ont placé l'entreprise dans sa situation économique actuelle, représentant désormais 70% de son chiffre d'affaire (les 30% restants étant à peu près équitablement répartis entre les ventes d'iPad, de Mac et de services). Aujourd'hui, environ un smartphone sur cinq vendu dans le monde l'est par Apple.

Le modèle Apple

Le modèle économique d'Apple, centré sur la vente au public de ses seules machines, repose sur l'enfermement de ses clients : s'assurer que ceux-ci n'achèteront que du matériel Apple. Pour cela, l'entreprise entend garder tout contrôle sur l'utilisation que ses clients peuvent faire des produits qu'ils ont achetés.

Les systèmes d'exploitation livrés avec les machines Apple - iOS et Mac OS - sont ainsi de pures boites noires : leur code source est gardé secret, empêchant qu'on puisse prendre connaissance de leur fonctionnement pour l'adapter à nos besoins, en dehors du contrôle d'Apple.

Son App Store est aussi une parfaite illustration de cette prison dorée : Apple limite les logiciels téléchargeables selon ses propres critères, s'assurant que ses utilisateurs n'aient accès qu'à des services tiers « de qualité » - conformes à son modèle économique et à sa stratégie d'enfermement (Apple prenant au passage 30% du prix de vente des applications payantes, il a d'ailleurs tout intérêt à favoriser celles-ci).

Enfin, une fois que ses utilisateurs ont payé pour utiliser divers logiciels non-libres via l'App Store, il devient bien difficile pour eux, économiquement, de se tourner vers d'autres systèmes qu'Apple, où l'accès à certains de ces logiciels ne serait plus possible - et où l'argent dépensé pour les acheter serait perdu.

L'emprisonnement est parfait.

Un enfermement (aussi) matériel

Hélas, le modèle d'enfermement d'Apple ne se limite pas aux logiciels : la connectique des iPhones n'est pas compatible avec le standard Micro-USB utilisé par tous les autres constructeurs, obligeant ainsi à acheter des câbles spécifiques. De même, les derniers iPhones n'ont pas de prise jack pour le casque audio, obligeant à acheter un adaptateur supplémentaire si on ne souhaite pas utiliser les écouteurs Bluetooth d'Apple.

La dernière caricature en date de ce modèle est la nouvelle enceinte d'Apple, HomePod, qui requiert un iPhone pour s'installer et ne peut jouer que de la musique principalement fournie par les services d'Apple (iTunes, Apple Music...).

Enfin, une fois qu'Apple peut entièrement contrôler l'utilisation de ses appareils, la route lui est grande ouverte pour en programmer l'obsolescence et pousser à l'achat d'appareils plus récents. Ainsi, l'hiver dernier, accusée par des observateurs extérieurs, l'entreprise a été contrainte de reconnaître que des mises à jour avaient volontairement ralenti les anciens modèles de ses téléphones.

Apple a expliqué que ce changement visait à protéger les téléphones les plus anciens dont la batterie était usée. Mais sa réponse, qu'elle soit sincère ou non, ne fait que souligner le véritable problème : ses iPhone sont conçus pour ne pas permettre une réparation ou un changement de batterie simple. Ralentir les vieux modèles n'était « utile » que dans la mesure où ceux-ci n'étaient pas conçus pour durer.

Vie privée : un faux ami

Apple vendant surtout du matériel, la surveillance de masse n'est a priori pas aussi utile pour lui que pour les autres GAFAM. L'entreprise en profite donc pour se présenter comme un défenseur de la vie privée.

Par exemple sur son navigateur Web, Safari, les cookies tiers, qui sont utilisés pour retracer l'activité d'une personne sur différents sites Internet, sont bloqués par défaut. L'entreprise présente cela comme une mesure de protection de la vie privée, et c'est vrai, mais c'est aussi pour elle une façon de ramener le marché de la publicité vers le secteur des applications mobiles, où non seulement le traçage n'est pas bloqué mais, au contraire, directement offert par Apple.

C'est ce que nous attaquons.

Une définition « hors-loi » des données personnelles

Dans son « engagement de confidentialité », qu'on est obligé d'accepter pour utiliser ses services, Apple s'autorise à utiliser nos données personnelles dans certains cas limités, se donnant l'image d'un entreprise respectueuse de ses utilisateurs.

Pourtant, aussitôt, Apple s'autorise à « collecter, utiliser, transférer et divulguer des données non-personnelles à quelque fin que ce soit », incluant parmi ces données :
  • « le métier, la langue, le code postal, l’indicatif régional, l’identifiant unique de l’appareil, l’URL de référence » ;
  • « la localisation et le fuseau horaire dans lesquels un produit Apple est utilisé » ;
  • l'utilisation des services Apple, « y compris les recherches que vous effectuez », ces informations n'étant pas associées à l'adresse IP de l'utilisateur, « sauf dans de très rares cas pour assurer la qualité de nos services en ligne ».
Cette liste révèle que la définition des « données personnelles » retenue par Apple est bien différente de celle retenue par le droit européen. En droit européen, une information est une donnée personnelle du moment qu'elle peut être associée à une personne unique, peu importe que l'identité de cette personne soit connue ou non. Or, l'identifiant unique de l'appareil, l'adresse IP ou, dans bien des cas aussi, les recherches effectuées ou la localisation, sont bien associables à une personne unique par elles-mêmes.

Ainsi, l'entreprise a beau jeu de préciser que « si nous associons des données non-personnelles à des données personnelles, les données ainsi combinées seront traitées comme des données à caractère personnel ». En effet, les données qu'elle dit « non-personnelles » et qu'elle associe ensembles constituent déja des données personnelles, que le droit européen interdit d'utiliser « à quelque fin que ce soit ». C'est bien pourtant ce qu'Apple nous demande d'accepter pour utiliser ses services (et sans qu'on sache dans quelle mesure il utilise ou utilisera un jour ce blanc-seing).

Le méga-cookie Apple

En dehors de l'immense incertitude quant aux pouvoirs qu'Apple s'arroge via sa définition erronée des « données non-personnelles », un danger est déjà parfaitement actuel : l'identifiant publicitaire unique qu'Apple fournit à chaque application.

Comme nous l'avions déjà vu pour Google (le fonctionnement est identique), Apple associe à chaque appareil un identifiant unique à fins publicitaires. Cet identifiant est librement accessible par chaque application installée (l'utilisateur n'est pas invité à en autoriser l'accès au cas par cas - l'accès est automatiquement donné).

Cet identifiant, encore plus efficace qu'un simple « cookie », permet d'individualiser chaque utilisateur et, ainsi, de retracer parfaitement ses activités sur l'ensemble de ses applications. Apple fournit donc à des entreprises tierces un outil décisif pour établir le profil de chaque utilisateur - pour sonder notre esprit afin de mieux nous manipuler, de nous soumettre la bonne publicité au bon moment (exactement de la même façon que nous le décrivions au sujet de Facebook).

On comprend facilement l'intérêt qu'en tire Apple : attirer sur ses plateformes le plus grand nombre d'applications, afin que celles-ci attirent le plus grand nombre d'utilisateurs, qui se retrouveront enfermés dans le système Apple.

Tel que déjà évoqué, les entreprises tierces sont d'autant plus incitées à venir sur l'App Store depuis que Apple les empêche de recourir aux juteux « cookies tiers » sur le Web - que Safari bloque par défaut. En effet, à quoi bon se battre contre Apple pour surveiller la population sur des sites internets alors que cette même entreprise offre gratuitement les moyens de le faire sur des applications ? La protection offerte par Safari apparaît dès lors sous des traits biens cyniques.

Un identifiant illégal

Contrairement au méga-cookie offert par Google sur Android, celui d'Apple est désactivable : l'utilisateur peut lui donner comme valeur « 0 ». Ce faisant, Apple prétend « laisser le choix » de se soumettre ou non à la surveillance massive qu'il permet.

Or, ce choix est largement illusoire : au moment de l'acquisition et de l'installation d'un appareil, le méga-cookie d'Apple est activé par défaut, et l'utilisateur n'est pas invité à faire le moindre choix à son sujet. Ce n'est qu'ultérieurement, s'il a connaissance de l'option appropriée et en comprend le fonctionnement et l'intérêt, que l'utilisateur peut vraiment faire ce choix. Et Apple sait pertinemment que la plupart de ses clients n'auront pas cette connaissance ou cette compréhension, et qu'aucun choix ne leur aura donc été véritablement donné.

C'est pourtant bien ce qu'exige la loi. La directive « ePrivacy » exige le consentement de l'utilisateur pour accéder aux informations contenues sur sa machine, tel que ce méga-cookie. Le règlement général sur la protection des données (RGPD) exige que ce consentement soit donné de façon explicite, par un acte positif dont le seul but est d'accepter l'accès aux données. Or, Apple ne demande jamais ce consentement, le considérant comme étant donné par défaut.

Pour respecter la loi, il devrait, au moment de l'installation de la machine, exiger que l'utilisateur choisisse s'il veut ou non que lui soit associé un identifiant publicitaire unique. Si l'utilisateur refuse, il doit pouvoir terminer l'installation et utiliser librement l'appareil. C'est ce que nous exigerons collectivement devant la CNIL.

D'ailleurs, la solution que nous exigeons est bien celle qui avait été retenue par Microsoft, l'été dernier, pour mettre Windows 10 en conformité avec la loi lorsque la CNIL lui faisait des reproches semblables à ceux que nous formulons aujourd'hui. Si Apple souhaite véritablement respecter les droits de ses utilisateurs, tel qu'il le prétend aujourd'hui hypocritement, la voie lui est donc clairement ouverte.

S'il ne prend pas cette voie, il sera le GAFAM dont la sanction, d'un montant maximum de 8 milliards d'euros, sera, pour l'Europe, la plus rentable. De quoi commencer à rééquilibrer les conséquences de son évasion fiscale, qui lui a déjà valu en 2016 une amende de 13 milliards d'euros, encore en attente de paiement (pour approfondir cet aspect, plus éloigné de notre action centrée sur les données personnelles, voir les actions conduites par ATTAC).


Voir la plainte
Action de groupe contre Facebook
Alors que la nouvelle loi européenne entre très prochainement en application, Facebook campe sur ses positions et défend son modèle économique, annonçant que ses services resteraient inaccessibles aux utilisateurs refusant d'être ciblés.

C'est ce contrat illégal, cet échange de « service contre libertés », dont Facebook est l'illustration la plus flagrante, qui est au cœur de nos actions de groupe.

Au delà de l'illégalité de son modèle, revenons sur les conséquences concrètes de son activité sur nos libertés.

L'entreprise Facebook

Facebook a été créé il y a 14 ans, notamment par Mark Zuckerberg, son actuel directeur général, et emploie 25 000 salariés. Son chiffre d'affaire de 30 milliards d'euros repose à 98 % sur l'affichage publicitaire, proposé à 2,2 milliards d'utilisateurs actifs. Le site Facebook serait le 3ème site Internet le plus visité (classement Alexa), mais l'entreprise détient également WhatsApp et Messenger (services de messageries), ainsi qu'Instagram (réseau de partage de photos et de vidéos, 17ème site Internet le plus visité).

L'entreprise explique sans pudeur son fonctionnement : des personnes qui souhaitent diffuser un message (une publicité, un article, un événement, etc.) désignent à Facebook un public cible, selon certains critères sociaux, économiques ou de comportement, et paient l'entreprise pour qu'elle diffuse ce message à ce public, dans les meilleures conditions.

Ce fonctionnement implique deux choses : connaître chaque utilisateur, puis afficher les messages devant être diffusés, au bon moment et sous le bon format, pour influencer au mieux les personnes ciblées.

Détaillons la façon dont Facebook s'y prend.

Ce que Facebook analyse

Facebook explique dans sa Politique d'utilisation des données qu'il analyse les informations suivantes :
  • les contenus publics (texte, image, vidéo) que l'on diffuse sur la plateforme (c'est le plus évident, mais loin d'être le plus utile à analyser pour l'entreprise) ;
  • les messages privés envoyés sur Messenger (qui dit quoi, à qui, quand, à quelle fréquence) ;
  • la liste des personnes, pages et groupes que l'on suit ou « aime », ainsi que la manière dont on interagit avec ;
  • la façon dont on utilise le service et accède aux contenus (les articles, photos et vidéos qu'on lit, commente ou « aime », à quel moment, à quelle fréquence et pendant combien de temps) ;
  • des informations sur l'appareil depuis lequel on accède au service (adresse IP, identifiant publicitaire de l'appareil, nom des applications, fichiers et plugins présents sur l'appareil, mouvements de la souris, points d’accès Wi-Fi et tours de télécommunication à proximité, accès à la localisation GPS et à l'appareil photo).
L'entreprise explique, toujours sans pudeur, analyser ces données pour nous proposer les contenus payés de la façon la plus « adaptée » (comprendre : de la façon la plus subtile, pour passer notre attention).

Comme on le voit, la majorité des données analysées par Facebook ne sont pas celles que l'on publie spontanément, mais celles qui ressortent de nos activités.

De l'analyse de toutes ces données résulte un nouveau jeu d'informations, qui sont les plus importantes pour Facebook et au sujet desquelles l'entreprise ne nous laisse aucun contrôle : l'ensemble des caractéristiques sociales, économiques et comportementales que le réseau associe à chaque utilisateur afin de mieux le cibler.

Ce que Facebook sait de nous

En 2013, l'université de Cambridge a conduit l'étude suivante : 58 000 personnes ont répondu à un test de personnalité, puis ce test a été recoupé à tous leurs « j'aime » laissés sur Facebook. En repartant de leurs seuls « j'aime », l'université a ensuite pu estimer leur couleur de peau (avec 95 % de certitude), leurs orientations politique (85 %) et sexuelle (80 %), leur confession religieuse (82 %), s'ils fumaient (73 %), buvaient (70 %) ou consommaient de la drogue (65 %).

Cette démonstration a permis de mettre en lumière le fonctionnement profond de l'analyse de masse : quand beaucoup d'informations peuvent être recoupées s'agissant d'un très grand nombre de personnes (plus de 2 milliards pour Facebook, rappelons-le), de très nombreuses corrélations apparaissent, donnant l'espoir, fondé ou non, de révéler automatiquement (sans analyse humaine) le détail de la personnalité de chaque individu.

Aujourd'hui, Michal Kosinski, le chercheur ayant dirigé cette étude, continue de dénoncer les dangers de l'analyse de masse automatisée : il explique (EN) que, par une telle analyse de masse, de simples photos pourraient révéler l'orientation sexuelle d'une personne, ses opinions politiques, son QI ou ses prédispositions criminelles. Qu'importe la pertinence des corrélations résultant de telles analyses de masse, c'est bien cette méthode qui a été à la source du fonctionnement de Cambridge Analytica, dont les conséquences politiques sont, elles, bien certaines.

Une application aussi révélatrice qu'inquiétante de telles méthodes est l'ambition (EN) affichée par Facebook de détecter automatiquement les personnes présentant des tendances suicidaires. En dehors de cette initiative discutable (car aucun rôle d'aide sociale ne lui a été confié - il est avant tout un vendeur de publicité), Facebook révèle ici l'ampleur et le détail des informations nous concernant qu'il espère déduire des analyses de masse qu'il conduit.

Comment Facebook nous influence

Une fois que l'entreprise s'est faite une idée si précise de qui nous sommes, de nos envies, de nos craintes, de notre mode de vie et de nos faiblesses, la route est libre pour nous proposer ses messages au bon moment et sous le bon format, quand ils seront les plus à même d'influencer notre volonté.

L'entreprise s'est elle-même vantée de l'ampleur de cette emprise. En 2012, elle a soumis 700 000 utilisateurs à une expérience (sans leur demander leur consentement ni les informer). Facebook modifiait le fil d'actualité de ces personnes de sorte qu'étaient mis en avant certains contenus qui influenceraient leur humeur, espérant les rendre plus joyeuse pour certaines et plus tristes pour d'autres. L'étude concluait que « les utilisateurs ciblés commençaient à utiliser davantage de mots négatifs ou positifs selon l'ampleur des contenus auxquels ils avaient été “exposés” ».

Cette expérience ne fait que révéler le fonctionnement normal de Facebook : afin de nous influencer, il hiérarchise les informations que nous pouvons consulter sur ses services (le « fil d'actualité » ne représente qu'une faible partie des contenus diffusés par les personnes que nous suivons, car ces contenus sont sélectionnés et triés par Facebook).

Cette hiérarchisation de l'information ne se contente pas d'écraser notre liberté de conscience personnelle : elle a aussi pour effet de distordre entièrement le débat public, selon des critères purement économiques et opaques, ce dont la sur-diffusion de « fakenews » n'est qu'un des nombreux symptômes.

Dans son étude annuelle de 2017, le Conseil d'État mettait en garde contre la prétendue neutralité des algorithmes dans la mise en œuvre du tri : les algorithmes sont au service de la maximisation du profit des plateformes et sont dès lors conçus pour favoriser les revenus au détriment de la qualité de l'information.

Pourquoi c'est illégal ?

Dans ses toutes nouvelles conditions d'utilisation, revues pour l'entrée en application du RGPD, Facebook explique qu'il considère être autorisé à surveiller et influencer les utilisateurs au motif que ceux-ci auraient consenti à un contrat qui le prévoirait. Or, en droit, ce contrat ne suffit en aucun cas à rendre légale ces pratiques.

Le RGPD prévoit que notre consentement n'est pas valide, car non-libre, « si l'exécution d'un contrat, y compris la fourniture d'un service, est subordonnée au consentement au traitement de données à caractère personnel qui n'est pas nécessaire à l'exécution dudit contrat » (article 7, §4, et considérant 43 du RGPD, interprétés par le groupe de l'article 29).

Cette exigence d'un consentement libre se répercute sur la validité des dispositions qui, dans le contrat passé avec Facebook, autoriseraient ce dernier à nous surveiller et nous influencer.

En 2017, la CNIL a condamné Facebook à 150 000 euros d'amende pour avoir réalisé ses traitements sans base légale. Elle considérait alors que « l’objet principal du service est la fourniture d’un réseau social [...], que la combinaison des données des utilisateurs à des fins de ciblage publicitaire ne correspond ni à l’objet principal du contrat ni aux attentes raisonnables des utilisateurs [et qu'il incombe donc à Facebook] de veiller à ce que les droits des personnes concernées soient respectés et notamment à ce que l’exécution d’un contrat ne les conduise pas à y renoncer ». Ainsi, la CNIL « estime que les sociétés ne peuvent se prévaloir du recueil du consentement des utilisateurs [ni] de la nécessité liée à l’exécution d’un contrat ».

Puisque le contrat passé avec Facebook n'autorise pas la surveillance décrite ci-dessus, celle-ci est illicite - c'est le cœur de nos actions de groupe ! Malheureusement, les méfaits de Facebook dépassent son propre site.

Comment Facebook collabore avec des tiers

Facebook ne cache plus son activité de traçage un peu partout sur le Web, même s'agissant de personnes n'ayant pas de compte Facebook (qui se voient alors créé un « profil fantôme »).

Les méthodes de pistage sont nombreuses :
  • des cookies (fichiers enregistrés sur votre appareil permettant à Facebook de vous identifier d'un site à l'autre) ;
  • des boutons « J'aime » ou « Partager » affichés sur de nombreux sites (ces boutons, hébergés sur les serveurs de Facebook, sont directement téléchargés par l'utilisateur, indiquant ainsi automatiquement à Facebook leur adresse IP, la configuration unique de leur navigateur et l'URL de la page visitée) ;
  • des pixels invisibles (images transparentes de 1x1 pixel) fonctionnant comme les boutons, dont le seul but est d'être téléchargés pour transmettre à Facebook les informations de connexion ;
  • Facebook Login, que certains sites ou applications (Tinder, typiquement) utilisent comme outil pour authentifier leurs utilisateurs.
Les personnes ciblées en sont rarement informées ou leur consentement n'est pas obtenu. Facebook se dédouane de cette responsabilité en la faisant peser sur les sites et applications ayant integré ses traçeurs. Bien que ces sites et applications soient bien responsables juridiquement, Facebook l'est tout autant, l'entreprise étant régulièrement condamnée pour ce pistage illicite, sans pour autant y mettre un terme :
  • en 2015 puis 2018, la CNIL puis la justice belge lui ont demandé d'y mettre un terme, avec une astreinte de 250 000 € par jour ;
  • en 2017, la CNIL française l'a condamné à 150 000 € d'amende (montant maximum, à l'époque) ;
  • en 2017, la CNIL espagnole l'a condamné à 1 200 000 € d'amende.

Facebook trace également sur smartphone

L'entreprise ne s'intéresse pas seulement aux habitudes de navigation des internautes. Les applications sur téléphone mobile sont également une cible. En fournissant une série d'outils aux développeurs d'applications, Facebook va s'incruster dans ce nouveau monde. Dès qu'une application veut se connecter à Facebook, pour une raison ou une autre, un certain nombre de données personnelles sont transmises, souvent sans lien direct avec le but initial de l'application et, souvent aussi, sans que l'utilisateur n'en soit même informé.

L'association Exodus Privacy a mis en évidence l'omniprésence de ces traqueurs dans les applications mobiles. Si certains traqueurs affichent leurs intentions (cibler les utilisateurs à des fins publicitaires), d'autres ont un fonctionnement parfaitement opaque. Ainsi, nous avons pu observer que l'application Pregnancy + récolte les informations privées de l'enfant à naître (afin d'accompagner les parents dans la naissance) et les transmet à Facebook (semaine de grossesse et mois de naissance attendu). Sur son site, l'application explique simplement transmettre à des tiers certaines données pour assurer le bon fonctionnement du service... Grâce à Pregnancy +, votre enfant a déjà son compte Facebook avant même d'être né !

Autre exemple flagrant : en analysant les données émises par l'application Diabetes:M, on constate qu'elle envoie à Facebook l'« advertising ID » de l'utilisateur, donnant ainsi à Facebook une liste de personnes atteintes de diabète. Sur son site, l'application se contente d'expliquer travailler avec des réseaux publicitaires, sans autre détail...

WhatsApp et Instagram

Évidemment, la surveillance exercée par Facebook va s'étendre à ses deux grandes filliales : sa messagerie, WhatsApp, et le réseau social d'image et de vidéo, Instagram.

Le rachat de WhatsApp a mis en lumière le comportement de sa maison mère. La Commission européenne a d'abord sanctionné Facebook d'une amende de 110 millions d'euros sur le plan du droit de la concurrence, puis la CNIL française s'est prononcée sur le plan des données personnelles. En décembre dernier, elle a mis en demeure Facebook d'arrêter d'imposer aux utilisateurs de WhatsApp d'accepter que leurs informations soient transférées au réseau social.

Encore une fois, c'est le consentement libre qui faisait défaut : WhatsApp ne pouvait pas être utilisé sans donner son consentement à des mesures purement publicitaires. Ceci est désormais clairement interdit.

Comment Facebook peut-il survivre s'il ne peut plus se financer sur nos données ?

Le modèle économique de Facebook est en train d'être drastiquement remis en cause. Il n'est plus permis de rémunérer un service en contrepartie de libertés fondamentales. Facebook ne va pas forcément disparaître, mais ne pourra plus continuer à se rémunérer de la même façon.

Mais qu'importe : nous n'avons pas besoin de Facebook pour pouvoir continuer d'utiliser des services gratuits et de qualité. Il existe déjà de nombreuses alternatives aux services des GAFAM qui sont réellement gratuites (c'est-à-dire qui n'impliquent pas de « monnayer » nos libertés), car leur financement repose sur le modèle originel d'Internet : la décentralisation, qui permet la mutualisation des coûts en stockage, en calcul et en bande passante.

Par exemple, La Quadrature du Net fournit à plus de 9 000 personnes l'accès au réseau Mastodon, une alternative libre et décentralisée à Twitter. Nous fournissons cet accès sur Mamot.fr, qui n'est qu'un des milliers de nœuds du réseau, chaque nœud étant interconnecté avec les autres. Ceci permet de répartir les coûts entre de très nombreux acteurs qui peuvent ainsi plus facilement les supporter (sans avoir à se financer par la surveillance de masse).

Rejoindre collectivement ces alternatives est bien l'objectif final de nos actions, mais nous pensons pouvoir n'y parvenir qu'une fois chacun et chacune libérée de l'emprise des GAFAM. Nous pourrons alors construire l'Internet de nos rêves, libre et décentralisé, que notre alliée Framasoft construit déjà chaque jour ardemment !


Voir la plainte
Action de groupe contre Amazon
Voir la plainte
Action de groupe contre Microsoft
Nous sommes allés à la rencontre de Julie, qui a travaillé pour une entreprise chargée d' « améliorer » le fonctionnement de Cortana, l’assistant vocal de Microsoft, en écoutant une à une divers paroles captées par la machine (volontairement ou non).

Nous partageons ici son témoignage édifiant.

Comme nous le rappelle Antonio Casilli ci-dessous, ce récit souligne exactement les pratiques très « humaines » que l'ont retrouve en masse sous les miroirs trompeurs d'une soi-disant « intelligence artificielle ».

Les humains derrière Cortana, par Antonio Casilli

Antonio Casilli, membre de La Quadrature du Net, est chercheur à l'EHESS et maître de conférence à Télécom ParisTech (voir son site).

Qui écoute vos conversations quand vous utilisez un assistant vocal comme Cortana ? Qui regarde vos requêtes quand vous utilisez un moteur de recherche comme Bing ? « Personne », vous assurent les concepteurs de ces dispositifs, « ce sont des machines ». La réalité est tout autre, comme l'atteste ce témoignage : une jeune femme qui, sans contrat de travail et sans aucun accord de confidentialité, a retranscrit des milliers de conversations privées, recherches d'information, noms et coordonnées personnelles de personnes utilisant des produits Microsoft.

Son métier ? Dresseuse d'IA.

Malgré les allégations de leurs producteurs, les assistants virtuels qui équipent les enceintes connectées trônant dans nos salles à manger ou qui se nichent jusque dans nos poches, installés sur nos smartphones, ne naissent pas intelligents. Ils doivent apprendre à interpréter les requêtes et les habitudes de leurs utilisateurs.

Cet apprentissage est aidé par des êtres humains, qui vérifient la pertinence des réponses des assistants virtuels aux questions de leurs propriétaires. Mais plus souvent encore, ces êtres humains « entraînent » les dispositifs, en leurs fournissant des données déjà préparées, des requêtes avec des réponses toutes faites (ex. « Quelle est la météo aujourd'hui ? » : « Il fait 23 degrés » ou « Il pleut »), des phrases desquelles ils fournissent des interprétations (ex. savoir dans quel contexte « la flotte » signifie « un ensemble de navires » ou « la pluie »).

Ces dresseurs d'intelligences artificielles sont parfois des télétravailleurs payés à l'heure par des entreprises spécialisées. Dans d'autres cas, ils sont des « travailleurs à la pièce » recrutés sur des services web que l'on appelle des plateformes de micro-travail.

Celle de Microsoft s'appelle UHRS et propose des rémunérations de 3, 2, voire même 1 centime de dollar par micro-tâche (retranscrire un mot, labelliser une image…). Parfois les personnes qui trient vos requêtes, regardent vos photos, écoutent vos propos sont situés dans votre pays, voire dans votre ville (peut-être vos voisins d'en bas ?). D'autres fois, ils sont des travailleurs précaires de pays francophones, comme la Tunisie, le Maroc ou le Madagascar (qui s'est dernièrement imposé comme « leader français de l'intelligence artificielle »

Les logiciels à activation vocale tels Cortana, Siri ou Alexa sont des agents conversationnels qui possèdent une forte composante de travail non-artificiel. Cette implication humaine introduit des risques sociétaux spécifiques. La confidentialité des données personnelles utilisées pour entraîner les solutions intelligentes est à risque. Ces IA présupposent le transfert de quantités importantes de données à caractère personnel et existent dans une zone grise légale et éthique.

Dans la mesure où les usagers des services numériques ignorent la présence d'êtres humains dans les coulisses de l'IA, ils sous-estiment les risques qui pèsent sur leur vie privée. Il est urgent de répertorier les atteintes à la privacy et à la confidentialité associées à cette forme de « digital labor », afin d'en estimer la portée pour informer, sensibiliser, et mieux protéger les personnes les plus exposées.


Voir la plainte
Partagez
Dans la presse
Imprimez, affichez Affiches Télécharger