A place to cache linked articles (think custom and personal wayback machine)
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

index.md 16KB

title: Un pédophile est un client Apple comme les autres. url: https://www.affordance.info/mon_weblog/2020/01/pedophile-client-apple.html hash_url: 59dac19256

Si Gabriel Matzneff ne sait plus où donner à lire le récit de ses ébats pédophiles suite à l'annonce du retrait de ses livres par deux de ses éditeurs historiques, il lui reste encore la possibilité de se créer un compte Apple. Je vous explique. 

Apple, par la voix de Jane Horvath, vice-présidente de la société chargée de la confidentialité, vient de déclarer au CES (Consumer Electronic Show) qu'ils allaient désormais "scanner" les comptes iCloud de tous les utilisateurs pour y détecter d'éventuelles photos pédophiles. Et que s'ils en trouvaient, des photos pédophiles, ils fermeraient lesdits comptes iCloud. Mais ne communiqueraient pas ces comptes à la justice ou à la police. 

Ce qui pose plusieurs problèmes. Que je vais essayer de traiter ici. 

L'avis privé.

Apple a toujours eu pour credo marchand et comme confiteor client une doctrine d'inviolabilité totale de la "vie privée" de ses utilisateurs au travers des dispositifs, services et terminaux que la firme commercialise. 

Au prix, ces dernières années, de saignants débats entre les tenants d'une vision très rigoriste de la vie privée et des données personnelles (tout ce qui relève de la vie privée est privé tout le temps et pour tout le monde y compris pour la justice et ce qu'elles que soient les circonstances), et d'autres - dont moi - défendant l'idée qu'il ne doit pas y avoir (en démocratie) d'espace irrémédiablement imperquisitionnable, a fortiori si c'est une société privée qui gère un service permettant de rester hors de portée du droit (et d'une action en justice) au nom d'intérêts marchands. 

Je vous avais expliqué tout cela dans un article il y a deux ans, dont le titre était "un terroriste est un client Apple comme les autres" et qui avait pour sujet le refus d'Apple d'accorder au FBI l'accès aux données d'un iPhone utilisé dans le cadre d'une fusillade terroriste. Pour vous éviter d'aller le relire intégralement, je recopie juste la conclusion : 

"(...) un terroriste est un client Apple comme un autre. Et bénéficie à ce titre des mêmes "droits", du même "niveau de protection" qu'un autre client d'Apple pour ce qui concerne les données stockées dans son iPhone. Remettre en question ces droits pour un individu, même convaincu d'actes de terrorisme, reviendrait à remettre en question ces droits pour l'ensemble des possesseurs d'iPhone. Tel est en tout cas l'argumentaire de Tim Cook. (...)

Nous avons tous une vie privée, et nous avons tous le droit à une vie privée. Pour autant, dans le cadre d'un état de droit, et dans le cadre d'une procédure judiciaire, si nous sommes accusés ou reconnus coupables d'un acte délictueux, les éléments qui composent et documentent notre vie privée restent accessible via un mandat de perquisition (ordonné par un juge). La question que pose le cryptage par défaut incassable des iPhones et la lettre de Tim Cook aux clients d'Apple est celle de savoir si l'espace - physique ou numérique - alloué aux traces documentaires de notre vie privée doit être imperquisitionnable. S'il doit résister à toute forme de perquisition.

Si l'on se contente d'envisager les terroristes (ou les pédophiles ou les dealers de drogue ou les auteurs de crimes et délits en tout genre) comme autant de "clients" ayant acheté un appareil offrant des garanties raisonnables de préservation de leur vie privée, alors Tim Cook a raison : la demande du FBI est inacceptable. Mais si l'on considère que notre vie privée doit être un espace imperquisitionnable quelles que soient les circonstances et y compris dans le cadre d'une action judiciaire légitime effectuée dans un état de droit, alors c'est la posture de Tim Cook qui devient inacceptable."

Mais revenons aux pédophiles.

Pendant des années, Apple expliquait qu'il ne "regardait" jamais et en rien le contenu déposé, stocké et hébergé sur un compte iCloud. Jamais. Même en sachant qu'il pouvait effectivement y avoir des contenus illégaux. 

Et puis donc changement brutal de doctrine : voici que désormais Apple annonce vérifier si les comptes iCloud ne comportent pas de photos ou de vidéos pédo-pornographiques. Mais il ne le fait que sur la base de la technologie PhotoDNA, développée et mise gratuitement à disposition par Microsoft, laquelle technologie permet de comparer des photos à des bases de données d'images pédophiles, y compris si les photos sont retouchées ou recadrées. Cette technologie ne permet donc pas de détecter des contenus pédopornographiques inédits mais uniquement déjà existants. L'autre moyen de détecter des contenus pédopornographiques c'est de les faire visionner par des modérateurs. Avec tous les risques psychiques que l'on sait. 

Donc Apple va déléguer à une technologie le fait d'identifier le partage de photos pédophiles déjà "identifiées" et s'il en trouve il "désactivera" ces comptes. Mais ne les signalera pas à la police ou à la justice. 

En fait la "Privacy Policy" d'Apple a été modifiée comme suit en Mai 2019

"We may also use your personal information for account and network security purposes, including in order to protect our services for the benefit of all our users, and pre-screening or scanning uploaded content for potentially illegal content, including child sexual exploitation material."

Vous noterez que la détection de "contenus potentiellement illégaux incluant des documents en lien avec l'exploitation sexuelle des enfants" n'a pour objet que de protéger "nos services" pour le bénéfice "de nos utilisateurs". Il est donc explicite qu'Apple n'envisage pas de traiter ce problème comme relevant d'actes illégaux relevant de la justice mais simplement comme une manière de maintenir "propre" son écosystème de services. 

Surveiller sans voir et décider sans juger.

On pourrait disserter pendant des heures sur le "choix" d'Apple de ne pas jouer le rôle d'un auxiliaire de justice dans le cas de d'éléments factuels (je n'ai pas dit d'élements "de preuve") relevant de la pédo-criminalité. La très récente affaire Matzneff est à ce titre pleine d'enseignements sur l'arbitraire circonstanciel de toute moralité dès lors qu'elle vise à s'inscrire dans un horizon social du tolérable ou du haïssable.

La distinction entre le statut d'éditeur et celui d'hébergeur est d'ailleurs consubstantielle de l'histoire du web contemporain. Histoire dans laquelle les actuels hébergeurs que sont les plateformes (moteurs et réseaux sociaux) sont tenus à une obligation de retrait dans des délais "raisonnables" dès lors que des contenus leurs sont signalés comme contrevenant à la loi. 

Mais le fait est qu'il existe, aussi, en droit (français) une "obligation de signalement" s'adressant à tout particulier ou professionnel et qui fonctionne comme une exception au secret professionnel : 

"Le fait, pour quiconque ayant connaissance de privations, de mauvais traitements ou d'agressions ou atteintes sexuelles infligés à un mineur ou à une personne qui n'est pas en mesure de se protéger en raison de son âge, d'une maladie, d'une infirmité, d'une déficience physique ou psychique ou d'un état de grossesse, de ne pas en informer les autorités judiciaires ou administratives ou de continuer à ne pas informer ces autorités tant que ces infractions n'ont pas cessé est puni de trois ans d'emprisonnement et de 45 000 euros d'amende."

Comme ces sujets sont plus qu'épineux, il importe d'être précis. Le fait "d'avoir connaissances de privations et de mauvais traitements ou d'agressions ou atteintes sexuelles infligés à un mineur" n'équivaut pas, en droit, au fait d'avoir connaissance de la consultation ou du stockage d'images de privations et de mauvais traitements ou d'agressions sexuelles infligés à un mineur. 

Pour autant, la décision d'Apple de simplement désactiver ("disabled") les comptes hébergeant du matériel pédo-pornographique sans en référer aux autorités judiciaires est un nouvel espace intersticiel qui complexifie et trouble encore davantage la réalité déjà passablement confuse de l'inscription d'un comportement "numérique" dans une sphère publique, privée, ou intime. 

Le paradoxe de la fronce.

Nous vivons aujourd'hui dans une société d'hypermnésie, d'hyperscopie, et d'hyperacousie. Nos habitus, nos "morales" individuelles et nos "endroits" (nos "Querencia" comme le dit si justement Marc Jahjah) sont surveillés, entendus et enregistrés, le plus souvent avec notre consentement paresseux. De la même manière que sont surveillés, entendus et enregistrés les comportements, les habitus, les morales et les endroits où nous faisons ensemble et où nous sommes société.

Une société dans laquelle, à la fois des états, des sociétés privés monopolistiques ou oligopolistiques, et des entités collaborationnistes réunissant les deux, disposent donc de la capacité à se souvenir de tout (hypermnésie), comme de celle de tout voir (hyperscopie) et de tout entendre (hyperacousie). 

Ces trois sur-capacités adressent à la fois :

  • nos comportements et nos engagements sociaux dans l'espace public (d'où l'enjeu des débats sur la vidéo-surveillance qui dérivent aujourd'hui encore plus dangereusement vers la surveillance / reconnaissance faciale),
  • nos comportements et nos engagements privés dans des espaces non-publics,
  • mais aussi et littéralement nos biorythmes intimes (phases de sommeil, pulsations cardiaques, taux de sucre, etc ... par l'entremise des bracelets connectés et/ou autres applications de "santé" connectée). 

Notre corporéité même, dans son sens le plus littéralement biologique, est pour ces sociétés devenu une sorte de tiers-lieu où s'exerce le pouvoir de scrutation que nous leur accordons.

Face à cela, face à l'ensemble de ces régimes d'hyper-contrôle et à leurs modalités, se développent des dispositifs imperscrutables et inauditables en droit (nos téléphones, en tout cas dans la doctrine Apple), un développement qui n'est pas littéralement para-doxal (= qui ne va pas "contre" les discours de légitimation des régimes de contrôle) mais qui en est tout au contraire le parallèle, qui en accompagne le déploiement autant que le dévoiement.

La question est donc celle du pli, de la fronce. Celle d'une théorie topologique des espaces numériques de publication et d'archivage, dans le sens où la topologie est cette science dans laquelle "une tasse à café est identique à une chambre à air, car toutes deux sont des surfaces avec un trou." Ce que je veux dire par là est que l'on réfléchit le plus souvent aux questions d'espace public et de vie privée en termes partitionnables binaires, comme si toute forme de vie publique était exclusive de toute expression appartenant à la vie privée, et réciproquement bien sûr. Et qu'à mon avis on a tort de procéder ainsi.

Il ne s'agit pas aujourd'hui de partitionner, de scinder, d'isoler des espaces privés, publics ou intimes qui seraient à chaque fois intrinsèquement exclusifs les uns des autres, mais de penser et de comprendre comment des forces (économiques, sociales, politiques) contraignent et modèlent chacun de ces espaces dans des temporalités propres et des surtout, au regard d'usages circonstanciels dédiés.

Image053Image de la "fronde", l'une des 7 catastrophes élémentaires dans la théorie éponyme de René Thom.

Dans l'image ci-dessus par exemple, si l'on considère que l'endroit du plan équivaut à la vie publique et l'envers à la vie privée, la fronde a capacité de masquer, de changer, de voiler, de dévoiler ou de travestir temporairement un espace en un autre ; de masquer (pour certains) ce qui était auparavant visible (pour d'autres), et réciproquement.

La décision d'Apple concernant l'examen des photos à caractère pédophile, cette volonté (nouvelle) et cette capacité de regarder sans voir, d'inspecter sans révéler, est une nouvelle fronce dans le régime global de nos publications et de nos vies numériques. Elle inaugure une nouvelle temporalité où ce qui était hier imperscrutable (le contenu des comptes iCloud) devient scruté mais en dehors de tout régime de dévoilement (pas de communication à la justice). Une scrutation qui ne donne lieu à aucun "scrutin" dans le sens où on se contente de "désactiver" (disabled) plutôt que de délibérer. 

Apple sait sans voir que des comptes contiennent des photos pédopornographiques. Mais Apple ne voit pas en quoi ce savoir (ce "ça-voir") devrait être su de la justice, c'est à dire être proposé à la vue de la justice. Parce que qu'Apple, finalement, refuse de savoir / ça-voir.

Me revient en mémoire cette phrase : "ce que nous tolérons est ce que nous sommes vraiment." La bonne question à adresser à Apple, celle qu'il faut aussi nous poser collectivement en tant qu'utilisateurs ou observateurs de ces pratiques, c'est de savoir de quelle forme de tolérance relève le fait de "simplement" fermer des comptes que l'on sait contenir du matériel pédopornographique sans en référer à la justice dans le cadre d'un état de droit. 

On utilise souvent (du moins le faisait-on du temps où Steve Jobs régnait en maître sur la firme), la métaphore religieuse pour caractériser le lien si particulier qui unissait la marque à ses utilisateurs. Si Apple est une église, alors elle marche dans les pas de l'église catholique qui elle aussi, voyait mais ne voulait pas savoir, et qui surtout, refuser de laisser la justice faire son travail, en ne lui donnant pas à voir la réalité des faits. 

Si nous ne nous posons pas maintenant ces questions, nous nous réveillerons demain avec des centaines d'affaires Matzneff et serons effarés de voir qu'ils étaient là, sous nos yeux, et que nous n'avons rien fait, rien dit, que nous avons regardé sans voir, mais pas sans ça-voir.