Source originale du contenu
Juriste et philosophe du droit aux Facultés de Namur et chercheuse au FNRS, Antoinette Rouvroy étudie la "gouvernementalité algorithmique". Ses recherches se centrent sur la question de la norme et du pouvoir à l’heure de la révolution numérique.
Elle tire la sonnette d’alarme: l’usage abusif des big data porte atteinte à notre liberté… Et commente, pour L’Echo, l’affaire Cambridge Analytica, du nom de cette société britannique qui a exploité de manière indue les données personnelles de 50 millions d’utilisateurs de Facebook lors de la campagne présidentielle de Trump, en 2016. Un scandale qui a jeté, cette semaine, une lumière crue sur les périls que l’économie prédictive des plateformes fait peser sur la démocratie.
Êtes-vous surprise par ce scandale de Cambridge Analytica?
Absolument pas. L’opportunité est là, on l’emploie, en politique comme en économie. Il y a peu d’États où les candidats n’utilisent pas ce genre de dispositif. Prédire les croyances et les espoirs des électeurs n’est en soi pas un phénomène neuf. Mais ce scandale est surtout le signe de l’échec de l’autorégulation des grandes plateformes comme Facebook ainsi que le résultat d’un manque d’éthique dans le domaine de la recherche. Dans ce cas, il s’agit d’une nouvelle application mise en place par un chercheur à des fins universitaires, mais ce chercheur a utilisé les données à des fins commerciales, en collaborant avec Cambridge Analytica. Facebook était-il au courant de la manœuvre? L’enquête le dira.
Marc Zuckerberg est sorti de son silence et a donc annoncé six mesures pour endiguer la polémique. Est-il réellement capable de prendre en charge cette situation?
L’infrastructure technique porte une énorme part de responsabilité dans ce qui advient. L’infrastructure code les usages. Il ne sert donc à rien de "responsabiliser" les utilisateurs. Le problème est que Facebook se présente comme une entreprise non pyramidale avec cette idée – fausse – que ce sont les utilisateurs Facebook qui produisent Facebook. À mon sens, Zuckerberg est dépassé, ce n’est pas un philosophe!
Pourquoi ce scandale survient-il seulement maintenant alors qu’il était connu depuis longtemps?
Le monde du web est opaque. En soi, recueillir des informations est déjà une tromperie. C’est la présence des tiers qui utilisent la plateforme pour proposer d’autres services qui pose problème. Par exemple, vous répondez à un questionnaire "à quel personnage de ‘la guerre des étoiles’ ressemblez-vous?", mais vous ignorez que ces données vont ensuite être utilisées. L’autre problème, c’est qu’on a l’impression de participer à une communauté alors qu’en réalité, il n’y a pas d’échange. Tout le monde est seul devant son écran. Facebook n’est pas un espace public. On assiste à une hypertrophie de la sphère privée qui se caractérise paradoxalement par une dépersonnalisation. La prise de conscience collective ne peut pas se produire.
Quel rôle est joué par les algorithmes dans ce phénomène?
L’algorithme est une simple suite d’instructions. Les big data sont des données anonymes, totalement impersonnelles, de purs signaux, des impulsions. D’ici 2025, nous serons en contact 4.000 fois par jour avec des appareils connectés. Il est impossible pour l’esprit humain de gérer cette quantité de données. On a donc automatisé le traitement des données pour les modéliser, pour en faire des informations. L’algorithme synthétise la diversité plus rapidement que nous. Mais c’est un drôle de système, en adaptation constante, où l’erreur n’existe pas, où l’exhaustivité règne. Il s’agit d’un régime de fiabilité pour justifier des stratégies d’actions optimales, mais qui ne dit rien de la vérité du monde.
La collecte des données peut-elle être bénéfique?
Bien sûr, on peut détecter des choses qu’on n’aurait pas pu voir autrement. En médecine, notamment. La collecte des données peut permettre aussi une plus grande diversité. Il faut toujours se rappeler qu’au départ, il y a des décisions humaines: quel poids accorde-t-on à tel type de données? Imaginons un système inverse à celui de Cambridge Analytica: dans le cadre d’une campagne, on pourrait utiliser les algorithmes pour créer de la diversité et faire découvrir à des individus des idées auxquelles ils ne sont pas confrontés habituellement. Le problème avec Cambridge Analytica, c’est qu’ils se placent à un stade préconscient et court-circuitent la possibilité pour les gens de devenir des sujets: on vend un programme politique comme un bidon de lessive. Un citoyen devient un consommateur. Cambridge Analytica peut voir ce dont j’ai peur et ainsi développer chez moi une réponse réflexe. Le but est de contourner la capacité des personnes à réfléchir. Le calcul remplace le processus de sens et de jugement. La politique devient un espace de pure spéculation et plus un espace de négociation. On se contente d’actualiser ce qui existe comme potentialité. C’est pourquoi un algorithme ne décrit rien. Il produit un état de fait. L’état de fait devient la norme.
C’est donc un nouveau type de pouvoir qui apparaît?
Oui. Il n’y a même plus la place pour un rapport de pouvoir. Le pouvoir est une pure puissance spéculative. Celui qui détient les données acquiert un pouvoir de production de l’avenir. L’objet du capitalisme numérique n’est plus l’argent, car l’argent instaure encore une distance entre le signe et la chose. Le numérique est totalement clos sur lui-même.
Il s’agit donc également d’une crise de la représentation?
C’est une pathologie de la norme. Il n’y a plus rien à représenter, plus de distance critique, tout est dans les données. La norme ne préside plus la récolte des données, elle émane des données et de leur traitement.
Le droit peut-il encore exister dès lors que le fait et la norme se confondent?
Le juge n’est pas soluble dans les données. Le juriste Alain Supiot s’est demandé comment conserver le rôle anthropologique du droit dans un monde de données, car c’est par le droit qu’on lie les dimensions symboliques et organiques de l’être humain. Selon l’idéologie des big data, les individus sont la somme de leurs données. Impossible de désobéir: la norme colle à la peau de chacun. Or la spécificité du juridique est de présupposer une distance entre la loi et la justice. Aux Etats-Unis, le combat pour les "Civil Rights" était le résultat de batailles juridiques, et ensuite seulement la loi a changé. Le droit doit garantir la possibilité d’une désobéissance. Il faut fermer les portes des facultés de droit aux géants du web et sauvegarder le rapport au savoir et à la vérité qui est propre à l’université.
Qu’en est-il des failles du système?
Le plus gros bug de l’intelligence artificielle, c’est le monde physique: tout n’est pas numérisable. Ce qui importe pour nous n’est pas numérisable: la possibilité de générer un récit qui donne sens, de dire comment je me rapporte à mes actes, de transformer mes pulsions en désirs conscients. Nous ne vivons pas dans ce temps des pulsions et des réflexes. D’ailleurs, on mesure encore mal l’impact réel de ce système sur nos croyances. On sait, par exemple, que les fake news se répandent six fois plus vite que les vraies nouvelles. Ce qui ne veut pas dire que les gens y croient pour autant. Il est possible que Cambridge Analytica ait surjoué son impact sur les élections dans le but d’obtenir de nouveaux clients.
En quelque sorte, la vie résiste à la numérisation?
J’estime qu’il y a une récalcitrance de la vie à toute tentative d’organisation excessive. La vie n’est pas une juxtaposition d’éléments simples. Les big data dispensent d’être confronté à un monde indécidable, comme si l’être humain ne devait plus assumer le caractère tragique de l’existence. Mais c’est très important l’incertitude. L’incertitude justifie l’existence du lien social et du langage. Nous avons besoin de parler, car nous percevons le monde de façon différente. C’est la condition pour habiter un monde commun. Nous voulons comprendre le monde et pas seulement le prédire. Il est donc important qu’il y ait des explications, des erreurs et que soit donc maintenue la possibilité de produire d’autres explications. Le problème est que, pour l’instant, le numérique ne produit aucune épistémologie, aucune théorie. C’est une pure technique.
Mais est-il cependant animé par une "idéologie"?
Oui, Google veut faire le "bien". Il développe une vision quasiment théologique. Pour Facebook, c’est différent. À mon sens, c’est du pur opportunisme, en lien avec l’"American way of life".
D’un point de vue économique, l’impact ne risque-t-il pas d’être terrible sur les plus faibles?
Le réel se gouverne lui-même: le néolibéralisme n’aurait pas pu rêver mieux. Ce sont les moins nantis qui vont être le plus touchés, car on ne présuppose plus que les individus soient capables de faire des choix. On va exacerber leurs peurs pour générer des réflexes. Ceux qui n’ont pas accès à un bon niveau d’éducation, ceux qui n’ont pas d’opinions, ceux qui vivent au jour le jour seront très vulnérables. Il n’y aura plus de concurrence possible avec des gens "augmentés". La réalité virtuelle sera faite pour les plus pauvres afin d’éviter les révoltes. C’est le vieux système de la manipulation des masses qui va ressurgir, mais avec des outils inédits