title: Opendata et liens cassés slug: opendata-liens-casses date: 2016-02-26 chapo: Le Web est un mandala sur lequel on souffle en continu.
Ceci est un résumé de mon intervention à Confoo.
The quantity and variety of information we now produce has outpaced our ability to preserve it for the future. Librarians are the only ones who are making sure that our collective memory is preserved. And they, along with small teams of digital historians elsewhere, are still trying to understand the scope of myriad challenges involved in modern preservation. If today’s born-digital news stories are not automatically put into library storehouses, these stories are unlikely to survive in an accessible way.
Le Web est un mandala sur lequel on souffle en continu. Nous serons potentiellement tous jugés pour crime contre le Web à force de participer à des datacides en cassant volontairement des liens. Que faire individuellement et collectivement pour en prendre conscience et inverser la tendance ?
In addition to improving the usability of the temporal web and helping to ensure the preservation of collective cultural heritage, designing for archivability will also tend to optimize your website for access by other crawlers, boost website performance, enhance usability for contemporary users, and improve the likelihood that you’ll be able to refer to and/or recover historical versions of your own web content.
Je ne vais pas reprendre les arguments déjà détaillés par ailleurs, la question n’est plus de savoir si vos données vont être hackées et/ou perdues mais quand. Est-ce qu’il s’agira d’un accident ? D’une attaque frontale ? D’un manque de soin apporté aux données ? D’une décision stratégico-économique ? D’une revente ?
Quelle qu’en soit la raison, il faut apprendre à vivre avec.
The ability to follow links down and around and through an idea, landing hours later on some random Wikipedia page about fungi you cannot recall how you discovered, is one of the great modes of the web. It is, I’ll go so far to propose, one of the great modes of human thinking.
Il existe des outils permettant de cacher une page web, et même d’y accéder avec un navigateur de l’époque ou d’y voyager. Cela fait maintenant plus d’un an que je mets en cache les articles qui sont liés sur cet espace les considérant comme importants pour la réflexion qu’ils initient. Il est depuis possible d’installer un plugin Wordpress/Drupal qui semble faire la même chose.
La question des productions non textuelles (cache) reste de mise et nécessiterait d’augmenter la taille du cache de plusieurs ordres de grandeurs. Celle du design (cache) également et pose une vraie contrainte technique quand aux moteurs de rendus qui évoluent.
Que se passerait-il si cela devenait une pratique courante ? À quel point les service workers vont-ils permettre d’automatiser cela ? Cacher une page non pas pour un rendu hors-ligne mais pour un rendu pérenne et/ou versionné.
Je me demande par exemple si l’intégration de jsdiff permettrait d’afficher les évolutions du lexique de manière personnalisée à partir de la version précédemment mise en cache.
The aim of this project is to provide a way to check HTTP resources: hunting 404s, updating redirections and so on.
For instance, given a website that stores a list of external resources (html, images or documents), this product allows the owner to send its URLs in bulk and retrieve information for each URL fetched in background (status code and useful headers for now). This way he can be informed of dead links or outdated resources and acts accordingly.
Je travaille sur data.gouv.fr depuis un an. La stratégie de la dernière version était de référencer plus que de dupliquer les données déjà hébergées par ailleurs. Nous manquions cruellement de visibilité sur la disponibilité de ces ressources distantes et nous avons décidé de développer un outil qui nous permette d’avoir des métriques à ce sujet. Ces données nous permettent d’avertir les producteurs en cas d’indisponibilité, d’informer les visiteurs de la non-disponibilité d’une ressource de manière quasi-synchrone et d’avoir un tableau de bord avec un score par producteur.
Croquemort va croquer les orteils des liens à intervalles réguliers pour s’assurer qu’ils retournent toujours un status code pertinent. Il ne s’agit pas de culpabiliser ou de blamer les producteurs mais de les sensibiliser et de les responsabiliser pour avoir une discussion sur les origines de ces indisponibilités et trouver une solution ensemble.
Après les 5 ★ de Tim Berners-Lee, qui ont bientôt 6 ans (cache), il est temps de passer aux 5 ♥ plus contemporains (merci Twitter). Voici mes modestes propositions à challenger :
Avec cette itération des recommandations, l’accent est mis sur la qualité des données plus que leur quantité. Trop de portails Opendata exposent des données inutilisables. L’objectif de l’Opendata n’est pas de publier des données mais de créer des synergies entre les citoyens, les administrations et les entreprises.
“Les traces que les utilisateurs laissent derrière eux sont radioactives, elles continuent à pouvoir avoir un effet négatif jusque des années plus tard.” La plupart des données échappent à tout contrôle sérieux. “Elles sont échangées, modifiées, revendues. Mais surtout, comme les déchets nucléaires, elles restent.”
D’un autre côté, il y a des données que l’on voudrait oublier et qui persistent, à notre insu. Comment introduire les notions de version et de temporalité dans les liens ? Cette question reste ouverte à ce jour et je ne connais pas d’initiative pour proposer un standard sur le sujet. Les journaux évoluent et vont devoir se poser ces questions s’ils vont vers de la co-construction.
In closing, there’s a great book called Small Pieces, Loosely Joined. It’s about the web, and it’s about how the web is, by David Weinberger, who wrote this phrase, “the web is perfectly broken,” which I think is an interesting phrase, “perfectly broken,” because it’s messy deliberately. It’s not meant to be simple or easy; uniform and centralize. It’s supposed to be hacked together, distributed, customized, and remixed. It’s supposed to be human.
Son impermanence est peut-être aussi ce qui fait la beauté du Web au même titre que l’éphémérité de la vie. Une donnée est là et du jour au lendemain elle traverse la rue et son lien est rompu. C’est fini et il fallait l’apprécier alors qu’elle était encore disponible. La bonne nouvelle c’est que le clonage de données est (presque) gratuit si l’on sait s’y prendre à l’avance ;-).
Can the web now be a proper archive? No. You can’t have a permanent access (stable URLs) to the data released (by WikiLeaks). Once you have piece of human knowledge, how do you keep it? How do you share it?
Julian Assange, Entretiens du Nouveau Monde Industriel
Avoir une connexion permanente et rapide n’est pas suffisamment contraignante pour que l’on innove dans ce domaine. La résilience du réseau sera peut-être à trouver du côté des innovation issues de la contrainte dans le pays qui ne disposent pas de connexions permanentes (cache). Dans ces contextes, la mise en cache est beaucoup plus agressive et le réseau davantage distribué. Il serait tellement intéressant que la solution émerge de ces pratiques là…
But while HTTP has achieved many things, it’s usefulness as a foundation for the distribution and persistence of the sum of human knowledge isn’t just showing some cracks, it’s crumbling to pieces right in front of us. The way HTTP distributes content is fundamentally flawed, and no amount of performance tuneups or forcing broken CA SSL or whatever are going to fix that. HTTP/2 is a welcome improvement, but it’s a conservative update to a technology that’s beginning to show its age. To have a better future for the web, we need more than a spiced up version of HTTP, we need a new foundation. And per the governance model of cyberspace, that means we need a new protocol. IPFS, I’m strongly hoping, becomes that new protocol.
*HTTP is obsolete. It’s time for the distributed, permanent web* (cache)
IPFS (InterPlanetary File System) est une solution possible, la question étant toujours de savoir si ça passe à l’échelle en terme de performance et de bande passante pour avoir des contenus récents et/ou mis à jour. Je ne sais pas non plus quelle pourrait être la démarche d’adoption d’un tel protocole quand on voit l’inertie qu’il peut y avoir pour IPv6 par exemple…
La solution sera probablement multiple. Expérimentez, documentez et échangez. Apprenez. Recommencez. Même de petites expériences insignifiantes peuvent avoir le pouvoir d’actionner de nouvelles idées chez d’autres personnes. C’est aussi cela la force du Web.
Il y avait une vingtaine de personnes durant la session et voici les retours proposés par Confoo dans l’heure qui suit (!) par email.