Repository with sources and generator of https://larlet.fr/david/ https://larlet.fr/david/
選択できるのは25トピックまでです。 トピックは、先頭が英数字で、英数字とダッシュ('-')を使用した35文字以内のものにしてください。

article.md 10KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141
  1. title: ★ De l'OpenData au LinkedData : exemple de nosdonnees.fr
  2. slug: de-lopendata-au-linkeddata-exemple-de-nosdonneesfr
  3. date: 2010-11-30 12:26:27
  4. type: post
  5. vignette: images/logos/kamehameha.png
  6. contextual_title1: Les outils manquants de l'OpenData
  7. contextual_url1: 20110328-les-outils-manquants-opendata
  8. contextual_title2: Retour sur l'OpenData et nous, et nous, et nous ?
  9. contextual_url2: 20110322-retour-sur-lopendata-et-nous-et-nous-et-nous
  10. contextual_title3: Un projet Python : de l'idée à la publication
  11. contextual_url3: 20101203-un-projet-python-de-lidee-la-publication
  12. Je suis en train d'écrire un framework permettant d'apporter du sens et du lien à des données plates (csv, xls, etc), l'objectif est de les rendre directement exploitables par les utilisateurs et surtout d'en faciliter la publication pour les détenteurs originaux. J'ai choisi d'en tester l'application sur des données répertoriées dans le tout nouveau [nosdonnees.fr](http://www.nosdonnees.fr/) dont je salue l'initiative citoyenne.
  13. L'avantage d'avoir des données réelles est de pouvoir arriver à des analyses marrantes, je me suis donc concentré sur l'[Impôt de Solidarité sur la Fortune par commune 2009](http://www.nosdonnees.fr/package/isf2009) et sur le [Taux de Fiscalité Directe Locale par région 2001-2009](http://www.nosdonnees.fr/package/taux_fiscalite_2001_2009). La seule manipulation a été de convertir les fichiers xls en csv mais je n'ai pas essayé de nettoyer les données en amont. Pouvoir le faire est un confort dont il ne faut pas se priver mais ce n'est pas forcément possible et maintenable, même si des outils comme [Google Refine](http://code.google.com/p/google-refine/wiki/GettingStarted) (l'ancien Freebase Gridworks) rendent la chose beaucoup plus aisée (tiens [une extension RDF](http://lab.linkeddata.deri.ie/2010/grefine-rdf-extension/)).
  14. ## Modélisation ##
  15. Analysons le premier jeu de données qui nous donne l'ISF pour l'année 2009 en fonction des communes, regroupées par région. L'idée du framework est de pouvoir facilement gérer des objet à partir de ces lignes, ce qui est brillamment décrit dans le dernier chapitre du livre ProPython, on arrive à la définition suivante :
  16. class CommuneResource(Resource):
  17. region = StringTriple()
  18. departement = StringTriple()
  19. code_commune = StringTriple()
  20. commune = StringTriple()
  21. redevables = IntegerTriple()
  22. patrimoine_moyen = IntegerTriple()
  23. impot_moyen = IntegerTriple()
  24. À partir de là, je veux pouvoir typer certaines des colonnes de mes données et j'ai connaissance du [vocabulaire défini par l'INSEE](http://rdf.insee.fr/geo/) pour justement décrire des régions et département. Une rapide lecture du [fichier RDF des régions](http://rdf.insee.fr/geo/regions-2010.rdf) m'informe qu'il existe une classe pour les régions et départements ainsi que pour les communes et leur code. Je déclare donc ces références dans la définition de ma classe (au passage je lui attribue une URI et un type général) :
  25. INSEE_GEO = Namespace('http://rdf.insee.fr/geo/')
  26. class CommuneResource(Resource):
  27. region = StringTriple(rdf_type=INSEE_GEO.Region)
  28. departement = StringTriple(rdf_type=INSEE_GEO.Departement)
  29. code_commune = StringTriple(rdf_type=INSEE_GEO.code_commune)
  30. commune = StringTriple(rdf_type=INSEE_GEO.Commune)
  31. redevables = IntegerTriple()
  32. patrimoine_moyen = IntegerTriple()
  33. impot_moyen = IntegerTriple()
  34. class Options:
  35. rdf_type = RDFS.Resource
  36. resource_uri = 'http://example.org/communeresource/%s/'
  37. L'essentiel du travail est fait, je charge tout ça dans un graphe RDF et je peux commencer à jouer avec :
  38. isf_data_filepath = 'data/isf/ISF2009-Tableau 1.csv'
  39. isf_data_file = open(isf_data_filepath, 'r')
  40. g = ConjunctiveGraph()
  41. for line in CommuneResource.loader(isf_data_file, **{'delimiter': ';'}):
  42. line.save(store=g)
  43. line.commune # -> retourne 'CHAMBERY'
  44. À partir de là, on peut par exemple calculer la moyenne de l'ISF moyen par individu redevable de cet impôt et on arrive à une surprise (en tout cas pour moi) :
  45. regions = defaultdict(list)
  46. for commune_uri in g.subjects(RDF.type, RDFS.Resource):
  47. commune = CommuneResource().objects.get(str(commune_uri), store=g)
  48. regions[commune.region].append(commune.impot_moyen)
  49. for region, impot_list in regions.items():
  50. regions[region] = sum(impot_list)/len(impot_list)
  51. regions = regions.items()
  52. regions.sort(key=lambda a: a[1], reverse=True)
  53. print regions[:4]
  54. # -> retourne
  55. [('GUYANE', 15044), ('MARTINIQUE', 9579), ('GUADELOUPE', 7379), ('CORSE', 6811)])
  56. Il semblerait que les riches les plus riches soient en moyenne dans les DOM-TOM (non, la Corse n'en est pas (encore) un ;-)).
  57. ## Relations ##
  58. Bon jusque là rien de bien phénoménal, passons à la partie intéressante, la possibilité de lier les données avec d'autres sources, par exemple la taxe foncière pour analyser si les plus riches habitent là où la taxe foncière est la plus basse (quelle drôle d'idée...). On prend le second jeu de données, converti également en csv et on crée une nouvelle ressource :
  59. class RegionResource(Resource):
  60. code_region = StringTriple(rdf_type=INSEE_GEO.code_region)
  61. region = StringTriple(rdf_type=INSEE_GEO.Region)
  62. annee2001 = DecimalTriple()
  63. annee2002 = DecimalTriple()
  64. annee2003 = DecimalTriple()
  65. annee2004 = DecimalTriple()
  66. annee2005 = DecimalTriple()
  67. annee2006 = DecimalTriple()
  68. annee2007 = DecimalTriple()
  69. annee2008 = DecimalTriple()
  70. annee2009 = DecimalTriple()
  71. see_also = ResourceRelation(CommuneResource, RDFS.seeAlso)
  72. class Options:
  73. rdf_type = RDFS.Literal
  74. resource_uri = 'http://example.org/regionresource/%s/'
  75. Ici aussi, on a typé les données avec les classes de l'INSEE mais on déclare également une relation avec notre précédente classe. On aurait pu s'abstenir, vu que l'on a un moyen grâce au `INSEE_GEO.Region` de trouver un lien entre les deux jeux de données mais ça va nous permettre de naviguer entre les classes plus facilement. On ajoute tout ça à notre graphe de la même manière en ajoutant les relations avec un simple `region_ressource.see_also.add(commune_resource)`.
  76. Calculons maintenant avec ces deux sources de données le nombre de personnes étant soumises à l'ISF croisé avec le montant de la taxe foncière 2009 :
  77. result = []
  78. for region_uri in g.subjects(RDF.type, RDFS.Literal):
  79. region = RegionResource().objects.get(region_uri, store=g)
  80. rich_people = sum(commune.redevables for commune in region.see_also.all(store=g))
  81. result.append((region.region, rich_people, region.annee2009))
  82. result.sort(key=lambda n: n[1], reverse=True)
  83. print result[:5]
  84. # -> retourne
  85. [('ILE-DE-FRANCE', 157597, Decimal('1.27')),
  86. ("PROVENCE-ALPES-COTE D'AZUR", 32679, Decimal('2.36')),
  87. ('RHONE-ALPES', 18789, Decimal('2.12')),
  88. ('PAYS DE LA LOIRE', 8826, Decimal('2.66')),
  89. ('NORD-PAS-DE-CALAIS', 8078, Decimal('3.83')),
  90. ('MIDI-PYRENEES', 6912, Decimal('4.72')),
  91. ('LANGUEDOC-ROUSSILLON', 5955, Decimal('4.86'))
  92. Intéressante croissance de la taxe, même si elle s'avère moins vraie dans la suite des résultats, notez au passage qu'il y a autant de personnes (18574) qui sont soumises à l'ISF dans le 16ème à Paris que dans la troisième région du classement (Rhône-Alpes, 18789)... on pourrait encore s'amuser à trouver de fausses conclusions mais le but du billet est plus de montrer la facilité d'utilisation des données une fois liées.
  93. ## Publication ##
  94. Reste une troisième étape qui est celle de la publication des données, la bibliothèque RDF utilisée permet d'exporter le graphe en de nombreux formats, du RDF/XML au turtle, il serait aussi intéressant d'exposer ces données en RDFa s'il doit y avoir une interface dédiée au navigateur, voire en [JSON-LD](http://json-ld.org/) qui semble plus apprécié des développeurs.
  95. Je n'ai pas encore codé cette partie mais je compte utiliser [piston](http://bitbucket.org/jespern/django-piston/wiki/Home) ou [dj-webmachine](https://github.com/benoitc/dj-webmachine) par exemple. Rien de bien arrêté, d'autant que l'API des Resources est loin d'être finalisée et je m'interroge encore sur les outils à utiliser, lorgnant de plus en plus sur [SuRF](http://packages.python.org/SuRF/) qui facilite une grande partie de ce que j'ai déjà développé. Toute la question est de trouver le bon positionnement du curseur pour qu'un néophyte du web sémantique puisse publier ses données de manière convenable sans se prendre la tête.
  96. Je suis également en train d'étudier le travail de plateforme comme [PublishMyData](http://publishmydata.com/), [DataVerse](http://thedata.org/book/use-and-share-data) ou [Nesstar](http://www.nesstar.com/).
  97. ## Participation ##
  98. La meilleure façon de faire avancer les choses est de continuer à chasser des données pour nosdonnees.fr, ajouter une nouvelle source est très simple, j'ai dû le faire pour l'INSEE l'autre soir et ça m'a pris moins de 10 minutes avec une intégration OpenID qui fait plaisir à voir ! La libération des données est bénéfique pour tous, [autant d'un point de vue financier](http://www.fondapol.org/les-travaux/toutes-les-publications/publication/titre/donnees-publiques-gratuites-au-danemark.html) que social. **La France est en train de louper ce train de l'innovation, ne la laissons pas détruire les gares en plus.** Les initiatives citoyennes telles que celles de [Regards Citoyens](http://www.RegardsCitoyens.org/) sont les seules alternatives vu les orientations de l'[APIE](https://www.apiefrance.com/) (qui ne sait pas configurer un certificat SSL au passage...).
  99. Si vous êtes intéressé par le développement (ou l'utilisation future) du projet, n'hésitez pas à me contacter. Je suis convaincu que la libération des données n'est pas suffisante pour une réutilisation de masse et qu'il va falloir leur accorder un peu plus d'attention pour qu'elle soient exploitées à leur meilleur potentiel et enrichies par des acteurs externes.
  100. *Note de dernière minute : un [hackaton est organisé lors de l'OpenDataDay](http://www.opendataday.org/), une bonne occasion de s'y essayer ? :-)*