fr.planet.wikimedia

March 26, 2017

Gratus

Wikipédiens, où êtes-vous ?

Avant Internet, les technologies existantes ne pouvaient pas ou rendaient chère les communications internationales. Depuis Internet, il m’est tout aussi aisé d’écrire un émail à ma boulangère de quartier qu’à un ami japonais (il reste cependant plus difficile de se trouver un ami Japonais que d’éviter sa boulangère arnaqueuse, mais bon cela est une autre histoire 🙂 ).

Grâce à Internet, il est ainsi facile de communiquer avec (presque) n’importe qui, (presque) n’importe quand et (presque) n’importe où. De plus, et cela plait bien à notre ours ʕ •ᴥ•ʔ, en pouvant rester suffisamment anonyme pour ne pas pouvoir localiser le pays d’où l’internaute mate son site.

Ainsi, il est toujours amusant de constater, par exemple pour ma chaîne Youtube, que le top de mon public est : France, États-Unis, Allemagne, Royaume-Uni, Thaïlande, Russie, Mexique …) [ merci à eux (et aux autres) ] , autrement dit qu’on a une audience internationale.

Et en bon Wikipédien que je suis, je me pose naturellement la question : d’où viens les contributeurs de la Wikipédia francophone ?

En suivant le Bistro ces deniers jours (non, je ne suis pas alcoolique, c’est pas vrai  *hips*), je découvre enfin un outil qui apporte un élément de réponse.

>>> Cartographie des Wikipédiens

Il existe en effet un carte interactive fonctionnant de paire avec un gadget qui permet à l’utilisateur d’indiquer son lieu de contribution principal.

Bien sûr, cette carte repose sur le volontariat et il n’y a aucune obligation de se localiser, par conséquent, cela fait que la carte est loin d’être exhaustive mais cela permet de se forger une petite idée. Enfin la carte permet d’indiquer son projet francophone principal (Wikipédia, Commons …).

Ainsi, on découvre que FredD contribue depuis les Comores (pendant qu’on se la gèle en métropole), que Papischou contribue depuis la Côte d’Ivoire (et pas depuis la Lozère, département où la population est âgée), que Framawiki contribue depuis Vila do Corvo (une île paumée au milieu de l’Océan Atlantique), que Starus contribue depuis la République Dominicaine etc…

En tout cas, je trouve la carte très bien faîte (les contributeurs aussi, ne soyez pas jaloux 😉 ) et je tiens à féliciter les programmeurs qui ont travaillés en background).


by gratusfr at March 26, 2017 06:41 PM

March 24, 2017

Darkoneko

Gribouillage 205 : détournons la conversation.


(source) Toujours marrant, les tentatives de déraillement de la conversation dès que l’on touche au sujet.

Bref !

Il y a actuellement une discussion sur ce que l’on aimerait faire de Wikipédia dans un futur proche ; c’est sur Wikipédia:Mouvement Wikimedia/Stratégie 2017, n’hésitez pas à y participer constructivement.

 


Classé dans:actualités, Gribouillage, les coulisses de Wikipédia Tagged: sexisme, xenophobie

by DarkoNeko at March 24, 2017 06:17 AM

March 23, 2017

Gratus

Wikipédia a 16 ans !

Joyeux anniversaire ! Aujourd’hui la Wikipédia francophone souffle sa seizième bougie.

Aujourd’hui, notre chère Wikipédia francophone contient 1 855 296 articles et plus de 18 000 contributeurs actifs.

Afin de fêter cet évènement comme il se doit, la page d’accueil du site fait peau neuve.

Je vous conseille vivement de lire la FAQ écrite pour l’occasion est qui est très instructive, que ce soit concernant l’historique de cette page particulière, les éléments nouveaux ou d’autres points.

Candidatures

Non je ne vais pas vous parler ici de candidats qui souhaitent vivement obtenir l’immunité présidentielle afin de se sortir de situations embarrassantes mais je vais vous parler de nos bonnes vieilles élections Wikipédienne.

Comme d’habitude, le statut d’arbitre provoque autant de candidatures spontanées que de réunions de famille pour se regarder un bon film pornographique à la télévision. C’est à dire pas grand monde 😉 .

Cependant Mathieudu68 est le seul à aimer le porno avoir proposé sa candidature lors des élections collectives qui ont actuellement lieux (voir la page de vote).

Le statut d’administrateur est quand à lui plus populaire. Ainsi C3pO 3Jo7 est actuellement candidat à ce statut (page de vote).

Crédit image : conditions d'utilisation & crédits d'auteurs & source

by gratusfr at March 23, 2017 11:23 AM

March 17, 2017

Wikimédia France

« Pour la connaissance libre 2017 », interpellons les candidats à l’élection présidentielle !

blog_cover_url

Un exemple de l’absence de liberté de panorama en France (photo : Benh LIEU SONG – CC-BY-SA 3.0)

« Pour la connaissance libre 2017 » est une initiative soutenue par un regroupement de collectifs et d’associations œuvrant pour la promotion des Communs informationnels et de la libre diffusion du savoir, notament  Savoirs Com1, OpenStreetMap France, Creative Commons France, Framasoft, la Paillasse, Paléo-EnergétiqueMozilla Vecam et Wikimédia France.

Celle-ci consiste à interpeller, par le biais d’une plateforme, les candidats à l’élection présidentielle en leur posant douze questions, afin qu’ils précisent leur programme sur la libre diffusion de la connaissance. Les thématiques abordées recoupent largement les champs d’interventions de Wikimédia France : diffusion libre de la connaissance, reconnaissance du domaine public, liberté de panorama …
Les réponses seront mises en ligne sur le site au fur et à mesure qu’elles seront retournées par les candidats. Les internautes pourront quant à eux « liker » ou « disliker » ces réponses.

Il est également possible de soutenir d’ores et déjà cette campagne sur les réseaux sociaux, en employant le hashtag #ConnaissanceLibre2017 et en suivant le compte Twitter @PCL2017.

Pour accompagner cette plateforme et mettre l’accent sur la nécessité de protéger les Communs de la connaissance, une exposition est également organisée les 17, 18 et 19 mars dans la galerie “Da Vinci Art” du 2e arrondissement de Paris :

Une exposition inédite, qui présentera des reproductions d’œuvres dont certains veulent interdire la communication au public — à cause de l’absence d’une réelle liberté de panorama ou d’une véritable reconnaissance du domaine public.

Le vernissage a lieu ce vendredi 17 mars à 19 heures.

Ne ratez pas cet événement, et marquez votre soutien à la cause de la connaissance libre en faisant vous-même connaître cette initiative !

TSHIRTMODEDEMPLOI

Des t-shirts seront disponibles à la galerie pendant tout le week-end !

by Nathalie Martin at March 17, 2017 02:23 PM

March 13, 2017

Dereckson

Le guide des badges Phabricator ­— version Wikimedia

Le logiciel Phabricator dispose d’une possibilité d’ajouter sur le profil des utilisateurs de petites icônes reliées à un badge.

Par exemple, la petite icône orange en dessous de mon avatar correspond ici à un badge :

A part of the Maniphest view with an avatar and the associated badged just below

Thibaut se demandait comment acquérir ces badges.

Faisons un petit tour d’horizon des badges disponibles et de comment les obtenir :

A list of the available badges : Phabricator admin, SWAT deployer, bugwrangler, chaos monkey, tea lover, volunteer.

Volunteer

Il permet d’identifier les personnes ayant contribué de manière régulière et significative à la communauté technique de Wikimedia en tant que volontaire.

Pour l’obtenir, une liste de bugs permettant une première approche existe, de même qu’un guide How to become a MediaWiki hacker.

Tea lover

Celui-ci est assez explicite.

Pour l’obtenir, le mieux me semble être de laisser une petite note à twentyafterfour sur IRC comme quoi vous adorez le thé, après par exemple avoir posté sur Commons comme preuve une photo de votre théière ? Il pourra vous attribuer le badge.

Phabricator admin

Ce badge est attribué à toute personne disposant des droits d’administration sur l’ensemble de l’application de Phabricator, c’est-à-dire responsable de gérer les groupes de permissions et de configurer le logiciel à nos besoins.

Il n’y pas de procédure encore déterminée, mais il est possible de s’inspirer de ce guide concernant Bugzilla. Concrètement, être collaborateur WMF ou avoir signé un NDA, disposer de la confiance de la communauté technique et avoir besoin de configurer Phabricator.

Bugwrangler

Ce badge est pour le moment attribué à un poste précis : le bugwrangler, chargé de trier les bugs, d’assurer leur suivi, de ping les bonnes personnes en cas de blocage. Ces dernières années, le bug wrangler est un collaborateur de Wikimedia.

Le poste est décrit sur https://www.mediawiki.org/wiki/Bugwrangler et une offre d’emploi sera publiée lorsqu’il faudra le renouveler. Le badge sera alors à demander à un administrateur de Phabricator.

SWAT deployer

Ce badge est attribué aux personnes disposant d’un accès sur les serveurs Wikimedia permettant le déploiement du code de MediaWiki, des extensions, etc.  et qui font partie de l’équipe SWAT. L’équipe SWAT est chargée grosso modo d’envoyer en production les correctifs de bugs et les mises à jour de configuration.

Ici, une procédure pour rejoindre cette équipe existe, ouverte aussi bien aux collaborateurs de Wikimedia qu’aux volontaires.

Chaos monkey

Ce badge identifie des individus ayant break the production, posé une action qui va rendre une partie significative des sites Wikimedia (ou juste la Wikipédia anglophone) non accessible ou non éditable. Vous savez, les fameuses erreurs 500 qui vous invitait à rejoindre #wikipedia-fr ?

Pour ce voir attribuer ce badge, il convient donc de disposer d’un accès aux serveurs de production d’une part, puis d’avoir cassé d’autre part le site.

Il existait auparavant une liste des personnes ayant reçu un t-shirt pour signifier qu’ils ont cassé Wikipedia et l’ont réparé.

Si l’on compare avec la liste des incidents, il est évident que tant l’ancienne liste historique du t-shirt que la nouvelle liste des badges est de loin incomplète : l’erreur est humaine et malgré les nombreux gardes-fous de notre procédure, le site reste fragile.


D’autres instances Phabricator ont d’autres badges, j’aurai l’occasion d’y revenir ultérieurement.

by Dereckson at March 13, 2017 11:41 AM

March 09, 2017

Wikimédia France

Appel à présentation pour Wikimania 2017 Montréal

La prochaine Wikimania – conférence internationale annuelle rassemblant les personnes contribuant aux projets Wikimedia – aura lieu du 9 au 13 août 2017 à Montréal. Wikimania c’est surtout une occasion unique pour les wikimédiens de se rencontrer, de partager des objectifs communs et de développer une meilleure façon de travailler ensemble. L’appel aux propositions d’interventions est ouvert : que vous soyez membre de la communauté du mouvement Wikimédia, créateur de contenu libre ou simple utilisateur, toutes les présentations sont bienvenues. La francophonie sera à l’honneur cette année ; pour la première fois, il est possible de proposer des interventions en français !

Vue nocturne des immeubles de Montréal.

Vue nocturne de la ville de Montréal, par Paolostefano1412 [CC BY-SA 3.0 ou GFDL], via Wikimedia Commons

Pour soumettre une proposition,
rendez vous sur la page Soumissions et suivez les instructions.

Voici déjà en résumé quelques éléments et informations importantes à savoir avant de vous lancer.
Tout d’abord, votre présentation peut adopter différents formats : conférences magistrales (25 à 55 minutes), panels de 3 à 6 conférenciers (55 minutes), tables rondes, ateliers et tutoriels, brefs exposés (5 min, lightning talks) groupés en sessions thématiques, présentation de posters, sessions « oiseaux de la même plume » (birds of a feather). Pour faciliter l’organisation, il est essentiel de préciser ces renseignements ainsi que tout besoin spécifique.
L’événement est bilingue français-anglais, les deux langues sont bienvenues. Une connaissance minimale de l’anglais est cependant recommandée.
Enfin, attention la date limite le 30 mars 2017 pour les conférences, panels, tables rondes et ateliers.

Plus de détails et d’informations sur la page Soumissions.

by Nicolas Vigneron at March 09, 2017 08:45 AM

February 23, 2017

Wikimédia France

Qui lemme y écrit : voici le Wiktionnaire

N’avez-vous jamais entendu parler du Wiktionnaire ? Ce dictionnaire libre et collaboratif entend se détacher de l’ombre de son grand frère Wikipédia. Découverte avec deux de ses contributeurs actifs, qui évoluent sans mal parmi les mots.

 

Le logo du Wiktionnaire - Smurrayinchester - CC-BY-SA 3.0

Le logo du Wiktionnaire – Smurrayinchester – CC-BY-SA 3.0

Une petite ruelle dont les pavés humides brillent sous la lumière jaune des lampadaires, à deux pas du Sénat. Nous voilà à Mundolingua, musée des langues situé en plein Paris. Nous sommes jeudi 16 février, il est 19 h 20 et une vingtaine de personnes prend place sur les sièges disposés dans la petite salle – richement parée d’affiches, singuliers objets et panneaux dans toutes les langues – qui va accueillir la conférence. Au programme de la soirée, en effet, une conférence de Lucas Lévêque et Noé Gasparini sur le Wiktionnaire : les deux compères sont contributeurs sur le dictionnaire en ligne libre et collaboratif, respectivement sous les pseudonymes Lyokoï et Noé.

Voilà la demie, l’heure de faire silence, d’écouter, de découvrir et d’apprendre. Premier d’une longue liste, un mot tranche dans l’atmosphère presque feutrée du lieu : claquebitou. Ce nom commun, qui désigne un fromage de Bourgogne, permet aux deux Wiktionnaristes de commencer leur exposé. Les chiffres ne tardent pas à défiler : 26 millions (le nombre de pages de l’ensemble des versions linguistiques du Wiktionnaire), 172 (le nombre de ces versions), 3 millions (le nombre de pages en français) ou encore 4000 (le nombre de langues traitées par le wiktionnaire francophone, sur 6000 à 7000 langues existant à travers la planète). Et des précisions bienvenues : le Wiktionnaire, nous explique Noé, est un dictionnaire descriptif et non prescriptif, il ne vise pas à indiquer ce qu’il faut dire ou écrire, mais constate la diversité des usages. « Si un terme est utilisé par cinq personnes, avec le même sens, et que cet usage est attesté dans des sources, il a toute sa place sur le Wiktionnaire. »

 

Lucas et Noé au Mundolingua, musée des langues de Paris

Lucas au Mundolingua, musée des langues de Paris, 0x010C CC-By-SA

Ainsi, le dictionnaire, pour l’essentiel alimenté par un noyau d’une trentaine de contributeurs étançonnés par une centaine d’internautes réguliers, atteint sans presque s’en émouvoir les 330 000 lemmes, quand le Littré, « plus complet des dictionnaires papier », n’en compte que 132 000. Chaque lemme (verbe, adjectif, nom commun…) est ensuite décliné (pluriel, féminin, formes conjuguées, etc.) dans autant de pages. Ce qui contribue à porter le nombre de pages du Wiktionnaire francophone à trois millions. Car celui-ci ne se contente pas de décrire les mots français ; il fournit la définition de nombreux mots dans d’autres langues, de l’anglais au siriono en passant par le klingon – une langue de fiction.


Les définitions ne représentent toutefois qu’une infime partie de chaque entrée du Wiktionnaire, souligne Lucas Lévêque : étymologie, citations (plus de 300 000 !), prononciations (le -s a toute son importance), synonymes, antonymes, traductions… Autant d’éléments à explorer et de manières de contribuer.

21 h 30. La conférence terminée, les questions s’enchaînent de la part du public, souvent curieux, parfois linguiste éclairé, toujours bienveillant. Déjà, la porte de Mundolingua se ferme discrètement et nous goûtons la fraîcheur de la nuit tandis que notre esprit revient sur ses pas examiner une dernière fois la singulière étymologie, exposée plus tôt, de l’incongru hydroprêtre.
À demain peut-être, sur le Wiktionnaire.

by Jules Xénard at February 23, 2017 01:02 PM

February 22, 2017

Linterweb

A mon grand Père à qui je dois cette vitrine et tout le reste ….

Bonsoir, juste pour vous signaler qu’une partie de mon histoire c’est éteinte. Pépé a arrêté de faire la résistance hier soir. Si la France est c’est qu’elle est devenue après et ou pendant la guerre c’est grâce à des inconnus comme mon grand père.
Une France d’en bas qui s’est réappropriée la devise Travail, Famille, Patrie plutôt que de le laisser aux quintes fascisantes de la collaboration.
Si je suis libre de ces propos, c’est grâce à mon grand père qui a lutté contre l’extrémisme et qui tout le temps de sa vie à toujours défendu les intérêts de sa famille, de son travail et de sa patrie sans jamais attendre un homme providentiel.
Il fait parti des grands hommes, des gens qui n’attendaient rien de la société mais qui pensait que la société devait être construite par le fruit de son travail pour sa famille et pour sa patrie.
Et des lors que vous verrez ce message, vous connaîtrez ce qu’un fils de cheminot a été capable de faire suite à la société qu’il pensait bâtir.
Alors patriote, vous qui aimez la France, ne nous faites pas revivre les heures sombres pour lesquels mon grand père et tout les inconnus qu’il représente se sont toujours battu.
Travail Famille Patrie appartiennent au peuple et pas à ceux qui se prétendent du peuple pour être élu.
Alors ce soir j’ai décidé que le web appartenait et ce pour une période indéterminé à mon grand père, ce message sera diffusé dans plus de 1 000 000 de groupes de Facebook, et aux gens qui accèdent aux [archive] de wikipedia. Car mon grand père, ne s’est jamais trompé d’ennemi ou d’ami, il représentait à lui seul la laïcité, solidarité , et le partage.

Pour pépé, pour un monde moins américainisé et moins lepenisé

by Pascal Martin at February 22, 2017 09:40 PM

February 13, 2017

Pierrot le chroniqueur

Trumpisation de Wikipédia : vive les faits alternatifs !

Le petit monde des Wikipédiens est en ébullition. Et je dirais même, très en colère. La cause de ce courroux : le blog Passeur de sciences , de Pierre Barthélémy , un journaliste du quotidien dit de référence en France, Le Monde . Pierre Barthélémy a...

by Pierrot le Chroniqueur at February 13, 2017 04:26 PM

February 07, 2017

Wikimédia France

Les francophones bien représentés lors de WikiIndaba 2017, la rencontre des wikipédiens africains.

Il y a 15 jours se déroulait la deuxième rencontre des wikipédiens africains : WikiIndaba.

Wikiindaba_17_Day_3-63

Les participants de WikiIndaba 2017. Notez le tee-shirt WikiIndaba aux couleurs du Ghana….

Indaba… un terme venant du zoulou et désignant une rencontre destinée à réunir des groupes de taille modérée pour discuter de sujets d’intérêt général, rencontre permettant à chaque participant d’exprimer son avis et d’être acteur et non d’être confiné au rôle de simple spectateur comme souvent lors des conférences.

En 2014 s’est tenu la première WikiIndaba, à Joburg en Afrique du Sud. Une rencontre qui fut aussi une première pour bon nombre de participants, avec une très forte variabilité du niveau de connaissance du mouvement Wikimedia, dans un contexte de quasi-absence de chapters ou user groups sur la totalité du continent africain.

Le paysage a bien changé en ce mois de janvier 2017 alors qu’a eu lieu la deuxième WikiIndaba à Accra, organisée par le UserGroup Ghana avec le soutien de la Wikimedia Foundation.

3 jours de découvertes, d’échanges, d’apprentissage ont réuni 50 participants à Accra dans une atmosphère très amicale et joyeuse. Au menu, retour d’expérience sur de multiples actions, telles que Wiki Loves Africa, JoburgPedia, Wiki Loves Women, les édit-a-thons d’AfroCROWD, les derniers informations sur l’outil de consultation de Wikipedia offline Kiwix, ou le lancement de WikiFundi, plateforme d’édition d’articles Wikipédia hors connexion.
La Wikimedia Foundation n’était pas venue les mains vides… au sens propre comme figuré. Katherine Mayer, la directrice exécutive de la WMF, nous a honoré de sa présence chaleureuse et bienveillante. Zack McCune a pris de nombreuses photos de groupe ou individuelle de très grande qualité. Plusieurs employés de la WMF ont animé des sessions de réflexion (par exemple sur le story telling, les partenariats, la gestion des conflits, l’utilisation des réseaux sociaux etc.) ou d’acquisition de compétences sur WikiData et divers outils, le tout entrecoupé d’ice breaker et d’énergizer qui ont rencontré beaucoup de succès.

French_language_editors_at_Wiki_Indaba_2017

Les participants francophones à WikiIndaba 2017. CC-By-SA-4.0, source et noms disponibles à : File:French language editors at Wiki Indaba 2017.jpg

La conférence proprement dite était agrémentée d’un ensemble assez fourni d’activités « sociales », incluant visites de point d’intérêt touristiques, achat de tissus africains, une soirée karaoké assez épique (sans connexion internet…), un barbecue-networking en musique au Goethe Institute, une soirée plage avec danses et hymnes nationaux a capella etc. activités constituants un puissant ciment entre les participants et espérons le… porteur de fructueuses collaborations à venir.

Les participants francophones étaient fort bien représentés avec des membres venant du Cameroun, de la Côte d’Ivoire, Algérie, Tunisie… mais aussi de façon plus inattendue, d’Afrique du Sud, du Chana ou même des États-Unis. Il reste cependant un bon bout de chemin à parcourir avant que la majorité des pays africains participent pleinement au mouvement Wikimédia.

Voir aussi

by Anthere at February 07, 2017 08:41 AM

February 02, 2017

CHWiki

January 31, 2017

Gratus

VLC, liens et impôts

Non, je ne suis pas (encore) mort 🙂

Je m’excuse pour mon manque d’assuidité ces derniers mois. J’espère cependant me rattraper 😉 Afin de me faire pardonner, je vais vous présenter un dossier sur une affaire débordante de stupidité mais malheureusement bien réelle.

Le web : un ensemble de liens

Qu’est ce le Web ? C’est un contenu présent sur un serveur et consultable par n’importe quel appareil connecté au réseau. Afin de pouvoir consulter une page web, il suffit de taper l’adresse du serveur dans son navigateur.

Par exemple pour se connecter sur fr.wikipedia.org, on peut sois taper l’adresse IP du serveur (xxx.xxx.xxx.xxx:80), soit taper directement l’url (http://fr.wikipedia.org).

On peut donc dire que le net est un ensemble de liens hypertexte.

Avoir du contenu, c’est bien mais le trouver c’est mieux

Vu qu’il est impossible pour un humain de mémoriser l’URL de tous les sites existant sur Internet, des moteurs de recherches (Google, duckduckgo …) utilisent des robots afin d’indexer le contenu et afficher ainsi des résultats aux requêtes des internautes.

Le référencement

Afin de pouvoir « exister » sur le Web, il est nécessaire d’être bien référencé sur les moteurs de recherches. C’est-à-dire apparaître sur la première page voire sur la seconde. Afin d’être bien référencé, il existe plusieurs méthodes :

  • Gratuit
    • Faire des pages web bien structurées, hiérarchisées avec des balises HTML donnant un sens sémantique au texte.
    • Faire des pages avec un temps de chargement correct (résolution des images, taille des codes CSS, JS … à importer)
    • En plaçant des liens redirigeant sur son site (via les réseaux sociaux, forums …)
    • Échange de liens
  • Payant
    • Annonces sur les moteurs de recherches.
    • Échange ou achat de liens afin de promouvoir son site

Quel est le lien avec les impôts ?

Vous allez sûrement me dire que vous ne voyez pas le lien (XD) entre le fonctionnement de base d’Internet et l’affaire VLC/Bercy mais ne vous inquiétez pas ça va venir.

Torrent

What ? Pourquoi ce Gratus se met-il à parler de Torrent maintenant ? Il n’y a aucun lien entre Torrent et VLC non ? En fait si ^^.

Les sites de torrent servent à télécharger du contenu (légalement bien sûr !). Sauf que downloader du contenu est bien, mais le lire est encore mieux.

Ainsi, les trackers Torrent9.biz et Torrent9.me. ont indiqués dans leur page d’aide « pour les fichiers vidéos (.avi .mp4 .mkv, etc.) nous vous conseillons le logiciel VLC (gratuit) disponible cette adresse : www.videolan.org/vlc/« .

Vous ne voyez rien d’anormal ? Non ? Vous êtes sûr ? C’est normal… car vous ne travaillez pas à Bercy.

Rien à déclarer

Logo de VLC
Logo de VLC

VLC a reçu le 23 janvier 2017 une lettre de l’administration fiscale lui imposant de lui communiquer les « coordonnées du client complètes », les « coordonnées bancaires, moyens de paiement du client et date du dernier paiement » ainsi que copie du « contrat de référencement » concernant Torrent9.biz et Torrent9.me.

Le refus de fournir les documents demandés expose VideoLan à une amende de 5 000€.

Devant l’incompréhension de VLC, qui n’a évidemment aucun lien contractuel avec Torrent9, l’administration fiscale a déclaré par téléphone « s’ils ont un lien vers votre site web, c’est que vous les payez : le référencement, ce n’est pas gratuit… »

Et là, si on suit la logique de notre chère administration, je vous laisse imaginer les couilles en or que se fait Wikipédia pour ses articles de qualités 😉

Twitter, quand tu nous tiens…

VLC a donc décidé de rendre publique cette demande et n’hésite pas à annoncer sa mésaventure sur Twitter.

Devant le bad buzz en puissance et afin de désamorcer la situation, @dgfip_officiel s’est rétracté via le tweet suivant :

Je vous invite à lire les commentaires, c’est très instructif.

Circulez ! Il n’y a rien à voir !

Suite à cette affaire et faisant son travail de journalisme, nextinpact.com a demandé quelle était la marge de manœuvre d’une association à qui des copies de documents qui n’existent pas sont demandées. La réponse de l’administration est très étonnante et choquante : « Vous demanderez à votre ami de ne pas contacter les journalistes. C’est fait au titre du droit de communication, je ne vous répondrai pas ».

Conclusion :

  • Journaliste, on sait très bien que si tu ne parle pas de résultats sportifs, de pluies et de beaux temps, de recettes locales, c’est que tes copains se sont plaints à toi.
  • Enfin mon cher journaliste, fait comme nos parlementaires et copie-colle Wikipédia au lieu de chercher des informations. Tu nous dérange !
  • Toi, victime d’accusation de fraude, n’informe pas les journalistes. Un pays censuré est tellement plus sympa… il y a tellement moins de problème quand personne ne se plaint.

— Liens —

— Actualité Wikipédienne —

  • Ouverture du vote de l’élection des stewards 2017.
  • GrandCelinien est admin. Félicitation !
  • Rama s’est vu retiré ses outils admins le 23 janvier suite à des contestations 😦

Important : Au cas où un inspecteur des impôts se promène sur ce billet, je déclare sur l’honneur n’avoir aucun lien commercial avec les organismes cités dans ce billet. Je contribue donc à améliorer le référencement des sites de manière bénévole 😉


by gratusfr at January 31, 2017 06:36 PM

January 26, 2017

Framablog

Hé, en vrai, tu sais comment ça marche, toi, Wikipédia ?

Tout le monde connaît Wikipédia, chacun et chacune a son petit avis dessus, mais sait-on réellement comment cette encyclopédie collaborative fonctionne ?

Il y a 20 ans, lorsque, lors d’une soirée entre ami-e-s, on se posait une question du genre « Mais attends, comment on fait l’aspirine ? » le dialogue était souvent le même :

– Je sais pas, c’est pas avec de l’écorce de saule ?

– Oui mais ça doit être chimique, maintenant, non ?

– Je sais pas, t’as pas une encyclopédie ?

– Si, dans la bibliothèque, mais la raclette est prête.

– Bon, tant pis.

…et on en restait là. Aujourd’hui, on sort un ordiphone, on cherche la réponse sur Wikipédia, et on passe la raclette à se chamailler sur la fiabilité d’une encyclopédie où « tout le monde peut écrire n’importe quoi ».

(au fait, pour l’aspirine, on fait comme ça.)
Par NEUROtikerTravail personnel, Domaine public, Lien

En vrai, avez-vous déjà essayé d’écrire n’importe quoi sur Wikipédia… ? Savons-nous seulement comment ça marche ? Comment les articles sont-ils écrits, modifiés, corrigés, vérifiés, amendés… ?

Ça peut être impressionnant, la première fois qu’on se dit « tiens, et si moi aussi je participais à l’élaboration d’une encyclopédie ? » On peut se sentir un peu perdu·e, pas vraiment légitime, ou tout simplement ne pas savoir par quel bout commencer…

Heureusement, les membres de la communauté Wikipédia et Wikmédia France (l’association des contributeurs et contributrices à la Wikipédia francophone), ont créé un MOOC, un cours ouvert gratuit et en ligne, pour nous faire découvrir les rouages du cinquième site le plus visité au monde, et nous apprendre à nous en emparer.

L’an dernier plus de 6 000 personnes se sont inscrites à ce cours. Fort-e-s de cette expérience, l’équipe rempile pour une deuxième édition, l’occasion pour nous de les interroger et de découvrir ce que proposera ce cours.

 

Bonjour, avant toute chose, est-ce que vous pourriez nous présenter Wikimédia France et vos personnes ?

Jules : Bonjour ! Wikimédia France est une association française à but non-lucratif dont l’objet est « de soutenir en France la diffusion libre de la connaissance, notamment l’encyclopédie Wikipédia. » Il y a souvent des confusions à ce sujet, alors clarifions : Wikipédia est totalement rédigée par des internautes bénévoles, qui s’organisent de manière autonome et déterminent les règles du site. L’association Wikimédia France soutient les contributeurs et l’encyclopédie, mais ne participe pas à la rédaction et n’a aucun pouvoir sur la communauté ; ce n’est d’ailleurs pas la seule association à soutenir l’encyclopédie. Natacha, Alexandre, Valentin et moi-même sommes des contributrices et contributeurs bénévoles de Wikipédia ; nous faisons partie de la douzaine de bénévoles qui conçoivent le WikiMOOC. Je suis par ailleurs salarié de Wikimédia France, qui soutient l’initiative.

Une des missions de Wikimédia France, c’est justement d’inciter qui le veut à contribuer à la Wikipédia francophone… C’est pour cela que vous proposez ce MOOC ? Les cours massivement ouverts et en ligne sont un bon moyen d’inciter aux apports ?

Jules : Oui, les MOOC cumulent plusieurs avantages : bien souvent gratuits, ils sont en ligne et permettent donc de toucher un public plus nombreux qu’avec des formations en présentiel, mais aussi plus diversifié. Le MOOC s’adresse d’ailleurs à toute la francophonie, et près de la moitié des inscrits ne sont pas français.

Alexandre : Le WikiMOOC est effectivement réalisé de manière à donner envie de contribuer. Petit à petit, l’apprenant est guidé vers la rédaction d’un article. Mais il y a des façons très diverses de contribuer : ajouter des sources, des photos, corriger la mise en page, linkifier, améliorer des ébauches d’articles… Une des nouveautés de la deuxième session du WikiMOOC est de présenter des témoignages de contributeurs pour qu’ils racontent ce qu’ils font. Il est aussi plus aisé de contribuer si on ne se sent pas un étranger dans le monde de Wikipédia. Le but du WikiMOOC est aussi de faire mieux connaître ce monde aux apprenant-e-s.

Si je crains que « n’importe qui puisse écrire n’importe quoi dans Wikipédia », ce MOOC me rassurera-t-il ?

Jules : Nous l’espérons, car les choses ne sont pas aussi simples ! L’affirmation initiale, néanmoins, est exacte : n’importe qui peut écrire n’importe quoi sur Wikipédia. Mais le n’importe quoi a de fortes probabilités de ne rester sur Wikipédia qu’une vingtaine de secondes tout au plus. Car il faut étayer toute affirmation par des sources, et des sources de qualité, dont on sait qu’elles sont fiables (pas un obscur blog anonyme, donc). Pour vérifier que cette règle est bien respectée, il y a notamment un groupe de contributrices et contributeurs qui surveillent en temps réel les modifications effectuées sur les 1,8 million d’articles de Wikipédia : on les appelle avec un brin d’humour « les patrouilleurs ». C’est à ce stade que sont annulés la plupart des canulars, « vandalismes » (les dégradations volontaires d’articles) et ajouts d’opinions personnelles (totalement proscrits : on ne donne jamais son avis personnel dans un article). Certaines modifications passent évidemment entre les mailles du filet et ne seront annulées que plusieurs heures ou plusieurs jours après, par d’autres contributeurs – on manque de bras pour tout vérifier !

Finalement, à qui s’adresse ce MOOC ? Aux personnes qui veulent juste en savoir plus ? À celles qui veulent contribuer activement mais ne savent pas comment ?

Valentin : À tout le monde ! On peut effectivement s’inscrire juste pour comprendre comment Wikipédia fonctionne. Mais ce MOOC est surtout un outil permettant en quelques semaines d’assimiler l’essentiel de ce qu’il faut pour contribuer correctement. Nous voulons que de nombreuses personnes s’emparent de cet outil pour désacraliser la contribution à Wikipédia. Tout le monde utilise Wikipédia en tant que consommateur, mais trop peu de personnes viennent contribuer.

Jules : On peut se sentir un peu perdu quand on commence sur Wikipédia, seul⋅e. Le WikiMOOC est justement parfait pour être guidé dans sa découverte de l’encyclopédie, de son fonctionnement et de sa communauté.

Alexandre : Pour moi qui suis aussi universitaire, le WikiMOOC est un fabuleux point d’entrée pour un cours de Wikipédia. J’essaye donc de synchroniser mes cours avec le WikiMOOC ce semestre pour y inscrire mes étudiant-e-s, et j’encourage les collègues à faire de même !

Comme Framasoft, Wikimédia France est une association qui vit du don… Or créer un MOOC coûte cher… Comment avez-vous pu réussir ce tour de force ?

Jules : La création d’un MOOC, pour une université, se compte toujours en dizaines de milliers d’euros. Nous n’en avons dépensé « que » (ça nous paraît énorme, à vrai dire) 7 500 pour la première édition : 2 500 pour la plateforme, FUN, et 5 000 pour la réalisation des vidéos, via une association de vidéastes amateurs, beaucoup moins cher qu’avec un professionnel ! Et moitié moins pour cette seconde édition. Notre force, c’est qu’il y a une douzaine de bénévoles, contributeurs et contributrices francophones, qui bossent sur le projet ; c’est cet investissement bénévole, en temps, qui nous permet de ne pas dépenser trop. Nous réalisons nous-mêmes beaucoup de tâches (créer des visuels, tourner certaines vidéos, concevoir des tutoriels interactifs…) qui dans une université seraient sous-traitées. Nous bénéficions tout de même d’une partie importante de mon temps salarié chez Wikimédia France, même si je m’investis aussi sur du temps bénévole.

Quand il y a une personne face caméra, il y en a souvent plein en coulisses ;)
By English : Credits to Habib M’henni / Wikimedia Commons – Own work, CC BY-SA 4.0, Link

En passant, on lit de l’équipe pédagogique que « Ces trois présentateurs et présentatrices font partie d’une équipe pédagogique plus large, riche de treize wikipédiens et wikipédiennes expérimenté·e·s ». Le langage épicène, qui permet d’éviter la discrimination d’un genre, vous tient à cœur pour la wikipédia francophone ?

Natacha : Le langage épicène (ou langage non sexiste) est un langage inclusif qui tente de ne pas favoriser un genre par rapport à l’autre. Il est utilisé notamment en Suisse et au Québec, surtout dans la fonction publique. Par ailleurs, nous avons un fossé des genres sur Wikipédia – 75 000 articles sur des femmes contre 450 000 biographies d’hommes et moins de 20 % de personnes contribuant sont des femmes – ce qui introduit parfois des biais dans la façon dont les sujets sont traités. La fondation Wikimedia (qui participe au financement de Wikimédia France) en a fait un sujet de priorité depuis qu’un article du New York Times a relevé ce problème en 2011.

Par ailleurs le WikiMOOC cible toute la communauté francophone, et nommer explicitement le genre féminin peut avoir un impact sur la participation des femmes à ce dernier, alors même qu’on cherche à augmenter le nombre de contributrices ce détail peut avoir son importance !

Jules : Natacha a su nous convaincre d’utiliser le langage épicène dans le WikiMOOC ;-). Mais celui-ci n’est pas en usage systématique sur Wikipédia en français, notamment en raison de sa lourdeur visuelle, et car il n’est pas (encore ?) répandu dans les usages. Or Wikipédia a tendance (rien de systématique) à suivre les usages de la langue.

D’ailleurs, on peut parfois ne pas être d’accord avec les choix faits dans les règles que s’impose la communauté Wikipédia (éligibilité des articles, traitement des genres et des personnes trans, application du point de vue…). Quelle est la meilleure manière de faire évoluer ces positions ?

Jules : Le meilleur moyen de faire évoluer les règles de Wikipédia, ou bien les consensus qui ont émergé au coup par coup pour chaque article, c’est de s’investir dans la communauté. On voit souvent des internautes débarquer, parfois très bien intentionnés, mais très maladroits : ils arrivent et veulent tout changer. Or les contributeurs et contributrices sont souvent sur leurs gardes, notamment parce qu’il y a régulièrement des tentatives d’entrisme et de manipulation de Wikipédia à des fins idéologiques et politiques (en faveur d’une personnalité politique par exemple). Ce sont des internautes qui veulent utiliser la notoriété de Wikipédia pour faire et défaire les notoriétés, pour passer leurs idées… alors que ce n’est pas le lieu. Bref, quand on est bien intentionné, il est primordial dans un premier temps de se familiariser avec les règles ainsi que les us et usages relatifs qui guident le déroulement les discussions et les décisions. Cela évite les maladresses, et ça permet de parler le même langage que les autres contributeurs et contributrices bénévoles. Ça instaure une confiance mutuelle.

Wikipédia, c’est une encyclopédie, mais aussi nombre d’autres projets visant à partager le savoir collaborativement… vous en parlerez dans ce MOOC ?

Alexandre : Le mouvement Wikimedia contient de nombreux projets en plus de Wikipédia, comme Wikimedia Commons qui est l’endroit où les fichiers multimédia Wikipédia-compatibles sont déposés. Comment ajouter une photo est une question qui revient souvent donc le sujet est abordé. Au delà, Wikipédia et les projets « sœurs » sont une excellente école pour comprendre les enjeux du copyright et de ses abus, ce que sont les licences Creative Commons et ce qu’elles représentent politiquement. La famille des projets Wikimedia correspond au seul projet libre (libre comme dans libre discours, pas comme dans libre bière :) ) accessible au et connu du grand public. À ce titre, il est une sorte de porte étendard et pour moi, le WikiMOOC a aussi pour vocation de le promouvoir.

Bon c’est bien gentil tout ça, mais ça va me demander quoi de participer à ce MOOC ? Des milliers d’heures de travail ? Un ordi surpuissant dernier cri ? Une connaissance infaillible de la calcification des hydrogénocarbonates ?

Alexandre : le point commun de tous les MOOC, c’est qu’on peut se sentir libre de les aborder à sa manière : regarder seulement les vidéos, faire les exercices ou pas, s’intéresser à une semaine mais pas à l’autre. Dans le WikiMOOC, des mécanismes pédagogiques sont prévus pour inciter les apprenant-e-s à aller le plus en profondeur possible mais tout le monde doit se sentir libre (sauf mes étudiant-e-s qui seront noté-e-s, évidemment !).

Jules : Pour rebondir sur votre question, pas besoin d’ordi surpuissant, un navigateur web à jour suffit amplement. Pour suivre la totalité du cours, il faut compter au moins trois heures de travail par semaine, mais c’est très variable d’une personne à une autre !

Du coup, si je suis convaincu, qu’est-ce que je dois faire pour m’inscrire ?

Valentin : Les inscriptions (gratuites évidemment) ont lieu sur fun-mooc.fr !

Et, comme d’habitude sur le Framablog, on vous laisse le mot de la fin !

Jules : Soyez nombreux et nombreuses à vous inscrire pour aider à donner accès à la connaissance au plus grand nombre !

by framasoft at January 26, 2017 02:22 PM

January 25, 2017

Wikimédia France

Week-end stratégie 2017

Les 14 et 15 janvier 2017 a eu lieu le week-end stratégie à Paris. C’est une étape clef dans l’établissement du prochain plan d’actions de l’association, commencé à l’assemblée générale d’octobre et s’inscrivant dans la continuité de son cycle biennal de planification. L’objectif est que ce plan soit finalisé au mois de mars pour être présenté à l’ensemble du mouvement, notamment à la prochaine Wikiconvention de Berlin et au Comité de dissémination des fonds (FDC). C’est un travail en cours où votre participation et vos retours sont attendus.

2017 Strategic meeting of Wikimedia France.Salariés, référents des groupes et membres du conseil d’administration se sont réunis pour faire le bilan des actions et travailler sur le nouveau plan d’actions. Une trentaine de personnes est venue de toute la France pour participer à cette réflexion collective. Durant les deux dernières années, la structure de l’association a évolué et embauché de nouveaux salariés pour mieux répondre à l’accroissement de l’activité. Les groupes thématiques et les groupes locaux sont également plus nombreux, avec des référents bénévoles chargés de les animer. Ces référents étant particulièrement investis dans la vie de l’association, ils ont naturellement été conviés à cette réflexion au côté du conseil d’administration et de l’équipe salariée.

Proposition d’actions.

Proposition d’actions en cours de tri.

Ce plan d’actions pour les deux ans qui viennent concrétise la stratégie que l’association poursuit depuis plusieurs années pour favoriser le développement des contenus, animer les communautés et soutenir les projets. Nous avons fait appel à Laurent Marseault et Lilian Ricaud, rencontrés via Animacoop pour nous guider dans l’organisation ces deux jours. Ils nous ont aidé à structurer notre réflexion au moyen d’une méthodologie productive et collaborative. Cela nous a permis de faire un bilan qualitatif des actions passées et de nous projeter deux ans dans le futur pour imaginer le résultat auquel nous souhaitons arriver.

Le travail autour de la stratégie a débuté un peu avant l’assemblée générale d’octobre et s’est poursuivi en ligne. Ce week-end en présentiel est une étape importante mais ce n’est pas la fin. Le travail va se poursuivre jusqu’en mars. Chaque proposition d’action doit encore être approfondie, évaluée et planifiée pour constituer le plan d’action définitif qui sera soumis au Comité de dissémination des fonds de la Wikimedia Foundation en avril prochain.

by Nicolas Vigneron at January 25, 2017 03:55 PM

January 19, 2017

Darkoneko

December 21, 2016

Wikimédia France

L’oc-a-thon, un edit-a-thon pour enrichir les projets Wikimedia et Lingua Libre en langue occitane

Affiche_Journées_contributives_Oc-a-thon

L’Oc-a-thon (Oc-a-ton en occitan) a eu lieu les 9 et 10 décembre 2016 au Château d’Este à Billère. Durant deux journées, l’objectif fut d’enrichir les projets Wikimédia et d’enregistrer des sons en langue occitane. Cet évènement fut organisé conjointement par l’Institut Occitan Aquitaine (InOc Aquitaine), Lo Congrès Permanent de la Lenga et Wikimédia France.

La première journée fut dédiée à la présentation des partenaires et des projets Wikimédia. Le public participant a ainsi pu découvrir le fonctionnement de Wikipédia en occitan, de Wikimédia Commons (la médiathèque de Wikipédia), du Wiktionnaire et de Lingua Libre (enregistrement de sons). En fin de journée, une convention de partenariat a été signée entre l’InOc, Lo Congrès et Wikimedia France.

La deuxième journée fut introduite par un administrateur de la Wikipédia en langue occitane et les participants ont pu enrichir les projets Wikimédia durant plusieurs heures. Une salle était également réservée à l’enregistrement de sons avec Lingua Libre.

Cet événement a permis de former les acteurs institutionnels de l’occitan à l’usage de Wikipédia et de les sensibiliser aux projets Wikimédia ainsi que de créer des ponts et des contacts avec les différents contributeurs des projets en langue occitane assurant ainsi une continuité au développement des projets de Wikimédiens en langue occitane.  Trois thématiques de contribution ont été retenues pour ces deux journées collaboratives :

  • la musique
  • la danse
  • la fête

Deux pages de coordination du projet avaient été créées en amont sur Wikipédia en français et en occitan consultables respectivement ici : https://fr.wikipedia.org/wiki/Projet:Oc-a-thon et là : https://oc.wikipedia.org/wiki/Proj%C3%A8cte:Oc-a-ton.

Au total, ce sont plus de 800 sons (expressions) qui ont été enregistrés avec Lingua Libre et 127 articles créés et enrichis sur Wikipédia et les différents projets (Wiktionnaire, Wikimédia Commons).

Promouvoir le partage de la connaissance en France, sur tous sujets, ne peut se réduire au français. Ce serait faire l’impasse sur une part importante de notre patrimoine culturel immatériel : les langues de France. Ce partenariat avec l’InOc Aquitaine et Lo Congrès doit pérenniser l’accroissement de contenu en occitan ou à propos de la langue occitane sur les projets Wikimedia, par la formation de ces professionnels de la langue à nos projets mais aussi par la rencontre, réelle ou virtuelle, des bénévoles qui contribuent en occitan avec ces institutions, afin que des collaborations fructueuses puissent émerger.

Emeric Vallespi, Président de Wikimédia France

Découvrez le reportage de France3 Aquitaine sur ce week-end dédié à la contribution en occitan.

by Mathieu Denel at December 21, 2016 03:22 PM

December 15, 2016

Wikimédia France

Un (nouveau) MOOC pour contribuer sur Wikipédia

Pour la deuxième année consécutive, des contributeurs et contributrices bénévoles de l’encyclopédie Wikipédia, soutenus par l’association Wikimédia France, créent un cours en ligne gratuit et ouvert à tous pour apprendre à contribuer à Wikipédia : le WikiMOOC. Le cours commencera le 6 mars 2017 et il est d’ores et déjà possible de s’inscrire via la plateforme France université numérique.

Le WikiMOOC est un MOOC (massive open online course) qui comprend des vidéos, des tutoriels interactifs et des quizs. Il se déroule en six semaines et met l’accent sur les interactions entre les apprenants avec l’équipe pédagogique, par le biais de forums. Au cours du MOOC, les internautes découvrent les règles fondamentales de l’encyclopédie, apprennent à modifier les articles et se familiarisent avec la communauté bénévole et son fonctionnement. Chaque apprenant est enfin amené à créer son premier article.

La première édition du WikiMOOC s’est déroulée de février à mars 2016 et a rassemblé plus de 6 000 inscrits, dont 2 000 participants actifs. Comme la première édition, le WikiMOOC² est hébergé sur France université numérique (FUN), la plateforme du ministère de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche et des universités françaises.

by Jules Xénard at December 15, 2016 03:47 PM

December 13, 2016

Wikimédia France

Wikimédia se joint à La Quadrature contre la taxe Google image

logo_laquadrature-net_titre_carre_grand_cadreLa Quadrature du net vient d’envoyer un texte d’observations à la Commission européenne, qui étudie le dispositif, voté dans la loi création, instituant une taxe sur les images indexées sur internet et que vous pouvez retrouver ici.

Nous partageons pleinement l’analyse développée dans ce texte. La taxe Google image est une violation du droit des auteurs, qui ont volontairement choisi de mettre leurs images en libre accès, par le biais de licence creative commons.

Ce texte est une première étape. Si la Commission européenne ne tue pas dans l’oeuf, avant sa mise en oeuvre, ce dispositif, nous continuerons le combat en l’attaquant devant la justice, française et européenne, en compagnie de toutes les associations concernées.

Nous appelons toutes les organisations et les créateurs qui refusent que les licences libres soient ainsi piétinées à s’associer à cette démarche et à diffuser ce texte, pour montrer à la Commission européenne qu’il est porté par un mouvement qui ne se résume pas à la Quadrature du Net et à Wikimédia France.

by Nathalie Martin at December 13, 2016 01:39 PM

December 06, 2016

Wikimédia France

Top départ pour Wiki Loves Africa 2016 !

La troisième édition du concours Wiki Loves Africa vient de commencer !

Du 1er décembre 2016 au 31 janvier 2017, l’Afrique est à l’honneur sur les projets Wikimédia : le concours photographique Wiki Loves Africa entre dans sa troisième édition avec un thème inédit : “Danse et Musique”.

Qu’est ce que Wiki Loves Africa ?

Wiki Loves Africa est un concours photographique qui propose chaque année un thème différent, avec pour objectif de couvrir un aspect universel, visuellement riche et spécifique de la culture des pays d’Afrique. Chacun est invité à fournir photos, vidéos ou enregistrements audios au projet Wikimedia Commons, pour en faciliter l’usage et l’accessibilité sur Wikipédia ou sur les autres sites de la Wikimedia Foundation.

 

Les photographies gagnantes seront récompensées par les prix suivants :

  • 1er prix : US$600
  • 2e prix : US$400
  • 3e prix : US$200
  • Prix de la communauté : US$200
  • Et le prix Awesome : US$400

Chaque gagnant recevra également une souscription d’un an à Adobe Creative Cloud Photography Plan, ainsi qu’une batterie externe (brandée Wiki Loves Women :))

Les 1er, 2e et 3e prix seront sélectionnés par un jury international de Wikipédiens et des photographes professionnels. Le prix de la communauté est choisi parmi les pré-sélections du jury par les wikipédiens. Le Prix Awesome sera attribué pour une contribution majeure et exceptionnelle et sera choisi par les deux organisatrices.

Les_Amazones_d'Afrique_-_Festival_du_Bout_du_Monde_2016_-_069 Les_Amazones_d'Afrique_-_Festival_du_Bout_du_Monde_2016_-_053 Les_Amazones_d'Afrique_-_Festival_du_Bout_du_Monde_2016_-_010 Opobo_Woman Abissa_2016 Théâtre_tunisien Zokra Music_and_dance L'orchestre_Symphonique_Tunisien

Les Amazones d’Afrique en concert sur la scène Landaoudec lors du festival du Bout du Monde 2016 à Crozon dans le Finistère (France). Auteur : Thesupermat. CC-BY-SA.
Opobo Woman in full regalia during wrapper tying ceremony. Auteur : Goge Africa. CC-BY-SA.
Des femmes dansant à l’Abissa 2016, à Grand-Bassam. Auteur : Michaelli16. CC-BY-SA.
Théâtre tunisien. Mohamed daroizi. CC-BY-SA.
Zokra : instrument musical à vent. IssamBarhoumi CC-BY-SA.
Image of Zimbabwean musician Jah prayzer performing during the Shoko Festival in Harare. Image by Darius Mutamba. CC-BY-SA.
L’orchestre Symphoniaque Tunisien au Festival International de Dougga. Auteur :Afek91. CC-BY-SA.

 

Une troisième édition prometteuse

Depuis 2014, le concours a apporté plus de 13 624 photos à Wikimedia Commons pour une utilisation potentielle sur Wikipédia. La première année, à travers le thème de la cuisine, 873 personnes ont apporté 6 116 photos. Tenues et parures traditionnelles fut le thème de l’année 2015 qui a vu 722 personnes participer et plus de 7 500 photos ajoutées.
Les deux dernières années, le concours a essentiellement permis de collecter des photographies. La danse et la musique sont non seulement des thèmes très visuels, mais également parfaitement adaptés à des contributions visuelles et sonores. Nous espérons d’avantage de contributions audio et vidéos cette année. D’ailleurs… pour fêter la diversité des musiques traditionnelles et plus contemporaines de chaque pays participant à Wiki Loves Africa, l’équipe organisatrice invite aussi aux musiciens à publier ou ‘faire don’ d’un morceau de musique sous la licence CC-BY-SA afin de constituer une Wiki Loves Africa Playlist. Pour la réalisation de la Playlist, l’équipe Wiki Loves Africa est heureuse d’annoncer son association avec des organismes liés à la musique et aux arts tels que Music in Africa et les Instituts Goethe de plusieurs pays.

 

Rééquilibrer un fossé de contenus et de contributeurs entre Nord et Sud

Il existe sur Wikipédia et ses projets-frères un fossé entre pays dits du “Nord” et ceux du “Sud” tant au niveau des contributeurs habitant les pays d’Afrique, qu’au niveau des contenus disponibles à propos de ces pays. Le concours Wiki Loves Africa cherche à sensibiliser à cet écart problématique et à recruter de nouveaux contributeurs localement.

Au-delà du concours photo, 10 pays d’Afrique francophone et anglophone accueilleront des événements visant à promouvoir la contribution aux projets Wikimédia depuis l’Afrique. Suivez leur actualité sur la page évènement de Wiki Loves Africa.

 

Comment rejoindre le concours Wiki Loves Africa en 4 étapes ?

  • Étape 1 : Prendre des photos.
  • Étape 2 : Sélectionner les meilleures.
  • Étape 3 : Créer un compte sur Wikimedia Commons
  • Étape 4 : Utiliser l’outil de téléversement pour entrer vos photos.

Le concours est ouvert à toutes et à tous, amateurs comme professionnels, africains ou pas (même si nous faisons essentiellement la promotion du concours en Afrique). Pour les débutants, n’hésitez pas à faire usage du guide du participant débutant publié en 2015 par l’association Wikimédia France en collaboration avec Wiki Loves Africa.

 

Retrouvez plus d’informations  Commons et dans le communiqué de presse de lancement.

Suivez nous  sur Facebook et Twitter !

by Anthere at December 06, 2016 11:32 AM

November 29, 2016

Wikimédia France

Soutenir Wikimédia France

Comme chaque année, à la même période, Wikimédia France fait appel à la générosité du public pour financer une partie de son activité.

Cette période réveille toujours les mêmes questions :

– quelles différences entre Wikimédia et Wikipédia ?

– quelles différences entre Wikimédia France et Wikimedia Foundation ?

Pour prendre les devants, Émeric Vallespi (Président) et Nathalie Martin (Directrice exécutive) ont décidé d’amorcer la campagne de levée de fonds, dans une courte vidéo explicative.
Bon visionnage et n’oubliez pas de soutenir Wikimédia France.

 

On a besoin de vous !

 

by Sarrah Krichen at November 29, 2016 03:46 PM

November 25, 2016

Wikimédia France

Les gagnants de Wiki Loves Monuments 2016 !

Le choix a été difficile et a pris plus de temps que prévu mais voici finalement les 10 gagnants de Wiki Loves Monuments de l’édition 2016.

Merci encore à tous les participants ainsi qu’aux membres du jury et rendez-vous le 6 décembre à partir de 20 heures pour la remise officielle des prix au musée de Cluny.

1er : palais de justice d’Aix-en-Provence par Ddeveze

2e : crypte de la basilique Saint-Eutrope de Saintes par JGS25

3e : piles creuses du pont de la citadelle du Château-d’Oléron par Simon de l’Ouest

4e : Moulin à eau du hameau de la Reine, Versailles, par Jacky Delville

5e : Menhir d’Aire-Peyronne par Michael Niessen

6e : cale couverte du canal du Midi à Toulouse par MathieuMD

7e : chambre de Léonard de Vinci par Château du Clos Lucé

8e : pont du Gard par Clown522

9e : cité de Carcassonne par Meria Geoian

10e : beffroi d’Arras par Acd1066

Vous pouvez voir les gagnants des éditions dans les autres pays sur cette page.

by Nicolas Vigneron at November 25, 2016 09:32 AM

November 24, 2016

Wikimédia France

Benvinguda Lingua Libre !

Après plusieurs mois de travail et grâce à l’implication sans faille des membres et bénévoles, l’outil Lingua Libre est entré dans une phase de test avec les premières sessions d’enregistrements qui se sont déroulées dans les locaux de Wikimedia France.

Session d'enregistrement LinguaLibre le 9 novembre 2016 à Paris.

Session d’enregistrement LinguaLibre le 9 novembre 2016.

Face aux difficultés rencontrées par les locuteurs de langues minoritaires pour contribuer sur Wikipedia, Lingua Libre vise à proposer aujourd’hui et demain une nouvelle porte d’entrée vers le mouvement Wikimedia. Ainsi, bien que Lingua Libre ait d’abord été pensé pour encourager la participation de ces locuteurs, en réalité, il permet la contribution de toutes et tous et dans n’importe quelle langue ou dialecte.

Depuis la Wikiconvention francophone d’août dernier, plusieurs séances de travail ont permis d’aboutir aujourd’hui à la mise en ligne d’un système d’enregistrement simple et rapide permettant à chacun de participer à une grande collecte de sons à destination des projets.

Présentation de Lingua Libre à la Ubuntu party samedi 12 novembre

Présentation de Lingua Libre à la Ubuntu party samedi 12 novembre

Depuis lors, des séances de tests d’enregistrements sont effectués régulièrement. Une présentation de l’outil a eu lieu lors de la dernière Ubuntu Party. L’objectif est de tester le système avant les prochaines échéances.

En effet, le 9 et 10 décembre prochain, un premier edit-a-thon en occitan se tiendra à Pau en partenariat avec Lo Congrès et l’In’Oc Aquitaine, des partenaires incontournables dans le développement de Lingua Libre. Ainsi, des séances d’enregistrements se tiendront sur les deux jours. Le 17 décembre, c’est à Strasbourg que se tiendra une nouvelle séance Lingua Libre avec un groupe de locuteurs alsaciens.

Cependant, tout n’est pas terminé. Certaines étapes importantes doivent encore être franchies. Tout d’abord le versement de l’outil sur Tool Labs et le développement du système de versement et de catégorisation sur Commons et puis bien sûr la traduction de l’interface de manière à diffuser l’utilisation de Lingua Libre.
Pour finaliser le projet et aider à son développement futur n’hésitez pas à vous inscrire à la prochaine réunion sur la page projet Lingua Libre

by Rémy Gerbet at November 24, 2016 09:58 AM

October 31, 2016

Ash Crow

Bon anniversaire, Wikidata !

Wikidata a quatre ans aujourd’hui, et il me semble que c’est le bon moment pour faire un petit retour sur mon expérience avec ce projet[1]Et puis, Auregann m’a demandé de le faire ;)..

Wikidata est un projet qui m’intéresse vivement depuis bien longtemps avant sa création effective. Si j’avais lu le nom ici et là sur le bistro de Wikipédia depuis que j’ai commencé à contribuer en 2005, la première fois qu’il a retenu mon attention, pour autant que je m’en souvienne, est cette discussion  en novembre 2006[2]Au passage, en cherchant à la retrouver, je suis tombé sur la plus ancienne mention de Wikidata que j’aie vu sur la Wikipédia en français, qui remonte quand même à août 2004! : un dépôt commun pour les données, fonctionnant de la même façon que Commons, c’était exactement ce qui manquait à Wikipédia !

Et je n’étais apparemment pas le seul à avoir cet avis : c’était à l’époque l’opinion générale sur le bistro. Un autre avantage qui y était mentionné à l’époque, c’était que cela pourrait remplacer avantageusement le système de catégories foireux de l’époque (enfin… l’actuel quoi.) Une fonctionnalité que je suis toujours impatient de voir arriver.

Avec le temps, je suis devenu de plus en plus impliqué dans la communauté, et pour finir j’ai sauté dans le wiki-train pour Gdańsk en 2010 pour participer à ma première Wikimania.

1280px-wiki-train_poznan_dinner
*Record scratch* Yup, that’s me. You’re probably wondering how I ended up in this situation.

Là, l’une des présentations dont je me souviens le plus[3]Enfin à part celles avec de l’alcool. était celle d’un système centralisé pour la gestion des liens interwiki. Cette présentation ne faisait à l’époque aucune mention d’autre (méta-)données que les interwikis et éventuellement des libellés lisibles dans plusieurs langues, et ne parlait pas du tout de Wikidata. Pourtant, ces deux choses sont ce qui est devenu la « phase l » du développement de Wikidata le 29 octobre 2012. Quand j’ai commencé à y contribuer, le 17 décembre de la même année, le projet était encore naissant et ne permettait toujours de faire que ces deux choses : gérer les interwikis de Wikipédia, et mettre des libellés. C’est donc ce que j’ai fait : J’ai créé un nouvel élément, lui ai donné une paire de libellés et ait déplacé les liens externes depuis Wikipédia.

capture-du-2016-10-28-01-26-15
Ta-da !

Je me suis arrêté là à l’époque. Il n’y avait alors aucun moyen d’ajouter des déclarations plus utiles, et n’ayant pas la passion de la gestion des interwikis, j’ai laissé cette tâche aux robots et à leurs dresseurs. Pendant longtemps après ça, j’ai simplement fait des modifications par-ci par-là, mais sans m’atteler à un gros projet. J’avais cependant envie de passer au cran supérieur, et je me suis donc demandé à quoi m’atteler… En 2006 ou 2007, j’avais refait entièrement la liste des empereurs du Japon sur Wikipédia, et je me suis dit que ça pourrait être une bonne idée d’avoir les mêmes données de base (c’est-à-dire noms, dates de naissance/règne/mort, lieux de naissance et de mort, etc.) sur Wikidata également.

À l’époque, j’utilisais très peu d’outils ou de gadgets, et ça a donc été assez long et fastidieux (et sans l’outil missingprops.js de Magnus[4]Personnalisé pour mes besoins, ça l’aurait été encore plus), mais j’ai fini par en voir le bout.

capture-du-2016-10-28-21-33-36

Mon pic d’activité suivant a eu lieu quelques temps plus tard, quand j’ai décidé de créer chaque corps céleste de l’univers de Serenity/Firefly[5]Oui, pour info, je suis un Browncoat.. Le faire uniquement avec l’interface de Wikidata aurait relevé de la folie pure, et j’ai donc utilisé un autre outil de Magnus : QuickStatements. Si vous vous en êtes déjà servi, vous savez qu’une simple textarea où coller un blob de tab separated values n’est pas l’interface la plus pratique du monde… Du coup, j’ai décidé à l’époque de créer un outil moi-même pour résoudre le problème  : un  convertisseur CSV vers QuickStatements convertor qui permet de travailler avec un tableur organisé de façon plus traditionnelle.

Après ça, parmi d’autres choses, j’ai décidé d’importer tous les épisodes d’xkcd, et également aidé Harmonia Amanda dans son travail avec les courses de chiens de traîneaux puis les écoles d’art dramatique. Cela m’a incité à me plonger plus avant dans Python et écrire des scripts pour récupérer et traiter les données.

I know you all are xkcd fans.
Je sais que vous êtes tous fans d’xkcd.

 

Dans l’intervalle, j’ai également suivi la première édition du MOOC d’Inria sur le web sémantique, durant lequel j’ai appris plein de choses, et en particulier le langage SPARQL. Et là, c’est vraiment parti en roue libre : quand le point d’accès SPARQL pour Wikidata a été mis à disposition, j’ai écrit un billet ici à ce sujet. Des gens ont commencé à me poser des questions dessus, ou à me demander d’écrire des requêtes pour eux, et cet article est devenu le premier d’une longue série qui continue encore avec les #SundayQuery.

En résumé, en quatre ans :

  • J’ai commencé à coder des outils et les mettre à disposition de la communauté
  • J’ai écrit des scripts d’extraction et conversion de données en Python
  • J’ai beaucoup appris sur le web sémantique
  • Je suis devenu un ninja du SPARQL.

Et tout ça à cause de Wikidata. Et j’espère bien que ça va continuer sur cette lancée !

Image d’en-tête: Wikidata Birthday Cake par Jason Krüger (CC-BY-SA 4.0)

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Notes   [ + ]

1. Et puis, Auregann m’a demandé de le faire ;).
2. Au passage, en cherchant à la retrouver, je suis tombé sur la plus ancienne mention de Wikidata que j’aie vu sur la Wikipédia en français, qui remonte quand même à août 2004!
3. Enfin à part celles avec de l’alcool.
4. Personnalisé pour mes besoins
5. Oui, pour info, je suis un Browncoat.

Cet article Bon anniversaire, Wikidata ! est apparu en premier sur The Ash Tree.

by Ash_Crow at October 31, 2016 12:49 PM

October 29, 2016

Gratus

Wikipédia terroriste

Wikipédia est monté d’un cran puisqu’elle ne se contente plus de relater en direct les actes de terrorismes  mais elle espère en provoquer… si on en crois Orange.

Capture d'écran site de redirection du ministère de l'interieur.
Drôle de surprise !!

Le fournisseur d’accès à Internet a en effet redirigé ses abonnés qui visitaient Wikipédia, Google ou OVH vers le site du ministère de l’intérieur le 17 octobre entre 9h30 et 11h30.

En classant le premier et le cinquième site le plus visité en France comme site faisant publiquement l’apologie d’actes de terrorisme, Orange a fait une belle boulette.

D’ailleurs en parlant de boulette, ça me rapelle quelque chose, mais quoi ?

orange

Il semble que les stagiaires d’Orange qui s’occupent de la communication et de la maintenance technique vont passer un mauvais moment 🙂

 


by gratusfr at October 29, 2016 06:08 AM

October 14, 2016

Wikimédia France

7 500 clichés de monuments français pour Wiki Loves Monuments 2016

Reflet du château de Vaux-le-Vicomte sur le miroir d'eau à l'aube (Jcvaux BY-SA 4.0)

Reflet du château de Vaux-le-Vicomte sur le miroir d’eau à l’aube (Jcvaux, CC BY-SA 4.0)

Discrètement mais sûrement, la sixième édition 2016 du concours Wiki Loves Monuments suit son cours : la période de soumission des photographies s’est terminée le 30 septembre. Tout au long du mois, plus 7 500 clichés de monuments historiques français ont été importés par 302 participants sur Wikimedia Commons, la médiathèque de fichiers sous licence libre qui alimente notamment Wikipédia. Au cours des six dernières éditions du concours, pas moins de 109 268 photographies de monuments français ont été récoltées. Au-delà de la France, une quarantaine de pays participent au concours, ce qui s’est traduit cette année par l’apport de plus de 268 000 photos sur Wikimedia Commons (voir plus de statistiques).

L’échéance de la période de soumission des photographies ouvre désormais la voie à une étape tout aussi importante : la sélection des meilleures images par les jurys nationaux. Pour Wiki Loves Monuments France, les cinq jurés, photographes amateurs ou professionnels et contributeurs aux projets Wikimédia, auront recours à pas moins de trois phases de sélection pour départager les 7 500 images en lice, d’ici fin octobre. L’objectif ? N’en garder que dix, classées par ordre de préférence, qui apporteront à leurs auteurs la reconnaissance de leur travail bénévole et de leur talent. Chacun d’entre eux se verra également décerner un prix, ainsi qu’un tirage d’art de leur cliché pour les trois premiers.

Rendez-vous, donc, en novembre, pour l’annonce des résultats. Suivra, le 6 décembre, la soirée de remise officielle des prix, au musée de Cluny à Paris.

by Jules Xénard at October 14, 2016 02:10 PM

October 11, 2016

Wikimédia France

Se former à Wikidata

WP-WD

Infobox Wikipédia mise en forme à gauche et données brutes Wikidata à droite (copies d’écran de Wikipédia en CC-BY-SA et de Wikidata CC-0 GPLv2+, montage CC-BY par VIGNERON).

Wikidata est une base de connaissances. C’est un projet frère de Wikipédia, développé par Wikimedia Deutschland et hébergé par la Wikimedia Foundation. Wikidata stocke des informations structurées, sourcées et réutilisables par l’ensemble des projets Wikimedia. Lorsqu’une information évolue, elle peut être reportée automatiquement sur l’ensemble des projets Wikimedia. Par exemple, lors de la mise à jour annuelle de la population d’une commune, l’information peut être mise à jour dans Wikidata et reportée automatiquement sur l’ensemble des Wikipédias utilisant cette information.
Autre exemple de l’avantage de ce dépôt centralisé : Wikidata stocke les liens interwikis des projets Wikimedia. Auparavant, lorsque l’on changeait le nom d’une page Wikipédia, il était nécessaire de reporter ce changement manuellement sur toutes les autres versions linguistiques de Wikipédia et tous les projets Wikimedia. Aujourd’hui, le changement se fait à un seul endroit, avec une interface adaptée.
La traduction des articles est également simplifiée : un lien dans une langue est facilement identifiable dans une autre langue. Quand vous traduisez un article avec l’outil de traduction, vous gagnez en fluidité. Quand vous modifiez un article pour y insérer un lien vers un autre article, vous avez aujourd’hui une courte description illustrée issue de Wikidata vous permettant de faire le meilleur choix.
Wikidata est un projet encore jeune : il fêtera ses 4 ans en octobre prochain. Toutefois, si l’on regarde le nombre croissant d’ateliers Wikidata organisés chaque année dans la francophonie, l’intérêt pour ce projet se développe régulièrement. Le besoin de formation est donc réel, comme l’a montré l’atelier de formation à Wikidata lors de la Wikiconvention francophone et la série d’ateliers Wikidata organisés depuis l’automne dernier à Paris et cet été à Rennes. Tout d’abord, ces ateliers sont un succès certain — une trentaine de participant-e-s lors de la Wikiconvention (dont de nombreux nouveaux contributeurs – nouvelles contributrices), une quarantaine lors de l’atelier organisé à l’université Paris-Sud, une douzaine au total lors des ateliers rennais — et durable — les trois quarts des participant-e-s aux ateliers rennais ont pris part à au moins deux ateliers. Ensuite, ils permettent aux contributeurs – contributrices, expérimenté-e-s ou non sur d’autres projets Wikimedia, d’appréhender Wikidata et d’être autonomes dans son utilisation. Enfin, ils sont un vecteur d’émulation, comme en témoignent les outils de contribution et de visualisation créés lors de ces ateliers.
201608 WikiConvention Paris

Contributeurs pendant l’atelier Wikidata de la Wikiconvention (Ziko van Dijk, CC BY-SA 4.0).

Si vous n’avez pas eu l’occasion de participer à un de ces ateliers, il est encore temps d’apprendre ! Par exemple, vous pouvez :
Wikidata étant un projet transverse à tous les projets Wikimedia, vous pouvez également trouver de l’aide sur chaque projet, par exemple sur le projet Wikidata sur Wikipédia ou dans la page d’aide sur Wikisource.

 

 Auteurs : Envel Le Hir, Trizek, Nicolas Vigneron

 

by Envel Le Hir at October 11, 2016 08:46 AM

October 09, 2016

Ash Crow

Sunday Query : où meurent les Bretons ?

Cette #SundayQuery part d’une question de @belett sur Twitter : comment afficher des points de différentes couleurs sur une carte générée sur le point d’accès SPARQL de Wikidata ?

Première requête

En l’occurrence, il cherchait à afficher le lieu de mort des personnes nées à Rennes ou à Brest, avec une couleur différente selon leur lieu de naissance. À ma connaissance, on ne peut pas spécifier directement la couleur des points d’une carte avec un paramètre ?rgb comme on peut le faire avec un graphe. En revanche, si la requête comporte un paramètre ?layer, la carte l’utilisera pour gérer des couches avec des points de couleurs différentes et, encore mieux, qu’on peut afficher et masquer à volonté.

Voici donc ma première réponse, en donnant à mes couches le nom de la ville via la fonction BIND, qui permet de définir à la main le contenu d’une variable :

#defaultView:Map
SELECT ?coord ?layer WHERE {
  {
    ?item wdt:P31 wd:Q5 ; # On cherche, pour des êtres humains
          wdt:P19 wd:Q647 ; # nés à Rennes
          wdt:P20 ?place . # leur lieu de décès
    ?place wdt:P625 ?coord . # enfin ses oordonnées
    BIND("Rennes" AS ?layer) . # On met manuellement "Rennes" comme valeur de ?layer
  } UNION {
    ?item wdt:P31 wd:Q5 ;  # Idem avec Brest
          wdt:P19 wd:Q12193 ;
          wdt:P20 ?place .
    ?place wdt:P625 ?coord .
    BIND("Brest" AS ?layer) .
  }

  SERVICE wikibase:label { bd:serviceParam wikibase:language "en" . }
}

http://tinyurl.com/jyzaa9o

Carte d'Europe, avec des points surtouts concentrés sur l'Ouest de la France
Carte avec deux couches, une pour Rennes et une pour Brest, et montrant le sélecteur.

Avec VALUES

Mais je ne suis pas fan des UNION quand je peux les éviter, ou de mettre le nom des ?layer à la main avec un BIND : tout ça est so SPARQL 1.0 ! Heureusement, SPARQL 1.1 apporte un mot-clef pratique pour définir une liste de valeurs autorisées pour une variable[1]Ou plusieurs d’ailleurs. : VALUES. Voici la requête améliorée pour l’utiliser, et au passage chercher les gens nés à Nantes, tant qu’à y être :

#defaultView:Map
SELECT ?item ?itemLabel ?placeOfBirth ?placeOfBirthLabel ?placeOfDeath ?placeOfDeathLabel ?image ?coord ?layer  WHERE {
  ?item wdt:P31 wd:Q5 ; # On cherche des êtres humains
        wdt:P19 ?placeOfBirth ; # Leur lieu de naissance
        wdt:P20 ?placeOfDeath . # Leur lieu de décès
  ?placeOfDeath wdt:P625 ?coord . # les coordonnées de celui-ci
  
  VALUES ?placeOfBirth { # Si le lieu de naissance est dans cette liste :
    wd:Q647    # Rennes
    wd:Q12193  # Brest
    wd:Q12191  # Nantes
  }
  
  ?placeOfBirth rdfs:label ?layer . # On définit un calque par lieu de naissance
  FILTER(LANG(?layer) = "fr") .  # en ne gardant que les noms de lieu de naissance en français
  
  OPTIONAL { ?item wdt:P18 ?image . } # S'il y a une image, on l'affiche
  
  SERVICE wikibase:label { bd:serviceParam wikibase:language "fr,en" . }
}

http://tinyurl.com/zgr6lle

Carte d'Europe, avec des points surtouts concentrés sur l'Ouest de la France
Les points de Rennes et Brest sont toujours là, Nantes est venue s’y rajouter

J’en ai profité pour ajouter l’image si elle existe, qu’on voit en cliquant sur un point.

Dans toute la Bretagne

Mais pourquoi s’arrêter à quelques villes ? Autant y aller carrément avec toutes les personnes nées en Bretagne, par lieu de naissance.

#defaultView:Map
SELECT ?item ?itemLabel ?placeOfBirth ?placeOfBirthLabel ?placeOfDeath ?placeOfDeathLabel ?image ?coord ?layer WHERE {
  ?item wdt:P31 wd:Q5 ; # On cherche des êtres humains
        wdt:P19 ?placeOfBirth ; # Leur lieu de naissance
        wdt:P20 ?placeOfDeath . # Leur lieu de décès
  ?placeOfDeath wdt:P625 ?coord . # les coordonnées de celui-ci
  
  ?placeOfBirth (wdt:P131|wdt:P706|wdt:P276)* wd:Q12130 . # nés dans un lieu situé en Bretagne administrative
  
  ?placeOfBirth rdfs:label ?layer . # On définit un calque par lieu de naissance
  FILTER(LANG(?layer) = "fr") . # en ne gardant que les noms de lieu de naissance en français
  
  OPTIONAL { ?item wdt:P18 ?image . } # S'il y a une image, on l'affiche
  
  SERVICE wikibase:label { bd:serviceParam wikibase:language "fr,en" . }
}

http://tinyurl.com/zx7rww7

Il suffit de remplacer la liste de valeurs autorisées par la propriété disant que le lieu est situé en Bretagne[2]Administrative sur cette requête.… Seulement, suivant les éléments, plusieurs propriétés peuvent être utilisées : localisation administrative (P131), localisation géographique (P706), ou tout simplement lieu (P276)… Heureusement, SPARQL permet d’interroger toutes ces propriétés à la fois, en les séparant par des « | ». Les parenthèses sont optionnelles, on aurait aussi bien pu écrire  

?placeOfBirth wdt:P131*|wdt:P706*|wdt:P276* wd:Q12130 .
  qui donne les mêmes résultats. Notez au passage qu’il faut alors mettre l’étoile au niveau de chaque propriété. Cette étoile sert à dire qu’il faut si besoin remonter plusieurs niveaux de résultats jusqu’à atterrir sur Q12130.

Carte d'Europe, avec de nombreux points de toutes les couleurs
Tiens, un sapin de Noël.

Oups : comme il y a une couche par lieu de naissance, ça fait beaucoup de calques, ce qui fait que la carte devient illisible… Et que le sélecteur de calques ne peut pas tout afficher à l’écran.

Optimisation

Heureusement, il est possible d’arranger ça facilement: il suffit de demander au passage le département de naissance[3]Il y a les cinq départements cette fois, puisque la requête porte sur la Bretagne historique cette fois. et l’utiliser comme ?layer à la place du lieu. Histoire de rester concis, je profite du fait qu’on peut utiliser la virgule pour plusieurs valeurs partageant le même sujet et la même propriété, de la même façon qu’on peut utiliser le point virgule pour des couples propriété-valeur ayant le même sujet.

#defaultView:Map
SELECT ?item ?itemLabel ?placeOfBirth ?placeOfBirthLabel ?placeOfDeath ?placeOfDeathLabel ?image ?coord ?layer WHERE {
  ?item wdt:P31 wd:Q5 ; # On cherche des êtres humains
        wdt:P19 ?placeOfBirth ; # Leur lieu de naissance
        wdt:P20 ?placeOfDeath . # Leur lieu de décès
  ?placeOfDeath wdt:P625 ?coord . # les coordonnées de celui-ci
  
  ?placeOfBirth (wdt:P131|wdt:P706|wdt:P276)* wd:Q327, # Nés en Bretagne
                                              ?departement . # Dans un lieu...
  ?departement wdt:P31 wd:Q6465 . # Qui est un département français
  
  ?departement rdfs:label ?layer . # On définit ce département comme calque
  FILTER(LANG(?layer) = "fr") . # en ne gardant que les noms de département en français
  
  OPTIONAL { ?item wdt:P18 ?image . } # S'il y a une image, on l'affiche
  
  SERVICE wikibase:label { bd:serviceParam wikibase:language "fr,en" . }
}

http://tinyurl.com/z3cttt3

Résultat final

capture-du-2016-10-09-13-54-30

La carte montre deux résultats intéressants : beaucoup de gens meurent dans leur département de naissance et encore plus meurent à Paris[4]Le gros tas de points autour de la gare Montparnasse..

Ces deux remarques rappellent la question de savoir quelle est la distance moyenne entre le lieu de naissance et celui de décès des gens. Plusieurs études se sont plongées dessus, notamment celle-ci, publiée dans Science en 2014 et qui se base sur Freebase[5]Ainsi que sur deux bases d’artistes célèbres, non nommées dans l’article du Boston Globe., qui a depuis été intégrée dans Wikidata, et a des caractéristiques similaires, notamment le biais de sélection inhérent[6]Il faut être notoire pour une raison ou une autre pour être dans la base..

De fait, l’étude ne visait pas tant à mesurer la distance moyenne globale pour l’ensemble de l’humanité[7]Je n’arrive pas à retrouver les chiffres, mais il me semble me souvenir que la majeure partie de la population mondiale vit et meurt à moins de 30 km de son lieu de naissance… Le livre The Limits to Travel de David Metz ne donne pas de chiffres pour les décès mais note que de nos jours, l’écart moyen entre les lieux de naissance de deux mariés britanniques est d’un peu plus de 50 mi., mais à s’appuyer sur ce biais de sélection pour identifier des « attracteurs de mort », c’est à dire des lieux où il meurt plus de gens notables qu’il n’en naît, et par ricochet identifier des capitales culturelles. C’est le cas de Paris, où Wikidata recense 18 532 naissances contre 22 205 décès.

Ils constataient cependant qu’au cours du temps, la distance moyenne entre le lieu de naissance et celui de décès des personnes étudiées augmentait, passant de 215 km au 14e siècle à 380 km au 21e. Les Bretons présents sur Wikidata, toutes époques confondues, semblent encore plus voyageurs, avec une distance moyenne de 473 km, mais pas mal de variation entre les départements : cela va de 420 km pour les Morbihannais⋅e⋅s à 510 pour les Brétilien⋅ne⋅s.

Image d’en-tête : Les Merveilles de la nuit de Noël / Burzudou Nedellek (détail), par Émile Souvestre, 1844.

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Notes   [ + ]

1. Ou plusieurs d’ailleurs.
2. Administrative sur cette requête.
3. Il y a les cinq départements cette fois, puisque la requête porte sur la Bretagne historique cette fois.
4. Le gros tas de points autour de la gare Montparnasse.
5. Ainsi que sur deux bases d’artistes célèbres, non nommées dans l’article du Boston Globe.
6. Il faut être notoire pour une raison ou une autre pour être dans la base.
7. Je n’arrive pas à retrouver les chiffres, mais il me semble me souvenir que la majeure partie de la population mondiale vit et meurt à moins de 30 km de son lieu de naissance… Le livre The Limits to Travel de David Metz ne donne pas de chiffres pour les décès mais note que de nos jours, l’écart moyen entre les lieux de naissance de deux mariés britanniques est d’un peu plus de 50 mi.

Cet article Sunday Query : où meurent les Bretons ? est apparu en premier sur The Ash Tree.

by Ash_Crow at October 09, 2016 01:42 PM

October 03, 2016

Alphos

SPARQuickL 3 – Bonne compagnie

Entreprises

# List of business enterprises SELECT ?business { ?business wdt:P31/wdt:P279* wd:Q4830453 . # item is a business enterprise or subclass thereof }

Essayez

Entreprises avec leur date de création

# List of business enterprises, with their date of creation SELECT ?business ( SAMPLE( ?date ) AS ?date ) WHERE { ?business

Continue reading « SPARQuickL 3 – Bonne compagnie »

by Alphos at October 03, 2016 05:12 PM

Wikimédia France

L’Été des régions Wikipédia

 

Dédiée à la valorisation de nos territoires sur la plus grande encyclopédie au monde, l’Été des régions Wikipédia, seconde édition, s’est terminée ce 21 septembre.

Cette action invite les français (et les touristes) à photographier villes, villages, paysages, ou encore statues,artisanat et personnalités locales, en bref, ce qui fait la richesse et le charme des territoires de France. Ces photos téléversées sur Commons permettent ensuite d’illustrer les articles Wikipédia relatifs aux sujets photographiés.

Pourquoi s’intéresser à nos territoires ?

Aujourd’hui les articles relatifs à nos territoires ne sont pas encore assez illustrés. Suite à ce constat, nous avons fait le pari d’inciter les habitants et les touristes à photographier eux-mêmes les richesses du patrimoine local. Cela nous permet à la fois de développer le réseau de contributeurs mais aussi d’apporter un nombre important de nouvelles photos sur les articles Wikipédia.

Les mairies françaises, partenaires indispensables de la valorisation de nos territoires.

Pour cette édition, nous avons communiqué auprès des mairies rurales et des grandes villes françaises en leur proposant de téléverser cinq photos emblématiques du territoire.

Plusieurs centaines de mairies ont répondu à l’appel et téléversés des photos dans la campagne “Été des régions 2016” sur la médiathèque en ligne Commons.

La suite ?

Cibler les mairies françaises nous a permis de tisser de nouveaux liens avec des acteurs du territoire qui ne connaissaient pas encore l’association Wikimédia France et l’importance de la diffusion du patrimoine local. De plus, elles disposent de sources et ressources humaines essentielles à l’amélioration des articles sur Wikipédia.
Cependant, nombre d’entre elles nous ont contacté cet été en nous questionnant et en relayant des informations utiles pour améliorer des articles relatifs aux communes.
Les mois à venir seront donc consacrés à la réalisation de tutoriels à destination des mairies pour les aider à mieux comprendre la contribution sur Wikipédia et leur permettre de diffuser et de partager de façon autonome, avec les habitants, ce qui fait le charme de nos territoires.

À l’image du concours Wiki Loves Monuments qui se veut international, l’Été des régions Wikipédia pourrait s’internationaliser dès l’été prochain.

D’autres chapitres du mouvement Wikimedia ont pris contact avec Wikimédia France pour étudier la faisabilité d’un tel événement dans leurs pays.
Nous disposerions ainsi d’une multitude de nouvelles photos pouvant alimenter les articles relatifs aux territoires sur Wikipédia répondant ainsi à un réel besoin sur les articles concernés.

 

by Pierre-Antoine at October 03, 2016 01:47 PM

September 28, 2016

Gratus

PDD Wikidata : 2nd tour

Dès aujoud’hui et jusqu’au 28 octobre 2016 inclus, vous pouvez donner votre avis sur la prise de décision (enfin l’étape 2 sur 3) concernant les conditions d’utilisation des données Wikidata dans les articles.

>> Voir la prise de décision

Voir ci-dessous les questions posées :

La liste ci-dessous est publié sous licence Creative Commons attribution, partage dans les mêmes conditions.

  1. Une donnée Wikidata non triviale ne peut être affichée sur Wikipédia que si elle comporte une source dans Wikidata (par donnée non triviale, on entend une donnée qui doit être sourcée sur Wikipédia selon la règle de la vérifiabilité ; par source dans Wikidata, on entend une source externe et non la référence à la version linguistique de Wikipédia d’où la donnée a été importée).
  2. Lorsqu’un modèle affiche en provenance de Wikidata une donnée non triviale, il est autorisé de lui faire afficher dans Wikipédia les sources associées à cette donnée dans Wikidata (par donnée non triviale, on entend une donnée qui doit être sourcée sur Wikipédia selon la règle de la vérifiabilité ; par source dans Wikidata, on entend une source externe et non la référence à la version linguistique de Wikipédia d’où la donnée a été importée).
  3. Les données Wikidata utilisées dans un article doivent être identifiables lors de la consultation de l’article.
  4. Lorsqu’une donnée Wikidata est utilisée dans un article, elle ne peut pas être présentée comme un lien interne qui pointerait vers l’élément Wikidata correspondant. Ainsi, si la donnée Wikidata « écrivain » est affichée dans l’article, elle ne peut pas être présentée « Écrivain » (lien caché vers l’élément Wikidata) mais les présentations « Écrivain » (aucun lien), « Écrivain » (lien interne vers l’article Wikipédia correspondant), « Écrivain (d) » (lien vers l’élément Wikidata séparé de la donnée elle-même) ou encore « Écrivain (d) » (lien rouge suivi d’un lien vers l’élément Wikidata) restent possibles.
  5. Aucun lien vers Wikidata n’est affiché dans un article en présentant l’identifiant Wikidata de la donnée (exemple : « d:Q36180 » ou « Q36180 » sont interdits).
    • L’ajout ou le retrait de champs Wikidata dans un modèle,
    • l’introduction dans de nombreux articles d’un modèle (par exemple une infobox) ajoutant ou retirant des champs Wikidata,

    doivent être effectués en accord avec l’espace communautaire pertinent rassemblant les contributeurs concernés (par exemple le projet correspondant).

  6. Lorsqu’une ou plusieurs données Wikidata sont ajoutées à un article ou introduites en remplacement d’informations déjà présentes dans l’article (par exemple, remplacement d’un modèle par un modèle utilisant des données Wikidata), le contributeur qui procède à cette action doit contrôler la cohérence (et en particulier l’absence de contradiction) des nouvelles données avec les autres données présentes dans l’article ainsi qu’avec les données remplacées ; il est tenu de traiter les incohérences constatées.
  7. On ne peut afficher dans un article une donnée Wikidata qu’à l’aide d’un modèle qui évite de renseigner dans le code de l’article un identifiant de propriété Wikidata « Pxx » (des syntaxes telles que {{Wikidata|Pxx}} ou {{#property:Pxx}} ne sont pas autorisées dans le code des articles).
  8. Un modèle affichant des données Wikidata dans un article doit permettre de forcer l’affichage d’une donnée locale Wikipédia ou de forcer l’absence d’affichage de la donnée Wikidata. La documentation du modèle doit être suffisamment détaillée pour que la mise en œuvre de ces deux possibilités soit aisée. Le forçage de l’affichage d’une donnée locale ou de l’absence d’affichage de la donnée n’altère pas la présentation du modèle.
  9. En cas d’utilisation d’un modèle affichant des données Wikidata, tous les paramètres du modèle doivent être listés dans le code de l’article pour permettre de forcer facilement l’affichage de données locales ou de ne pas afficher certains champs.

Nous pouvons également signaler la présence de deux sondages en cours :


by gratusfr at September 28, 2016 06:36 PM

Wiki Loves Monuments (fr)

Coup de cœur du 27 septembre

Le Pont neuf au couché du soleil Par Ben.detto (Travail personnel) [CC BY-SA 4.0 (http://creativecommons.org/licenses/by-sa/4.0)], via Wikimedia Commons

by Sarah Krichen at September 28, 2016 03:43 PM

September 27, 2016

Wiki Loves Monuments (fr)

Coup de cœur du 26 septembre 2016 !

Intérieur du château de Versailles par Anitsircana (CC-BY-CA)

by Sarah Krichen at September 27, 2016 04:18 PM

Photo coup de coeur du 25 semptembre 2016 !

La collégiale Notre-Dame est une ancienne collégiale devenue l’église paroissiale Notre-Dame et Saint-Nicolas située à Briançon. Elle est classée au titre des monuments historiques en 19311.

Photo par Michel Couprie (Travail personnel) [CC BY-SA 4.0 (http://creativecommons.org/licenses/by-sa/4.0)], via Wikimedia Commons

by Sarah Krichen at September 27, 2016 09:29 AM

Image du jour du 24 septembre !

Pour cette photo du jour de notre concours WLM 2016 voici l’intérieur du Palais de Justice de la ville d’Aix-en-Provence. Par Ddeveze (Travail personnel) [CC BY-SA 4.0 (http://creativecommons.org/licenses/by-sa/4.0)], via Wikimedia Commons

by Sarah Krichen at September 27, 2016 09:22 AM

Image du jour du 23 septembre !

Direction Arras pour profiter du magnifique beffroi de l’hôtel de ville. Le beffroi est classé depuis 1840 parmi les monuments historiques et, depuis 2005, fait partie du patrimoine mondial de l’Unesco en étant compris dans les beffrois de Belgique et de France.

Photo par Acd1066 (Travail personnel) [CC BY-SA 4.0 (http://creativecommons.org/licenses/by-sa/4.0)], via Wikimedia Commons

by Sarah Krichen at September 27, 2016 09:09 AM

September 24, 2016

Ash Crow

Sunday Query : utiliser SPARQL et Python pour corriger des coquilles sur Wikidata

À mon tour de faire une #SundayQuery! Comme Harmonia Amanda l’a dit dans son propre billet, j’envisageais de faire un article expliquant comment créer un script Python permettant de corriger les résultats de sa requête.. Finalement, j’ai préféré en faire un autre, au fonctionnement similaire mais plus court et plus simple à comprendre. Le script pour Harmonia est cependant disponible en ligne ici.

Jeudi, j’ai publié un article au sujet des  batailles du Moyen Âge, et depuis, j’ai commencé à corriger les éléments correspondants sur Wikidata

L’une des corrections les plus répétitives était la capitalisation des libellés en français : comme ils ont été importés de Wikipédia, ils ont une majuscule inutile au début ( « Bataille de Saint-Pouilleux en Binouze » instead of « bataille de Saint-Pouilleux en Binouze »…)

La requête

Commençons par trouver tous les éléments présentant cette coquille.

SELECT ?item ?label WHERE {
  ?item wdt:P31/wdt:P279* wd:Q178561 .
  ?item rdfs:label ?label . FILTER(LANG(?label) = "fr") .
  FILTER(STRSTARTS(?label, "Bataille ")) .
}

http://tinyurl.com/jljf6xr

Quelques explications de base :

  • ?item wdt:P31/wdt:P279* wd:Q178561 .
      cherche les éléments qui sont des batailles ou des sous-classes de batailles, pour être bien sûr que je ne vais pas virer sa majucule à un bouquin intitulé  « Bataille de Perpète-les-Olivettes »…
  • Sue la ligne suivante, je demande les libellés pour les éléments en question 
    ?item rdfs:label ?label .
      et les filtre pour ne garder que ceux en français
    FILTER(LANG(?label) = "fr") .
    . Comme j’ai besoin d’utiliser le libellé dans la requête et pas juste de l’afficher (et comme Harmonia Amanda l’a expliqué dans son billet de dimanche), je ne peux pas utiliser le servicce wikibase:label, et je me rabats donc sur le standard du web sémantique rdfs:label.
  • La dernière ligne est un
    FILTER
      (filtre), qui ne garde que les résultats qui répondent à la fonction à l’intérieur. Ici,
    STRSTARTS
      vérifie si
    ?label
      commence avec
    "Bataille "
     .

Au moment où j’ai écrit la version anglaise de ce texte, la requête renvoyait 3521 résultats. Beaucoup trop pour les corriger à la main, et je ne connais aucun outil déjà existant qui pourrait faire ça pour moi… Je suppose qu’il est temps de dégainer Python, du coup !

Le script Python

J’aime Python. J’adore carrément Python, même. Ce langage est génial pour créer une une application utile en une poignée de minutes, facile à lire (pour peu qu’on lise l’anglais) et pas constellé de séries d’accolades ou de points-virgules, et a des libs géniales pour les choses que je fais le plus avec : récupérer le contenus de pages web, trier des données, vérifier des ISBNs [1]J’espère pouvoir bientôt quelque chose ici sur ce sujet. et faire des sites web. Oh, et pour faire des requêtes SPARQL et traiter les résultats [2]En plus, les exemples dans la doc officielle sont basés sur Firefly. Yes sir, Captain Tightpants..

Deux charmeurs de serpent avec un python et deux cobras.
Et puis le nom du langage a un petit côté « charmeur de serpents » 😉

Premières remarques

Si vous ne connaissez pas du tout le Python, cet article n’est pas le bon endroit pour ça, mais il y a de nombreuses ressources disponibles en ligne [3]Par exemple, https://www.codecademy.com/learn/python ou https://docs.python.org/3.5/tutorial/.. Assurez-vous juste qu’elles sont à jour et pensées pour Python 3. La suite de cet article part du principe que vous avez une connaissance basique de Python (indentation, variables, chaînes de caractères, listes, dictionnaires, imports et boucles for.), et que Python 3 et pip sont installés sur votre machine.

Pourquoi Python 3 ? Parce que nous allons manipuler des chaînes qui viennent de Wikidata et sont donc encodées en UTF-8 et que Python 2 n’est pas hyper pratique pour ça. Et puis mince, on est en 2016, par Belenos !

Pourquoi pip ? Parce qu’on a besoin d’une libraire non-standard pour faire des requêtes SPARQL, appelée SPARQLwrapper, et que cette commande est le moyen le plus simple de l’installer :

pip install sparqlwrapper

Allez, on commence à scripter !

Pour commencer, un script qui fait une requête Sparql retournant la liste des sièges à corriger [4]Oui, les sièges, j’ai déjà corrigé les batailles avant d’écrire le billet 😉 :

#!/usr/bin/env python3

from SPARQLWrapper import SPARQLWrapper, JSON
from pprint import pprint

endpoint = "https://query.wikidata.org/bigdata/namespace/wdq/sparql"

sparql = SPARQLWrapper(endpoint)
sparql.setQuery("""
SELECT ?item ?label WHERE {{
  ?item wdt:P31/wdt:P279* wd:Q178561 .
  ?item rdfs:label ?label . FILTER(LANG(?label) = "fr") .
  FILTER(STRSTARTS(?label, "Siège ")) .
}}
""")  # Link to query: http://tinyurl.com/z8bd26h

sparql.setReturnFormat(JSON)

results = sparql.query().convert()

pprint(results)

Ça fait un bon petit paquet de lignes, mais que font-elles ? Comme on va le voir, la plupart vont en fait être incluses à l’identique dans tout script qui fait une requête  SPARQL.

  • Pour commencer, on importe deux choses du module  SPARQLWrapper : la classe SPARQLWrapper elle-même et la constante « JSON » qu’elle va utiliser plus tard (pas d’inquiétude, on n’aura pas à manipuler du json directement.)
  • On import aussi le module « Pretty printer » pour afficher les résultats de manière plus lisible.
  • Ensuite, on crée une variable qu’on nomme « endpoint », qui contient l’URL complète vers le point d’accès SPARQL de Wikidata [5]Et non son accès web qui est simplement « https://query.wikidata.org/ ».
  • Ensuite, on crée une instance de la classe SPARQLWrapper qui utilisera ce point d’accès pour faire des requêtes, et on les met dans une variable simplement appelée  « sparql ».
  • On applique à cette variable la fonction setQuery, qui est l’endroit où l’on rentre la requête de tout à l’heure. Attention, il faut doublonner les accolades (remplacer { et } par {{ et }}, car elles sont des caractères réservés dans les chaînes Python.
  • sparql.setReturnFormat(JSON)
      dit au script que le résultat sera retourné en json.
  • results = sparql.query().convert()
    , enfin, fait la requête elle-même et convertit la réponse dans un dictionnaire Python appelé  « results ».
  • Et pour l’instant, on va juste afficher le résultat à l’écran pour voir ce qu’on obtient.

Ouvrons un terminal et lançons le script :

$ python3 fix-battle-labels.py 
{'head': {'vars': ['item', 'label']},
 'results': {'bindings': [{'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q815196'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Pskov',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q815207'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Silistra',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q815233'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Tyr',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q608163'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Cracovie',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q1098377'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Narbonne',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q2065069'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Hloukhiv',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q4087405'},
                           'label': {'type': 'literal',
                                     'value': "Siège d'Avaricum",
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q2284279'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Fort Pulaski',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q4337397'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Liakhavitchy',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q4337448'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Smolensk',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q701067'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Rhodes',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q7510162'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Cracovie',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q23013145'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Péronne',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q10428014'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Pskov',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q3090571'},
                           'label': {'type': 'literal',
                                     'value': 'Siège du Hōjūjidono',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q3485893'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Fukuryūji',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q4118683'},
                           'label': {'type': 'literal',
                                     'value': "Siège d'Algésiras",
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q5036985'},
                           'label': {'type': 'literal',
                                     'value': 'Siège de Berwick',
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q17627724'},
                           'label': {'type': 'literal',
                                     'value': "Siège d'Ilovaïsk",
                                     'xml:lang': 'fr'}},
                          {'item': {'type': 'uri',
                                    'value': 'http://www.wikidata.org/entity/Q815112'},
                           'label': {'type': 'literal',
                                     'value': "Siège d'Antioche",
                                     'xml:lang': 'fr'}}]}}

C’est un gros paquet de résultats mais on peut voir que c’est un dictionnaire qui contient deux entrées :

  • « head », qui contient les noms des deux variables renvoyées par la requête,
  • et « results », qui contient lui-même un autre dictionnaire avec la clef « bindings », associée avec la liste des résultats eux-mêmes, chacun d’entre eux étant lui-même un dictionnaire  Python. Pfiou…

Examinons un desdits résultats :

{'item': {'type': 'uri',
          'value': 'http://www.wikidata.org/entity/Q17627724'},
 'label': {'type': 'literal', 
           'value': "Siège d'Ilovaïsk",
           'xml:lang': 'fr'}}

C’est un dictionnaire avec deux clefs (label et item), chacune ayant pour valeur un autre dictionnaire qui à son tour a une clef « value » associée avec, cette fois, la valeur qu’on veut au final. Enfin !

Parcourir les résultats

Parcourons la liste « bindings » avec une boucle « for » de Python, pour pouvoir en extraire les résultats.

for result in results["results"]["bindings"]:
    qid = result['item']['value'].split('/')[-1]
    label = result['label']['value']

    print(qid, label)

Rapide explication sur la ligne 

qid = result['item']['value'].split('/')[-1]
  : comme l’identifiant de l’élément est en fait stocké sous la forme d’une URL complète (« https://www.wikidata.org/entity/Q17627724 » et pas juste « Q17627724 »), il nous faut séparer cette chaîne à chaque caractère ‘/’, ce qu’on fait à l’aide de la fonction « split()« , qui transforme la chaîne en une liste Python contenant ceci :

['https:', '', 'www.wikidata.org', 'entity', 'Q17627724']

Nous ne voulons que le dernier élément de cette liste. En Python, c’est celui avec l’index -1, d’où le [-1] à la fin de la ligne. Enfin, nous stockons cette valeur dans la variable qid.

Lançons le script ainsi modifié :

$ python3 fix-battle-labels.py 
Q815196 Siège de Pskov
Q815207 Siège de Silistra
Q815233 Siège de Tyr
Q608163 Siège de Cracovie
Q1098377 Siège de Narbonne
Q2065069 Siège de Hloukhiv
Q4087405 Siège d'Avaricum
Q2284279 Siège de Fort Pulaski
Q4337397 Siège de Liakhavitchy
Q4337448 Siège de Smolensk
Q701067 Siège de Rhodes
Q7510162 Siège de Cracovie
Q23013145 Siège de Péronne
Q10428014 Siège de Pskov
Q3090571 Siège du Hōjūjidono
Q3485893 Siège de Fukuryūji
Q4118683 Siège d'Algésiras
Q5036985 Siège de Berwick
Q17627724 Siège d'Ilovaïsk
Q815112 Siège d'Antioche

Corriger le problème

On y est presque ! Maintenant, il reste à remplacer cet orgueilleux « S » majuscule par un plus modeste « s » minuscule :

label = label[:1].lower() + label[1:]

Que se passe-t-il ici ? Une chaîne Python fonctionne comme une liste, on peut donc lui demander de prendre la partie située entre le début de la chaîne « label » et la position qui suit le premier caractère (« label[:1] ») et forcer celui-ci en bas-de-casse (« .lower() »). Ensuite, on y concatène le reste de la chaîne (de la position 1 à la fin, donc « label[1:] ») et on réassigne ce résultat à la variable « label ».

Dernière chose, formater le résultat de manière compatible à QuickStatements:

out = "{}\tLfr\t{}".format(qid, label)
print(out)

Cette ligne semble barbare ? Elle est en fait assez simple :

"{}\tLfr\t{}"
  est une chaîne qui contient un premier emplacement pour le résultat d’une variable (« {} »), puis une tabulation, (« \t »), puis le mot-clef Quickstatements pour le libellé français (« Lfr »), une autre tabulation et enfin le second emplacement pour une variable. Ensuite, la fonction « format() » se charge de mettre le contenu des variables « qid » et « label » dedans. Le script final devrait ressembler à ça :

#!/usr/bin/env python3

from SPARQLWrapper import SPARQLWrapper, JSON

endpoint = "https://query.wikidata.org/bigdata/namespace/wdq/sparql"

sparql = SPARQLWrapper(endpoint)
sparql.setQuery("""
SELECT ?item ?label WHERE {{
  ?item wdt:P31/wdt:P279* wd:Q178561 .
  ?item rdfs:label ?label . FILTER(LANG(?label) = "fr") .
  FILTER(STRSTARTS(?label, "Siège ")) .
}}
""")  # Link to query: http://tinyurl.com/z8bd26h

sparql.setReturnFormat(JSON)

results = sparql.query().convert()

for result in results["results"]["bindings"]:
    qid = result['item']['value'].split('/')[-1]
    label = result['label']['value']

    label = label[:1].lower() + label[1:]

    out = "{}\tLfr\t{}".format(qid, label)
    print(out)

C’est parti :

$ python3 fix-battle-labels.py 
Q815196	Lfr	siège de Pskov
Q815207	Lfr	siège de Silistra
Q815233	Lfr	siège de Tyr
Q2065069	Lfr	siège de Hloukhiv
Q2284279	Lfr	siège de Fort Pulaski
Q1098377	Lfr	siège de Narbonne
Q608163	Lfr	siège de Cracovie
Q4087405	Lfr	siège d'Avaricum
Q4337397	Lfr	siège de Liakhavitchy
Q4337448	Lfr	siège de Smolensk
Q701067	Lfr	siège de Rhodes
Q10428014	Lfr	siège de Pskov
Q17627724	Lfr	siège d'Ilovaïsk
Q23013145	Lfr	siège de Péronne
Q815112	Lfr	siège d'Antioche
Q3090571	Lfr	siège du Hōjūjidono
Q3485893	Lfr	siège de Fukuryūji
Q4118683	Lfr	siège d'Algésiras
Q5036985	Lfr	siège de Berwick

On est bons ! Il ne reste plus qu’à copier-coller le résultat dans QuickStatements et attendre qu’il fasse le boulot tout seul.

Image à la une : Photographie de fontes de caractères par Andreas Praefcke (domaine public)

Enregistrer

Enregistrer

Notes   [ + ]

1. J’espère pouvoir bientôt quelque chose ici sur ce sujet.
2. En plus, les exemples dans la doc officielle sont basés sur Firefly. Yes sir, Captain Tightpants.
3. Par exemple, https://www.codecademy.com/learn/python ou https://docs.python.org/3.5/tutorial/.
4. Oui, les sièges, j’ai déjà corrigé les batailles avant d’écrire le billet 😉
5. Et non son accès web qui est simplement « https://query.wikidata.org/ »

Cet article Sunday Query : utiliser SPARQL et Python pour corriger des coquilles sur Wikidata est apparu en premier sur The Ash Tree.

by Ash_Crow at September 24, 2016 08:58 AM

September 23, 2016

Wiki Loves Monuments (fr)

Image du jour du 22 septembre !

Aperçu des jardin du château de Villandry en Indre-et-Loire. Par Marcok  [CC BY-SA 4.0]

by Sarah Krichen at September 23, 2016 10:07 AM

Coup de cœur du 21 septembre !

Photo en noir et blanc du canal St Martin pour ce mercredi 21 septembre ! Par FrantzJRF (Travail personnel) [CC BY-SA 4.0]

by Sarah Krichen at September 23, 2016 10:02 AM

Image du 20 septembre !

Pour changer de prise de vue, voici un détail de la façade de la maison à tourelle du XVe siècle à Verneuil-sur-Avre dans l’Eure.

Par Eponimm (Travail personnel) [CC BY-SA 4.0 ]

by Sarah Krichen at September 23, 2016 09:22 AM

September 20, 2016

Wiki Loves Monuments (fr)

Image coup de coeur du 19 septembre

Pour cette image du jour voici la fontaine de la place du Docteur Pierre-Walter, ancienne place du marché de Berghein en Alsace.

N’hésitez pas à améliorez sa page Wikipédia si vous avez des informations dessus !

by Sarah Krichen at September 20, 2016 03:13 PM

Gratus

Attentats : Wikipédia charognard ?

Bonjour, aujourd’hui nous allons nous intéresser au traitement des attentats récents par Wikipédia.

Action Date de l’action Date de la création de l’article sur Wikipédia Temps de réaction
Attentats de mars 2012 en France 11 mars 2012 vers 16 h 10
15 mars 2012, à 14 h 10
19 mars 2012 vers 8 h [0]
19 mars 2012 à 11:26‎ 3 h 26
Attentat contre Charlie Hebdo 7 janvier 2015 vers 11 h 30 7 janvier 2015 à 12:19‎ 0 h 49
Prise d’otages du magasin Hyper Cacher de la porte de Vincennes 9 janvier 2015 vers 13 h 9 janvier 2015 à 22:54‎ 9 h 54
Attentat de Saint-Quentin-Fallavier 26 juin 2015 vers 9 h 30 26 juin 2015 à 10:17‎ 0 h 47
Attentats du 13 novembre 2015 en France 21 h 17 [1] 13 novembre 2015 à 22:00‎ 0 h 43
Attentat du train Thalys le 21 août 2015 21 août 2015 vers 17 h 45 22 août 2015 à 07:35‎ 13 h 50
Double meurtre du 13 juin 2016 à Magnanville 13 juin 2016 vers
21 h
14 juin 2016 à 09:57‎ 12 h 57
Attentat du 14 juillet 2016 à Nice 14 juillet 2016 vers 22 h 40 14 juillet 2016 à 23:52‎ 1 h 12
Fusillade du 22 juillet 2016 à Munich 22 juillet 2016
vers 17 h 52
22 juillet 2016 à 18:48‎ 0 h 56
Attentat de l’église de Saint-Étienne-du-Rouvray 26 juillet 2016 vers 10 h 26 juillet 2016 à 10:55‎ 0 h 55

[0] Date de l’action la plus importante, rendant l’article clairement admissible

[1] Heure de la première action de cette triste série

graphique
Délai entre l’acte et la création de son article sur Wikipédia

Nous pouvons remarquer que tous les articles sont écrits dans les 24 heures et que la moitié des articles le sont dans l’heure qui suit.

On peut donc affirmer qu’il existe bel et bien une précipitation pour écrire ces articles. Et cette précipitation ne concerne pas seulement un ou deux contributeurs avides d’évènements sanglants puisque dans le cas de Charlie Hebdo, l’article a été modifié près de 900 fois par 221 auteurs distincts durant les 24 heures qui suivèrent la création de la page, de plus l’article sera créer dans 46 langues durant cette même période, preuve que cette précipitation n’est pas une spécificité française.

Le terme précipitation peut être considéré comme péjoratif car incluant une notion de travail mal fait, bâclé. Cependant ce reproche, amha, ne peut s’appliquer à Wikipédia car cette « offre » répond à une demande réelle. En effet, après des évènements de ce genre, il n’est pas rare que Wikipédia connaîsse un pic de consultation.

Ces pics de consultation démontrent que des gens ont le réflexe « Wikipédia » afin d’en savoir plus. C’est ici que je voudrait tordre le cou à un reproche que l’on voit souvent sur le bistro de Wikipédia : « Wikipédia est un site encyclopédique et pas un site d’actualité ».

Or l’approche des Wikipédiens lors de ces attentats est, amha, encyclopédique car dès le départ un travail d’analyse des sources et de synthèse est effectué. D’ailleurs il suffit de voir le nombre de références pour en avoir la confirmation.

Lorsqu’un évènement est clairement admissible, pourquoi attendre avant de créer son article ? Pourquoi faut-il priver le lecteur d’informations vérifiées et synthétisées ? Pourquoi ?

Parce qu’il faut être sûr qu’une tuerie de militaires et d’enfants ayant mené au niveau écarlate du plan vigipirate soit admissible, que des attaques de masse dans de grandes villes soit admissible …

Ou alors parce qu’il faut faire tourner un projet concurrant frère Wikinews qui est un site d’information sur l’actualité. Or, pour reprendre les termes de Jonathan Dee « Wikipedia a, par inadvertance, fini par étrangler un de ses projets-frères, Wikinews » (source). Dans cette sombre série d’attaques, nous pouvons en effet remarquer que Wikipédia a été plus réactif et plus rédigé que Wikinews.

 Prenons l’exemple de l’affaire du double meurtre à Magnanville. La page Wikinews France : un couple de policiers tué dans leur quartier à Magnanville (Yvelines) fait 3 082 octets tandis qu’à la même période la page Wikipédia correspondante fait 22 597 octets.

Au lieu de mettre en concurrence Wikipédia et Wikidata [édit : Wikinews], il vaut mieux les considérer comme deux sites distincts et ne pas s’interdire de créer un article au motif qu’il devrait d’abord/seulement être présent sur l’autre site.

En épluchant les articles de Wikinews, on peut remarquer que ce site (et donc ses contributeurs) gère très bien les actualités qui ne sont clairement pas admissible sur Wikipédia mais qui a sa place sur un site d’actualité (quoique) ou des sujets qui n’intéresse pas la masse de contributeur francophone. Cependant dès que l’évènement est plus important, Wikipédia tend à prendre le relais en proposant un contenu plus détaillé et ne s’arrêtant pas seulement à l’actualité (enquête etc. qui suivent).

Et Wikidata ?


by gratusfr at September 20, 2016 11:03 AM

September 19, 2016

Wiki Loves Monuments (fr)

Photo coup de cœur du 18 septembre !

Voilà une photo très graphique, presque abstraite pour cette photo coup de cœur de la Tour Eiffel du 18 septembre. [CC-BY-SA] Warren Kornberg

by Sarah Krichen at September 19, 2016 03:07 PM

September 18, 2016

Ash Crow

Sunday Query : use SPARQL and Python to fix typographical errors on Wikidata

My turn to make a #SundayQuery! As Harmonia Amanda just said in her own article, I’ll explain tomorrow (or Tuesday) how to make a script to fix the results of her request… But I thought I should start with another script, shorter and easier to understand.

On Thursday, I published an article about medieval battles, and since then, I did start to fix battle items on Wikidata. One of the most repetitive fixes is the capitalization of the French labels: as they have been imported from Wikipedia, the labels have an unnecessary capital first letter (« Bataille de Saint-Pouilleux en Binouze » instead of « bataille de Saint-Pouilleux en Binouze »)

The query

So first, we need to find all the items that have this typo:

SELECT ?item ?label WHERE {
  ?item wdt:P31/wdt:P279* wd:Q178561 .
  ?item rdfs:label ?label . FILTER(LANG(?label) = "fr") .
  FILTER(STRSTARTS(?label, "Bataille ")) .
}

http://tinyurl.com/jljf6xr

Some basic explanations :

  • ?item wdt:P31/wdt:P279* wd:Q178561 .
      looks for items that are battles or subclasses of battles, just to be sure I’m not making changes to some book called « Bataille de Perpète-les-Olivettes »…
  • On the next line, I query the labels for the items 
    ?item rdfs:label ?label .
      and filter to keep only those in French
    FILTER(LANG(?label) = "fr") .
    . As I need to use the label inside the query and not merely for display (as Harmonia Amanda just explained in her article), I cannot use the wikibase:label, and so I use the semantic web standard rdfs:label.
  • The last line is a
    FILTER
     , that keeps only those of the results that matches the function inside it. Here,
    STRSTARTS
      checks if
    ?label
      begins with
    "Bataille "
     .

As of the time I write this, running the query returns 3521 results. Far too much to fix it by hand, and I know no tool that already exists and would fix that for me. So, I guess it’s Python time!

The script

I love Python. I absolutely love Python. The language is great to put up a useful app within minutes, easily readable (It’s basically English, in fact), not cluttered with gorram series of brackets or semicolons, and generally has great libraries for the things I do the most: scraping webpages, parsing and sorting data, checking ISBNs[1] and making websites. Oh and making SPARQL queries of course[2].

Not to mention that the name of the language has a « snake charmer » side ;)

Preliminary thoughts

If you don’t know Python, this article is not the right place to learn it, but there are numerous resources available online[3]. Just make sure they are up-to-date and for Python 3. The rest of this articles assumes that you have a basic understanding of Python (indentation, variables, strings, lists, dictionaries, imports and « for » loops.), and that Python 3 and pip are installed on your system.

Why Python 3? Because we’ll handle strings that come from Wikidata and are thus encoded in UTF-8, and Python 2 makes you jump through some loops to use it. Plus, we are in 2016, for Belenos’ sake.

Why pip? because we need a non-standard library to make SPARQL queries, called SPARQLwrapper, and the easiest way to install it is to use this command:

pip install sparqlwrapper

Now, let’s start scripting!

For a start, let’s just query the full list of the sieges[4]:

#!/usr/bin/env python3

from SPARQLWrapper import SPARQLWrapper, JSON

endpoint = "https://query.wikidata.org/bigdata/namespace/wdq/sparql"

sparql = SPARQLWrapper(endpoint)
sparql.setQuery("""
SELECT ?item ?label WHERE {{
  ?item wdt:P31/wdt:P279* wd:Q178561 .
  ?item rdfs:label ?label . FILTER(LANG(?label) = "fr") .
  FILTER(STRSTARTS(?label, "Siège ")) .
}}
""")  # Link to query: http://tinyurl.com/z8bd26h

sparql.setReturnFormat(JSON)

results = sparql.query().convert()

print(results)

That’s quite a bunch of lines, but what does this script do? As we’ll see, most of this will be included in every script that uses a SPARQL query.

  • First, we import two things from the SPARQLWrapper module: the SPARQLWrapper object itself and a « JSON » that it will use later (don’t worry, you won’t have to manipulate json files yourself.)
  • Next, we create a « endpoint » variable, which contains the full URL to the SPARQL endpoint of Wikidata[5].
  • Next, we create a SPARQLWrapper object that will use this endpoint to make queries, and put it in a variable simply called « sparql ».
  • We apply the setQuery function to this variable, which is where we put the query we used earlier. Notice that we need to replace { and } by {{ and }} : { and } are reserved characters in Python strings.
  • sparql.setReturnFormat(JSON)
      tells the script that what the endpoint will return is formated in  json.
  • results = sparql.query().convert()
    actually makes the query to the server and converts the response to a Python dictionary called « results ».
  • And for now, we just want to print the result on screen, just to see what we get.

Let’s open a terminal and launch the script:

$ python3 fix-battle-labels.py 
{'head': {'vars': ['item', 'label']}, 'results': {'bindings': [{'label': {'value': 'Siège de Pskov', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q815196', 'type': 'uri'}}, {'label': {'value': 'Siège de Silistra', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q815207', 'type': 'uri'}}, {'label': {'value': 'Siège de Tyr', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q815233', 'type': 'uri'}}, {'label': {'value': 'Siège de Cracovie', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q608163', 'type': 'uri'}}, {'label': {'value': 'Siège de Narbonne', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q1098377', 'type': 'uri'}}, {'label': {'value': 'Siège de Hloukhiv', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q2065069', 'type': 'uri'}}, {'label': {'value': "Siège d'Avaricum", 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q4087405', 'type': 'uri'}}, {'label': {'value': 'Siège de Fort Pulaski', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q2284279', 'type': 'uri'}}, {'label': {'value': 'Siège de Liakhavitchy', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q4337397', 'type': 'uri'}}, {'label': {'value': 'Siège de Smolensk', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q4337448', 'type': 'uri'}}, {'label': {'value': 'Siège de Rhodes', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q701067', 'type': 'uri'}}, {'label': {'value': 'Siège de Cracovie', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q7510162', 'type': 'uri'}}, {'label': {'value': 'Siège de Péronne', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q23013145', 'type': 'uri'}}, {'label': {'value': 'Siège de Pskov', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q10428014', 'type': 'uri'}}, {'label': {'value': 'Siège du Hōjūjidono', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q3090571', 'type': 'uri'}}, {'label': {'value': 'Siège de Fukuryūji', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q3485893', 'type': 'uri'}}, {'label': {'value': "Siège d'Algésiras", 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q4118683', 'type': 'uri'}}, {'label': {'value': 'Siège de Berwick', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q5036985', 'type': 'uri'}}, {'label': {'value': "Siège d'Ilovaïsk", 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q17627724', 'type': 'uri'}}, {'label': {'value': "Siège d'Antioche", 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q815112', 'type': 'uri'}}]}}

That’s a bunch of things, but we can see that it contains a dictionary with two entries:

  • « head », which contains the name of the two variables returned by the query,
  • and « results », which itself contains another dictionary with a « bindings » key, associated with a list of the actual results, each of them being a Python dictionary. Pfew…

Let’s examine one of the results:

{'label': {'value': 'Siège de Pskov', 'type': 'literal', 'xml:lang': 'fr'}, 'item': {'value': 'http://www.wikidata.org/entity/Q815196', 'type': 'uri'}}

It is a dictionary that contains two keys (label and item), each of them having for value another dictionary that has a « value » key associated with, this time, the actual value we want to get. Yay, finally!

Parsing the results

Let’s parse the « bindings » list with a Python « for » loop, so that we can extract the value:

for result in results["results"]["bindings"]:
    qid = result['item']['value'].split('/')[-1]
    label = result['label']['value']

    print(qid, label)

Let me explain the 

qid = result['item']['value'].split('/')[-1]
  line: as the item name is stored as a full url (« https://www.wikidata.org/entity/Q815196 » and not just « Q815196 », we need to separate each part of it that is between a ‘/’ character. For this, we use the « split() » function of Python, which transforms the string to a Python list containing this:

['https:', '', 'www.wikidata.org', 'entity', 'Q815196']

We only want the last item in the list. In Python, that means the item with the index -1, hence the [-1] at the end of the line. We then store this in the qid variable.

Let’s launch the script:

$ python3 fix-battle-labels.py 
Q815196 Siège de Pskov
Q815207 Siège de Silistra
Q815233 Siège de Tyr
Q608163 Siège de Cracovie
Q1098377 Siège de Narbonne
Q2065069 Siège de Hloukhiv
Q4087405 Siège d'Avaricum
Q2284279 Siège de Fort Pulaski
Q4337397 Siège de Liakhavitchy
Q4337448 Siège de Smolensk
Q701067 Siège de Rhodes
Q7510162 Siège de Cracovie
Q23013145 Siège de Péronne
Q10428014 Siège de Pskov
Q3090571 Siège du Hōjūjidono
Q3485893 Siège de Fukuryūji
Q4118683 Siège d'Algésiras
Q5036985 Siège de Berwick
Q17627724 Siège d'Ilovaïsk
Q815112 Siège d'Antioche

Fixing the issue

We are nearly there! Now what we need is to replace this first proud capital « S » initial by a modest « s »:

label = label[:1].lower() + label[1:]

What is happening here? a Python string works like a list, so we take the part of the string between the beginning of the « label » string and the position after the first character (« label[:1] ») and force it to lower case (« .lower() »). We then concatenate it with the rest of the string (position 1 to the end or « label[1:] ») and assign all this back to the « label » variable.

Last thing, print it in a format that is suitable for QuickStatements:

out = "{}\tLfr\t{}".format(qid, label)
print(out)

That first line seems barbaric? it’s in fact pretty straightforward:

"{}\tLfr\t{}"
is a string that contains a first placeholder for a variable (« {} »), then a tabulation (« \t »), then the QS keyword for the French label (« Lfr »), then another tabulation and finally the second placeholder for a variable. Then, we use the « format() » function to replace the placeholders with the content of the « qid » and « label » variables. The final script should look like this:

#!/usr/bin/env python3

from SPARQLWrapper import SPARQLWrapper, JSON

endpoint = "https://query.wikidata.org/bigdata/namespace/wdq/sparql"

sparql = SPARQLWrapper(endpoint)
sparql.setQuery("""
SELECT ?item ?label WHERE {{
  ?item wdt:P31/wdt:P279* wd:Q178561 .
  ?item rdfs:label ?label . FILTER(LANG(?label) = "fr") .
  FILTER(STRSTARTS(?label, "Siège ")) .
}}
""")  # Link to query: http://tinyurl.com/z8bd26h

sparql.setReturnFormat(JSON)

results = sparql.query().convert()

for result in results["results"]["bindings"]:
    qid = result['item']['value'].split('/')[-1]
    label = result['label']['value']

    label = label[:1].lower() + label[1:]

    out = "{}\tLfr\t{}".format(qid, label)
    print(out)

Let’s run it:

$ python3 fix-battle-labels.py 
Q815196	Lfr	siège de Pskov
Q815207	Lfr	siège de Silistra
Q815233	Lfr	siège de Tyr
Q2065069	Lfr	siège de Hloukhiv
Q2284279	Lfr	siège de Fort Pulaski
Q1098377	Lfr	siège de Narbonne
Q608163	Lfr	siège de Cracovie
Q4087405	Lfr	siège d'Avaricum
Q4337397	Lfr	siège de Liakhavitchy
Q4337448	Lfr	siège de Smolensk
Q701067	Lfr	siège de Rhodes
Q10428014	Lfr	siège de Pskov
Q17627724	Lfr	siège d'Ilovaïsk
Q23013145	Lfr	siège de Péronne
Q815112	Lfr	siège d'Antioche
Q3090571	Lfr	siège du Hōjūjidono
Q3485893	Lfr	siège de Fukuryūji
Q4118683	Lfr	siège d'Algésiras
Q5036985	Lfr	siège de Berwick

Yay! All we have to do now is to copy and paste the result to QuickStatements and we are done.

Title picture: Photograph of typefaces by Andreas Praefcke (public domain)

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

  1. I hope I’ll be able to write something about it sometime soon.
  2. Plus, the examples in the official documentation are Firefly-based. Yes sir, Captain Tightpants.
  3. For example, https://www.codecademy.com/learn/python or https://learnpythonthehardway.org/book/.
  4. I’ve fixed the battles in the meantime 😉
  5. And not the web access to the endpoint, which is just « https://query.wikidata.org/ »

by Ash_Crow at September 18, 2016 04:30 PM

Wiki Loves Monuments (fr)

Ash Crow

Sunday Query: all surnames marked as disambiguation pages, with an English Wikipedia link and with « (surname) » in their English label

It’s Sunday again! Time for the queries! Last week I showed you the basics of SPARQL; this week I wanted to show you how we could use SPARQL to do maintenance work. I assume you now understand the use of PREFIX, SELECT, WHERE.

I have been a member of the WikiProject:Names for years. When I’m not working on Broadway and the Royal Academy of Dramatic Art archives,[1] I am one of the people who ensure that “given name:Christopher (Iowa)” is transformed back to “given name:Christopher (given name)”. Over the last weeks I’ve corrected thousands of wrong uses of the given name/family name properties, and for this work, I used dozens of SPARQL queries. I thought it could be interesting to show how I used SPARQL to create a list of strictly identical errors that I could then treat automatically.

What do we search?

If you read the constraints violations reports, you’ll see that the more frequent error for the property “family name” (P734) is the use of a disambiguation page as value instead of a family name. We can do a query like that:

SELECT ?person ?personLabel ?name ?nameLabel
WHERE {
    ?person wdt:P734 ?name . #the person has a family name
    ?name wdt:P31 wd:Q4167410 . #the item used as family name is a disambiguation page
  SERVICE wikibase:label { bd:serviceParam wikibase:language "en,fr" . } #We want to have the results in English or in French if there is no English label
}

link to the query. The results are in the thousands. Sigh.

But then we find something more interesting: there are entities which are both a disambiguation page and a family name. What?! That’s ontologically wrong. To use the wrong value as family name is human error; but an entity can’t be both a specific type of Wikimedia page and a family name. It’s like saying a person could as well be a book. Ontologically absurd. So all items with both P31 need to be corrected. How many are there?

SELECT DISTINCT ?name ?nameLabel (LANG(?label) AS ?lang)
WHERE {
    ?name wdt:P31 wd:Q101352 ; #the entity is a family name
          wdt:P31 wd:Q4167410 . #the entity is also a disambiguation page
  SERVICE wikibase:label { bd:serviceParam wikibase:language "en,fr" . } #We want to have the results in English or in French if there is no English label
}

link to the query.
Several thousands again. Actually, there are more entities which are both a disambiguation page and a family name than there are person using disambiguation pages as family names. This means there are family names/disambiguation pages in the database which aren’t used. They’re still wrong but it doesn’t show in violation constraints reports.

If we explore, we see than there are different cases out there: some of the family names/disambiguation pages are in reality disambiguation pages, some are family names, some are both (they link to articles on different Wikipedia, some about a disambiguation page and some about a family name; these need to be separated). Too many different possibilities: we can’t automatize the correction. Well… maybe we can’t.

Restraining our search

If we can’t treat in one go all disambig/family name pages, maybe we can ask a more precise question. In our long list of violations, I asked for English label and I found some disbelieving ones. There were items named “Poe (surname)”. As disambiguation pages. That’s a wrong use of label, which shouldn’t have precisions about the subject in brackets (that’s what the description is for) but if they are about a surname they shouldn’t be disambiguation pages too! So, so wrong.

Querying labels

But still, the good news! We can isolate these entries. For that we’ll have to query not the relations between items but the labels of the items. Until now, we had used the SERVICE wikibase:label workaround, a tool which only exists on the Wikidata endpoint, because it was really easy and we only wanted to have human-readable results, not really to query labels. But now that we want to, the workaround isn’t enough, we’ll need to do it the real SPARQL way, using rdfs.

Our question now is: can I list all items which are both family names and disambiguation pages, whose English label contains “(surname)”?

SELECT DISTINCT ?name ?label (LANG(?label) AS ?lang)
WHERE {
    ?name wdt:P31 wd:Q101352 ; #the entity is a family name
          wdt:P31 wd:Q4167410 ; #the entity is also a disambiguation page
          rdfs:label ?label . #the entity have a label
    FILTER(LANG(?label) IN ("en")). #this label exists in English
    FILTER(CONTAINS(?label, "(surname)")). #this label contains a specific string
}

link to the query. We had several hundreds results.[2] You should observe the changes I made in the SELECT DISTINCT as I don’t use the SERVICE wikibase:label workaround.

Querying sitelinks

Can we automatize correction now? Well… no. There is still problems. In this list, there are items which have links to several Wikipedia, the English one about the surname and the other(s) ones about a disambiguation page. Worse, there are items which don’t have an English interwiki any longer, because it was deleted or linked to another item (like the “real” family name item) and the wrong English label persisted. Si maybe we can filter our list to only items with a link to the English Wikipedia. For this, we’ll use schema.

SELECT DISTINCT ?name ?label (LANG(?label) AS ?lang)
WHERE {
    ?name wdt:P31 wd:Q101352 ; #the entity is a family name
          wdt:P31 wd:Q4167410 ; #the entity is also a disambiguation page
          rdfs:label ?label . #the entity have a label
    ?sitelink schema:about ?name .  #We want the entity to have a sitelink
              schema:inLanguage "en" ; #this sitelink is in English
              schema:isPartOf  <https://en.wikipedia.org/> . #and link to the English WP (and not Wikisource or others projects)
    FILTER(LANG(?label) IN ("en")). #the label exists in English
    FILTER(CONTAINS(?label, "(surname)")). #the label contains a specific string
}

link to the query. Well, that’s better! But our problem is still here: if they have several sitelinks, maybe the other(s) sitelink are not about the family name. So we want the items with an English interwiki and only an English interwiki. Like this:

SELECT DISTINCT ?name ?label (LANG(?label) AS ?lang)
WHERE {
    ?name wdt:P31 wd:Q101352 ; #the entity is a family name
          wdt:P31 wd:Q4167410 ; #the entity is also a disambiguation page
          rdfs:label ?label . #the entity have a label
    ?sitelink schema:about ?name .  #We want ?name to have a sitelink
    ?WParticle schema:about ?name ; #We'll define the characteristic of the sitelink
               schema:inLanguage "en" ; #this sitelink is in English
               schema:isPartOf  <https://en.wikipedia.org/> . #and link to the English WP (and not Wikisource or others projects)
    FILTER(LANG(?label) IN ("en")). #the label exists in English
    FILTER(CONTAINS(?label, "(surname)")). #the label contains a specific string
} GROUP BY ?name ?label HAVING (COUNT(DISTINCT ?sitelink) = 1) #With only one sitelink

link to the query.

Several things: we separated ?sitelink and ?WParticle. We use ?sitelink to query the number of sitelinks, and ?WParticle to query the particular of this sitelink. Note that we need to use GROUP BY, like last week.

Polishing of the query

Just to be on the safe side (we are never safe enough before automatizing corrections) we’ll also check that all items on our list are only family name/disambiguation pages; they’re not also marked as a location or something equally strange. So we query that they have only two P31 (instance of), these two being defined as Q101352 (family name) and Q4167410 (disambiguation page).

SELECT DISTINCT ?name ?label (LANG(?label) AS ?lang)
WHERE {
    ?name wdt:P31 ?type ; #the entity use the property P31 (instance of)
          wdt:P31 wd:Q101352 ; #the entity is a family name
          wdt:P31 wd:Q4167410 ; #the entity is also a disambiguation page
          rdfs:label ?label . #the entity have a label
    ?sitelink schema:about ?name .  #We want ?name to have a sitelink
    ?WParticle schema:about ?name ; #We'll define the characteristic of the sitelink
               schema:inLanguage "en" ; #this sitelink is in English
               schema:isPartOf  <https://en.wikipedia.org/> . #and link to the English WP (and not Wikisource or others projects)
    FILTER(LANG(?label) IN ("en")). #the label exists in English
    FILTER(CONTAINS(?label, "(surname)")). #the label contains a specific string
} GROUP BY ?name ?label HAVING ((COUNT(DISTINCT ?type) = 2) && (COUNT(DISTINCT ?sitelink) = 1)) #With only two P31 and one sitelink

link to the query.

It should give you a beautiful “no matching records found”. Yesterday, it gave me 175 items which I knew I could correct automatically. Which I have done, with a python script made by Ash_Crow. If you are good, he’ll make a #MondayScript in response to this #SundayQuery!

(Main picture: Name List of Abhiseka – Public Domain, photograph done by Kūkai.)

  1. Yes, I really want you to read this one.
  2. Then. We had several hundreds result then. I’m happy to say it isn’t true now.

by Harmonia Amanda at September 18, 2016 12:51 PM

September 17, 2016

Wiki Loves Monuments (fr)

Coup de cœur du 16 septembre !

Et voilà le chien de pierre qui garde les jardins du Château de Villandry en Indre-et-Loire. Photo coup de coeur par DOGr CC-BY-SA 4.0.

by Sarah Krichen at September 17, 2016 02:44 PM

September 16, 2016

Wiki Loves Monuments (fr)

Photo du jour du 15 septembre !

Le château d’Angles-sur-l’Anglin qui domine la vallée du haut de sa falaise.

Par Bachelier Jacky (Travail personnel) [CC BY-SA 4.0]

by Sarah Krichen at September 16, 2016 04:07 PM

Wikimédia France

Plaidoyer pour enseigner Wikipédia, suite mais pas fin.

Après avoir écrit le billet Plaidoyer pour enseigner Wikipédia, j’ai participé à une table ronde Wikipédia à l’école à la Wikiconvention francophone puis discuté de l’enseignement de Wikipédia à l’EdCamp Paris à l’ICP, dans le cadre d’un “kindergarten” organisé par Wikimédia France. J’ai pu échanger avec des enseignants et contributeurs de Wikipédia sur ce thème, et j’en profite ainsi pour écrire une suite au premier billet qui tiendra également lieu de compte rendu pratique.

Il existe tout d’abord plusieurs façons d’utiliser Wikipédia dans l’enseignement supérieur et la vision des objectifs pédagogiques vus par Wikipédia et par l’enseignant ne sont pas forcément les mêmes. Ziko Van Dijk, autre intervenant de la table ronde à la Wikiconvention exprime cela en distinguant que l’objectif d’améliorer l’encyclopédie (c’est à dire produire du contenu), et former de nouveaux wikipédiens n’est pas forcément contenue dans l’idée pédagogique de l’universitaire.

Les collègues enseignants les plus réticents à Wikipédia ont comme objectif d’apprendre à s’en méfier : Wikipédia est associée à la peur du plagiat et à la question de la fiabilité. Nombreux sont ceux qui ont une vision très négative et stéréotypée. Il y a ensuite l’objectif d’apprendre à s’en servir, parfois pas très éloigné parfois d’ apprendre à s’en servir à des fins autopromotionelles : c’est la vision de “valorisation” du travail de recherche.

D’autres encore voient en Wikipédia la possibilité d’évaluer l’étudiant par l’écriture d’articles. Apprendre à écrire pour de vrai et être jugé par des pairs est déjà une activité plus en phase avec Wikipédia. L’une des variantes consiste à apprendre une matière en écrivant ; se pose alors le problème de la répétabilité d’une année sur l’autre. Une autre variante est d’apprendre à sourcer. C’est un objectif pédagogique constituant une des meilleures réponses à la vision méfiante vis-à-vis de Wikipédia.

Enfin il est possible d’utiliser Wikipédia comme vecteur ; apprendre à pénétrer un monde nouveau (dans le cours de Lionel Barbe, enseignant à Paris-Ouest également, ce dernier se définit comme un passeur de sciences plutôt qu’un maître). Dans mon cas, Wikipédia est un vecteur d’apprentissage de littératie numérique, ou plus exactement, comme le rappelle Milad Douheihi à la conférence inaugurale de l’EdCamp, une littératie numérique en tant que culture plutôt que technique ; développer une culture numérique critique de Wikipédia et du monde numérique par Wikipédia

Mon but est de parvenir à faire partager ma vision distanciée mais pas complètement de Wikipédia, faire toucher du doigt comment Wikipédia est un monde avec des aspects techniques, des aspects politiques, des aspects sociologiques, démocratiques, juridiques, épistémologiques….uniques et surtout complètement entremêlés les uns aux autres, et je le fais en racontant des anecdotes….des anecdotes qui ont pour but de révéler ces enchevêtrements en racontant une histoire. L’anecdote est censée surprendre sur un sujet que tout le monde connaït mais que personne ne connaît ET révéler les tensions et interpénétrations de tous ces thèmes, mais aussi provoquer des questions-réponses, particulièrement si l’anecdote a ou a eu un succès médiatique, si elle a été relatée dans la presse…

Par exemple : quand est abordée dans la pédagogie de l’écriture la question de l’ajout de photos, les principes de wikimedia commons, et/ou les règles du copyvio, l’anecdote du selfie du macaque met en lumière ces sujets, leur enchevêtrement, et leurs implications à la fois juridiques, techniques, procédurales, et de choix de licence, tout en traitant du militantisme du copyleft. L’anecdote est donc tout sauf futile : elle met en lumière cette complexité.

Mais dans la pratique, pour l’enseigner, la structure académique pose d’autres problèmes qu’un manque de vision pédagogique. Elle pose aussi des problèmes concrets à la fois pédagogiques et techniques :
Le premier problème est la nécessité (pour l’enseignant et l’étudiant) d’un cours hybride : à moitié en présentiel et à moitié en ligne. Dans la mesure où intervenir dans Wikipédia est une activité propre à une communauté en ligne et qui réagit de manière asynchrone, la partie active de l’enseignement n’est pas du tout adaptée à être présents obligatoirement en classe/amphi tout le temps en même temps ensemble. Pour tout ce qui est présentation, exemples, principes, débat dans la classe… le présentiel s’impose, il est même crucial : enseigner Wikipédia en ligne serait possible mais la description critique des mécanismes d’une part, l’accompagnement dans les premiers pas et la conclusion d’autre part sont plus faciles en présentiel. Mais d’un autre côté, dans toute la partie où l’étudiant doit plonger dans Wikipédia, y agir, y interagir ne se prête pas du tout à des séances en présentiel à heures et durée fixes : l’interaction avec la communauté est asynchrone.

Pire, obliger les étudiants à intervenir ensemble en même temps sur Wikipédia est une aberration technique : puisque tous les ordinateurs d’une même salle (voire même de toute une université ) sont vus par l’extérieur comme une seule adresse IP, la probabilité d’être vu comme une attaque en déni de service par Wikipédia est énorme et rend l’écriture dans Wikipédia impraticable. Wikipédia, pour se protéger, possède un mécanisme : pas plus de quelques interventions par minute provenant d’une même adresse IP avant blocage. La conséquence est de rendre impossible l’écriture dans Wikipédia dès que le nombre d’étudiants dépasse une poignée.

Une des conséquences de cet asynchronisme souhaité, est que la remise d’un écrit, d’une contribution à Wikipédia ne devrait PAS être l’aboutissement, ni d’un rendu, ni d’un cours, parce qu’il faut laisser le temps à la communauté de réagir ET à la classe d’en discuter. C’est une notion qui perturbe le schéma pédagogique ou le rendu conclut traditionnellement un cours, laissant au maître le soin d’évaluer, une fois le cours fini.

La question de l’évaluation s’est de fait beaucoup posée à la Wikiconvention. Si les enseignants savent tirer profit de Wikipédia pour imaginer une évaluation “par les pairs”, ils se posent souvent la question de comment évaluer l’évaluation, ou plus prosaïquement, comment transformer cette évaluation en note quantitative et compatible avec la logique universitaire de notation. Cet abandon de souveraineté de l’enseignant aux pairs est aussi à mettre en parallèle avec la question de choix du sujet de contribution d’un étudiant: en laissant à ce dernier la possibilité de s’exprimer (comme Wikipédia le recommande) dans un domaine qui lui est cher, l’enseignant est possiblement confronté à la possibilité de ne pas être l’expert du sujet.

De cette interrogation venant de collègues qui n’ont pas hésiter à plonger dans Wikipédia, on peut déduire qu’il n’est pas conseillé d’imaginer un cours et une évaluation de ce style sans avoir un minimum d’expérience de Wikipédia, d’être soit même lettré en Wikipédia.

Il reste beaucoup de choses à faire pour rendre l’Université et l’enseignement de Wikipédia compatibles, mais de plus en plus de gens s’y mettent…et en débattent.

Ce billet, deuxième d’une série sur l’enseignement de Wikipédia à l’Université est écrit par Alexandre Hocquet (Membre de Wikimédia France, Professeur des Universités à l’Université de Lorraine, appartenant au laboratoire de philosophie et d’histoire des sciences « Archives Henri Poincaré » dont le domaine est les STS, ou plus spécifiquement les Software Studies, et sa méthode l’analyse de conversations en fil).

by Mathieu Denel at September 16, 2016 02:00 PM

Alphos

SPARQuickL 2 – Risque de décès

Étape 1 : Pays

SELECT ?country ?countryLabel WHERE { ?country wdt:P31 wd:Q6256 . # countries SERVICE wikibase:label { bd:serviceParam wikibase:language "en" } }

Essayez

Étape 2 : Personnes mortes en 2015 et leur nationalité

SELECT ?person ?dod ?country WHERE { ?person wdt:P31 wd:Q5 . # humans ?person wdt:P570 ?dod . # of

Continue reading « SPARQuickL 2 – Risque de décès »

by Alphos at September 16, 2016 01:22 PM

Wiki Loves Monuments (fr)

Image du jour du 14 septembre !

Appréciez l’entrée de la crypte de l’abbassiale de cruas du 10° siècle pour cette photo coup de cœur WLM 2016 ! Photo réalisée par Celeda CC-BY-SA 4.0

by Sarah Krichen at September 16, 2016 10:15 AM

September 15, 2016

Ash Crow

De la classification sur Wikidata

Quand on classe des trucs, on a grosso-modo deux approches possibles : des cases hyper-pointues allant aussi loin que possible dans le détail, ou au contraire des cases très larges en laissant à l’utilisa⋅teur⋅trice le soin de croiser pour trouver ce qui l’intéresse. Wikimedia Commons a grosso-modo choisi la première approche, avec des catégories comme « [[Category:Castles in Andalusia at night]] [1]Je suis déçu : il n’y a pas de sous-catégorie [[Category:Castles in Andalusia at night facing left]]. », alors que Wikidata a plutôt choisi l’approche inverse, avec un grand nombre de propriétés que l’on peut croiser par le biais de requêtes SPARQL (entre autres), ce qui donne pour l’Alhambra de Grenade : « Nature de l’élément (P31) → château fort (Q23413) » et « Pays (P17) → Espagne (Q29) » et tout un tas d’autres déclarations [2]Wikipédia, quant à elle, hésite entre ces deux approches, selon les catégories..

Un château en Espagne (allégorie)
Un château en Espagne (satire)

Je dis « plutôt choisi » parce qu’il arrive qu’on tombe sur des cas où une classe tente de mélanger plusieurs axes, et qui suffisent généralement à démontrer pourquoi cette approche est une mauvaise idée. En l’espèce, je vais me pencher sur l’élément « bataille du Moyen Âge (Q15991159) » : ça tombe bien, c’est un domaine qui me botte.

Le problème des classes aux limites arbitraires

Le premier problème qui vient à l’esprit, c’est les limites de la classe : si on se fie à sa description en français, la seule présente lors de sa création, cette classe est censée contenir des « bataille[s] ayant eu lieu pendant la période du moyen âge, en occident ». Bon, la description précise explicitement l’Occident qui n’était qu’implicitement défini par le fait que le Moyen Âge est une notion d’historiographie occidentale, mais les limites restent assez floues.

  • Bataille en soi est discutable (on peut se poser la question d’y inclure ou non les sièges, par exemple), mais partons du principe que l’on a la même définition que pour l’élément « bataille (Q178561) » tout court qu’il remplace en tant que nature de l’élément (P31).
  • Par contre, « la période du moyen âge », c’est largement plus subjectif. Les dates varient pas mal. Si la plupart des historiens s’accordent à situer le début à l’année 476 [3]En revanche, la culture populaire a tendance à ignorer complètement le haut Moyen Âge. Tous les jeux de stratégie médiévale que je connais commencent en 1066 avec l’expédition de Guillaume le Conquérant. Si la période précédente est abordée, c’est dans des extensions, comme Crusader Kings II avec Charlemagne., la fin est plus floue. Même en ignorant le « long Moyen Âge » de Jacques Le Goff qui s’étend en gros de Justinien à la Révolution française, les dates généralement admises varient par pays mais sont situées dans la seconde moitié du XVe siècle.
  • Enfin, comme dit plus haut, le Moyen Âge est un concept occidental, ce qui recouvre une zone aux contours flous, aussi bien à l’époque actuelle que si on se limite au Moyen Âge : au début de la période, c’est l’Empire romain d’Occident, celui qui vient de s’effondrer sous les coups des barbares assoiffés de sang qui, etc., vous connaissez le roman national. À la fin, c’est, pour faire simple, la Chrétienté [4]enfin pas l’Éthiopie non plus, faut pas déconner., ce qui pose d’autres questions : à partir de quand peut-on inclure les batailles dans les pays orthodoxes ? Et dans les pays scandinaves/germaniques/nordiques ? Et les batailles impliquant des forces européennes mais se passant ailleurs, comme les Croisades, on les compte ? Autrement dit pour ce dernier cas, on définit « Occident » par le lieu de l’action ou par l’origine des belligérants ?

Par comparaison, l’approche standard de Wikidata (en utilisant « nature de l’élément (P31)bataille (Q178561) », date (P585) [5]ou « date de début (P580) » et « date de fin (P582) » si besoin., « lieu (P276) » et « participant (P710) » pour les cas abordés dans la liste ci-dessus) se révèle à la fois plus souple (on peut être très précis⋅e sur la date comme sur le lieu) et moins subjective que l’apposition de la classe bataille du moyen Âge…

Les données réelles

Du coup, avec des définitions aussi floues, on peut se demander comment les données sont utilisées…

Cherchons donc ça.

# Batailles du moyen-âge
SELECT ?item ?itemLabel ?lieuLabel ?date ?coords WHERE {
  ?item wdt:P31 wd:Q15991159 .
  
  OPTIONAL{ ?item wdt:P276 ?lieu . }
  OPTIONAL{ ?item wdt:P585 ?date . }
  OPTIONAL{ ?item wdt:P625 ?coords . }
  
  SERVICE wikibase:label { bd:serviceParam wikibase:language "fr,en" }
} ORDER BY ?itemLabel

On a donc 687 éléments ayant cette nature, dont voici la liste par ordre alphabétique.

Répartition géographique

Plaçons donc les résultats sur une carte :

bataillesmoyenagecarte

http://tinyurl.com/jf4kvzw

Ouch, ça pique. Je veux bien admettre qu’on compte les batailles au Proche Orient, probablement liées aux Croisades, mais des chevaliers médiévaux dans le Golfe de Guinée ? au Mexique ? au Japon ? Il semblerait que la limitation de la classe à l’Occident ne soit pas une évidence pour tout le monde. Argh. Mais on est au moins raccord sur la période alors ?

Répartition temporelle

bataillesmoyenagefrisehttp://tinyurl.com/hkb6cqf

Si on place les résultats sur une frise, c’est nettement meilleur que sur la carte, avec seulement deux résultats manifestement erronés : la bataille d’Andrinople en 378 et celle de Szikszó en 1588 (vous ne devriez pas les voir ressurgir dans les résultats, j’ai corrigé ça.) Reste que la limite de fin reste arbitraire, contrairement à une requête normale où l’on peut choisir celle qui nous intéresse, que ça soit 1453 [6]Quand les Bretons sont venus sauver le cul des Français une énième fois à la bataille de Castillon. Ou alors c’est pour l’invention de l’imprimerie mobile par Gutenberg, ou la chute de Constantinople, allez savoir., 1492 [7]Quand les Français, ingrats (cf. note précédente), s’emparent de « la ville de Rennes et la fille qui est dedans », à moins que ça n’ait trait à la fin de la Reconquista et à l’expédition de Christophe Colomb…, ou n’importe quelle autre.

Si on résume, l’arbitraire des choix impliqués par une classe croisant de multiples critères la rend inutilisable en pratique, tout en compliquant la recherche des batailles « normales » puisque qu’on doit du coup inclure les sous-classes, juste pour récupérer les batailles ayant eu lieu en Europe (ou pas) entre 476 et 1453, ou 1492, ou 1500 (enfin on l’espère).

Ma conclusion ? Comme disait Jeanne la Flamme au siège d’Hennebont, foutez-y-moi le feu.

jeanne_flamme
Jeanne la Flamme, par Jeanne Malivel (1926)

Image d’en-tête : Le Combat des Trente (détail), par Pierre Le Baud (1480-1482)

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Enregistrer

Notes   [ + ]

1. Je suis déçu : il n’y a pas de sous-catégorie [[Category:Castles in Andalusia at night facing left]].
2. Wikipédia, quant à elle, hésite entre ces deux approches, selon les catégories.
3. En revanche, la culture populaire a tendance à ignorer complètement le haut Moyen Âge. Tous les jeux de stratégie médiévale que je connais commencent en 1066 avec l’expédition de Guillaume le Conquérant. Si la période précédente est abordée, c’est dans des extensions, comme Crusader Kings II avec Charlemagne.
4. enfin pas l’Éthiopie non plus, faut pas déconner.
5. ou « date de début (P580) » et « date de fin (P582) » si besoin.
6. Quand les Bretons sont venus sauver le cul des Français une énième fois à la bataille de Castillon. Ou alors c’est pour l’invention de l’imprimerie mobile par Gutenberg, ou la chute de Constantinople, allez savoir.
7. Quand les Français, ingrats (cf. note précédente), s’emparent de « la ville de Rennes et la fille qui est dedans », à moins que ça n’ait trait à la fin de la Reconquista et à l’expédition de Christophe Colomb…

Cet article De la classification sur Wikidata est apparu en premier sur The Ash Tree.

by Ash_Crow at September 15, 2016 06:00 AM

September 14, 2016

Wikitraits

Wiki Loves Monuments (fr)

Image du jour du 13 septembre !

Et voici pour la photo du jour le moulin à eau du Hameau de la Reine Marie Antoinette. On distingue même sur cette façade la roue en chêne qui n’était en fait qu’un décor. Par Jacky Delville (Travail personnel) [CC BY-SA]

Pour en savoir plus sur le hameau de la Reine, lisez l’article de qualité sur Wikipédia !

by Sarah Krichen at September 14, 2016 03:31 PM

September 13, 2016

Wiki Loves Monuments (fr)

Ash Crow

Prototypage rapide d’entités Wikidata

W

ikidata est un projet puissant, mais pour pouvoir en profiter, il faut le remplir. Bien sûr, il est possible d’ajouter des données à la main directement sur le site : ça fonctionne sans souci mais que faire quand on a plusieurs dizaines d’entrées ? Plusieurs centaines ? Avec le temps, quelques outils ont vu le jour permettant d’automatiser un peu ce processus, comme l’indispensable QuickStatements ; là encore, il faut bien lui fournir les données qu’il mange et tout ceci est parfois bien fastidieux. Est-ce qu’on ne peut pas aller plus loin ?

Une entrée wikidatienne sur un être humain, par exemple, possède des champs plus ou moins codifiés :

  • Une nature de l’élément égal à Q5, « être humain »
  • Un genre (masculin, féminin, etc.)
  • Une date et un lieu de naissance
  • Une date et un lieu de décès
  • Un pays de nationalité
  • Une occupation
  • Un prénom et un nom de famille

Toutes ces propriétés ne se rencontrent pas à chaque fois et on peut en rajouter d’autres, mais est-ce que ça ne serait pas intéressant d’avoir une sorte de formulaire où on se contenterait de remplir les cases correspondantes, histoire de créer rapidement un squelette d’entité Wikidata ? Pour voir, j’ai codé l’utilitaire « human » : vous mettez ce qu’il faut dans les champs, vous appuyez sur le bouton et il produit le code à destination de QuickStatements. J’ai le sentiment qu’on peut ainsi gagner du temps et on n’oublie rien.

Histoire d’aller un peu plus loin, je me suis penché sur la base Joconde, qui a le goût d’être remplie avec pas mal de soin. J’en ai sorti un autre utilitaire, baptisé Joconde parce que je suis un gars avec une imagination débordante. Sa fonction : parser une fiche Joconde, en retirer les champs qui vont bien (titre, auteur, sujets représentés, etc.) et présenter le résultat dans un formulaire pour correction avant envoi à QuickStatements. Les champs corrigés sont stockés en base, histoire que si l’utilitaire puisse ressortir la correction s’il retombe dessus (comme ça, « MONET Claude » est automatiquement corrigé en « Claude Monet, peintre français, Q296 »). On y gagne du temps.

Personnellement, je pense que cette idée de formulaires pré-remplis est à creuser, pour Wikidata. Qu’en pensez-vous ?

PS : j’imagine que mon outil pour Joconde doit enfreindre des milliers de lois, de licences et de copyrights. Je laisse le soin aux Wikimédiens que ça intéresse de discuter de la chose et de décider s’il faut supprimer toutes mes contributions. Prévenez-moi juste du résultat final.

(Image d’en-tête : détail de La Joconde, par Léonard de Vinci (domaine public))

Mise à jour du 28 septembre 2016 : j’ai placé le code des outils en question sur GitHub : https://github.com/PoulpyFR. Bien sûr, c’est codé n’importe comment et pas commenté. 🙂

Cet article Prototypage rapide d’entités Wikidata est apparu en premier sur The Ash Tree.

by Poulpy at September 13, 2016 06:18 AM

September 11, 2016

Ash Crow

Sunday Query: The 200 Oldest Living French Actresses

Hello, here’s Harmonia Amanda again (I think Ash_Crow just agreed to let me squat his blog indefinitely). This article shouldn’t be too long, for once.[1] It started as an hashtag on twitter #SundayQuery, where I wrote SPARQL queries for people who couldn’t find how to ask their question. So this article, and the next ones if I keep this up, are basically a kind of “how to translate a question in SPARQL step by step” tutorial.

The question this week was asked by Jean-No: who are the oldest French actresses still alive?

To begin: the endpoint and PREFIX…

SPARQL is the language you use to query a semantic database. For that you can use an endpoint, which are services that accept SPARQL queries and return results. There are many SPARQL endpoints around, but we will be using the Wikidata endpoint.

A semantic base is constituted of triples of information: subject, predicate, object (in Wikidata, we usually call that item, property, value, but it’s the exact same thing). As querying with full URIs all the time would be really tedious, SPARQL needs PREFIX.

PREFIX wd: <http://www.wikidata.org/entity/>
PREFIX wdt: <http://www.wikidata.org/prop/direct/>
PREFIX wikibase: <http://wikiba.se/ontology#>
PREFIX p: <http://www.wikidata.org/prop/>
PREFIX ps: <http://www.wikidata.org/prop/statement/>
PREFIX pq: <http://www.wikidata.org/prop/qualifier/>
PREFIX rdfs: <http://www.w3.org/2000/01/rdf-schema#>
PREFIX bd: <http://www.bigdata.com/rdf#>

These are the standard prefixes used to query Wikidata. If used, they should be stated at the top of the query. You can add other prefixes as needed to. Actually, the Wikidata endpoint has been created to specifically query Wikidata, so all these prefixes are already declared, even if you don’t see them. But it’s not because they aren’t visible that they aren’t there, so always remember: SPARQL NEEDS PREFIX. There.

All French women

The first thing to declare after the prefixes, is what we are asking to have for results. We can use the command SELECT or the command SELECT DISTINCT (this one ask to clear off duplicates) and then listing the variables.

As we are looking for humans, we’ll call this variable “person” (but we could choose anything we want).

SELECT ?person

We will then define the conditions we want our variable to respond to, with WHERE. We are seeking the oldest French actresses still alive. We need to cut that in little understandable bits. So the first step is, we are querying for human beings (and not fictional actresses). Humans beings are all items which have the property “instance of” (P31) with the value “human” (Q5).

So:

SELECT ?person
WHERE {
    ?person wdt:P31 wd:Q5 .
    }

This query will return all humans in the database.[2] But we don’t want all humans, we want only the female ones. So we want humans who also answer to “sex or gender” (P21) with the value “female” (Q6581072).

SELECT ?person
WHERE {
    ?person wdt:P31 wd:Q5 .
    ?person wdt:P21 wd:Q6581072 .
    }

And we want them French as well! So with “country of citizenship” (P27) with the value “France” (Q142).

SELECT ?person
WHERE {
    ?person wdt:P31 wd:Q5 .
    ?person wdt:P21 wd:Q6581072 .
    ?person wdt:P27 wd:Q142 .
    }

Here it is, all French women. We could also write the query this way:

SELECT ?person
WHERE {
    ?person wdt:P31 wd:Q5 ;
            wdt:P21 wd:Q6581072 ;
            wdt:P27 wd:Q142 .
    }

It’s exactly the same query.

All French actresses

Well that seems like a good beginning, but we don’t want all women, we only want actresses. It could be as simple as “occupation” (P106) “actor” (Q33999) but it’s not. In reality Q33999 doesn’t cover all actors and actresses: it’s a class. Subclasses, like “stage actor”, “television actor”, “film actor” have all “subclass of” (P279) “actor” (Q33999). We don’t only want the humans with occupation:actor; we also want those with occupation:stage actor and so on.

So we need to introduce another variable, which I’ll call ?occupation.

SELECT ?person
WHERE {
    ?person wdt:P31 wd:Q5 . #All humans
    ?person wdt:P21 wd:Q6581072 . #Of female gender
    ?person wdt:P27 wd:Q142 . #With France as their citizenship country
    ?person wdt:P106 ?occupation . #With an occupation
    ?occupation wdt:P279* wd:Q33999 . #This occupation is or is a subclass off "actor"
    }

Actually, if we really wanted to avoid the ?occupation variable, we could have written:

SELECT ?person
WHERE {
    ?person wdt:P31 wd:Q5 ;
            wdt:P21 wd:Q6581072 ;
            wdt:P27 wd:Q142 ;
            wdt:P106/wdt:P279* wd:Q33999 .
    }

I’s the same thing, but I found it less clear for beginners.

Still alive

So now we need to filter by age. The first step is to ensure they have a birth date (P569). As we don’t care (for now) what this birth date is, we’ll introduce a new variable instead of setting a value.

SELECT ?person
WHERE {
    ?person wdt:P31 wd:Q5 .
    ?person wdt:P21 wd:Q6581072 .
    ?person wdt:P27 wd:Q142 .
    ?person wdt:P106 ?occupation .
    ?occupation wdt:P279* wd:Q33999 .
    ?person wdt:P569 ?birthDate . #With a birth date
    }

Now we want the French actresses still alive, which we’ll translate to “without a ‘date of death’ (P570)”. For that, we’ll use a filter:

SELECT ?person
WHERE {
    ?person wdt:P31 wd:Q5 .
    ?person wdt:P21 wd:Q6581072 .
    ?person wdt:P27 wd:Q142 .
    ?person wdt:P106 ?occupation .
    ?occupation wdt:P279* wd:Q33999 .
    ?person wdt:P569 ?birthDate . #With a birth date
 FILTER NOT EXISTS { ?person wdt:P570 ?deathDate . } #Without a death date
    }

Here it is, all French actresses still alive!

The Oldest

To find the oldest, we’ll need to order our results. So after the WHERE section of our query, we’ll add another request: now that you have found me my results, SPARQL, can you order them as I want? Logically, this is called ORDER BY. We can “order by” the variable we want. We could order by ?person, but as it’s the only variable we have selected in our query, it’s already done. To order by a variable, we need to ask to select this variable first.

The obvious way would be to order by ?birthDate. The thing is, Wikidata sometimes has more than one birth date for people because of conflicting sources, which translates in the same people appearing twice. So, we’ll group the people by their Qid (using GROUP BY) si that duplicates exist now as a group. Then we use SAMPLE (in our SELECT) to take only the groups’ first birth date that we find… And then ORDER BY it :

SELECT ?person (SAMPLE(?birthDate) AS ?date)
WHERE {
    ?person wdt:P31 wd:Q5 .
    ?person wdt:P21 wd:Q6581072 .
    ?person wdt:P27 wd:Q142 .
    ?person wdt:P106 ?occupation .
    ?occupation wdt:P279* wd:Q33999 .
    ?person wdt:P569 ?birthDate .
 FILTER NOT EXISTS { ?person wdt:P570 ?deathDate . }
    } GROUP BY ?person ORDER BY ?date

This gives us all French actresses ordered by date of birth, so the oldest first. We can already see that we have problems with the data: actresses whom we don’t know the date of birth (with “unknown value”) and actresses manifestly dead centuries ago but whom we don’t know the date of death. But still! Here is our query and we answered Jean-No’s question as we could.

With labels

Well, we certainly answered the query but this big list of Q and numbers isn’t very human-readable. We should ask to have the labels too! We could do this the proper SPARQL way, with using RDFS and such, but we are querying Wikidata on the Wikidata endpoint, so we’ll use the local tool instead.

We add to the query:

SERVICE wikibase:label { bd:serviceParam wikibase:language "fr,en" . }

which means we ask to have the labels in French (as we are querying French people), and if it doesn’t exist in French, then in English. But just adding that doesn’t work: we need to SELECT it too! (and to add it to the GROUP BY). So:

SELECT ?person ?personLabel (SAMPLE(?birthDate) AS ?date)
WHERE {
    ?person wdt:P31 wd:Q5 .
    ?person wdt:P21 wd:Q6581072 .
    ?person wdt:P27 wd:Q142 .
    ?person wdt:P106 ?occupation .
    ?occupation wdt:P279* wd:Q33999 .
    ?person wdt:P569 ?birthDate .
 FILTER NOT EXISTS { ?person wdt:P570 ?deathDate . }
         SERVICE wikibase:label { bd:serviceParam wikibase:language "fr,en" . }
    } GROUP BY ?person ?personLabel ORDER BY ?date

Tada! It’s much more understandable now!

Make it pretty

I don’t want all living French actresses, including the children, I want the oldest; so I add a LIMIT to the results.[3]

} GROUP BY ?person ?personLabel ORDER BY ?date LIMIT 200

And why should I have a table with identifiers and names when I could have the results as a timeline? We ask that at the top, even before the SELECT:[4]

#defaultView:Timeline

Wait, wait! Can I have pictures too? But only if they have a picture, I still want the results if they don’t have one (and I want only one picture if they happen to have several so I use again the SAMPLE). YES WE CAN:

#defaultView:Timeline
SELECT ?person ?personLabel (SAMPLE(?birthDate) AS ?date) (SAMPLE(?photo) AS ?pic)
WHERE {
    ?person wdt:P31 wd:Q5 .
    ?person wdt:P21 wd:Q6581072 .
    ?person wdt:P27 wd:Q142 .
    ?person wdt:P106 ?occupation .
    ?occupation wdt:P279* wd:Q33999 .
    ?person wdt:P569 ?birthDate .
 FILTER NOT EXISTS { ?person wdt:P570 ?deathDate . }
    OPTIONAL { ?person wdt:P18 ?photo . }
        SERVICE wikibase:label { bd:serviceParam wikibase:language "fr,en" . }
    } GROUP BY ?person ?personLabel ORDER BY ?date LIMIT 200

Here the link to the results. I hope you had fun with this SundayQuery!

(Main picture: Mademoiselle Ambroisine – created between 1832 and 1836 by an artist whose name is unreadable – Public Domain.)

  1. Well, nothing to compare to my previous one, which all of you should have read.
  2. Well, if it doesn’t timeout through the sheer number.
  3. And it will be quicker that way.
  4. Beware that this doesn’t work on all SPARQL endpoints out there, even if it exists on the Wikidata one.

by Harmonia Amanda at September 11, 2016 03:51 PM

Darkoneko

September 08, 2016

Wiki Loves Monuments (fr)

Image du jour du 7 septembre !

Le Monument à Napoléon est un monument commémoratif de la Manche, situé place Napoléon, à Cherbourg-Octeville. C’est notre photo coup de cœur du jour et elle est signée JMEnault_Ville de Cherbourg-en-Cotentin [CC-BY-SA]

by Sarah Krichen at September 08, 2016 02:56 PM

September 07, 2016

Wiki Loves Monuments (fr)

Image du jour du 6 septembre !

Magnifique reflet du château de Vaux-le-Vicomte pour cette photo prise à l’aube. [Crédit Jcvaux CC-BY-SA]

by Sarah Krichen at September 07, 2016 03:31 PM

September 06, 2016

Wiki Loves Monuments (fr)

Image du jour du 5 septembre !

Pour la cinquième photo coup de cœur de cette édition 2016 de Wiki Loves Monuments bienvenue à la chartreuse de Bonpas, monument historique classé datant du XIIe siècle, située dans la commune de Caumont-sur-Durance du Vaucluse.

Par Marianne Casamance [CC BY-SA 4.0]

by Sarah Krichen at September 06, 2016 02:49 PM