Le Père-Lachaise de 1855 par F. T. Salomon

14:38, Wednesday, 29 2019 May UTC
F. T. Salomon a publié en 1855 l'ouvrage intitulé Le Père Lachaise, recueil général alphabétique des concessions perpétuelles établies dans ce lieu, précédé des tarifs des pompes funèbres, du prix des terrains, des lois, décrets, ordonnances et arrêtés sur la matière, avec notes explicatives, vues et plan général. 312 pages réservées aux initiés.

 
L'ouvrage est constitué de tableaux qui correspondent à un inventaire complet des concession perpétuelles du cimetière en 1855. Cet inventaire est complété d'une localisation assez fine des concessions. 


Malheureusement en l'état, l'ouvrage n'est guère pratique car l'auteur a trié les concessions par ordre alphabétique. Or les amateurs éclairés du Père-Lachaise opèrent plutôt par zone géographique. Il n'est pas rare en effet d'identifier une concession anonyme en fonction des tombes voisines.

Une transcription de l'ouvrage circule au sein d'un groupe d'amateurs éclairés. Mais aucune version n'était publique. Jusqu'à récemment. Wikisource comporte dorénavant la première transcription publique du Salomon (1855). Par défaut, le tableau est trié par ordre alphabétique. Il est possible de trier les données par ordre géographique en cliquant sur les flèches de la dernière colonne (le traitement des données peut prendre plusieurs secondes), puis refaire la même opération sur la colonne du milieu. Cette action peut entraîner le blocage du navigateur sur des config pas très puissantes. Une version Google Spreadsheet permet d'éviter ce problème (Framacalc a été envisagé mais s'est avéré moins puissant que Google pour gérer les 18000 lignes).

Ce travail n'aurait pas été possible sans le travail de numérisation de deux grandes bibliothèques :

Vous retrouverez la classification crée par Salomon dans les fiches d'inventaire qui se trouvent sur Wikimedia Commons. Voir par exemple la fiche de la tombe de la famille Breguet.


Gribouillage 215 : Notoriété estrangère.

15:19, Sunday, 26 2019 May UTC

Dessiner les couvre-chefs m’a beaucoup amusé. J’ai du me retenir d’ajouter une baguette et la bouteille de rouge xD

Le gus d’enwiki aurait probablement dû être étazunien plutôt que brit, mais bon, un fusil d’assaut c’est moins drôle à gribouiller qu’un monocle.

 

Gribouillage 213 : Qui l’eût cru ?

12:05, Friday, 24 2019 May UTC

Le flashback correspond à la Gribouille 139, publiée fin 2015.

(source)

Ce moment où… (1)

23:50, Monday, 20 2019 May UTC

…tu en a marre de bienvenuter les nouveaux à la main, que clairement pas assez d’autres le font, et que tu décides d’automatiser ça avec un script sans rien demander à personne :

(Après août 2007 j’ai déplacé ça sur Loveless)

WMF : donnez ou crevez !

01:13, Saturday, 06 2018 October UTC

« Nous sommes en 2018 après Jésus-Christ ; toute Wikipédia est occupée par l’absence de pub… Toute ? Non ! Car un appel au don peuplé d’irréductibles bandeaux résiste encore et toujours à l’envahisseur. »

Comme la WMF le dit elle-même, « Wikipédia est un lieu de connaissance et non de publicité ». Ce gentil message s’affiche dans un discret petit message ne prenant seulement que 80% de la hauteur de l’écran.

Cette année, je ne peux (heureusement) pas voir ces bandeaux, ayant déménagé outre-Atlantique. J’apporte cependant mon soutien aux lecteurs et contributeurs victimes d’un hébergeur qui part en roue libre.

Ce n’est pas la première fois que ces messages choquent la communauté, quand elle ne se demande pas si elle est victime d’un phishing. La WMF ne se contente plus de d’apposer des messages plus volumineux que le contenu utile, elle l’intègre directement dans les articles !

Face à cela, la réponse de la WMF reste toujours identique : c’est le moyen le plus efficace !

L’un des éléments que je trouve le plus détestable est de laisser croire que Wikimédia est au bord de la faillite alors qu’en réalité elle dispose d’une marge que l’on qualifiera de (très) confortable. Sans compter que le fait de réutiliser les mêmes codes (bandeaux volumineux, en gros, en rouge, etc…) que les sites les moins regardant niveau éthique n’est pas pour me remonter le moral.

Est-il vraiment nécessaire, afin de faire toujours plus de profit, de manquer ainsi de respect aux lecteurs et contributeurs ? Je ne pense pas.

On en arrive à un point où l’on se met à conseiller sur le Bistro d’utiliser un bloqueur de publicité sur le seul site du top 10 qui peux se vanter d’être ads free.

Mais ne soyez pas trop pessimistes, si vous donnez vous ne serez pas épargné par ces bandeaux et vous aurez même droits à des pourriels grotesques en prime.

[EDIT]

La campagne de don est nécessaire et permet de financer des améliorations majeures tels que la coloration syntaxique par exemple. Il est donc parfaitement normal et justifié que la WMF demande de l’argent. Je regrette simplement qu’elle place dans l’odre des priorité l’efficacité avant l’expérience utilisateur.

Images (cliquez sur le lien voir la licence et les auteurs)
* Campagne 2018 d'appel aux dons 01.png 
* File:Campagne 2018 d'appel aux dons 02.png

Mon Voyage a Mother City

12:49, Monday, 13 2018 August UTC

Si si c'est mon plus long voyage, j'ai traversé 3 continents pour revenir a l'Afrique.
J'ai démarré de l'Afrique du nord pour attendre le point le plus au sud de ce continent.
L'espérance. .. les découvertes pour moi était grandes et fantastique.
Au fait j'ai décollé 3 fois et j'ai atterit 3 fois.
Je suis passé par 6 aéroports et visité 2 belles villes dans 2 continents différents.
J'ai vu l'hiver en plein été.
Mother City est une ville calme et pacifique malgré ce qu'on dit d'elle et ce qu'on entend.
De la cohabitation, le mixage y est et l'acceptation de l'autre est bien encré.
J'ai vue des mosquées construite 20 ans avant que la france occupe le nord de l'Afrique.
J'ai vue des abdelkader dans le pays des zoulou.
Ma venue était programmée. Pour aider a partager la conaissance apporter la mienne et partir avec la leurs. A mon départ vers chez moi je suis reparti lourdement chargé de nouvelles connaissances j'ai donné ce que je pouvais donner sans être sur que c'était pas équitable.
Je ressentait que jetait pas suffisaient in bon donateur.
Le cape du  goud hope te donne ce hope dont on a tous besoins.
Cest deja cela.
Mon seul conseil que j'ai donné aux gens du cap
A abdulkader le taxieur " c'est un diamant que vous avez, préservez  le , c'est votre richesse et votre fierté.'
'


Persona non grata

05:20, Friday, 27 2018 July UTC

Hello,

today, I want to present you some Wikipedia’s aspect which can give you a good time or facepalm.

Wikimedia’s ecosystem have many projects in many languages. I can edit all of them… but one. After five years, I’m still blocked on one of the biggest project : the english Wikipedia.

I’m one of these person which consider that privacy, including on the web, is a really important things. So, to avoid tracking in any sort, I use a famous network : Tor.

The wikimedia’s policy is to forbid anonymous contributions from open proxy or Tor network in order to avoid abuses. BUT, there is a statut which allow you to bypass theses protections, for exemple to avoid China’s wall.

Administrators have, by default, this statut. It’s for this reason that I still can edit the french Wikipedia through Tor. But when I want to edit others projects, like Commons, I have to open an other navigator to edit.

Because switch navigators for cross-wiki is a really pain in the ass, I’ve requested the global statut. And they give it to me.

It’s at this occasion that I discovered that english Wikipedia community doesn’t recognize this statut and I have to request it in local too…

In the first time, they give me the local statut after CU’s check (their procedure) and they decide to remove after short time because they consider that I don’t need it, since I’m not corean or chinese 😉

Yes, I’m a administrator on the french Wikipedia, one of the biggest project. Yes I’m an OTRS agent and my IRL identity is known. Yes, I have the global statut. Yes I made more of 29 600 edits and have contributed since many years.

Yes, I still blocked on the english Wikipedia.

What if I see an error to correct ? If I have chance, my IP is not blocked and I correct (illegaly). If not, the error still in place. If they consider I dont need to contribute, I consider I dont need to push myself. Sorry english Wikipedia, I’m too lazy to log in myself in another navigator just because « I dont need it ».

I dont need to contribute on english wikipedia, I’m only a volunteer.

Yes, this situation is stupide but it’s not a problem, since I can still edit the rest of the wikimedia’s environment with pleasure.

Bye Bye Wikipédia ?

03:55, Thursday, 05 2018 July UTC

Dans le domaine du numérique, l’Union Européenne sait faire des choses biens et d’autres qui le sont beaucoup moins.

Parmi les mesures récentes qui sont une excellente chose, nous pouvons citer l’entrée en vigueur du RGPD qui m’a bien occupé ce dernier mois, mais ceci est une autre aventure dont je m’étalerai plus longuement dans un autre billet.

À cause de cela, j’ai suivi de loin l’affaire dont nous allons parler dans ce billet, je vais alors tenter de me rattraper maintenant.

Aujourd’hui, le texte va être étudié par le parlement européen.

Il s’avère que ce texte soulève une opposition importante, par exemple 70 personnalités du web incluant Vinton Cerf (père fondateur d’Internet), Tim Berners-Lee (inventeur du WWW), Bruce Schneier (spécialiste en sécurité informatique) se sont opposé au texte via une lettre ouverte.  On peut également citer une forte désapprobation de la part de 169 professeurs universitaires [2] et de 145 organismes opérant dans les domaines des droits de l’homme, de la liberté de la presse, de la recherche scientifique et de l’industrie informatique [3].

Wikipédia est également touché par ce texte qui risque de lui porter un préjudice important. C’est pour cette raison que le cinquième site le plus fréquenté du monde s’est opposé frontalement à ce texte, que ce soit de la part de la direction (CA de la WMF) ou des contributeurs bénévoles qui ont rendu les versions italienne, estonienne, lettone et espagnole  inaccessibles, d’autres comme les versions francophones ou anglophone se contentent d’avertir les lecteurs via des communiqués ou des bandeaux.

Bien qu’il y a déjà eu des précédents, une telle réaction de la part de Wikipédia, qui n’est pas réputé pour ses prises de positions politiques montre qu’un malaise existe.

Mais en fait, que reproche-t-on à ce texte ?

Si vous avez bien révisé votre guide du petit censeur, vous saurez que pour justifier une censure sans obtenir un lever de boucliers, vous devez mettre en avant la lutte contre la pédopornographie ou le terrorisme. Ici, le motif avancé est la protection des ayants-droits (vous savez, pour lutter contre le téléchargement illégal alors qu’il semblerait que ce ne soit pas si nocif que ça pour l’industrie (source)).

En effet, sous la pression de l’industrie du disque, des ayants-droits, etc., il est envisagé de filtrer en amont les contenus téléchargés grâce à des bots.

Ces processus coûteux à mettre en place sont destinés à repérer et bloquer les contenus protégés, en méconnaissant les exceptions aux droits d’auteurs (parodies, citations, …). Cela a donc des répercussions autant sur les petits hébergeurs qui ne peuvent mettre en place un tel système que pour les utilisateurs qui voient leur liberté d’expression menacé.

Pour entrer dans les détails, en effectuant une communication au public, le site devra par défaut obtenir l’autorisation des ayants droit avant de donner accès à n’importe quel contenu. S’il ne dispose pas de cette autorisation, il ne pourra plus être qualifié d’hébergeur et aura donc une responsabilité directe sur la légalité des contenus mis en ligne par les tiers (et la vous comprenez pourquoi la WMF commence à avoir des sueurs froides). Pour éviter des problèmes, le site doit filtrer grâce à des empreintes fournis par les ayants-droits.

Selon Raegan MacDonald, Head of EU Public Policy chez Mozilla « si ces propositions étaient adoptées, l’UE ferait un pas en arrière en laissant passer une loi fragmentée et archaïque sur le droit d’auteur ».  Le texte ne se limite pas aux seuls contenus audio ou musicaux, mais aussi sur l’ensemble des œuvres sous droit d’auteur, dont les logiciels.

Pour Wikimédia France, les contenus « reconnus comme pouvant potentiellement enfreindre la loi seront automatiquement bloqués », avec le jeu de l’article 13. « Or la complexité du droit d’auteur, les différences entre pays et les exceptions au droit d’auteur ne peuvent être correctement appréhendées par des algorithmes ». L’entité anticipe un risque d’autocensure : « les plateformes opteront pour un principe de précaution en bloquant plus de contenu que nécessaire ce qui réduira la diversité de ces plateformes en empêchant les personnes peu aguerries aux nouvelles technologies d’y participer ».

Internet n’est pas une zone de non droit (biens que des « professionnels du secteur » aient encore des problèmes avec la loi du 6 janvier 1978 mais j’en reparlerai dans un autre billet) et les contrefaçons, tout comme les harcèlements peuvent être poursuivis devant les tribunaux.

Toutefois, si ce texte passe, vos mèmes ou vos tweets sur les matchs de football avec photographies se feront bloquer par défaut. Viva la liberté d’expression !

Et vous pensez que je suis dans l’hyperbole en invoquant le principe de liberté d’expression ? Pourtant le Rapporteur spécial des Nations Unies (ONU) sur la promotion et la protection du droit à la liberté d’expression et d’opinion a adressé une lettre très critique à l’Union européenne. Vu que je rédige ce billet assez rapidement, je n’ai pas encore eu l’occasion de lire en détail cette lettre. Je suis désolé si ce billet paraît un peu brouillon, je n’ai eu le temps que de rassembler des ressources et débroussailler le terrain.

Sources / ressources :
* L’Internet libre et ouvert est en danger : vous pouvez arrêter ce désastre
* Filtrage : déluge de critiques sur l'article 13 du projet de directive sur le droit d'auteur
* Directive Copyright : combattons le filtrage automatisé... et la centralisation du Web !
* La directive copyright et le problématique article 13
* Directive Droit d’auteur : à l'ONU, les inquiétudes du Rapporteur spécial à la liberté d'expression
* Wikipédia mène la fronde contre la directive européenne sur le droit d'auteur

Sur une note plus légère, la version francophone de Wikipédia s’approche dangereusement du seuil des 2 000 000 articles créer. Pour fêter l’occasion, le site s’est fendu un petit communiqué de presse et préparé un nouveau logo spécialement pour l’occasion qui remplacera celui présent actuellement pendant probablement un mois (sondage).

La mise en place par défaut de la coloration syntaxique est également un (très) bon point.

Mathieudu68 : Un an dans la peau d’un arbitre

22:33, Tuesday, 10 2018 April UTC

Aujourd’hui, je vais laisser la parole à Mathieudu68, un ex-arbitre qui revient sur son mandat et livre sa vision des choses sur des sujets qui agite toujours Wikipédia.

Tout d’abord, je remercie chaleureusement mon ex-collègue Gratus d’avoir bien
voulu m’ouvrir son blog.

Plus que de dresser le bilan de mon année de mandat, ce billet sera surtout
l’occasion de dresser une réflexion sur le CAr, son avenir et pourquoi il est
soudainement voué aux gémonies par une minorité, il est vrai très active, de la
communauté.

Bilan personnel

J’ai candidaté en mars 2017 parce que personne ne se portait volontaire (j’ai été le seul candidat à cette élection groupée).
Ma candidature a surpris car j’étais alors peu actif sur Wikipédia depuis
quelques mois, venant à peine de revenir. Plusieurs contributeurs ont d’ailleurs
été inquiets à ce sujet, mais je savais que j’allais reprendre un rythme de
contributions soutenu, ce qui a bien été le cas par la suite.

Mon bilan comme arbitre est quantitativement peu important, ce qui est à mettre
en parallèle avec la faible activité du comité depuis deux ans. Je n’ai eu en
réalité, qu’un seul arbitrage à traiter sur le fond, c’est celui entre Lepetitlord et Hotter3.
Un arbitrage très classique, avec un conflit personnel ancré sur une thématique
bien précise. Le moins que l’on puisse dire est qu’il n’a pas attiré les foules
(les critiques du CAr ne s’intéressent pas à ce genre de contributeurs somme
toute discrets et de conflits localisés), et on a pu travailler tranquillement.
J’estime avoir bien œuvré à cette occasion. J’ai passé de nombreuses heures à
décortiquer et lire tous les arguments des parties et témoignages et à lire
l’ensemble de leurs interactions. J’en ai passé à peu près autant à réfléchir à
mon commentaire puis à la rédiger.

Au final, ce sont mes propositions, qui ont l’air d’avoir séduit mes collègues,
qui ont structuré la décision d’arbitrage. Telles que je les avais pensées, mes
propositions avaient pour objectifs de faire cesser le conflit, mais non le
dialogue, entre ces deux contributeurs avec une menace de forte sanction au
moindre « pet de travers » entre les deux. Ceci pour qu’ils continuent à
contribuer sur leurs domaines, à apprendre à dialoguer, et qu’ils restent au
final sur Wikipédia, où tous deux ont beaucoup apporté. Mes propositions de
sanctions en cas de dérapage, qui ont été globalement retenues, étaient un peu
comme la bombe nucléaire, suffisamment dissuasives pour qu’elles n’aient jamais
à s’appliquer. Malheureusement, cela n’a pas marché. Elles ont dû être
appliquées quelques mois plus tard et, au final, un des deux protagonistes a
quitté Wikipédia, dégoûté.

J’ai eu le sentiment de bien faire, mais ça n’a pas fonctionné et l’arbitrage
est au final un échec. C’est, pour moi, une grande déception (la plus grande,
bien plus que les critiques reçues ou les conflits avec certains admins) car j’y
ai passé beaucoup de travail et de temps, et j’ai fait du mieux que j’ai pu.
Peut-être qu’il y avait mieux à prendre comme décision, peut-être qu’il n’y
avait tout simplement rien à faire parce que certains conflits ont tellement
pourri qu’ils en sont de toute façon insolubles. Je n’en sais rien mais je suis
très déçu de ne pas avoir réussi.

C’est le point principal de mon mandat puisque le seul arbitrage auquel j’ai
participé. Mon autre grande action a été de coordonner la nomination des CU en
2017. Cela s’est très mal passé, d’une part parce qu’il y a eu des quiproquos,
et d’autre part parce que j’ai mal ressenti (et ce ne fut pas qu’à cette
occasion) certaines directives de Racconish qui s’est un peu considéré, sans
doute de par son expérience, comme le chef de notre comité. Je ne suis pas le
seul, en interne, à lui avoir fait de telles critiques, et j’ai passé la
deuxième moitié de mon mandat dans un climat tendu avec lui. Ce n’était pas
l’idéal. Au final, je pense que nous avons tous les deux eu des torts, et que
cela n’a pas aidé la crise traversée par le comité d’arbitrage, et j’en suis
désolé. Surtout, ce sont les CU qui en ont pâti, puisqu’il y a eu des manques et
il a fallu quelques mois plus tard refaire une nouvelle nomination. À notre
décharge, il nous était difficile de prévoir que Hexasoft et Schlum, qui avaient
candidaté à nouveau et semblaient toujours très motivés, allaient soudainement,
pour le premier, disparaître purement et simplement de la surface de Wikipédia,
et pour le second perdre sa motivation à effectuer son rôle de CU (et,
visiblement, à pouvoir continuer à contribuer activement sur Wikipédia). Il est
vrai aussi que, l’année dernière comme il y a un mois, il y a eu très peu de
candidats, et ça n’aide pas.

Par ailleurs, je sais que beaucoup de contributeurs ont été surpris que
Prométhée ne soit pas renouvelé. Je ne vais pas révéler les discussions internes
des arbitres, mais j’aimerais préciser que la décision de non-renouvellement, si
elle n’a pas été unanime, a été assez largement majoritaire. Nous avons relevé
plusieurs cas où Prométhée a clairement été en délicatesse avec la politique de
confidentialité, et nous nous en sommes expliqués avec lui. Je ne rentrerai pas
davantage dans les détails.

La problématique des CU et des OS

Puisque j’en suis aux CU et aux OS, c’est l’occasion de donner mon avis sur un
débat qui existe depuis longtemps, et qui rebondit à nouveau avec la nouvelle
prise de décision sur le CAr en préparation : est-ce que c’est bien le rôle du
CAr de faire ces nominations ? Pour ma part, je pense que non. Je n’ai jamais
trop compris pourquoi ce rôle incombe aux arbitres même si, bon, il fallait bien
le faire.

D’un autre côté, je pense aussi que des élections par toute la communauté ne
seraient pas non plus les bienvenues. Ces deux postes sont techniques et
sensibles, et ils nécessitent des compétences qui doivent être évaluées au
préalable. Avec des élections, je ne vois pas comment ces évaluations auraient
lieu, et surtout je crains qu’il ne s’agisse que d’un concours de popularité. Je
vois déjà les votes favorables parce que le candidat est gentil, parce que c’est
un bon contributeur, ou les votes défavorables idiots du genre « il a commis une
guerre d’édition le 31 février 2005, c’est très vilain », qui ne sont pas
pertinents du tout. Il faut dire ce qui est : on peut être un excellent
contributeur à Wikipédia, qui apporte des AdQ et respecte toutes les règles, et
être un CU catastrophique faute de maîtrise technique. Je pense donc que
l’élection ne serait pas adaptée.

Il faut donc que ce soit un groupe de contributeurs qui fassent ces nominations.
Les admins sont trop nombreux. Il y a aussi les bureaucrates. Pourquoi pas, sauf
que ce sont des gens élus à vie (et moi ça me dérangerait de donner un tel
pouvoir à des gens parfois élus il y a plus de dix ans), et en plus certains
d’entre eux (Clem23, Esprit Fugace, Anthère) ne semblent plus vraiment être là.
Au final, j’ai l’impression que si les arbitres ont hérité du bébé, c’est un peu
parce que c’est la solution « la moins pire ». Mais elle devient gênante
maintenant qu’il n’y a périodiquement plus assez d’arbitres.

Il reste l’hypothèse de créer une structure /ad hoc/. Un comité de nomination,
qui ne serait là que pour ça. Pourquoi pas, mais on retombe sur le même problème
: les gens élus seront-ils compétents techniquement pour évaluer les candidats ?
Vous me direz, les arbitres ne le sont pas forcément. C’est vrai. C’est
d’ailleurs pourquoi, en réalité, les arbitres évaluent surtout les réponses des
candidats sur la politique de confidentialité. Pour le côté technique, le
questionnaire a été élaboré par Schlum, CU expérimenté en place depuis
longtemps, qui nous a aussi fourni les réponses attendues à chaque question.
Heureusement parce que, je l’avoue, j’aurais été incapable de répondre à toutes…

Au final, j’avoue que je ne sais pas trop quoi faire avec ces nominations.
J’hésite entre les laisser aux arbitres et créer un comité de nomination. Les
autres solutions (élections directes ou nomination par les bureaucrates) me
semblent à écarter.

Le conflit arbitres/certains admins

Avec l’arbitrage où j’ai dû rendre un avis, et la nomination des CU, cela a été
le troisième point essentiel de mon mandat, le plus démotivant. Cette
problématique a d’ailleurs été abordée dans plusieurs billets, ici-même, par
Gratus. Je partage d’ailleurs largement ses observations et ses analyses. C’est
un fait, une partie de la communauté — avec des arguments tout à fait recevables
d’ailleurs — veut supprimer le CAr. Parmi ces personnes, il se trouve aussi des
admins. C’est leur opinion, c’est leur droit, et je n’ai aucun problème avec ça.

Là où j’ai vu un problème, c’est quand ces admins ne se contentent pas d’avoir
leur opinion, mais agissent de manière illégitime pour essayer de parasiter le
fonctionnement du comité ou même, pire, tenter de dépouiller les arbitres de
leurs compétences (pourtant données par un règlement issu de plusieurs prises de
décision) pour les reprendre abusivement à leur compte. C’est bel et bien ce qui
s’est passé à deux reprises au cours de mon mandat, et je sais que j’ai exaspéré
ces personnes (au point qu’on m’insulte et me menace sur IRC) en ne me laissant
pas faire.

La première affaire est celle de l’arbitrage Atonabel contre Omar-toons.
Nous avons estimé que cet arbitrage était recevable. J’y participais et,
théoriquement, cela aurait dû être mon deuxième arbitrage où je devais exprimer
un avis de fond. Cela n’a pas été possible puisque Omar-toons n’a tout
simplement pas pu mettre une seule ligne d’argumentaire dans la mesure où… il a
été bloqué par les admins durant toute la durée que le règlement lui laissait
pour déposer ses arguments. Qui plus est, le motif de blocage, s’il ne
recouvrait pas toute la dimension de l’arbitrage, était tout de même proche de
ce qu’il nous incombait de traiter, ce qui est déjà un premier gros problème en soi…

En constatant cela, nous avons édicté une mesure conservatoire d’urgence pour
demander son déblocage, le temps qu’Omar-toons mette son argumentaire en
défense. Les admins qui se sont exprimés nous ont littéralement envoyés chier.
Désolé pour la vulgarité, mais je ne vois pas comment le dire autrement, vu le
ton employé. C’est déjà, en soi, une très mauvaise manière et franchement, un
manque de bon sens criant… Mais c’est même pire que ça puisque, d’après le
règlement issu de prises de décision prises par la communauté, les admins sont
censés techniquement exécuter les décisions des arbitres, sans pouvoir s’y
opposer. Là, ils se sont sciemment assis sur notre mesure conservatoire, et donc
sur le règlement. Et, malheureusement, malgré « le droit wikipédien » en notre
faveur, nous ne pouvions rien faire de plus. Nous n’avons pas les moyens de
forcer les admins à respecter nos décisions, quand bien même ils sont censés
être obligés de le faire. Nous avons donc été contraints, la mort dans l’âme, de
déclarer notre arbitrage recevable impossible à traiter. C’est n’importe quoi et
c’est entièrement de la faute de ces admins. J’aimerais d’ailleurs faire un
distinguo. Certains, à n’en pas douter, ont agi de bonne foi, par
incompréhension du règlement ou de la situation, ou parce qu’ils ont estimé en
leur for intérieur que c’était la meilleure chose à faire. Mais certains de ces
admins, qui sont notoirement anti-CAr, étaient clairement de mauvaise foi, et
leur objectif était de nuire au CAr. Ils ont réussi.

La deuxième affaire a été l’arbitrage Writium/Chaoborus (et je tiens à préciser, pour éviter toute ambiguïté, que le pauvre Chaoborus n’y est pour rien dans le pataquès qui a suivi). La situation était la suivante : un contributeur, Writium, a fait l’objet d’une RA pour ses modifications non-constructives. Plusieurs admins se sont alors exprimés en faveur d’un
blocage indéfini, vu l’étendue des dégâts, et Chaoborus a conclu la RA en
appliquant la sanction décidée. Writium, qui l’estime injuste, a décidé de
lancer un arbitrage contre Chaoborus (visiblement parce que c’est lui qui a
techniquement bloqué, même si la décision a été collégiale). Bon, bien
évidemment, l’arbitrage était ridicule et n’avait aucune chance d’être déclaré
recevable. Le problème, c’est que les admins ne nous ont pas laissés faire notre
travail. L’un d’entre eux a supprimé d’autorité l’arbitrage lancé, sans même
attendre qu’on ait fait la moindre demande en ce sens. Le résultat est là.
Cet admin et quelques autres ont estimé inadmissible que mon collègue Cangadoba
restaure l’arbitrage pour que les arbitres puissent ensuite donner leur
décision. Ce serait soutenir un perturbateur professionnel. Bah non, c’est
simplement une application toute bête de la chose suivante : les admins gèrent
ce qui relève des admins, et les arbitres gèrent ce qui relève des arbitres. Ce
qui n’était pas normal, c’est qu’un arbitrage soit d’autorité déclaré nul et non
avenu par quelqu’un qui n’a pas été élu pour s’en occuper. Et que Do not follow,
l’admin en question, ne comprenne pas où est le problème m’a franchement laissé
pantois. Qu’est-ce qu’il aurait dit si j’étais allé rejeter des RA à la place
des admins ? Dans le même registre, il a fallu que je mène une guerre d’édition
sur notre propre page contre un simple péon, Fanchb29 (qui explique
régulièrement sur le Bistro qu’il faut supprimer le CAr), qui, lui aussi,
s’était mis en tête de décider tout seul et à la place des arbitres élus que
l’arbitrage n’était pas recevable. J’ai dû me pincer plusieurs fois pour y croire…

Quel avenir pour le comité d’arbitrage ?

Comme Gratus l’a écrit ici-même et sur Twitter, cet épisode surréaliste était le
plus éclatant des symptômes : /« Le Car a tellement perdu en légitimité qu’on
renie désormais la capacité et l’autorité de Mathieudu68 et Cangadoba à gérer la
page de l’institution ET à traiter des arbitrages »/.

C’est effectivement de cela qu’il s’agit. C’est un fait, l’existence du CAr,
remise en cause depuis des années et de graves dérapages survenus en 2011, est
de plus en plus contestée. Encore une fois, c’est une opinion tout à fait
légitime, mais elle ne permet pourtant pas de s’affranchir des règles en
vigueur, or c’est ce qui a été fait.

Maintenant, il est certain que le CAr ne peut pas rester en l’état. Faut-il le
supprimer ? Je ne le crois pas, et je vais dire pourquoi en mettant les pieds
dans le plat. Si certains admins cherchent depuis longtemps à supprimer le CAr,
c’est, en réalité, j’en suis malheureusement convaincu, pour en récupérer les
prérogatives. Et avoir ainsi la compétence exclusive des sanctions individuelles
à prononcer sur Wikipédia. Et là, on voit tout de suite où est le problème.
C’est que la manière dont les admins traitent les dossiers n’est absolument pas
soumise à procédure, contrairement au comité d’arbitrage. Je vais être clair,
depuis un an environ, les personnes mises en cause n’ont tout simplement pas de
possibilité de réellement se défendre, leurs interventions étant tout simplement
retirées…

Je vais prendre un exemple tout récent. On en arrive aujourd’hui à des cas comme
celui de Synthwave.94, qui a cinq ans de présence, 130 000 modifications et plusieurs AdQ, et n’a jamais été bloqué. Pourtant, il se retrouve menacé de blocage indéfini pour sa
première incartade (une guerre d’éditions ; et encore, des contributeurs
d’importance comme Nouill, Marilouw et Guil2027 estiment qu’il n’a rien fait de
mal) en cinq ans. C’est du grand délire et c’est clairement un effet de
l’absence de CAr. De plus en plus, des admins, au nom de « l’efficacité » et
d’une propension à vouloir tout régler, n’agissent plus que par le prisme de la
sanction et en perdent franchement tout sens de la mesure.

Il faut donc un comité d’arbitrage pour contrebalancer cette toute puissance des
admins, j’en suis convaincu. Mais ce comité doit être réformé car actuellement,
il ne fonctionne qu’épisodiquement et n’intéresse plus la communauté (il n’y a
plus de candidats et très peu de gens s’intéressent aux élections d’arbitres).
Que peut être ce comité ? Déjà, je pense qu’il faut qu’il se recentre sur ses
deux missions principales : arbitrer des conflits et nommer les CU et les OS
(sauf si l’on crée donc un comité de nomination). Il faut supprimer la notion
d’arbitrage communautaire qui a brouillé les règles, et laisser cela aux admins.
Je pense aussi qu’il faut supprimer le pouvoir de sanction (destitution
temporaire ou définitive) d’un admin par le CAr, qui n’a plus grand sens depuis
que le principe des contestations a été installé.

Je pense que deux grandes mesures devraient être prises :

  •  La première, c’est de donner aux arbitres davantage de moyens d’être
    médiateurs. Il faut simplifier la manière dont on les saisit, et peut-être
    leur permettre de s’autosaisir d’un conflit personnel en cours. J’ai vu avec
    Lepetitlord – Hotter3 que, finalement, les arbitres n’ont rien pu faire
    parce qu’ils ont été saisis trop tard. Le conflit avait trop pourri. Il faut
    que les arbitres puissent intervenir quand il est encore temps, quand le
    conflit est encore résoluble. Je pense qu’il est vraiment très important de
    réfléchir là-dessus.
  • La deuxième mesure, c’est de faire clairement du CAr une instance d’appel
    d’une décision des administrateurs. Ceci, pour éviter les démonstrations de
    toute-puissance qu’on voit actuellement. Bien sûr, il faudra que cette
    possibilité soit encadrée. Il ne faut pas que le travail de maintenance soit
    entravé, et il est hors de question de permettre au moindre vandale de
    passage ayant écrit « prout, pipi caca » dans les articles de faire appel du
    blocage qu’il a reçu. Je pense qu’on pourrait imaginer un système semblable
    à celui des contestations individuelles du statut d’administrateur. Ainsi,
    si x contributeurs ayant un minimum de contributions et d’ancienneté (on
    peut retenir les mêmes seuils que pour les contestations) saisissent le CAr
    pour dire que telle décision des admins ne leur paraît pas convenable, alors
    on considère qu’il y a appel. Le CAr devient ainsi l’arbitre entre les
    admins et une partie de la communauté qui conteste leur décision. Le CAr
    aurait le choix entre trois options : confirmer la décision des admins,
    l’amender ou la révoquer. En revanche, il n’aurait aucun pouvoir de
    sanctionner à titre individuel les admins qui ont pris la décision.

Pour conclure

Voilà, j’en ai fini, et je suis désolé d’avoir été aussi long. J’en ai aussi
fini avec le CAr, pour longtemps je pense (même si je vais peut-être intervenir,
par exemple pour mettre en avant les propositions que je viens de faire, dans la
Prise de décision en train de s’élaborer). Comme j’ai eu l’occasion de l’écrire
récemment sur Wikipédia, j’ai hâte de rester dans mon coin à contribuer
tranquillement, comme je le faisais avant d’être devenu arbitre (et j’ai
continué pendant, aussi ^^^). Ce fut quand même une belle expérience, et bravo
et merci à tous mes ex-collègues (malgré les divergences qu’on a parfois eues,
ce qui est normal). Bonne continuation à eux aussi.

Mathieudu68

Mon beau poisson

19:40, Monday, 02 2018 April UTC

Hier, c’était le premier avril. Le poisson préparé sur la version francophone de Wikipédia est juste… incroyable !

Capture d’écran de la page d’accueil (CC-BY-SA 3.0).

En effet, wikipédia a décidé de revenir en arrière et d’adopter un look minitel, avec refonte du logo et animations à la clé. Il me semble que c’est la première fois que Wikipédia fait un poisson aussi important.

Lorsque l’on tapait les commandes du code Konami, le lecteur était redirigé vers un jeu. Le tout fonctionne grâce à un peu de JavaScript et de CSS.

Le code source du projet est publique et sous licence MIT.

Le poisson d’avril était également présent sur le bistro, où l’ex-bandeau d’avertissement (orange) de réception de message a été recyclé pour rediriger sur une vidéo Youtube.

Sauf que l’humour, y compris en ce jour particulier, reste soumis à sa police qui tâche à retirer les poissons qui ne sont pas à leurs goûts (ne vous inquiétez pas, les attaques à la frontière de l’islamophobie ne sont pas assujetis à sa réglementation).

Nous avons aussi un article assez bien travaillé (sur trois mois) qui a depuis été redirigé vers la section pastiche. Ne vous inquiétez pas, la tolérance faisant partie de l’ADN de la Wikipédia francophone, l’auteur s’est fait accusé de participer à la culture du viol avec ses blagues sexistes.

Merci du signalement, ton bug peut attendre…

14:56, Monday, 26 2018 March UTC

Magnus Manske est un développeur inconnu du grand public, on lui doit pourtant des contributions nombreuses et décisives pour le développement initial de Wikipédia, sa maintenance continue et son ingénierie, au point que les wikipédiens célèbrent chaque 25 janvier le Magnus Manske Day.

On imagine aisément à quel point ses journées sont bien remplies, d’autant qu’il donne son temps et son énergie pour le Libre sur son temps… libre !

Dans l’article dont nous vous proposons la traduction, il explique avec un brin de malice pourquoi les bugs apparemment les plus simples à traiter peuvent s’avérer les plus longs à régler… Deux minutes de lecture pour un petit article qui parlera à nos amis développeurs (ces indispensables travailleurs de l’ombre) comme il a parlé à Luc, notre tech warrior tout-terrain…

 

Non, je n’ai pas corrigé ton bogue, voici pourquoi

par Magnus Manske – article original : Why I didn’t fix your bug

Photo par Jason Krüger [CC BY-SA 4.0], via Wikimedia Commons

Beaucoup d’entre vous m’ont envoyé des rapports de bogue, des demandes de nouvelles fonctionnalités et signalé d’autres problèmes liés à mes outils dans le WikiVerse. Vous m’avez contacté via le BitBucket Issue tracker (et apparemment je suis aussi sur Phabricator maintenant), par Twitter, divers emails, des pages de discussion (les miennes, celles d’autres utilisateurs, via Wikitech, etc.), avec des applications de messagerie, et même en chair et en os.
Et je n’ai rien fait. Je n’ai même pas répondu.

Rien n’indique que j’ai vu le problème.

C’est frustrant, je sais. Tu veux juste que ce petit truc soit réparé. En tout cas, tu te figures que c’est un tout petit changement à opérer.

Voyons maintenant les ressources disponibles, ce qui, en l’occurrence, est mon temps. En commençant par les gros travaux (estimations générales, des variations saisonnières sont inévitables) :

Il y 24 h dans une journée

– 9 h de travail (y compris le trajet en voiture)

– 7 h de sommeil (j’espère en tout cas)

– 2 h de vie privée (manger, faire de l’exercice, prendre une douche, lire, passer du temps avec ma copine, etc.)

= il reste 6h

On ne peut pas discuter avec ça, n’est-ce pas ? Maintenant, 6h qui restent, c’est une estimation haute, évidemment ; le travail et la vie privée peuvent (et ça arrive) prendre bien plus de temps, sur une base quotidienne et très variable, comme c’est le cas pour chacun de nous.

Alors je peux régler ton problème, c’est ça ?

Voyons voir :

6h

– 1h de maintenance (redémarrage des outils, mise à jour des pages GLAM, ajout et correction des catalogues mix“n”match, etc.)

– 3h de développement/réécriture (parce que c’est de là que viennent les outils)

= il reste 2h

Deux heures par jour, ça fait beaucoup, non ? En réalité, c’est beaucoup moins, mais restons-en là pour l’instant. Quelques-uns de mes outils n’ont pas de problèmes, mais beaucoup en ont plusieurs en cours, donc supposons que chaque outil en a un :

2h = 120 min

/130 outils (estimation basse)1

= une moyenne de 55 secondes par outil

C’est assez de temps pour trouver et aborder le problème, ouvrir le(s) fichier(s) de code source, et… zut le temps s’est écoulé ! Désolé, problème suivant !

Donc, au lieu de tous les traiter, je m’occupe de l’un d’entre eux. Jusqu’à ce que ce soit réglé ou que j’abandonne. L’un ou l’autre peut prendre des minutes, des heures, voire des jours. Et pendant ce temps, je ne me penche pas sur les centaines d’autres problèmes. Parce que je ne peux rien faire pour eux à ce moment-là.

Alors, comment puis-je choisir un problème sur lequel travailler ? C’est une heuristique complexe calculée à partir des facteurs suivants :

  • Nombre d’utilisateurs concernés
  • Gravité (« problème de sécurité » vs « faute d’orthographe »)
  • Opportunité (ce qui signifie que je l’ai remarqué lorsqu’il a été déposé)
  • Disponibilité (est-ce que je me concentre sur autre chose lorsque je remarque le problème ?)
  • Plaisir possible et humeur du moment (eh oui, car je suis bénévole, ça vous dérange ?).

 

Aucun événement particulier n’a été à l’origine de la publication de ce billet. Je le garderai en référence pour en donner le lien, quand l’occasion se présentera.

En manque de Cu (-ls ?)

00:11, Saturday, 03 2018 February UTC

Pour comprendre la vanne dans le titre, je vous invite à lire cet article Wikipédia.

Les vérificateurs d’adresses IP (CU) sont des bénévoles importants au bon fonctionnement du projet car ils permettent, sur le plan technique, de détecter les nuisibles.

La semaine dernière, des administrateurs se sont plaints d’un manque de réactivité des requêtes et pointent du doigt un sous-effectif.

Bien sûr, ce problème (pour certains) ne proviendrais pas d’un manque de candidatures (1 à 2 candidatures en plus des CUs en place) mais à cause du Car qui est chargé de les nommer. Et en remède, il a été proposé de se passer du Car pour faire des élections directement par la communauté.

Cette semaine, l’arbitre encore en place Mathieudu68 déplore ce comportement voulant retirer toutes prérogatives aux arbitres et répond « Alors, pour les CU et en ce qui me concerne, je considère que vous n’avez qu’à, au point où on en est, aller jusqu’au bout de votre démarche consistant à dépouiller les arbitres de leurs compétences pour les reprendre, sans demander de comptes à qui ce soit, à votre compte. Et ma réponse tient en deux mots : démerdez-vous. »

La section en question commençant à devenir tltr, je vais vous faire un résumé (commenté) du contenu.

Tous d’abord, un contributeur (non administrateur) réexplique que le Car est inutile et qu’il est possible de le court-circuiter, ce qui est cependant problématique au niveau des règles de la WMF (une partie de la section concerne la faisabilité ou non de cette action).

Un admin explique que les arbitres doivent prendre leurs responsabilités envers la communauté et ne pas dire « je n’ai pas envie de remplir mes fonctions parce que j’estime que les administrateurs ne sont pas bienveillants ». Une phrase comme « Je commence à en avoir marre de ne pas voire mes décisions appliquées et mes prérogatives contestées, alors allez jusqu’au bout du processus et ne me faîtes pas perdre mon temps » serait plus exacte.

 Les jambes sont maintenues par une barre d'écartement attachée à ses chevilles. Porte également un bâillon (BDSM) à boule.
Vous souhaitez devenir arbitre ? Indiquez que vous êtes *SM* (pas le banni) dans votre lettre de motivation.

Un autre admin n’a « pas observé une détérioration des relations admins/opérateurs », je ne peut que conseiller de prendre un rendez-vous chez un ophtalmo. Il ajoute « mais d’une part je n’ai pas vu de plainte, sous forme d’une RA ou autrement, suite à ce que je considère comme ayant dépassé les limites [les propos envers les arbitres] » : pour rappel, j’avais écrit une RA pour dénoncer des propos inacceptables, ce qui a mené à un blocage en écriture de l’administrateur ayant tenu les propos. La suite est une vraie perle : « Ce serait au CAr de s’adapter : état dans l’état, il lui est possible – je pense et ça a été fait – de demander des amendements aux initiatives des administrateurs, en principe réversible. » Le Car a effectivement demandé des amendements aux administrateurs… qui se sont empressés de voter communautairement contre, s’opposant frontalement au Car.

« il ne manquerait plus que ce soit de notre faute » , je le dis clairement : oui. Ce sont les administrateurs qui ont décidés de ne pas appliquer une décision Car. Ce sont des administrateurs qui ont tenus des propos corrosifs, voire inacceptable envers les arbitres. Ce sont les administrateurs qui s’empressent de bloquer les partis d’un arbitrage et ne veulent même pas entendre de solutions alternatives permettant de concilier justice et protection de l’encyclopédie.

Enfin je vais finir par le commentaire d’un administrateur qui rappelle qu’il ne faut pas généraliser et mettre tous les administrateurs dans le même panier. En effet de nombreux administrateurs font de la maintenance sans s’impliquer dans des sujets polémiques et font un merveilleux travail. Ne les oublions pas.

 

Couvrez ce Car, que je ne saurais voir

04:53, Sunday, 14 2018 January UTC

Couvrez ce Car, que je ne saurais voir. Par de pareils objets les âmes sont blessées, Et cela fait venir de coupables pensées.

Le comité d’arbitrage (Car) est une institution présente sur la Wikipédia francophone qui est chargé de régler les conflits entre les participants. Leurs membres sont élus par la communauté, et leurs compétences et pouvoirs sont également donnés par la communauté à travers plusieurs prises de décision successives regroupées dans ce que l’on appelle le règlement Car.

Dans un précédent billet, j’avais notamment regretté que les administrateurs se soient opposés frontalement aux arbitres en refusant d’appliquer les décisions de ces derniers.

J’avais également indiqué ne pas vouloir me représenter notamment pour la raison suivante (je cite) :

  • Il faut malheureusement constater que le Car est « inutile » en l’état, non pas à cause de la mauvaise volonté des arbitres mais simplement car la communauté (dont les administrateurs), ne reconnait pas la légitimité du Car à prendre des actions ou décisions. Si c’est pour pisser dans un violon, autant s’épargner les attaques et autres joies liées au statut.

Il faut avouer que j’ai mal digéré cette opposition frontale, qui m’avait d’ailleurs incité à rendre le balai entre le 1er juin et le 4 août 2017 et rédiger un AdQ pour changer d’air.

Puis le temps passe, et m’éloigne du Wiki-drama pour participer au WCC et rédiger un autre AdQ.

Puis voilà que je revois passer le comité d’arbitrage dans ma liste de suivi… pour me rendre compte qu’il est engagé dans une guerre d’édition !!

Je jette un œil, puis me dit qu’il y a vraiment un problème ici. En effet, des contributeurs se prennent le droit de retirer une demande d’arbitrage, voire d’ajouter une mention indiquant qu’il est impossible de déposer une demande d’arbitrage, le nombre d’arbitres étant insuffisant.

Un arbitre s’efforce alors de révoquer afin de pouvoir faire les choses dans les règles de l’art, bref faire son « travail ». Cette guerre d’édition soulève un problème qui peut tenir en un tweet :

En effet, il y a tellement peu de respect pour les arbitres actuellement en place que des contributeurs se prennent le droit de décider de la recevabilité des demandes à la place des arbitres (ce qui est une prérogative des arbitres), voire leurs empêchent même de recevoir de demandes au motif que de toutes façons ils ne sont pas assez nombreux.

Les opérations, présentés comme étant « une simple action de maintenance dans le but d’informer correctement les lecteurs de la page en question » (??!), sont en réalité une entorse à des prises de décision.

Le fait que la demande soit de toute évidence non recevable (et a été considéré comme tel par le Car) ne change rien au fait que la communauté ne fasse même pas suffisamment confiance aux arbitres pour gérer intelligemment un trollage  mais se sentent dans l’obligation d’agir à la place des arbitres, quitte à faire une guerre d’édition.

Avant que l’on me traite de je ne sais quel nom, je tiens à préciser que je n’ai rien pour ou contre le fait de supprimer le Car ou refuser les arbitrages au motif que les arbitres sont trop peu nombreux etc…

Cependant, j’aime bien quand les choses sont clairement définis, fait dans les règles et en respectant la volonté de la communauté. Lorsque j’ai lancé la prise de décision en ce qui concerne les topic-ban, je l’ai fait pour officialiser la pratique qui prenait de l’ampleur chez les administrateurs à l’époque. Cela a permis de définir clairement ce que voulais la communauté, et ainsi offrir une sécurité et pour la communauté (réduction des risques de dérapages), et pour les administrateurs (moins de risques de contestations).

Je suis simplement partisan que la communauté doit déconstruire de la même manière qu’il a construit. S’il considère qu’une prise de décision est obsolète, alors elle en lance une nouvelle pour faire les choses proprement, au lieu de privilégier une situation bancale et assez irrespectueuse pour les arbitres.

Je suis donc prêt à lancer les paris que, grâce (ou devrais-je dire à cause) a toutes ces affaires, Cangadoba sera le dernier arbitre à effectuer la fonction d’arbitre, vu qu’il y a une grande chance qu’il n’y ait aucun contributeur « sérieux » qui souhaite se prendre plein le museau, d’un coté par les protagonistes des arbitrages, de l’autre par la communauté qui lui crache littéralement à la figure (on lui dit qu’il est inutile, qu’il n’a pas à s’occuper de ce dont pour quoi il a été élu, et on refuse d’appliquer les décisions qu’il prend).

Concernant les arbitres en place, Cangadoba a déclaré lors de sa candidature qu’il ne se présentera pas une nouvelle fois et Mathieudu68 a déclaré suite à cette affaire je cite : « je n’ai sûrement pas l’intention de me représenter dans ce pathétique panier de crabes. Je me suis présenté comme arbitre pour aider, et avant je ne mettais pas les pieds sur ce genre de page, restant à contribuer dans mon coin. Hé bah putain, soyez certain que je regrette de ne pas être resté tranquille dans mon coin hein. On ne m’y reprendra pas de sitôt à jouer les bonnes poires (dans tous les sens du terme) sur ce projet d’encyclopédie. »

Enfin, Mathieudu68 a déclaré vouloir « saisir la Wikimedia Foundation de cette situation et l’informer qu’une partie des administrateurs est entrée en rébellion, sans décision ni soutien officiel de la communauté, contre l’arbcom francophone ».

Il faut avouer que l’envie m’a prise de lancer une prise de décision, mais je n’étais pas enchanté à l’idée de me prendre des critiques, contestations et perdre mon temps sur ce dossier.

Comme quoi il est assez magique de constater qu’une demande d’arbitrage manifestement irrecevable a eu le pouvoir d’achever le Car.

Tor (II)

19:13, Friday, 24 2017 November UTC

J’avais promis en décembre 2015 de vous parler des relations entre Wikipédia et Tor. Malheureusement je n’ai pas tenu parole. Afin de me rattraper, je vais vous présenter un projet en cours concernant ces deux projets (en réalité, je vais me contenter de traduire).

>>  Grants:IdeaLab/A Tor Onion Service for Wikipedia

Idée du projet

Quel est le problème que vous tentez de résoudre ?

Les utilisateurs voulant lire Wikipédia tout en protégeant leurs vie privée peuvent déjà utiliser le navigateur Tor pour lire Wikipédia. Cependant un service .onion va augmenter leurs vie privée au sens que les utilisateurs ne quitteront jamais le réseau Tor.

Les discussions concernant Wikipédia et Tor sont récurrent depuis 2006, en particulier pour déterminer s’il faut autoriser ou non les utilisateurs d’éditer Wikipédia via Tor. Le principal obstacle à cela est l’impossibilité pour le moment de trouver un moyen d’éviter les abus via Tor, en particulier en ce qui concerne les faux-nez. Cette proposition ne touche ce sujet que de manière tangentielle, car son objectif n’est pas de plaider en faveur d’un élargissement des politiques existantes en matière d’édition sur Tor.

Quelle est votre solution ?

La solution consiste à construire un proxy servant Wikipédia en lecture et en écriture en tant que service .onion faisant partie intégrante du réseau Tor.

Objectifs du projet

  1. Donner aux utilisateurs une nouvelle manière d’acceder à Wikipédia avec une plus grande garantie pour vie privée
  2. Supporter Tor en tant que technologie supportant la vie privée

Éventuellement, si ce projet est un succès ce proxy pourra être dirigé directement par la Foundation Wikimedia (WMF), afin d’éliminer une tierce partie qui pourrait agir en tant qu’homme du milieu.

Informations complémentaires

Un service .onion Tor (ou service caché) est un site qu’un utilisateur peut visiter ou un service qui utilise la technologie Tor pour assurer la sécurité et, si le propriétaire souhaite, l’anonymat à ses utilisateurs. Des exemples de services cachés sont l’application de messagerie ricochet ou le proxy .onion d’Internet Archive. [NdTr : Il existe également un .onion Facebook].

Le proposant fait remarquer qu’avoir un service .onion pour Wikipédia peut être potentiellement très utile pour les lecteurs tout en ayant un petit impact sur le processus d’édition actuel.

Proposition

Pour le moment, éditer Wikipédia à travers Tor est inpossible et, à ma connaissance, il n’y a aucun .onion servant Wikipédia. Les utilisateurs souhaitant éditer Wikipédia via Tor ont besoin de demander le statut IP block exemption. [NdTr : la version globale vous permettra d’éditer partout sauf sur wp-en].

L’idée de mettre en place le service consiste à :

  1. des proxys Wikipédia pour pouvoir être lu à travers le service caché ;
  2. utiliser OAuth (qui est activé sur Wikipédia) afin qui utilisateur puisse éditer Wikipédia via le service en utilisant son propre pseudonyme (seulement pour les utilisateurs disposant déjà du statut IP block exemption).

Changement de politiques

Cette proposition ne va entraîner aucun changement dans les politiques actuelles parce que les utilisateurs souhaitant éditer doivent continuer à demander le statut. Une autre chose intéressante serait d’ajouter une procédure sur Tor pour demander une telle exemption. En ce sens, la politique de non-proxies ouvertes reste la même.

Bénéfices

Comment un service .onion peut être bénéfique aux lecteurs de Wikipédia ?

  1. Nous savons que Wikipédia – par exemple les serveurs de la WMF – ont fait l’objet de surveillance de masse par des agences gouvernementales [NdTr : coucou PRISM]. Un tribunal de 4e circuit aux États-Unis a récemment statué à l’unanimité que cette activité conférait un statut à la Wikimedia Foundation dans son procès contre la NSA.
  2. Donner la possibilité de visiter Wikipédia de façon anonyme évite le risque que la Wikimedia Foundation puisse être contraint légalement à fournir des informations sur ses visiteurs [Ndtr : pas des contributeurs].
  3. Donner un proxy qui, de par l’architecture des services cachés, ne peut pas être subjet aux censures gouvernementales comme pour le cas récent de la Turquie.
  4. Fournir un service caché protège les utilisateurs contre les nœuds de sortie Tor malveillants. Étant donné le fonctionnement de Tor, les nœuds de sortie sont en position d’écoute des communications vers le site Web de destination que l’utilisateur veut atteindre (dans ce cas, Wikipedia). La recherche a montré que si un utilisateur navigue sur plusieurs sites Web et fuite des informations sur son identité sur l’un de ces sites, ces informations peuvent être utilisées par un nœud de sortie malveillant pour dé-anonymiser le trafic vers d’autres sites provenant du même utilisateur. Dans le cas de Wikipédia, ce risque est limité par le fait que Wikipédia est servi via HTTPS avec HTTP Strict Transport Security.

Alors que les avantages décrits aux points 1. et 2. ci-dessus peuvent être obtenus en visitant le site Web wikipedia.org en utilisant un navigateur compatible Tor, un service caché est nécessaire pour prévenir le risque associé aux nœuds de sortie malveillants.

Comment un service .onion Wikipédia est bénéfique à notre mission en général

En général, on peut affirmer que la généralisation de Wikipédia répond bien à la mission de notre mouvement. Cependant, fournir Wikipédia sur Tor permettrait de faire connaître Tor comme une technologie de protection de la vie privée des utilisateurs : rendre un site web largement accessible via Wikipédia via un service .onion permettrait non seulement aux utilisateurs soucieux de la vie privée de naviguer sur Wikipédia, mais cela rendrait également le sinistre « darknet » un peu plus semblable au « clearnet », c’est-à-dire Internet. Ceci est essentiel pour diffuser l’utilisation de Tor parmi les utilisateurs « moyens ».

Risques

Cela peut-il être utilisé par des éditeurs malveillants (vandales, spammeurs, faux-nez) ?

Non, les utilisateurs sous IP contineront d’être bloqué et les utilisateurs inscrits (éditant sous leur propre pseudonyme) continuront de devoir demander le statut.

Quelles autres problèmes peuvent être liées à une distribution de Wikipédia via un proxy anonyme ?

Si le service est largement utilisé, cela peut fausser quelques unes de nos statistiques & anayses dans le sens où nous verrons simplement une augmentation du traffic venant de Wikipédia par le réseau Tor.

Challenges

Quels challenges avons-nous besoin de surpasser pour que ce projet soit un succès ?

Nous avons besoin de logiciels pour rediriger Wikipédia et fournir une authentification OAuth aux utilisateurs. Certaines solutions existent déjà et pourraient être améliorées ou adaptées à ce cas d’utilisation :

Et concernant l’installation du service et sa maintenance ?
  1. Nous avons besoin d’expertises pour installer et maintenir le service .onion ;
  2. un service similaire mis en place par Internet Archive a été attaqué par différents robots déviants, ce service devrait donc être configuré et configuré pour atténuer ces attaques sans affecter les utilisateurs réguliers. Des étapes d’atténuation sont disponibles ici.
  3. DDoS contre l’oignon / service caché. Cela n’aura pas d’impact sur Wikipédia, mais cela pourrait rendre le service indisponible. Des étapes d’atténuation sont disponibles ici.
  4. Entretien constant. De nouvelles versions de Tor sont publiées souvent (tous les quelques mois). Ce logiciel devrait être tenu à jour.

FAQ

Comment Tor fonctionne ?

En des termes très généraux, une connexion à un site internet via Tor fonctionne ainsi :

  1. Le navigateur utilisant Tor demande un « circuit » à Tor
  2. Le navigateur établie une connexion chiffrée avec le réseau Tor, la connexion passe par trois serveurs : l’entrée (un guard), le milieu (middle) et la sortie (exit). À chaque étape, une couche de chiffrement est supprimée afin qu’aucun nœud n’ait une connaissance complète de la connexion. Les connexions à des sites Web et à des services et des sites Web sur le clearnet émergent uniquement des noeuds de sortie

Comment un service caché fonctionne ?

Un service est mis en place sur un serveur et se connecte au réseau Tor, en sélectionnant de manière aléatoire certains relais dans le réseau et leur demande d’agir en tant que points d’introduction. Ensuite, le service caché assemble un descripteur de service caché, contenant sa clé publique et un résumé de chaque point d’introduction. A partir de ce processus, une chaîne de 16 chiffres identifiant le service est calculée, cette chaîne suivie de .onion sera l’adresse du service caché. Le service caché et les points d’introduction sont ensuite annoncés dans une base de données publique partagée disponible via le réseau Tor. Lorsqu’un utilisateur souhaite contacter un service caché, il établit un point de rendez-vous avec le service considéré comme l’un des points d’introduction. Enfin, l’utilisateur et le service se connectent au point de rendez-vous avec le réseau Tor. Le service et l’utilisateur se connectent tous deux au réseau Tor via des circuits Tor (comme décrit ci-dessus), de sorte que leurs adresses IP réelles sont inconnues l’une de l’autre.

Quelle est la différence entre un noeud de sortie et un service caché ?

Avec le navigateur Tor, vous pouvez visiter n’importe quel site internet (aussi appelé « clearnet ») et les services cachés (appelés « darknet », puisque ces sites ne sont accessibles que via Tor). Un utilisateur se connectant au réseau Tor se verra attribuer un circuit, c’est-à-dire que ses connexions à n’importe quel site Web seront acheminées dans le réseau Tor à travers plusieurs nœuds (ou « bonds »). Si vous voulez visiter un site Web sur le clearnet (disons wikipedia.org) le navigateur se connecte à un nœud d’entrée, la connexion est ensuite transmise à un nœud intermédiaire et enfin à un nœud de sortie. Cette connexion est configurée de manière à ce que plusieurs couches de chiffrement soient « décollées » lorsque la connexion est transférée d’un nœud à l’autre (d’où le nom Tor, c’est-à-dire le routeur Onion).

Les nœuds de sortie sont les plus problématiques à exploiter car ils sont le point d’où le trafic émerge du réseau Tor pour contacter les sites Web sur Internet. Ils sont les plus problématiques de deux façons :

  1. si certains utilisateurs abusent du réseau Tor à des fins malveillantes (par exemple ils mettent en place un bot insérant du spam dans les commentaires d’un site web, et changent fréquemment de circuit pour que leur adresse IP change et ne puisse pas être bloquée), le noeud de sortie sera identifié et marqué comme « serveur malveillant ».
  2. Si l’utilisateur visite un site Web via HTTP (et non HTTPS), un noeud de sortie malveillant est capable d’espionner le trafic lui-même vers le site Web de destination. Même si le noeud de sortie ne connaît pas l’adresse IP d’origine de l’utilisateur, ce trafic peut contenir des informations sensibles ou d’autres données pouvant conduire à dé-anonymiser un utilisateur.

Un service  caché est un site web qui n’est servi que par le réseau Tor. Lorsqu’un utilisateur se connecte à un service caché, cette connexion ne quitte jamais le réseau Tor.

Billet de blog sous  licence Creative Commons Attribution-partage dans les mêmes conditions (auteurs|source).

Voir aussi T168218 - Tor hidden service for WMF websites

Alors docteur, c’est un garçon ou une fille ?

18:33, Wednesday, 15 2017 November UTC

Aujourd’hui, nous allons nous intéresser à une question fondamentale (bien moins que l’orthographe de la capitale japonaise ou des PàS cependant).

Devons-nous dire ?

  • Wikipédia est tellement belle, elle ne devrait pas s’exposer ainsi à des inconnus !
  • Wikipédia est tellement beau, il ne devrait pas s’exposer ainsi à des inconnus !
  • Le wikipédia est tellement beau, il ne devrait pas s’exposer ainsi à des inconnus !
  • La wikipédia est tellement belle, elle ne devrait pas s’exposer ainsi à des inconnus !

D’après un sondage sur Twitter, 58 % des gens considèrent que la première proposition est la bonne. Mais est-ce LA BONNE™ réponse ?

Photographie d'une page du Larousse Poche 2014

Comme tout bon Wikipédien qui se respecte, mon premier réflexe est de rechercher une source fiable. Ainsi, mon Larousse de poche 2014 affirme que Wikipédia est un nom propre. Adieu donc les noms communs.

Pour le reste, voici un petit sondage de 2006 😉

Il semble que dans la pratique, le féminin est plus utilisé.

FIN

QPC : explications

15:40, Thursday, 02 2017 November UTC
Les domaines nationaux sont des ensembles immobiliers présentant un lien exceptionnel avec l'histoire de la Nation et dont l'Etat est, au moins pour partie, propriétaire.

Ces biens ont vocation à être conservés et restaurés par l'Etat dans le respect de leur caractère historique, artistique, paysager et écologique.

> Article L621-34 : Code du patrimoine

On est ici en face d’une copyfraude légalisé puisque photographier sans autorisation ces anciens bâtiments dans un but commercial est illégal.

L'utilisation à des fins commerciales de l'image des immeubles qui constituent les domaines nationaux, sur tout support, est soumise à l'autorisation préalable du gestionnaire de la partie concernée du domaine national. Cette autorisation peut prendre la forme d'un acte unilatéral ou d'un contrat, assorti ou non de conditions financières.

La redevance tient compte des avantages de toute nature procurés au titulaire de l'autorisation.

L'autorisation mentionnée au premier alinéa n'est pas requise lorsque l'image est utilisée dans le cadre de l'exercice de missions de service public ou à des fins culturelles, artistiques, pédagogiques, d'enseignement, de recherche, d'information et d'illustration de l'actualité.

Un décret en Conseil d'Etat définit les modalités d'application du présent article.
> Code du patrimoine - Article L621-42

Ainsi, la distribution sous licence Créative Common (sauf CC-BY-NC-ND, CC-BY-NC-SA et CC-BY-NC), licences utilisées pour les illustrations sur Wikipédia et Commons, est devenue illégalle car elles autorisent explicitement une réutilisation commerciale.

Les associations Wikimedia France et La Quadrature du Net ont déposé une Question prioritaire de constitutionnalité (QPC) afin que le Conseil Constitutionnel (CC) s’exprime sur la légalité (ou non) de cet article L621-42.

Le conseil d’état, chargé de filtrer ces questions, a transmis la QPC au CC aujourd’hui.

[Lire la décision de renvoi]

Affaire à suivre…

WikiConvFR, Strassburg edition

10:25, Wednesday, 01 2017 November UTC

Le retour de la suite - et ce que vous avez manqué.

Œuvres emblématiques

21:05, Saturday, 07 2017 October UTC

À

la base, c’était un fil reddit sur les œuvres les plus emblématiques de chaque pays d’Europe. Une chouette idée : pour chaque pays, déterminer quelle œuvre est la plus représentative et la placer sur un fond de carte[1]. On y trouve à peu près tout ce à quoi on s’attend : La Joconde, Le Cri, La Jeune Fille à la perle, etc. C’est extrêmement cool.

Une carte d'Europe avec en fond pour chaque pays une œuvre qui en serait emblématique
La carte en question

Évidemment, après, on se demande si on ne pourrait pas être un peu plus rigoureux. Déjà, ça mélange les peintures et les sculptures (et ces dernières rendent moins bien sur la carte). Et puis ça veut dire quoi, exactement, « l’œuvre la plus emblématique » ? halfabluesky, l’auteur de la carte, ne cache pas avoir œuvré de façon subjective, les recensant avec ce qu’il connaissait et avec Google pour le reste. Et puis la correspondance par pays n’est pas très stricte (surtout vers l’est de l’Europe, là où les frontières ont pas mal bougé depuis deux siècles[2]). Est-ce qu’on ne pourrait pas aller plus loin, toutefois ?

Comment mesurer l’importance d’une œuvre ? Je me suis souvenu d’une approche détaillée il y a quelques années pour déterminer les œuvres les plus influentes du 20e siècle : compter le nombre de fois que leur reproduction apparaît dans les manuels scolaires publiés entre 1995 et 2005. Eh, c’est une approche qui vaut ce qui vaut, certainement contestable, statistiquement contestable. Mais après tout, ça donne un résultat et il n’est pas totalement délirant. Pourquoi pas, après tout. C’est une idée.

Considérons, pour les besoins de ce billet de blog, qu’une œuvre est d’autant plus importante qu’elle existe sur de nombreuses versions de Wikipedia (et donc potentiellement connue tout autour du globe). Limitons-nous aux peintures[3] : grâce à la magie de Wikidata, il est possible de récupérer les œuvres peintes au siècle précédent et qui comptent un article sur au moins 5 Wikipedias (ici, la requête SPARQL). À l’heure où j’écris ces lignes, on en compte 189. Sur le podium, Guernica de Picasso, La Persistance de la mémoire de Dalí et Le Baiser de Klimt. Ça semble cohérent. L’approche semble valable.

Revenons à notre carte. Comment lier une œuvre à un pays, alors qu’il n’est même pas sûr que celui-ci existait déjà à l’époque où l’œuvre a été créée[4] ? Allons au plus simple : considérons le lieu de naissance de l’artiste et contentons-nous de regarder dans quels pays actuels il est situé. Bref, il nous faut une requête qui :

  1. considère les peintures ayant un auteur de renseigné[5]
  2. regarde son lieu de naissance[6]
  3. détermine dans quel pays celui-ci se situe
  4. calcule, pour ce pays, quelle peinture à le plus d’entrées en différentes langues sur Wikipédia

Ça tombe bien : c’est totalement faisable[7].

Arrivé là, je me suis dit qu’on pourrait aller plus loin et générer automatiquement une carte similaire à celle du début. Mon approche : prendre une carte du monde au format svg, récupérer les données de Wikidata et utiliser les images comme motif pour les pays appropriés. Au final, j’en ai fait un mini-site. C’est pas bien rapide, c’est lourd, c’est du brutal, mais ça marche[8] !

Une carte du monde présentant, pour les pays où c'est possible, la peinture qui a un article dans le plus de langues sur Wikipédia.
Un monde de peintures

Du coup, quelques remarques :

  • Si on se fie à cette carte, la peinture serait essentiellement un art de l’Europe du 19e siècle.
  • Il faut des entrées sur Wikipédia pour apparaître. La pauvreté du traitement des pays africains est un réel problème[9].
  • De même, si votre pays a traditionnellement privilégié d’autres modes d’expression que la peinture, ou si le concept d’auteur a pu y être moins important, il ne sera pas présent. Aucun résultat en Thaïlande ou en Corée, vraiment ?
  • Sur 115 entrées (un pays peut avoir plusieurs entrées ex-aequo), 30 n’existent que sur une seule Wikipédia : 15 pays ne sont donc représentés que par des peintures présentes dans une seule langue. 82 entrées (47 pays sur 78) n’existent qu’en 5 langues ou moins. Difficile dans ce cas de parler de tableaux « connus » ou « emblématiques »…
  • Lier le lieu de naissance de l’artiste au pays n’est pas forcément bien probant. L’île Maurice est représentée par Henri Le Sidaner, peintre français né à Port-Louis avant d’être ramené en métropole. Pour l’Égypte, c’est le peintre grec Konstantinos Parthenis qui s’y colle.
  • La représentation des données sur Wikidata est importante. Russie et Ukraine sont représentée par le même tableau : La Neuvième Vague. Ivan Aïvazovski est né en Crimée, une région actuellement indiquée comme appartenant en même temps à la Russie et à l’Ukraine sur Wikidata…

(Image d’en-tête : détail de La Liberté guidant le peuple, par Eugène Delacroix (domaine public).)


Notes :

  1. Ce billet comporte des notes de bas de page. Tout le monde aime les notes de bas de page, non ?
  2. De toute façon, si on habite l’ouest de l’Europe, on n’y connait rien à l’art est-européen (« Des icônes, c’est ça ? »). L’Europe de l’Est nous en veut pas mal, d’ailleurs.
  3. Si on voit large et qu’on prend en compte l’intégralité des œuvres d’art (Q838948 sur Wikidata), on se retrouve avec en tête Bambi, Dumbo et la statue du Christ Rédempteur à Rio. En restraignant aux seuls arts visuels (Q4502142) : Guernica, Peanuts et La Bille bleue, la photo de la Terre prise par l’équipage d’Apollo 17. Éclectique.
  4. Ou alors, le pays existait, mais le lieu a changé de main. Ou le concept de pays n’était même pas pertinent. Mais nous sommes sur un simple billet de blog et notre idée de départ – les œuvres emblématiques d’un pays – est déjà passablement peu précise. Bref.
  5. Tu es une œuvre anonyme ultra connue ? Désolé, tu n’apparaîtras pas ici. Je sais, c’est pas super inclusif, j’y peux rien, c’est ma méthodo, pas toi.
  6. On ignore où tu es né ? Même punition.
  7. Merci, Shonagon.
  8. Je suis sûr qu’on pourrait utiliser un fond de carte OpenStreetMap à la place d’un fichier svg. Une idée à creuser.
  9. Assez surpris de l’absence totale de peinture islandaise sur Wikipedia, en passant.

Cet article Œuvres emblématiques est apparu en premier sur The Ash Tree.

Le logiciel libre est-il un Commun ?

08:56, Tuesday, 26 2017 September UTC

La notion de commun semble recouvrir aujourd’hui un (trop) large éventail de significations, ce qui sans doute rend confus son usage. Cet article vous propose d’examiner à quelles conditions on peut considérer les logiciels libres comme des communs.

Nous vous proposons aujourd’hui la republication d’un article bien documenté qui a pu vous échapper au moment de sa publication en juin dernier et qui analyse les diverses dimensions de la notion de Communs lorsqu’on l’associe aux logiciels libres. Nous remercions Emmanuelle Helly pour la qualité de son travail : outre le nombre important de liens vers des ressources théoriques et des exemples concrets, son texte a le mérite de montrer que les nuances sont nombreuses et notamment que la notion de gouvernance communautaire est aussi indispensable que les 4 libertés que nous nous plaisons à réciter…

 

Qu’est-ce qu’un « Commun » ?

Par Emmanuelle Helly

Article publié initialement le 19/06/2017 sur cette page du site de Makina Corpus
Contributeurs : Merci à Enguerran Colson, Éric Bréhault, Bastien Guerry, Lionel Maurel et draft pour la relecture et les suggestions d’amélioration. Licence CC-By-SA-3.0

On parle de commun dans le cas d’un système qui se veut le plus ouvert possible avec au centre une ou plusieurs ressources partagées, gérées collectivement par une communauté, celle-ci établit des règles et une gouvernance dans le but de préserver et pérenniser cette ressource.

Cette notion de res communis existe en réalité depuis les Romains, et a perduré en occident durant le Moyen Âge, avec par exemple la gestion commune des forêts, et dans le reste du monde avant sa colonisation par les Européens. Mais depuis la fin du 18e siècle dans nos sociétés occidentales, la révolution industrielle et avec elle la diffusion du mode de production capitaliste dans toutes les couches de la société ont imposé une dichotomie dans la notion de propriété : un bien appartient soit à l’État, soit au privé.

La théorie de la tragédie des communs par Garett Hardin en 1968, selon laquelle les humains sont incapables de gérer une ressource collectivement sans la détruire, contribue à mettre le concept des communs en sommeil pendant un moment dans nos sociétés occidentales.

En réponse Elinor Ostrom, prix Nobel d’économie en 2009, explique que les ressources qui sont mentionnées dans la « tragédie des communs » ne sont pas des biens communs, mais des biens non gérés. Grâce aux travaux qu’elle mène par la suite avec Vincent Ostrom, les communs redeviennent une voie concrète pour gérer collectivement une ressource, entre l’État et le privé. En France et ailleurs on met en avant ces pratiques de gestion de communs, les recherches universitaires en sciences humaines et sociales sur le sujet sont en augmentation, et même la ville de Gand en Belgique fait appel à un économiste spécialiste pour recenser les communs de son territoire.

On peut distinguer en simplifiant trois types de ressources pouvant être gérées en commun :

  • les ressources naturelles (une réserve de pêche ou une forêt) ;
  • les ressources matérielles (un hackerspace ou un fablab) ;
  • les ressources immatérielles (l’encyclopédie Wikipédia, ou encore OpenStreetMap).

Le logiciel libre, et plus largement les projets libres tels que Wikipédia, est une ressource immatérielle, mais peut-on dire que c’est un commun au sens défini plus haut ? Qu’en est-il de sa gestion, de la communauté qui le maintient et l’utilise, des règles que cette communauté a élaborées pour le développer et partager ?

Outre le fait que la ressource est partagée d’une manière ou d’une autre, les règles appliquées doivent être décidées par l’ensemble de la communauté gérant le logiciel, et l’un des objectifs de la communauté est la pérennité de cette ressource.

Une ressource partagée

Richard Stallman

Richard Stallman

Un logiciel libre est basé sur quatre libertés fondamentales, qui sont :

  • la liberté de l’utiliser,
  • de l’étudier,
  • de le copier,
  • de redistribuer des versions modifiées de ce logiciel.

Ces règles constituent la base des licences libres, elles ont été établies par Richard Stallmann en 1983, et la Free Software Foundation est l’organisation qui promeut et défend ces libertés. D’autres licences sont basées sur ces 4 libertés comme les licences Creative Commons, ou encore l’Open Database Licence (ODbL), qui peuvent s’appliquer aux ressources immatérielles autres que les logiciels.

On peut évoquer le partage sous la même licence (partage à l’identique, ou copyleft) qui garantit que le logiciel modifié sera sous la même licence.

Un logiciel peut être placé sous une telle licence dès le début de sa conception, comme le CMS Drupal, ou bien être « libéré » par les membres de sa communauté, comme l’a été le logiciel de création 3D Blender.

Si un changement dans les règles de partage intervient, il peut être décidé par les membres de la communauté, développeurs, voire tous les contributeurs. Par exemple avant qu’OpenStreetMap ne décide d’utiliser la licence ODbL, la discussion a pris environ quatre ans, puis chaque contributeur était sollicité pour entériner cette décision en validant les nouvelles conditions d’utilisation et de contribution.

Mais ça n’est pas systématique, on peut évoquer pour certains projets libres la personnalisation de leur créateur de certains projets libres, « dictateur bienveillant » comme Guido Van Rossum, créateur et leader du projet python ou « monarque constitutionnel » comme Jimy Wales fondateur de Wikipédia. Même si dans les faits les contributeurs ont leur mot à dire il arrive souvent que des tensions au sein de la communauté ou des luttes de pouvoir mettent en péril la pérennité du projet. Les questions de communauté et de gouvernance se posent donc assez rapidement.

La gouvernance du logiciel libre

Les quatre libertés décrivent la façon dont le logiciel est partagé, et garantissent que la ressource est disponible pour les utilisateurs. Mais si les choix inhérents à son développement tels que la roadmap (feuille de route), les conventions de codage, les choix technologiques ne sont le fait que d’une personne ou une société, ce logiciel peut-il être considéré comme un commun ? Qu’est-ce qui peut permettre à une communauté d’utilisatrices / contributeurs d’influer sur ces choix ?

Dans La Cathédrale et le Bazar, Eric S. Raymond décrit le modèle de gouvernance du bazar, tendant vers l’auto-gestion, en opposition avec celui de la cathédrale, plus hiérarchisée.

« Intérieur cathédrale d’Albi », photo Nicolas Lefebvre, CC-By 2.0, « Sunday Bazar » photo Zainub Razvi, CC-By-SA 2.0

 

À travers le développement de Fetchmail qu’il a géré pendant un moment, il met en avant quelques bonnes pratiques faisant d’un logiciel libre un bon logiciel.

Un certain nombre d’entre elles sont très orientées vers la communauté :

6. Traiter ses utilisateurs en tant que co-développeurs est le chemin le moins semé d’embûches vers une amélioration rapide du code et un débogage efficace. » ;

ou encore

10. Si vous traitez vos bêta-testeurs comme ce que vous avez de plus cher au monde, ils réagiront en devenant effectivement ce que vous avez de plus cher au monde. » ;

et

11. Il est presque aussi important de savoir reconnaître les bonnes idées de vos utilisateurs que d’avoir de bonnes idées vous-même. C’est même préférable, parfois. ».

Du point de vue d’Eric Raymond, le succès rencontré par Fetchmail tient notamment au fait qu’il a su prendre soin des membres de la communauté autant que du code du logiciel lui-même.

D’autres projets libres sont remarquables du point de vue de l’attention apportée à la communauté, et de l’importance de mettre en place une gouvernance permettant d’attirer et d’impliquer les contributeurs.

Le projet Debian fondé en 1993 en est un des exemples les plus étudiés par des sociologues tels que Gabriela Coleman ou Nicolas Auray. Décédé en 2015, son créateur Ian Murdock a amené une culture de la réciprocité et un cadre permettant une large contribution tout en conservant un haut niveau de qualité, comme le rappelle Gabriela Coleman dans ce billet hommage.

A contrario, il existe des exemples de logiciels dont le code source est bien ouvert, mais dans lesquels subsistent plusieurs freins à la contribution et à l’implication dans les décisions : difficile de dire s’ils sont vraiment gérés comme des communs.

Bien souvent, si un trop grand nombre de demandes provenant de contributeurs n’ont pas été satisfaites, si de nouvelles règles plus contraignantes sont imposées aux développeurs, un fork est créé, une partie des contributeurs rejoignent la communauté nouvellement créée autour du clone. Cela a été le cas pour LibreOffice peu après le rachat de Sun par Oracle, ou la création de Nextcloud par le fondateur de Owncloud en 2016, qui a mené à la fermeture de la filiale américaine de Owncloud.

Du logiciel libre au commun

Il est donc difficile de dire qu’un logiciel libre est systématiquement un commun à part entière. La licence régissant sa diffusion et sa réutilisation ne suffit pas, il faut également que le mode de gouvernance implique l’ensemble de la communauté contribuant à ce logiciel dans les décisions à son sujet.

Elinor Ostrom

Elinor Ostrom

Les 8 principes de gouvernance des communs relevés par Elinor Ostrom dans le cas de succès de gestion de biens non exclusifs, mais rivaux, sont mobilisables pour d’autres mode d’auto-organisation, notamment la gouvernance des logiciels libres. Elinor Ostrom a d’ailleurs coécrit un livre avec Charlotte Hess sur les communs de la connaissance.

Les deux premiers principes sont assez liés :

1/ délimitation claire de l’objet de la communauté et de ses membres

2/ cohérence entre les règles relatives à la ressource commune et la nature de cette ressource

Nous l’avons vu la définition de « communauté » pose question : celle qui réunit les développeurs, les contributeurs ou la communauté élargie aux utilisateurs ? Existe-t’il une différence entre les contributeurs qui sont rémunérés et les bénévoles ? Les règles varient-elles selon la taille des logiciels ou projets libres ?

De même sur la « ressource » plusieurs questions peuvent se poser : qu’est-ce qui est possible de contribuer, et par qui ? Les règles de contribution peuvent être différentes pour le cœur d’un logiciel et pour ses modules complémentaires, c’est le cas bien souvent pour les CMS (Drupal, Plone et WordPress ne font pas exception).

La question prend son importance dans les processus de décision, décrits par le troisième principe :

3/ un système permettant aux individus de participer à la définition et à la modification des règles

State of the Map 2013, Photo Chris Flemming – CC-By

Dans certains cas en effet, seule une portion des membres les plus actifs de la communauté seront consultés pour la mise à jour des règles, et pour d’autres tous les membres seront concernés : c’est un équilibre difficile à trouver.

On peut aussi mettre dans la balance la ou les entités parties prenantes dans le développement du logiciel libre : si c’est une seule entreprise derrière la fondation, elle peut du jour au lendemain faire des choix contraires aux souhaits des utilisateurs, comme dans le cas de Owncloud.

4/ des moyens de supervision du respect de ces règles par des membres de la communauté

5/ un système gradué de sanction pour des appropriations de ressources qui violent les règles de la communauté

On peut citer pour l’application de ces deux principes le fonctionnement de modération a posteriori des pages Wikipédia, des moyens de monitoring sont en place pour suivre les modifications, et certains membres ont le pouvoir de figer des pages en cas de guerre d’édition par exemple.

6/ un système peu coûteux de résolution des conflits

 

Gnous en duel – Photo Yathin S Krishnappa – CC-By – from wikimedia commons

C’est peut-être l’un des principes les plus complexes à mettre en place pour des communautés dispersées dans le monde. Un forum ou une liste de discussion regroupant la communauté est très rapide d’accès, mais ne sont pas toujours pertinents pour la résolution de conflits. Parfois des moyens de communication plus directs sont nécessaires, il serait intéressant d’étudier les moyens mis en place par les communautés.

Par exemple, un « code de conduite » ne paraît pas suffisant pour la résolution de conflits, comme dans le cas de Sarah Sharp qui quitte la communauté des développeurs du noyau Linux en 2014. Elle a d’ailleurs écrit ensuite ce qui selon elle constitue une bonne communauté.

7/ la reconnaissance par les institutions extérieures de cette auto-organisation

Les 4 libertés d’un logiciel libre sont reconnues dans le droit français, c’est un point important. On peut également relever les diverses formes juridiques prises par les structures qui gèrent le développement de projets libres. Les projets soutenus par la Free Software Foundation (FSF) ont la possibilité de s’appuyer sur l’assistance juridique de la Fondation.

Au-delà de la reconnaissance juridique, le choix d’un gouvernement d’utiliser ou non des logiciels libres peut également influer sur la pérennité de celui-ci. Le manque de soutien dont a souffert Ryxéo pour diffuser Abuledu, la solution libre pour les écoles, a certainement joué en sa défaveur, et plus récemment Edunathon, collectif dénonçant les accords hors marchés publics entre l’État et Microsoft a dû payer une amende pour avoir porté plainte contre l’État.

8/ Dans le cas de ressources communes étendues, une organisation à plusieurs niveaux, avec pour base les ressources communes au niveau local.

Rares sont les projets libres qui sont exclusivement développés localement, ce dernier principe est donc important puisque les communautés sont dispersées géographiquement. Des grands projets tels que Debian ou Wikimedia se dotent d’instances plus locales au niveau des pays ou de zones plus restreintes, permettant aux membres de se rencontrer plus facilement.

Au niveau fonctionnel il peut également se créer des groupes spécialisés dans un domaine particulier comme la traduction ou la documentation, ou encore une délégation peut être mise en œuvre.

Conclusion

On se rend bien compte que les 4 libertés, bien que suffisantes pour assurer le partage et la réutilisation d’un logiciel libre, ne garantissent pas que la communauté des contributrices ou d’utilisateurs soit partie prenante de la gouvernance.

Les bonnes pratiques décrites par Eric S. Raymond sont une bonne approche pour assurer le succès d’un projet libre, de même que les principes de gestion de ressources communes d’Elinor Ostrom. Il serait intéressant d’étudier plus précisément les communautés gérant des logiciels libres au prisme de ces deux approches.

« Le système des paquets n’a pas été conçu pour gérer les logiciels mais pour faciliter la collaboration » – Ian Murdock (1973-2015)


Pour creuser la question des communs, n’hésitez pas à visiter le site les communs et le blog Les Communs d’Abord, ainsi que la communauthèque qui recense de nombreux livres et articles livres sur le sujet. En anglais vous trouverez beaucoup d’information sur le site de la P2P Foundation initié par l’économiste Michel Bauwens.

Wikipedia et les sources

22:51, Monday, 25 2017 September UTC

Bonsoir,

Imaginez un monde où les plus pauvres parmi les plus pauvres utilisent Wikipedia pour pouvoir apprendre.

Et si pour les plus pauvres parmis les plus pauvres, on avait la faculté de pouvoir réécrire l’histoire parce que la seule et dernière encyclopédie pouvait réinviter l’histoire fautes de sources.

J’espère que ma fille ne finira parmi pas les plus pauvres, ou que les générations futures ne connaîtront pas ce fait.

Pourtant actuellement c’est bel et bien ce qu’il est entrain de se passer :
https://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Le_Bistro/13_septembre_2017#Suppression_par_bot_d.27un_lien_non_bris.C3.A9_sur_articles_-_Help_en_anglais_SVP

Et j’avais déjà remonté certains bugs du robots d’IA concernant des sources qui existaient encore et le robot d’IA remplace par des liens vers son site internet.

Remplacer des liens sources de wikipedia doit absolument s’accompagner d’un certain nombre de réserve à minima que j’ai remonté , il s’agit d’une sauvegarde des sources qui permettent de vérifier les sources.

Faire tourner un robot qui changent les liens sources pour dire qu’ils sont en 404 alors qu’ils ne le sont pas, cela ne permet pas aux plus pauvres parmis les plus pauvres de vérifier les sources, qu’es ce qui va permettre de prouver que les sources ont existé au moment de l’écriture de l’article que les données étaient fiables.

Actuellement toutes les langues de wikipedia ont perdu des sources sauf le francophone où on réfléchi à une solution qui permet de sauvegarder l’ensemble des liens.

Est ce que c’est cela Wikipedia la dernière Encyclopédie, ou une Encyclopédie de façon Diderot qui va permettre une manipulation des sources ….
Cordialement,
Pascal Martin

Wikiwix Uberise Facebook

15:48, Saturday, 23 2017 September UTC

Bonjour à tous,

Je ne vous cache pas mon impatience de dévoiler notre moteur de recherche sur les contenus de Facebook.

A ce jours, il a indexé plus de 30 000 000 de publications qui proviennent de 1 000 000 de groupes public.
Nous découvrons environ plus de 15000 nouveaux groupes par jours.

Je ne vous cache que nous avons du mal à suivre les flux de données qui nous arrivent quotidiennement, en effet nous avons été obligé de réécrire nos crawleurs, et du coup nos indexes ont un peu de mal à suivre, mais des pistes d’améliorations sont en phase d’être trouvé.

Ce moteur de recherche est accessible en se rendant en haut à droite ( http://wikiwix.com ) et en cliquant sur Facebook ( http://wikiwix.com/fb/ ), notre IHM n’est pas optimal je suis preneur de quelques conseils.

Pour l’instant il est possible de chercher les publications de plus de 300 000 000 de personnes, en commençant la recherche par @Nomdelapersonnechercher, ou de sélectionner à l’aide de l’autocompléteur une sélection de groupes afin d’effectuer des recherches au sein de ces groupes, ou de chercher autour d’une ville.

Nous allons dans les prochains jours proposer de nouveaux formats de visualisation des données issue de Facebook.

Je signale que ce moteur de recherche se base uniquement sur l’API de Facebook.

Je remercie le CRIANN qui héberge l’ensemble de nos technologies de moteur de recherche depuis des années.

Amicalement,
Pascal

Le logiciel Phabricator dispose d’une possibilité d’ajouter sur le profil des utilisateurs de petites icônes reliées à un badge.

Par exemple, la petite icône orange en dessous de mon avatar correspond ici à un badge :

A part of the Maniphest view with an avatar and the associated badged just below

Thibaut se demandait comment acquérir ces badges.

Faisons un petit tour d’horizon des badges disponibles et de comment les obtenir :

A list of the available badges : Phabricator admin, SWAT deployer, bugwrangler, chaos monkey, tea lover, volunteer.

Volunteer

Il permet d’identifier les personnes ayant contribué de manière régulière et significative à la communauté technique de Wikimedia en tant que volontaire.

Pour l’obtenir, une liste de bugs permettant une première approche existe, de même qu’un guide How to become a MediaWiki hacker.

Tea lover

Celui-ci est assez explicite.

Pour l’obtenir, le mieux me semble être de laisser une petite note à twentyafterfour sur IRC comme quoi vous adorez le thé, après par exemple avoir posté sur Commons comme preuve une photo de votre théière ? Il pourra vous attribuer le badge.

Phabricator admin

Ce badge est attribué à toute personne disposant des droits d’administration sur l’ensemble de l’application de Phabricator, c’est-à-dire responsable de gérer les groupes de permissions et de configurer le logiciel à nos besoins.

Il n’y pas de procédure encore déterminée, mais il est possible de s’inspirer de ce guide concernant Bugzilla. Concrètement, être collaborateur WMF ou avoir signé un NDA, disposer de la confiance de la communauté technique et avoir besoin de configurer Phabricator.

Bugwrangler

Ce badge est pour le moment attribué à un poste précis : le bugwrangler, chargé de trier les bugs, d’assurer leur suivi, de ping les bonnes personnes en cas de blocage. Ces dernières années, le bug wrangler est un collaborateur de Wikimedia.

Le poste est décrit sur https://www.mediawiki.org/wiki/Bugwrangler et une offre d’emploi sera publiée lorsqu’il faudra le renouveler. Le badge sera alors à demander à un administrateur de Phabricator.

SWAT deployer

Ce badge est attribué aux personnes disposant d’un accès sur les serveurs Wikimedia permettant le déploiement du code de MediaWiki, des extensions, etc.  et qui font partie de l’équipe SWAT. L’équipe SWAT est chargée grosso modo d’envoyer en production les correctifs de bugs et les mises à jour de configuration.

Ici, une procédure pour rejoindre cette équipe existe, ouverte aussi bien aux collaborateurs de Wikimedia qu’aux volontaires.

Chaos monkey

Ce badge identifie des individus ayant break the production, posé une action qui va rendre une partie significative des sites Wikimedia (ou juste la Wikipédia anglophone) non accessible ou non éditable. Vous savez, les fameuses erreurs 500 qui vous invitait à rejoindre #wikipedia-fr ?

Pour ce voir attribuer ce badge, il convient donc de disposer d’un accès aux serveurs de production d’une part, puis d’avoir cassé d’autre part le site.

Il existait auparavant une liste des personnes ayant reçu un t-shirt pour signifier qu’ils ont cassé Wikipedia et l’ont réparé.

Si l’on compare avec la liste des incidents, il est évident que tant l’ancienne liste historique du t-shirt que la nouvelle liste des badges est de loin incomplète : l’erreur est humaine et malgré les nombreux gardes-fous de notre procédure, le site reste fragile.


D’autres instances Phabricator ont d’autres badges, j’aurai l’occasion d’y revenir ultérieurement.

In da Kiwix

11:13, Thursday, 02 2017 February UTC

C'est comme ça qu'on gagne.

Tout le monde connaît Wikipédia, chacun et chacune a son petit avis dessus, mais sait-on réellement comment cette encyclopédie collaborative fonctionne ?

Il y a 20 ans, lorsque, lors d’une soirée entre ami-e-s, on se posait une question du genre « Mais attends, comment on fait l’aspirine ? » le dialogue était souvent le même :

– Je sais pas, c’est pas avec de l’écorce de saule ?

– Oui mais ça doit être chimique, maintenant, non ?

– Je sais pas, t’as pas une encyclopédie ?

– Si, dans la bibliothèque, mais la raclette est prête.

– Bon, tant pis.

…et on en restait là. Aujourd’hui, on sort un ordiphone, on cherche la réponse sur Wikipédia, et on passe la raclette à se chamailler sur la fiabilité d’une encyclopédie où « tout le monde peut écrire n’importe quoi ».

(au fait, pour l’aspirine, on fait comme ça.)
Par NEUROtikerTravail personnel, Domaine public, Lien

En vrai, avez-vous déjà essayé d’écrire n’importe quoi sur Wikipédia… ? Savons-nous seulement comment ça marche ? Comment les articles sont-ils écrits, modifiés, corrigés, vérifiés, amendés… ?

Ça peut être impressionnant, la première fois qu’on se dit « tiens, et si moi aussi je participais à l’élaboration d’une encyclopédie ? » On peut se sentir un peu perdu·e, pas vraiment légitime, ou tout simplement ne pas savoir par quel bout commencer…

Heureusement, les membres de la communauté Wikipédia et Wikmédia France (l’association des contributeurs et contributrices à la Wikipédia francophone), ont créé un MOOC, un cours ouvert gratuit et en ligne, pour nous faire découvrir les rouages du cinquième site le plus visité au monde, et nous apprendre à nous en emparer.

L’an dernier plus de 6 000 personnes se sont inscrites à ce cours. Fort-e-s de cette expérience, l’équipe rempile pour une deuxième édition, l’occasion pour nous de les interroger et de découvrir ce que proposera ce cours.

 

Bonjour, avant toute chose, est-ce que vous pourriez nous présenter Wikimédia France et vos personnes ?

Jules : Bonjour ! Wikimédia France est une association française à but non-lucratif dont l’objet est « de soutenir en France la diffusion libre de la connaissance, notamment l’encyclopédie Wikipédia. » Il y a souvent des confusions à ce sujet, alors clarifions : Wikipédia est totalement rédigée par des internautes bénévoles, qui s’organisent de manière autonome et déterminent les règles du site. L’association Wikimédia France soutient les contributeurs et l’encyclopédie, mais ne participe pas à la rédaction et n’a aucun pouvoir sur la communauté ; ce n’est d’ailleurs pas la seule association à soutenir l’encyclopédie. Natacha, Alexandre, Valentin et moi-même sommes des contributrices et contributeurs bénévoles de Wikipédia ; nous faisons partie de la douzaine de bénévoles qui conçoivent le WikiMOOC. Je suis par ailleurs salarié de Wikimédia France, qui soutient l’initiative.

Une des missions de Wikimédia France, c’est justement d’inciter qui le veut à contribuer à la Wikipédia francophone… C’est pour cela que vous proposez ce MOOC ? Les cours massivement ouverts et en ligne sont un bon moyen d’inciter aux apports ?

Jules : Oui, les MOOC cumulent plusieurs avantages : bien souvent gratuits, ils sont en ligne et permettent donc de toucher un public plus nombreux qu’avec des formations en présentiel, mais aussi plus diversifié. Le MOOC s’adresse d’ailleurs à toute la francophonie, et près de la moitié des inscrits ne sont pas français.

Alexandre : Le WikiMOOC est effectivement réalisé de manière à donner envie de contribuer. Petit à petit, l’apprenant est guidé vers la rédaction d’un article. Mais il y a des façons très diverses de contribuer : ajouter des sources, des photos, corriger la mise en page, linkifier, améliorer des ébauches d’articles… Une des nouveautés de la deuxième session du WikiMOOC est de présenter des témoignages de contributeurs pour qu’ils racontent ce qu’ils font. Il est aussi plus aisé de contribuer si on ne se sent pas un étranger dans le monde de Wikipédia. Le but du WikiMOOC est aussi de faire mieux connaître ce monde aux apprenant-e-s.

Si je crains que « n’importe qui puisse écrire n’importe quoi dans Wikipédia », ce MOOC me rassurera-t-il ?

Jules : Nous l’espérons, car les choses ne sont pas aussi simples ! L’affirmation initiale, néanmoins, est exacte : n’importe qui peut écrire n’importe quoi sur Wikipédia. Mais le n’importe quoi a de fortes probabilités de ne rester sur Wikipédia qu’une vingtaine de secondes tout au plus. Car il faut étayer toute affirmation par des sources, et des sources de qualité, dont on sait qu’elles sont fiables (pas un obscur blog anonyme, donc). Pour vérifier que cette règle est bien respectée, il y a notamment un groupe de contributrices et contributeurs qui surveillent en temps réel les modifications effectuées sur les 1,8 million d’articles de Wikipédia : on les appelle avec un brin d’humour « les patrouilleurs ». C’est à ce stade que sont annulés la plupart des canulars, « vandalismes » (les dégradations volontaires d’articles) et ajouts d’opinions personnelles (totalement proscrits : on ne donne jamais son avis personnel dans un article). Certaines modifications passent évidemment entre les mailles du filet et ne seront annulées que plusieurs heures ou plusieurs jours après, par d’autres contributeurs – on manque de bras pour tout vérifier !

Finalement, à qui s’adresse ce MOOC ? Aux personnes qui veulent juste en savoir plus ? À celles qui veulent contribuer activement mais ne savent pas comment ?

Valentin : À tout le monde ! On peut effectivement s’inscrire juste pour comprendre comment Wikipédia fonctionne. Mais ce MOOC est surtout un outil permettant en quelques semaines d’assimiler l’essentiel de ce qu’il faut pour contribuer correctement. Nous voulons que de nombreuses personnes s’emparent de cet outil pour désacraliser la contribution à Wikipédia. Tout le monde utilise Wikipédia en tant que consommateur, mais trop peu de personnes viennent contribuer.

Jules : On peut se sentir un peu perdu quand on commence sur Wikipédia, seul⋅e. Le WikiMOOC est justement parfait pour être guidé dans sa découverte de l’encyclopédie, de son fonctionnement et de sa communauté.

Alexandre : Pour moi qui suis aussi universitaire, le WikiMOOC est un fabuleux point d’entrée pour un cours de Wikipédia. J’essaye donc de synchroniser mes cours avec le WikiMOOC ce semestre pour y inscrire mes étudiant-e-s, et j’encourage les collègues à faire de même !

Comme Framasoft, Wikimédia France est une association qui vit du don… Or créer un MOOC coûte cher… Comment avez-vous pu réussir ce tour de force ?

Jules : La création d’un MOOC, pour une université, se compte toujours en dizaines de milliers d’euros. Nous n’en avons dépensé « que » (ça nous paraît énorme, à vrai dire) 7 500 pour la première édition : 2 500 pour la plateforme, FUN, et 5 000 pour la réalisation des vidéos, via une association de vidéastes amateurs, beaucoup moins cher qu’avec un professionnel ! Et moitié moins pour cette seconde édition. Notre force, c’est qu’il y a une douzaine de bénévoles, contributeurs et contributrices francophones, qui bossent sur le projet ; c’est cet investissement bénévole, en temps, qui nous permet de ne pas dépenser trop. Nous réalisons nous-mêmes beaucoup de tâches (créer des visuels, tourner certaines vidéos, concevoir des tutoriels interactifs…) qui dans une université seraient sous-traitées. Nous bénéficions tout de même d’une partie importante de mon temps salarié chez Wikimédia France, même si je m’investis aussi sur du temps bénévole.

Quand il y a une personne face caméra, il y en a souvent plein en coulisses ;)
By English : Credits to Habib M’henni / Wikimedia Commons – Own work, CC BY-SA 4.0, Link

En passant, on lit de l’équipe pédagogique que « Ces trois présentateurs et présentatrices font partie d’une équipe pédagogique plus large, riche de treize wikipédiens et wikipédiennes expérimenté·e·s ». Le langage épicène, qui permet d’éviter la discrimination d’un genre, vous tient à cœur pour la wikipédia francophone ?

Natacha : Le langage épicène (ou langage non sexiste) est un langage inclusif qui tente de ne pas favoriser un genre par rapport à l’autre. Il est utilisé notamment en Suisse et au Québec, surtout dans la fonction publique. Par ailleurs, nous avons un fossé des genres sur Wikipédia – 75 000 articles sur des femmes contre 450 000 biographies d’hommes et moins de 20 % de personnes contribuant sont des femmes – ce qui introduit parfois des biais dans la façon dont les sujets sont traités. La fondation Wikimedia (qui participe au financement de Wikimédia France) en a fait un sujet de priorité depuis qu’un article du New York Times a relevé ce problème en 2011.

Par ailleurs le WikiMOOC cible toute la communauté francophone, et nommer explicitement le genre féminin peut avoir un impact sur la participation des femmes à ce dernier, alors même qu’on cherche à augmenter le nombre de contributrices ce détail peut avoir son importance !

Jules : Natacha a su nous convaincre d’utiliser le langage épicène dans le WikiMOOC ;-). Mais celui-ci n’est pas en usage systématique sur Wikipédia en français, notamment en raison de sa lourdeur visuelle, et car il n’est pas (encore ?) répandu dans les usages. Or Wikipédia a tendance (rien de systématique) à suivre les usages de la langue.

D’ailleurs, on peut parfois ne pas être d’accord avec les choix faits dans les règles que s’impose la communauté Wikipédia (éligibilité des articles, traitement des genres et des personnes trans, application du point de vue…). Quelle est la meilleure manière de faire évoluer ces positions ?

Jules : Le meilleur moyen de faire évoluer les règles de Wikipédia, ou bien les consensus qui ont émergé au coup par coup pour chaque article, c’est de s’investir dans la communauté. On voit souvent des internautes débarquer, parfois très bien intentionnés, mais très maladroits : ils arrivent et veulent tout changer. Or les contributeurs et contributrices sont souvent sur leurs gardes, notamment parce qu’il y a régulièrement des tentatives d’entrisme et de manipulation de Wikipédia à des fins idéologiques et politiques (en faveur d’une personnalité politique par exemple). Ce sont des internautes qui veulent utiliser la notoriété de Wikipédia pour faire et défaire les notoriétés, pour passer leurs idées… alors que ce n’est pas le lieu. Bref, quand on est bien intentionné, il est primordial dans un premier temps de se familiariser avec les règles ainsi que les us et usages relatifs qui guident le déroulement les discussions et les décisions. Cela évite les maladresses, et ça permet de parler le même langage que les autres contributeurs et contributrices bénévoles. Ça instaure une confiance mutuelle.

Wikipédia, c’est une encyclopédie, mais aussi nombre d’autres projets visant à partager le savoir collaborativement… vous en parlerez dans ce MOOC ?

Alexandre : Le mouvement Wikimedia contient de nombreux projets en plus de Wikipédia, comme Wikimedia Commons qui est l’endroit où les fichiers multimédia Wikipédia-compatibles sont déposés. Comment ajouter une photo est une question qui revient souvent donc le sujet est abordé. Au delà, Wikipédia et les projets « sœurs » sont une excellente école pour comprendre les enjeux du copyright et de ses abus, ce que sont les licences Creative Commons et ce qu’elles représentent politiquement. La famille des projets Wikimedia correspond au seul projet libre (libre comme dans libre discours, pas comme dans libre bière :) ) accessible au et connu du grand public. À ce titre, il est une sorte de porte étendard et pour moi, le WikiMOOC a aussi pour vocation de le promouvoir.

Bon c’est bien gentil tout ça, mais ça va me demander quoi de participer à ce MOOC ? Des milliers d’heures de travail ? Un ordi surpuissant dernier cri ? Une connaissance infaillible de la calcification des hydrogénocarbonates ?

Alexandre : le point commun de tous les MOOC, c’est qu’on peut se sentir libre de les aborder à sa manière : regarder seulement les vidéos, faire les exercices ou pas, s’intéresser à une semaine mais pas à l’autre. Dans le WikiMOOC, des mécanismes pédagogiques sont prévus pour inciter les apprenant-e-s à aller le plus en profondeur possible mais tout le monde doit se sentir libre (sauf mes étudiant-e-s qui seront noté-e-s, évidemment !).

Jules : Pour rebondir sur votre question, pas besoin d’ordi surpuissant, un navigateur web à jour suffit amplement. Pour suivre la totalité du cours, il faut compter au moins trois heures de travail par semaine, mais c’est très variable d’une personne à une autre !

Du coup, si je suis convaincu, qu’est-ce que je dois faire pour m’inscrire ?

Valentin : Les inscriptions (gratuites évidemment) ont lieu sur fun-mooc.fr !

Et, comme d’habitude sur le Framablog, on vous laisse le mot de la fin !

Jules : Soyez nombreux et nombreuses à vous inscrire pour aider à donner accès à la connaissance au plus grand nombre !

SPARQuickL 3 – Bonne compagnie

17:12, Monday, 03 2016 October UTC

Entreprises

# List of business enterprises SELECT ?business { ?business wdt:P31/wdt:P279* wd:Q4830453 . # item is a business enterprise or subclass thereof }

Essayez

Entreprises avec leur date de création # List of business enterprises, with their date of creation SELECT ?business ( SAMPLE( ?date ) AS ?date ) WHERE { ?business

Continue reading « SPARQuickL 3 – Bonne compagnie »

SPARQuickL 2 – Risque de décès

13:22, Friday, 16 2016 September UTC

Étape 1 : Pays

SELECT ?country ?countryLabel WHERE { ?country wdt:P31 wd:Q6256 . # countries SERVICE wikibase:label { bd:serviceParam wikibase:language "en" } }

Essayez

Étape 2 : Personnes mortes en 2015 et leur nationalité SELECT ?person ?dod ?country WHERE { ?person wdt:P31 wd:Q5 . # humans ?person wdt:P570 ?dod . # of

Continue reading « SPARQuickL 2 – Risque de décès »

S’enorgueillir.

20:17, Wednesday, 14 2016 September UTC



S’enorgueillir.

Prototypage rapide d’entités Wikidata

06:18, Tuesday, 13 2016 September UTC

Wikidata est un projet puissant, mais pour pouvoir en profiter, il faut le remplir. Bien sûr, il est possible d’ajouter des données à la main directement sur le site : ça fonctionne sans souci mais que faire quand on a plusieurs dizaines d’entrées ? Plusieurs centaines ? Avec le temps, quelques outils ont vu le jour permettant d’automatiser un peu ce processus, comme l’indispensable QuickStatements ; là encore, il faut bien lui fournir les données qu’il mange et tout ceci est parfois bien fastidieux. Est-ce qu’on ne peut pas aller plus loin ?

Une entrée wikidatienne sur un être humain, par exemple, possède des champs plus ou moins codifiés :

  • Une nature de l’élément égal à Q5, « être humain »
  • Un genre (masculin, féminin, etc.)
  • Une date et un lieu de naissance
  • Une date et un lieu de décès
  • Un pays de nationalité
  • Une occupation
  • Un prénom et un nom de famille

Toutes ces propriétés ne se rencontrent pas à chaque fois et on peut en rajouter d’autres, mais est-ce que ça ne serait pas intéressant d’avoir une sorte de formulaire où on se contenterait de remplir les cases correspondantes, histoire de créer rapidement un squelette d’entité Wikidata ? Pour voir, j’ai codé l’utilitaire « human » : vous mettez ce qu’il faut dans les champs, vous appuyez sur le bouton et il produit le code à destination de QuickStatements. J’ai le sentiment qu’on peut ainsi gagner du temps et on n’oublie rien.

Histoire d’aller un peu plus loin, je me suis penché sur la base Joconde, qui a le goût d’être remplie avec pas mal de soin. J’en ai sorti un autre utilitaire, baptisé Joconde parce que je suis un gars avec une imagination débordante. Sa fonction : parser une fiche Joconde, en retirer les champs qui vont bien (titre, auteur, sujets représentés, etc.) et présenter le résultat dans un formulaire pour correction avant envoi à QuickStatements. Les champs corrigés sont stockés en base, histoire que si l’utilitaire puisse ressortir la correction s’il retombe dessus (comme ça, « MONET Claude » est automatiquement corrigé en « Claude Monet, peintre français, Q296 »). On y gagne du temps.

Personnellement, je pense que cette idée de formulaires pré-remplis est à creuser, pour Wikidata. Qu’en pensez-vous ?

PS : j’imagine que mon outil pour Joconde doit enfreindre des milliers de lois, de licences et de copyrights. Je laisse le soin aux Wikimédiens que ça intéresse de discuter de la chose et de décider s’il faut supprimer toutes mes contributions. Prévenez-moi juste du résultat final.

(Image d’en-tête : détail de La Joconde, par Léonard de Vinci (domaine public))

Mise à jour du 28 septembre 2016 : j’ai placé le code des outils en question sur GitHub : https://github.com/PoulpyFR. Bien sûr, c’est codé n’importe comment et pas commenté. 🙂

Cet article Prototypage rapide d’entités Wikidata est apparu en premier sur The Ash Tree.

Older blog entries