Gribouillage 210 : Coincidence

00:42, Wednesday, 15 2019 May UTC

Un chouia de contexte si vous débarquez : il y a eu un regain d’intérêt récent sur le traitement des articles concernant les femmes sur enwiki, aux alentours de quand Katie Bouman et son équipe ont publiés la première photo d’un trou noir. Plus précisement, sur leur tendance étrange à disparaitre.

 

Une discussion que j’ai eu un certain nombre de fois depuis 2010.

Qu’est ce que tu veux répondre, à ce niveau là…

Gribouillage 208 : Réflexe wikimédien.

18:17, Wednesday, 01 2019 May UTC

*La Cabale Île-de-France est un groupement informel des contributeurs&contributrices de la région parisienne (voir aussi : Non-cabale de l’Ouest, Cabale à la noix, Cabale de la quenelle, etc)

Même si c’est pas bien d’humoriser sur un évènement dramatique et tralala… rappelons nous que le musée national du Brésil, lors de son incendie début 2018, a perdu des millions d’enregistrements et de photos irremplaçables. La numérisation du patrimoine, c’est important.

Numéro du 01 mai 2019

00:00, Wednesday, 01 2019 May UTC


Brèves

WP2M rocket logo.jpg

On a crashé sur la Lune — À deux reprises, nous vous avons parlé de projets visant à envoyer Wikipédia sur la Lune (en mai 2016 et en juin 2018). Il semblerait désormais que ce soit chose faite[1]!?
Une version de 100 Go de l'encyclopédie libre était à bord de la sonde Beresheet, qui s'est écrasé avec une vitesse verticale de 482 km/h et une vitesse horizontale de 3 409 km/h sur le sol lunaire. Espérons que les quelque 30 millions de mots en 5 000 langues, ainsi que les milliers d'images associées, ne soient pas trop dispersés. Autrement, la somme du savoir humain risque d'être devenue le casse-tête extraterrestre le plus difficile jamais créé !

« [étant entier], il a dû dériver de quelques km ; un frisbee de 30 millions de pages sur la Lune[trad 1],[1]. »

— Arch Mission Foundation, Mashable

La consultation de la Wikipédia en français... — est mondiale. Diriez-vous qu'elle est consultée cinquante, soixante, soixante-dix, quatre-vingts... millions de fois par mois ? En février 2019, c'est un peu plus de quatre-vingt-dix millions d'appareils uniques[note 1] qui ont servi à consulter cette Wikipédia linguistique. [1] Comme vous l'avez sans doute anticipé, la majorité des consultations provient de l'Hexagone. Selon vous, quels pays suivent ensuite : Algérie, Belgique, Canada, États-Unis, Suisse... ? Canada, suivi des États-Unis, puis la Belgique. Le nombre de consultations en provenance de l'Allemagne, de la Chine et de l'Irlande est respectivement de 9,5 millions de fois, 3,8 millions de fois et 2,9 millions de fois. Les internautes du Groenland n'ont consulté que mille fois en mars 2019, comme ceux de la Papouasie-Nouvelle-Guinée. Pour la Corée du Nord, aucune valeur n'est publiée. Vous souhaitez en savoir plus ? Consultez cette carte interactive publiée sur le site Wikimedia Statistics.

Internet Archive accusé... — de faire de la « propagande terroriste »[trad 2]. En effet, une autorité française (la French Internet Referral Unit) a exigé d'Internet Archive (IA) de bloquer 550 adresses Web (URL) menant à des contenus jugés illicites. Parmi les URL visées : https://archive.org/details/texts (tous les livres en ligne d'IA, plus de quinze millions), https://archive.org/details/gutenberg (des documents transcrits par le Projet Gutenberg), https://archive.org/details/pubmed (des articles de PubMed, plus de deux cents mille) et https://archive.org/details/arxiv (documents d'ArXiv, plus d'un million). Le demandeur a donc mis dans le même sac des millions de documents au motif que certains feraient l'apologie du terrorisme. IA a aussi reçu une demande de l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) de retirer une vidéo précise qui comprend seulement des commentaires sur le Coran. Ces demandes officielles n'amusent pas du tout IA. En effet, l'OCLCTIC a menacé IA de bloquer la diffusion de ses contenus en France si la vidéo n'était pas retirée dans l'heure, alors que l'autre demandeur a menacé de bloquer le site 24 heures après avoir émis l'avis. [2]

Push notifications — Pour les utilisateurs de smartphones, les push notifications (PN) sont devenues de plus en plus fréquentes lorsqu'ils utilisent des applications et consultent des sites Web. Par exemple, en 2013, Apple s'est targué d'avoir transmis 7 400 milliards de PN en une seule année, et ce nombre a pris de l'ampleur depuis. Tous les grands producteurs de contenus exploitent cette technologie. Toutefois, les messages des PN sont de plus en plus souvent éloignés des attentes des utilisateurs. Un article de Wired convie les lecteurs à les désactiver, sauf peut-être pour les appels téléphoniques et les textos. Lorsque les PN sont apparues, dans les BlackBerry en 2003, elles servaient à notifier les utilisateurs via leur smartphone qu'ils avaient reçu des courriels, ce qui était perçu comme fort utile par ceux qui craignaient de manquer un courriel important. En 2008, Apple et Google ont suivi dans cette veine, mais avec l'intention d'attirer l'attention des utilisateurs sur de multiples sujets. Après des années d'exploitation, même si les PN sont régulièrement utilisées par les sociétés de marketing, Apple et Google ont mis en place des moyens simples de les désactiver (une application à la fois, toutefois). Puisque de plus en plus de sociétés y ont recours, ce service est devenu un fléau virtuel des temps modernes. L'auteur de l'article doute fortement que les utilisateurs de smartphone ont besoin d'être notifiés sur n'importe quoi, même s'ils peuvent découvrir une pépite de temps à autre. Il termine en mentionnant qu'il a désactivé les PN de presque toutes les applications, et ne s'en porte que mieux. [3] L'équipe de développement logiciel du navigateur Web Mozilla Firefox, qui juge que les PN dégradent l'expérience Web, a décidé de mettre en place des outils pour les contrôler. Des versions bêta du navigateur livrées en avril permettent de tester deux outils et de valider leur bon fonctionnement. [4]

Don de l'Arcadia Fund — La Wikimedia Endowment (WE), fond de dotations qui vise à assurer la pérennité du savoir libre de l'écosystème hébergé par la Wikimedia Foundation (WMF), a reçu un don de 3,5 millions US$ de l'Arcadia Fund, qui a été créé en 2002 par Lisbet Rausing et son conjoint Peter Baldwin (les deux sont historiens, Rausing étant l'une des héritières du milliardaire suédois Hans Rausing [5]) Les buts de cette fondation britannique ? Préserver les cultures menacées d'extinction, préserver les environnements menacés d'extinction et faire la promotion du libre accès. Depuis sa création, la fondation affirme avoir versé plus de 570 millions US$ à divers organismes [6] Baldwin justifie le don à la WE ainsi : « Dans cette époque de fake news et de données camelotes mondialisées, il est d'autant plus important que Wikipédia poursuive sur sa lancée, nous fournissant des informations neutres, factuelles et précises. » [trad 3] La WE a donc amassé jusqu'à maintenant 35 millions US$ sur les 100 millions qu'elle souhaite recevoir. [7], [8]

Le copyright universitaire est désuet

C'est l'avis de l'historien et philanthrope Peter Baldwin. Il justifie sa position dans un long article publié à l'automne 2018.

Dans le futur, est-ce que le symbole du copyleft sera présent dans tous les ouvrages universitaires ?

Le copyright a été créé au XVIIIe siècle pour offrir aux producteurs de biens culturels, des pigistes en quelque sorte et non pas des salariés, un droit sur leurs productions pour qu'ils puissent vivre de leurs efforts. Par la suite, des entreprises du secteur des arts visuels ont embauché ces producteurs, s'appropriant les droits intellectuels de leurs œuvres contre rémunération. La majorité des lois pionnières sur la propriété intellectuelle ont été forgées aux États-Unis parce que les studios de cinéma souhaitaient recevoir des compensations pour les films produits, fruit de la collaboration de dizaines, sinon de centaines, de créateurs (scénaristes, créateurs de décors, photographes, etc.). Cet encadrement légal éliminait des incertitudes, crainte principale des sociétés.

Le copyright recouvre deux grandes classes de réclamations : « le droit moral ou artistique, tels attribution et intégrité, et les droits économiques ou monopolistiques. » [trad 4] La première classe protège les créateurs du piratage intellectuel et des modifications sans une approbation préalable. Cette classe, couramment admise dans les sociétés industrielles modernes, ne prête pas à polémique. Les droits monopolistiques offrent un monopole temporaire sur la distribution, ce qui incite les créateurs à poursuivre leur travail puisqu'ils sont récompensés. À l'ère analogique, ce monopole sur la distribution faisait sens parce que le coût de la production physique des biens était élevé, tout comme leur distribution (surtout en ce qui concerne les livres).

La très grande majorité des producteurs de contenus n'est plus indépendante à la suite de l'institutionnalisation de la production du savoir. Même parmi les « indépendants », très peu pourraient vivre de leur art aujourd'hui. Par exemple, en 1976, à peine trois cents écrivains américains pouvaient vivre de leur art, alors que le pays comptaient quelques millions d'aspirants écrivains. En 1979, sur deux mille écrivains sondés, la moitié affirmait occuper un emploi. Présentement, « la majorité des auteurs sont des salariés d'universités, de think tanks, de musées, d'autres institutions culturelles ou de sociétés. » [trad 5] La plupart des romanciers et des poètes enseignent dans leur domaine de prédilection, écrivant sur leur temps libre. Pour tous ces gens, les droits monopolistiques n'ont plus lieu d'être, puisqu'ils ont déjà été récompensés pour leurs productions. Au début du XXe siècle, les professeurs universitaires titularisés étaient majoritairement payés à la leçon par les étudiants. Dans les pays industrialisés, la grande majorité des enseignants universitaires est maintenant salariée. Pour eux aussi, les droits offerts par le copyright n'ont plus d'intérêt. Il est dès lors étonnant que les universitaires soutiennent un système qui ne les récompensent plus, ou très peu.

Le film Safety Last !, sorti en 1923, est élevé dans le domaine public en 2019, soit presque 100 ans après sa première publication.

L'auteur poursuit en comparant les studios de cinéma d'Hollywood et le monde universitaire américain. L'industrie cinématographique américaine engrange des milliards de dollars de revenus ; la majorité des salariés de cette industrie jouit de bonnes conditions de travail et beaucoup de travailleurs sont syndiqués. Elle souffre très peu des grèves, parce que les tâches créatives sont documentées en détail, ce qui permet de rétribuer les créateurs selon des barèmes négociés. Selon Baldwin, cette documentation expliquerait la longueur interminable des génériques contemporains. Les universitaires sont bloqués, selon lui, dans une façon de faire qui date d'une autre époque, même si le système universitaire américain jouit de revenus nettement supérieurs, au moins cinq fois, à l'industrie cinématographique américaine. De plus, les universités sont majoritairement payées par l'argent des contribuables, même aux États-Unis (subventions, dons, non-imposition...). Pour cette raison, le monde universitaire ne devrait plus souscrire au modèle du copyright.

Baldwin mentionne que le copyright poursuivait un autre but : permettre aux producteurs d'être récompensés pour avoir produit des biens physiques (livres et journaux, par exemple). « Les technologies numériques ont mis un terme à cet écosystème historique de plusieurs façons [...] Elles ont, par exemple, raccourci les procédures éditoriales, réduisant la révision et la composition, qui sont maintenant dématérialisées. La rédaction manuelle a été largement remplacée par l'usage des logiciels de traitement de texte. Aujourd'hui, les rédacteurs d'imprimerie sont pareils à des opérateurs d'ascenseur qui appuient sur des boutons. » [trad 6] L'évaluation par les pairs, qui se faisait au nom des maisons d'édition, est passée d'une forme de procès à une discussion entre pairs. Un chercheur publie une première version, recueille les commentaires, modifie en conséquence, puis publie. À ce moment, tous les chercheurs intéressés par le sujet ont déjà lu l'article et l'information qu'il contient est déjà en grande partie disséminée. Cette façon de faire a été adoptée par les physiciens, les mathématiciens et les informaticiens. ArXiv et SciPost court-circuitent l'évaluation par les pairs, à une fraction du prix exigé par les maisons d'édition. Comparées aux concurrents, les prix exigés par ces dernières sont donc hors de proportion avec les services offerts.

Ces changements produisent des effets sensibles sur la distribution des textes scientifiques et techniques. Lorsqu'une création intellectuelle a été inscrite dans un fichier électronique, il n'est plus nécessaire de l'imprimer. Il suffit de la publier en ligne, la rendant disponible à n'importe qui doté d'un appareil connecté à Internet. Les maisons d'édition ont donc perdu un autre avantage.

Le tome 1 de l’Histoire de la décadence et de la chute de l'Empire romain, publié en 1819, est élevé dans le domaine public, comme les douze tomes suivants.
L'université d'Ottawa a transmis les livres imprimés à Internet Archive (IA), qui a numérisé les tomes à un coût dérisoire. Versés dans le domaine public par IA, les scans ont été téléversés dans Wikimedia Commons.
Si la qualité des scans ne vous satisfait pas, vous pouvez toujours acheter n'importe quel tome chez Amazon.fr au prix de 8,50 euros, ou consulter la transcription des tomes sur Méditerranée-antique, en attendant une transcription complète sur Wikisource.

Quelles sont les conséquences pour les librairies, les bibliothèques et les maisons d'édition ? Les gens voudront encore lire des livres imprimés. Toutefois, les imprimés ne constituent déjà plus l'essentiel de ce que les gens connectés lisent. Les librairies sont dans les faits devenues des cafés, avec un inventaire de livres. Les bibliothèques, lieux qui rassemblent les documents imprimés, sont elles aussi destinées à disparaître sous la forme que nous leur connaissons, parce que leur finalité, être un entrepôt organisé d'ouvrages imprimés, ne sera plus utile au commun des mortels qui consomme les documents en ligne. Des gens suggèrent qu'elles sont devenues des lieux de rencontres. Pour des étudiants à la recherche de documents, certainement ; pour les autres, probablement pas. Lorsque la majorité des contenus seront numérisés, l'utilité de la majorité des bibliothèques sera presque nulle sauf en tant qu'archives de documents imprimés (utiles pour prévenir des pertes irréparables à la suite de catastrophes). Baldwin mentionne Internet Archive qui a pour finalité première de mettre en ligne des ouvrages ; elle conserve pourtant une copie imprimée de chaque livre numérisé dans un conteneur. Également, des chercheurs souhaiteront des ouvrages imprimés pour les étudier à leur aise. Il discute de la conservation du patrimoine stocké en ligne. Il critique l'idée de laisser des sociétés gérer les masses d'ouvrages conservés dans le nuagique. [NdE : exemple récent d'échec : la perte de 14 millions de fichiers audio par la société Myspace, 450 mille ayant été « sauvés de l'extinction » par un groupe de chercheurs, fichiers qui sont néanmoins mal identifiés. [9]‌] Ces ouvrages constitueront une seule et unique bibliothèque mondiale, qui devra être maintenue par un groupe coordonné, peut-être des bibliothécaires. Finalement, Baldwin questionne la pertinence des maisons d'édition, puisque le médium papier est de plus en plus remplacé par des médiums dématérialisés. Toutefois, elles refusent de disparaître, « mettant en scène une sorte de film d'horreur rappelant Le Retour des morts-vivants, dernier stade du monopole de location avant leur fin inévitable »[trad 7].

Les créateurs, eux, continuent de produire, publiant de moins en moins chez les maisons d'édition traditionnelles. En 2010, par exemple, le nombre de livres imprimés était de trois cent mille, alors que le nombre de livres électroniques (publiés par Amazon et d'autres acteurs non-traditionnels) était de 4 millions. Dans les années subséquentes, le nombre de livres imprimés est resté stable, alors que le nombre de livres électroniques est descendu à trois quarts de million, ce qui constitue quand même trois fois plus de titres en format électronique. Les maisons d'édition de périodiques échappent en partie à cette tendance car elles publient des documents à consommer rapidement, puisque la recherche moderne est une course contre la montre et les idées novatrices exposées dans un article le sont seulement dans un seul périodique. Au contraire des autres monopoles, tel la livraison de courrier en première classe ou la distribution d'énergie électrique, l'industrie des périodiques n'est pas fermement régulée. Plus de la moitié des périodiques en sciences dures et en recherche médicale sont publiés par cinq ou six sociétés (selon certains critères) : Reed-Elsevier, Wiley-Blackwell, Springer, Taylor & Francis, American Chemical Society et SAGE Publications. Dans le domaine des sciences sociales, elles sont toutes aussi dominantes. Toutefois, les gouvernements subventionnent la majorité des recherches et n'y trouvent pas leur compte parmi ces sociétés qui dégagent des marges bénéficiaires dans la fourchette 30-40 %. Ils exigent de plus en plus régulièrement que les fruits des recherches soient gratuitement accessibles aux contribuables, qui paient les frais de recherche. Cette lame de fond a déjà sensiblement modifié la façon de publier dans les sciences dures, commençant timidement dans les années 1980 pour s'appliquer au tiers des publications aujourd'hui. Les lettres et les sciences sociales n'ont pas, elles, changé leur façon de faire entre-temps. Au Royaume-Uni, toutes les subventions à la recherche sont régulées par les mêmes autorités gouvernementales, lesquelles exigent de plus en plus souvent que les articles issus de travaux subventionnés soient publiés sous licence libre, laissant anticiper que cette politique s'appliquera aussi aux monographies.

Des maisons d'édition ont décidé de collaborer en proposant des programmes open access. Les auteurs doivent toutefois verser un montant pour y être publié, qui va de 5 000 à 15 000 dollars américains. Un calcul simpliste permet d'estimer le coût global des publications pour les États-Unis : multiplier trois cents mille livres par dix mille dollars pour arriver au montant de 3 milliards. L'ensemble des seuls programmes d'acquisition des bibliothèques américaines, au nombre de 120 000, est de 4,7 milliards annuellement. Le système actuel des bibliothèques est inefficace pour plusieurs raisons : il faut y apporter des livres imprimés, qui seront catalogués puis classés ; ensuite, les lecteurs doivent se rendre dans des bâtiments tempérés pour emprunter ou consulter sur place ces livres. S'ils étaient tous numérisés, les lecteurs du monde entier pourraient les consulter de chez eux, ce qui rendrait leur lecture et leur étude plus efficace. Ce scénario ne couvre pas, toutefois, les livres orphelins et les livres soumis au copyright. Selon Baldwin, 100 millions de livres élevés dans le domaine public ou qui ne sont plus publiés pourraient être numérisés, un effort gigantesque qui coûterait un milliard de dollars, une seule fois. Il propose un scénario similaire pour tous les périodiques publiés annuellement, estimant un coût annuel de 3-4 milliards US$. Il poursuit en indiquant que les institutions américaines paient annuellement 13 milliards pour l'acquisition de livres et de périodiques. Ce montant serait drastiquement réduit si tous les livres et tous les périodiques étaient livrés sous forme électronique, puisque les bibliothèques n'auraient plus besoin d'autant de salariés pour le maintien de leurs collections (catalogage, archivage, prêts, conservation, etc.).

Avec l'argent versé au système des bibliothèques, nous pouvons rendre tout ce qu'elles contiennent, et tout ce qui sera jamais publié, accessible à n'importe qui, n'importe où dans le monde, s'il peut se connecter à Internet. [trad 8]

Cet accès est d'ores et déjà techniquement et monétairement possible aux États-Unis. Si des pays emboîtent le pas, plus de livres seront accessibles à l'ensemble de la population humaine. Le seul obstacle ? Les lois et règlements actuels. Baldwin cite l'exemple, à ne pas suivre, de la Norvège qui a mis sur pied un programme de consultation gratuite à l'échelle nationale. Tous les Norvégiens peuvent consulter gratuitement n'importe quel livre publié avant 2000. Toutefois, le gouvernement norvégien aurait signé un accord trop avantageux pour les maisons d'édition.

Il cite les exemples d'Internet Archive (qui prête des livres électroniques à raison d'un par lecteur), la New York Public Library (qui souhaite signer des ententes de distribution sous format électronique de livres qui ne sont plus imprimés ; elle remet une copie électronique aux ayants droits, qui sont libres de la vendre) et Public.Resource.Org (qui publie les documents produits par des salariés du gouvernement fédéral américain, ainsi que tous les documents publiés entre 1923 et 1963 dont le copyright n'a pas été renouvelé). L'historien met en garde les lecteurs : tout le monde se dit écologique ou en faveur de l'environnement parce que ça donne une bonne image, le monde de l'édition se dit en faveur de l'accès libre pour la même raison. Les sociétés éditrices de périodiques y gagnent doublement : elles facturent les bibliothèques et elles améliorent leur réputation. Aux États-Unis, des chercheurs ont calculé qu'environ 6 % des articles publiés dans des périodiques scientifiques ne servent qu'à flatter la vanité des enseignants universitaires.

La bibliothèque Widener, pièce maîtresse du système de bibliothèques de l'université Harvard, comprend 3,5 millions d'ouvrages. Sera-t-elle le symbole d'une « révolte » contre le copyright ?

L'auteur demande ce que font les grandes bibliothèques universitaires et leur principale clientèle, c'est-à-dire les professeurs. Au lieu de mener le combat pour moderniser le système de la propriété intellectuelle, ils préfèrent mener des combats de retardements contre le libre accès. Déprimant. Les universitaires croient que leurs écrits méritent d'être grassement récompensés, alors qu'en vérité, les redevances ne constituent qu'une infime portion de leur revenu. Les véritables gagnants du refus de publier sans copyright sont entre autres les sociétés savantes qui recueillent de juteux montants grâce aux abonnements à leurs périodiques, lesquels sont souvent vendus dans des bouquets d'abonnement à prendre ou à laisser. Selon Baldwin, les chercheurs universitaires croient que s'ils peuvent consulter n'importe quel ouvrage publié par Google Livres, n'importe qui peut le faire. Dans les faits, le commun des mortels n'a pas accès à ces pages puisqu'il n'est pas abonné au service payant de Google Livres. Il poursuit en mentionnant Wikipédia, « le plus grand assemblage de connaissance humaine ayant jamais existé, le plus proche de ce que nous ne pourrons jamais obtenir de l'idée d'encyclopédie universelle imaginée par les Lumières. » [trad 9]. Dans celle-ci, la majorité des notes des articles servant à étayer les affirmations, renvoient très majoritairement à des ouvrages publiés sous copyright ou à accès payant (JSTOR, par exemple). Ce système souscrit donc au paradigme du copyright. La seule façon pour un lecteur de vérifier une assertion est d'aller à la bibliothèque.

Cette conception universitaire de l'accès au savoir, qui n'est pas partagée par M. Tout-le-monde, est probablement ce qui a amené Aaron Swartz à vouloir diffuser librement le contenu de JSTOR. C'est peut-être aussi la raison de la création de Sci-Hub, le plus grand entrepôt d'articles au monde après seulement six ans d'existence et qui poursuit sa croissance malgré la violation de toutes les lois sur le copyright ; puisqu'il est hébergé quelque part en Ukraine, jouant le rôle d'un caillou russe dans le soulier occidental, les ayants droits ne peuvent faire exécuter les jugements en leur faveur. Pour quelles raisons les chercheurs universitaires participent-ils encore au paradigme du copyright ? Selon Baldwin, en partie par inertie, en partie par ignorance. Ils ne paient pas les frais de publication. Ils bénéficient également du prestige d'être publiés dans certaines revues scientifiques, même si d'autres revues sont consultées par un plus grand nombre de professionnels. Les universités jugent favorablement les chercheurs qui publient dans ces revues prestigieuses. Les maisons d'édition offrent des services de révision de contenu et d'évaluation par les pairs, deux autres motifs de collaboration avec celles-ci, même si leurs travaux pourraient être utilement évalués par des pairs hors de l'industrie de l'édition scientifique.

Selon Baldwin, les universités doivent dorénavant considérer les chercheurs comme des salariés, de la même façon qu'Hollywood conçoit sa relation avec les créateurs. Évidemment, le monde universitaire s'y opposera, la plupart des universitaires croyant être les héritiers intellectuels des créateurs d'antan. Dans les faits, ils sont payés pour produire des contenus. Les droits intellectuels sur leur production doivent être maintenus, alors que leurs droits sur la dissémination ont cessé de leur appartenir depuis des lustres. Baldwin demande même que la distribution des contenus échappe au contrôle des maisons d'édition et que les production écrites des chercheurs subventionnés par l'État soient automatiquement en libre accès. Il mentionne un programme d'ampleur dans cette direction en Australie (qui a pris son envol après dix ans d'opposition de l'industrie de la presse et d'inertie bureaucratique [Open Access logo PLoS white.svg]). Il explique par ailleurs que le monde académique n'a pas à se coordonner avec les maisons d'édition, puisque les chercheurs ne sont pas des salariés de ces sociétés. Vers la fin de l'article, il mentionne l'exemple de Lionel Gossman, professeur émérite en littérature française de l'université de Princeton qui a publié plusieurs ouvrages chez Open Book Publishers (en) ces dernières années. Baldwin a pour sa part téléversé un livre sur l'évolution du copyright en Europe et aux États-Unis, The Copyright Wars, dans Internet Archive.

Dans les coulisses de la Wikimedia

Enregistré sur Phabricator
Tâche 44085

Wikishort — Un raccourcisseur d'URL dédié à l'écosystème Wikimedia sera disponible à partir du 11 avril[2] sur meta:Special:UrlShortener. Cela devrait régler plusieurs problèmes, dont notamment celui du raccourcisseur d'URL actuellement utilisé par le système de requêtes de Wikidata : bit.ly[3], ou encore TinyURL qui était utilisé ailleurs et qui est blacklisté[4]. L'URL à raccourcir doit se trouver dans l'écosystème Wikimedia. Les sites « satellites » comme Wikimedia Toolforge, Wiki Loves Earth, Wiki Loves Monuments et les chapters Wikimedia, ne sont pas inclus parce qu'ils ne sont pas soumis aux mêmes règles de sécurité en ce qui concerne la gestion du trafic Internet. [10].

2030 — Cela fait un certain temps que le mouvement Wikimedia consulte différent-e-s intervenant-e-s sur leur vision de l'évolution du mouvement jusqu'à l'horizon 2030. Une analyse de l'aspect branding de la chose a été rendue accessible. On y présente différentes statistiques sur la perception des différentes « marques » du mouvement. On y conclut, entre autres, que le mouvement devrait miser sur le nom « Wikipedia » plutôt que « Wikimedia » et que, par souci d'uniformité, Wikimedia Commons devrait changer de nom pour Wikicommons.<on en parle au Bistro du 5 avril>

Ces photos sont chronologiquement inversées. Dans un avenir rapproché, verra-t-on apparaître des galeries de photographies, découvertes dans des « archives » oubliées, comprenant de plus en plus de portraits « authentiques » ?

Images synthétiquesNvidia a publié en 2018 un logiciel qui permet de créer en quelques secondes, sur un ordinateur de bureau doté d'une carte graphique de la société, une image synthétique inspirée d'une scène réelle. [11] Ce logiciel est également capable de créer un portrait synthétique, c'est-à-dire que le visage en question n'existe que dans les pixels d'une image (pour des exemples, voyez [12], [13], [14], [15]). Publié sous licence libre, StyleGAN utilise le CUDA de Nvidia (un freeware), ainsi que TensorFlow, bibliothèque logicielle publiée sous licence libre. StyleGAN peut également créer des portraits d'animaux et des photos d'automobiles. [16]
La possibilité de créer des portraits synthétiques peut sembler périphérique à l'écosystème Wikimedia. Mais combien de wikis réutilisent les illustrations de Wikimedia Commons ? Combien de sites Web réutilisent les illustrations de Commons ? Est-ce que la communauté wikimédienne pourra garantir que les portraits stockés sur Commons représentent des personnes réelles, et ne sont pas des portraits synthétiques ? Si le portrait d'une personnalité est téléversé dans Commons dans les années 2020, qui pourra valider son authenticité ? Faudra-t-il mettre en place des gardes-fous pour empêcher le téléversement de portraits synthétiques ? D'autres questions se poseront et d'autres problèmes surgiront à l'usage.

Localités en rouge

Murshidabad
Hazarduari Palace West Bengal.JPG
Murshidabad, une localité de l'Inde décrite dans l'Encyclopédia Britannica et ayant une entrée dans 32 versions linguistiques de Wikipédia, mais pas en français.
Géographie
Pays
Flag of India.svg IndeVoir et modifier les données sur Wikidata
État indien
Division
Malda division (en)
District (en Inde)
Capitale de
Shashanka (en), nawabs de Bengale et Murshidabad (en)Voir et modifier les données sur Wikidata
Altitude
10 mVoir et modifier les données sur Wikidata
Coordonnées
Identifiants
Code postal
742149Voir et modifier les données sur Wikidata
Indicatif téléphonique
3483Voir et modifier les données sur Wikidata

En mars, nous vous avons présenté une liste d'articles à créer sur des femmes ayant au moins une entrée dans un dictionnaire et d'encyclopédie classiques. Cette liste peut-être adaptée pour d'autres types d'entrées.
Nous vous présentons donc une liste de Q486972 (« établissement humain ») en ordre décroissant de liens interlangue et n'ayant pas d'article sur frwiki.

Soyez prudent-e-s car certaines des entrées précédentes existent déjà sous une autre forme (par exemple, Zanzibar). Cela est dû à la non-gestion des redirections par Wikidata.

Quiz du mois

« Donnez-vous un point pour chaque bonne réponse et partagez votre score dans la section du courrier du lectorat »

D'après vous, quels sont les 10 femmes et les 10 hommes possédant un article dans le plus grand nombre de versions linguistiques de Wikipédia ?[note 2]

Pierrots — Des informations sensibles, publiées confidentiellement en 2007, auraient été diffusées sur le site des Pierrots le 25 mars 2019. Toutefois, il est impossible de comparer les citations du billet avec les journaux, puisque ces derniers sont à accès confidentiel ou ont été supprimés. Des contributeurs de la Wikipédia en français spéculent sur la façon dont ces informations auraient pu se rendre dans les mains de l'auteur (ou des auteurs) du billet. Des wikipédiens demandent de durcir l'accès aux journaux et à tout autre moyen de communication des vérificateurs d'adresse et des arbitres, mais les propositions ont des inconvénients qui ne sont pas nettement contre-balancées par les avantages.
Voici quelques sections à lire, dans l'ordre chronologique, pour mieux comprendre les enjeux :

SPARQL du mois

SPARQL sur Wikidata.png
SPARQL sur Wikidata
Ces incantations émergent surtout du travail de Simon Villeneuve.

Le SPARQL permet de trier selon divers critères les plus de 55 millions d'éléments de Wikidata. À chaque mois, vous êtes invités à dénicher la requête SPARQL qui vous semble la plus intéressante pour les lectrices et lecteurs des RAW.

Sur Wikidata, les éléments (Q) sont les nœuds et les propriétés (P), les mailles. Le rapport est d'environ 10 000 pour 1 (environ 50 millions d'éléments pour environ cinq mille propriétés). Les mailles sont unidirectionnelles et une association Q-P-Q est appelée un triplet.
Qualificatifs

Wikidata est une base de données structurées constituée principalement d'éléments (Q), de propriétés (P), de lexèmes (L), de valeurs chiffrées et de certaines chaînes de caractères. Chaque Q, P et L peut être doté d'étiquettes, de descriptions et d'alias. Les éléments sont liés entre-eux par des triplets RDF prenant la forme Q -> P -> Q, et parfois la forme d'un quintuplet Q -> P -> Q -> P -> Q.

Il est relativement aisé de faire des requêtes lorsque l'on se contente d'invoquer des triplets. Il s'agit d'utiliser les préfixes wdt: pour P et wd: pour Q. Ainsi, par exemple, on peut obtenir facilement la liste des Q27676428 (« municipalité ») du Québec et trier ces dernières par ordre décroissant de population :

SELECT DISTINCT ?itemLabel ?pop ?item WHERE {
SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". } 
?item wdt:P31 wd:Q27676428 ; 
wdt:P1082 ?pop .
} 
group by ?itemLabel ?pop ?item 
order by desc (?pop)

Cliquez pour essayer !

Exemple de valeur (Emma Watson) à laquelle on a ajouté un qualificatif (character role : Hermione Granger).

Les choses se compliquent dès que l'on veut obtenir des qualificatifs (qualifiers), c'est-à-dire une association supplémentaire P -> Q liée à un triplet donné, ce qui en fait un quintuplet. Par exemple, on pourrait vouloir savoir en quelle année la population des municipalités a été évaluée, ce qui est donné en qualificatif à l'aide de P585 (« date »).

Rdf mapping-vector.svg

Pour obtenir les qualificatifs, il faut utiliser d'autres préfixes (voir l'illustration ci-contre). Ainsi, il faut lier la propriété avec les préfixes p: et ps: et la propriété du qualificatif avec pq:. Cela donne, pour notre exemple :

SELECT DISTINCT ?itemLabel ?pop ?date ?item WHERE {
SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". } 
?item wdt:P31 wd:Q27676428 ; 
p:P1082 ?affirmation . 
?affirmation ps:P1082 ?pop . 
?affirmation pq:P585 ?date .
} 
group by ?itemLabel ?pop ?item ?date 
order by desc (?pop)

Cliquez pour essayer !

Sainte-Sophie
Église de Sainte-Sophie, Laurentides.jpg
Sainte-Sophie est la municipalité du Québec la plus populeuse en 2016.
Géographie
Pays
Flag of Canada.svg CanadaVoir et modifier les données sur Wikidata
Province
Région administrative
Municipalité régionale
Superficie
111,5 km2Voir et modifier les données sur Wikidata
Coordonnées
Sainte-Sophie Quebec location diagram.png
Démographie
Population
15 690 hab. ()Voir et modifier les données sur Wikidata
Densité
140,7 hab./km2 ()
Fonctionnement
Statut
Municipalité (d)Voir et modifier les données sur Wikidata
Histoire
Fondation
Identifiants
Site web

On remarque ainsi que la liste mélange des valeurs de populations établies en 2011 et en 2016. On peut décider de ne garder que les valeurs de 2016 :

SELECT DISTINCT ?itemLabel ?pop ?date ?item WHERE {
SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". } 
?item wdt:P31 wd:Q27676428 ; 
p:P1082 ?affirmation . 
?affirmation ps:P1082 ?pop . 
?affirmation pq:P585 ?date . 
FILTER(year(?date) = 2016)
} 
group by ?itemLabel ?pop ?item ?date 
order by desc(?pop)

Cliquez pour essayer !

Q3266236 (« comte Dracula ») est le personnage le plus souvent spécifié en qualificatif P453.

Si la démographie vous intéresse moins, on peut prendre un autre exemple en recensant le P453 (« rôle ») le plus souvent utilisé pour la propriété P161 (« distribution ») :

#Rôles les plus souvent mentionnés dans les distributions de films.
SELECT DISTINCT ?roleLabel ?role (COUNT(?role) AS ?count) WHERE {
SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". } 
?item wdt:P31/wdt:P279* wd:Q11424 ; 
p:P161 ?affirmation . 
?affirmation ps:P161 ?pop ; 
             pq:P453 ?role . 
}
GROUP BY ?roleLabel ?role
ORDER BY DESC (?count)

Cliquez pour essayer !

Minsk Museum of Belarusian Modern Art in Minsk Second floor.jpg

On constate que le qualificatif le plus utilisé est Q18086706 (« lui/elle-même ») (371 fois).

Prenons la 9e entrée, Q2009573 (« James Bond »). On peut faire la liste chronologique des films dans lesquels apparaît ce personnage et les acteurs qui l'ont incarné :

#Films dans lesquels apparaissent James Bond et acteurs l'ayant incarné, en ordre chronologique
SELECT DISTINCT ?itemLabel ?acteurLabel WHERE {
SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". } 
?item wdt:P31/wdt:P279* wd:Q11424 ;
      wdt:P577 ?date ;
      p:P161 ?affirmation . 
?affirmation ps:P161 ?acteur ; 
             pq:P453 wd:Q2009573 . 
}
order by ?date

Cliquez pour essayer !

Si vous n'êtes ni démographe, ni cinéphile, peut-être que recenser le nombre de P856 (« site officiel ») par P407 (« langue de l'œuvre, du nom ou du terme ») pourrait vous intéresser :

#Les sites officiels en fonction de leur langue
select ?langue ?langueLabel (COUNT(?langue) AS ?count)
WHERE 
{ ?item p:P856 ?site .
  ?site ps:P856 ?s .  
  ?site pq:P407 ?langue .
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
}
group by ?langue ?langueLabel
order by desc (?count)

Cliquez pour essayer !

Ainsi, sur le million de sites officiels inscrits dans Wikidata[5], un peu plus de 130 000 sont qualifiés d'anglais alors que la deuxième langue recensée, le français, touche un peu plus de 5 000 éléments.

Horus Crocodile
Fonction
Pharaon
Titre de noblesse
Pharaon
Biographie
Naissance
Décès
XXXIe siècle av. J.-C. (?)
Époque
Activité
Famille
Crocodileseal.jpg
Horus Crocodile est l'humain ayant la plus vieille date de décès incertaine.

Enfin, si vous n'êtes ni démographe, ni cinéphile, ni amateur de langues, peut-être que recenser les différents qualificatifs associés aux dates de naissance et de décès pourrait vous intéresser. Ainsi, par exemple, quelles sont les entrées de P569 (« date de naissance ») et P570 (« date de mort ») qui sont Q18122778 (« présumé ») ?

#Les éléments ayant dont une date de naissance ou de décès est qualifiée de présumée.
select ?item ?itemLabel ?bd
WHERE 
{ ?item wdt:P31 wd:Q5 ;
       (p:P569|p:P570) ?nm .
  ?nm (ps:P569|ps:P570) ?bd.  
  ?nm pq:P1480 wd:Q18122778 .
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO LANGUAGE],en". }
} 
order by ?bd

Cliquez pour essayer !

Références

Être capable de rapatrier les qualificatifs permet de recueillir les références. C'est particulièrement utile pour, notamment, corriger des erreurs qui ont été introduites à partir d'une source donnée.

Wikipedia-logo-v2-ru.svg

Ainsi, par exemple, il a été remarqué que les dates provenant de Wikipédia en russe sont souvent juliennes et que la très grande majorité des dates entrées sur Wikidata sont grégoriennes. En conséquence, on peut trouver tous les éléments où les P569 (« date de naissance ») et P570 (« date de mort ») sont sourcées par Q206855 (« Wikipédia en russe ») :

#Les éléments dont une date de naissance ou de décès est sourcée à partir de ruwiki.
select ?item ?itemLabel ?bd
WHERE 
{ ?item (p:P569|p:P570) ?nm .
  ?nm (ps:P569|ps:P570) ?bd.  
  ?nm prov:wasDerivedFrom ?from.
  ?from pr:P143 wd:Q206855.
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO LANGUAGE],en". }
} 
order by ?bd

Cliquez pour essayer !

Comme on pouvait s'en douter, le temps de calcul alloué ne permet pas d'obtenir de résultats. Tout au plus pouvons-nous dénombrer le nombre de valeurs concernées :

#Le nombre de dates de naissance ou de décès sourcées à partir de ruwiki...
select (COUNT(?from) AS ?count)
WHERE 
{ ?item (p:P569|p:P570) ?nm .
  ?nm (ps:P569|ps:P570) ?bd.  
  ?nm prov:wasDerivedFrom ?from.
  ?from pr:P143 wd:Q206855.
}

Cliquez pour essayer !

...qui est de 318 263.
Contentons-nous alors des éléments dont le P27 (« pays de nationalité ») est la Q159 (« Russie ») :

#Les éléments ayant pour pays la Russie et dont une date de naissance ou de décès est sourcée à partir de ruwiki.
select distinct ?item ?itemLabel ?bd
WHERE 
{ ?item wdt:P27 wd:Q159 ;
       (p:P569|p:P570) ?nm .
  ?nm (ps:P569|ps:P570) ?bd.  
  ?nm prov:wasDerivedFrom ?from.
  ?from pr:P143 wd:Q206855.
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO LANGUAGE],en". }
} 
order by ?bd

Cliquez pour essayer !

Nous obtenons plus de 46 000 éléments.
Puisque toutes les dates russes précédant l'URSS sont possiblement juliennes, nous pouvons adapter cette requête pour ne garder que les dates précédant 1918 :

#Les éléments ayant pour pays la Russie et dont une date de naissance ou de décès est sourcée à partir de ruwiki.
select ?item ?itemLabel ?bd
WHERE 
{ ?item wdt:P27 wd:Q159 ;
       (p:P569|p:P570) ?nm .
  ?nm (ps:P569|ps:P570) ?bd.  
  ?nm prov:wasDerivedFrom ?from.
  ?from pr:P143 wd:Q206855.
 filter (?bd < "1918-01-01"^^xsd:dateTime)
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO LANGUAGE],en". }
} 
order by ?bd

Cliquez pour essayer !

Nous obtenons ainsi un peu plus de 2 000 résultats. Nous pouvons vérifier ceux-ci seul, lancer un appel à la communauté pour nous aider, créer un qualificatif semblable à Q26961029 (« déclaration avec une date utilisant le calendrier grégorien avant 1584 ») pour ces valeurs, etc.

On peut également adapter la requête pour recenser les éléments ayant Q34266 (« Empire russe ») comme P27 :

#Les éléments ayant pour pays la Russie et dont une date de naissance ou de décès est sourcée à partir de ruwiki.
select ?item ?itemLabel ?bd
WHERE 
{ ?item wdt:P27 wd:Q34266 ;
       (p:P569|p:P570) ?nm .
  ?nm (ps:P569|ps:P570) ?bd.  
  ?nm prov:wasDerivedFrom ?from.
  ?from pr:P143 wd:Q206855.
 filter (?bd < "1918-01-01"^^xsd:dateTime)
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO LANGUAGE],en". }
} 
order by ?bd

Cliquez pour essayer !

ce qui nous donne un peu plus de 25 000 éléments supplémentaires.

Terminons en recensant le nombre d'images, d'images de blasons, de sceaux et de vidéos qui utilisent P2096 (« légende de média ») :

#Le nombre de légendes d'images, d'images de blasons, de sceaux et de vidéo
select (COUNT(?legende) AS ?count)
WHERE 
{ ?item (p:P18|p:P94|p:P10|p:P158) ?i .
  ?i (ps:P18|ps:P94|ps:P10|ps:P158) ?image.
  ?i pq:P2096 ?legende.
}

Cliquez pour essayer !

Ce qui donne environ 66 000 résultats.

Courrier du lectorat

(Il nous fera plaisir de lire les messages déposés ici et, si nécessaire, d'y répondre dans les plus brefs délais.)

  • Pour le raccourcisseur d'URL, je ne peux qu'applaudir ! J'ai fait cette demande le 14 mars 2016. Rejetée à cette époque, elle semble maintenant essentielle à la mission de l'écosystème Wikimedia. — Cantons-de-l'Est p|d|d [‌sysop] 3 avril 2019 à 21:31 (CEST)
  • Merci pour ces infos hyper intéressantes. Salsero35
    Salsero35, Merci au nom de l'équipe des RAW :-). — Cantons-de-l'Est p|d|d [‌sysop] 2 mai 2019 à 01:00 (CEST)
  • « (...) qui a crashé s'est écrasée à environ 300 milles par heure ».--Zugmoy (discuter) 1 mai 2019 à 13:10 (CEST)
    Le choix était volontaire. Mais bon, là, on ne le retrouve que dans le titre et c'est peut être mieux ainsi. --- Simon Villeneuve 2 mai 2019 à 11:33 (CEST)


« [à propos d'une sécheresse[note 3] qui a fait ~30 millions de morts vers 1877] Cela ne vous dit absolument rien ?
Normal : cet événement planétaire a été si peu étudié qu'il ne possède même pas de fiche Wikipédia.
 »

Vincent Nouyrigat , Science et Vie, 22 mars 2019[6],[7]
Rédigé/traduit par Cantons-de-l'Est et Simon Villeneuve.
Citations originales
  1. (en) « a 30 million page frisbee on the moon »
  2. (en) « terrorist propaganda »
  3. (en) « In the era of fake news and globalized data rubbish, it is all the more important to ensure that Wikipedia remains on a steady course, supplying us with balanced, factual, accurate information. »
  4. (en) « the artistic or moral rights, like those of attribution and integrity, and the economic or monopoly rights. »
  5. (en) « the bulk of authors today are employees of universities, think tanks, museums, other cultural institutions, or of corporations. »
  6. (en) « Digital technology has now upended this inherited ecosystem in a number of ways. Some are minor. It has, for example, streamlined the editorial process, making revision and typesetting activities that have been de-physicalized. Copy-editing has largely been replaced by word-processing software. Being a copyeditor at a publisher these days is akin to being an elevator operator in a pushbutton lift. »
  7. (en) « are putting up a kind of horror movie return from the dead, a last gasp of rent-seeking monopolistic behavior before the inevitable end »
  8. (en) « with the monies already in the library system we can make everything in it and everything that ever will be in it available to anyone anywhere in the world who has access to the internet. »
  9. (en) « the greatest assemblage of human knowledge ever, the closest we will ever get to the Enlightenment idea of a universal encyclopedia. »
Notes
  1. Par exemple, si un internaute consulte douze fois la Wikipédia dans un mois avec un seul appareil, les compteurs statistiques ne seront augmentés que d'une consultation. S'il consulte avec trois appareils distincts dans le même mois, les compteurs seront augmentés de trois. Cette méthode peut sembler trop restrictive, mais des bots peuvent modifier/consulter cette Wikipédia des milliers de fois en un seul mois.
  2. Il est étonnant de constater que les 10 hommes les plus populaires ont à peu près 1,5 fois plus d'interwikis que les 10 femmes les plus populaires.
  3. L'article a été publié le 19 mars 2019, soit 3 jours avant la publication de l'auteur. Ajoutons que l'article anglo sur le sujet, en:Great Famine of 1876–1878, est lié à Famine en Inde de 1876 à 1878 sur fr, qui existe depuis janvier 2015.
    Dans tous les cas, la provocation de l'auteur (qui fait exprès d'utiliser le terme "fiche" plutôt qu'article) est injustifiée et cette citation en dit plus sur sa capacité à faire une recherche sur Wikipédia, ou à actualiser sa publication à la dernière minute, qu'autre chose..
Références
  1. a et b (en) Chris Taylor, « There may be a copy of Wikipedia somewhere on the moon. Here's how to help find it. », Mashable,
  2. twitter.com/MagnusManske/status/1113431410784784384
  3. Léa Lacroix (WMDE), « Le raccourcisseur d’URL pour les projets Wikimedia sera disponible le 11 avril », sur Le Bistro, fr.wikipedia.org,
  4. (en) « Wikimedia needs a URL shortener (tracking) », sur Phabricator, (voir commentaire laissé par « Lea_Lacroix_WMDE »)
  5. #Nombre d'éléments ayant une entrée de site officiel
    select (COUNT(?item) AS ?count)
    WHERE 
    { ?item p:P856 ?s
    }
    
    Cliquez pour essayer !
  6. Vincent Nouyrigat, « La catastrophe climatique oubliée : 30 millions de morts entre 1876 et 1878 »,
  7. https://twitter.com/Frakir_/status/1122496872969584640

Gribouillage 207 : poisson d’avril !

04:16, Monday, 01 2019 April UTC

Numéro du 01 avril 2019

00:00, Monday, 01 2019 April UTC


Brèves

Copyright aux États-Unis — L'année 2018 était la dernière année où le copyright américain s'appliquait aux œuvres publiées en 1923 dans ce pays à la suite de l'adoption de la Copyright Term Extension Act (aussi appelée la Sonny Bono Act, du nom de l'homme politique qui a proposé cette loi, ainsi que la Mickey Mouse Protection Act à cause de la participation soutenue de la société Walt Disney aux procédures menant à son adoption). En 2019, plusieurs médias de 1923 sont donc entrés dans le domaine public aux États-Unis, dont les films muets Safety Last ! (h 13, mettant en vedette Harold Lloyd) et Our Hospitality (h 13, mettant en vedette Buster Keaton). [1], [2]

Durée du copyright aux États-Unis selon les années, de 1790 à 2008. Pour certains copyrights, les durées indiquées s'ajoutent à la durée de vie du ou des auteurs, la date de décès la plus « tardive » étant celle retenue avant d'ajouter l'une des durées fixes.

Copyright en Europe — Le parlement européen a adopté le 26 mars 2019 la Proposition de directive sur le droit d'auteur dans le marché unique numérique. Plus contraignante envers les online content sharing service providers (« fournisseurs de service de partage de contenu en ligne », tel Google Actualités) par son article 17 (anciennement 13), et autorisant l'application d'un droit voisin pour les éditeurs de publications de presse par l'article 15 (anciennement 11), elle apporte toutefois des améliorations à la protection du domaine public. « Une nouvelle sauvegarde du domaine public garantira que les reproductions fidèles d'œuvres déjà dans le domaine public restent libres de droits d'auteur, même lorsqu'elles sont numérisées. Les musées, les archives et les bibliothèques seront désormais en mesure de fournir un accès numérique aux œuvres non commercialisées qui ne sont pas encore élevées dans le domaine public. Les organismes de recherche et les institutions du patrimoine culturel pourront procéder à l'exploration de textes et de données sur les œuvres auxquelles ils ont un accès légal. »[trad 1] Malgré cette meilleure protection du domaine public, la proposition demeure controversée. [3], [4], [5]

May Mohamed Hisham Hashem, résidente wikipédienne chez ONU Femmes.

Résidente ONU — Depuis mai 2016, ONU Femmes accueille au Caire une wikipédienne en résidence. Elle « œuvre pour amener l’histoire des femmes dans la plus grande encyclopédie du monde. Travaillant au développement des informations liées aux femmes et à l’égalité des genres, elle tente de réduire le biais de connaissances et de faire évoluer les pratiques sur ce sujet. » Elle a déclaré : « Nous devons comprendre où nous en sommes par rapport aux changements économiques et géographiques auxquels nous sommes confrontés… L’éducation n’existe pas seulement dans les écoles et les universités. Les plates-formes open source telles que [Wikipédia] modifient la structure des connaissances numériques. » [6]

Biodiversité et Wikipédia — Des chercheurs ont établi une corrélation entre l'observation saisonnière des animaux et des plantes et le nombre de consultations des articles de la Wikipédia portant sur les êtres vivants. Ils croient possible, en suivant le nombre de consultations, de mieux protéger le patrimoine vivant. (fr)[7]

Planète BD sur Wikipédia — Des « personnalités » de la BD seraient injustement soumises à une forme de « mise en demeure » de la part de deux contributeurs. En effet, les articles de plusieurs acteurs de la BD sont décorés d'au moins un de ces bandeaux : {{Curriculum vitae}}, {{à délister}} et {{sources secondaires}}. (fr)[8]

POTY 2018 — La ronde finale de la sélection de l'image de l'année 2018 sur Commons (Picture Of The Year ou POTY) s'est terminée le 17 mars. Voici quelques finalistes :

Journées professionnelles GLAMWikimédia France (WMFr) organise cet évènement qui se tiendra du 23 au 25 mai 2019 sur le site des Archives nationales françaises de Pierrefitte-sur-Seine (nord de la région parisienne). Elles sont organisées pour les institutions culturelles partenaires de WMFr et des institutions souhaitant entrer dans l'univers des projets Wikimedia. En plus d'ateliers sur les projets Wikimedia, les participants verront des « exemples concrets d'actions déjà mises en place par des musées, archives, bibliothèques ou universités » et pourront participer à des « réflexions sur les enjeux de l'open data / content, des licences libres et de la diffusion sur des projets ouverts ». (fr)[9]

Que signifie le libre accès au savoir ? — « Avec votre aide, la Wikimedia Foundation veut illustrer le rôle de plus en plus grand du savoir dans la vie humaine. Envoyez-nous vos créations sur le thème de ce que signifie pour vous le libre accès au savoir. Nous acceptons des œuvres dans cinq catégories : courts métrages, arts visuels (y compris illustrations, photographies, rendus 3D, etc.), poésie, nouvelles de fiction et essais créatifs. La date limite de soumission est fixée au 30 avril 2019 à 23h59. »[trad 2] Un prix de 350 US$ sera remis au gagnant de chaque catégorie. [10] Les règles du concours précisent : être majeur (ou âgé d'au moins 13 ans avec l'autorisation de ses parents), inscrire sa candidature sous son nom IRL, maîtriser l'anglais... [11]

POTY 2018, gagnants — Les trois premières places de POTY 2018 reviennent à :

(356 votes) Comment est-il possible de créer ce motif sur cette boule ? Mélangez de l'eau, du savon et du sucre, puis formez une bulle suffisamment solide pour qu'elle demeure intacte lorsqu'elle est déposée à l'extérieur à une température sous le point de congélation. Attendez quelques minutes, puis clic ! C'est ce qu'indique la photographe slovaque Daniela Rapava. Consultez son site pour d'autres clichés « de glace ».
(361 votes) Trouver ce train est la partie facile du projet. Il circule en effet dans le désert d'Atacama au Chili. Installez votre matériel photographique près du rail, prenez quelques photos, puis rangez votre matériel. Allez plus loin sur son trajet, où vous prenez à nouveau des photos. Répétez, ce qui est la partie la plus difficile. Le photographe suisse David Gubler, un fanatique des trains, publie ses photos sur Wikimedia Commons.
(439 votes) Ce photomontage de huit photos par Jason Weingart montre la progression d'une tornade au Kansas en juin 2016. Il a commencé par créer une vidéo au rythme d'une image par seconde, dont il a extrait les images qui ont servi à créer ce photomontage. C'est ce dernier qu'il a téléversé dans Wikimedia Commons pour participer à la Wiki Science Competition.
Ironiquement, le photomontage a commencé à connaître une certaine notoriété lorsqu'il a été mentionné, par un internaute inconnu, dans Reddit et Facebook sous le titre trompeur de Mass of tornades (Tornades en masse). Des internautes ont voulu corriger cette erreur en publiant Is This a Picture of an ‘Intense Supercell with a Mass of Tornadoes’ in Kansas? sur le site Snopes.
Pour sa part, Weingart ne semble pas ennuyé de l'erreur, mais conseille de vérifier ses propos avant de publier. Pour voir d'autres photos de Weingart, naviguez sur ce site.

Dans les coulisses de la Wikimedia

Stations météo canadiennes par pallier de 500 mètres.
  •      0 à 500 m
  •      500-1000 m
  •      1000-1500 m
  •      1500-2000 m
  •      2000-2500 m
  •      2500-3000 m

Stations météorologiques du Canada — Au mois de janvier, dans le cadre du WikiProject observations météo et à l'aide d'un programme qu'il a développé, Miguel Tremblay (utilisateur Dirac) a créé des éléments sur Wikidata pour ~8 750 stations météorologiques du Canada (SMC). Ces dernières sont géolocalisées et possèdent, notamment, une date de mise en service et, le cas échéant, une date de fermeture, une altitude et un P6242 (« Identifiant climatologique du Service météorologique du Canada »). Dirac a également développé une panoplie de requêtes SPARQL permettant de trier ces stations en fonction de différents critères (une partie d'entre-elles sont décrites dans la section #SPARQL du mois).
Ces actions de Dirac font en sorte que le Canada est le pays le plus avancé sur Wikidata au niveau de l'intégration des informations de stations météorologiques, loin devant l'Italie et la Bulgarie, les deux autres pays présentant des stations météo géolocalisées sur l'ensemble de leur territoire[1].
Les étapes suivantes sont d'intégrer les observations annuelles/mensuelles/hebdomadaires/journalières sur Wikimedia Commons et de les relier aux stations concernées dans Wikidata, ce qui n'est pas une mince tâche !

WMF, membre du W3C — La Wikimedia Foundation (WMF) rejoint le World Wide Web Consortium (W3C, qui est chargé de promouvoir la compatibilité des technologies du Web : HTML5, SPARQL, CSS, SVG, SOAP...) parce qu'elle veut jouer un rôle majeur dans le maintien et l'expansion de l'« écosystème du savoir libre »[trad 3] et faciliter la collaboration des personnes qui partagent ses valeurs. [12]

Wikimania 2019 — L'évènement se tiendra à Stockholm du 14 au 18 août 2019. [13]

Bêta — Le moteur de Wikipédia ajoute deux fonctionnalités bêta :

  • PHP7, offrant des performances égales ou supérieures à HHMV (langage de programmation utilisé par Facebook et en usage ici depuis 2015) tout en facilitant la maintenance future de MediaWiki
  • FileExporter, qui permet d'exporter aisément des fichiers d'un wiki vers Wikimedia Commons
Crystal Project Password.png Mots de passe
  1. Hachage (2013-12-20)
  2. CCS et création de mots de passe effectifs (2013-12-27)
  3. Attaques informatiques et gestionnaires de mots de passe (2014-01-03)
  4. Rôle primordial et gestionnaires de mots de passe (2014-01-10)
  5. Sur les gestionnaires de mots de passe (à venir)
  6. Recommandations de la WMF pour les mots de passe (2019-04-01)

Mots de passe — « La plupart des atteintes à la sécurité sur Internet sont liées à des mots de passe volés ou faibles. Au sein du mouvement Wikimedia, nous voulons nous appuyer sur la culture de la sécurité pour protéger les comptes contre toute compromission. »[trad 4] L'équipe de la WMF chargée de la sécurité informatique fait des recommandations pour augmenter la sécurité des comptes. En ce qui concerne les mots de passe, elle en propose six [14] :

  1. Préférer la longueur à la complexité : « Lorsque vous créez un mot de passe, choisissez quelque chose qui est facile à retenir, mais qui comporte beaucoup de caractères et qui est composé de plusieurs mots. »[trad 5] L'auteur du billet montre ensuite la photo d'un Schnauzer à l'arrêt parmi des fleurs, d'où la phrase : « Ce chien se tient parmi des violettes et a besoin d'être rasé ! »[trad 6] « C'est un bon mot de passe pour ces trois raisons : il est long, il est difficile à deviner ou à casser et il est facile à à s'en souvenir (parce que c'est vrai). »[trad 7] « Un mot de passe plus complexe avec moins de caractères, comme D0gg@sRul3 ! est difficile à casser mais beaucoup plus difficile à créer et à mémoriser. Parce qu'il est difficile de s'en souvenir, il est aussi plus susceptible d'être recyclé pour être utilisé à d'autres endroits, ce qui est une mauvaise idée ; quelque chose que nous aborderons dans la règle #5. »[trad 8]
  2. 1nut1/3 d3 r3ndr3 le *&$! p/us d1ff1c1/3 (Inutile de rendre le truc plus difficile) : « La complexité est l'ennemi de la sécurité. [...] Lorsque nous ajoutons plus de complexité aux mots de passe, il devient plus difficile de s'en rappeler et cela renforce la tentation de réutiliser les mêmes mots de passe sur plusieurs sites, ce qui est une très mauvaise idée (voir règle #5). Vous pouvez créer un super mot de passe sans le rendre super compliqué. »[trad 9]
  3. Il n'y a aucun gain à changer un mot de passe seulement pour le faire : « Changer les mots de passe pour les changer renforce quelques mauvaises habitudes. Principalement, il encourage la sélection de mauvais mots de passe (tels les mots de passe qui suivent les saisons : Été2018 ou Hiver2018). Cela encourage également la réutilisation de mots de passe — par exemple, lorsque les utilisateurs sont invités à changer leur mot de passe, il est plus facile d'utiliser simplement quelque chose que vous utilisez déjà ailleurs. C'est une mauvaise idée (voir règle #5). »[trad 10] Seulement le faire si vous soupçonnez une compromission du compte.
  4. Dans le mot de passe, ne pas utiliser le nom du site, de l'application ou d'un service offert par le site. Par exemple, si votre mot de passe est « Je modifie Wikipédia » ou « J'aime Google Forms », changez immédiatement.
  5. Ne pas réutiliser les mots de passe. « Cette règle a été mentionnée dans presque toutes les autres règles parce qu'elle est extrêmement importante. Beaucoup d'entre nous vont à de nombreux endroits sur Internet, et cela se traduit par de nombreuses références. Cela signifie également qu'il n'est pas super bizarre de créer des identifiants communs, réutilisés sur les médias sociaux, les sites bancaires ou autres. »[trad 11] Supposons que les comptes d'un site que vous utilisez soient compromis. Or, parmi ces comptes, votre mot de passe impossible-à-casser est exposé. Les pirates informatiques, eux, vont l'essayer sur les autres sites qui comportent le même nom d'utilisateur. Si vous utilisez un compte pour faire vos transactions bancaires en ligne, vous risquez de perdre gros.
    Si vous préférez utiliser beaucoup mots de passe, on ne saurait trop vous recommander d'utiliser un gestionnaire de mots de passe (par exemple, Password Safe ou Keepass). Son apprentissage n'est pas aisé, mais son utilisation améliore votre « hygiène » Internet.
  6. Même si les mots de passe sont OK, envisagez d'utiliser la double authentification . Dans l'écosystème Wikimedia, ce service, qui offre une meilleure sécurité au prix d'une lourdeur supplémentaire, est offert pour certains types de comptes (notamment les administrateurs) ; la WMF envisage de l'étendre à d'autres types de comptes.
De plus, l'équipe chargée de la sécurité va mener périodiquement des tests sur les mots de passe en vue d'inviter les utilisateurs à les « durcir » si nécessaire.
RAW/2019-04-01
Description de cette image, également commentée ci-après
Bernard, une série télévisée pour enfants mettant en vedette un ours polaire, a un article dans 22 versions linguistiques de Wikipédia.

Pour plus de détails, voir Fiche technique et Distribution

IMDb — Sur Wikidata, P345 (« identifiant Internet Movie Database ») est la propriété dédiée aux identifiants de l'Internet Movie Database (IMDb).

Signatures — Vous aimeriez changer de signature ? Aucune idée où commencer ? Voici trois signatures insolites :

Spintendo      (un wikilien dans cette signature)
¸,ø¤º°`°º¤ø,¸¸,ø¤º°`°º¤ø,¸¸,ø¤º°`°º¤ø,¸ (trois wikiliens dans cette signature)
Tom@sBat (quatre wikiliens dans cette signature, dont l'un qui mène à une page d'autographes)
Voyez ces nombreuses signatures insolites. Si l'une vous plaît, naviguez à cette page où elles sont regroupées avec le code HTML idoine (qu'il faut adapter).

Liste dirigeants — Comme {{Infobox Biographie2}}, les modèles de la {{Palette Bases}} font un usage intensif des données Wikidata. D'autres modèles exploitent les données de Wikidata. Par exemple, dans la section Politique de Maasdriel, il a suffi d'insérer {{Liste des dirigeants successifs}} pour faire apparaître un tableau à neuf entrées qui grandira au fur et à mesure que des noms de maires seront ajoutés dans Q904544.

Quiz du mois

« Donnez-vous un point pour chaque bonne réponse et partagez votre score dans la section du courrier du lectorat »

D'après vous, quels sont les 10 prénoms les plus utilisés sur Wikidata ? in10 : y a pas de prénoms féminins avant la ... 29e position : Q325872 (« Maria »)[2]

Mots de passe, bis — En 2019, la WMF va exiger, pour les nouveaux comptes, des mots de passe plus difficiles à casser :

  • toutes les entrées se trouvant dans les dictionnaires connus seront interdites ;
  • tous les éléments d'une liste de 100 000 mots de passe seront interdits ;
  • ils devront être d'une longueur minimale de huit caractères.
Pour les comptes avec outils supplémentaires — administrateurs, bureaucrates... —, peu importe leur wikiâge, ce sera dix caractères.
Un kakémono faisant de l’ombre à l'arbre à chat de Lyokoï.

Le Wiktionnaire a 15 ans — Le 22 mars, le Wiktionnaire francophone a fêté ses 15 ans d'existence et a préparé pour l'occasion un petit communiqué de presse qui a été repris dans un article de Thierry Noisette sur ZDNet. Dans le même temps, la communauté lyonnaise a sollicité l'association Wikimédia France pour avoir un kakémono dédié pour mieux rendre visible le projet lors des prochains salons, dont les Journées du logiciel libre qui auront lieu les 6-7 avril à Lyon, et où seront présentés plusieurs conférences autour des projets Wikimedia.

SPARQL du mois

SPARQL sur Wikidata.png
SPARQL sur Wikidata
Ces incantations émergent surtout du travail de VIGNERON, Dirac, Simon Villeneuve, Alphos, Fralambert, et MisterSynergy.

Le SPARQL permet de trier selon divers critères les plus de 55 millions d'éléments de Wikidata. À chaque mois, vous êtes invités à dénicher la requête SPARQL qui vous semble la plus intéressante pour les lectrices et lecteurs des RAW.

Options d'affichage des données (Display) du moteur de requêtes.
Visualisations

Jusqu'ici, nous vous avons surtout présenté des requêtes permettant de créer des listes selon différents critères. Ce mode de visualisation s'appelle Table et est l'affichage par défaut des données.
Le moteur de requêtes de Wikidata permet cependant plusieurs autres types de visualisations des données. Il est possible de sélectionner ces derniers dans la colonne de gauche intitulée Table. Notez que les options ne deviennent disponibles que si votre requête fait intervenir certaines propriétés, autrement elles demeurent en gris inclicable. Il est également possible de changer l'affichage par défaut en écrivant, au début de la requête, le code #defaultView:[NOMDEL'AFFICHAGE], comme par exemple #defaultView:Map.
Dans cette section, nous vous présentons les modes de visualisation d'images et de cartes. Les autres modes seront abordés lors de publications subséquentes.

Images (Image Grid)

Cette visualisation priorise les propriétés liées à des images telles P18 (« image »), P4291 (« vue panoramique »), P41 (« image du drapeau »), voire P10 (« vidéo »), avec lesquelles vous pouvez sélectionner une très grande variété de combinaisons avec d'autres propriétés et éléments.

La cabale des chats a encore frappé !

Commençons par des images de chats à l'aide du modèle {{Wikidata list}}.

Qui s'obtient simplement ainsi :

#defaultView:ImageGrid
SELECT DISTINCT ?item ?image
WHERE
{
    ?item wdt:P31/wdt:P279* wd:Q146 ;
          wdt:P18 ?image . }
LIMIT 100
Cliquez pour essayer !
Karachi est la ville la plus populeuse du monde avec un photomontage sur Wikidata.

Il est possible de combiner les P2716 (« collage d'images ») avec P1082 (« population ») pour afficher des montages d'images de villes de plus de 1 000 000 d'habitants, en ordre décroissant de population :

#defaultView:ImageGrid
SELECT DISTINCT ?itemLabel ?item ?image
WHERE
{
    ?item wdt:P31/wdt:P279* wd:Q515 ;
          wdt:P1082 ?population ;
          wdt:P2716 ?image .
    SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
FILTER (?population > 1000000) } order by desc (?population)

Cliquez pour essayer !

La Ruée vers l'or (1925) possède un article dans 47 versions linguistiques.

Les 100 vidéos libres qui ne sont pas des bandes-annonce et ayant un article dans le plus grand nombre de versions linguistiques de Wikipédia.

#defaultView:ImageGrid
SELECT DISTINCT ?itemLabel ?item ?film WHERE {
  ?item wdt:P31/wdt:P279* wd:Q11424; wdt:P10 ?film; wikibase:sitelinks ?linkcount .
  FILTER(REGEX(STR(?film), '[Tt]railer') = false) .
  SERVICE wikibase:label {bd:serviceParam wikibase:language '[AUTO_LANGUAGE],en' }
} ORDER BY DESC (?linkcount) LIMIT 100

Cliquez pour essayer !

Il y a un article sur Malala Yousafzai (1997- ) dans 101 versions linguistiques de Wikipédia.

Les 100 personnalités avec image nées après 1995 et ayant un article dans le plus grand nombre de versions linguistiques de Wikipédia

#defaultView:ImageGrid
SELECT DISTINCT ?itemLabel ?item ?image
WHERE
{
      ?item wdt:P31 wd:Q5 ;
            wdt:P18 ?image ;
            wikibase:sitelinks ?linkcount ;
            p:P569/psv:P569 [wikibase:timePrecision ?datePrecision; wikibase:timeValue ?naissance ] .
  filter(?datePrecision>9)  
  SERVICE wikibase:label {bd:serviceParam wikibase:language "[AUTO_LANGUAGE],fr".}
  FILTER(year(?naissance) > 1995)
}
ORDER BY DESC (?linkcount)
LIMIT 100

Cliquez pour essayer !

Vous êtes ici (± 6 000 km nordaméricaincentrés)

Ou simplement toutes les images de Wikidata situées dans un rayon de 10 km autour de votre position

#defaultView:ImageGrid
SELECT ?placeLabel ?place ?image WHERE {
  SERVICE wikibase:around {
    ?place wdt:P625 ?coordinate_location .
           
    bd:serviceParam wikibase:center "[AUTO_COORDINATES]".
    bd:serviceParam wikibase:radius "10".
    bd:serviceParam wikibase:distance ?dist.
  }
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
  optional {?place wdt:P18 ?image .}
}

Cliquez pour essayer !

N'hésitez pas à faire vos suggestions de combinaisons dans la section #Courrier du lectorat.

Carte (Map)

Comme nous l'avons vu dans quelques exemples des derniers mois, l'une des options de visualisation des données de Wikidata les plus utilisées est celle permettant de situer sur une carte géographique les éléments. Ainsi, à partir du moment où un élément possède une entrée pour la propriété P625 (« coordonnées géographiques »), il est possible de localiser ce dernier.

Carte géolocalisant les ~8 700 stations météorologiques du Canada[4]. On y remarque, notamment, la ligne DEW[5].
Les stations météorologiques canadiennes représentent ~90 % de l'ensemble des stations météo actuellement géolocalisées sur Wikidata.

Nous pouvons ainsi, par exemple, positionner l'ensemble des Q190107 (« station météorologique ») géolocalisées du monde...

#Stations météorologiques géolocalisées 
#defaultView:Map
SELECT ?item ?itemLabel ?coord WHERE {
  ?item (wdt:P31/wdt:P279*) wd:Q190107 ;
         wdt:P625 ?coord .
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
}

Cliquez pour essayer ! ...et constater, notamment, que la presque totalité des ~9 600 résultats se retrouvent dans trois pays (Canada, Italie et Bulgarie).

Stations météo canadiennes par pallier de 500 mètres.
  •      0 à 500 m
  •      500-1000 m
  •      1000-1500 m
  •      1500-2000 m
  •      2000-2500 m
  •      2500-3000 m

Il est possible d'afficher les résultats en associant différentes couleurs à différents paramètres à l'aide de la variable ?layer.
Ainsi, par exemple, on peut lister les stations météo du Canada par palier de 500 mètres d'altitude :

#Stations du SMC par altitude, par groupe de 500 m.
#defaultView:Map
SELECT ?item ?itemLabel ?coord ?altitude ?layer WHERE {
  ?item (wdt:P31/wdt:P279*) wd:Q190107 ; wdt:P127 wd:Q349450 ; wdt:P2044 ?altitude .
  BIND (FLOOR(?altitude/500) AS ?layer )
  ?item wdt:P625 ?coord.
  SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
}

Cliquez pour essayer !

Métro de Montréal imaginaire.

Les différentes lignes du métro de Montréal, actuelles, à venir ou en projet :

#Metro lines in Montreal, Quebec, Canada
#defaultView:Map{"layer": "?lineLabel", "hide": ["?rgb", "?coord"]}
SELECT ?station ?stationLabel ?line ?lineLabel ?rgb ?coord ?image
WHERE {
  ?line wdt:P361 wd:Q392377.
  OPTIONAL { ?line wdt:P465 ?rgb. }
  ?station wdt:P81 ?line;
           wdt:P625 ?coord.
  OPTIONAL {?station wdt:P18 ?image}
  SERVICE wikibase:label { bd:serviceParam wikibase:language "fr" . }
}

Cliquez pour essayer !

Saint-Augustin est le village « saint » le plus au nord du Québec.

Les villages québécois ayant des noms de saints et de saintes :

#defaultView:Map
SELECT DISTINCT ?item ?itemL ?coords ?layer WHERE {
  ?item wdt:P31/wdt:P279* wd:Q3327873 ;
        wdt:P625 ?coords ;
        rdfs:label ?itemL filter (lang(?itemL) = "fr") .
  FILTER (STRSTARTS(?itemL, "Saint")) .
  BIND(SUBSTR(?itemL,1,6) AS ?layer).
}

Cliquez pour essayer !

Encore une fois, n'hésitez pas à faire vos suggestions de combinaisons, où à poser des questions, dans la section #Courrier du lectorat.

Courrier du lectorat

(Il nous fera plaisir de lire les messages déposés ici et, si nécessaire, d'y répondre dans les plus brefs délais.)

Bonjour,

Il me semble qu'il y a une faute de français dans la dernière phrase de la légende de l'image montage de plusieurs photos d'une tornade gagnante 2019: "Pour voir d'autres photos de Weingart, naviguez à ce site." "Naviguer à" indique la façon de naviguer : naviguer à contre-vent, "Naviguer sur" indique où on navigue. Ainsi on navigue sur un site web comme sur la mer du nord. Je fais la modif immédiatement --Titou (d) 1 avril 2019 à 13:28 (CEST)

« J’ai regardé combien de vues avait la page de la pierre de Rosette sur Wikipédia [en anglais].
Les gens consultent cinq fois plus la page de l’article Wikipédia que le nôtre[6].
 »

— Matthew Cock, British Museum
Rédigé/traduit par Cantons-de-l'Est, Noé et Simon Villeneuve.
Citations originales
  1. (en) « A new safeguard for the public domain will ensure that faithful reproductions of public domain works remain uncopyrighted, even as they are digitized. Museums, archives, and libraries will now be able to provide digital access to out-of-commerce works that have not yet fallen into the public domain. Research organizations and cultural heritage institutions will be able to engage in text and data mining on works they have lawful access to. »
  2. (en) « With your help, the Wikimedia Foundation wants to illustrate the expansive role of knowledge in human life. Send us your creative submissions on the theme of what open access to knowledge means to you. We’re accepting work in five categories: short films, visual art (including illustrations, photography, 3D renderings, etc.), poetry, short fiction, and creative essays. The deadline to submit is 11:59pm on 30 April 2019. »
  3. (en) « ecosystem of free knowledge »
  4. (en) « Most security breaches on the internet are related to stolen or weak passwords. We want to build upon the culture of security within the Wikimedia movement to protect accounts from being compromised. »
  5. (en) « When creating a password, pick something that is easy to remember but has a lot of characters and is made up from multiple words. »
  6. (en) « That dog is standing in the violets and needs a shave! »
  7. (en) « This is a great password for these three reasons: it’s long, difficult to guess or crack, and easy to remember (because it’s true). »
  8. (en) « A more complex password with fewer characters, like D0gg@sRul3!, is tough to crack but much harder to create and to remember. Because it is hard to remember, it is also more likely to be recycled for use in other places, which is a bad idea and something we will cover in rule #5. »
  9. (en) « Complexity is the enemy of security. From a credentialing standpoint, it encourages very bad habits. When we add more complexity to credentials, it makes it harder to remember passwords and strengthens the temptations to reuse the same credentials on multiple sites, which is a very bad idea (see rule #5). You can create a great password without making it super complicated. »
  10. (en) « Changing passwords for the sake of changing them enforces a couple of bad habits. Primarily, it encourages the selection of bad passwords (such as passwords that follow the seasons, like Summer2018 or Winter2018). This also encourages credential reuse—so e.g. when users get prompted to change their password, it’s easier to just use something you are are already using somewhere else. This is a bad idea (see rule #5). »
  11. (en) « This rule has been mentioned in just about every other rule because it’s extremely important. Many of us go to lots of places on the internet, and that results in lots of credentials. That also means that it’s not super odd to create common credentials, reused across social media or banking or other sites. »
Notes
Références
  1. Voir
    #Stations météorologiques géolocalisées 
    #defaultView:Map
    SELECT ?item ?itemLabel ?coord WHERE {
      ?item (wdt:P31/wdt:P279*) wd:Q190107 ;
             wdt:P625 ?coord .
      SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
    }
    
    Cliquez pour essayer !
  2. #Prénoms féminins les plus utilisés sur Wikidata
    SELECT ?p #?pLabel #?ndfLabel 
    (count (DISTINCT ?item) as ?count) WHERE 
    {
      ?item wdt:P735 ?p .
            ?p wdt:P31 wd:Q11879590 .
     # SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
    } 
    group by ?p #?pLabel #?ndfLabel
    order by desc(?count)
    LIMIT 50
    
    Cliquez pour essayer !
  3. #Prénoms les plus utilisés sur Wikidata
    SELECT ?p ?pLabel #?ndfLabel 
    (count (DISTINCT ?item) as ?count) WHERE 
    {
      ?item wdt:P735 ?p . 
      SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
    } 
    group by ?p ?pLabel #?ndfLabel
    order by desc(?count)
    LIMIT 100
    
    Cliquez pour essayer !
  4. # Stations du SMC
    #defaultView:Map
    SELECT ?item ?itemLabel ?coord WHERE {
      ?item (wdt:P31/wdt:P279*) wd:Q190107.
      ?item wdt:P127 wd:Q349450.
      
      ?item p:P625 ?coordinate .
      
      SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
      OPTIONAL { ?item wdt:P625 ?coord. }
    
    }
    
    Cliquez pour essayer !
  5. # Stations du SMC entre les latitudes [66°34', 70°45'] N 
    #defaultView:Map
    SELECT ?item ?itemLabel ?coord WHERE {
      ?item (wdt:P31/wdt:P279*) wd:Q190107.
      ?item wdt:P127 wd:Q349450.
      
      ?item p:P625 ?coordinate .
      ?coordinate psv:P625 ?coordinate_node .
      ?coordinate_node wikibase:geoLatitude ?lat .
      ?coordinate_node wikibase:geoLongitude ?lon .
    
      FILTER (?lat > 66.56)
      FILTER (?lat < 70.45)
      
      SERVICE wikibase:label { bd:serviceParam wikibase:language "[AUTO_LANGUAGE],en". }
      OPTIONAL { ?item wdt:P625 ?coord. }
    
    }
    
    Cliquez pour essayer !
  6. Amélie Cabon, « Le tout premier Wikipédien en résidence », Wikimédia France,

Rapport de la présidente du jury 2018

11:19, Monday, 10 2018 December UTC

Discours de Johanna Daniel à la soirée de remise des prix 2018

Je prends la parole au nom des 6 membres du jury de la session française de Wiki Loves Monuments, un grand concours de photographies qui a lieu depuis 8 ans chaque mois de septembre. Le principe de ce concours est simple : les contributeurs sont invités à photographier des monuments patrimoniaux et à les publier sur Wikimedia Commons. 
Mais, par rapport aux autres concours photographiques, Wiki Loves Monuments présente plusieurs  particularités : l’une d’elle est la non limitation du nombre de clichés soumis par chaque participant. Car Wiki Loves Monument ne vise pas seulement à récompenser de « belles photographies » : il vise aussi et surtout à enrichir les projets Wikipédia, à commencer par Wikimedia Commons. 

Plus qu’un simple concours

Aussi sommes nous heureux de constater que, presque deux mois après la clôture de Wiki Loves Monument, 559 des photographies versées dans le cadre du concours sur Wikimedia Commons ont été réutilisées, essentiellement pour illustrer des pages Wikipédia ou Wikidata
 
Nous tenons donc à remercier les contributeurs qui ont, pour certains, eu à cœur de couvrir tel ou tel monument jusqu’alors non illustré dans Wikipédia. Pour cette 8e édition, Wiki Loves Monuments les y encourageait tout particulièrement, puisque, pour la première fois, le concours concernait non seulement les monuments classés au titre des monuments historiques, mais aussi les monuments inscrits sur cette liste
Wiki Loves Monument 2018, c’est 9 542 photographies versées en un mois par 245 photographes, dont une quinzaine ont été particulièrement actifs avec plus d’une centaine de clichés soumis. 
Parmi eux, des contributeurs qui ont souhaité publier des dizaines de photographies d’un même monument, offrant aux internautes une couverture quasi complète de ce dernier. Ce genre de versement rend un grand service à ceux, amateurs ou professionnels, qui s’intéressent au patrimoine et bénéficient ainsi d’un corpus quasi exhaustif sur certains monuments. Pensons notamment aux internautes qui génèrent, à partir de clichés, des rendus en 3D de bâtiments, ou aux étudiants en histoire de l’art qui ne peuvent se déplacer et travaillent sur des monuments qu’ils n’ont pas toujours la chance de pouvoir voir « en vrai ». 

Un public toujours plus curieux

On a pu constater lors des dernières journées du patrimoine à l’Unesco, où Wikimédia France tenait un stand spécial Wiki Loves Monuments avec son partenaire ArkéoTopia, à quel point le public est curieux de découvrir le patrimoine, français et aussi mondial. L’exposition à cette occasion des photos lauréates des 7 précédentes éditions du concours a suscité des commentaires passionnés, autant sur l’art photographique que sur les lieux mis en valeur. Et il n’est jamais inutile de rappeler que ce patrimoine est tout autour de nous, et que 22 % des articles de Wikipédia ne sont toujours pas illustrés.

Faire connaître les projets Wikimedia

Au-delà de la dimension patrimoniale, Wiki Loves Monuments permet enfin de mieux faire connaître la médiathèque de Wikipédia qu’est Wikimedia Commons et les différents projets de Wikimedia. Chaque année, Wiki Loves Monuments fait naître de nouveaux contributeurs. Ainsi, cette année, parmi les 245 participants à Wiki Loves Monuments, 135 ont créé leur compte à cette occasion : nous leur souhaitons la bienvenue parmi les contributeurs et espérons qu’ils poursuivront cet engagement en faveur des communs de la connaissance. 

Présentation du jury

Cette année le jury était composé de :
  • Frédérique Gaillard, docteure en esthétique, sciences et technologies des arts de l’université Paris VIII, responsable de la photothèque du Muséum de Toulouse
  • Pierre-Selim Huard, membre du conseil d’administration de Wikimédia France et photographe amateur
  • Nadine Le Lirzin, membre du conseil d’administration de Wikimédia France et photographe amatrice
  • Stéphane Mahot, wikimédien et photographe amateur arrivé en 2ème place du podium Wiki Loves Monuments 2017
  • Jean-Olivier Gransard-Desmond, archéologue indépendant et président d’ArkéoTopia, association en partenariat avec Wikimédia France pour la mise en place du concours
  • et moi même Johanna Daniel, historienne de l’art et chargée de cours à l’École du Louvre
Ce jury, vous l’aurez senti, rassemble des personnalités hétéroclites, provenant d’horizons divers. Les centres d’intérêt des uns et des autres nous poussaient vers des critères différents : la qualité photographique pour les uns, le patrimoine pour les autres, la qualité des contributions à Wikimedia Commons. Cela s’est ressenti dans les classements et dans les discussions qui ont été nombreuses et parfois vives. 
Soulignons le long travail que demande la publication du résultat : plus de 9 542 images ont été visualisées par le jury. 
Ce travail n’aurait été rendu possible sans le soutien des équipes de Wikimédia France et sans celui, infiniment précieux des contributeurs et contributrices bénévoles qui ont eu la lourde et fastidieuse tâche d’effectuer la présélection, c’est à dire d’éliminer tous les clichés non éligibles au concours. Un travail ingrat mais indispensable au bon déroulement du travail du jury. Nous les en remercions

Revivez cette soirée en vidéo

Retrouvez la vidéo de la soirée de remises des prix qui s’est déroulée le mardi 27 novembre dans les locaux de Mozilla Paris sur Youtube. Encore merci à Mozilla de nous avoir accueillis dans leurs locaux pour cette magnifique soirée.

Photo de la présidente par Wikinade, CC-by-SA 4.0

L’article Rapport de la présidente du jury 2018 est apparu en premier sur Wiki Loves Monuments France.

Photos gagnantes de Wiki Loves Monuments France 2018

08:45, Friday, 02 2018 November UTC

Wiki Loves Monuments en 2018

Après une nouvelle année passionnante pour Wiki Loves Monuments France, le temps est venu de partager les photos gagnantes de 2018. Dans cette édition, plus de 9 500 photos de sites du patrimoine bâti de toute la France ont été soumises aux votes du jury. Depuis la création du concours français, plus de 4 600 photographes ont fait don de leurs images pour qu’elles soient utilisées sur l’ensemble des projets Wikipédia, donnant ainsi une magnifique vitrine à la connaissance libre et accessible à tous. Alors au nom de tous les lecteurs de Wikipédia : merci !

La sélection

Le jury a évalué, examiné et classé ces photos en fonction des critères habituels : utilité pour Wikipédia, qualité technique et originalité. Aujourd’hui, nous sommes fiers de partager avec vous la sélection finale des 10 photos gagnantes de Wiki Loves Monuments France. Cette très belle sélection reflète bien la diversité du jury qui mêle amateurs comme professionnels de photo et/ou des projets Wikimedia. Cette année, nous sommes particulièrement fiers de constater que pour plus de la moitié des participants et participantes, c’était leur première contribution à un projet Wikimedia Nous espérons voir leurs contributions continuer dans les années à venir.

Même si seulement 10 clichés ont été sélectionnés cette année, vous pouvez découvrir toutes les photos soumises en 2018 pour la France sur la page Wikimedia Commons dédiée.

Si vous souhaitez rester informé des actualités du concours Wiki Loves Monuments France, consultez notre compte Facebook ou Twitter.

Vous souhaitez participer à l’organisation de Wiki Loves Monuments 2019, rejoignez-nous dès à présent à partir de la page du groupe de travail.

Place aux photos gagnantes !

 

L’article Photos gagnantes de Wiki Loves Monuments France 2018 est apparu en premier sur Wiki Loves Monuments France.

WMF : donnez ou crevez !

01:13, Saturday, 06 2018 October UTC

« Nous sommes en 2018 après Jésus-Christ ; toute Wikipédia est occupée par l’absence de pub… Toute ? Non ! Car un appel au don peuplé d’irréductibles bandeaux résiste encore et toujours à l’envahisseur. »

Comme la WMF le dit elle-même, « Wikipédia est un lieu de connaissance et non de publicité ». Ce gentil message s’affiche dans un discret petit message ne prenant seulement que 80% de la hauteur de l’écran.

Cette année, je ne peux (heureusement) pas voir ces bandeaux, ayant déménagé outre-Atlantique. J’apporte cependant mon soutien aux lecteurs et contributeurs victimes d’un hébergeur qui part en roue libre.

Ce n’est pas la première fois que ces messages choquent la communauté, quand elle ne se demande pas si elle est victime d’un phishing. La WMF ne se contente plus de d’apposer des messages plus volumineux que le contenu utile, elle l’intègre directement dans les articles !

Face à cela, la réponse de la WMF reste toujours identique : c’est le moyen le plus efficace !

L’un des éléments que je trouve le plus détestable est de laisser croire que Wikimédia est au bord de la faillite alors qu’en réalité elle dispose d’une marge que l’on qualifiera de (très) confortable. Sans compter que le fait de réutiliser les mêmes codes (bandeaux volumineux, en gros, en rouge, etc…) que les sites les moins regardant niveau éthique n’est pas pour me remonter le moral.

Est-il vraiment nécessaire, afin de faire toujours plus de profit, de manquer ainsi de respect aux lecteurs et contributeurs ? Je ne pense pas.

On en arrive à un point où l’on se met à conseiller sur le Bistro d’utiliser un bloqueur de publicité sur le seul site du top 10 qui peux se vanter d’être ads free.

Mais ne soyez pas trop pessimistes, si vous donnez vous ne serez pas épargné par ces bandeaux et vous aurez même droits à des pourriels grotesques en prime.

[EDIT]

La campagne de don est nécessaire et permet de financer des améliorations majeures tels que la coloration syntaxique par exemple. Il est donc parfaitement normal et justifié que la WMF demande de l’argent. Je regrette simplement qu’elle place dans l’odre des priorité l’efficacité avant l’expérience utilisateur.

Images (cliquez sur le lien voir la licence et les auteurs)
* Campagne 2018 d'appel aux dons 01.png 
* File:Campagne 2018 d'appel aux dons 02.png

Une semaine et déjà plus de 1900 photos

07:59, Friday, 07 2018 September UTC

Demain samedi 7 septembre, ça fera tout juste une semaine que la huitième édition du concours Wiki Loves Monuments a débuté. Chaque année, ce sont des bénévoles qui donnent de leur temps pour s’assurer que les images soumises dans le cadre du concours sont bien éligibles. Pendant ce travail de tri, des découvertes se font au jour le jour, voilà une sélection des photos qui ont particulièrement attirées l’attention des volontaires pour cette première semaine de compétition.

 

Abbatiale de l’abbaye de Chaalis par Anne Jea CC-By-SA 4.0

En bonus, une sélection des plus beaux châteaux pris en photo par Krzysztof Golik pour cette année 2018.

 

 

A ce moment du concours, près de 40% des photographes de cette huitième édition de Wiki Loves Monuments contribuent pour la première fois sur Wikimedia Commons. Comme eux, vous aussi participez au plus grand concours photo du genre au monde et aidez à améliorer Wikipédia !

→ Verser mes photos

 

L’article Une semaine et déjà plus de 1900 photos est apparu en premier sur Wiki Loves Monuments France.

Du nouveau en 2018

15:32, Monday, 03 2018 September UTC

Depuis le 1er septembre, le concours international annuel de photos de Wiki Loves Monuments est lancé pour collecter des images afin d’illustrer des articles de la plus grande encyclopédie en ligne qu’est Wikipedia. Cette année, la compétition a lieu dans  51 pays du monde. Le jury de chaque pays participant sélectionne les dix meilleures photos de la scène nationale qui participeront à la compétition internationale.


Wiki Loves Monuments , le concours annuel de photographie du mouvement Wikimedia, se déroule tout au long du mois de septembre. Petits et grands, vous avez jusqu’au 30 septembre pour participer. Les règles sont simples, tout ce que vous avez à faire est de vous connecter ou de vous faire un compte sur Wikimedia Commons, de prendre une photo originale d’un bâtiment répertorié dans la base Mérimé du Ministère de la Culture, et de l’importer sur Wikimedia Commons en utilisant cet assistant.  Vous pouvez utiliser cette carte interactive pour trouver et importer les monuments les plus proches de chez vous. En plus des prix nationaux et internationaux, il y a des nouveautés pour cette édition 2018 !

Des monuments historiques mais pas que

Depuis le début de la participation française au projet, 77 % des monuments historiques ont été photographiés et versés sur Wikimédia Commons. Cette sauvegarde du patrimoine, valorisée en partie sur Wikipédia, dépasse cette année le cadre des monuments historiques pour s’ouvrir à l’inventaire général du patrimoine culturel de la base Mérimée qui comptait en 2005 environ 147 000 fiches (contre 42 000 fiches pour les monuments historiques). Si un certain nombre des monuments historiques sont déjà bien connus du public, il s’agit en revanche d’une opportunité d’implication citoyenne et de valorisation pour ces autres éléments du patrimoine qui se font plus discrets.

Wiki Loves Monuments à l’UNESCO

Dans le cadre des Journées Européennes du Patrimoine (JEP), l’équipe d’organisation du concours et les salariés de Wikimédia France animeront un stand dédié au plus grand concours photo du monde au siège de l’UNESCO Paris à l’occasion du #UNESCOHeritageLAB. Pour la première fois après 70 ans d’engagement pour la sauvegarde et la promotion du patrimoine de l’humanité, l’UNESCO ouvre ses portes au grand public. À travers plus de 20 projets et startup réunis pour ces deux jours, l’UNESCO propose à chacun de prendre la mesure de la révolution en cours dans notre façon de valoriser, accéder, préserver et restaurer le patrimoine.

L’objectif de cette initiative est de faire se rencontrer le public des JEP, en particulier les 15-30 ans, et les porteurs de projets innovants au service du patrimoine, de sa valorisation, de son accès, de sa préservation ou de sa restauration.

Pour l’occasion et grâce à notre sponsor Cheerz les visiteurs pourront se prendre en photo devant un mur complet des images lauréates des précédentes éditions françaises et internationales. Ces photos seront par la suite diffusées sur les réseaux sociaux avec les hashtags #WikiLovesUNESCO et #WikiLovesMonuments afin de diffuser au maximum ce projet photographique d’exception qu’est Wiki Loves Monuments.

Prix ​​spécial photo européenne

Dans le cadre de l’Année européenne du patrimoine culturel 2018 un prix spécial sera consacré au patrimoine européen. Le Comité national allemand pour la protection des monuments a mis à la disposition de Wikimedia Allemagne des prix spéciaux pour le patrimoine européen .

La sélection des trois photos gagnantes se fera au niveau international parmi les photographies soumises au niveau national des différents pays européens participants à la fin de l’année.  Chaque pays sélectionne 10 photos à envoyer à l’équipe internationale pour le prix international et en parallèle elle sélectionnera 3 gagnants parmi les photos prises dans des pays européens.

Médaille d'or icon.svg 1000 €
Médaille d'argent icon.svg 700 €
Bronze médaille icon.svg 300 €

Née en 2010 aux Pays-Bas, cette initiative vise à encourager les internautes du monde entier à photographier les monuments historiques et de verser ensuite les clichés sur Wikimédia Commons, en optant pour une licence permettant leur libre diffusion et utilisation. En 2017, ce sont 245 445 photographies de plus de 50 pays qui ont participé au concours, dont 9 457 en France.

L’article Du nouveau en 2018 est apparu en premier sur Wiki Loves Monuments France.

Mon Voyage a Mother City

12:49, Monday, 13 2018 August UTC

Si si c'est mon plus long voyage, j'ai traversé 3 continents pour revenir a l'Afrique.
J'ai démarré de l'Afrique du nord pour attendre le point le plus au sud de ce continent.
L'espérance. .. les découvertes pour moi était grandes et fantastique.
Au fait j'ai décollé 3 fois et j'ai atterit 3 fois.
Je suis passé par 6 aéroports et visité 2 belles villes dans 2 continents différents.
J'ai vu l'hiver en plein été.
Mother City est une ville calme et pacifique malgré ce qu'on dit d'elle et ce qu'on entend.
De la cohabitation, le mixage y est et l'acceptation de l'autre est bien encré.
J'ai vue des mosquées construite 20 ans avant que la france occupe le nord de l'Afrique.
J'ai vue des abdelkader dans le pays des zoulou.
Ma venue était programmée. Pour aider a partager la conaissance apporter la mienne et partir avec la leurs. A mon départ vers chez moi je suis reparti lourdement chargé de nouvelles connaissances j'ai donné ce que je pouvais donner sans être sur que c'était pas équitable.
Je ressentait que jetait pas suffisaient in bon donateur.
Le cape du  goud hope te donne ce hope dont on a tous besoins.
Cest deja cela.
Mon seul conseil que j'ai donné aux gens du cap
A abdulkader le taxieur " c'est un diamant que vous avez, préservez  le , c'est votre richesse et votre fierté.'
'


Persona non grata

05:20, Friday, 27 2018 July UTC

Hello,

today, I want to present you some Wikipedia’s aspect which can give you a good time or facepalm.

Wikimedia’s ecosystem have many projects in many languages. I can edit all of them… but one. After five years, I’m still blocked on one of the biggest project : the english Wikipedia.

I’m one of these person which consider that privacy, including on the web, is a really important things. So, to avoid tracking in any sort, I use a famous network : Tor.

The wikimedia’s policy is to forbid anonymous contributions from open proxy or Tor network in order to avoid abuses. BUT, there is a statut which allow you to bypass theses protections, for exemple to avoid China’s wall.

Administrators have, by default, this statut. It’s for this reason that I still can edit the french Wikipedia through Tor. But when I want to edit others projects, like Commons, I have to open an other navigator to edit.

Because switch navigators for cross-wiki is a really pain in the ass, I’ve requested the global statut. And they give it to me.

It’s at this occasion that I discovered that english Wikipedia community doesn’t recognize this statut and I have to request it in local too…

In the first time, they give me the local statut after CU’s check (their procedure) and they decide to remove after short time because they consider that I don’t need it, since I’m not corean or chinese 😉

Yes, I’m a administrator on the french Wikipedia, one of the biggest project. Yes I’m an OTRS agent and my IRL identity is known. Yes, I have the global statut. Yes I made more of 29 600 edits and have contributed since many years.

Yes, I still blocked on the english Wikipedia.

What if I see an error to correct ? If I have chance, my IP is not blocked and I correct (illegaly). If not, the error still in place. If they consider I dont need to contribute, I consider I dont need to push myself. Sorry english Wikipedia, I’m too lazy to log in myself in another navigator just because « I dont need it ».

I dont need to contribute on english wikipedia, I’m only a volunteer.

Yes, this situation is stupide but it’s not a problem, since I can still edit the rest of the wikimedia’s environment with pleasure.

Bye Bye Wikipédia ?

03:55, Thursday, 05 2018 July UTC

Dans le domaine du numérique, l’Union Européenne sait faire des choses biens et d’autres qui le sont beaucoup moins.

Parmi les mesures récentes qui sont une excellente chose, nous pouvons citer l’entrée en vigueur du RGPD qui m’a bien occupé ce dernier mois, mais ceci est une autre aventure dont je m’étalerai plus longuement dans un autre billet.

À cause de cela, j’ai suivi de loin l’affaire dont nous allons parler dans ce billet, je vais alors tenter de me rattraper maintenant.

Aujourd’hui, le texte va être étudié par le parlement européen.

Il s’avère que ce texte soulève une opposition importante, par exemple 70 personnalités du web incluant Vinton Cerf (père fondateur d’Internet), Tim Berners-Lee (inventeur du WWW), Bruce Schneier (spécialiste en sécurité informatique) se sont opposé au texte via une lettre ouverte.  On peut également citer une forte désapprobation de la part de 169 professeurs universitaires [2] et de 145 organismes opérant dans les domaines des droits de l’homme, de la liberté de la presse, de la recherche scientifique et de l’industrie informatique [3].

Wikipédia est également touché par ce texte qui risque de lui porter un préjudice important. C’est pour cette raison que le cinquième site le plus fréquenté du monde s’est opposé frontalement à ce texte, que ce soit de la part de la direction (CA de la WMF) ou des contributeurs bénévoles qui ont rendu les versions italienne, estonienne, lettone et espagnole  inaccessibles, d’autres comme les versions francophones ou anglophone se contentent d’avertir les lecteurs via des communiqués ou des bandeaux.

Bien qu’il y a déjà eu des précédents, une telle réaction de la part de Wikipédia, qui n’est pas réputé pour ses prises de positions politiques montre qu’un malaise existe.

Mais en fait, que reproche-t-on à ce texte ?

Si vous avez bien révisé votre guide du petit censeur, vous saurez que pour justifier une censure sans obtenir un lever de boucliers, vous devez mettre en avant la lutte contre la pédopornographie ou le terrorisme. Ici, le motif avancé est la protection des ayants-droits (vous savez, pour lutter contre le téléchargement illégal alors qu’il semblerait que ce ne soit pas si nocif que ça pour l’industrie (source)).

En effet, sous la pression de l’industrie du disque, des ayants-droits, etc., il est envisagé de filtrer en amont les contenus téléchargés grâce à des bots.

Ces processus coûteux à mettre en place sont destinés à repérer et bloquer les contenus protégés, en méconnaissant les exceptions aux droits d’auteurs (parodies, citations, …). Cela a donc des répercussions autant sur les petits hébergeurs qui ne peuvent mettre en place un tel système que pour les utilisateurs qui voient leur liberté d’expression menacé.

Pour entrer dans les détails, en effectuant une communication au public, le site devra par défaut obtenir l’autorisation des ayants droit avant de donner accès à n’importe quel contenu. S’il ne dispose pas de cette autorisation, il ne pourra plus être qualifié d’hébergeur et aura donc une responsabilité directe sur la légalité des contenus mis en ligne par les tiers (et la vous comprenez pourquoi la WMF commence à avoir des sueurs froides). Pour éviter des problèmes, le site doit filtrer grâce à des empreintes fournis par les ayants-droits.

Selon Raegan MacDonald, Head of EU Public Policy chez Mozilla « si ces propositions étaient adoptées, l’UE ferait un pas en arrière en laissant passer une loi fragmentée et archaïque sur le droit d’auteur ».  Le texte ne se limite pas aux seuls contenus audio ou musicaux, mais aussi sur l’ensemble des œuvres sous droit d’auteur, dont les logiciels.

Pour Wikimédia France, les contenus « reconnus comme pouvant potentiellement enfreindre la loi seront automatiquement bloqués », avec le jeu de l’article 13. « Or la complexité du droit d’auteur, les différences entre pays et les exceptions au droit d’auteur ne peuvent être correctement appréhendées par des algorithmes ». L’entité anticipe un risque d’autocensure : « les plateformes opteront pour un principe de précaution en bloquant plus de contenu que nécessaire ce qui réduira la diversité de ces plateformes en empêchant les personnes peu aguerries aux nouvelles technologies d’y participer ».

Internet n’est pas une zone de non droit (biens que des « professionnels du secteur » aient encore des problèmes avec la loi du 6 janvier 1978 mais j’en reparlerai dans un autre billet) et les contrefaçons, tout comme les harcèlements peuvent être poursuivis devant les tribunaux.

Toutefois, si ce texte passe, vos mèmes ou vos tweets sur les matchs de football avec photographies se feront bloquer par défaut. Viva la liberté d’expression !

Et vous pensez que je suis dans l’hyperbole en invoquant le principe de liberté d’expression ? Pourtant le Rapporteur spécial des Nations Unies (ONU) sur la promotion et la protection du droit à la liberté d’expression et d’opinion a adressé une lettre très critique à l’Union européenne. Vu que je rédige ce billet assez rapidement, je n’ai pas encore eu l’occasion de lire en détail cette lettre. Je suis désolé si ce billet paraît un peu brouillon, je n’ai eu le temps que de rassembler des ressources et débroussailler le terrain.

Sources / ressources :
* L’Internet libre et ouvert est en danger : vous pouvez arrêter ce désastre
* Filtrage : déluge de critiques sur l'article 13 du projet de directive sur le droit d'auteur
* Directive Copyright : combattons le filtrage automatisé... et la centralisation du Web !
* La directive copyright et le problématique article 13
* Directive Droit d’auteur : à l'ONU, les inquiétudes du Rapporteur spécial à la liberté d'expression
* Wikipédia mène la fronde contre la directive européenne sur le droit d'auteur

Sur une note plus légère, la version francophone de Wikipédia s’approche dangereusement du seuil des 2 000 000 articles créer. Pour fêter l’occasion, le site s’est fendu un petit communiqué de presse et préparé un nouveau logo spécialement pour l’occasion qui remplacera celui présent actuellement pendant probablement un mois (sondage).

La mise en place par défaut de la coloration syntaxique est également un (très) bon point.

Wiki Loves Monuments

10:00, Sunday, 01 2018 July UTC

Wiki Loves Monuments* est un concours photographique mondial qui se déroule lors du mois de septembre et visant à valoriser les monuments historiques, via les projets Wikimédia (principalement Wikipédia et Wikimedia Commons). L’édition française du concours est organisée par Wikimédia France, association pour le libre partage de la connaissance.

Chacun peut participer et améliorer Wikipédia. Les monuments historiques sont tout autour de vous !

En savoir plus

L’article Wiki Loves Monuments est apparu en premier sur Wiki Loves Monuments France.

Participer à Wiki Loves Monuments

22:30, Saturday, 30 2018 June UTC

Comment participer ?

Découvrez comment participer au plus grand concours photographique de monuments au monde sur la page Commons française dédiée à l’événement !

 

L’article Participer à Wiki Loves Monuments est apparu en premier sur Wiki Loves Monuments France.

Mathieudu68 : Un an dans la peau d’un arbitre

22:33, Tuesday, 10 2018 April UTC

Aujourd’hui, je vais laisser la parole à Mathieudu68, un ex-arbitre qui revient sur son mandat et livre sa vision des choses sur des sujets qui agite toujours Wikipédia.

Tout d’abord, je remercie chaleureusement mon ex-collègue Gratus d’avoir bien
voulu m’ouvrir son blog.

Plus que de dresser le bilan de mon année de mandat, ce billet sera surtout
l’occasion de dresser une réflexion sur le CAr, son avenir et pourquoi il est
soudainement voué aux gémonies par une minorité, il est vrai très active, de la
communauté.

Bilan personnel

J’ai candidaté en mars 2017 parce que personne ne se portait volontaire (j’ai été le seul candidat à cette élection groupée).
Ma candidature a surpris car j’étais alors peu actif sur Wikipédia depuis
quelques mois, venant à peine de revenir. Plusieurs contributeurs ont d’ailleurs
été inquiets à ce sujet, mais je savais que j’allais reprendre un rythme de
contributions soutenu, ce qui a bien été le cas par la suite.

Mon bilan comme arbitre est quantitativement peu important, ce qui est à mettre
en parallèle avec la faible activité du comité depuis deux ans. Je n’ai eu en
réalité, qu’un seul arbitrage à traiter sur le fond, c’est celui entre Lepetitlord et Hotter3.
Un arbitrage très classique, avec un conflit personnel ancré sur une thématique
bien précise. Le moins que l’on puisse dire est qu’il n’a pas attiré les foules
(les critiques du CAr ne s’intéressent pas à ce genre de contributeurs somme
toute discrets et de conflits localisés), et on a pu travailler tranquillement.
J’estime avoir bien œuvré à cette occasion. J’ai passé de nombreuses heures à
décortiquer et lire tous les arguments des parties et témoignages et à lire
l’ensemble de leurs interactions. J’en ai passé à peu près autant à réfléchir à
mon commentaire puis à la rédiger.

Au final, ce sont mes propositions, qui ont l’air d’avoir séduit mes collègues,
qui ont structuré la décision d’arbitrage. Telles que je les avais pensées, mes
propositions avaient pour objectifs de faire cesser le conflit, mais non le
dialogue, entre ces deux contributeurs avec une menace de forte sanction au
moindre « pet de travers » entre les deux. Ceci pour qu’ils continuent à
contribuer sur leurs domaines, à apprendre à dialoguer, et qu’ils restent au
final sur Wikipédia, où tous deux ont beaucoup apporté. Mes propositions de
sanctions en cas de dérapage, qui ont été globalement retenues, étaient un peu
comme la bombe nucléaire, suffisamment dissuasives pour qu’elles n’aient jamais
à s’appliquer. Malheureusement, cela n’a pas marché. Elles ont dû être
appliquées quelques mois plus tard et, au final, un des deux protagonistes a
quitté Wikipédia, dégoûté.

J’ai eu le sentiment de bien faire, mais ça n’a pas fonctionné et l’arbitrage
est au final un échec. C’est, pour moi, une grande déception (la plus grande,
bien plus que les critiques reçues ou les conflits avec certains admins) car j’y
ai passé beaucoup de travail et de temps, et j’ai fait du mieux que j’ai pu.
Peut-être qu’il y avait mieux à prendre comme décision, peut-être qu’il n’y
avait tout simplement rien à faire parce que certains conflits ont tellement
pourri qu’ils en sont de toute façon insolubles. Je n’en sais rien mais je suis
très déçu de ne pas avoir réussi.

C’est le point principal de mon mandat puisque le seul arbitrage auquel j’ai
participé. Mon autre grande action a été de coordonner la nomination des CU en
2017. Cela s’est très mal passé, d’une part parce qu’il y a eu des quiproquos,
et d’autre part parce que j’ai mal ressenti (et ce ne fut pas qu’à cette
occasion) certaines directives de Racconish qui s’est un peu considéré, sans
doute de par son expérience, comme le chef de notre comité. Je ne suis pas le
seul, en interne, à lui avoir fait de telles critiques, et j’ai passé la
deuxième moitié de mon mandat dans un climat tendu avec lui. Ce n’était pas
l’idéal. Au final, je pense que nous avons tous les deux eu des torts, et que
cela n’a pas aidé la crise traversée par le comité d’arbitrage, et j’en suis
désolé. Surtout, ce sont les CU qui en ont pâti, puisqu’il y a eu des manques et
il a fallu quelques mois plus tard refaire une nouvelle nomination. À notre
décharge, il nous était difficile de prévoir que Hexasoft et Schlum, qui avaient
candidaté à nouveau et semblaient toujours très motivés, allaient soudainement,
pour le premier, disparaître purement et simplement de la surface de Wikipédia,
et pour le second perdre sa motivation à effectuer son rôle de CU (et,
visiblement, à pouvoir continuer à contribuer activement sur Wikipédia). Il est
vrai aussi que, l’année dernière comme il y a un mois, il y a eu très peu de
candidats, et ça n’aide pas.

Par ailleurs, je sais que beaucoup de contributeurs ont été surpris que
Prométhée ne soit pas renouvelé. Je ne vais pas révéler les discussions internes
des arbitres, mais j’aimerais préciser que la décision de non-renouvellement, si
elle n’a pas été unanime, a été assez largement majoritaire. Nous avons relevé
plusieurs cas où Prométhée a clairement été en délicatesse avec la politique de
confidentialité, et nous nous en sommes expliqués avec lui. Je ne rentrerai pas
davantage dans les détails.

La problématique des CU et des OS

Puisque j’en suis aux CU et aux OS, c’est l’occasion de donner mon avis sur un
débat qui existe depuis longtemps, et qui rebondit à nouveau avec la nouvelle
prise de décision sur le CAr en préparation : est-ce que c’est bien le rôle du
CAr de faire ces nominations ? Pour ma part, je pense que non. Je n’ai jamais
trop compris pourquoi ce rôle incombe aux arbitres même si, bon, il fallait bien
le faire.

D’un autre côté, je pense aussi que des élections par toute la communauté ne
seraient pas non plus les bienvenues. Ces deux postes sont techniques et
sensibles, et ils nécessitent des compétences qui doivent être évaluées au
préalable. Avec des élections, je ne vois pas comment ces évaluations auraient
lieu, et surtout je crains qu’il ne s’agisse que d’un concours de popularité. Je
vois déjà les votes favorables parce que le candidat est gentil, parce que c’est
un bon contributeur, ou les votes défavorables idiots du genre « il a commis une
guerre d’édition le 31 février 2005, c’est très vilain », qui ne sont pas
pertinents du tout. Il faut dire ce qui est : on peut être un excellent
contributeur à Wikipédia, qui apporte des AdQ et respecte toutes les règles, et
être un CU catastrophique faute de maîtrise technique. Je pense donc que
l’élection ne serait pas adaptée.

Il faut donc que ce soit un groupe de contributeurs qui fassent ces nominations.
Les admins sont trop nombreux. Il y a aussi les bureaucrates. Pourquoi pas, sauf
que ce sont des gens élus à vie (et moi ça me dérangerait de donner un tel
pouvoir à des gens parfois élus il y a plus de dix ans), et en plus certains
d’entre eux (Clem23, Esprit Fugace, Anthère) ne semblent plus vraiment être là.
Au final, j’ai l’impression que si les arbitres ont hérité du bébé, c’est un peu
parce que c’est la solution « la moins pire ». Mais elle devient gênante
maintenant qu’il n’y a périodiquement plus assez d’arbitres.

Il reste l’hypothèse de créer une structure /ad hoc/. Un comité de nomination,
qui ne serait là que pour ça. Pourquoi pas, mais on retombe sur le même problème
: les gens élus seront-ils compétents techniquement pour évaluer les candidats ?
Vous me direz, les arbitres ne le sont pas forcément. C’est vrai. C’est
d’ailleurs pourquoi, en réalité, les arbitres évaluent surtout les réponses des
candidats sur la politique de confidentialité. Pour le côté technique, le
questionnaire a été élaboré par Schlum, CU expérimenté en place depuis
longtemps, qui nous a aussi fourni les réponses attendues à chaque question.
Heureusement parce que, je l’avoue, j’aurais été incapable de répondre à toutes…

Au final, j’avoue que je ne sais pas trop quoi faire avec ces nominations.
J’hésite entre les laisser aux arbitres et créer un comité de nomination. Les
autres solutions (élections directes ou nomination par les bureaucrates) me
semblent à écarter.

Le conflit arbitres/certains admins

Avec l’arbitrage où j’ai dû rendre un avis, et la nomination des CU, cela a été
le troisième point essentiel de mon mandat, le plus démotivant. Cette
problématique a d’ailleurs été abordée dans plusieurs billets, ici-même, par
Gratus. Je partage d’ailleurs largement ses observations et ses analyses. C’est
un fait, une partie de la communauté — avec des arguments tout à fait recevables
d’ailleurs — veut supprimer le CAr. Parmi ces personnes, il se trouve aussi des
admins. C’est leur opinion, c’est leur droit, et je n’ai aucun problème avec ça.

Là où j’ai vu un problème, c’est quand ces admins ne se contentent pas d’avoir
leur opinion, mais agissent de manière illégitime pour essayer de parasiter le
fonctionnement du comité ou même, pire, tenter de dépouiller les arbitres de
leurs compétences (pourtant données par un règlement issu de plusieurs prises de
décision) pour les reprendre abusivement à leur compte. C’est bel et bien ce qui
s’est passé à deux reprises au cours de mon mandat, et je sais que j’ai exaspéré
ces personnes (au point qu’on m’insulte et me menace sur IRC) en ne me laissant
pas faire.

La première affaire est celle de l’arbitrage Atonabel contre Omar-toons.
Nous avons estimé que cet arbitrage était recevable. J’y participais et,
théoriquement, cela aurait dû être mon deuxième arbitrage où je devais exprimer
un avis de fond. Cela n’a pas été possible puisque Omar-toons n’a tout
simplement pas pu mettre une seule ligne d’argumentaire dans la mesure où… il a
été bloqué par les admins durant toute la durée que le règlement lui laissait
pour déposer ses arguments. Qui plus est, le motif de blocage, s’il ne
recouvrait pas toute la dimension de l’arbitrage, était tout de même proche de
ce qu’il nous incombait de traiter, ce qui est déjà un premier gros problème en soi…

En constatant cela, nous avons édicté une mesure conservatoire d’urgence pour
demander son déblocage, le temps qu’Omar-toons mette son argumentaire en
défense. Les admins qui se sont exprimés nous ont littéralement envoyés chier.
Désolé pour la vulgarité, mais je ne vois pas comment le dire autrement, vu le
ton employé. C’est déjà, en soi, une très mauvaise manière et franchement, un
manque de bon sens criant… Mais c’est même pire que ça puisque, d’après le
règlement issu de prises de décision prises par la communauté, les admins sont
censés techniquement exécuter les décisions des arbitres, sans pouvoir s’y
opposer. Là, ils se sont sciemment assis sur notre mesure conservatoire, et donc
sur le règlement. Et, malheureusement, malgré « le droit wikipédien » en notre
faveur, nous ne pouvions rien faire de plus. Nous n’avons pas les moyens de
forcer les admins à respecter nos décisions, quand bien même ils sont censés
être obligés de le faire. Nous avons donc été contraints, la mort dans l’âme, de
déclarer notre arbitrage recevable impossible à traiter. C’est n’importe quoi et
c’est entièrement de la faute de ces admins. J’aimerais d’ailleurs faire un
distinguo. Certains, à n’en pas douter, ont agi de bonne foi, par
incompréhension du règlement ou de la situation, ou parce qu’ils ont estimé en
leur for intérieur que c’était la meilleure chose à faire. Mais certains de ces
admins, qui sont notoirement anti-CAr, étaient clairement de mauvaise foi, et
leur objectif était de nuire au CAr. Ils ont réussi.

La deuxième affaire a été l’arbitrage Writium/Chaoborus (et je tiens à préciser, pour éviter toute ambiguïté, que le pauvre Chaoborus n’y est pour rien dans le pataquès qui a suivi). La situation était la suivante : un contributeur, Writium, a fait l’objet d’une RA pour ses modifications non-constructives. Plusieurs admins se sont alors exprimés en faveur d’un
blocage indéfini, vu l’étendue des dégâts, et Chaoborus a conclu la RA en
appliquant la sanction décidée. Writium, qui l’estime injuste, a décidé de
lancer un arbitrage contre Chaoborus (visiblement parce que c’est lui qui a
techniquement bloqué, même si la décision a été collégiale). Bon, bien
évidemment, l’arbitrage était ridicule et n’avait aucune chance d’être déclaré
recevable. Le problème, c’est que les admins ne nous ont pas laissés faire notre
travail. L’un d’entre eux a supprimé d’autorité l’arbitrage lancé, sans même
attendre qu’on ait fait la moindre demande en ce sens. Le résultat est là.
Cet admin et quelques autres ont estimé inadmissible que mon collègue Cangadoba
restaure l’arbitrage pour que les arbitres puissent ensuite donner leur
décision. Ce serait soutenir un perturbateur professionnel. Bah non, c’est
simplement une application toute bête de la chose suivante : les admins gèrent
ce qui relève des admins, et les arbitres gèrent ce qui relève des arbitres. Ce
qui n’était pas normal, c’est qu’un arbitrage soit d’autorité déclaré nul et non
avenu par quelqu’un qui n’a pas été élu pour s’en occuper. Et que Do not follow,
l’admin en question, ne comprenne pas où est le problème m’a franchement laissé
pantois. Qu’est-ce qu’il aurait dit si j’étais allé rejeter des RA à la place
des admins ? Dans le même registre, il a fallu que je mène une guerre d’édition
sur notre propre page contre un simple péon, Fanchb29 (qui explique
régulièrement sur le Bistro qu’il faut supprimer le CAr), qui, lui aussi,
s’était mis en tête de décider tout seul et à la place des arbitres élus que
l’arbitrage n’était pas recevable. J’ai dû me pincer plusieurs fois pour y croire…

Quel avenir pour le comité d’arbitrage ?

Comme Gratus l’a écrit ici-même et sur Twitter, cet épisode surréaliste était le
plus éclatant des symptômes : /« Le Car a tellement perdu en légitimité qu’on
renie désormais la capacité et l’autorité de Mathieudu68 et Cangadoba à gérer la
page de l’institution ET à traiter des arbitrages »/.

C’est effectivement de cela qu’il s’agit. C’est un fait, l’existence du CAr,
remise en cause depuis des années et de graves dérapages survenus en 2011, est
de plus en plus contestée. Encore une fois, c’est une opinion tout à fait
légitime, mais elle ne permet pourtant pas de s’affranchir des règles en
vigueur, or c’est ce qui a été fait.

Maintenant, il est certain que le CAr ne peut pas rester en l’état. Faut-il le
supprimer ? Je ne le crois pas, et je vais dire pourquoi en mettant les pieds
dans le plat. Si certains admins cherchent depuis longtemps à supprimer le CAr,
c’est, en réalité, j’en suis malheureusement convaincu, pour en récupérer les
prérogatives. Et avoir ainsi la compétence exclusive des sanctions individuelles
à prononcer sur Wikipédia. Et là, on voit tout de suite où est le problème.
C’est que la manière dont les admins traitent les dossiers n’est absolument pas
soumise à procédure, contrairement au comité d’arbitrage. Je vais être clair,
depuis un an environ, les personnes mises en cause n’ont tout simplement pas de
possibilité de réellement se défendre, leurs interventions étant tout simplement
retirées…

Je vais prendre un exemple tout récent. On en arrive aujourd’hui à des cas comme
celui de Synthwave.94, qui a cinq ans de présence, 130 000 modifications et plusieurs AdQ, et n’a jamais été bloqué. Pourtant, il se retrouve menacé de blocage indéfini pour sa
première incartade (une guerre d’éditions ; et encore, des contributeurs
d’importance comme Nouill, Marilouw et Guil2027 estiment qu’il n’a rien fait de
mal) en cinq ans. C’est du grand délire et c’est clairement un effet de
l’absence de CAr. De plus en plus, des admins, au nom de « l’efficacité » et
d’une propension à vouloir tout régler, n’agissent plus que par le prisme de la
sanction et en perdent franchement tout sens de la mesure.

Il faut donc un comité d’arbitrage pour contrebalancer cette toute puissance des
admins, j’en suis convaincu. Mais ce comité doit être réformé car actuellement,
il ne fonctionne qu’épisodiquement et n’intéresse plus la communauté (il n’y a
plus de candidats et très peu de gens s’intéressent aux élections d’arbitres).
Que peut être ce comité ? Déjà, je pense qu’il faut qu’il se recentre sur ses
deux missions principales : arbitrer des conflits et nommer les CU et les OS
(sauf si l’on crée donc un comité de nomination). Il faut supprimer la notion
d’arbitrage communautaire qui a brouillé les règles, et laisser cela aux admins.
Je pense aussi qu’il faut supprimer le pouvoir de sanction (destitution
temporaire ou définitive) d’un admin par le CAr, qui n’a plus grand sens depuis
que le principe des contestations a été installé.

Je pense que deux grandes mesures devraient être prises :

  •  La première, c’est de donner aux arbitres davantage de moyens d’être
    médiateurs. Il faut simplifier la manière dont on les saisit, et peut-être
    leur permettre de s’autosaisir d’un conflit personnel en cours. J’ai vu avec
    Lepetitlord – Hotter3 que, finalement, les arbitres n’ont rien pu faire
    parce qu’ils ont été saisis trop tard. Le conflit avait trop pourri. Il faut
    que les arbitres puissent intervenir quand il est encore temps, quand le
    conflit est encore résoluble. Je pense qu’il est vraiment très important de
    réfléchir là-dessus.
  • La deuxième mesure, c’est de faire clairement du CAr une instance d’appel
    d’une décision des administrateurs. Ceci, pour éviter les démonstrations de
    toute-puissance qu’on voit actuellement. Bien sûr, il faudra que cette
    possibilité soit encadrée. Il ne faut pas que le travail de maintenance soit
    entravé, et il est hors de question de permettre au moindre vandale de
    passage ayant écrit « prout, pipi caca » dans les articles de faire appel du
    blocage qu’il a reçu. Je pense qu’on pourrait imaginer un système semblable
    à celui des contestations individuelles du statut d’administrateur. Ainsi,
    si x contributeurs ayant un minimum de contributions et d’ancienneté (on
    peut retenir les mêmes seuils que pour les contestations) saisissent le CAr
    pour dire que telle décision des admins ne leur paraît pas convenable, alors
    on considère qu’il y a appel. Le CAr devient ainsi l’arbitre entre les
    admins et une partie de la communauté qui conteste leur décision. Le CAr
    aurait le choix entre trois options : confirmer la décision des admins,
    l’amender ou la révoquer. En revanche, il n’aurait aucun pouvoir de
    sanctionner à titre individuel les admins qui ont pris la décision.

Pour conclure

Voilà, j’en ai fini, et je suis désolé d’avoir été aussi long. J’en ai aussi
fini avec le CAr, pour longtemps je pense (même si je vais peut-être intervenir,
par exemple pour mettre en avant les propositions que je viens de faire, dans la
Prise de décision en train de s’élaborer). Comme j’ai eu l’occasion de l’écrire
récemment sur Wikipédia, j’ai hâte de rester dans mon coin à contribuer
tranquillement, comme je le faisais avant d’être devenu arbitre (et j’ai
continué pendant, aussi ^^^). Ce fut quand même une belle expérience, et bravo
et merci à tous mes ex-collègues (malgré les divergences qu’on a parfois eues,
ce qui est normal). Bonne continuation à eux aussi.

Mathieudu68

Mon beau poisson

19:40, Monday, 02 2018 April UTC

Hier, c’était le premier avril. Le poisson préparé sur la version francophone de Wikipédia est juste… incroyable !

Capture d’écran de la page d’accueil (CC-BY-SA 3.0).

En effet, wikipédia a décidé de revenir en arrière et d’adopter un look minitel, avec refonte du logo et animations à la clé. Il me semble que c’est la première fois que Wikipédia fait un poisson aussi important.

Lorsque l’on tapait les commandes du code Konami, le lecteur était redirigé vers un jeu. Le tout fonctionne grâce à un peu de JavaScript et de CSS.

Le code source du projet est publique et sous licence MIT.

Le poisson d’avril était également présent sur le bistro, où l’ex-bandeau d’avertissement (orange) de réception de message a été recyclé pour rediriger sur une vidéo Youtube.

Sauf que l’humour, y compris en ce jour particulier, reste soumis à sa police qui tâche à retirer les poissons qui ne sont pas à leurs goûts (ne vous inquiétez pas, les attaques à la frontière de l’islamophobie ne sont pas assujetis à sa réglementation).

Nous avons aussi un article assez bien travaillé (sur trois mois) qui a depuis été redirigé vers la section pastiche. Ne vous inquiétez pas, la tolérance faisant partie de l’ADN de la Wikipédia francophone, l’auteur s’est fait accusé de participer à la culture du viol avec ses blagues sexistes.

Merci du signalement, ton bug peut attendre…

14:56, Monday, 26 2018 March UTC

Magnus Manske est un développeur inconnu du grand public, on lui doit pourtant des contributions nombreuses et décisives pour le développement initial de Wikipédia, sa maintenance continue et son ingénierie, au point que les wikipédiens célèbrent chaque 25 janvier le Magnus Manske Day.

On imagine aisément à quel point ses journées sont bien remplies, d’autant qu’il donne son temps et son énergie pour le Libre sur son temps… libre !

Dans l’article dont nous vous proposons la traduction, il explique avec un brin de malice pourquoi les bugs apparemment les plus simples à traiter peuvent s’avérer les plus longs à régler… Deux minutes de lecture pour un petit article qui parlera à nos amis développeurs (ces indispensables travailleurs de l’ombre) comme il a parlé à Luc, notre tech warrior tout-terrain…

 

Non, je n’ai pas corrigé ton bogue, voici pourquoi

par Magnus Manske – article original : Why I didn’t fix your bug

Photo par Jason Krüger [CC BY-SA 4.0], via Wikimedia Commons

Beaucoup d’entre vous m’ont envoyé des rapports de bogue, des demandes de nouvelles fonctionnalités et signalé d’autres problèmes liés à mes outils dans le WikiVerse. Vous m’avez contacté via le BitBucket Issue tracker (et apparemment je suis aussi sur Phabricator maintenant), par Twitter, divers emails, des pages de discussion (les miennes, celles d’autres utilisateurs, via Wikitech, etc.), avec des applications de messagerie, et même en chair et en os.
Et je n’ai rien fait. Je n’ai même pas répondu.

Rien n’indique que j’ai vu le problème.

C’est frustrant, je sais. Tu veux juste que ce petit truc soit réparé. En tout cas, tu te figures que c’est un tout petit changement à opérer.

Voyons maintenant les ressources disponibles, ce qui, en l’occurrence, est mon temps. En commençant par les gros travaux (estimations générales, des variations saisonnières sont inévitables) :

Il y 24 h dans une journée

– 9 h de travail (y compris le trajet en voiture)

– 7 h de sommeil (j’espère en tout cas)

– 2 h de vie privée (manger, faire de l’exercice, prendre une douche, lire, passer du temps avec ma copine, etc.)

= il reste 6h

On ne peut pas discuter avec ça, n’est-ce pas ? Maintenant, 6h qui restent, c’est une estimation haute, évidemment ; le travail et la vie privée peuvent (et ça arrive) prendre bien plus de temps, sur une base quotidienne et très variable, comme c’est le cas pour chacun de nous.

Alors je peux régler ton problème, c’est ça ?

Voyons voir :

6h

– 1h de maintenance (redémarrage des outils, mise à jour des pages GLAM, ajout et correction des catalogues mix“n”match, etc.)

– 3h de développement/réécriture (parce que c’est de là que viennent les outils)

= il reste 2h

Deux heures par jour, ça fait beaucoup, non ? En réalité, c’est beaucoup moins, mais restons-en là pour l’instant. Quelques-uns de mes outils n’ont pas de problèmes, mais beaucoup en ont plusieurs en cours, donc supposons que chaque outil en a un :

2h = 120 min

/130 outils (estimation basse)1

= une moyenne de 55 secondes par outil

C’est assez de temps pour trouver et aborder le problème, ouvrir le(s) fichier(s) de code source, et… zut le temps s’est écoulé ! Désolé, problème suivant !

Donc, au lieu de tous les traiter, je m’occupe de l’un d’entre eux. Jusqu’à ce que ce soit réglé ou que j’abandonne. L’un ou l’autre peut prendre des minutes, des heures, voire des jours. Et pendant ce temps, je ne me penche pas sur les centaines d’autres problèmes. Parce que je ne peux rien faire pour eux à ce moment-là.

Alors, comment puis-je choisir un problème sur lequel travailler ? C’est une heuristique complexe calculée à partir des facteurs suivants :

  • Nombre d’utilisateurs concernés
  • Gravité (« problème de sécurité » vs « faute d’orthographe »)
  • Opportunité (ce qui signifie que je l’ai remarqué lorsqu’il a été déposé)
  • Disponibilité (est-ce que je me concentre sur autre chose lorsque je remarque le problème ?)
  • Plaisir possible et humeur du moment (eh oui, car je suis bénévole, ça vous dérange ?).

 

Aucun événement particulier n’a été à l’origine de la publication de ce billet. Je le garderai en référence pour en donner le lien, quand l’occasion se présentera.

Rencontres Wikimedia 2010 : « GLAM-WIKI » à Paris

00:00, Thursday, 01 1970 January UTC

Vue de l'hôtel des Invalides depuis le côté Seine, sous la neige

Il y a quelques jours, j’ai assisté à la conférence « GLAM-WIKI (FR) » à Paris, dont l’objectif était de bâtir des relations et des partenariats entre le mouvement Wikimedia et le secteur culturel, qui partagent une mission de diffusion de la connaissance.

Cette conférence, appelée « Rencontres Wikimedia 2010 » en français, était la deuxième édition d'un colloque Wikimedia annuel qui se cherche encore (ce qui est naturel pour un évènement si jeune) ; le colloque précédent de 2007 visait davantage le monde universitaire et les « experts ». « GLAM-WIKI » est le nom d'une séries de conférences, débutées en 2009 à Canberra (Australie), et suivie de celle de Londres il y a quelques semaines. Les institutions culturelles sont appelées « GLAM » dans le milieu, un acronyme pour galleries, libraries, archives and museums : galeries, bibliothèques, archives et musées. Je leur préfère le nom de « memory institutions », également utilisé en anglais.

Une conférence introductive efficace

Le programme était intéressant, en proposant de bonnes synthèses sur Wikipedia, Wikimedia, et quelques initiatives et partenariats réalisés pendant les dernières années. Il s'agissait de « panels » et de présentations (la traduction en français par  « tables rondes » est assez maladroite).

Même si, au final, le programme visait davantage les représentants des organismes culturels, certaines sessions m'ont également été utiles (en tant que bénévole Wikimédien, et d'employé de la Wikimedia Foundation), notamment celle sur les métadonnées. C'est un domaine que je n'ai pu qu'effleurer lors du Multimedia usability project, mais auquel j'espère pouvoir consacrer du temps en 2011.

D'autres présentations étaient d'excellente qualité, comme celle de Ian Padgham, du SFMOMA. Sa présentation originale mais efficace consistait d'une bande dessinée (par lui) et a été donnée un français impeccable, coloré et très drôle. Ce fut rafraîchissant après deux jours de présentations plus formelles.

La salle, dans les locaux de l'Assemblée Nationale, était particulièrement accueillante. Quelques détails logistiques, tels que l'absence de prises électriques, ou l'absence des horaires dans le « Programme » en téléchargement sur le site officiel, ont provoqué des frustrations. D'un autre côté, on nous a rachetés avec des macarons.

La traduction simultanée en anglais ou en français (selon que l'orateur parlait dans une langue ou dans l'autre) était apparemment de très bonne qualité et a permis à tous les participants de profiter de cette conférence bilingue.

Futures éditions : davantage de rencontres

Si j'avais un conseil à donner pour l'organisation d'un évènement similaire à l'avenir, ce serait de plus mettre l'accent sur l'aspect « rencontres ».

Je conçois parfaitement que ce type d'évènement ait été une première en France, et que par conséquent le but était davantage de « planter la graine » que de réellement tisser des liens et faire fructifier des partenariats. Il est donc normal qu'une approche « introductive » ait été choisie cette année. Les conseils qui suivent s'adressent donc principalement aux organisateurs des prochaines éditions.

Bien qu'ils aient semblé être en minorité, de nombreux Wikimédiens s'étaient déplacés pour assister à cette conférence, certains venus d'autres pays. Je trouve dommage qu'il n'y ait pas eu davantage d'opportunités de réelles rencontres et d'ateliers.

En comparaison, l'atelier Wikimedia de la conférence « Museums and the Web» en avril 2010 avait vraiment permis aux membres des deux communautés de se rencontrer, au travers de discussions en petits groupes sur des sujets particuliers.

L'absence de badges nominatifs n'a pas non plus facilité de réelles rencontres. Sans badge, difficile de démarrer une conversation avec un inconnu lors des pauses café, par exemple. Une liste des participants, comprenant leur affiliation et leur adresse e-mail (avec leur accord préalable) aurait également été bienvenue.

Par ailleurs, il n'est pas très pratique de devoir s'organiser soi-même pour déjeuner, surtout en une heure et quart (ramenés à moins d'une heure avec les retards accumulés), pendant que les « VIP » (organisateurs et intervenants) déjeunent à l'étage. Je pense qu'une large majorité des participants aurait accepté de participer financièrement en échange d'un déjeûner-buffet sur place, en particulier nos collègues non francophones.

En résumé, l'évènement était sympathique et assez utile, et j'espère voir de futures éditions avoir lieu qui permettront des rencontres plus concrètes.

Ce mercredi, je participais à une réunion de l'équipe technique de la Wikimedia Foundation quand Mark Bergsma, notre Networking Coordinator basé à Amsterdam, a subitement dû s'absenter ; ce n'est que quelques instants plus tard que l'équipe a réalisé la raison de son départ. Un incident de climatisation dans le data center d'Amsterdam a déclenché un mécanisme de protection des serveurs, qui se sont automatiquement arrêtés afin de se protéger de la chaleur. Le centre d'Amsterdam gère généralement le trafic des sites Wikimedia en Europe ; Wikimedia dispose de procédures automatiques afin de pallier rapidement ce type d'incident en redirigeant l'ensemble des requêtes européennes vers les serveurs situés en Floride.

Ce processus de redirection est basé sur le DNS, c'est à dire le système qui fait le lien entre un nom de domaine (par exemple, « wikipedia.org ») et l'adresse IP de la machine qui l'héberge (par exemple, « 208.80.152.2 »). Malheureusement, ce système de redirection était défaillant au moment de l'incident de climatisation. L'équipe a rapidement identifié et corrigé le problème, mais c'était trop tard : l'erreur s'était propagée sur Internet dans les bases de données DNS.

En tout et pour tout, l'incident de climatisation et l'incident de DNS interne n'ont duré que quelques minutes. Mais à cette chaîne d'incidents s'est ajouté un autre problème : les bases de données DNS sur le web ont conservé les valeurs erronées trop longtemps, malgré les consignes des serveurs de Wikimedia, qui indiquaient qu'elles devaient être corrigées rapidement. Ainsi, les utilisateurs ne pouvaient pas accéder à Wikipedia, même si Wikipedia était bien là, en parfaite santé.

Cette série d'incidents est assez semblable aux chaînes d'incidents utilisées dans l'analyse des catastrophes aériennes (modèle de Reason, aussi appelé « effet gruyère ») : pris séparément, ces problèmes ne sont pas graves, ni même visibles, mais leur combinaison a rendu Wikipedia inaccessible pendant plusieurs heures.

Cependant, ce n'est pas la fin de l'histoire.

Aussitôt le problème résolu, Mark a rapidement rédigé et publié un article sur le blog technique de Wikimedia. L'objectif était d'expliquer la cause du souci et de rassurer les utilisateurs. Mais la twittosphère était déjà en pleine ébullition, et certains utilisateurs ont eu la bonne idée d'indiquer que la passerelle sécurisée secure.wikimedia.org, elle, fonctionnait toujours. Cette passerelle, qui habituellement ne doit gérer qu'un faible trafic, a aussitôt été saturée. L'ironie, c'est que secure.wikimedia.org est hébergé sur le même serveur que le blog technique qui, du coup, n'était plus accessible. Et demander aux internautes de ne pas utiliser la passerelle sécurisée n'a eu aucun effet. Du coup, l'équipe technique a décidé de désactiver temporairement secure.wikimedia.org, afin de rendre de nouveau accessible le blog technique, et ainsi l'article qui expliquait l'origine du problème.

La situation est revenue à la normale après quelques heures, au fur et à mesure que les bases de données DNS ont mis à jour leurs entrées. secure.wikimedia.org a été réactivé peu de temps après, quand la charge serveur est redevenue raisonnable.

L'un des projets sur lesquels l'équipe technique de Wikimedia a prévu de travailler prochainement est la création d'un « indicateur de statut » (status board), qui indiquera aux utilisateurs la « santé » des sites Wikimedia à un moment donné, un peu à la manière du Google apps status dashboard. Cet indicateur, qui sera hébergé de façon indépendante, permettra de tenir les utilisateurs informés des éventuels soucis et du retour à la normale. D'autres projets sont également en cours de finalisation afin d'améliorer de façon générale les performances et la redondance de l'infrastructure opérationnelle de la Wikimedia Foundation, en accord avec les recommandations du plan stratégique. J'y reviendrai dans quelques semaines.

En manque de Cu (-ls ?)

00:11, Saturday, 03 2018 February UTC

Pour comprendre la vanne dans le titre, je vous invite à lire cet article Wikipédia.

Les vérificateurs d’adresses IP (CU) sont des bénévoles importants au bon fonctionnement du projet car ils permettent, sur le plan technique, de détecter les nuisibles.

La semaine dernière, des administrateurs se sont plaints d’un manque de réactivité des requêtes et pointent du doigt un sous-effectif.

Bien sûr, ce problème (pour certains) ne proviendrais pas d’un manque de candidatures (1 à 2 candidatures en plus des CUs en place) mais à cause du Car qui est chargé de les nommer. Et en remède, il a été proposé de se passer du Car pour faire des élections directement par la communauté.

Cette semaine, l’arbitre encore en place Mathieudu68 déplore ce comportement voulant retirer toutes prérogatives aux arbitres et répond « Alors, pour les CU et en ce qui me concerne, je considère que vous n’avez qu’à, au point où on en est, aller jusqu’au bout de votre démarche consistant à dépouiller les arbitres de leurs compétences pour les reprendre, sans demander de comptes à qui ce soit, à votre compte. Et ma réponse tient en deux mots : démerdez-vous. »

La section en question commençant à devenir tltr, je vais vous faire un résumé (commenté) du contenu.

Tous d’abord, un contributeur (non administrateur) réexplique que le Car est inutile et qu’il est possible de le court-circuiter, ce qui est cependant problématique au niveau des règles de la WMF (une partie de la section concerne la faisabilité ou non de cette action).

Un admin explique que les arbitres doivent prendre leurs responsabilités envers la communauté et ne pas dire « je n’ai pas envie de remplir mes fonctions parce que j’estime que les administrateurs ne sont pas bienveillants ». Une phrase comme « Je commence à en avoir marre de ne pas voire mes décisions appliquées et mes prérogatives contestées, alors allez jusqu’au bout du processus et ne me faîtes pas perdre mon temps » serait plus exacte.

 Les jambes sont maintenues par une barre d'écartement attachée à ses chevilles. Porte également un bâillon (BDSM) à boule.
Vous souhaitez devenir arbitre ? Indiquez que vous êtes *SM* (pas le banni) dans votre lettre de motivation.

Un autre admin n’a « pas observé une détérioration des relations admins/opérateurs », je ne peut que conseiller de prendre un rendez-vous chez un ophtalmo. Il ajoute « mais d’une part je n’ai pas vu de plainte, sous forme d’une RA ou autrement, suite à ce que je considère comme ayant dépassé les limites [les propos envers les arbitres] » : pour rappel, j’avais écrit une RA pour dénoncer des propos inacceptables, ce qui a mené à un blocage en écriture de l’administrateur ayant tenu les propos. La suite est une vraie perle : « Ce serait au CAr de s’adapter : état dans l’état, il lui est possible – je pense et ça a été fait – de demander des amendements aux initiatives des administrateurs, en principe réversible. » Le Car a effectivement demandé des amendements aux administrateurs… qui se sont empressés de voter communautairement contre, s’opposant frontalement au Car.

« il ne manquerait plus que ce soit de notre faute » , je le dis clairement : oui. Ce sont les administrateurs qui ont décidés de ne pas appliquer une décision Car. Ce sont des administrateurs qui ont tenus des propos corrosifs, voire inacceptable envers les arbitres. Ce sont les administrateurs qui s’empressent de bloquer les partis d’un arbitrage et ne veulent même pas entendre de solutions alternatives permettant de concilier justice et protection de l’encyclopédie.

Enfin je vais finir par le commentaire d’un administrateur qui rappelle qu’il ne faut pas généraliser et mettre tous les administrateurs dans le même panier. En effet de nombreux administrateurs font de la maintenance sans s’impliquer dans des sujets polémiques et font un merveilleux travail. Ne les oublions pas.

 

Couvrez ce Car, que je ne saurais voir

04:53, Sunday, 14 2018 January UTC

Couvrez ce Car, que je ne saurais voir. Par de pareils objets les âmes sont blessées, Et cela fait venir de coupables pensées.

Le comité d’arbitrage (Car) est une institution présente sur la Wikipédia francophone qui est chargé de régler les conflits entre les participants. Leurs membres sont élus par la communauté, et leurs compétences et pouvoirs sont également donnés par la communauté à travers plusieurs prises de décision successives regroupées dans ce que l’on appelle le règlement Car.

Dans un précédent billet, j’avais notamment regretté que les administrateurs se soient opposés frontalement aux arbitres en refusant d’appliquer les décisions de ces derniers.

J’avais également indiqué ne pas vouloir me représenter notamment pour la raison suivante (je cite) :

  • Il faut malheureusement constater que le Car est « inutile » en l’état, non pas à cause de la mauvaise volonté des arbitres mais simplement car la communauté (dont les administrateurs), ne reconnait pas la légitimité du Car à prendre des actions ou décisions. Si c’est pour pisser dans un violon, autant s’épargner les attaques et autres joies liées au statut.

Il faut avouer que j’ai mal digéré cette opposition frontale, qui m’avait d’ailleurs incité à rendre le balai entre le 1er juin et le 4 août 2017 et rédiger un AdQ pour changer d’air.

Puis le temps passe, et m’éloigne du Wiki-drama pour participer au WCC et rédiger un autre AdQ.

Puis voilà que je revois passer le comité d’arbitrage dans ma liste de suivi… pour me rendre compte qu’il est engagé dans une guerre d’édition !!

Je jette un œil, puis me dit qu’il y a vraiment un problème ici. En effet, des contributeurs se prennent le droit de retirer une demande d’arbitrage, voire d’ajouter une mention indiquant qu’il est impossible de déposer une demande d’arbitrage, le nombre d’arbitres étant insuffisant.

Un arbitre s’efforce alors de révoquer afin de pouvoir faire les choses dans les règles de l’art, bref faire son « travail ». Cette guerre d’édition soulève un problème qui peut tenir en un tweet :

En effet, il y a tellement peu de respect pour les arbitres actuellement en place que des contributeurs se prennent le droit de décider de la recevabilité des demandes à la place des arbitres (ce qui est une prérogative des arbitres), voire leurs empêchent même de recevoir de demandes au motif que de toutes façons ils ne sont pas assez nombreux.

Les opérations, présentés comme étant « une simple action de maintenance dans le but d’informer correctement les lecteurs de la page en question » (??!), sont en réalité une entorse à des prises de décision.

Le fait que la demande soit de toute évidence non recevable (et a été considéré comme tel par le Car) ne change rien au fait que la communauté ne fasse même pas suffisamment confiance aux arbitres pour gérer intelligemment un trollage  mais se sentent dans l’obligation d’agir à la place des arbitres, quitte à faire une guerre d’édition.

Avant que l’on me traite de je ne sais quel nom, je tiens à préciser que je n’ai rien pour ou contre le fait de supprimer le Car ou refuser les arbitrages au motif que les arbitres sont trop peu nombreux etc…

Cependant, j’aime bien quand les choses sont clairement définis, fait dans les règles et en respectant la volonté de la communauté. Lorsque j’ai lancé la prise de décision en ce qui concerne les topic-ban, je l’ai fait pour officialiser la pratique qui prenait de l’ampleur chez les administrateurs à l’époque. Cela a permis de définir clairement ce que voulais la communauté, et ainsi offrir une sécurité et pour la communauté (réduction des risques de dérapages), et pour les administrateurs (moins de risques de contestations).

Je suis simplement partisan que la communauté doit déconstruire de la même manière qu’il a construit. S’il considère qu’une prise de décision est obsolète, alors elle en lance une nouvelle pour faire les choses proprement, au lieu de privilégier une situation bancale et assez irrespectueuse pour les arbitres.

Je suis donc prêt à lancer les paris que, grâce (ou devrais-je dire à cause) a toutes ces affaires, Cangadoba sera le dernier arbitre à effectuer la fonction d’arbitre, vu qu’il y a une grande chance qu’il n’y ait aucun contributeur « sérieux » qui souhaite se prendre plein le museau, d’un coté par les protagonistes des arbitrages, de l’autre par la communauté qui lui crache littéralement à la figure (on lui dit qu’il est inutile, qu’il n’a pas à s’occuper de ce dont pour quoi il a été élu, et on refuse d’appliquer les décisions qu’il prend).

Concernant les arbitres en place, Cangadoba a déclaré lors de sa candidature qu’il ne se présentera pas une nouvelle fois et Mathieudu68 a déclaré suite à cette affaire je cite : « je n’ai sûrement pas l’intention de me représenter dans ce pathétique panier de crabes. Je me suis présenté comme arbitre pour aider, et avant je ne mettais pas les pieds sur ce genre de page, restant à contribuer dans mon coin. Hé bah putain, soyez certain que je regrette de ne pas être resté tranquille dans mon coin hein. On ne m’y reprendra pas de sitôt à jouer les bonnes poires (dans tous les sens du terme) sur ce projet d’encyclopédie. »

Enfin, Mathieudu68 a déclaré vouloir « saisir la Wikimedia Foundation de cette situation et l’informer qu’une partie des administrateurs est entrée en rébellion, sans décision ni soutien officiel de la communauté, contre l’arbcom francophone ».

Il faut avouer que l’envie m’a prise de lancer une prise de décision, mais je n’étais pas enchanté à l’idée de me prendre des critiques, contestations et perdre mon temps sur ce dossier.

Comme quoi il est assez magique de constater qu’une demande d’arbitrage manifestement irrecevable a eu le pouvoir d’achever le Car.

Les gagnants de Wiki Loves Monuments 2017 !

14:44, Monday, 04 2017 December UTC

Le jury de Wiki Loves Monuments est fier de vous annoncer les 10 images gagnantes de cette nouvelle édition 2017, la 7e en France !

En France, cette année, ce sont pas moins de 9500 images qui ont été mises en ligne par 358 personnes. En comptabilisant tous les pays participants, Wiki Loves Monuments a permis la mise en ligne de 245 000 images par près de 10 000 personnes.

Merci encore à tous les participant.e.s ainsi qu’aux contributeurs.trices de Wikimédia Commons.

1ere photo gagnante : Village martyr d'Oradour-sur-Glane par Davdavlhu

1er : Village martyr d’Oradour-sur-Glane par Davdavlhu

 

2eme photo gagnante : Abbaye de Cerisy-la-Forêt par Selbymay

2e : Abbaye de Cerisy-la-Forêt par Selbymay

 

3e photo gagnante : Château de Peyrusse-le-Roc par Krzysztof Golik

3e : Château de Peyrusse-le-Roc par Krzysztof Golik

 

4e photo gagnante : Chapelle de la Vieille Charités, par Alexrk2

4e : Chapelle de la Vieille Charités, par Alexrk2

 

5e photo gagnante : Maison Carrée, par Martin Kraft

5e : Maison Carrée, par Martin Kraft

 

6e photo gagnante : Allée couverte de Kerbalannec, par Dominique Felga

6e : Allée couverte de Kerbalannec, par Dominique Felga

 

7e photo gagnante : Brémondans, l'église de Leugney, par JGS25

7e : Brémondans, l’église de Leugney, par JGS25

 

8e photo gagnante : vue de la façade du château du Rivau depuis le conservatoire des légumes, par Aliasse16

8e : vue de la façade du château du Rivau depuis le conservatoire des légumes, par Aliasse16

 

9e photo gagnante : Quéribus sous la Voie lactée, par PhilippeContal

9e : Quéribus sous la Voie lactée, par PhilippeContal

 

10e photo gagnante : Basilique Saint-Nicolas, par GO69

10e : Basilique Saint-Nicolas, par GO69

 

L’article Les gagnants de Wiki Loves Monuments 2017 ! est apparu en premier sur Wiki Loves Monuments France.

Convent(ion)s

18:27, Wednesday, 29 2017 November UTC

J’ai eu la chance cette année de participer à quatre événements internationaux du mouvement Wikimédia : le hackathon européen à Vienne du 19 au 21 mai, Wikimania 2017 à Montréal du 9 au 13 août, la Wikiconvention francophone à Strasbourg du 19 au 21 octobre et la WikidataCon à Berlin les 28 et 29 octobre. Si je ne me trompe pas, je n’ai jamais participé à autant la même année.

À part pour la Wikiconvention, j’ai assisté à tous ces événements sur mon temps bénévole, avec une bourse de Wikimédia France pour le hackathon, une (partielle) de Wikimedia Foundation pour Wikimania, et une de Wikimedia Deutschland pour la WikidataCon: merci à ces organisations pour leur soutien.

Participer à de tels événements est toujours un moment intense, car on passe plusieurs jours en compagnie de personnes passionnées et passionnantes, qui viennent pour partager les trucs formidables qu’ils font sur les projets Wikimedia ou pour ceux-ci : c’est très motivant, c’est idées qui fusent dans tous les sens, des discussions intéressantes jusqu’à pas d’heure. Ça donne envie de se lancer dans plein de choses et on se prépare un bon gros con drop pour la semaine suivante.

Je vais ici essayer de faire le point sur comment se passe chaque événement et ce qui me motive à y aller, plutôt qu’essayer de faire un résumé de confs qui sont maintenant pour la plupart filmées et diffusées en ligne.

Hackathon Wikimedia

Photo de groupe du Hackathon Wikimedia 2017 – CC-BY-SA 4.0 Manfred Werner (Tsui)

Le hackathon Wikimedia rassemble chaque année, dans une ville européenne[1]Ou proche : en 2016 c’était à Jérusalem. environ 200 développeurs bénévoles du mouvement le temps d’un week-end. C’est intense : l’événement se déroule en continu et il est possible d’accéder aux salles pour hacker à toute heure, même si les organisateurs prévoient généralement des événements pour les soirées.

Contrairement aux hackathons institutionnels, durant lesquels des personnes ne se connaissant pas bossent ensemble le temps d’un week-end sur un projet qui partira aux oubliettes, beaucoup des gens présents travaillent ensemble toute l’année sur des outils et profitent de ce moment pour le faire en présentiel. D’autres travaillent séparément sur des outils développés au cous du week-end, mais profitent d’avoir sous la main des experts connaissant parfaitement Mediawiki et les différentes librairies et APIs dédiées et pouvant donner de précieux conseils. C’est ainsi que j’ai pu, pour ma part, créer un outil qui avait été demandé par Antoine Courtin quelques semaines avant.

J’en profite pour signaler que même si vous n’êtes pas dev, votre présence peut être utile, par exemple pour aider sur la documentation.

Wikimania 2017

Photo de groupe de Wikimania 2017 – CC-BY-SA 4.0 VGrigas (WMF)

Wikimania est le grand rassemblement mondial du mouvement Wikimedia, rassemblant chaque année des centaines de personnes.

Wikimania commence toujours par des pré-conférences, dont un hackathon qui se déroule comme le hackathon européen. Comme à Vienne, j’ai profité d’avoir des gens plus compétents que moi en JavaScript pour m’aider (en particulier, merci Tpt ;)) à finir mon premier gadget sur Wikidata : DataDrainer 2.0.[2]Ah, et je nie toute connaissance sur ces histoires de boucs. Quelles histoires de boucs, d’abord ? 🐐

La conférence abordait, comme chaque année, tous les sujets liés au mouvement avec des présentations sur des actions de grande envergure et d’autres plus confidentielles. J’ai remarqué un changement cette année cependant : j’ai la très nette impression qu’on est passés de « Wikipédia et ses projets-frères » à « Wikidata et ses projets-frères », en témoignent le nombre de présentations liées à ce projet et le fait que celles-ci soient systématiquement pleines à craquer[3]D’un autre côté, j’ai trouvé les salles dédiées aux confs Wikidata sous-dimensionnées.

Dernier point concernant cette Wikimania : Pyb et moi avons présenté un poster au sujet de Wikicheese[4]Euh, je veux dire Wikifromage ;). Et oui, il y avait du fromage de chèvre. 🐐, et organisé une dégustation dans la suite de Wikimedia Canada.

Dégustation de fromage à Wikicheese – CC-BY-SA 4.0 Ahmed Houamel

Wikiconvention francophone 2017

Photo de groupe de Wikimania 2017 – CC-BY-SA 4.0 Habib M’henni

Avance rapide de quelques mois pour la deuxième édition de la Wikiconvention francophone, qui a eu lieu à Strasbourg en octobre. C’est une déclinaison de ce qui se fait déjà depuis des années chez les germanophones et les néerlandophones : rassembler les contributeurs et contributrices de tous les pays parlant une même langue. Les problématiques concernant les projets déclinés par langue sont ainsi beaucoup plus pertinentes : les problèmes de la Wikipédia en français ne sont pas forcément ceux de la version anglophone.

Étant là sur mon temps de travail, je me suis concentré sur les présentations les plus techniques, notamment une table ronde sur les besoins tech de la Wikipédia en français, qui devrait aboutir sur un pré-hackathon dans le sud de la France le mois précédant le prochain hackathon européen à Barcelone. Stay tuned 😉

La prochaine édition de la Wikiconvention elle-même aura a priori lieu à Grenoble en août prochain.

WikidataCon 2017

Photo de groupe de Wikimania 2017 – CC-BY-SA 3.0 Rama

Dernier événement, une semaine plus tard : la WikidataCon. Il s’agit ici de rassembler les contributeurs et contributrices de Wikidata au moment du 5e anniversaire du projet. C’est la première édition de cet événement et elle est très prometteuse, notamment grâce au soin apporté aux détails lors de l’organisation. Ainsi, au delà des efforts d’accessibilité qui sont devenus standards dans les événements Wikimédiens,  on peut noter l’insistance sur le respect de la friendly space policy, la précaution de mettre des toilettes gender-neutral ou un espace isolé pour les gens qui auraient besoin de récupérer, le soin particulier apporté à la restauration (clairement la meilleure cette année, et pourtant Wikimania avait mis la barre haut) et au fait qu’elle ait été pensée pour que tout le monde y trouve son compte.

La prochaine édition aura lieu à Berlin dans deux ans, mais en attendant Wikimedia Deutschland nous incite à organiser des événements de moindre ampleur vers la fin octobre prochain. Peut-être en France ?

Et l’an prochain ?

Comme je l’annonce plus haut, plusieurs événements d’envergure sont à prévoir en France dans l’année à venir : je vais essayer d’y être et je vous invite à venir aussi. Je vais aussi essayer d’aller au FOSDEM (à Bruxelles) et au Hackathon Wikimedia. Par contre, je pense que je vais passer mon tour pour Wikimania, même si l’Afrique du Sud est une destination tentante.

Image d’en-tête : The Convent, or The Great He-Goat 🐐, par Francisco de Goya y Lucientes (domaine public)

Notes   [ + ]

1. Ou proche : en 2016 c’était à Jérusalem.
2. Ah, et je nie toute connaissance sur ces histoires de boucs. Quelles histoires de boucs, d’abord ? 🐐
3. D’un autre côté, j’ai trouvé les salles dédiées aux confs Wikidata sous-dimensionnées.
4. Euh, je veux dire Wikifromage ;). Et oui, il y avait du fromage de chèvre. 🐐

Cet article Convent(ion)s est apparu en premier sur The Ash Tree.

Tor (II)

19:13, Friday, 24 2017 November UTC

J’avais promis en décembre 2015 de vous parler des relations entre Wikipédia et Tor. Malheureusement je n’ai pas tenu parole. Afin de me rattraper, je vais vous présenter un projet en cours concernant ces deux projets (en réalité, je vais me contenter de traduire).

>>  Grants:IdeaLab/A Tor Onion Service for Wikipedia

Idée du projet

Quel est le problème que vous tentez de résoudre ?

Les utilisateurs voulant lire Wikipédia tout en protégeant leurs vie privée peuvent déjà utiliser le navigateur Tor pour lire Wikipédia. Cependant un service .onion va augmenter leurs vie privée au sens que les utilisateurs ne quitteront jamais le réseau Tor.

Les discussions concernant Wikipédia et Tor sont récurrent depuis 2006, en particulier pour déterminer s’il faut autoriser ou non les utilisateurs d’éditer Wikipédia via Tor. Le principal obstacle à cela est l’impossibilité pour le moment de trouver un moyen d’éviter les abus via Tor, en particulier en ce qui concerne les faux-nez. Cette proposition ne touche ce sujet que de manière tangentielle, car son objectif n’est pas de plaider en faveur d’un élargissement des politiques existantes en matière d’édition sur Tor.

Quelle est votre solution ?

La solution consiste à construire un proxy servant Wikipédia en lecture et en écriture en tant que service .onion faisant partie intégrante du réseau Tor.

Objectifs du projet

  1. Donner aux utilisateurs une nouvelle manière d’acceder à Wikipédia avec une plus grande garantie pour vie privée
  2. Supporter Tor en tant que technologie supportant la vie privée

Éventuellement, si ce projet est un succès ce proxy pourra être dirigé directement par la Foundation Wikimedia (WMF), afin d’éliminer une tierce partie qui pourrait agir en tant qu’homme du milieu.

Informations complémentaires

Un service .onion Tor (ou service caché) est un site qu’un utilisateur peut visiter ou un service qui utilise la technologie Tor pour assurer la sécurité et, si le propriétaire souhaite, l’anonymat à ses utilisateurs. Des exemples de services cachés sont l’application de messagerie ricochet ou le proxy .onion d’Internet Archive. [NdTr : Il existe également un .onion Facebook].

Le proposant fait remarquer qu’avoir un service .onion pour Wikipédia peut être potentiellement très utile pour les lecteurs tout en ayant un petit impact sur le processus d’édition actuel.

Proposition

Pour le moment, éditer Wikipédia à travers Tor est inpossible et, à ma connaissance, il n’y a aucun .onion servant Wikipédia. Les utilisateurs souhaitant éditer Wikipédia via Tor ont besoin de demander le statut IP block exemption. [NdTr : la version globale vous permettra d’éditer partout sauf sur wp-en].

L’idée de mettre en place le service consiste à :

  1. des proxys Wikipédia pour pouvoir être lu à travers le service caché ;
  2. utiliser OAuth (qui est activé sur Wikipédia) afin qui utilisateur puisse éditer Wikipédia via le service en utilisant son propre pseudonyme (seulement pour les utilisateurs disposant déjà du statut IP block exemption).

Changement de politiques

Cette proposition ne va entraîner aucun changement dans les politiques actuelles parce que les utilisateurs souhaitant éditer doivent continuer à demander le statut. Une autre chose intéressante serait d’ajouter une procédure sur Tor pour demander une telle exemption. En ce sens, la politique de non-proxies ouvertes reste la même.

Bénéfices

Comment un service .onion peut être bénéfique aux lecteurs de Wikipédia ?

  1. Nous savons que Wikipédia – par exemple les serveurs de la WMF – ont fait l’objet de surveillance de masse par des agences gouvernementales [NdTr : coucou PRISM]. Un tribunal de 4e circuit aux États-Unis a récemment statué à l’unanimité que cette activité conférait un statut à la Wikimedia Foundation dans son procès contre la NSA.
  2. Donner la possibilité de visiter Wikipédia de façon anonyme évite le risque que la Wikimedia Foundation puisse être contraint légalement à fournir des informations sur ses visiteurs [Ndtr : pas des contributeurs].
  3. Donner un proxy qui, de par l’architecture des services cachés, ne peut pas être subjet aux censures gouvernementales comme pour le cas récent de la Turquie.
  4. Fournir un service caché protège les utilisateurs contre les nœuds de sortie Tor malveillants. Étant donné le fonctionnement de Tor, les nœuds de sortie sont en position d’écoute des communications vers le site Web de destination que l’utilisateur veut atteindre (dans ce cas, Wikipedia). La recherche a montré que si un utilisateur navigue sur plusieurs sites Web et fuite des informations sur son identité sur l’un de ces sites, ces informations peuvent être utilisées par un nœud de sortie malveillant pour dé-anonymiser le trafic vers d’autres sites provenant du même utilisateur. Dans le cas de Wikipédia, ce risque est limité par le fait que Wikipédia est servi via HTTPS avec HTTP Strict Transport Security.

Alors que les avantages décrits aux points 1. et 2. ci-dessus peuvent être obtenus en visitant le site Web wikipedia.org en utilisant un navigateur compatible Tor, un service caché est nécessaire pour prévenir le risque associé aux nœuds de sortie malveillants.

Comment un service .onion Wikipédia est bénéfique à notre mission en général

En général, on peut affirmer que la généralisation de Wikipédia répond bien à la mission de notre mouvement. Cependant, fournir Wikipédia sur Tor permettrait de faire connaître Tor comme une technologie de protection de la vie privée des utilisateurs : rendre un site web largement accessible via Wikipédia via un service .onion permettrait non seulement aux utilisateurs soucieux de la vie privée de naviguer sur Wikipédia, mais cela rendrait également le sinistre « darknet » un peu plus semblable au « clearnet », c’est-à-dire Internet. Ceci est essentiel pour diffuser l’utilisation de Tor parmi les utilisateurs « moyens ».

Risques

Cela peut-il être utilisé par des éditeurs malveillants (vandales, spammeurs, faux-nez) ?

Non, les utilisateurs sous IP contineront d’être bloqué et les utilisateurs inscrits (éditant sous leur propre pseudonyme) continuront de devoir demander le statut.

Quelles autres problèmes peuvent être liées à une distribution de Wikipédia via un proxy anonyme ?

Si le service est largement utilisé, cela peut fausser quelques unes de nos statistiques & anayses dans le sens où nous verrons simplement une augmentation du traffic venant de Wikipédia par le réseau Tor.

Challenges

Quels challenges avons-nous besoin de surpasser pour que ce projet soit un succès ?

Nous avons besoin de logiciels pour rediriger Wikipédia et fournir une authentification OAuth aux utilisateurs. Certaines solutions existent déjà et pourraient être améliorées ou adaptées à ce cas d’utilisation :

Et concernant l’installation du service et sa maintenance ?
  1. Nous avons besoin d’expertises pour installer et maintenir le service .onion ;
  2. un service similaire mis en place par Internet Archive a été attaqué par différents robots déviants, ce service devrait donc être configuré et configuré pour atténuer ces attaques sans affecter les utilisateurs réguliers. Des étapes d’atténuation sont disponibles ici.
  3. DDoS contre l’oignon / service caché. Cela n’aura pas d’impact sur Wikipédia, mais cela pourrait rendre le service indisponible. Des étapes d’atténuation sont disponibles ici.
  4. Entretien constant. De nouvelles versions de Tor sont publiées souvent (tous les quelques mois). Ce logiciel devrait être tenu à jour.

FAQ

Comment Tor fonctionne ?

En des termes très généraux, une connexion à un site internet via Tor fonctionne ainsi :

  1. Le navigateur utilisant Tor demande un « circuit » à Tor
  2. Le navigateur établie une connexion chiffrée avec le réseau Tor, la connexion passe par trois serveurs : l’entrée (un guard), le milieu (middle) et la sortie (exit). À chaque étape, une couche de chiffrement est supprimée afin qu’aucun nœud n’ait une connaissance complète de la connexion. Les connexions à des sites Web et à des services et des sites Web sur le clearnet émergent uniquement des noeuds de sortie

Comment un service caché fonctionne ?

Un service est mis en place sur un serveur et se connecte au réseau Tor, en sélectionnant de manière aléatoire certains relais dans le réseau et leur demande d’agir en tant que points d’introduction. Ensuite, le service caché assemble un descripteur de service caché, contenant sa clé publique et un résumé de chaque point d’introduction. A partir de ce processus, une chaîne de 16 chiffres identifiant le service est calculée, cette chaîne suivie de .onion sera l’adresse du service caché. Le service caché et les points d’introduction sont ensuite annoncés dans une base de données publique partagée disponible via le réseau Tor. Lorsqu’un utilisateur souhaite contacter un service caché, il établit un point de rendez-vous avec le service considéré comme l’un des points d’introduction. Enfin, l’utilisateur et le service se connectent au point de rendez-vous avec le réseau Tor. Le service et l’utilisateur se connectent tous deux au réseau Tor via des circuits Tor (comme décrit ci-dessus), de sorte que leurs adresses IP réelles sont inconnues l’une de l’autre.

Quelle est la différence entre un noeud de sortie et un service caché ?

Avec le navigateur Tor, vous pouvez visiter n’importe quel site internet (aussi appelé « clearnet ») et les services cachés (appelés « darknet », puisque ces sites ne sont accessibles que via Tor). Un utilisateur se connectant au réseau Tor se verra attribuer un circuit, c’est-à-dire que ses connexions à n’importe quel site Web seront acheminées dans le réseau Tor à travers plusieurs nœuds (ou « bonds »). Si vous voulez visiter un site Web sur le clearnet (disons wikipedia.org) le navigateur se connecte à un nœud d’entrée, la connexion est ensuite transmise à un nœud intermédiaire et enfin à un nœud de sortie. Cette connexion est configurée de manière à ce que plusieurs couches de chiffrement soient « décollées » lorsque la connexion est transférée d’un nœud à l’autre (d’où le nom Tor, c’est-à-dire le routeur Onion).

Les nœuds de sortie sont les plus problématiques à exploiter car ils sont le point d’où le trafic émerge du réseau Tor pour contacter les sites Web sur Internet. Ils sont les plus problématiques de deux façons :

  1. si certains utilisateurs abusent du réseau Tor à des fins malveillantes (par exemple ils mettent en place un bot insérant du spam dans les commentaires d’un site web, et changent fréquemment de circuit pour que leur adresse IP change et ne puisse pas être bloquée), le noeud de sortie sera identifié et marqué comme « serveur malveillant ».
  2. Si l’utilisateur visite un site Web via HTTP (et non HTTPS), un noeud de sortie malveillant est capable d’espionner le trafic lui-même vers le site Web de destination. Même si le noeud de sortie ne connaît pas l’adresse IP d’origine de l’utilisateur, ce trafic peut contenir des informations sensibles ou d’autres données pouvant conduire à dé-anonymiser un utilisateur.

Un service  caché est un site web qui n’est servi que par le réseau Tor. Lorsqu’un utilisateur se connecte à un service caché, cette connexion ne quitte jamais le réseau Tor.

Billet de blog sous  licence Creative Commons Attribution-partage dans les mêmes conditions (auteurs|source).

Voir aussi T168218 - Tor hidden service for WMF websites

Alors docteur, c’est un garçon ou une fille ?

18:33, Wednesday, 15 2017 November UTC

Aujourd’hui, nous allons nous intéresser à une question fondamentale (bien moins que l’orthographe de la capitale japonaise ou des PàS cependant).

Devons-nous dire ?

  • Wikipédia est tellement belle, elle ne devrait pas s’exposer ainsi à des inconnus !
  • Wikipédia est tellement beau, il ne devrait pas s’exposer ainsi à des inconnus !
  • Le wikipédia est tellement beau, il ne devrait pas s’exposer ainsi à des inconnus !
  • La wikipédia est tellement belle, elle ne devrait pas s’exposer ainsi à des inconnus !

D’après un sondage sur Twitter, 58 % des gens considèrent que la première proposition est la bonne. Mais est-ce LA BONNE™ réponse ?

Photographie d'une page du Larousse Poche 2014

Comme tout bon Wikipédien qui se respecte, mon premier réflexe est de rechercher une source fiable. Ainsi, mon Larousse de poche 2014 affirme que Wikipédia est un nom propre. Adieu donc les noms communs.

Pour le reste, voici un petit sondage de 2006 😉

Il semble que dans la pratique, le féminin est plus utilisé.

FIN

QPC : explications

15:40, Thursday, 02 2017 November UTC
Les domaines nationaux sont des ensembles immobiliers présentant un lien exceptionnel avec l'histoire de la Nation et dont l'Etat est, au moins pour partie, propriétaire.

Ces biens ont vocation à être conservés et restaurés par l'Etat dans le respect de leur caractère historique, artistique, paysager et écologique.

> Article L621-34 : Code du patrimoine

On est ici en face d’une copyfraude légalisé puisque photographier sans autorisation ces anciens bâtiments dans un but commercial est illégal.

L'utilisation à des fins commerciales de l'image des immeubles qui constituent les domaines nationaux, sur tout support, est soumise à l'autorisation préalable du gestionnaire de la partie concernée du domaine national. Cette autorisation peut prendre la forme d'un acte unilatéral ou d'un contrat, assorti ou non de conditions financières.

La redevance tient compte des avantages de toute nature procurés au titulaire de l'autorisation.

L'autorisation mentionnée au premier alinéa n'est pas requise lorsque l'image est utilisée dans le cadre de l'exercice de missions de service public ou à des fins culturelles, artistiques, pédagogiques, d'enseignement, de recherche, d'information et d'illustration de l'actualité.

Un décret en Conseil d'Etat définit les modalités d'application du présent article.
> Code du patrimoine - Article L621-42

Ainsi, la distribution sous licence Créative Common (sauf CC-BY-NC-ND, CC-BY-NC-SA et CC-BY-NC), licences utilisées pour les illustrations sur Wikipédia et Commons, est devenue illégalle car elles autorisent explicitement une réutilisation commerciale.

Les associations Wikimedia France et La Quadrature du Net ont déposé une Question prioritaire de constitutionnalité (QPC) afin que le Conseil Constitutionnel (CC) s’exprime sur la légalité (ou non) de cet article L621-42.

Le conseil d’état, chargé de filtrer ces questions, a transmis la QPC au CC aujourd’hui.

[Lire la décision de renvoi]

Affaire à suivre…

WikiConvFR, Strassburg edition

10:25, Wednesday, 01 2017 November UTC

Le retour de la suite - et ce que vous avez manqué.

Œuvres emblématiques

21:05, Saturday, 07 2017 October UTC

À

la base, c’était un fil reddit sur les œuvres les plus emblématiques de chaque pays d’Europe. Une chouette idée : pour chaque pays, déterminer quelle œuvre est la plus représentative et la placer sur un fond de carte[1]. On y trouve à peu près tout ce à quoi on s’attend : La Joconde, Le Cri, La Jeune Fille à la perle, etc. C’est extrêmement cool.

Une carte d'Europe avec en fond pour chaque pays une œuvre qui en serait emblématique
La carte en question

Évidemment, après, on se demande si on ne pourrait pas être un peu plus rigoureux. Déjà, ça mélange les peintures et les sculptures (et ces dernières rendent moins bien sur la carte). Et puis ça veut dire quoi, exactement, « l’œuvre la plus emblématique » ? halfabluesky, l’auteur de la carte, ne cache pas avoir œuvré de façon subjective, les recensant avec ce qu’il connaissait et avec Google pour le reste. Et puis la correspondance par pays n’est pas très stricte (surtout vers l’est de l’Europe, là où les frontières ont pas mal bougé depuis deux siècles[2]). Est-ce qu’on ne pourrait pas aller plus loin, toutefois ?

Comment mesurer l’importance d’une œuvre ? Je me suis souvenu d’une approche détaillée il y a quelques années pour déterminer les œuvres les plus influentes du 20e siècle : compter le nombre de fois que leur reproduction apparaît dans les manuels scolaires publiés entre 1995 et 2005. Eh, c’est une approche qui vaut ce qui vaut, certainement contestable, statistiquement contestable. Mais après tout, ça donne un résultat et il n’est pas totalement délirant. Pourquoi pas, après tout. C’est une idée.

Considérons, pour les besoins de ce billet de blog, qu’une œuvre est d’autant plus importante qu’elle existe sur de nombreuses versions de Wikipedia (et donc potentiellement connue tout autour du globe). Limitons-nous aux peintures[3] : grâce à la magie de Wikidata, il est possible de récupérer les œuvres peintes au siècle précédent et qui comptent un article sur au moins 5 Wikipedias (ici, la requête SPARQL). À l’heure où j’écris ces lignes, on en compte 189. Sur le podium, Guernica de Picasso, La Persistance de la mémoire de Dalí et Le Baiser de Klimt. Ça semble cohérent. L’approche semble valable.

Revenons à notre carte. Comment lier une œuvre à un pays, alors qu’il n’est même pas sûr que celui-ci existait déjà à l’époque où l’œuvre a été créée[4] ? Allons au plus simple : considérons le lieu de naissance de l’artiste et contentons-nous de regarder dans quels pays actuels il est situé. Bref, il nous faut une requête qui :

  1. considère les peintures ayant un auteur de renseigné[5]
  2. regarde son lieu de naissance[6]
  3. détermine dans quel pays celui-ci se situe
  4. calcule, pour ce pays, quelle peinture à le plus d’entrées en différentes langues sur Wikipédia

Ça tombe bien : c’est totalement faisable[7].

Arrivé là, je me suis dit qu’on pourrait aller plus loin et générer automatiquement une carte similaire à celle du début. Mon approche : prendre une carte du monde au format svg, récupérer les données de Wikidata et utiliser les images comme motif pour les pays appropriés. Au final, j’en ai fait un mini-site. C’est pas bien rapide, c’est lourd, c’est du brutal, mais ça marche[8] !

Une carte du monde présentant, pour les pays où c'est possible, la peinture qui a un article dans le plus de langues sur Wikipédia.
Un monde de peintures

Du coup, quelques remarques :

  • Si on se fie à cette carte, la peinture serait essentiellement un art de l’Europe du 19e siècle.
  • Il faut des entrées sur Wikipédia pour apparaître. La pauvreté du traitement des pays africains est un réel problème[9].
  • De même, si votre pays a traditionnellement privilégié d’autres modes d’expression que la peinture, ou si le concept d’auteur a pu y être moins important, il ne sera pas présent. Aucun résultat en Thaïlande ou en Corée, vraiment ?
  • Sur 115 entrées (un pays peut avoir plusieurs entrées ex-aequo), 30 n’existent que sur une seule Wikipédia : 15 pays ne sont donc représentés que par des peintures présentes dans une seule langue. 82 entrées (47 pays sur 78) n’existent qu’en 5 langues ou moins. Difficile dans ce cas de parler de tableaux « connus » ou « emblématiques »…
  • Lier le lieu de naissance de l’artiste au pays n’est pas forcément bien probant. L’île Maurice est représentée par Henri Le Sidaner, peintre français né à Port-Louis avant d’être ramené en métropole. Pour l’Égypte, c’est le peintre grec Konstantinos Parthenis qui s’y colle.
  • La représentation des données sur Wikidata est importante. Russie et Ukraine sont représentée par le même tableau : La Neuvième Vague. Ivan Aïvazovski est né en Crimée, une région actuellement indiquée comme appartenant en même temps à la Russie et à l’Ukraine sur Wikidata…

(Image d’en-tête : détail de La Liberté guidant le peuple, par Eugène Delacroix (domaine public).)


Notes :
  1. Ce billet comporte des notes de bas de page. Tout le monde aime les notes de bas de page, non ?
  2. De toute façon, si on habite l’ouest de l’Europe, on n’y connait rien à l’art est-européen (« Des icônes, c’est ça ? »). L’Europe de l’Est nous en veut pas mal, d’ailleurs.
  3. Si on voit large et qu’on prend en compte l’intégralité des œuvres d’art (Q838948 sur Wikidata), on se retrouve avec en tête Bambi, Dumbo et la statue du Christ Rédempteur à Rio. En restraignant aux seuls arts visuels (Q4502142) : Guernica, Peanuts et La Bille bleue, la photo de la Terre prise par l’équipage d’Apollo 17. Éclectique.
  4. Ou alors, le pays existait, mais le lieu a changé de main. Ou le concept de pays n’était même pas pertinent. Mais nous sommes sur un simple billet de blog et notre idée de départ – les œuvres emblématiques d’un pays – est déjà passablement peu précise. Bref.
  5. Tu es une œuvre anonyme ultra connue ? Désolé, tu n’apparaîtras pas ici. Je sais, c’est pas super inclusif, j’y peux rien, c’est ma méthodo, pas toi.
  6. On ignore où tu es né ? Même punition.
  7. Merci, Shonagon.
  8. Je suis sûr qu’on pourrait utiliser un fond de carte OpenStreetMap à la place d’un fichier svg. Une idée à creuser.
  9. Assez surpris de l’absence totale de peinture islandaise sur Wikipedia, en passant.

Cet article Œuvres emblématiques est apparu en premier sur The Ash Tree.

Older blog entries