Formats d’intervention Il y a quelques jours, nous avons publié
l’appel à programme et ses trois thèmes : liberté, équité,
fiabilité. Pour plus de détails sur les thèmes et les raisons qui
nous ont poussés à les choisir, rendez-vous sur le billet de blog
“Appel à programme”. Lire notre billet de blog sur l’appel à
[…]
En juillet 2026 et pour la première fois, Paris accueille 1.000
wikimédiens et wikimédiennes du monde entier pour la Wikimania.
Cette édition n’est pas comme les autres : nous célébrerons
ensemble les 25 ans de Wikipédia et réfléchirons au futur du
mouvement Wikimédia. Pour que cet événement reflète la vitalité de
notre communauté, l’équipe d’organisation […]
À l’occasion de son 25ème anniversaire, Wikimédia France dévoile
aujourd’hui les premiers chiffres exclusifs d’une enquête
d’envergure menée par le laboratoire Marsouin. Cette étude, dont
les résultats complets et détaillés seront publiés en juin 2026,
révèle comment Wikipédia est devenue l’infrastructure de confiance
majeure des Français pour accéder à la connaissance. Ces premiers
enseignements dévoilés […]
Wikipédia a 25 ans : Célébrons un quart de siècle d’utopie
réalisée ! Le 15 janvier 2026, Wikipédia franchit le cap historique
des 25 ans. Ce qui n’était en 2001 qu’un « rêve » est devenu
aujourd’hui l’un des biens publics numériques les plus précieux au
monde. Pour célébrer ce quart de siècle d’une « […]
Nos derniers communiqués de presse 13 janvier 2026 – À Paris,
Wikipédia célèbre ses 25 ans aux Archives nationales À quelques
jours du 25ᵉ anniversaire de Wikipédia, le 15 janvier, Wikimédia
France officialise un partenariat avec le Centre national d’études
spatiales (CNES) afin de rendre les connaissances scientifiques,
spatiales et climatiques accessibles au plus grand […]
Un nouveau cycle de résidences Wikimédia pour l’enseignement
supérieur et la recherche Depuis 2023, les résidences Wikimédia
menées en partenariat entre Wikimédia France et le Ministère de
l’Enseignement supérieur et de la Recherche (MESR) ont installé
Wikipédia et les projets Wikimédia au cœur de l’enseignement
supérieur et de la recherche. Après six résidences au sein […]
Du 2 au 5 décembre 2025, Wikimédia France organise la Semaine de
la Générosité, un temps fort pour mettre en lumière toutes les
formes de générosité, des bénévoles et donateurs qui animent
Wikimédia France, et les projets comme Wikipédia, Wikidata ou
Wikimedia Commons. Cet événement débutera à l’occasion du Giving
Tuesday, le 2 décembre, journée […]
Un succès pour la photographie du patrimoine français Le
concours Wiki Loves Monuments (WLM) a repris cette année ! Il
invite les passionnés de photographie et d’histoire à documenter,
sous licence libre, les merveilles architecturales de notre
territoire. L’objectif est clair : enrichir Wikimedia Commons et
Wikipédia, permettant ainsi le libre partage de la connaissance et
[…]
أول تجمع للويكيبيديين الجزائريين رأى النور أخيرًا. هذا التجمع
هو مجموعة تطوعية تضمُّ مستخدمين جزائريين وغير جزائريين، داخل
الجزائر وخارجها، يستعملون مشاريع ويكيميديا لإعادة توظيف المعارف
المفتوحة والمتاحة مجانًا، بما يسهل الاستفادة منها. وفي أوقات
فراغهم، يساهمون طوعًا في إثراء المعرفة الموسوعية.
ويتمثل هدفهم الأساسي في توضيح كيفية مشاركة وتطوير ونشر المعرفة —
التعليمية والثقافية والتاريخية وغيرها — المتوفرة تحت التراخيص
المجانية، مع مراعاة قوانين الملكية الخاصة وحقوق التأليف والنشر
محليا وعالميا.
نتمنى أن تكون إنجازاتهم معتبرة وملموسة في نشر العلم
وتطوير المحتوى بالخصوص عن الجزائر بكل اللغات.
Un tournant pour les communs numériques en Europe : la création
de l’EDIC Digital Commons Un consortium inédit pour bâtir un
numérique européen ouvert, souverain et collaboratif De la
présidence française de l’UE à l’ambition européenne des communs
numériques Au début de l’année 2022, sous la présidence française
du Conseil de l’Union européenne, la France […]
L’Open Heritage Statement : Un pas de plus pour Wikimédia France
vers le libre partage du patrimoine mondial Le 15 octobre 2025,
Wikimédia France a signé l’Open Heritage Statement, une déclaration
internationale qui unit des institutions culturelles, des
organisations et des gouvernements autour d’un objectif commun :
libérer l’accès à la culture et au […]
Wikipédia est un site web
collaboratif, mais dès que l'on souhaite faire une modification en
masse, il faut demander l'autorisation. Il en est ainsi pour
afficher de nombreux liens vers un site internet. Le pied de page
des articles proposés sur la Wikipédia francophone est
particulièrement riche en liens externes. Il est géré par le
projet
Bases qui permet d'afficher automatiquement des informations
stockées dans Wikidata. Le modèle économique de l'encyclopédie ne
nécessite pas de conserver l'internaute sur la plateforme, du coup,
il n'est pas rare de trouver des articles Wikipédia comportant des
dizaines ou des centaines de liens vers d'autres sites web. Cela
contribue à la découvrabilité de ressources de qualité. Exemple
:
Concrètement, il suffit d'ajouter cinq
lettres (le modèle Liens) dans
l'article consacré à Esther
Duflo, pour que l'article affiche automatiquement une
cinquantaine de liens externes susceptibles d'intéresser
l'internaute. Voyons comment cela fonctionne à l'aide d'un exemple
:
Archelec, les archives électorales de
Sciences Po
Propriété Wikidata
Si ce
n'est pas déjà fait, il faut proposer une nouvelle
propriété. Quelques semaines plus tard, il est possible
d'ajouter des informations dans Wikidata. Cela consiste à ajouter
aux éléments Wikidata des députés, la
propriété P12865 "identifiant
d'une personne sur Archelec" et
l'identifiant d'Archelec. Exemple : propriété,
débat de proposition.
Aligner Wikipédia et
Archelec
Plusieurs méthodes ou outils
permettent de faire ce travail d'alignement entre Wikipédia et
Archelec. J'ai utilisé l'outil Mix'n'match développé par
Magnus
Manske, biochimiste au Wellcome Sanger Institute et développeur
bénévole de nombreux outils pour Wikimédia. Il faut
dans un premier temps importer les données dans Mix'n'Match. Étape
réalisée par le wikimédien Kirilloparma : https://mix-n-match.toolforge.org/#/catalog/6364.
Il y a plusieurs façons
d'utiliser Mix'n'Match. Archelec comporte les professions de
foi des candidats aux législatives. Or Wikipédia ne consacre
d'articles qu'aux candidats élus aux élections législatives, soit
2200 identifiants sur les 33000 dans Archelec. J'ai donc utilisé le
mode "Ne rechercher que dans ce catalogue" accessible via le menu
Action. Il faut saisir le nom des députés dans le moteur de
recherche. Les noms sont récupérés des pages de résultats des
élections, par exemple :
https://fr.wikipedia.org/wiki/Élections législatives de 1978 en
Ille-et-Vilaine.
Tout en bas de la page, il y a une boîte de navigation permettant
de naviguer entre les départements et les petites flèches
permettent de changer d'année.
La recherche peut donner les cas suivants :
Wikipédia et Archelec sont déjà
alignés, il n'y a rien à faire.
L'alignement suggéré est exact, il
faut cliquer sur confirmer pour publier l'information sur
Wikidata.
L'alignement suggéré est erroné, il
faut cliquer sur supprimer puis saisir l'identifiant
Wikidata. Wikidata se mettra à jour.
Aucun élément d'associé ou de
préassocié, il faut saisir l'identifiant Wikidata. Wikidata se
mettra à jour.
Module Bases
La prochaine étape consiste à
demander l'autorisation d'afficher automatiquement ces identifiants
Archelec en pied de page des articles de la Wikipédia francophone.
Il faut pour cela déposer la demande sur le projet Bases et
attendre plusieurs semaines. Si la demande est approuvée, il faut
que quelqu'un configure le module Lua correspondant. Dans le cas
d'Archelec, il s'agit de Module:Bases/vie
publique. Puis la mise à jour des articles se fait
automatiquement mais prend un peu de temps (24h à 48h pour les deux
milliers de liens d'Archelec).
Des comptes rendus de
violations de contraintes sont générés. Cela permet de détecter
des erreurs d'alignement, par exemple est-ce que tous les éléments
sur lesquels figurent un identifiant Archelec sont des êtres
humains ?
La dernière étape consiste à
vérifier que tous les articles Wikipédia contiennent le modèle
affichant automatiquement Archelec. Pour cela, il faut
utiliser PetScan, un
outil également codé par Magnus Manske :
Indiquer dans le premier onglet Page utilisant
P12865 à la ligne
Categories.
Indiquer dans le quatrième onglet la requête SPARQL suivante
qui permet d'obtenir la liste des éléments Wikidata qui comportent
la propriété P12865.
SELECT
?item
WHERE
{?item wdt:P12865 ?archelec.}
Et tout en bas de la page, dans la ligne
Combination, il faut indiquer sparql
NOT categories.
Voici la configuration complète (https://petscan.wmcloud.org/?psid=35376995)
qui permet d'obtenir la liste des articles Wikipédia qui
n'affichent pas Archelec parce que le modèle
Liens est absent. Il faut généralement remplacer
les lignes :
* {{Autorité}} * {{Bases}}
...
par :
{{Liens}} # ne mettez pas d'astérisque
Voilà comment ajouter des centaines ou des milliers de liens
vers une ressource externe de qualité :
▲L'édito — Les
réflexions sur la modernisation de cette wikilettre se poursuivent.
Dans ce cadre, nous aimerions créer de nouvelles rubriques. Vos
suggestions sont les bienvenues en salle de
rédaction : dites-nous ce que vous aimeriez lire dans
les RAW, ou ce que vous voudriez y écrire !
C'est dans cette perspective que nous lançons un premier
appel à
commentaires afin de co-rédiger un futur dossier relatif à
la possibilité de modifier Wikipédia sans créer de compte
(actuellement sous IP, prochainement sous compte temporaire).
▲2033 – Adieu joli
wiki ? — Une projection de régression
linéaire basée sur les données Google Trends laisse entendre que
l'intérêt et l'utilisation continuera de décroître, menant
Wikipedia à cesser d'exister le au profit des LLM. A-t-on oublié de
préciser le caractère humoristique de cette brève ?
▲Wikipédia / Le
Point : clôture de la lettre ouverte et réponse aux mises
en demeure — Dans le dernier numéro des RAW, nous vous
parlions de la controverse opposant le magazine français
Le Point à
Wikipédia en français. La
lettre ouverte a été close le . En trois semaines, elle a rassemblé
1 155 signatures de contributeurs de notre wiki ou
d'autres. Aelxen a compté que le cumul des
contributions des signataires sur la seule version francophone
s'élevait à environ 22 900 000, soit environ 10 % du
total des modifications effectuées sur
l'encyclopédie depuis sa création.
Le Point a cessé ses publications hostiles à Wikipédia,
après une série de neuf articles en onze jours — du jamais vu.
Les avocats du magazine ont en revanche adressé une deuxième mise
en demeure à la WMF, dans laquelle ils maintiennent leurs demandes
de censure de l'article Le Point, en dépit des améliorations apportées par
la communauté, et dans laquelle ils qualifient la lettre ouverte de
« diffamatoire ».
C'est ce que nous avons appris au détour d'un message incisif
publié sur le Bistro par Phil Bradley-Schmieg au nom du
service juridique de la WMF. Ce dernier indique clairement ne pas
donner suite aux exigences éditoriales du Point et soutenir
la lettre ouverte. Plus encore, il souligne, après avoir regretté
l'absence d'excuses de la part du magazine, les « graves erreurs et malentendus » que
contient la première mise en demeure. Non sans un brin de
causticité, le service juridique indique avoir « proposé d'expliquer le fonctionnement de
Wikipédia au Point et à ses avocats ». À
suivre.
▲Au Comité d'arbitrage, un élu
esseulé — Le CAr n'a pas terminé de casser
des claviers sous de douces mélodies un peu naïve de refonte.
Les élections
de mars 2025 s'achèvent avec l'élection d'un arbitre. Mais
concrètement, que
se passera-t-il ensuite ? Ce qui est certain, c'est que le
quorum de trois arbitres minimum n'est pas rempli pour relancer le
CAr. Peut-être serait-ce l'occasion d'engager le processus de
déconstruction et de création d'un nouvel
organe tel que suggéré par plusieurs contributeurs dans les votes
et discussions ? La communauté semble en effet attachée à
l'existence d'un organe type CAr, comme en témoignent cette
élection et, précédemment, le refus répété (2016,
2018,
2021) de
dissoudre le CAr sans instance pour le remplacer.
▲Coups de griffes —
Un conflit oppose la cabale féline et
d'autres bénévoles, excédés par la profusion d'images de chats sur
le Bistro. Les tensions se sont envenimées à la suite d'une
proposition de passage en recommandation de la page Wikipédia:Ne mordez
pas les chats, jugée discriminante à l'égard des poissons-chats. Plusieurs RA ont été déposées
en mars, mais n'ont toujours pas été traitées ; un
contributeur, soupçonnant les administrateurs de partialité, a
réclamé qu'ils indiquent s'ils portent ou non la moustache. C'est
en tout cas ce que rapporte le magazine français La Virgule
qui, renseigné par un certain « Marcel Wiki » et faisant
état des accusations lapidaires d'un concessionnaire automobile qui
jouit d'une certaine notoriété outre-Atlantique, s'inquiète d'une
dérive ailurophile de l'encyclopédie. Sur le
Bistro, des commentateurs avisés ont jugé que cet article faisait
fausse route : « On sait tous ici
que le vrai désaccord dans la communauté porte en ce moment sur la
nécessité ou non de capitaliser le nom des modèles dans le
wikicode ! »
▲Attention à la
désinformation russe — Des rapports indiquent que des fermes de
contenus produisant de la désinformation russe sont utilisés sur
Wikipédia[7]. Peu nombreux sur la version
francophone et effectués de bonne foi, ces ajouts sont le fait de
contributeurs avertis de la communauté ; la situation est
semble-t-il différente sur d'autres versions linguistiques de
Wikipédia.
▲Un livre sur
Wikipédia... écrit par un utilisateur bloqué — En , l'éphémère média
français d'extrême droite Factuel[8], au détour d'un article commenté sur le
Bistro, annonçait un ouvrage à paraître en 2024 consacré à
Wikipédia. Son auteur ? Un certain Michel1961 (d · c · b), bloqué
indéfiniment en 2021 (notamment pour comportement non collaboratif,
détournement de sources, rameutage et POV-pushing) et régulièrement
cité dans des articles de presse sensationnalistes en 2020 (où des
contributeurs expérimentés sont accusés d'être « islamo-conciliants »), 2021, 2023, février et mai 2024. L'ouvrage,
annoncé dès 2023, paraît en
aux
éditions du Cerf sous le titre La face
cachée de Wikipédia : Enquête sur les dérives de
l'encyclopédie libre[9]. Cosigné par Victor Lefebvre,
ancien journaliste au Figaro et à Factuel, l'ouvrage
de 216 pages prétend apporter
« une réponse argumentée et
dépassionnée » à la question de savoir si
l'encyclopédie est devenue « Wokipedia » comme allégué par
Elon Musk. La
réponse est donnée au dos de l'ouvrage : « Le pouvoir de nuisance d'une petite poignée
d'utilisateurs ouvertement militants - pour ne pas dire woke - tend
à se renforcer. »
▲D'où viennent et où
vont les lecteurs d'un article ? — L'outil Wikinav
permet de répondre à ces questions. En plus de mettre en évidence
que la majorité des consultations viennent des moteurs de
recherche, l'analyse
de l'article Elon
Musk (le plus consulté en ) montre ainsi que l'article de Wikipédia
par lequel le plus grand nombre de lecteurs arrivent est celui de
son ex-compagne Grimes et celui le plus consulté
consécutivement est celui de sa compagne actuelle, Shivon Zilis. Les
clics entrants depuis ou sortants vers le département de
l'Efficacité gouvernementale (DOGE) n'arrivent respectivement
qu'en dixième et sixième positions. La vie privée avant la
politique.
Dans le mouvement
Et de trois !
▲Trois millions
d'articles sur Wikipédia en allemand — C'est le seuil franchi
par la version germanophone de Wikipédia
le .
Troisième plus grosse version linguistique en nombre d'articles,
elle devance la version francophone, selon la liste des wikis. Il existe
toutefois de nombreux autres indicateurs pour comparer les versions
linguistiques, dont la profondeur, qui valorise
le nombre d'éditions par article et le nombre de pages autres que
les articles — en classant les wikis avec cet indicateur, la
version francophone arrive en dix-neuvième position (loin devant la
version germanophone). Pour en revenir au seuil symbolique de trois
millions d'articles, les paris sur la date à laquelle Wikipédia en
français l'atteindra sont toujours ouverts.
Exemple de photo retirée.
▲Suppression de
contenus de l'armée américaine — Le département de la
Défense des États-Unis a récemment appliqué une décision
présidentielle mettant fin aux politiques Diversité, équité et inclusion
(DEI). Cela s'est traduit notamment par la mise hors ligne de
beaucoup de contenus multimédia. Associated Press a récupéré une base
de données de 26 000 photos concernées
par la censure. Wikimedia Commons héberge de nombreuses photos de
l'armée américaine, entre 10 et 20 % des 5 millions de photos stockées
sur DVIDS, la médiathèque du départ de la Défense.
Don-vip (d · c · b) poursuit
l'import en masse des photos, que Fæ (d · c · b) avait débuté.
Une catégorisation des photos
supprimées est en cours ainsi que l'import des vidéos
manquantes, projet initié par Mvolz (d · c · b). Une fois ce
travail de catégorisation réalisé, il sera possible d'extraire les
données pour les mettre sur data.gouv.fr par exemple afin de
permettre aux chercheurs et associations d'étudier les contenus
retirés. Ce travail n'est pas sans soulever des questions éthiques
auxquelles l'armée américaine a été confrontée en 2021 en procédant
à un retrait massif de photos d'Afghans afin de les protéger
des talibans.
▲Renforcer la neutralité
de point de vue de Wikipédia — La Fondation Wikimédia a
récemment mis en évidence des tendances
essentielles et prioritaires pour le mouvement, à travers des
conversations avec les communautés. Cette année, une tendance qui a
suscité de nombreuses discussions au sein et au-delà du mouvement
Wikimédia concerne la neutralité : la baisse de confiance dans
les informations en ligne et la fragmentation du consensus sur la
véracité des informations. Il s'avère que la manière dont le
principe de neutralité
de point de vue se traduit varie d'un projet Wikimédia à
l'autre, ce qui met en évidence la possibilité pour les communautés
d'apprendre les unes des autres et d'explorer si des normes
mondiales communes de neutralité peuvent mieux protéger les projets
(et les bénévoles) dans un environnement de menaces accrues et de
réglementation croissante. Pour soutenir les communautés Wikimédia
et réaffirmer notre engagement en faveur de la neutralité, la
Fondation Wikimédia réunira un groupe de travail composé de
contributeurs actifs, de membres du CA de la Fondation, de
chercheurs et de conseillers afin d'étudier des recommandations de
normes communes pour les politiques NPOV qui peuvent protéger
Wikipédia, accroître l'intégrité des projets et fournir davantage
de soutien aux bénévoles chargés d'administrer ces politiques. Pour
en savoir plus,
rendez-vous sur Diff, le blog hébergé par la Fondation
à propos du mouvement.
▲Verrouillages
globaux massifs — Le , la WMF a
entrepris le verrouillage global de plus de
35 000 comptes (liste)
compromis (mots de passe divulgués, vraisemblablement). Dans
le communiqué qu'elle a publié quelques jours après, elle
indique que cela fait suite à la découverte d'« un schéma de connexions inhabituelles à des
comptes enregistrés », qui résulterait d'une fuite de
données depuis un autre site web incluant des mots de passe,
utilisés aussi sur Wikipédia. Un bon rappel de la nécessité de ne
pas utiliser un même mot de passe sur plusieurs sites web, et
l'occasion de lire ou relire Aide:Sécurité des comptes
utilisateur.
Focus
RAW encourage les membres de la communauté à s'exprimer sur
différents enjeux liés à l'écosystème Wikimedia. N'hésitez pas à
proposer vos textes pour cette section. N'hésitez pas non plus à
réagir dans la section du courrier
du lectorat.
À la recherche des articles disparus de
Google par Jules*
Certains articles de Wikipédia sont déréférencés par Google.
Combien ? Les déréférencements sont-ils légitimes ? C'est
le grand flou.
Le Canard enchaîné publie une enquête qui vous
déplaît ? Oubliez le communiqué de presse et la plainte pour
diffamation. Le problème, ce n'est pas l'article : c'est le
fait qu'il soit lu ! Et s'il était possible de le faire
disparaître de Google ? Improbable ? C'est pourtant ce
qui s'est passé, nous raconte Thibaut Schepman dans un article paru en janvier dernier dans La
Revue des médias, éditée par l'Institut national de
l'audiovisuel (INA)[10]. La méthode employée par les
malandrins est la suivante : signaler à Google une violation
des droits d'auteurs en affirmant que l'article de presse est un
plagiat d'une page web, antidatée. Derrière la mésaventure vécue
par une journaliste du Canard enchaîné se cache une
véritable industrie du déréférencement indu, nous apprend Thibaut
Schepman.
Si Google a rétabli le référencement de l'article du Canard
enchaîné, est-il possible que Wikipédia soit également victime
de telles manœuvres ? La question n'est pas anodine. La
plupart des consultations de Wikipédia proviennent des moteurs de
recherche, et parmi ceux-ci, Google est en position de
quasi-monopole[11]. Un article Wikipédia déréférencé
de Google, c'est donc probablement un article qui ne sera quasiment
plus lu.
De la lumière mais pas trop
Pour savoir ce qu'il en est, première étape, la plateforme Lumen. Elle permet de consulter les
demandes de déréférencement adressées à Google pour divers
motifs : violation des droits d'auteurs, diffamation, droit à
l'oubli... Mais les notices, dont la consultation n'est pas aisée,
n'indiquent pas l'issue de ces demandes. Nous ne sommes guère
éclairés.
Récemment, l'auteur de ces lignes a eu vent du déréférencement
d'un article de Wikipédia en français par Google. Le
déréférencement a-t-il été effectué au nom du droit à
l'oubli ? Ou bien par une méthode retorse comme celle mise en
lumière par La Revue des médias ? Aucune idée :
aucun résultat sur Lumen avec le titre de l'article, et pas de
notice relative sur la page tenue à jour par la WMF.
RGPD à la suédoise
Renseignement pris auprès du service juridique de la WMF, Google
envoie depuis quelques années des notifications de déréférencement
dépourvues de l'URL du contenu déréférencé (exemple) et donc parfaitement
inutiles. Surprenant. Ce changement découle en fait d'une décision prise en 2020 par l'Autorité
suédoise pour la protection de la vie privée, sur le
fondement du règlement
général sur la protection des données (RGPD). Elle a estimé
qu'en fournissant l'URL du contenu déréférencé dans ses
notifications, Google permettait à leur destinataire de republier
les contenus litigieux sous une autre URL, et donc de bafouer le
droit à l'oubli[13]. Exit les URL.
Tout au plus la WMF continue-t-elle de recevoir des
notifications précises quand le requérant est situé hors Union
européenne ; on sait ainsi que l'article
Fusillade
de l'université d'Eskişehir Osmangazi a disparu de certaines
recherches Google en raison de la législation turque — sans plus de
précision.
On ignore d'ailleurs si la WMF reçoit systématiquement une
notification de Google en cas de déréférencement. En tout état de
cause, la liste des notifications relatives à Wikipédia en français
n'évoque aucun déréférencement pour violation des droits d'auteurs
— c'est en revanche le cas pour Wikipédia en anglais,
comme le relèvent nos
confrères du Signpost.
S'agissant du droit à l'oubli, s'il est légitime de chercher un
équilibre entre droit à l'information et droit au respect de la vie
privée, il apparaît contestable qu'une entreprise privée, en
l'espèce Google, puisse opérer sans aucune transparence le
déréférencement d'articles.
Le dossier du mois
Dans cette section, le magazine aborde un sujet qui a fait
beaucoup réagir à l'intérieur de la communauté, voire à
l'extérieur.
Le bouleversement annoncé des pratiques par
l'IA générative par Nanoyo88
Lors de précédentes éditions, nous avons régulièrement abordé
le sujet de l'IA générative (genAI),
ses implications et conséquences pour Wikipédia. Nous aimerions
prendre le temps, au travers d'un dossier et d'interventions de
quatre contributeurs, d'approfondir le sujet. Pa2chant.bis, LD, Aelxen et
(:Julien:) analysent les usages de
l'IA et les problèmes qu'ils engendrent ; ils discutent aussi
de l'élaboration d'un texte pour les encadrer.
IA, genAI, LLM :
de quoi parle-t-on ?
De manière générale, les machines informatiques exécutent
scrupuleusement des instructions (un programme informatique)
écrites par des humains. Les humains disent explicitement quoi
faire à la machine, pas à pas. L'intelligence artificielle (IA)
est une discipline scientifique visant à permettre aux machines
d'être « intelligentes » : apprentissage,
raisonnement logique, compréhension du langage naturel (anglais,
français…). L'IA cherche à permettre aux machines à gagner en
autonomie pour effectuer des tâches plus complexes. L'intelligence artificielle
générative (genAI) est un sous-domaine de l'IA dont le but
est de générer automatiquement des textes en langage naturel. Les
réseaux de neurones sont
une technologie très puissante (et gourmande en ressources)
largement utilisée dans l'IA.
Depuis 2017-2018, les grands modèles de langage (LLM)
utilisent des (grands, très grands) réseaux de neurones pour
comprendre du langage naturel, répondre à des questions ou générer
du texte (genAI). Le texte écrit par un humain pour interagir avec
le LLM est appelé prompt. Pour apprendre le langage et des
connaissances, les LLM sont gavés de tonnes de données disponibles
sur Internet (dont évidemment WP). Les LLM n'ont pas d'estimation
de la valeur de vérité ou véracité de ce qu'ils répondent :
ils répondent grosso modo ce qui est le plus probable parmi les
textes sur lesquels leur apprentissage s'est fondé. Le LLM invente
donc : parfois c'est juste, parfois c'est faux — on parle
alors d'hallucination.
Pour en savoir plus, lire cet article sur Le Monde.
Ils fleurissent sur l'encyclopédie et le printemps n'y est pour
rien. Les textes générés par IA sont de plus en plus nombreux sur
les articles de Wikipédia à mesure que l'usage de l'IA générative
se démocratise. Pour Pa2chant.bis, cet usage wikipédien se fait
« en l'absence de
recommandation », ce qui a pour conséquence de rendre
« très lourd et coûteux en temps de
démontrer des abus » et risque de démotiver les
contributeurs qui se consacrent à ces vérifications.
Julien indique à ce propos qu'il est « difficile d'anticiper les usages qui seront faits
des LLM. Mais c'est potentiellement un game changer pour
WP », qui peut au choix « devenir un dépôt de connaissances approximatives
via des masses de textes mal comprises ou un facilitateur de
rédaction ».
« C'est l'avenir de
Wikipédia qui se joue »
Pa2chant.bis n'y va pas par quatre chemins : « C'est l'avenir de Wikipédia qui se
joue. » Les enjeux et les risques de ces nouvelles
pratiques sont déjà connus : « outre les potentielles atteintes au droit
d'auteur, on peut citer les problèmes de fiabilité de l'information
de type absence ou détournement de source, les TI et les problèmes
de style. »
La majorité des usages observés ne résistent pas aux
vérifications et affichent différents problèmes qui pourraient être
évités si la contribution était 100 % humaine. C'est notamment
le cas des traductions automatiques, des synthèses de sources
multiples, de l'identification de sources, etc.
Des usages problématiques, Pa2chant.bis en a vu quelques
exemples surprenants. Par exemple, dans une page Wikipédia sur une
maladie, indiquer aux parents que même traitée, elle peut être
mortelle, alors qu'aucune source n'a été trouvée dans ce sens. Dans
l'article 'Ndrangheta (la mafia calabraise), une famille
dont le nom est parfaitement inconnu des sources a été désignée
comme étant influente. Dans un autre article étaient indiqués des
liens familiaux entre deux personnes, liens imaginaires sourcés
avec un blog généré par IA. Les abus peuvent d'une envergure encore
supérieure, comme les interventions mêlant TI, IA et vandalismes
sur une profusion d'articles dédiés aux quasars : alors que le projet:Astronomie compte peu de membres, et
encore moins de spécialistes de ce sous-domaine, cela va exiger
d'utiliser WP:TNT.
« L'IA, on l'utilise
depuis super longtemps »
Julien rappelle que les traductions automatiques relèvent de
l'IA, et plus récemment de l'introduction des LLM. Or, « la communauté semble ok avec cette utilisation de
l'IA », quand bien même Julien en est lui-même
critique. Concernant les LLM, « des
utilisateurs ont développé et rendu compte de pratiques plus
avancées (Projet:Observatoire des
IA/Documentation,
Utilisateur:Global Donald/Création d'article via ChatGPT 4o et
comparaison des prompts, Utilisateur:Nanoyo88/testIA…) ».
La question revient dès lors à se demander si la relecture et la
vérification sont bien effectuées, et c'est là que ça coince. Comme
pour les traductions automatiques à la chaîne, les textes générés
par IA augmentent la quantité de travail de vérification pour la
communauté.
Il y a également des usages de LLM qui pourraient être utiles à
l'automatisation de certaines opérations de maintenance sur
Wikipédia. « Sur les projets sportifs
(basket, foot, foot US), c'est toujours relou quand un joueur
change de club : il faut rajouter des catégories, changer des
palettes, mettre à jour l'infobox… Not fun. J'ai dans ma todo list le
développement d'un outil automatique de mise à jour quand un joueur
change de club, avec l'usage d'un LLM. » Les LLM
pourraient également être utilisés afin de lutter contre le
vandalisme, voire même contre les mésusages de LLM !
Une lutte
contraignante
Dernièrement, un tracker
a été mis en place par Julien sur la base du signalement, par
Pa2chant.bis, de sources comportant un paramètre
UTM lié à ChatGPT. Cette longue liste n'est que la partie
émergée d'une analyse en profondeur nécessaire et dans laquelle il
faut comparer les sources présentées et les informations
ajoutées.
Afin de pouvoir rapidement identifier ce type d'ajout, un filtre anti-abus a été créé
par Aelxen. « Le filtre consiste à
détecter les insertions d'URL contenant un paramètre UTM provenant
de ChatGPT. Actuellement, il est uniquement utilisé pour récupérer
des statistiques. À terme, il pourrait permettre d'insérer un
message d'avertissement lors de la publication des
modifications. »
« Des détecteurs
insuffisamment fiables »
Actuellement, on peut difficilement s'appuyer uniquement sur des
outils de détection et éléments techniques pour identifier les
usages de textes générés par IA avec fiabilité. « Ces outils sont imparfaits, explique
Julien : les LLM sont des machines probabilistes donc il y a
des risques de faux-positifs. Les études qui essaient de mesurer
les faux positifs divergent pas mal et s'appuient sur des textes en
anglais, donc il faut prévoir une décote pour le
français. »
Aelxen et Pa2chant.bis jugent également la fiabilité de ces
détecteurs insuffisante. Pour Pa2chant.bis, « le plus performant détecteur trouve en français
un nombre impressionnant de probables faux-positifs »
et Julien souligne une observation surprenante d'Esprit Fugace : il y a des
faux positifs lorsque le contenu est rédigé « par des personnes neuroatypiques dont le style
rédactionnel diffère » de la norme.
Sur les possibilités techniques, Aelxen suggère que « des outils semi-automatiques pourraient être
envisagés pour aider à l'analyse, par exemple en signalant des
passages suspects ou en identifiant des modèles d'écriture
caractéristiques de l'IA ». Mais Julien considère que
c'est « sans issue parce que les LLM
s'aguerrissent et les méthodes de détection sont toujours en
retard. Il est possible que le contenu genAI devienne rapidement
indiscernable par un œil humain comme par un
détecteur ».
« Ils voient surtout le
verre à moitié plein sans voir le verre à moitié
vide »
Enfin, si vous rencontrez des textes que vous soupçonnez d'être
générés par IA et qui contreviennent aux PF, vous pouvez les
signaler sur Projet:Observatoire des
IA/Contrôle.
Votre aide est précieuse !
Identifier les textes générés par IA et leurs problèmes n'est
pas chose aisée. Pa2chant.bis témoigne de sa pratique, indiquant
que cela se fait « au hasard des
analyses de créations d'articles, des relectures et de la
patrouille ». Les mauvais usages possèdent plusieurs
marqueurs tels que le style stéréotypé et souvent laudatif, le plan
caractéristique et les détournements de sources par hallucination
— « et là, c'est beaucoup plus
long à identifier ».
Le second problème est qu'il est particulièrement complexe de
faire comprendre aux utilisateurs d'IA, novices ou expérimentés,
les problèmes de leurs contributions. Pa2chant.bis a l'impression
« qu'ils voient surtout le verre à
moitié plein (leurs prompts sont de plus en plus précis et
performants, et le niveau de réponse des IA s'améliore) sans voir
le verre à moitié vide (les erreurs, le langage stéréotypé et les
traductions parfaites en mot à mot, mais porteuses de contresens,
non-sens ou inventions) ».
Malheureusement, l'utilisation abusive de l'IA reste très
tentante car elle est en mesure de produire des textes d'apparence
robuste, auxquels il est aisé pour les contributeurs de faire
confiance, en ayant la fausse impression d'avoir maitrisé un sujet.
À cela s'ajoute la culture historique de Wikipédia « selon laquelle l'encyclopédie est en
construction, les erreurs ne sont pas trop graves et finiront bien
par être corrigées un jour » ainsi que le sentiment que
refuser l'usage de l'IA relève « d'une
forme de passéisme, ou d'une attitude rétrograde vis-à-vis des
progrès technologiques ».
Vers
la mise en place d'une recommandation
Le , Pa2chant.bis
tirait une nouvelle fois la sonnette d'alarme, soulevant une
nouvelle pratique consistant à sourcer des contenus, ou générer des
contenus sourcés, par le biais de l'IA. Cette situation le pousse
alors à inviter la communauté à se pencher sur un passage à l'état
de recommandation d'un texte encadrant l'usage des IA. L'idée a été
très bien accueillie et
un sondage est en préparation. Deux versions existent
actuellement, un
essai élaboré depuis plusieurs mois et une contre-proposition
simplifiée par LD.
Cependant, établir une recommandation présente plusieurs
contraintes car elle a vocation à établir des lignes directrices à
suivre dans la contribution. LD nous rappelle qu'elles doivent donc
« répondre aux attentes et
interrogations les plus courantes, tout en véhiculant un
« savoir-faire » concret ».
« Elle doit être
claire, non contradictoire avec les autres normes et permettre un
ajustement progressif »
Le plus complexe est de produire une recommandation « claire, non contradictoire avec les autres normes
(principes, règles, recommandations) et permettre un ajustement
progressif ». Ce dernier élément est nécessaire afin de
pouvoir répondre aux éventuelles évolutions législatives. En effet,
l'IA générative pose la question de la propriété intellectuelle,
dans la mesure où « les textes générés
[peuvent provenir] de textes régis par le droit d'auteur et [où]
ces générations [pourraient être] considérées comme également
soumises au droit d'auteur (et/ou sont considérées comme des
œuvres dérivées ou collectives) ».
Cette future recommandation ne supplantera donc pas les
recommandations déjà existantes. LD évoque le propos de @Cosmophilus à ce sujet en soulignant
que « le mauvais usage de l'IA se
caractérise par la violation d'un principe ou d'une norme déjà
définie, telle que WP:DA, WP:V, WP:STYLE, etc. ». Aussi le but n'est-il pas de
répéter le corpus réglementaire mais de donner des indications pour
« se concentrer sur l'application de
ces normes dans le cadre de l'IA ».
Si la communauté démontre une certaine hostilité à l'égard des
contenus générés par IA et le démontre au travers de précédents
sondages, il ne semble pas que l'on se dirige vers une interdiction
stricte de son usage. Il est d'ores et déjà complexe de le
démontrer.
Face à ces nouvelles pratiques, comme l'écrit LD, le mot d'ordre
pourrait bien être de « rester guidé
par le bon sens et le discernement ».
Cet homme d'affaires américain est très présent dans
l'actualité depuis la réélection à la présidence des États-Unis de
Donald Trump (no 9) qui l'a nommé à la tête d'un
tout nouveau département de
l'Efficacité gouvernementale.
Ce chanteur français, qui s'est fait connaître dans les années
1980 avec des tubes comme Pour le plaisir ou Quand tu
m'aimes, est décédé le à l'âge de 80
ans.
Cette mini-série britannique, conçue par Jack Thorne(photo), a rencontré un grand succès à sa sortie sur
Netflix, le
. Elle
aborde des sujets d'actualité (le cyberharcèlement, la culture incel, la radicalisation en ligne…)
sous une forme inhabituelle (chaque épisode se compose d'un unique
plan-séquence).
Ce sénateur français, ancien président de
Médecins sans frontières et
cofondateur du site Doctissimo, a prononcé le 5 mars devant le Sénat
un discours très remarqué en France et à l'international contre la
politique menée par le président des États-Unis Donald Trump
(no 9).
Depuis sa réélection à la présidence des États-Unis
en novembre dernier, cet homme d'affaires défraie constamment la
chronique par ses décisions aussi nombreuses que controversées. Le
mois de
voit ainsi la déportation de détenus vénézuéliens au Salvador, le début du
démantèlement du département de
l'Éducation et la menace de l'instauration de droits
de douane draconiens.
L'ancien animateur vedette de C8 poursuit la diffusion de son
émission controversée Touche pas à mon poste !
sur Internet après la fermeture de la chaîne, le .
Figure de proue du Nouvel Hollywood, récompensé par deux Oscars
et quatre Golden Globes, l'acteur américain a été retrouvé mort à
son domicile de Santa Fe le avec son épouse Betsy
Arakawa(en).
Les résultats de l'enquête ont été publiés le .
Cette comédie musicale sur un chef de cartel mexicain
interprété par Karla Sofía Gascón(photo) qui
change de sexe pour changer de vie a reçu sept récompenses lors des
César, le , mais ses treize
nominations aux Oscars ne se sont traduites
que par deux victoires le .
Méthodologie : sur le modèle du Top 25 Report de Wikipédia en
anglais, ce wik'hit-parade reprend les données fournies par l'outil
« Pages les plus vues ». Sont exclues les
entrées clairement aberrantes comme Cookie
(informatique) ou Soudan du Sud, dont le nombre de visites élevé
n'est pas le fruit d'un véritable intérêt des internautes :
elles se distinguent par un taux très faible (moins de 5 %) ou
au contraire très élevé (plus de 95 %) de consultations sur
mobile.
Il nous
fera plaisir de lire les messages déposés ici et, si nécessaire,
d'y répondre dans les plus brefs délais.
bonjour, bravo pour ce numero. A propos du bouquin sur
wikipedia qui va sortir on connait le nom reel de l'auteur mais
comment on connait le nom d'utilisateur à celui de l'auteur? Et on
a le droit de le dire? Ce serait pas du Wikipédia:Doxxing à l'envers? A moins que
ce soit un poisson du 1er avril auquel cas je me suis bien fait
attraper... --Sergent Cool (discuter)
1 avril 2025 à 09:19 (CEST)
Bonjour
@Sergent Cool. Ce n'est pas un
poisson d'avril, ni du doxxing à l'envers : l'utilisateur est
intervenu dans la presse successivement sous le nom de
« Michel », « Michel wiki » et « Michel
Sandrin » (peut-être un pseudonyme, d'ailleurs ?), en
évoquant son « bannissement » (blocage indef, en fait),
si bien que les wikipédiens ont fait le lien sans difficulté. —
Jules*💬
1 avril 2025 à 12:28 (CEST)
Bonjour
à tous et merci pour ce travail ! Je
suis honoré de me découvrir nommément cité dans vos lignes (par
@LD),
quelle agréable surprise ! Tout ceci dans le cadre d'un débat
ô combien actuel, qui plus est… C'est l'occasion de saluer la
réflexion et les efforts ayant mené à ce numéro, et, plus
généralement, la mise en lumière continuelle du travail
collaboratif wikimédien dans les pages de ce magazine (dont je suis
un lecteur assidu), tâche qui ne doit pas être aisée.
Félicitations ! --Cosmophilus (discuter)
2 avril 2025 à 22:30 (CEST)
▲Renouveau — content de voir des forces vives travailler à
l'évolution des RAW. Un merci particulier à Jules* pour son
focus.
longue vie à la nouvelle rédaction! - Simon Villeneuve
3 avril 2025 à 12:42 (CEST)
Wikidata: A Revolution for Wikipedia, Between
Opportunities and Challenges
The deployment of Wikidata across all Wikipedias began on March
6, 2013, marking a significant milestone in the history of the
collaborative encyclopedia. This initiative represents excellent
news for multilingual Wikipedians, who no longer have to juggle
between different language versions to modify the same
information.
What is Wikidata?
In simple terms, without going into technical details, Wikidata
is a project initiated by Wikipedia Germany and taken over by the
Wikimedia Foundation thanks to charitable funds. Its main objective
is to create a centralized and unified database for all language
versions of Wikipedia.
Let's take a concrete example: for individuals, dates of birth
and death, as well as other important events in their lives, are
stored only once in Wikidata. Any modification made to this data is
automatically reflected in the approximately 280 existing language
versions of Wikipedia.
The Advantages of Wikidata:
Data Centralization and Consistency: Wikidata
ensures the consistency of information between the different
language versions of Wikipedia, avoiding contradictions and
translation errors.
Time Savings for Contributors: Modifications
no longer need to be made manually on each Wikipedia, which
represents a considerable time saving.
Improved Maintenance: Data maintenance is
simplified, as a single modification is sufficient to update all
language versions.
Data Use by External Tools: Wikidata's
structured data can be used by external tools and applications,
opening new perspectives for research and analysis.
Improved Interoperability: Wikidata
facilitates interoperability between Wikipedia and other knowledge
databases.
Challenges and Potential Sources of
Conflict:
The idea of shared data is appealing, but it also raises
significant challenges, particularly due to differences in
viewpoints and conflicts of interpretation that may exist between
contributors from different language versions.
Here are some examples of potential conflicts:
Differences in Calendars and Dating
Conventions: As mentioned in the original text,
disagreements can arise regarding dates, for example between the
Gregorian and Hijri calendars.
Differences in Historical and Political
Interpretation: Statistics concerning disputed
territories, such as Palestine/Israel, or controversial historical
events, such as the Algerian War, can be the subject of significant
disagreements. The number of deaths, the names of places (French
Algeria vs. Algeria), and the interpretation of facts can vary
considerably depending on the sources and perspectives.
Management of Non-Consensual Viewpoints: How
to manage information that does not reach consensus within the
community? Which version of the information should be displayed by
default? How to report different viewpoints neutrally and in a
balanced way?
Wikidata's Response to Conflicts:
Wikidata developers have anticipated these difficulties. A
fundamental principle is that each Wikipedia retains a certain
autonomy and the possibility of locally managing data for which a
consensus has been reached within its community. In particular, the
information displayed in infoboxes (the information tables on the
right of articles) can be managed locally. The English text of
Wikidata is clear on this point. This makes it possible to take
into account cultural specificities and local debates.
Conclusion:
Wikidata represents major progress for Wikipedia, by
centralizing data and facilitating collaboration between different
language versions. However, it also raises significant challenges
related to the management of conflicts and differences in
interpretation. Respecting the autonomy of local Wikipedias and
establishing conflict resolution mechanisms are essential to ensure
the success of this ambitious project. We can indeed expect a
period of adjustment and debate within the Wikipedia community, but
the potential benefits of Wikidata make it a promising
initiative.
more
info https://meta.wikimedia.org/wiki/Wikidata/Deployment_Questions
C’est quoi ? Eh bien, dans l’ère de l’information instantanée,
vous pouvez facilement trouver des réponses via les moteurs de
recherche. Mais laissez-moi vous faciliter la tâche avec un lien
direct ! Ce que vous ne trouverez pas sur ce lien, c’est que je
suis le premier Algérien à avoir assisté à la conférence
mondiale de Wikimania. Oui, c’est bien cela !
Wikimania, c’est le synonyme de
connaissances partagées, création
libre, et données ouvertes.
C’est le grand rassemblement de personnes dévouées à une cause
simple mais immense. Ces gens, souvent anonymes, n’ont pas tous de
prestigieux diplômes ou de rangs académiques. Aucun pouvoir pour
changer le monde, mais ensemble, on réussit à accomplir
l’incroyable : une ligne, une photo, un schéma, une modification,
une adjonction, une suppression… Et voilà, un résultat
inimaginable.
Jamais un être humain n’a pu rassembler un tel volume de
connaissances dans un seul conteneur. Et cela inclut toutes les
cultures, toutes les langues et toutes les croyances. Cela n’a
jamais été fait. Ni avant, ni depuis. Les institutions
traditionnelles de diffusion du savoir en sont à la fois fières et
jalouses. Certaines ont dû fermer leurs portes, d’autres ont changé
d’activité. C’est un changement révolutionnaire, le plus grand
depuis l’invention de la roue.
Faire partie de cette histoire qui influence chaque mois près
d’un demi-milliard de personnes, rencontrer et échanger avec ces
personnes passionnées, c’est plus qu’extraordinaire. C’est
hilarant. Je me suis senti un peu perdu, tout dispersé, tellement
je voulais communiquer avec tout ce monde-là. Y arriver n’était pas
facile, ni rapide. C’est un travail de longue haleine, dans la
rédaction encyclopédique, qui m’a pris plus d’une décennie.
Le chemin vers Wikimania :
La découverte de Wikipédia remonte à un temps assez lointain. À
l’époque, je n’étais pas vraiment branché sur le site, mais je
participais activement à la création de sites de rassemblement de
la connaissance. Nous utilisions Encarta, un
logiciel payant avec des mises à jour annuelles, mais bien sûr,
nous devions chercher des cracks pour l’utiliser. Microsoft n’avait
pas de boutique de logiciels en Algérie, et nous n’avions pas la
possibilité de payer en ligne. Cracker les logiciels était notre
manière de contourner cela.
Wikimédia a complètement changé la donne en offrant un accès
gratuit et illimité à la connaissance. Comme l’a dit Jimmy
Wales, le fondateur de Wikipédia : « Imaginez un monde
où chaque être humain peut librement partager dans l’ensemble de
toutes les connaissances ». Un monde où l’accès à la
connaissance est libre et gratuit pour tous.
Mon aventure a commencé à la fin de l’année 2006. Je me suis
inscrit sur Wikipédia en français pour rédiger un article sur ma
ville natale. L’article n’existait pas, il était référencé sous un
ancien nom datant de l’avant-indépendance de l’Algérie. C’était un
véritable défi d’écrire cet article en français, puis de le
traduire en arabe. Je me suis retrouvé confronté à une pénurie de
sources fiables, ce qui rendait la tâche encore plus difficile.
Depuis ce moment-là, je participe activement sur Wikipédia en
arabe, tout en continuant à développer des projets.
Une opportunité d’engagement :
En 2008, j’ai entendu parler d’un rassemblement à Alexandrie.
L’envie d’y participer était forte, mais l’éloignement et mon
travail m’ont empêché de concrétiser ce projet. J’ai continué à
participer sporadiquement à Wikipédia, sans m’investir
pleinement.
Puis, en 2012, j’ai reçu un message d’un certain
Abdelhak Fareh. Après quelques échanges sur Skype,
nous avons décidé de nous rencontrer pour discuter. À la fin de
l’année 2012, j’ai reçu une invitation à participer à un atelier au
Caire pour discuter de son expérience en tant que Wikipédien. En
moins de 15 jours, tout était prêt, et je me suis retrouvé à cet
atelier.
Cette expérience m’a motivé à prendre les choses en main en
Algérie, coûte que coûte. J’ai multiplié les contacts avec les
utilisateurs algériens de Wikipédia. Ensemble, avec Abdelhak, nous
avons créé un groupe sur Facebook pour échanger, et j’ai participé
au premier programme éducatif sur Wikipédia, une première en
Algérie.
Mes ressources bien cernées et mon envie d'y assister
grandissante, une bourse m’offre une opportunité précieuse de
participer. Les chances étant minimes (seulement 10 personnes de
toute la région MENA pouvant être sélectionnées), je dépose ma
demande pour la bourse afin d’assister à la grande conférence de
Londres.
Au début de l’année, en février 2014, mon objectif est clair :
découvrir les coulisses de Wikimédia et ses projets, ainsi que
trouver des moyens de relancer l’activité Wikimédia en Algérie. En
mars, je passe la première sélection, et c’est avec joie que
j’apprends que je suis définitivement accepté pour participer.
S’ensuit alors une course contre la montre pendant 3 mois. Bien
que la bourse couvre une grande partie du voyage, ce n’est pas
suffisant. Très méticuleux de nature, je n’improvise jamais mes
déplacements sans régler tous les détails, ce qui entraîne des
dépenses supplémentaires.
Pour voyager au Royaume-Uni, il faut un visa, et celui-ci est
réputé être l’un des plus difficiles à obtenir en Algérie. Il m’a
fallu 45 jours de préparation pour soumettre mon dossier, et après
un minimum de 21 jours d’attente, le stress est à son comble.
Un jour, je reçois un SMS me demandant de venir récupérer mon
dossier. Ne sachant pas encore si j’ai obtenu mon visa, je me rends
à nouveau à 400 km pour le récupérer. C’est une enveloppe scellée.
Après avoir signé le reçu, j’ouvre l’enveloppe… et c’est une énorme
bouffée de soulagement : j’ai mon visa !
Je dois maintenant m’activer pour finaliser mes préparatifs et
terminer ce que j’ai commencé il y a 6 mois. Je multiplie les
contacts avec le groupe des utilisateurs arabes pour savoir qui
viendra, et prépare mon programme à Londres.
La nuit du 5 août, je suis à l’aéroport d’Oran pour prendre mon
vol Alitalia vers Rome, puis vers Londres. Le passage à la
frontière n’est pas facile, avec des policiers algériens et
italiens qui doutent de l’authenticité de mon visa. La police
britannique, quant à elle, ne fait que scanner mes empreintes, et
après un "Welcome", me voilà à Londres !
Ne parlant pas la langue et n’ayant jamais mis les pieds en
Europe, je me trouve un peu perdu. Heureusement, le manuel de
l’équipe Wikimania et les conseils de forums comme Tripadvisor me
permettent de me repérer. Trouver la différence entre une Travel
Card et une Oyster Card fut un défi, mais j’ai opté pour
l’Oyster.
Le métro est facile à prendre, bien que la confusion vienne lors
du changement de lignes. Une fois à la gare de King’s Cross, le
sentiment de perte est total. Mais un agent du métro m’indique la
plateforme et je prends finalement la direction d’Old Street pour
arriver à mon hôtel.
Arrivé à l’hôtel, un soulagement immense : une incroyable
opportunité se réalise, celle de rencontrer la communauté Wikimédia
et de découvrir les projets en personne.
Mes objectifs atteints :
Découvrir la vraie Wikimédia mondiale et participer à
l’avenir des projets de la connaissance libre.
Représenter l'Algérie et le Maghreb comme une entité
spécifique nécessitant plus d’attention et promouvoir la culture à
travers les projets Wikimédia.
En savoir plus sur Wikimédia et ses langues locales,
rencontrer les dirigeants des projets et connaître leurs
expériences.
Rencontrer les équipes de Wiki Loves Monuments et
discuter de l'avenir du concours.
Rencontrer les responsables du programme mondial
d'éducation arabe.
Partager mon expérience des projets Wikimédia, à la
fois à l’intérieur et à l’extérieur de la communauté.
Échanger mon expérience avec de nombreux
Wikimédiens.
Ce que j’ai trouvé :
Première préoccupation : Trouver des gens qui
pourraient m’aider à développer un groupe d’utilisateurs en
Algérie. Grâce à l’équipe affcom, j’ai trouvé ce que je
cherchais. Avec le groupe des utilisateurs de la Tunisie, c’était
pareil.
Deuxième préoccupation : Trouver des moyens de
créer un nouveau wiki sur incubateur et réussir. Grâce à l’équipe
Wikimédia Language Engineering, j’ai trouvé les
réponses.
Troisième préoccupation : Comment récolter un
maximum d’informations sur les projets Wikimédia dans ma région.
Mission accomplie grâce à mes contacts en Afrique et en Europe, et
avec la carte de visite en poche.
Discussions abordées :
Le futur de Wikimédia Zéro en Algérie.
L'extension du développement de WikiTranslate et
d'autres projets pour préserver les langues locales menacées par la
mondialisation.
J’ai réussi à partager mon avis et ma vision sur le projet
Kylix (avec Emmanuel Engelhart) : les bases de données
hors ligne consomment moins d'énergie et de coûts, et préservent la
nature. J’ai proposé de développer cette idée en essayant de
combiner Wikimédia Zéro avec Kiwix pour rendre le
projet plus intéressant.
Le Stand "Pour Tous et par Tous" à Wikimania
Mexico
Les utilisateurs de WikiDZ ont eu la chance d’avoir un stand
dans le village social, offert par les organisateurs de Wikimania
Mexico. Cela a permis au représentant de WikiDZ de mettre en
lumière les activités en Algérie, tout en comparant nos actions
avec celles des autres groupes. C’était l'occasion de montrer que,
même dans un pays où l'activité autour de Wikipédia et de ses
projets frères est encore timide, nous sommes présents et
actifs.
Le stand offrait également un espace pour ceux qui n'avaient pas
de table, leur permettant de se réunir et de discuter avec les
visiteurs.
Échanges culturels et découverte des
saveurs
Pour encourager la discussion et faciliter les échanges
culturels, j'ai apporté des Caprices, des bonbons au
caramel, une spécialité made in Algérie. Emna, de Tunisie, a eu
l'excellente idée d'apporter des dattes "Deglet Nour" de première
qualité ainsi que des boîtes de "chamia" (halva), une douceur
d’origine orientale. Les visiteurs étaient très curieux de
découvrir nos traditions et de mieux nous connaître. C'était un
véritable petit village au sein du grand monde de la communauté
Wikimedia.
Wikimania Mexico : Un rassemblement sans
frontières
Wikimania Mexico a été, pour notre groupe d'utilisateurs, une
occasion de montrer qu’il est possible de dépasser les frontières,
non pas pour se réconcilier ou pour débuter un quelconque conflit,
mais pour partager des idées immatérielles. C'était l'occasion de
nous rassembler, avec les outils que nous avons, pour mieux
échanger et diffuser nos idées.
Un stand collaboratif et des connexions
fructueuses
Le stand a duré trois jours. Avant le début, nous avons eu la
chance d’être placés à côté du stand de l’Égypte. Cette proximité a
permis de créer un large stand représentant la communauté arabe,
avec la participation de nombreux utilisateurs : Oussama d’Arabie
saoudite, Ravan d’Irak, Habib et Emna de Tunisie, Florence de
France, ainsi que Walla, Mohammed, Samir et Mouchira d’Égypte.
Cela a facilité de nombreuses connexions, notamment une mise à
jour de nos projets pour l’Algérie. Ces échanges ont été précieux,
nous permettant de mieux comprendre nos actions passées et de
corriger nos orientations futures, tant pour l'Algérie que pour la
Fondation Wikimedia.
La fin d'une belle expérience
La fin du stand fut difficile, car chaque belle expérience a une
fin. Mais ce fut un moment inoubliable, et nous repartons enrichis
de nouvelles idées et de nouveaux liens.
Le 15e anniversaire de Wikipédia, accompagné de l’atteinte de 5
millions d’articles dans la version anglaise, marque un jalon
impressionnant pour la fondation Wikimedia, mais aussi un moment de
réflexion sur l’avenir. En effet, alors que Wikipédia est devenue
une référence incontournable en matière d’encyclopédies en ligne,
la fondation se trouve aujourd’hui face à un défi majeur : comment
continuer à évoluer et soutenir ses projets tout en restant fidèle
à sa mission initiale ?
Défis à relever pour la fondation Wikimedia
Évolution technologique et interface
utilisateur
Bien que Wikipédia et ses projets frères aient radicalement
transformé l’accès à l’information, l'interface de Wikipédia reste
étonnamment stable depuis sa création. La simplicité de la
plateforme a été une de ses forces, mais aujourd’hui, dans un monde
où la technologie évolue rapidement, il est légitime de se demander
si Wikimedia pourrait offrir une expérience plus moderne et plus
interactive, tout en conservant sa philosophie de base.
La question de la durabilité et de
l’innovation
La fondation doit réfléchir à son avenir face à des défis comme
l'émergence du Web 3, l'essor de l'intelligence artificielle, ou
encore la concentration des communications et des recherches via
des plateformes comme Facebook, Google, ou même TikTok. Ces outils
deviennent des espaces où les utilisateurs interagissent,
recherchent des informations et partagent des connaissances,
souvent en dehors des projets Wikimedia. L'enjeu pour la fondation
sera de s’adapter et de proposer de nouvelles solutions tout en
restant fidèle à son objectif de fournir un accès libre à la
connaissance.
Un moteur de recherche dédié ?
Le récent don de 250 000 $ pour développer un moteur de recherche
dédié à Wikimedia pourrait être un tournant majeur. Si la fondation
parvient à créer un moteur de recherche propre qui mette en valeur
les contenus de ses projets tout en respectant les principes de
neutralité et de transparence, cela pourrait marquer un changement
important. Un moteur de recherche qui fonctionne en symbiose avec
les autres projets Wikimedia permettrait aux utilisateurs d’accéder
encore plus facilement aux informations tout en restant dans
l'écosystème de la fondation.
Wikimedia comme acteur technologique à part
entière
Si la fondation souhaite se positionner comme un leader
technologique du Web, il est essentiel qu’elle explore de nouvelles
avenues. Le Web 3, qui inclut des technologies comme la blockchain,
la décentralisation des données et des espaces de collaboration en
ligne plus sophistiqués, pourrait être une réponse. L’idée serait
de proposer une alternative aux plateformes centralisées
dominantes, en conservant la philosophie du libre accès à
l’information. Si Wikimedia parvient à se réinventer tout en
préservant ses valeurs fondamentales, elle pourrait devenir un
acteur clé de cette évolution.
Une opportunité pour l'avenir
La fondation est effectivement à un carrefour. Si elle veut
conserver sa place parmi les sites les plus visités au monde et
continuer à être une référence en matière de partage de
connaissances, elle devra s’adapter aux nouvelles attentes des
utilisateurs tout en restant fidèle à sa mission. Cela pourrait
inclure l’intégration de nouvelles technologies, la refonte de
certaines de ses interfaces et outils, ainsi que la mise en place
de solutions pour combler les lacunes actuelles dans la recherche
et l’interaction avec les contenus.
En fin de compte, l’avenir de Wikimedia dépendra de sa capacité
à innover tout en préservant les principes qui ont fait son succès
: un accès libre, gratuit et de qualité à la connaissance pour
tous. Si la fondation réussit à relever ces défis, elle continuera
à jouer un rôle central dans le paysage numérique mondial.
Le vote dans les
projets Wikipédia soulève en effet plusieurs défis, surtout quand
il s'agit de garantir l'intégrité et la transparence des résultats.
L’un des principaux obstacles à la fraude est la vérification des
comptes via les adresses IP. Cela empêche les utilisateurs de voter
plusieurs fois sous des pseudonymes différents, car les comptes
sont étroitement surveillés pour éviter toute tentative de
manipulation. Il est également nécessaire que les comptes aient une
certaine ancienneté (plus de six mois) et une activité régulière
pour éviter que des comptes inactifs soient utilisés de manière
abusive.
De plus, les comptes
avec moins de 500 participations sont souvent écartés, ce qui
limite encore plus la possibilité de manipuler le système de vote.
Cette rigueur dans les critères de participation garantit que
seules les contributions sérieuses et soutenues comptent dans le
processus de décision, tout en excluant les comptes qui pourraient
être créés à la va-vite pour fausser les résultats.
Cependant, il faut
reconnaître que malgré ces règles strictes, certaines magnifiques
photos ont échappé à l’attention du jury, et le choix final n'est
jamais simple. En effet, lorsqu’on établit un règlement, il est
essentiel de s’y conformer, même si les résultats ne conviennent
pas toujours à tout le monde. Cela ne signifie pas que seules 10
photos sont les meilleures ou les plus belles. Au contraire, il y
en a beaucoup plus qui mériteraient d’être saluées. Parfois, on
hésite tellement entre deux ou trois images, chaque photo portant
une étincelle particulière qui fait hésiter.
Je tiens aussi à
souligner l’immense courage des photographes qui ont partagé leurs
œuvres. Ils ont choisi de léguer gratuitement et librement leurs
"petits bijoux", contribuant ainsi à enrichir notre patrimoine
visuel. Personnellement, je suis profondément touché par leur geste
et leur générosité, et je leur porte un immense respect pour ce
don.
Je me souviens de ma
visite à Lamine Bensaou, un photographe d'Alger, en 2013. J’y suis
allé juste pour lui dire merci pour les magnifiques photos qu’il a
versées sur Commons, et cela reste un souvenir précieux pour moi.
C'est un exemple de la reconnaissance qu’on peut offrir à ceux qui
participent à la richesse visuelle de notre culture.
Enfin, il est important
de se rappeler que toutes les photos, pas seulement les 10
premières, servent à illustrer et mettre en valeur notre cher pays,
l’Algérie, à travers des articles sur Wikipédia, ses projets frères
ou d'autres plateformes. Il est si beau de voir son travail
utilisé, avec son nom en bas de l’image, comme une véritable
reconnaissance de l’effort et du talent du photographe. C'est un
honneur de savoir que son travail est apprécié et qu'il contribue à
la mise en valeur de notre patrimoine collectif.
Si Oui, c’est bien mon
plus long voyage. J’ai traversé trois continents pour revenir en
Afrique.
J’ai quitté l’Afrique du Nord pour atteindre le point le plus au
sud de ce continent. L’espérance et les découvertes étaient
immenses et fantastiques pour moi. En fait, j’ai décollé trois fois
et atterri trois fois.
Je suis passé par six aéroports et visité deux belles villes sur
deux continents différents. J’ai même vu l’hiver en plein été.
La Mother City est une ville calme et pacifique, malgré
ce qu’on en dit ou ce qu’on entend. La cohabitation y est palpable,
le mélange des cultures y est naturel, et l’acceptation de l’autre
est profondément ancrée. J’ai vu des mosquées construites vingt ans
avant que la France n’occupe le nord de l’Afrique. J’ai rencontré
des Abdelkader dans le pays des Zoulous.
Ma venue avait un objectif précis : partager la connaissance,
apporter la mienne et repartir avec celle des autres. À mon départ,
je suis rentré chez moi lourdement chargé de nouvelles
connaissances, ayant donné ce que je pouvais donner, sans être sûr
que ce partage était totalement équitable.
Le Cap de Bonne-Espérance m’a offert ce Hope, cet
espoir dont nous avons tous besoin. C’est déjà quelque chose de
précieux.
Mon seul conseil aux habitants du Cap, et à Abdulkader, le
chauffeur de taxi : « Vous avez un diamant entre les mains,
préservez-le. C’est votre richesse et votre fierté. »
Je me souviens d'un atelier Wikipédia organisé par l'Institut
d'informatique de l'Université d'Oxford. Une question fondamentale
y a été posée : pourquoi, avec près de demi-milliard de locuteurs
arabes, le contenu en arabe représente-t-il moins de 5 % sur
Wikipédia, et, parmi ce faible pourcentage, un tiers seulement est
réellement utile ? Cette question, bien que partiellement répondue,
soulève des enjeux majeurs, et malgré des suggestions de solutions,
il reste encore beaucoup à faire pour enrichir le contenu arabe sur
le web.
Les arabophones, à la différence de nombreux Américains ou
Européens, maîtrisent souvent plusieurs langues. Par exemple,
l'Algérien parle couramment le français, tandis que l'Égyptien
parle l'anglais. Cette capacité multilingue est un atout, mais elle
a aussi ses revers : lorsque la langue maternelle se trouve
reléguée au second ou troisième plan, une partie importante du
temps est consacrée à l'apprentissage d'autres langues au lieu de
se concentrer sur des connaissances scientifiques. Ce manque de
maîtrise peut freiner les progrès dans de nombreux domaines, car la
langue est le véhicule indispensable pour comprendre et intégrer sa
culture.
Mais en réalité, combien de personnes vivent en Algérie ?
Combien de contributeurs algériens sont actifs sur Wikipédia ? Et
quel est l'impact réel des Algériens sur l'enrichissement du
contenu encyclopédique ?
Répondre à ces questions reste une tâche complexe. Cependant,
j'ai eu l'occasion de consulter un rapport de 140 pages d'une étude
menée par Oxford, dont les analyses sont extrêmement pertinentes et
que je recommande vivement.
En résumé, pour combler le fossé du contenu arabe, il est
impératif de se concentrer sur des objectifs clairs, d’organiser
les efforts de manière structurée et de les diriger avec
persévérance, adaptabilité et répétition. Bien que le chemin soit
long, je demeure optimiste quant à l’avenir.
Pour plus de détails, vous pouvez consulter le rapport complet
ici : Oxford Study Report.
(Cette conversation a eu lieu sur une page de médias sociaux
et a été compilée ici avec quelques ajustements pour une meilleure
fluidité.)
Depuis 2017, les archives des
Hauts-de-Seine mettent en ligne le fonds de cartes postales
anciennes (CPA). En octobre 2020, cela représente 9558 CPA
provenant de la sous-série 9Fi réunissant les CPA de 1900 à 1944.
Ces photos tombées dans le domaine public accompagnées de quelques
métadonnées sont publiées sur le
site d'Open Data des Hauts-de-Seine. Cela peut surprendre mais
il y a quelques fonds de cartes postales et fonds photographiques
sur les sites d'open data. C'est en fait une très bonne idée car
ces sites sont adaptés à une réutilisation massive des données,
contrairement aux sites des archives qui ne sont pas faits pour
récupérer des centaines ou milliers de documents d'un seul
coup.
Dans ce billet de blog, je souhaite
vous montrer ma méthode qui est adaptée aux personnes, comme moi,
qui ne savent pas se servir de l'API, coder en Python, etc. Je
commence par récupérer les données en format CSV ou EXCEL afin de
les visualiser dans un tableur.
1. Télécharger les images
La première étape consiste à
récupérer les images. Pour cela j'utilise l'extension Simple
mass downloader qui existe en version
Firefox et
Chrome. Il suffit de copier les urls du csv dans l'extension
:
copier les liens
lancer le logiciel
onglet Download list
menu Hamburger Import URLs from
clipboard
Lancer la sauvegarde en cliquant sur start
selected
Dans le cas des archives des
Hauts-de-Seine, j'atteins assez vite le quota quotidien de requêtes
qui permet de télécharger environ 3000 fichiers. Tous les fichiers
téléchargés iront dans le dossier Téléchargements si vous
utilisez Windows.
Les fichiers n'ont pas d'extension,
j'utilise le logiciel Advanced Renamer pour
rajouter l'extension jpg (<Name>.jpg).
Enfin dans le tableur, il faut
indiquer l'emplacement des fichiers en remplaçant https://opendata.hauts-de-seine.fr/api/v2/catalog/datasets/cartes-postales/files/
par le répertoire où sont stockés vos fichiers.
2. Mettre en forme les
données
Un travail de mise en forme des
données est nécessaire.
2.1 Coordonnées
géographiques
Pour les coordonnées, je crée une
colonne avec la formule de LibreOffice
Calc : CONCATENER("{{Object
location|";B2;"}}"). Puis je fais un collage spécial du
texte dans une autre colonne (Pattypan ne semblant pas comprendre
les cellules avec des formules) et enfin je remplace la virgule par
un pipe ( | ).
2.2 Identifiants
Il peut également être
nécessaire dans certains cas de retravailler les identifiants qui
sont de la forme 9FI/ANT_1,9FI/ANT_15,9FI/ANT_153, ce qui ne peut pas se trier correctement.
Dans une autre colonne je copie le contenu, puis supprime tout sauf
les chiffres à l'aide d'une expression régulière dans
Rechercher/Remplacer : (.......)_ par rien. Puis dans
Notepad++,
j'ajoute les zéros manquants : \n(..)\r par \n0$1\r puis \n(.)\r par \n00$1\r
2.3 Noms des
fichiers
Wikimedia Commons ne
souhaite pas de titres incompréhensibles du type2e8e8c525c2ae4c9f983c64e725ef047.jpg
ou9FI/ANT_15.jpg.
Il faut donc créer un titre si possible simple mais explicite et
précis. Avec la commande CONCATENER je créé les nouveaux titres
ainsi :
Carte postale - VILLE -
TITRE - IDENTIFIANT.jpg.
L'ajout de
l'identifiant permet d'éviter d'avoir des titres identiques, ce qui
n'est pas possible sur Wikimedia Commons.
Attention le titre ne
doit pas contenir de crochets et ne doit pas être trop long. Dans
le cas contraire, le logiciel d'import des données arrêtera le
téléchargement. La commande NBCAR permet de compter le nombre de
caractères d'unecellule et ainsi
rapidement détecter les titres très longs. La documentation de
MediaWiki n'indique pas le nombre de caractères limite mais parle
d'une limite
de 255 bytes. Des tests sont nécessaires pour savoir à quoi
cela correspond en caractères, mais de toute façon il est
préférable d'utiliser des noms de fichier pas trop longs dans
MediaWiki.
3. Importer les données
Pour cette phase j'utilise Pattypan.
La première étape du logiciel consiste à Générer un tableau.
Importez les photos, sélectionnez le modèle MediaWiki que vous
souhaitez utiliser (dans mon cas il s'agit de Template:Photograph)
puis indiquez les champs à remplir par défaut :
Photographer : {{unknown|author}}
Title : {{fr|Carte postale des
Hauts-de-Seine}}
Institution : {{institution:Archives départementales
des Hauts-de-Seine}}
Et je coche les champs
Description, Date, Accession number et
Partnership pour que Pattypan remplisse ces champs à l'aide
des données dans le tableur. Vous obtenez un tableau de ce type
avec des colonnes pré-remplies et d'autres à remplir à l'aide des
données provenant des archives départementales :
Partnership va servir à
indiquer la géolocalisation. Pour cela, il faut aller dans le 2e
onglet Template du tableau créé par Pattypan afin de
déplacer ce modèle. Cet onglet peut sembler vide mais en
agrandissant la taille des cellules on voit le code des modèles de
Wikimedia Commons. Le fonctionnement de cet onglet n'étant pas
documenté, je ne sais pas exactement comment il fonctionne et
pourquoi le contenu est dupliqué dans de nombreuses cellules.
Faites donc le changement dans toutes les cellules.
'=={{int:filedesc}}==
{{Photograph
|photographer = ${photographer}
|title = ${title}
|description = ${description}
|depicted people =
|depicted place =
|date = ${date}
|medium =
|dimensions =
|institution = ${institution}
|department =
|references =
|object history =
|exhibition history =
|credit line =
|inscriptions =
|notes =
|accession number = ${accession_number}
|source = ${source}
|permission =
|other_versions =
}} ${partnership}
=={{int:license-header}}==
${license}
Une fois le travail de mise en
forme des données terminé, vous pouvez passer à la 2e étape de
Pattypan qui s'intitule Valider et envoyer.
À l'heure actuelle, le logiciel
s'arrête de téléverser les photos sans afficher le moindre message
d'erreur s'il rencontre un problème. Par contre, il se contente de
zapper l'import dans deux cas : s'il détecte que le
fichier a déjà été importé et si le nom est déjà
utilisé.
Les cartes postales géolocalisées
peuvent être visualisées dans
Wikimedia maps.
4. Dernières retouches
Quatre outils peuvent servir pour
affiner la catégorisation et les données :
Cat-a-lot
afin de déplacer, d'ajouter et de supprimer des fichiers (ou des
sous-catégories) entre catégories, depuis une catégorie, ou vers
une catégorie,
À
la fin de l'import, il y avait sur Wikimedia Commons un
millier de cartes postales en moins que sur le site des
Hauts-de-Seine. Des fichiers ont dû se perdre lors du
téléchargement des milliers de photos. Pour identifier rapidement
les fichiers manquants, j'ai utilisé un outil de comparaison
de listes en lui demandant de comparer les noms de
fichiers.
4.2 Remplacer et déplacer un
modèle
Visual File Change va notamment me
permettre de corriger une erreur faite lors des premiers imports en
utilisant le modèle de coordonnées géographiques adéquat et en le
déplaçant. L'expression régulière consister à rechercher :
Visual File Change peut également
servir à catégoriser les CPA à partir de termes inclus dans le nom
du fichier. Il est possible de faire des recherches du type :
intitle:"train"
incategory:"Collections of Archives départementales des
Hauts-de-Seine"
Wikimedia Commons, c’est 33 millions de fichiers. Beaucoup de
ressources sont consacrées à augmenter ce nombre : contributeurs
prenant de nombreuses photos, développement d’outils de versement
automatique depuis Flickr, financement d’appareils-photos, studios
et déplacements, organisation de concours avec prix (Wiki Loves
Africa, Wiki Loves Earth, Wiki Loves Monuments) ou non (Wiki Takes,
Opérations Libres), partenariats de versement des collections
d’institutions culturelles, etc.
Je crois que Wikimedia Commons est un projet à part entière et
plus un simple dépôt commun aux différentes versions linguistiques
de Wikipédia (et ses projets-frères). Toutefois, en l’état actuel
de la navigation est assez pauvre. Le plus simple pour trouver une
image est de passer par une recherche Google plutôt que par l’outil
de recherche interne, et l’arborescence des catégories est parfois
obscure dans sa logique, sans compter qu’elle est multilingue au
mauvais sens du terme : à tout moment, vous pouvez tomber dans une
sous-catégorie dans une langue que vous ne maîtrisez pas. S’il est,
je crois, urgent de réfléchir et implémenter une vraie navigation
dans Commons (via la vraie gestion du multilingue, la possibilité
d’afficher à la fois les images d’une catégorie et de ses
sous-catégories, etc), en attendant, la meilleure manière de
valoriser les fichiers de Commons est encore de les utiliser dans
les autres projets Wikimedia.
La réflexion autour de ce sujet est encore balbutiante. Les
global metrics n’intègrent que « nombre de fichiers
réutilisés », ne faisant pas la différence entre un fichier
utilisé une fois et une centaine de fois. La plupart des rapports
d’activité (FDC, This Month in GLAM, billets de blog) ne comptent
que le nombre de fichiers versés, sans regarder le reste.
Très peu d’actions existent en faveur de la valorisation des
fichiers de Commons :
les nombreux outils de réutilisation de l’image du jour comme
fond d’écran
les edit-a-thons ont parfois un volet « photographie et
illustration », mais cela se limite aux nouveaux fichiers, pas
au fond existant
certains programmes avec versement de fichiers veillent à
l’aspect internationalisation avec des métadonnées au moins
traduites en anglais
de nombreux versements (mais pas tous !) de collections
institutionnelles inclus un travail préparatoire ou a posteriori de
catégorisation des fichiers, mais assez peu de réflexion existe sur
leur réutilisation
un atelier spécifiquement dédié à l’illustration d’articles
Wikipédia grâce à un versement
des outils permettant de suggérer des fichiers à utiliser dans
une version linguistique de Wikipédia basé sur leurs utilisations
dans une autre langue
Que pourrait-on faire de plus pour mieux valoriser ces fichiers
? Quels sont les manques (outils, information, temps) qui nous
manquent ?
Vous en avez sans doute entendu parler. Cet événement est
l’occasion de revenir sur quelques usages de Wikipédia… en
lui souhaitant un très joyeux anniversaire !
Le mois dernier, les médias ont abondamment montré et
commenté la victoire électorale des militants de la mouvance
« Indignés ». Ils ont en revanche plus
parcimonieusement évoqué le programme, l’esprit et les convictions
des responsables qui vont bientôt être aux commandes de
Barcelone.
Le témoignage de l’universitaire Mayo Fuster Morell suggère que les
valeurs et les pratiques du Libre ne sont pas étrangères à cette
victoire, ce qui pourrait — rêvons un peu — servir d’exemple à
d’autres pays européens confrontés à l’austérité. Ce relatif
investissement du Libre dans le champ de la politique a de quoi
nous réjouir : voilà longtemps que le Libre n’est pas
seulement du code ou de l’art. Culture et objets libres gagnent
aussi du terrain désormais. À Barcelone, on en est peut-être au
libre citoyen.
Le 24 mai, les candidats de la liste
« Barcelone en commun » (Barcelona en Comú) ont
remporté les élections municipales en réunissant sur leur nom un
quart des suffrages exprimés. « Maintenant
Madrid », une candidature aussi liée à l’éthique des
communs, est devenue une force clé pour la gouvernance de la ville
de Madrid. Ce ne sont que deux des nombreuses surprises survenues
hier lors des élections municipales et régionales en Espagne. Ces
villes pourraient donner le signal d’un changement politique plus
vaste. Les résultats électoraux ont ouvert la voie à un scénario
optimiste pour une chance de victoire aux élections nationales à la
fin de cette année, ou même à un mandat plus ambitieux encore, une
coalition européenne des pays du Sud contre l’austérité.
Irruption de candidatures citoyennes
Le Parti populaire et le Parti socialiste restent les principaux
partis politiques, comme c’est le cas depuis la transition
démocratique de la fin des années 70, mais le pouvoir politique
habituel a encaissé une grosse claque. La part de ces deux
formations a chuté de 65 % lors des précédentes élections il y
a 4 ans à 52 % au niveau national. Le renouvellement ou plutôt
le changement des forces politiques en présence a été provoqué […]
par la création de nouveaux partis : tel est le cas pour
les « Citoyens », qui se sont imposés avec
force comme un nouveau protagoniste de poids dans la vie politique.
Cette irruption des candidatures citoyennes a été aussi
impressionnante que rapide. Elle a contribué à l’augmentation d’au
moins 5 points de la participation au scrutin.
Seulement quatre ans après que les Indignés du mouvement du 15
mai se sont mobilisés pour « une vraie démocratie
maintenant » en opposition aux hommes politiques
« qui ne nous représentent pas » et à la
« dictature des marchés », l’impact de leur
mouvement est désormais si visible qu’il ne peut plus être démenti.
Les listes de candidature sont pleines de personnes venant du
réseau des mouvements sociaux. Pour en donner une idée, Ada Colau,
militante connue pour ses actions contre l’expulsion des activistes
et des squatters va être le prochain maire de Barcelone. C’est
l’ironie de l’Histoire : une militante anti-expulsion
« expulse » les politiciens traditionnels de
la mairie. Si l’on regarde la trajectoire des leaders du mouvement,
on peut également dire que le cycle a démarré avec le mouvement
anti-mondialisation (l’origine de Colau ou de Pablo Iglesias, le
leader de Podemos/Yes we can), mais qu’il a réussi à mobiliser une
fois encore la génération qui s’est battue contre le régime de
Franco pour ramener la démocratie en Espagne (c’est de là que vient
Manuela Carmena de « Madrid maintenant », une
juge en retraite et très probable future maire de Madrid).
En ce qui concerne leurs programmes, la première chose à
souligner est la place centrale réservée aux plans d’urgence pour
secourir les citoyens qui étouffent sous les politiques
d’austérité, tels que la mise en œuvre de différentes variantes
d’un revenu de base, et la révision de la privatisation des
services publics. Un code d’éthique existe pour contrôler les
personnels politique en ce qui concerne la transparence, la fin de
leurs privilèges (par ex. une limitation des indemnités à 29 000 €
par an) et leur engagement à soutenir les initiatives
citoyennes.
Au-delà du poids politique, c’est fascinant d’un point de vue
organisationnel. En moins d’un an et sans aucun lien avec les
mondes politique, économique, judiciaire ni avec le pouvoir
médiatique existant, des citoyens ordinaires joignant leurs forces
ont été capables de conquérir des positions importantes dans le
système politique. Une victoire de David contre Goliath. Pour cela,
ils ont associé le financement participatif, les programmes
collaboratifs, les assemblées de voisinage, et le vote en ligne.
Ils ont aussi, comme le leader de Podemos, bâti leur succès sur la
popularité obtenue par leur propre programme télé.
Que disait la chanson ? « Prenons
d’abord Barcelone, puis nous prendrons
Manhattan ? » En effet, certains travaillent
là-dessus. Une délégation d’activistes de New-York a parcouru
l’Espagne pendant la campagne afin d’apprendre de cette expérience
et « d’exporter » un tel soulèvement du
peuple dans leurs propres villes. Il y a de nombreuses leçons et
idées à en tirer. Voici quelques sources d’inspiration que je vous
suggère d’envisager, pour démarrer un processus similaire dans
d’autres pays.
L’effet CC
Un des combats citoyens (surtout chez les jeunes) qui a précédé
et ensuite nourri le mouvement du 15 mai a vu le jour en réaction
contre une loi imposée par le gouvernement, réprimant le partage en
ligne et la culture libre (Loi Sinde de décembre 2010). Dans une
large mesure, ce mouvement de culture collaborative sur le Web a
réagi comme le fit Lessig en 2008, qui est passé des
« Creative Commons » à
« Change Congress »
(« Changeons le Congrès ») . Au départ
concentré sur les politiques sectorielles en lien avec la propriété
intellectuelle et la régulation d’Internet, il a évolué pour
appréhender le fait que défendre ces libertés est nécessaire pour
transformer le système politique dans son ensemble. Au cours de
cette évolution, les modèles de la culture libre et du travail
collaboratif sont devenus une voie à suivre pour organiser la
protestation politique.
[…]
En somme, les secteurs ayant de l’expertise dans les méthodes de
co-création et coopérant grâce aux ressources en ligne ont un grand
potentiel politique.
Le modèle « d’innovation cachée » de
Wikipédia
Même s’il existe de grandes innovations dans les structures, il
faut que le discours soit « simple » voire
« strict ». Mako Hill a étudié comment
Wikipédia a pu réussir en 2001 alors que d’autres tentatives de
création d’encyclopédie en ligne avaient échoué. Une de ses
conclusions est que Wikipédia a adopté un concept très simple à
comprendre, tout en étant très innovant dans son fonctionnement. Il
s’est fermement accroché à la notion traditionnelle
d’encyclopédie : une idée vieille de plusieurs siècles
qui est simple à comprendre. De la même façon, on peut dire la même
chose ici. Le discours qui a pu faire grossir les votes en faveur
d’un profond changement politique en Espagne n’est ni
avant-gardiste ni particulièrement innovant, mais il est populaire,
compréhensible par chacun et relié aux besoins fondamentaux.
Quelques points se rapprochent de la démocratie radicale proche de
Laclau et Mouffe. C’est un « combat » de bon
sens, pour obtenir une hégémonie. Pendant ce temps, des modèles
plus avant-gardistes, comme les nouveaux partis ayant un discours
« innovant » et une identité sur Internet
tels le Parti pirate ou le Parti X, sont pertinents en terme de
conception d’organisation mais ne parviennent pas à mobiliser les
votes du grand public (aux dernières élections européennes, le
parti X a recueilli 0,64 % des voix). En somme, il faut des
méthodes innovantes associées à un discours pour le peuple, en lien
avec un programme portant sur les besoins fondamentaux.
La base et le sommet
Ces principes d’organisation ne sont ni du sommet vers la base,
ni de la base vers le sommet, ils sont « de la base et
du sommet ». Pour être plus précis :
« un sommet facilement identifiable travaillant pour une
base disséminée ». Ces forces s’appuient sur des leaders
forts, mais aussi sur le développement d’une base collaborative et
libre d’agir. Un concept-clé est le
« débordement ». Il se réfère à la capacité
de perdre le contrôle du processus, et à la liberté d’agir laissée
à ceux qui s’engagent dans le processus. L’augmentation de la
créativité des actions et des soutiens hors du contrôle du
« parti » semble être un des points
pertinents dans le succès de ces méthodes (c’est le cas pour
le
mouvement de création graphique autour des candidatures). De
plus, il n’existe pas de frontière précise entre qui est membre du
« parti » et qui ne l’est pas, il n’y a pas
de rituels pour dire qui est dedans et qui n’y est pas, c’est
l’implication personnelle au travers de l’action qui permet d’être
membre. Les leaders ont tout de même une présence forte, leurs
visages sont devenus des symboles-clé du processus (c’est-à-dire
que sur le bulletin de vote ne figure pas le logo du parti mais la
photo du leader). Des symboles visuels sur un Internet visuel mais,
même avec Internet, la télévision reste toujours un moyen-clé de
communication. En particulier, l’association des leaders et de la
télévision est un moyen-clé de communication vers les milieux
populaires, ceux qui ne sont pas touchés par les mouvements sociaux
de la classe moyenne relayés par Internet. La crédibilité des
leaders se construit sur leur capacité à communiquer et sur un
engagement social de longue date. Les candidatures féminines – peu
importe leur âge – (les femmes sont en tête de liste dans des
villes comme Barcelone, Madrid et Valence) ont une plus grande
capacité à augmenter les votes car elles transmettent l’idée de
changement et dirigent de façon plus démocratique. Comme le dit le
prochain maire de Barcelone, Ada Colau (une Zapatiste
d’origine) : « conduite par l’obéissance aux
ordres du peuple ». La position du leader est construite
« pour » la base et non
« au-dessus » d’elle. En somme, un leader
social et très reconnaissable, mais une participation disséminée et
non contrôlée.
Une fois encore, ce ne sont que trois
visions « impressionnistes » du processus
d’émancipation du peuple en Espagne. Il reste encore beaucoup à
venir. 2015 est l’année du changement, cela continuera donc. En
attendant, il est temps de fêter cela. Je vous laisse avec la rumba
« run run » chantée par le prochain maire de
Barcelone :
Ci-dessus, Ada Colau, dans un clip de campagne très joyeux. Le
refrain de la rumba dit : « défendre le bien
commun ». Pour voir et entendre la vidéo sur
YouTube : https://www.youtube.com/watch?v=wB6NDWKDyKg
La numérisation des collections patrimoniales des musées
devrait constituer une chance pour la diffusion de la culture. Trop
souvent hélas, ce n’est pas le cas, à cause du copyfraud auquel se
livrent les institutions. Comme
l’a dit très justement Pier-Carl Langlais, le copyfraud est
l’inverse du piratage : une revendication abusive de droits
sur le domaine public pour en restreindre la
réutilisation.
Les exemples de copyfraud ne manquaient déjà
pas, mais le Reiss
Engelhorn Museum de Mannheim en Allemagne a franchi cette
semaine une ligne rouge en la matière. L’établissement a en effet
décidé d’attaquer en justice la Wikimedia Foundation et Wikimedia
Deuschland, pour la diffusion de 17 images d’œuvres du domaine
public sur Wikimedia Commons. Depuis 2008, la Wikimedia Foundation
a défini une position très claire à propos du copyfraud, en
indiquant qu’elle ne reconnaissait pas la légitimité des
restrictions rajoutées sur la réutilisation d’images en deux
dimensions d’œuvres du domaine public. L’année suivante, une alerte
sérieuse s’était produite lorsque le wikimédien Derrick Coetzee
avait téléversé sur Wikimedia Commons plusieurs milliers d’images
extraites du site de la National Portrait Gallery de Londres. Son
geste
dénonçait le fait qu’elle portait un copyright alors qu’elles
correspondaient à des œuvres du domaine public . La National
Portait Gallery avait alors agité la menace d’un procès, sans la
mettre à exécution à la différence cette fois du musée Reiss
Engelhorn.
Si l’on peut déplorer un tel comportement de la part d’une
institution patrimoniale, ce sera peut-être aussi l’occasion pour
un tribunal de se prononcer sur la légalité des pratiques de
copyfraud. Comme le dit la fondation Wikimedia dans sa réponse au
musée, la reproduction fidèle de tableaux ne crée pas une
« nouvelle œuvre » et il est improbable que ces
photographies satisfassent au critère de l’originalité, impliquant
que le créateur imprime « l’empreinte de sa
personnalité » dans son œuvre pour bénéficier d’une
protection.
En France également, nombreux sont les établissements
culturels se livrant à des pratiques de copyfraud. Le site Images
d’art, lancé récemment par la Réunion des Musées Nationaux,
comporte plus de 500 000 œuvres numérisées provenant de nombreux
musées français. Mais toutes ces images portent le copyright du
photographe les ayant réalisées, ce qui en interdit la
réutilisation. Quelques institutions choisissent pourtant au
contraire de diffuser librement leurs images et certaines comme le
Musée des Augustins à Toulouse ou le Musée des Beaux Arts de Lyon
ont engagé des partenariats avec Wikimedia France pour diffuser
leurs images sur Wikipédia . Mais elles restent encore
minoritaires.
Le plus inquiétant, c’est que la loi française risque
bientôt d’évoluer pour légaliser les pratiques de copyfraud. Le
recours au droit d’auteur par le musée Reiss Engelhorn reste
juridiquement très fragile et la fondation Wikimédia peut encore
affronter un procès avec des chances sérieuses de l’emporter. Mais
la loi Valter, actuellement en cours d’adoption,
s’apprête à consacrer la possibilité pour les établissements
culturels de fixer des redevances de réutilisation sur les
reproductions d’œuvres qu’elles produisent — y compris à partir des
œuvres du domaine public — en les assimilant à des données
publiques.
Là où devant la justice allemande, on peut encore
revendiquer le droit de réutiliser le domaine public librement, ce
ne sera peut-être bientôt plus possible en France.
Wikimedia Foundation et Wikimedia Deutschland invitent
instamment le musée Reiss Engelhorn à abandonner ses poursuites
concernant des œuvres d’art du domaine public.
Le 28 octobre, le musée Reiss Engelhorn de Mannheim,
en Allemagne, a intenté un procès à la Wikimedia Foundation et
ensuite à Wikimedia
Deutschland, la branche allemande du mouvement international
Wikimedia. L’objet en est une plainte pour copyright concernant 17
images d’œuvres d’art du musée qui relèvent du
domaine public et qui ont été mises en ligne sur Wikimedia
Commons. Wikimedia Foundation et Wikimedia Deutschland
examinent la plainte et feront une réponse commune avant l’échéance
fixée en décembre.
La Wikimedia Foundation et Wikimedia Deutschland maintiennent
fermement leur engagement à rendre les œuvres publiques gratuites
et libres d’accès. Les institutions publiques telles que les
galeries et musées ont la même mission, et ont été des alliées
historiques pour rendre accessibles à tous les connaissances du
monde entier. Avec ce procès, le musée Reiss Engelhorn limite
l’accès public à d’importantes œuvres culturelles qui seraient
inaccessibles autrement pour le reste du monde.
Les peintures, portraits et autres œuvres d’art concernés par ce
procès sont exposés au sein du musée Reiss Engelhorn, mais sont
déjà présents dans le domaine public. Quoi qu’il en soit, la loi
allemande sur le droit d’auteur peut s’appliquer aux photographies
des œuvres qui appartiennent au domaine public, selon différents
critères incluant l’artiste créateur de l’œuvre lui-même, la
compétence et les efforts qui ont été mis dans la photographie, la
créativité et l’originalité, et enfin l’art en tant que tel. Le
musée Reiss Engelhorn prétend que ces images sont soumises au droit
d’auteur car le musée a rémunéré le photographe qui a pris
certaines d’entre elles, ce qui lui a demandé du temps, de la
compétence et des efforts pour les prendre. Le Musée Reiss
Engelhorn affirme encore que, à cause de ce droit d’auteur,
les images des œuvres d’art ne peuvent pas être partagées au
travers des Wikimedia Commons.
Les œuvres du domaine public affrontant l’hydre
du droit d’auteur (allégorie)
La Wikimedia Foundation et Wikimedia
Deutschland estiment que le point de vue du musée Reiss Engelhorn
est erroné. Les lois sur le droit d’auteur ne doivent pas être
utilisées à mauvais escient dans le but de contrôler la
dissémination d’œuvres d’art appartenant au domaine public depuis
longtemps, telles que les peintures exposées au musée Reiss
Engelhorn. Le but du droit d’auteur est de récompenser la
créativité et l’originalité, et non de créer de nouveaux droits
limitant le partage en ligne d’images d’œuvres du domaine public.
De plus, même si la loi allemande accorde quelques droits sur ces
images, nous pensons qu’utiliser ces droits dans le but d’empêcher
le partage des travaux du domaine public va à l’encontre de la
mission du musée Reiss Engelhorn et de la ville de Mannheim et
appauvrit l’héritage culturel mondial.
De nombreuses institutions se sont donné pour mission de rendre
leurs collections le plus accessible possible pour le monde entier.
En octobre, le musée des Arts et Métiers
d’Hambourg, en Allemagne, a rendu sa collection accessible librement en
ligne. Le Rijksmuseum d’Amsterdam a fourni un accès en
ligne à toutes ses peintures, y compris la possibilité de les
télécharger et d’utiliser les reproductions sous licence domaine public
CC0. Au Danemark, SMK (Statens Museum for Kunst, la Galerie
Nationale du Danemark) a rendu publiques ses images et vidéos
numériques sous la licence CC-BY.
La British
Library [N.d.T : Bibliothèque de Grande-Bretagne, équivalent de
la BNF] et le Japan
Center for Asian Historical Records [N.d.T : le Centre japonais
d’archives historiques asiatiques] ont conjointement libéré plus de
200 gravures japonaises et chinoises dans le domaine public.
Ces institutions culturelles conservent les valeurs du domaine
public et protègent le droit de prendre part à notre héritage
culturel. La tentative du musée Reiss Engelhorn de créer un nouveau
copyright dans le domaine public va à l’encontre des principes
européens sur le domaine public.
L’armée française part en campagne contre le
copyfraud
Dans un
communiqué du 11 août 2008, la Commission européenne a
écrit : « il faut souligner qu’il est essentiel que les
œuvres qui sont dans le domaine public restent accessibles après un
changement de format. En d’autres termes, les œuvres qui sont dans
le domaine public devraient y rester une fois numérisées et être
rendues accessibles par Internet ». Cela a été renforcé par la
charte d’Europeana de 2010 qui stipule : « Aucun
autre droit sur la propriété intellectuelle ne doit être utilisé
pour rétablir une exclusivité sur des matériaux du domaine public.
Le domaine public fait partie intégrante de l’équilibre interne du
système de droit d’auteur. Cet équilibre interne ne doit pas être
rompu par des tentatives pour obtenir ou rétablir un contrôle
exclusif via des règles extérieures au droit d’auteur. »
Ces dernières années, le mouvement Wikimédia a bénéficié de
partenariats fructueux avec des musées et des galeries à travers le
monde grâce à l’initiative
GLAM-Wiki, qui aide des institutions culturelles à partager
leurs ressources avec le monde entier par le biais de projets de
collaboration avec des éditeurs expérimentés de Wikipédia. Ces
partenariats ont permis à des millions de personnes de découvrir et
d’apprécier des collections situées dans des endroits qu’ils ne
pourront jamais visiter. Wikimédia Deutschland, seule, a travaillé
avec plus de 30 musées en Allemagne pour rendre leurs collections
accessibles gratuitement à n’importe qui n’importe où, au travers
des projets Wikimédia. Ces partenariats font partie d’un effort
indispensable qui permet aux institutions culturelles et à
Wikimédia d’accomplir leur mission de libération de la connaissance
et de partage de la culture.
Partout dans le monde des gens utilisent Wikipédia pour
découvrir et comprendre le monde qui les entoure. Grâce à Internet,
de nombreux obstacles traditionnels à la connaissance et à
l’apprentissage ont disparu. Refuser l’accès en ligne à des images
du domaine public empêche les gens d’explorer et de partager notre
patrimoine culturel mondial. Nous exhortons le musée Reiss
Engelhorn à reconsidérer sa position et à travailler avec la
communauté Wikimédia pour rendre encore plus accessibles leurs
œuvres élevées dans le domaine public.
Cet article fait partie des « Carnets de voyage de
Contributopia ». D’octobre à décembre 2019, nous y ferons
le bilan des nombreuses actions que nous menons, lesquelles sont
financées par vos dons (qui peuvent donner lieu à une réduction
d’impôts pour les contribuables français). Si vous le pouvez,
pensez à nous
soutenir.
Dernier interlude « Nos actions sont financées par vos
dons »
Les carnets de
voyages de Contributopia sont aussi bien une campagne
d’informations qu’une campagne de dons. Nous venons de publier une
quinzaine d’articles en moins de deux mois pour faire le bilan de
deux années à suivre la feuille de route Contributopia. C’est à la fois pour
vous dire « voici ce que nous avons fait grâce à vos
dons » mais aussi pour vous faire comprendre que « si
vous voulez que nous poursuivions nos actions, nous avons besoin de
dons ».
Cliquez
pour découvrir la page des Carnets de Contributopia, et sa carte
qui s’adapte à votre écran… (par David Revoy)
Alors voilà, c’est notre dernier moment « pub » de
l’année ! Avant que d’aller boire avec la modération qui vous
sied, d’aller demander si ce bisou sous le gui est consenti, et
surtout avant d’aller dire au revoir à 2019… Nous voulions
– une dernière fois – rappeler aux contribuables français
qu’il ne leur reste plus que quelques heures pour faire un don à
Framasoft qui soit défiscalisable en 2019 ! Car même avec le
prélèvement à la source, un don de 100 € à Framasoft revient, après
déduction à 34 €. Vous connaissez le chemin pour nous soutenir : c’est
là.
Des carnets magnifiquement illustrés
Ces Carnets de
voyage de Contributopia n’auraient pas été les mêmes sans le
travail, l’enthousiasme et le talent de David Revoy, qui a de
nouveau accepté de les illustrer pour nous. Il a commencé cette
nouvelle prestation en nous posant une question simple :
quelle est la contrainte ? Nous voulions une espèce de carte
aux trésors, de carte de jeu vidéo, à afficher sur une page web.
Mais aujourd’hui, une page web peut aussi bien être vue sur un
écran 4K, une tablette ou un ordiphone tout en longueur…
– Tu peux nous faire une carte responsive ? Ça te va, comme
contrainte, David ?
– Chiche !
Allez, franchement, avouez : est-ce que vous aviez remarqué
que la carte des Carnets de Voyage de
Contributopia peut s’afficher tout en longueur, tout en
hauteur, ou dans un joli rectangle proportionné… ? Allez
tester, pour
voir : c’est bluffant !
Surprise : ces carnets vous appartiennent
David Revoy est connu comme un artiste libriste : il
contribue à Krita, a travaillé avec
la Blender Fondation, et son web-comic Pepper & Carrott
est publié sous licence CC-By. Il est donc logique que les quatre
panneaux de la carte retraçant nos Carnets de Voyage, ainsi que les
15 œuvres illustrant les 15
pages de nos carnets soient sous la même licence !
« Contributopia » n’est pas qu’un joli mot mettant
dans une même valise nos désirs d’Utopies et de Contribution. Nous
venons de montrer, dans ces Carnets de Voyages, que
c’est aussi un ensemble d’actions, de réflexions, et de liens que
nous tissons.
Nous espérons que ces partages vous ont plu, en tous cas vos
retours nous ont souvent fait chaud au cœur, et remplis de l’envie
de faire au moins aussi bien en 2020 !
Nous vous souhaitons, avec quelques heures d’avance, une année
2020 riche de contributions, d’utopies et d’émancipations.
— Les membres de l’association Framasoft.
Rendez-vous sur la
page des Carnets de Contributopia pour y découvrir d’autres
articles, d’autres actions que nous avons menées grâce à vos dons.
Si ce que vous venez de lire vous plaît, pensez à soutenir notre
association, qui ne vit que par vos dons. Framasoft étant
reconnue d’intérêt général, un don de 100 € d’un contribuable
français reviendra, après déduction, à 34 €.
Le samedi 25 avril dernier s’est tenu le premier
Confin’atelier, premier Contribatelier en ligne, et ça a été un
succès. Afin de valoriser cette belle initiative, nous republions
ici le compte-rendu publié sur https://contribateliers.org/ et nous sommes ravi⋅es de
vous annoncer qu’un second opus est en préparation ! La date
est même fixée : ce sera le samedi 6 juin 2020 de 14h
à 17h.
Alors qu’est-ce qu’on a fait pendant ce
Confin’atelier, premier Contribatelier en ligne, et qu’est-ce
qu’on en retient ? Plein de choses ! Allez on y va, on
commence par le global et on détaillera pôle par pôle ;-).
Ready ? Go !
Globalement
Déjà les chiffres qui nous réchauffent le cœur :
plus 80 participant·es, 11 salons en simultané (10
salons pour les pôles et 1 pour l’accueil), 13
animateur·rices, plus de 3 heures de Confin’atelier :
Wouhou ! On ne s’était pas fixé d’objectifs à atteindre mais
même si ç’avait été le cas, on est plus que largement
satisfait·es !
Autre chose notable : aucun souci rencontré concernant la
technique. C’était un peu la crainte, qu’il y ait beaucoup de
participant·es et que l’instance Big Blue Button de
FAImaison soit surchargée. On avait même prévu un plan B si
besoin, dans lequel on était prêt à migrer les salons de certains
pôles sur une autre instance Big Blue Button pour absorber la
charge. Au final RAS comme on dit, aucun pôle n’a subi de bugs,
ralentissements ou autre : bref, on était bien à l’aise !
(bon on a aussi demandé à tou·tes les participant·es de ne pas
utiliser leur webcam et de se contenter de l’audio : ça
aide !)
Pôle par pôle
Le retour de chaque pôle a été rédigé par le ou les
animateur·rices du pôle concerné, sauf pour le pôle accueil où
c’est un participant qui a voulu nous faire part de son retour.
Merci fabulousfabs !
Pôle Accueil
Pôle animé par MeTaL_PoU, Numahell & QuentinD
Du monde tout l’après-midi, le pôle accueil avait la lourde
responsabilité d’accueillir sur le Confin’atelier, d’expliquer le
fonctionnement de l’outil BBB, de guider les participant·e·s vers
les différents pôles, de répondre aux questions. Ce pôle
« tampon » était nécessaire et a été remarquablement bien
orchestré par nos 3 ami·e·s ! Ambiance franchement
sympathique, accueil chaleureux et patience dans leurs
explications, MeTal_PoU & Numahell se sont données sans retenue sur
le pôle accueil ! QuentinD gérait la comm’ sur les réseaux
sociaux (de ce que j’ai compris, pour la première fois), et venait
faire un coucou aux rares moments où il avait 5 minutes. Pendant ce
temps, MeTal_PoU & Numahell prenaient leur temps pour dire bonjour,
expliquer inlassablement le système de salons multiples, comment
basculer vers un autre pôle, comment aider à régler / couper son
micro sur BBB, tout cela sans jamais perdre le sourire (qui
s’entendait) ou patience. Elles ont eu à cœur de laisser présenter
les pôles aux responsables de salons qui en avaient le temps,
permettant à nos 80 bonnes âmes de choisir où aller donner un coup
de pattes. Bravo à vous 3 !
Pôle Framalibre
Pôle animé par Gavy
Environ une dizaine de personnes pour ce pôle autour de
l’annuaire historique de Framasoft. On a commencé par une petite
présentation de Framalibre – ce qu’est
l’annuaire, ce qu’on peut y trouver et ce qu’on peut y faire –
avant de voir comment y contribuer.
Si contribuer à Framalibre vous donne envie, le meilleur moyen
pour commencer, c’est de venir en parler sur Framacolibri (le forum
de Framasoft), dans la section dédiée à
l’annuaire !
Pôle Design & Libre
Pôle animé par Maiwann
Une dizaine de personnes qui étaient présentes pour cet atelier
visant à regrouper les designers ayant envie de faire bouger les
choses coté logiciel libre ! Petite surprise : Il y avait
aussi des personnes qui étaient plutôt développeurs et qui étaient
en demande pour savoir comment trouver quelqu’un avec qui
collaborer. Après plusieurs petites discussions sur « Pourquoi
y a-t-il aussi peu de designers dans le monde du
libre ? » nous avons décidé de faire un petit site afin
de pouvoir renvoyer les différentes personnes intéressées par le
sujet dessus \o/ Ni une, ni deux, entre celleux qui s’occupaient du
contenu et celleux qui étaient lancés sur la technique, nous avons
déjà une page à vous présenter regroupant des façons de nous
contacter et des ressources autour du design : Foire aux
questions, articles, témoignages de collaboration… C’est par
là ! ! 🎉 => https://design-et-libre.frama.io/
Merci à celles et ceux qui ont participé à cet atelier 🥳
Pôle Communiquer pour des projets libres
Pôle animé par Pouhiou
La proposition était de faire un tour de table des expériences
et besoins dans la communication pour des projets libres, puis de
prendre chaque besoin un par un et de partager nos retours
d’expérience dessus. S’en est suivie une conversation de 3h avec
plus de 10 personnes présentes absolument passionnante. Une des
problématiques récurrentes fut de trouver comment communiquer sans
reproduire les codes du capitalisme de surveillance.
Reproduction
dans ce billet de blog avec l’autorisation de Chloé.
Merci !
Pendant les échanges, David Revoy nous a écouté
(et est parfois intervenu) tout en dessinant en direct une nouvelle
illustration de Sépia, lae poulpe-mascotte de PeerTube, dont nous avons appris à cette occasion
qu’iel n’avait pas de genre (découvrez-la plus
bas !). Le seul regret de l’animateur (Pouhiou) c’est
d’avoir du mal à jongler entre son animation et ses envies de
partager une grosse expérience accumulée au sein de Framasoft (et
donc de monopoliser la parole). Merci à toutes les personnes qui
ont contribué !
Pôle PeerTube
Pôle animé par Angie
Une douzaine de personnes ont participé à cet atelier portant
sur la sélection de contenus de qualité hébergés sur PeerTube. Angie a commencé par expliquer qu’il était
important de valoriser ces contenus pour en montrer la diversité.
Ce travail de curation permet d’alimenter le bloc « Découvrez
notre sélection de contenus » de https://joinpeertube.org/ Plusieurs
participant⋅es ayant des questions sur le fonctionnement du
logiciel PeerTube, nous avons passé un peu de temps à y répondre.
Angie a ensuite rappelé quelques critères pour la sélection
(contenus sous licence libre ou dont on a l’assurance qu’ils sont
publiés par leur créateur) et proposé des outils permettant la
recherche au sein des différentes instances de PeerTube et les
participant⋅es se sont lancés dans la recherche de contenus. Au
final, 14 nouveaux contenus (vidéos, chaînes et instances) ont été
sélectionnés. Pour chacune de ces sélections, un texte de
présentation a été rédigé. Ces éléments seront prochainement
visibles sur la page d’accueil de joinpeertube. Cet atelier était
vraiment chouette car il a permis à l’ensemble des participant⋅es
de découvrir ces contenus mais aussi d’échanger sur le
fonctionnement du logiciel et sur les modalités d’inscription sur
une instance. A reproduire pour découvrir de nouveaux
contenus !
La nouvelle
illustration de Sépia, mascotte de PeerTube, realisée par David
Revoy pendant le Confin’atelier (licence CC-BY)
Pôle OpenStreetMap
Pôle animé par gibro
Le pôle OSM a débuté par une présentation rapide de la carte
OpenStreetMap : son modèle, ses principes de fonctionnement et
les principaux outils de contributions. Il y a ensuite eu une
démonstration du fonctionnement de la carte ça reste ouvert :
Utilisation de la carte => affichage des informations, codes
couleur utilisés, choix des langues, mode daltonien
Explication de la fonctionnalité « Signaler un
changement » => formulaire permettant d’ajouter directement
les informations sur un lieu sans avoir besoin d’un compte
OpenStreetMap
Résolution des notes générées par le site => à partir du
site NoteReview avec le tag
#caresteouvert permettant aux contributeurs de suivre les
signalements « ça reste ouvert » et de renseigner les
informations dans la base OpenStreetMap
Pendant et après la démonstration, nous avons échangé en
fonction des besoins et interrogations des personnes présentes. Il
y avait une douzaine de personnes en continu dans le salon et
plusieurs contributeurs pour l’animer (merci Sebbaz et Eric B).
Nous avons aussi discuté de la possibilité de mettre en place un
site web facilitant la saisie des informations sur les commerces
sans passer par un compte OpenSteetMap, sur le modèle https://caresteouvert.fr ou https://wheelmap.org/ Pour conclure,
j’ai trouvé très agréable et efficace l’outil BigBlueButton pour
les démonstrations et les interactions avec les participants. Il
était également intéressant d’être à plusieurs pour animer pour
gérer les échanges sur le chat et l’ajout d’informations dans les
notes en parallèle des démonstrations en partage d’écran.
Retour d’un participant :
Très bon accueil de Gibro :) Belle découverte de caresteouvert, ce qui m'a permis d'actualiser les informations autour de chez moi. Concret et pratique. J'avais aussi des questions plus générales de mises à jour de OSM, que j'ai pu mettre en pratique immédiatement grâce aux conseils avisés de Gibro et Fred, merci à eux. Pratique, concret, convivial, j'ai passé un très bon moment et j'ai pu pratiquer immédiatement pour faire des mises à jour, merci <3
Pôle Wiktionnaire
Pôle animé par Noé
Première session de contribution en ligne et une bonne
expérience. L’exploration d’un dictionnaire n’était probablement
pas l’expérience la plus séduisante, d’où l’affluence limitée, mais
l’animateur a pu néanmoins contribuer et montrer l’intérêt du
Wiktionnaire avec de l’ajout d’illustrations et d’exemples, et même
créer de nouvelles pages. Un participant, motivé par la
présentation a pu téléverser une de ses photographies pour
illustrer la page du
Wiktionnaire de la ville de Gafsa. L’envie d’en refaire et la
hâte de reprendre les
permanences mensuelles lyonnaises !
Pôle Wikipédia
Pôle animé par Lyokoi
Une session de 3h bien remplie et qui aurait pu durer si le
présentateur ne tombait pas de fatigue et ne perdait pas sa voix à
la fin. La session oscillait entre 4 et 6 personnes avec un pic de
présence à 8. La première moitié (1h30) fut une présentation
globale de Wikipédia, son
fonctionnement, sa communauté, ses règles et surtout une visite de
l’interface de contribution. Ponctuée par les questions des
visiteurs et visiteuses, nous avons apporté des sources à des
articles, nous avons découvert plusieurs aspects de la contribution
(images, structuration, wikification, etc.) et avons noté dans le
pad interne des liens importants. La deuxième partie était surtout
consacrée à l’échange avec les participants et les participantes,
via message ou via micro. Un contributeur de Lorient a pu se faire
aider à monter un groupe local et plusieurs nouveaux et nouvelles
ont pu faire leurs premières modifications (ainsi qu’un ancien qui
s’y est remis). L’expérience a été très enrichissante et a donné
l’envie de recommencer.
Pôle Piaf
Pôle animé par Guillaume
Une super ambiance, avec une dizaine de curieux qui voulaient en
savoir plus sur le projet. Nous avons discuté des intérêts de
construire des ressources pour créer des intelligences
artificielles francophones, et également des façons de procéder.
Puis nous avons tous ensemble contribué, en écrivant des questions
réponses sur des articles Wikipédia. Avec
quelques dizaines de questions réponses produites, Piaf en est
maintenant à 7000 depuis le début du projet il y a quelques
mois ! Bravo et merci à tous ! Et continuons de
contribuer quand nous en avons le temps :)
Pôle Culture libre / Khaganat
Pôle animé par Zatalyz et GPSqueeek
Après une demi-heure à – nous ronger le clavier de peur de
n’avoir personne – papoter, nous décidons de revenir faire un tour
à l’accueil pour signaler qu’on était là et que c’était chouette de
venir dans notre salon. Et ça a marché ! On a en effet eu la
joie d’avoir le retour d’une contributrice qui nous a aidé·es à
voir comment serait fait le système solaire dans l’univers du
Khanat, et c’est pas
rien ! Le Khanat serait probablement une lune d’une géante
gazeuse, et ensuite il y a des histoires d’angle des plans
orbitaux, de masse et de taille des différents astres. On espère un
jour avoir de quoi montrer ce ciel dans Godot pour l’intégrer au
futur jeu ! Ensuite on a eu plusieurs visites de curieuses
dont certaines sont restées pour nous aider à commencer un article
au sujet d’une bestiole qui avait été dessinée sur papier en
Contrib’atelier en présentiel en fin d’année dernière. Ce n’est pas
encore terminé mais il y a une bonne base pour avoir quelque chose
de publiable bientôt sur notre wiki on espère ! Merci aux
visiteuses et autres contributrices qui ont été toutes plus
oniriques les unes que les autres (et chez Khaganat, c’est signe
d’un tas de guimauves, accompagnées d’un tas de câlins si ça fait
plaisir !).
Pôle Contribuer au libre pour les développeur·ses
Pôle animé par ervin
Nous avons eu 11 personnes présentes. Globalement les nouveaux
venus étaient satisfaits et ont trouvé des projets auxquels
contribuer. La durée n’a pas forcément permis de mettre des choses
en production, mais le contact a été établi et certains des
participants comptent continuer à contribuer. Beaucoup d’appétence
pour une autre session. Les notes complètes dont le tour de table
final : https://mypads.framapad.org/p/confinatelier-framadate-3m1pcq7p7
En conclusion
Pour nous ce n’est que du positif donc un immense merci à
tou·tes celleux qui ont pris part à ce Confin’atelier :
Animateur·rices : merci pour la diversité
des pôles et leur nombre !)
Participant·es : merci d’avoir être été
autant de monde à répondre présent·es pour donner de votre temps
pour le libre
Bénévoles de FAImaison :
bah oui, pas de bénévoles FAImaison, pas de Big Blue Button, donc
pas de Confin’atelier. CQFD ;-).
Il fait froid, le four est
agréablement chaud… aujourd’hui, une recette simple de
croque-monsieurs.
1) Tartinez la tranche du bas avec du
beurre.
2) Ajoutez une demi tranche de
jambon. Ou une entière si vous voulez, j’suis pas vot’chef.
3) Mélangez le fromage râpé avec un
peu de lait et mettez ça sur la 2eme tranche de pain.
Le lait, comme le beurre plus haut,
sert principalement à éviter que le pain (et ici le fromage) ne se
dessèche pendant la cuisson et garde du moelleux, donc il en faut
-un peu- mais pas détremper la tranche non plus. Ça peut prendre
quelques essais pour apprendre à doser correctement :)
4) Au four ~180°C pendant une
vingtaine de minutes
En parallèle d'un gros travail d'amélioration et de
labellisation sur des articles de films Disney par ordre
chronologique (dernier en date Les
Yeux de la forêt, normalement le prochain
sera Rox et Rouky),
j'ai plusieurs petites tâches de fond, de fourmis. L'une d'elle est
de vérifier la page pointant vers Disney (page d'homonymie) ou Walt Disney. Pour
le premier, le travail consiste à corriger les articles pointant
sans raison souvent en remplaçant vers la bonne filiale du groupe.
Pour le second c'est plus subtil mais se résumé à vérifier que
l'article ne point pas vers l'être humain mort en 1966 en lieu et
place de l'entreprise... C'est un travail pas très folichon mais
nécessaire.
C'est durant une session de correction que je suis tombé
sur Patrick Swayze,
acteur du film préféré de ma chère et tendre (plus de 200
visionnages au compteur). L'article indiquait
Il est d'abord danseur dans les parades de parc d'attractions
[[Walt Disney]].
Premier point, si c'est pour les parcs Disney, bah je mets la
filiale idoine (actuellement
Disney Parks, Experiences and Products). Mais il est plus
probable que cela soit un parc en particulier. A l'époque, avant
1979 pour le beau Patrick, c'est soit Disneyland en Californie
soit Walt Disney World Resort en Floride. Second point, bah il
n'y a aucune source pour cette affirmation...
Après des recherches, il s'avère que c'est faux, car c'était un
spectacle itinérant, un Arena show comme dirait les anglosaxons. Il
s'appelait Disney on Parade et a
parcouru les Etats-Unis et le monde entre 1969 et 1976. Dommage il
n'y avait pas encore d'article francophone sur ce spectacle...
certains diront qu'un énième article sur Disney n'est pas
nécessaire, je plaide coupable et j'ai donc créé un article sur ce
spectacle. Et hop me voilà lancé sur l'article Disney
on Parade. J'ai aussi corrigé l'article sur Patrick en ajoutant
une source. Pour votre information, il a d'abord interprété un
cowboy puis le Prince Charmant :D
Pour revenir au nouvel article, je remercie encore une fois la
fondation pour l'accès au site Newspapers.com qui m'a permis
d'ajouter un grand nombre d'infos. A mon sens l'article est
désormais bien développé et le fait que le spectacle soit un
prédécesseur de Disney on Ice,
permet de compléter la grande trame de Disney. Pas chauvin pour un
sou, j'ai même complété l'article sur Bugs Bunny qui a eu le droit
à sa déclinaison du concept en 1979.
Le seul problème dans tout cela c'est que ma femme va devoir
se faire à l'idée que Patrick Swayze est lié à Disney et pas
uniquement pour la voix d'un personnage dans Rox et Rouky
2.