Tous les articles par Yann Guégan

Les sites d’info français et le mobile : qui est in et qui est out ?

On vous le dit, on vous le claironne : l’avenir des sites d’info se joue sur le mobile, et plus sur les ordinateurs.

Les chiffres de la dernière étude AT Internet, cités par Eric Mettout, directeur adjoint de L’Express sur son blog Nouvelle formule, sont impressionnants : encore quelques mois (et quelques centaines de milliers de smartphones et tablettes offerts à Noël) et certains articles seront davantage consultés sur le petit écran d’un smartphone plutôt que sur un laptop ou un ordinateur de bureau.

Mais les sites d’infos sont-ils prêts pour cette (énième) révolution ? J’ai dressé un tableau comparatif pour examiner les différentes stratégies adoptées par un échantillon (arbitraire) de 40 sites. Le résultat montre que sur le mobile, les médias avancent en ordre dispersé.

Quelques enseignements :

  • Les trois quarts des sites étudiés ne sont pas (encore) passés au responsive design, une proportion qui paraît élevée alors que les lecteurs les consultent sur des écrans de taille de plus en plus variable.
  • Sur les 40 sites étudiés, 8 ne proposent toujours pas un design adapté quand l’utilisateur se connecte depuis un mobile. Le lecteur subit un téléchargement plus long et doit ensuite zoomer sur la colonne contenant le texte à lire, après avoir fermé d’éventuels pop-ups et messages intrusifs. Ce choix peut être imposé par la régie pub, qui préfère utiliser des emplacements publicitaires classiques si les campagnes sont mieux rémunérés.
    La liste : L’Express, Jeuxvideo.com, Télérama, Premiere, PureMédias, Ouest-France, Les Inrockuptibles et le Journal du dimanche.
  • Les 40 médias de l’échantillon proposent tous une application iPhone, mais 5 d’entre eux ne disposent pas d’une application Android et 24 n’ont pas développé d’application Windows Phone.
  • Deux sites proposent une version mobile incluant un téléchargement pour une lecture offline ultérieure, fonctionnalité réservée aux utilisateurs des applications natives pour tous les autres : Le Monde et Rue89.
  • Un site seulement propose une version Web adaptée aux tablettes : Rue89. Les autres « servent » la version classique du site, même s’ils ont par ailleurs une application pour iPad ou tablettes Android.

Lorsqu’on veut adapter ses contenus au mobile, trois stratégies au moins sont en effet possibles :

  • Proposer des applications natives. C’est le choix longtemps privilégié . On compte alors sur les lecteurs pour installer l’application du média depuis les principaux store : iTunes pour un iPhone ou un iPad, Google Play pour un smartphone ou une tablette Android, Windows Store pour un appareil équipé de Windows Phone.
  • Proposer une version mobile. Bien souvent, le lecteur accède au site d’info depuis une autre application de son téléphone, qu’il s’agisse du navigateur ou des app des réseaux sociaux et autres agrégateurs. Une solution dans ce cas est de charger une version spéciale du site, située sur une URL spécifique (qui commence souvent par « m. » ou « mobile. », par exemple mobile.lemonde.fr).
  • Proposer un site responsif. Le site est dès le départ conçu pour s’adapter à  la largeur disponible au moment de l’affichage. L’URL est unique, et des cas supplémentaires peuvent être pris en compte (écrans de tablette, écrans très larges…). Les sites ayant connu une refonte récente ont pour la plupart choisi cette voie.

Un casse-tête et des coûts importants

Chaque méthode a ses avantages et ses inconvénients, qu’il serait trop long d’énumérer ici. Par exemple, il est plus simple d’ajouter des formats pub avancés et donc plus rémunérateurs, comme un clip vidéo plein écran, sur des applis natives. Mais opter pour une version mobile revient beaucoup moins cher : développer en parallèle deux à trois versions différentes du même produit fait exploser les coûts.

Choisir un design entièrement responsif est la solution la plus moderne, mais elle a des implications importantes : par exemple, le visuel d’un « habillage » publicitaire peut avoir une largeur fixe et ne pourra pas être activé sur un site dont la largeur n’est pas fixe. Et certains formats rédactionnels (infographies, diaporamas, cartes…) sont difficiles à adapter pour les journalistes qui les préparent.

Quelques précisions sur la méthode choisie — les données sont disponibles dans ce Google Sheet et au format CSV, n’hésitez pas à les réutiliser :

  • Je n’ai pas retenu la version mobile d’un site si l’utilisateur n’est pas automatiquement redirigé vers elles (cas de L’Express notamment).
  • Lorsqu’un média dispose de plusieurs application pour la même plate-forme, j’ai relevé la note de celle diffusant les articles du site, et pas d’autres contenus.
  • Je n’ai pas retenu les applications qui ne permettent que de téléchargger un numéro de l’édition papier.
  • J’ai retenu les applications non officielles, notamment sur Windows Phone.
  • Je n’ai pas classé parmi les sites responsifs ceux dont la maquette est « élastique » sans cependant s’adapter réellement en fonction de  (c’est le cas de Slate.fr par exemple).

Disclaimer : ancien rédacteur en chef adjoint de Rue89, j’ai participé au lancement des différentes applications et versions mobiles et tablettes de ce site.

N’hésitez à me signaler d’éventuelles erreurs ou oublis dans les commentaires.

7 fautes de français qui n’en sont pas, en fait

J’aurais pu titrer cette note « Confessions d’un emmerdeur ». Après ma sortie d’école de journalisme, j’ai été pendant plusieurs années secrétaire de rédaction, un travail qui comprend en général beaucoup de relecture de copie ou de pages.

Un TOP ou un Grevisse à portée de main, j’ai découvert quelques-unes des subtilités de la langue française, désuètes ou charmantes selon le point de vue.

Le problème avec ce type d’occupation professionnelle, c’est qu’elle tend à faire de vous un ayatollah, corrigeant par réflexe les fautes de ses amis à l’oral, et capable de partir en guerre sainte contre les impies qui enchaînent les solécismes sans réaliser l’horreur de leur sacrilège.

Mes années passées à bosser sur le Web m’ont profondément adouci. D’abord parce que relever une faute dans un article qui peut être corrigé, c’est moins douloureux, pour le lecteur comme pour l’auteur, que de la voir imprimée pour l’éternité.

Ensuite parce que j’ai découvert qu’il y avait deux sortes d’internautes qui signalaient les fautes d’orthographe :

  • ceux qui n’ont que mépris pour le journaliste coupable d’un faux pas,  « alors que c’est quand même votre métier d’écrire », et y voient la preuve définitive de votre incurable incompétence ;
  • ceux qui s’excusent vraiment de vous déranger, « mais il manque un mot dans le titre de l’article, je sais, je suis un peu obsessionnel et vous devez avoir d’autres chats à fouetter, encore pardon ».

Avec le temps et sauf misanthropie profonde, vous avez assez vite envie d’appartenir à la seconde catégorie plutôt qu’à la première.

Enfin, la fréquentation des blogs et forums spécialisés comme des ouvrages de référence m’a enseigné que dans bien des cas, il n’y a pas de règles implacables mais une série d’exceptions et de sous-exceptions.

Vous pouvez passer vos soirées à apprendre la dizaine de pages consacrées à l’accord du participe passé des verbes pronominaux que compte le TOP. Ou bien vous pouvez décider que vous avez mieux à faire de votre vie.

Mais le pire, c’est quand j’ai appris que certaines des règles que je chérissais tant étaient parfois discutables, d’autres fois à côté de la plaque. En voici un rapide florilège, que vous aurez sûrement à cœur de compléter ou de critiquer dans les commentaires.

1. « Par contre » est tout à fait correct

Martine Rousseau et Olivier Houdart, correcteurs au Monde.fr, le rappelaient déjà dans leur blog Sauce piquante en 2007 :

  « La locution “par contre”, malgré les attaques récurrentes dont elle est l’objet […] est tout à fait correcte. »

Portrait de Voltaire, auteur inconnue (Gallica.bnf.fr)
Portrait de Voltaire, auteur inconnu (Gallica.bnf.fr)

Un wikipédien véhément l’a d’ailleurs fait retirer de la notice Fautes de français destinée aux contributeurs de l’encyclopédie en ligne. « Par ailleurs » et « par avance » sont corrects, pourquoi pas « par contre », argumente-t-il.

« C’est une double préposition : c’est ça le problème, un problème de grammaire », réplique Rara dans un commentaire de cet article — preuve que les contempteurs du « par contre » n’ont pas déposé les armes. 

C’est paraît-il Voltaire qui est entré en guerre contre « par contre », et c’est donc la faute à Voltaire si je l’ai tant de fois remplacé par « cependant » ou « en revanche ».

Sur Langue-fr.net, on lira avec intérêt un décryptage de ce curieux ostracisme, défendu par Littré mais combattu par Grevisse :

« C’est plutôt une affaire de sociolinguistique : employer “en revanche” plutôt que “par contre” dénote l’appartenance culturelle à un milieu maîtrisant un code social, celui de l’expression — un code dont l’emploi est un signe de reconnaissance implicite pour “ceux qui savent”. »

Si vous écrivez « par contre » dans votre texte, vous rejoindrez un club qui compte notamment « Tocqueville, Stendhal, Maupassant, Gide, Giraudoux, Saint-Exupéry, Malraux, Bernanos, De Gaulle » parmi ses membres. Il y a pire compagnonnage.

2. On peut écrire « autant pour moi » si on veut

C’est l’un des sujets les plus polémiques sur les forums dédiés à la langue française. Beaucoup soulignent l’origine militaire de l’expression : si l’officier dirigeant un exercice se trompe dans ses consignes, il va demander à sa troupe de revenir « au temps » initial de la manœuvre, « pour moi » parce que c’est lui, et non les exécutants, qui s’est trompé.

Mais cette explication est elle-même contestée, et puis après tout,  si l’expression « autant pour moi » s’est imposée au fil du temps, c’est parce qu’elle a tout autant de sens que sa variante.

Je le confesse, j’aime bien écrire « au temps pour moi », par pure coquetterie. Mais je respecte et apprécie les partisans du camp d’en face.

3. « Une auteure », « une écrivaine », « une entraîneure »… et pourquoi pas ?

Il y a quelques années, croiser l’expression « une auteure » ou « une écrivaine » dans un texte me faisait pleurer des larmes de sang.

Mais alors que les combats féministes sont de mieux en mieux relayés dans la société ou sur les réseaux sociaux, j’avoue être en panne d’arguments contre vous si vous écrivez votre amour pour « l’écrivaine George Sand » ou votre respect envers Corinne Diacre, « première entraîneure d’une équipe de foot professionnelle française ».

Et je suis plutôt content d’utiliser une langue qui vit et évolue, plutôt qu’une collection de règles figées pour l’éternité dans quelque vieux grimoire de l’Académie française.

Je n’en suis pas à accorder chaque mot avec des tirets (« motivé-e-s ») ou à prôner la règle de proximité pour l’accord de l’adjectif — quoique l’usage actuel n’ait rien de bien satisfaisant intellectuellement, qui oblige  à écrire : « Trois millions d’infirmières et un médecin se sont retrouvés dans la rue pour manifester. »

Quand je travaillais à Rue89, on s’était donné comme règle de ne pas en avoir, et de laisser l’auteur d’un article choisir de féminiser ou non certains mots, selon ses convictions personnelles. De même, Rue89 pouvait être du féminin ou du masculin selon le contexte (« le site d’information Rue89 » mais « les riverains de la Rue89 », par exemple).

4. Oui, on peut « supporter » une équipe de foot

Si j’avais gagné un centime d’euro à chaque fois que j’ai lu un tweet ou un commentaire dénonçant l’emploi du mot « supporter » au sens de « soutenir » dans un article sur le sport, j’aurais sans doute assez d’argent pour offrir des cours de français aux auteurs de ces réclamations.

« Supporter » figure pourtant bien dans le dictionnaire du CNRTL avec cette définition : « aider activement, donner son soutien moral ou matériel à » et « encourager, soutenir ». Avec un exemple d’emploi qui date de 1897.

Si j’essaie de ne pas recourir trop souvent aux anglicismes pour privilégier — quand c’est possible et que ça ne nuit pas à la compréhension — leur équivalent français, j’ai tendance à penser que leur traque systématique finit par ressembler au chantier d’un barrage contre le Pacifique.

Ou alors, pour faire bonne mesure, il faut aussi chasser les mots « algorithme » (qui vient de l’arabe), « bivouac » (emprunté à l’allemand) et « albinos » (d’origine espagnole). Bon courage.

5. Paris est belle et Paris est beau

Les noms de ville sont-ils féminins ou masculin ? Vous pouvez essayer de trouver une règle, ce qui vous amènera à des acrobaties comme celles repérées par Francaisfacile.com :

 « Quelques linguistes suggèrent parfois de se référer à la dernière syllabe : le nom d’une ville est en effet souvent féminin si ce nom se termine par une dernière syllabe muette (comme par exemple : Bruxelles, Rome), alors qu’il est souvent masculin si ce nom se termine par une dernière syllabe sonore (comme par exemple : Dakar, Oslo).

Toutefois, cela pourrait conduire à de mauvaises interprétations (par exemple : “La Nouvelle-Orléans” est féminin alors que la dernière syllabe est sonore).

D’autres linguistes suggèrent parfois de se référer à la dernière lettre : le nom d’une ville est en effet souvent féminin si ce nom se termine par une voyelle (comme par exemple : Rome), alors qu’il est souvent masculin si ce nom se termine par une consonne (comme par exemple : Dakar, Paris).

Toutefois, cela pourrait également conduire à de mauvaises interprétations (par exemple : “La Nouvelle-Orléans” est féminin alors que la dernière lettre est une consonne). »

Ou alors, vous vous souvenez que selon Tino Rossi, Paris est la « reine du monde » et que personne n’a embêté René Clément pour avoir titré son film « Paris brûle-t-il ? ». Et vous décidez de faire comme ça vous chante. Un peu de liberté langagière ne fait jamais de mal.

6. Pour « impacter » et « prioriser », le combat est déjà perdu

On est d’accord, « impacter » n’est pas un très joli mot. Il a cependant le mérite d’être efficace : on peut lui préférer « avoir des conséquences sur », par exemple, mais c’est un chouïa plus long (edit : “affecter » fait très bien l’affaire, me suggère Emmanuelle Ducros, journaliste à L’Opinion). Et « impacter » est désormais dans le Larousse.

Même chose pour « prioriser », que le Robert accueille désormais dans ses pages (plus prudent, le CNRL le donne parmi les synonymes possibles sans en avoir fait une entrée dans son lexique).

Je propose de cesser les hostilités contre ceux qui utilisent ces deux mots, et de concentrer le feu contre ceux qui s’obstinent à « pallier à un problème » et ceux qui utilisent le subjonctif après « après que ». Ceux-là méritent vraiment notre châtiment.

7. Lamartine aimait bien « le jour d’aujourd’hui »

Le combat contre l’abominable expression « au jour d’aujourd’hui » ne date pas du jour d’aujourd’hui, justement. Pierre Larousse s’échinait déjà à lui faire un sort dans son Grand dictionnaire du XIXe siècle, paru en 1864. Le texte est savoureux :

« Cet adverbe, composé de cinq mots, “à le jour de hui”, est peut-être l’exemple le plus frappant du principe d’agglutination suivant lequel se sont formés un grand nombre de mots de notre langue. […]

“Hui” était évidemment suffisant pour rendre l’idée exprimée par le latin “hodie” ; mais, par une des redondances si fréquentes dans notre ancienne langue, on ajouta à cet adverbe les mots “au jour de”, et l’on eut “au jour de hui”, “aujourd’hui”.

Et ce pléonasme ne suffisant pas encore au peuple, il dit “au jour d’aujourd’hui”, comme nous le montre Vadé [un chansonnier de l’époque, ndlr] : “Les garçons du jour d’aujourd’hui savent si bien emboiser les filles que je devrions en être soules.”

Cependant Lamartine a su employer cette locution vicieuse avec une poétique énergie : “Dans ce cercle borné, Dieu t’a marqué ta place. / L’univers est à lui. / Et nous n’avons à nous que le jour d’aujourd’hui.”

Il nous souvient même avoir entendu de nos propres oreilles “au jour du jour d’aujourd’hui”. N’est-ce pas ici le cas de dire : quand on prend du galon, on n’en saurait trop prendre ?

Voilà comment nous rendons, par une accumulation de mots que nos pères exprimaient par un monosyllabe. Qu’on vienne donc nous dire maintenant que le progrès consiste à simplifier. »

C’est vrai qu’à part chez Lamartine, on peine à trouver un usage élégant de « au jour d’aujourd’hui ». Mais après tout, comme le montre Larousse, « aujourd’hui » est déjà un pléonasme. Peut-être finirons-nous par apprendre à aimer « au jour d’aujourd’hui »,  qui écorche encore les oreilles cent cinquante ans plus tard ?

(Merci à l’intraitable Emmanuelle Bonneau, journaliste à Rue89 qui m’a soufflé quelques-uns des exemples de cet article.)

Comment j’ai fouillé dans des dizaines de milliers de notices Wikipédia

Pour réaliser le Top 50 des sites d’info les plus cités sur Wikipedia, j’ai utilisé une série d’outils dont je m’étais parfois déjà servi dans d’autres projets :

  • J’ai repéré des séries de notices intéressantes grâce à l’outil CatScan proposé par Wikipédia.
  • J’ai utilisé des techniques de data scraping pour parcourir automatiquement des milliers de notices avec l’extension Firefox Outwit Hub.
  • J’ai nettoyé les résultats obtenu grâce à Open Refine.
  • J’ai dressé les classements avec Google Sheets, le tableur de Google Drive.
  • J’ai réalisé les graphiques avec Datawrapper.
  • J’ai présenté les tableaux de façon interactive avec le plug-in JQuery Datatables.

Comme chacun de ces services peut vous intéresser, je reviens pas à pas dans cet article sur la méthode utilisée, en donnant des liens vers les fichiers de données obtenues.  N’hésitez pas à réutiliser ces dernières pour d’autres travaux, et tenez-moi au courant de vos trouvailles dans les commentaires.

A plusieurs reprises, j’ai fait des choix qui m’ont semblé cohérents avec l’objectif de ce projet. Que vous soyez wikipédien ou journaliste, vous aurez sans doute envie de les discuter, ce que je vous encourage fortement à faire, je suis là pour ça.

1. Bâtir un échantillon avec CatScan

La première difficulté, c’était de trouver une série de notices Wikipédia pertinentes.

J’ai d’abord pensé à programmer Outwit Hub pour en collecter de façon totalement aléatoires, en utilisant par exemple le lien « Explorer au hasard » de l’encyclopédie. Mais mon « robot » s’est vite perdu dans des fiches sans lien avec l’actualité ou dans diverses pages de listes.

J’ai alors découvert CatScan et je m’en suis servi pour obtenir les liens de notices figurant dans toute une série de catégories et sous-catégories. En partant la catégorie Evenement de Wikipédia, j’ai sélectionné les sous-catégories suivantes (elles-mêmes divisées en une multitude de sous-catégories :

  • Evénement en cours
  • Evénement à venir
  • Evénement récent
  • Journée commémorative ou thématique
  • Massacre
  • Evénement historique en météorologie
  • Salon
  • Marche
  • Controverse
  • Festival

CatScan m’a renvoyé une liste de 16741 notices (sur un total de plus de 1,6 million publiés sur la Wikipédia en français, soit environ 1%) sur des sujets très variés. La taille de cette liste m’a paru suffisante — au-delà, les différents logiciels dont je me suis servi n’aurait de toute façon pas pu fonctionner correctement.

2. Programmer un scraper avec Outwit Hub

Bien que l’interface de ce logiciel de scraping soit intimidante (euphémisme), Outwit Hub n’est pas si compliqué à utiliser, une fois qu’on a digéré les tutoriels de base. Il suffit d’identifier où se trouvent dans le code source les informations qu’on recherche et comment elles sont structurées en langage HTML.

En l’occurrence, les liens se trouvant dans les parties qui m’intéressaient (« Notes et références » et « Voir aussi » notamment) sont dans des balises liens (« a ») portant la classe CSS « external text ».

Capture d’écran 2014-09-10 à 19.16.20
Capture d’écran de Outwit Hub

Il suffit alors de créer un « extracteur »,en indiquant à Outwit Hub les chaînes de caractères se trouvant juste avant et juste après l’information ciblée.  Par exemple, pour l’URL externe :

<a class=« external text » href= »

et

« >

Pour extraire plusieurs informations à la fois (l’URL, mais aussi le nom de domaine et le texte du lien), j’ai cependant dû construire une expression régulière. Sans vous faire un cours complet sur ces trucs-là (ce dont je serais bien incapable), sachez qu’on les croise un peu partout (de Yahoo Pipes à Adobe Indesign en passant par les différents languages de programmation).

Pour un non-développeur, c’est un peu pénible à apprendre, mais ça rend bien des services, ça en vaut donc la peine.  Après avoir pas mal transpiré, j’ai fini par bâtir l’expression suivante (sûrement perfectible, d’ailleurs) :

/class=« external text ».*href= »(http://.*?)(/.*?) »>(.*?)</a>/

Outwit Hub était alors paré pour le moment le plus agréable du projet, celui où l’ordinateur travaille à votre place : il a suffit de lui demander de passer cet extracteur sur chaque page de l’échantillon, puis d’exporter tous les résultats obtenus dans un gros fichier CSV (20 Mo).

3. Nettoyer les résultats avec Open Refine

Quand vous souhaiter intervenir sur de gros fichiers de données, les fonctionnalités les plus courantes (comme Rechercher / Remplacer) ne suffisent pas.

C’est là qu’Open Refine (anciennement Google Refine) se révèle particulièrement utile, parce qu’il permet de faire via une interface graphique très bien fichue des manipulations de tables qui doivent se faire sinon via des lignes de commande.

Là encore, il faut accepter de se plonger dans les tutoriels et les pages d’aide pour apprendre à effectuer les opérations souhaitées, mais c’est du temps bien investi, croyez-moi.

Dans le cadre de ce projet, je me suis servi de Google Refine pour présenter proprement chaque donnée dont j’avais besoin :

  • l’URL de la notice Wikipédia « scrapée »
  • l’URL du lien externe repéré
  • le nom de domaine du lien externe repéré (par exemple, slate.fr)
  • le texte du lien (souvent le titre de l’article)

J’ai aussi réparti ces noms de domaines en deux catégories : « Actu » et « Autres » (pour tous les liens vers des sites annuaires, institutionnels, ou personnels).

C’était l’étape la plus fastidieuse : pour éviter d’y passer la journée et de faire planter Open Refine, je me suis limité aux médias cités au moins 30 fois dans l’échantillon.

Certains sites dans cette liste avaient un statut ambigu : j’ai conservé ceux proposant à la fois des articles et des statistiques ou pages de référence (par exemple, Allociné), et d’exclure les purs annuaires (comme IMDB).

J’ai aussi pratiqué quelques regroupements, pour les sites possédant plusieurs sous-domaines (par exemple, en fusionnant les liens vers www.lefigaro.fr et elections.lefigaro.fr en lefigaro.fr).

Si ça vous intéresse d’explorer vous aussi ces données, vous pouvez télécharger l’intégralité des liens de l’échantillon ou l’intégralité des liens vers des sites de médias dans des fichiers CSV désormais nettoyés.

4. Dresser les classements avec Google Sheets

On approche du but : en important le CSV contenant tous les liens vers des sites de médias dans une feuille de calcul Google Sheets, il ne reste plus qu’à créer un rapport de tableau croisé dynamique chargé de compter le nombre de liens pour chaque nom de domaine.

Cette information est également disponible dans Open Refine, mais j’avais besoin d’une présentation par cellules pour pouvoir en faire un graphique dans la foulée.

(Je n’ai jamais vraiment compris comment fonctionnaient vraiment ces rapports, et je suis bien embêté quand je dois expliquer leur fonctionnement lors de formations. Je me contente d’essayer diverses combinaisons de lignes, de colonnes et de valeurs pour obtenir le résultat souhaité, ce qui finit toujours par arriver à force d’essais.)

5. Faire le graphique avec Datawrapper

Je ne sais pas s’il est possible de tomber amoureux d’un logiciel ou d’un service web, mais si c’est le cas, je dois confier une passion sans doute excessive pour Datawrapper — selon moi, Mirko Lorenz, son programmeur,  a déjà sa place réservée au paradis des développeurs.

Un copié/collé des données de Google Sheets et quelques réglages dans une interface merveilleusement bien pensée, et zou, le graphique est prêt.

6. Un tableau filtrable avec Datatables

A ma connaissance, il existe peu d’outils accessibles pour présenter de longues séries de données proprement à l’intérieur d’un article. Le plug-in JQuery Datatables fait ça vraiment très bien, mais il faut être suffisamment à l’aise en HTML, en CSS et en JQuery pour s’en servir.

J’ai donc récupéré le flux Json du Google Sheet pour bâtir dynamiquement le tableau contenant les 23 014 liens vers des sites de médias, et activé Datatables une fois la table terminée.

7. Des échantillons sur des thématiques

Pour continuer à explorer l’encyclopédie, j’ai choisi des thèmes plus précis et repéré des catégories (et leurs sous-catégories) de notices portant sur le sport, la politique, la Bretagne et la BD.

J’ai fait subir le traitement décrit ci-dessus aux liens externes ainsi repérés (ça va beaucoup plus vite la deuxième fois).

Voici les données récupérées, également dispos dans Google Sheet :

 

Le top 50 des sites d’info les plus cités sur Wikipédia

« Wikipedian protester », strip de XKCD (CC-BY-NC)

Les médias français et la version francophone de Wikipédia entretiennent une relation compliquée.  La fiabilité de l’encyclopédie collaborative a longtemps été mise en doute par des chroniqueurs et éditorialiste, mal à l’aise face à l’absence de « comité éditorial » ou d’instance dirigeante bien identifiée.

Certains journalistes n’hésitent pas à « vandaliser » des notices pour mieux appuyer leur démonstration, comme pour un reportage d’Envoyé spécial diffusé en novembre 2012 et qui avait hérissé le poil des Wikipédiens ou pour le livre La Révolution Wikipédia, publié sous la direction du chroniqueur littéraire Pierre Assouline en 2007.

Pourtant, les journalistes utilisent quotidiennement Wikipédia pour leurs recherches d’information, même s’ils en connaissent souvent mal le fonctionnement et le complexe système d’autorégulation. En formation, j’ai souvent dû prendre le temps de faire l’anatomie d’une notice, de la liste de sources en bas d’article à l’onglet « Discussion », en passant par la comparaison des différentes versions.

La « référence nécessaire », règle d’or de l’encyclopédie

Et les Wikipédiens eux-mêmes se servent largement des sites d’information pour sourcer le contenu de leurs notices. Les rédacteurs doivent en effet respecter une règle fondamentale : l’absence de travaux inédits dans le texte des notices. Tout savoir qui y est référencé doit s’appuyer sur une source existante, qu’il s’agisse d’un livre, d’une page officielle ou, bien souvent, d’un article de presse.

Un porte-clés Wikipédia (Cary Bass-Deschenes/CC-BY-SA)

C’est pour cette raison qu’on croise régulièrement la mention « (Réf. nécessaire) » [et non « citation nécessaire, merci Gilles, ndlr] dans le contenu d’une page, signe qu’un contributeur vigilant a édité la page pour signaler que l’information mentionnée n’était pas correctement sourcée.

En 2012, l’écrivain américain Philip Roth a pu mesurer toute l’intransigeance de cette règle quand il a tenté de modifier la notice d’un de ses romans, correction refusée par un administrateur de la Wikipédia anglophone. Un épisode qu’il a raconté dans le New Yorker.

L’existence d’un nombre d’articles suffisant traitant d’une personnalité ou d’un phénomène étant d’ailleurs un critère important pour juger de la « recevabilité » d’un nouvel article  — ce qui avait amusé Daniel Schneidermann lors d’une une émission d’Arrêt sur images sur ce sujet sensible.

Mais quelles sont leurs sources privilégiées ? J’ai mené une petite enquête en me basant sur un échantillon de plus de 16 500 fiches contenant en tout plus de 100 000 liens externes. Je reviens pas à pas sur la méthode utilisée dans un autre article de ce site, où je liste aussi l’ensemble des données utilisées — sachez juste que mon ordinateur a beaucoup ressemblé à ça ces dernières heures :

Voilà donc le top 50 des sites d’actu dont le contenu est le plus souvent cité en référence dans Wikipédia :

 

Si au lieu d’un échantillon « généraliste » de fiches, on se cantonne à des sélections resserrées, on peut voir comment cette liste de médias de référence évolue thème par thème — n’hésitez pas à me contacter ou à laisser un commentaire si vous souhaitez que j’explore d’autres thématiques.

Enfin, si vous êtes journaliste, vous avez peut-être envie de savoir quels contenus de votre média ou de son concurrent font désormais référence, peut-être pour l’éternité — c’est quand même plus chic que d’être cité dans un tweet de Nadine Morano, non ?

Vous pouvez chercher votre média et les notices dans lequel il est cité dans la liste complète des liens de l’échantillon « généraliste », soit 1% du total des fiches publiées sur Wikipédia. Si le tableau ne se charge pas, vous pouvez retrouver la liste complète dans cette Google Sheet.

Si vous trouvez des erreurs ou des bizarreries, contactez-moi ou laissez un commentaire que je puisse jeter un œil à vos trouvailles.

280 heures de design pour refaire le bouton Like de Facebook

Les conférences TED font partie de mes plaisirs coupables, même si la mécanique trop bien rodée des interventions, le côté prédicateur et souvent angélique des conférenciers peuvent agacer.

Mais des choses intéressantes s’y disent parfois, notamment sur les pratiques des géants du Web, comme avec ce talk de de Margaret Gould Stewart, directrice du design de Facebook, que j’ai vu passer en août sur YouTube.

Margaret Gould Stewart: How giant websites design for you (and a billion others, too)

Facebook’s « like » and « share » buttons are seen 22 billion times a day, making them some of the most-viewed design elements ever created. Margaret Gould Stewart, Facebook’s director of product design, outlines three rules for design at such a massive scale-one so big that the tiniest of tweaks can cause global outrage, but also so large that the subtlest of improvements can positively impact the lives of many.

Pour les gens pressés, j’ai passé le filtre anti–bullshit et relevé points-clés et quelques chiffres éclairants.

22 milliards d’affichage par jour pour le bouton Like

  • L'ancien et le nouveau bouton LIke
    L’ancien et le nouveau bouton LIke

    Créer les petits éléments d’interface d’un site ou d’une application ne constitue pas la partie la plus séduisante du travail de designer, mais quand il s’agit d’un service utilisé quotidiennement par des centaines de millions d’utilisateurs, chaque détail compte.

  • Le bouton Like actuel s’affiche « 22 milliards de fois par jour sur plus de 7,5 millions de sites web », explique  Gould Stewart [ce qui permet au passage à Facebook de recueillir des informations sur ses utilisateurs…  et les autres, comme le rappelait déjà Erwan Cario en 2010 dans Libération, ndlr].
  • Ce micro-bouton a nécessité « 280 heures de travail sur plusieurs mois »,  pour ajuster sa largeur et sa hauteur, le traduire et vérifier qu’il s’affiche correctement sur les navigateurs les plus anciens (« attention aux jolis dégradés et aux bordures », prévient-elle).

Ces photos Facebook qui nous rendent « tristes »

  • Lorsque Facebook a donné la possibilité à ses utilisateurs de signaler une photo qui, selon eux, contrevenait aux  « standards de la communauté », ses équipes se sont retrouvées submergées par des rapports inappropriés. Des photos gênantes pour la personne qui figure dessus, mais qui restent « dans les clous » : rien ne vous interdit de publier une photo de votre collègue de travail éméchée au pot de fin d’année (sauf bien sûr si elle est torse nu), mais c’est un autre problème.
  • Facebook a d’abord ajouté la possibilité d’envoyer un message à l” »ami » concerné pour lui demander le retrait.  Echec : 20% seulement des personnes concernées l’ont utilisé.
  • C’est finalement un changement dans le formulaire de signalement lui-même qui a permis d’améliorer la situation. Désormais, quand il veut faire retirer une photo, l’utilisateur peut choisir l’option « Je n’aime pas cette photo de moi », puis préciser pourquoi, par exemple en sélectionnant « Elle me rend triste. » Le taux d’utilisation a grimpé à 60%, et les auteurs des contenus concernés ont mieux compris la réaction de leurs « amis » mécontents.
Le formulaire actuel de signalement de photos sur Facebook

Le data ne fait pas tout

  • Gould Stewart déteste qu’on dise que le travail de design sur un site comme Facebook n’est guidé que par la compilation de statistiques d’utilisation (approche « data driven »). « Les données peuvent vous aider à rendre un bon design encore meilleur », mais n’ont jamais remplacé l’intuition.

Faire avec la résistance au changement

  • « Je passe pratiquement autant de temps à faire le design du message qui avertit d’un changement qu’à faire celui du changement lui-même », plaisante Gould Stewart. Les gens peuvent s’habituer à un mauvais design, et même devenir très bons dans son utilisation, rappelle-t-elle. La frustration est encore plus grande quand la page est modifiée.
  • Avant de travailler chez Facebook, Gould Stewart s’est occupé du changement de notation des vidéos YouTube : d’une échelle de cinq étoiles, le site est passé à deux pouces, l’un vers le bas, l’autre vers le haut.  Pour une raison simple (que j’ai aussi pu constater à Rue89, lorsque les commentaires étaient notées de 1 à 5 boules rouges) : les utilisateurs ne se servaient que de la note la plus basse et de la note la plus haute, pas des étoiles intermédiaires. Ça n’a pas empêché la colère des « noteurs », obligeant YouTube à s’expliquer dans la presse spécialisée.
Google, YouTube et Facebook sur des téléphones ancienne génération
Google, YouTube et Facebook sur des téléphones ancienne génération

Penser aux nouveaux usages et aux pays pauvres

  • Penser le design d’un site pour les téléphones ancienne génération, c’est moins glamour que de lancer une nouvelle application chic pour trouver le nouveau café branché, explique en substance Gould Stewart. Mais ce sont ces interfaces qu’utilisent et utiliseront des millions d’utilisateurs dans les pays pauvres.
  • Pour prendre ces nouvelles contraintes en compte, « nous sortons de notre bulle et nous rencontrons les gens pour qui nous réalisons ces designs, nous testons nos produits dans d’autres langues que l’anglais, et nous nous efforçons d’utiliser ce type de téléphones de temps en temps », raconte-t-elle.

En France, la plupart des sites d’infos sont encore bien loin d’avoir une approche aussi soigneuse quand ils pensent leur interface et plus globalement leur expérience utilisateur, faute de moyens suffisants et d’expertise en interne. Ça donne des pages surchargées de publicités, des systèmes de commentaires dépassés ou des versions mobile mal fichues.

Mais les médias ont tout intérêt à s’y mettre, alors que la chasse au clic montre ses limites, et que des objectifs comme le temps passé sur la page ou la fidélité des internautes sont de mieux en mieux pris en compte — sur ce sujet, voir les explications du populaire service de statistiques en temps Charbeat.