Tous les articles par Yann Guégan

5 trucs que les journalistes papier ne devraient plus jamais dire

Selon Pierre Desproges, les animaux ne savent pas qu’ils vont mourir. Pour les journalistes qui travaillent pour un support papier, ça devient compliqué de l’ignorer. Il leur suffisait par exemple de regarder l’excellent documentaire  « Presse : vers un monde sans papier ? » diffusé fin août sur Arte.

On peut être très attaché au journal-qui-tache-les-doigts-avec-le-café-du-matin ou trouver sexys les hommes qui lisent Libération dans le métro, les faits sont têtus : quand même Le Canard enchaîné voit ses ventes baisser de 13% en un an, il est temps de prendre cette histoire de « transition numérique » au sérieux.

Pourtant, lorsque j’échange avec des collègues travaillant (uniquement ou principalement) pour la version papier de leur média, j’ai souvent l’impression d’une forme de déni rampant.

Le cerveau sait bien qu’en 2014, il n’y a pas un grand avenir pour un média qui doit, pour diffuser des informations, commencer par couper des arbres pour en faire de la pâte à papier, avant d’imprimer des lettres dessus puis de mettre le tout dans des camions.

Mais le cœur, lui, ne se résout pas à voir tout un folklore disparaître : le cérémonial du bouclage, le ballet hypnotique des pages sur les rotatives, les  « chemins de fer » et autres  « cromalins »

Pour les aider à faire leur deuil et s’adapter à leur époque, un bon début est d’arrêter de dire des bêtises dès qu’on parle digital. Voilà en tout cas cinq phrases qu’ils devraient vraiment arrêter de prononcer.

1. « Ce papier n’est pas terrible, mets-le sur le Web »

A lire vos témoignages sur Twitter,  c’est une scène encore courante dans les rédactions : le rédacteur en chef qui, après avoir relu un article un peu raté, à l’angle bancal ou écrit à la va-vite, le fait publier sur le site plutôt que le mettre simplement à la poubelle.

Ses raisons ? La place est chère dans les pages de l’édition papier, alors qu’elle est infinie sur Internet. Et puis il faut ménager l’ego de l’auteur, qui n’aura pas bossé pour rien.

Evidemment, l’effet est désastreux sur les journalistes qui aiment sincèrement travailler sur les supports numériques, fortement incités à mettre à jour leur CV et trouver un job dans un média qui n’insulte pas l’avenir.

Mon conseil. C’est plutôt sur le papier qu’il faut publier les articles les plus mauvais : après tout, quand il les lira, le lecteur aura déjà acheté votre canard, et les kiosquiers ne pratiquent pas le « satisfait ou remboursé ».

Ça bouchera un trou dans les pages et ça vous dégagera du temps pour préparer des contenus numériques assez marquants pour sortir enfin votre titre du XXe siècle.

2. « Twitter, c’est un truc de journalistes »

C’est une phrase que j’ai très souvent entendue lorsque j’animais des formations aux réseaux sociaux, — et je suis loin d’être le seul. Dernier exemple en date : Ariane Chemin, grand reporter au Monde, dans une interview aux Inrockuptibles :

« Twitter, je trouve ça chronophage et sidérant, mais ça m’amuse. Le petit monde de Twitter est endogame, il ne raconte pas la vraie vie mais celle des journalistes qui s’observent. »

Même si les estimations varient (comme le rappelle Cyrille Frank dans les commentaires), plusieurs millions de Français utilisent Twitter, qu’ils soient simples lecteurs ou « twittos » actifs.  Contre un peu plus de 36 000 titulaires d’une carte de presse. Les ados y sont très présents, mais on croise aussi des avocats, des chauffeurs de taxi, des entrepreneurs ou des pilotes d’avion.

Si les journalistes ont l’impression d’y parler entre eux, c’est qu’il y a une part inévitable d’endogamie dans tout réseau social, surtout quand on vient de s’y inscrire : on commence par suivre ses amis, ses collègues, sa famille…

Mais contrairement à un utilisateur lamdba, un reporter a tout intérêt à affûter sa veille et à diversifier ses abonnements, trouver de nouvelles sources et prendre le pouls du vaste monde.

Mon conseil. A chaque fois que vous décidez de suivre un journaliste sur Twitter, obligez-vous à suivre aussi un non-journaliste. Parce que penser que « Twitter, c’est un truc de journalistes », c’est vraiment un truc de journalistes.

3. « La priorité, c’est la nouvelle formule du papier »


Non. La priorité pour un titre papier aujourd’hui, ce n’est pas de retirer deux demi-pages à la rubrique culture pour les donner au service politique, de changer la couleur des intertitres ou de choisir une nouvelle typographie pour les « chapos ».

Une rédaction qui se lance dans une refonte du papier en 2014, c’est comme une compagnie de diligences qui décide de changer le velours des sièges pendant qu’on construit une ligne de chemin de fer sous son nez.

Mon conseil. Que vous travailliez ans un quotidien national, pour un mensuel professionnel ou dans un hebdo régional, le débat qui doit animer vos séminaires, vos conférences de rédaction et vos discussions à la machine à café, ce n’est pas l’édition papier. C’est : « Comment produire un travail journalistique suffisamment convaincant sur le numérique pour espérer survivre au grand basculement actuel ? »

4. « On perd de l’argent à cause du Web »

C’est la petite vengeance du journaliste papier quand il commence à se sentir largué : rappeler que depuis l’arrivée d’Internet au milieu des années 90, les services web ont été une source importante de pertes financières.

C’est d’autant plus vrai que beaucoup de médias se sont lancés dans de gros investissements mal maîtrisés, de projets coûteux que leurs équipes ont parfois du mal à digérer.

Dans leur Manifeste pour un nouveau journalisme, paru début 2013, les éditeurs de la revue XXI exploitent cette veine, estimant que la presse écrite a trop investi sur le numérique. C’est ce qu’expliquait alors Laurent Beccaria à Télérama :

« Le problème n’est pas d’opposer l’écran et le papier, les modernes et les anciens. Simplement, le numérique n’est pas ‘LA’ solution, y croire est dangereux.  »

J’ai l’impression que les responsables des sites d’actu ont fini par intérioriser cette critique, se dire qu’ils « vivent aux frais de la princesse », la presse papier.

Mon conseil. Rédactions web, redressez la tête et arrêtez d’avoir honte de vos pertes ! Ce n’est pas comme si vous claquiez tout en notes de frais somptuaires ou en soirées de gala.

Vous avez un des jobs les plus difficiles au monde en ce moment : tenter de faire de l’info de qualité dans un secteur en pleine déconfiture.

Mais c’est vous qui avez une chance (même petite) de trouver de nouveaux lecteurs et d’assurer la pérennité de votre titre. Pas vos aînés du papier.

5. « Facebook rend débile, j’ai fermé mon compte »

C’est vrai, on a tous des moments où on regrette notre cerveau d’avant Internet. Mais de là à quitter Facebook, service utilisé par 26 millions de Français et d’où provient une part grandissante du trafic des sites d’actu, il y a un pas qu’il vaudrait mieux ne pas franchir.

Non, ce n’est vraiment pas le moment de jouer les snobs. C’est maintenant que vous devez comprendre comment vivent et prospèrent les  communautés en ligne, qu’il s’agisse de vos contacts sur Facebook, des stars de YouTube, des contributeurs de Wikipédia ou des parturientes de Doctissimo.

Ce sont eux, les nouveaux « voisins de bureau » des journalistes. Que vous l’aimiez ou non, c’est dans ce monde qu’il va vous falloir vous faire une place (et ça fait longtemps qu’ils ont arrêté de vous attendre).

Mon conseil. Faites le tri dans vos « amis », pour éviter au maximum les invitations à Candy Crush et les photos de Milk. Mais n’oubliez pas que ces gens bizarres qui s’agitent sur votre fil d’actualités, qui likent, commentent et partagent ce que vous publiez, ce sont aussi des lecteurs. C’est pour eux que vous avez choisi ce métier, il va bien falloir assumer.

6. Bonus ! D’autres phrases qui énervent les gens du Web

Vous avez été plusieurs à me signaler sur Twitter d’autres phrases de journalistes papier qui vous énervent :

« Bonjour, je suis bien au service informatique ? »

Via @ThomasBaietto, FranceTV Info

« Mais t’es quoi en fait toi ? Développeur ou journaliste ? »

Via @GurvanKris, Rue89

« Il est bien cet article, c’est dommage qu’il soit pas dans le journal plutôt que sur le Web… »

« Elle marche, l’imprimante ? »

« C’est pas mal de faire un papier sur le Web, en fait. Comme ça, t’as le plan de ton article pour le papier. »

Via un courageux anonyme

« “T’as vu cette info ?” (Généralement un truc qu’on fait la veille ou deux jours plus tôt.) »

Via @PerrineST

« Tu nous fais ça juste pour le Web, hein. »

Via @BenjaminFerran, Figaro et MacGeneration

« Non, pas de place pour demain. File donc ça au web ! »

Via (@Mou_Gui)

« J’ai un problème avec mes mails, tu peux m’aider ? »

Via @Sychazot, Le Lab Europe 1

« Ça débordait de ma page du coup je t’ai mis le reste sur le Web »

Via @XavierLalu

« “C’est là qu’ils mettent nos articles en ligne” : un journaliste print qui faisait visiter la rédac web à un autre journaliste print. »

@VCquz

« Internet ne sert à rien: un article ça se lit un crayon à la main »

@ARouchaleou, L’Humanité

« Tu peux me trouver Photoshop gratos? »

@XavierLalu

« “Dans le pire des cas, ça ira sur le Web” (au sujet d’un papier sans intérêt). »

@GaelVaillant, Le JDD

« On peut pas fermer les commentaires sur les articles ? »

@MarieAmelie, Le Figaro

Vous pouvez continuer l’exercice si ça vous amuse, sur Twitter avec le hashtag #perlespapier ou dans les commentaires.

Dans un souci d’équité, je prévois déjà une suite à cet article, consacrées aux phrases que les journalistes papier ne supportent plus d’entendre de la part de ces « putes à clic du web »…

MAJ le 3/10 à 18h10. Passage sur Libération retiré, après un échange avec Johan Hufnagel montrant que l’exemple n’était pas forcément pertinent.

MAJ le 4/10 à 18h10. Passage sur Twitter modifié, voir les remarques de Cyrille Frank dans les commentaires.


5 trucs fascinants que j’ai appris lors des conférences Digital Intelligence

Je rentre de Nantes où se tenait cette semaine Digital Intelligence, trois jours de rencontres et de conférences consacrées au numérique et ce qu’il change dans nos vies. Voilà cinq trucs que j’ai appris grâce aux interventions des chercheurs invités à exposer leurs travaux et leur vision des bouleversements actuels.

1. Les bébés font des calculs de probabilité

Prenez un bébé, âgé de dix mois environ. Mettez-le devant un écran, sur lequel une animation montre plein de boules rouges et une seule boule bleue – en vrai, il vaut mieux réaliser l’expérience avec quelque chose de plus attrayant pour un bébé que des boules, comme des poneys ou des licornes, mais le principe est le même.

Les boules se déplacent aléatoirement à l’intérieur d’un cercle percé d’un orifice à sa base, un peu comme pour le tirage du Loto. De temps en temps, une des boules tombe dans le trou. Si elle est rouge, le bébé s’en fout. Si c’est l’unique boule bleue, son visage réagit plus longtemps.

C’est la preuve que son cerveau est capable de faire des probabilités : il « sait » que l’événement « la boule bleue tombe » a moins de chances de se produire que l’événement « une boule rouge tombe ». Intérieurement, il fait des maths niveau lycée alors qu’il est incapable d’avaler un petit pot sans en mettre plein son bavoir.

Un bébé de 12 mois regarde plus longtemps un événement improbable qu'un événement probable.
Un bébé de douze mois regarde plus longtemps un événement probable qu’un événement improbable (College-de-france.fr)

L’expérience est racontée par Gérard Berry, professeur au collège de France. Ces algorithmes à l’œuvre très tôt dans notre cerveau sont un sujet d’études pour les neuroscientifiques, mais ces derniers ne sont pas les seuls à les utiliser de plus en plus souvent dans leurs recherches.

« Des spécialistes de la physique des particules veulent parfois se mettre à l’astronomie, mais on ne peut rien en faire parce qu’ils ne maîtrisent pas les algorithmes », a un jour confié une chercheuse à Gérard Berry.

Il vaut en effet mieux être familier de ce mode de raisonnement quand on doit simuler l’explosion d’une supernova grâce à des modèles mathématiques avancés.

2. Internet est en train de changer l’amour

Quand on étudie les sites de rencontre sur Internet, la mauvaise question à se poser, c’est : « Est-ce que ça marche pour trouver l’amour ? » C’est la conviction de Michael Sinatra et Marcello Vitali-Rosati, chercheurs à l’université de Montréal.

Pour que les algorithmes de Meetic ou d’Adopte un mec soient capables d’une telle prouesse, il faudrait déjà se mettre d’accord sur ce que c’est que l’amour — ce dont l’homme semble incapable, vu la quantité de littérature publiée sur le sujet sans qu’un réel consensus semble se dégager.

Pour ces chercheurs, il vaut mieux se demander à quoi ressemble l’amour sur Internet, et chercher les valeurs qui l’animent, la vision de la relation qui s’en dégage. Vitali-Rosati :

« Le rapport au tabac est intéressant, par exemple. C’est un point souvent mis en avant et pourtant, en quoi le tabagisme joue-t-il un rôle dans le fait d’ aimer une personne, et pas juste dans le fait de vivre avec lui au quotidien ? »

Les sites de rencontre sont conscients de cette évolution en cours, mais ont un discours encore ambivalent.

Ils promettent de tout mettre en œuvre pour que l’amour, le vrai, l’unique, se manifeste enfin — ce qui est une façon de reconnaître sa nature aléatoire, multiforme et tyrannique. Mais ils entendent aussi donner à leurs utilisateurs le contrôle sur votre vie sentimentale.

Ces Cyrano de Bergerac modernes aident l’aspirant Christian à trouver une Roxane à son goût puis à la séduire, l’annonce et le profil remplaçant la missive enflammée et la scène du balcon.

L’étude des « algorithmes de l’amour » à l’œuvre sur ces services permet d’ouvrir la boîte secrète de nos comportements amoureux.

Mais allons-nous aimer ce que nous allons y trouver ? On sait déjà l’importance des photos dans le choix du partenaire potentiel (données que Tinder exploite déjà sans états d’âme), alors que les annonces cherchent, elles, des « relations sérieuses » et des « complicités intellectuelles ».

3. Les artistes font de la recherche scientifique aussi

Ce n’est pas un phénomène nouveau, mais les associations entre des créateurs et des scientifiques croissent et embellissent, à l’exemple du Senseable City Lab au MIT ou du programme de « recherche-création » Hexagram, au Québec.

Selon Chris Salter, chercheur à l’université Concordia de Montréal, c’est un changement de paradigme qui est à l’œuvre. Il passe par un dépassement de la conception institutionnelle de la recherche, avec ses disciplines et ses champs de recherche délimités, ses structures et modes de financements bien définis.

Associer les artistes, c’est surtout reconnaître qu’ils peuvent créer de la connaissance en faisant, et pas seulement en pensant :

« Vous faites des études et enuite, soit vous écrivez des livres et vous êtes un scientifique, soit vous fabriquez quelque chose et vous êtes un artiste. […] Face à une œuvre, nous disons : “C’est de l’art, mais peut-être est-ce de la connaissance aussi ?” »

De façon plus prosaïque, les créateurs se tournent vers une université ou un studio laboratory privé pour obtenir des financements qu’ils ne trouvent plus ailleurs.

C’est là que vont se croiser les regards, s’élaborer de nouvelles méthodes et se monter des expériences d’un genre nouveau – « le mot français “expérience” est bien utile, parce qu’il a à la foi le sens de création et de recherche », estime Salter.

« La plupart des artistes parlent de leur travail comme un événement, une rencontre, une relation, une incarnation… et pas comme une nouvelle connaissance », concède-t-il. Mais les frontières sont de plus en plus floues.

4. Les feux rouges vont disparaître des villes

Imaginez des voitures sans conducteur, qui passent vous prendre à la sortie du boulot et vous ramènent chez vous avant de charger un autre client.

Maintenant, imaginez une ville dont on aurait retiré 80% des automobiles, devenus utiles grâce à ce partage généralisé, pour ne garder que ces véhicules automatiques.

On pourra alors se débarrasser des feux rouges, les voitures se débrouillant toutes seules pour savoir où et quand tourner — une tâche que les algorithmes, encore eux, sont capables d’effectuer mieux que les humains.

C’est cet avenir que dessine une étude de l’université du Texas, dans une vidéo qu’on vous recommande de ne pas reproduire rue de Rivoli.

Mais ce qui frappe l’imagination, c’est que les connaissances et les technologies nécessaires à une telle utopie – ou un tel cauchemar si vous travaillez chez les taxis G7 — existent déjà.

L’algorithme du carrefour sans feux rouges est, paraît-il, en démonstration en ce moment dans le parc de la Villette, à Paris (mais je n’ai pas trouvé trace de cette expérience sur le Web). Quand à la Google Car, elle commence à prendre des passagers réels, et plus seulement des ingénieurs, le temps d’une vidéo de promotion.

Si Carlo Ratti, du MIT, a dessiné ce rêve urbain, Olivier Ertzscheid, enseignant-chercheur à l’IUT de La Roche-sur-Yon qui tient le blog Affordance.info, s’est chargé un peu plus tard de faire cauchemarder tout le monde avec une question piège.

Que doit faire votre voiture sans conducteur si elle détecte une collision prochaine avec un bus rempli d’enfants, si son algorithme estime que la seule façon de leur sauver la vie est de vous envoyer, vous, dans le décor ? Doit-elle sauver le maximum de vies possibles ? Préserver son occupant à tout prix ? Chercher quel scénario coûtera le moins cher à la collectivité ?

Comme Asimov avait imaginé des lois de la robotique pour protéger l’homme de ses propres création, il faut inventer une éthique de l’algorithme. « Dans le couple homme-machine, la machine est de plus en plus tentée de faire l’homme », estime, gaillard, Ertzscheid.

5. L’armée française surveille aussi le deep web

Thierry Berthier, de la Chaire de cyberdéfense et cybersécurité Saint-Cyr Sogeti Thales (ouf), a effrayé un peu tout le monde avec une série de chiffres montrant la multiplication des cyberattaques un peu partout dans le monde.

Il a aussi expliqué que l’armée française a préparé le pendant numérique de l’intervention de la coalition contre l’Etat islamique, en suivant notamment l’activité ennemie sur les réseaux sociaux.

Interrogé sur la possibilité de passer par le « deep web » pour échapper à cette surveillance, il a expliqué que les armées avaient déjà les moyens de surveiller les échanges sur TOR, navigateur alternatif censé couvrir les traces de ceux qui l’utilisent. « De notre point de vue, il vaut mieux que ses utilisateurs continuent à croire que TOR est sécurisé, comme ça ils continueront à s’en servir… »

Les sites d’info français et le mobile : qui est in et qui est out ?

On vous le dit, on vous le claironne : l’avenir des sites d’info se joue sur le mobile, et plus sur les ordinateurs.

Les chiffres de la dernière étude AT Internet, cités par Eric Mettout, directeur adjoint de L’Express sur son blog Nouvelle formule, sont impressionnants : encore quelques mois (et quelques centaines de milliers de smartphones et tablettes offerts à Noël) et certains articles seront davantage consultés sur le petit écran d’un smartphone plutôt que sur un laptop ou un ordinateur de bureau.

Mais les sites d’infos sont-ils prêts pour cette (énième) révolution ? J’ai dressé un tableau comparatif pour examiner les différentes stratégies adoptées par un échantillon (arbitraire) de 40 sites. Le résultat montre que sur le mobile, les médias avancent en ordre dispersé.

Quelques enseignements :

  • Les trois quarts des sites étudiés ne sont pas (encore) passés au responsive design, une proportion qui paraît élevée alors que les lecteurs les consultent sur des écrans de taille de plus en plus variable.
  • Sur les 40 sites étudiés, 8 ne proposent toujours pas un design adapté quand l’utilisateur se connecte depuis un mobile. Le lecteur subit un téléchargement plus long et doit ensuite zoomer sur la colonne contenant le texte à lire, après avoir fermé d’éventuels pop-ups et messages intrusifs. Ce choix peut être imposé par la régie pub, qui préfère utiliser des emplacements publicitaires classiques si les campagnes sont mieux rémunérés.
    La liste : L’Express, Jeuxvideo.com, Télérama, Premiere, PureMédias, Ouest-France, Les Inrockuptibles et le Journal du dimanche.
  • Les 40 médias de l’échantillon proposent tous une application iPhone, mais 5 d’entre eux ne disposent pas d’une application Android et 24 n’ont pas développé d’application Windows Phone.
  • Deux sites proposent une version mobile incluant un téléchargement pour une lecture offline ultérieure, fonctionnalité réservée aux utilisateurs des applications natives pour tous les autres : Le Monde et Rue89.
  • Un site seulement propose une version Web adaptée aux tablettes : Rue89. Les autres « servent » la version classique du site, même s’ils ont par ailleurs une application pour iPad ou tablettes Android.

Lorsqu’on veut adapter ses contenus au mobile, trois stratégies au moins sont en effet possibles :

  • Proposer des applications natives. C’est le choix longtemps privilégié . On compte alors sur les lecteurs pour installer l’application du média depuis les principaux store : iTunes pour un iPhone ou un iPad, Google Play pour un smartphone ou une tablette Android, Windows Store pour un appareil équipé de Windows Phone.
  • Proposer une version mobile. Bien souvent, le lecteur accède au site d’info depuis une autre application de son téléphone, qu’il s’agisse du navigateur ou des app des réseaux sociaux et autres agrégateurs. Une solution dans ce cas est de charger une version spéciale du site, située sur une URL spécifique (qui commence souvent par « m. » ou « mobile. », par exemple mobile.lemonde.fr).
  • Proposer un site responsif. Le site est dès le départ conçu pour s’adapter à  la largeur disponible au moment de l’affichage. L’URL est unique, et des cas supplémentaires peuvent être pris en compte (écrans de tablette, écrans très larges…). Les sites ayant connu une refonte récente ont pour la plupart choisi cette voie.

Un casse-tête et des coûts importants

Chaque méthode a ses avantages et ses inconvénients, qu’il serait trop long d’énumérer ici. Par exemple, il est plus simple d’ajouter des formats pub avancés et donc plus rémunérateurs, comme un clip vidéo plein écran, sur des applis natives. Mais opter pour une version mobile revient beaucoup moins cher : développer en parallèle deux à trois versions différentes du même produit fait exploser les coûts.

Choisir un design entièrement responsif est la solution la plus moderne, mais elle a des implications importantes : par exemple, le visuel d’un « habillage » publicitaire peut avoir une largeur fixe et ne pourra pas être activé sur un site dont la largeur n’est pas fixe. Et certains formats rédactionnels (infographies, diaporamas, cartes…) sont difficiles à adapter pour les journalistes qui les préparent.

Quelques précisions sur la méthode choisie — les données sont disponibles dans ce Google Sheet et au format CSV, n’hésitez pas à les réutiliser :

  • Je n’ai pas retenu la version mobile d’un site si l’utilisateur n’est pas automatiquement redirigé vers elles (cas de L’Express notamment).
  • Lorsqu’un média dispose de plusieurs application pour la même plate-forme, j’ai relevé la note de celle diffusant les articles du site, et pas d’autres contenus.
  • Je n’ai pas retenu les applications qui ne permettent que de téléchargger un numéro de l’édition papier.
  • J’ai retenu les applications non officielles, notamment sur Windows Phone.
  • Je n’ai pas classé parmi les sites responsifs ceux dont la maquette est « élastique » sans cependant s’adapter réellement en fonction de  (c’est le cas de Slate.fr par exemple).

Disclaimer : ancien rédacteur en chef adjoint de Rue89, j’ai participé au lancement des différentes applications et versions mobiles et tablettes de ce site.

N’hésitez à me signaler d’éventuelles erreurs ou oublis dans les commentaires.

7 fautes de français qui n’en sont pas, en fait

J’aurais pu titrer cette note « Confessions d’un emmerdeur ». Après ma sortie d’école de journalisme, j’ai été pendant plusieurs années secrétaire de rédaction, un travail qui comprend en général beaucoup de relecture de copie ou de pages.

Un TOP ou un Grevisse à portée de main, j’ai découvert quelques-unes des subtilités de la langue française, désuètes ou charmantes selon le point de vue.

Le problème avec ce type d’occupation professionnelle, c’est qu’elle tend à faire de vous un ayatollah, corrigeant par réflexe les fautes de ses amis à l’oral, et capable de partir en guerre sainte contre les impies qui enchaînent les solécismes sans réaliser l’horreur de leur sacrilège.

Mes années passées à bosser sur le Web m’ont profondément adouci. D’abord parce que relever une faute dans un article qui peut être corrigé, c’est moins douloureux, pour le lecteur comme pour l’auteur, que de la voir imprimée pour l’éternité.

Ensuite parce que j’ai découvert qu’il y avait deux sortes d’internautes qui signalaient les fautes d’orthographe :

  • ceux qui n’ont que mépris pour le journaliste coupable d’un faux pas,  « alors que c’est quand même votre métier d’écrire », et y voient la preuve définitive de votre incurable incompétence ;
  • ceux qui s’excusent vraiment de vous déranger, « mais il manque un mot dans le titre de l’article, je sais, je suis un peu obsessionnel et vous devez avoir d’autres chats à fouetter, encore pardon ».

Avec le temps et sauf misanthropie profonde, vous avez assez vite envie d’appartenir à la seconde catégorie plutôt qu’à la première.

Enfin, la fréquentation des blogs et forums spécialisés comme des ouvrages de référence m’a enseigné que dans bien des cas, il n’y a pas de règles implacables mais une série d’exceptions et de sous-exceptions.

Vous pouvez passer vos soirées à apprendre la dizaine de pages consacrées à l’accord du participe passé des verbes pronominaux que compte le TOP. Ou bien vous pouvez décider que vous avez mieux à faire de votre vie.

Mais le pire, c’est quand j’ai appris que certaines des règles que je chérissais tant étaient parfois discutables, d’autres fois à côté de la plaque. En voici un rapide florilège, que vous aurez sûrement à cœur de compléter ou de critiquer dans les commentaires.

1. « Par contre » est tout à fait correct

Martine Rousseau et Olivier Houdart, correcteurs au Monde.fr, le rappelaient déjà dans leur blog Sauce piquante en 2007 :

  « La locution “par contre”, malgré les attaques récurrentes dont elle est l’objet […] est tout à fait correcte. »

Portrait de Voltaire, auteur inconnue (Gallica.bnf.fr)
Portrait de Voltaire, auteur inconnu (Gallica.bnf.fr)

Un wikipédien véhément l’a d’ailleurs fait retirer de la notice Fautes de français destinée aux contributeurs de l’encyclopédie en ligne. « Par ailleurs » et « par avance » sont corrects, pourquoi pas « par contre », argumente-t-il.

« C’est une double préposition : c’est ça le problème, un problème de grammaire », réplique Rara dans un commentaire de cet article — preuve que les contempteurs du « par contre » n’ont pas déposé les armes. 

C’est paraît-il Voltaire qui est entré en guerre contre « par contre », et c’est donc la faute à Voltaire si je l’ai tant de fois remplacé par « cependant » ou « en revanche ».

Sur Langue-fr.net, on lira avec intérêt un décryptage de ce curieux ostracisme, défendu par Littré mais combattu par Grevisse :

« C’est plutôt une affaire de sociolinguistique : employer “en revanche” plutôt que “par contre” dénote l’appartenance culturelle à un milieu maîtrisant un code social, celui de l’expression — un code dont l’emploi est un signe de reconnaissance implicite pour “ceux qui savent”. »

Si vous écrivez « par contre » dans votre texte, vous rejoindrez un club qui compte notamment « Tocqueville, Stendhal, Maupassant, Gide, Giraudoux, Saint-Exupéry, Malraux, Bernanos, De Gaulle » parmi ses membres. Il y a pire compagnonnage.

2. On peut écrire « autant pour moi » si on veut

C’est l’un des sujets les plus polémiques sur les forums dédiés à la langue française. Beaucoup soulignent l’origine militaire de l’expression : si l’officier dirigeant un exercice se trompe dans ses consignes, il va demander à sa troupe de revenir « au temps » initial de la manœuvre, « pour moi » parce que c’est lui, et non les exécutants, qui s’est trompé.

Mais cette explication est elle-même contestée, et puis après tout,  si l’expression « autant pour moi » s’est imposée au fil du temps, c’est parce qu’elle a tout autant de sens que sa variante.

Je le confesse, j’aime bien écrire « au temps pour moi », par pure coquetterie. Mais je respecte et apprécie les partisans du camp d’en face.

3. « Une auteure », « une écrivaine », « une entraîneure »… et pourquoi pas ?

Il y a quelques années, croiser l’expression « une auteure » ou « une écrivaine » dans un texte me faisait pleurer des larmes de sang.

Mais alors que les combats féministes sont de mieux en mieux relayés dans la société ou sur les réseaux sociaux, j’avoue être en panne d’arguments contre vous si vous écrivez votre amour pour « l’écrivaine George Sand » ou votre respect envers Corinne Diacre, « première entraîneure d’une équipe de foot professionnelle française ».

Et je suis plutôt content d’utiliser une langue qui vit et évolue, plutôt qu’une collection de règles figées pour l’éternité dans quelque vieux grimoire de l’Académie française.

Je n’en suis pas à accorder chaque mot avec des tirets (« motivé-e-s ») ou à prôner la règle de proximité pour l’accord de l’adjectif — quoique l’usage actuel n’ait rien de bien satisfaisant intellectuellement, qui oblige  à écrire : « Trois millions d’infirmières et un médecin se sont retrouvés dans la rue pour manifester. »

Quand je travaillais à Rue89, on s’était donné comme règle de ne pas en avoir, et de laisser l’auteur d’un article choisir de féminiser ou non certains mots, selon ses convictions personnelles. De même, Rue89 pouvait être du féminin ou du masculin selon le contexte (« le site d’information Rue89 » mais « les riverains de la Rue89 », par exemple).

4. Oui, on peut « supporter » une équipe de foot

Si j’avais gagné un centime d’euro à chaque fois que j’ai lu un tweet ou un commentaire dénonçant l’emploi du mot « supporter » au sens de « soutenir » dans un article sur le sport, j’aurais sans doute assez d’argent pour offrir des cours de français aux auteurs de ces réclamations.

« Supporter » figure pourtant bien dans le dictionnaire du CNRTL avec cette définition : « aider activement, donner son soutien moral ou matériel à » et « encourager, soutenir ». Avec un exemple d’emploi qui date de 1897.

Si j’essaie de ne pas recourir trop souvent aux anglicismes pour privilégier — quand c’est possible et que ça ne nuit pas à la compréhension — leur équivalent français, j’ai tendance à penser que leur traque systématique finit par ressembler au chantier d’un barrage contre le Pacifique.

Ou alors, pour faire bonne mesure, il faut aussi chasser les mots « algorithme » (qui vient de l’arabe), « bivouac » (emprunté à l’allemand) et « albinos » (d’origine espagnole). Bon courage.

5. Paris est belle et Paris est beau

Les noms de ville sont-ils féminins ou masculin ? Vous pouvez essayer de trouver une règle, ce qui vous amènera à des acrobaties comme celles repérées par Francaisfacile.com :

 « Quelques linguistes suggèrent parfois de se référer à la dernière syllabe : le nom d’une ville est en effet souvent féminin si ce nom se termine par une dernière syllabe muette (comme par exemple : Bruxelles, Rome), alors qu’il est souvent masculin si ce nom se termine par une dernière syllabe sonore (comme par exemple : Dakar, Oslo).

Toutefois, cela pourrait conduire à de mauvaises interprétations (par exemple : “La Nouvelle-Orléans” est féminin alors que la dernière syllabe est sonore).

D’autres linguistes suggèrent parfois de se référer à la dernière lettre : le nom d’une ville est en effet souvent féminin si ce nom se termine par une voyelle (comme par exemple : Rome), alors qu’il est souvent masculin si ce nom se termine par une consonne (comme par exemple : Dakar, Paris).

Toutefois, cela pourrait également conduire à de mauvaises interprétations (par exemple : “La Nouvelle-Orléans” est féminin alors que la dernière lettre est une consonne). »

Ou alors, vous vous souvenez que selon Tino Rossi, Paris est la « reine du monde » et que personne n’a embêté René Clément pour avoir titré son film « Paris brûle-t-il ? ». Et vous décidez de faire comme ça vous chante. Un peu de liberté langagière ne fait jamais de mal.

6. Pour « impacter » et « prioriser », le combat est déjà perdu

On est d’accord, « impacter » n’est pas un très joli mot. Il a cependant le mérite d’être efficace : on peut lui préférer « avoir des conséquences sur », par exemple, mais c’est un chouïa plus long (edit : “affecter » fait très bien l’affaire, me suggère Emmanuelle Ducros, journaliste à L’Opinion). Et « impacter » est désormais dans le Larousse.

Même chose pour « prioriser », que le Robert accueille désormais dans ses pages (plus prudent, le CNRL le donne parmi les synonymes possibles sans en avoir fait une entrée dans son lexique).

Je propose de cesser les hostilités contre ceux qui utilisent ces deux mots, et de concentrer le feu contre ceux qui s’obstinent à « pallier à un problème » et ceux qui utilisent le subjonctif après « après que ». Ceux-là méritent vraiment notre châtiment.

7. Lamartine aimait bien « le jour d’aujourd’hui »

Le combat contre l’abominable expression « au jour d’aujourd’hui » ne date pas du jour d’aujourd’hui, justement. Pierre Larousse s’échinait déjà à lui faire un sort dans son Grand dictionnaire du XIXe siècle, paru en 1864. Le texte est savoureux :

« Cet adverbe, composé de cinq mots, “à le jour de hui”, est peut-être l’exemple le plus frappant du principe d’agglutination suivant lequel se sont formés un grand nombre de mots de notre langue. […]

“Hui” était évidemment suffisant pour rendre l’idée exprimée par le latin “hodie” ; mais, par une des redondances si fréquentes dans notre ancienne langue, on ajouta à cet adverbe les mots “au jour de”, et l’on eut “au jour de hui”, “aujourd’hui”.

Et ce pléonasme ne suffisant pas encore au peuple, il dit “au jour d’aujourd’hui”, comme nous le montre Vadé [un chansonnier de l’époque, ndlr] : “Les garçons du jour d’aujourd’hui savent si bien emboiser les filles que je devrions en être soules.”

Cependant Lamartine a su employer cette locution vicieuse avec une poétique énergie : “Dans ce cercle borné, Dieu t’a marqué ta place. / L’univers est à lui. / Et nous n’avons à nous que le jour d’aujourd’hui.”

Il nous souvient même avoir entendu de nos propres oreilles “au jour du jour d’aujourd’hui”. N’est-ce pas ici le cas de dire : quand on prend du galon, on n’en saurait trop prendre ?

Voilà comment nous rendons, par une accumulation de mots que nos pères exprimaient par un monosyllabe. Qu’on vienne donc nous dire maintenant que le progrès consiste à simplifier. »

C’est vrai qu’à part chez Lamartine, on peine à trouver un usage élégant de « au jour d’aujourd’hui ». Mais après tout, comme le montre Larousse, « aujourd’hui » est déjà un pléonasme. Peut-être finirons-nous par apprendre à aimer « au jour d’aujourd’hui »,  qui écorche encore les oreilles cent cinquante ans plus tard ?

(Merci à l’intraitable Emmanuelle Bonneau, journaliste à Rue89 qui m’a soufflé quelques-uns des exemples de cet article.)

Comment j’ai fouillé dans des dizaines de milliers de notices Wikipédia

Pour réaliser le Top 50 des sites d’info les plus cités sur Wikipedia, j’ai utilisé une série d’outils dont je m’étais parfois déjà servi dans d’autres projets :

  • J’ai repéré des séries de notices intéressantes grâce à l’outil CatScan proposé par Wikipédia.
  • J’ai utilisé des techniques de data scraping pour parcourir automatiquement des milliers de notices avec l’extension Firefox Outwit Hub.
  • J’ai nettoyé les résultats obtenu grâce à Open Refine.
  • J’ai dressé les classements avec Google Sheets, le tableur de Google Drive.
  • J’ai réalisé les graphiques avec Datawrapper.
  • J’ai présenté les tableaux de façon interactive avec le plug-in JQuery Datatables.

Comme chacun de ces services peut vous intéresser, je reviens pas à pas dans cet article sur la méthode utilisée, en donnant des liens vers les fichiers de données obtenues.  N’hésitez pas à réutiliser ces dernières pour d’autres travaux, et tenez-moi au courant de vos trouvailles dans les commentaires.

A plusieurs reprises, j’ai fait des choix qui m’ont semblé cohérents avec l’objectif de ce projet. Que vous soyez wikipédien ou journaliste, vous aurez sans doute envie de les discuter, ce que je vous encourage fortement à faire, je suis là pour ça.

1. Bâtir un échantillon avec CatScan

La première difficulté, c’était de trouver une série de notices Wikipédia pertinentes.

J’ai d’abord pensé à programmer Outwit Hub pour en collecter de façon totalement aléatoires, en utilisant par exemple le lien « Explorer au hasard » de l’encyclopédie. Mais mon « robot » s’est vite perdu dans des fiches sans lien avec l’actualité ou dans diverses pages de listes.

J’ai alors découvert CatScan et je m’en suis servi pour obtenir les liens de notices figurant dans toute une série de catégories et sous-catégories. En partant la catégorie Evenement de Wikipédia, j’ai sélectionné les sous-catégories suivantes (elles-mêmes divisées en une multitude de sous-catégories :

  • Evénement en cours
  • Evénement à venir
  • Evénement récent
  • Journée commémorative ou thématique
  • Massacre
  • Evénement historique en météorologie
  • Salon
  • Marche
  • Controverse
  • Festival

CatScan m’a renvoyé une liste de 16741 notices (sur un total de plus de 1,6 million publiés sur la Wikipédia en français, soit environ 1%) sur des sujets très variés. La taille de cette liste m’a paru suffisante — au-delà, les différents logiciels dont je me suis servi n’aurait de toute façon pas pu fonctionner correctement.

2. Programmer un scraper avec Outwit Hub

Bien que l’interface de ce logiciel de scraping soit intimidante (euphémisme), Outwit Hub n’est pas si compliqué à utiliser, une fois qu’on a digéré les tutoriels de base. Il suffit d’identifier où se trouvent dans le code source les informations qu’on recherche et comment elles sont structurées en langage HTML.

En l’occurrence, les liens se trouvant dans les parties qui m’intéressaient (« Notes et références » et « Voir aussi » notamment) sont dans des balises liens (« a ») portant la classe CSS « external text ».

Capture d’écran 2014-09-10 à 19.16.20
Capture d’écran de Outwit Hub

Il suffit alors de créer un « extracteur »,en indiquant à Outwit Hub les chaînes de caractères se trouvant juste avant et juste après l’information ciblée.  Par exemple, pour l’URL externe :

<a class=« external text » href= »

et

« >

Pour extraire plusieurs informations à la fois (l’URL, mais aussi le nom de domaine et le texte du lien), j’ai cependant dû construire une expression régulière. Sans vous faire un cours complet sur ces trucs-là (ce dont je serais bien incapable), sachez qu’on les croise un peu partout (de Yahoo Pipes à Adobe Indesign en passant par les différents languages de programmation).

Pour un non-développeur, c’est un peu pénible à apprendre, mais ça rend bien des services, ça en vaut donc la peine.  Après avoir pas mal transpiré, j’ai fini par bâtir l’expression suivante (sûrement perfectible, d’ailleurs) :

/class=« external text ».*href= »(http://.*?)(/.*?) »>(.*?)</a>/

Outwit Hub était alors paré pour le moment le plus agréable du projet, celui où l’ordinateur travaille à votre place : il a suffit de lui demander de passer cet extracteur sur chaque page de l’échantillon, puis d’exporter tous les résultats obtenus dans un gros fichier CSV (20 Mo).

3. Nettoyer les résultats avec Open Refine

Quand vous souhaiter intervenir sur de gros fichiers de données, les fonctionnalités les plus courantes (comme Rechercher / Remplacer) ne suffisent pas.

C’est là qu’Open Refine (anciennement Google Refine) se révèle particulièrement utile, parce qu’il permet de faire via une interface graphique très bien fichue des manipulations de tables qui doivent se faire sinon via des lignes de commande.

Là encore, il faut accepter de se plonger dans les tutoriels et les pages d’aide pour apprendre à effectuer les opérations souhaitées, mais c’est du temps bien investi, croyez-moi.

Dans le cadre de ce projet, je me suis servi de Google Refine pour présenter proprement chaque donnée dont j’avais besoin :

  • l’URL de la notice Wikipédia « scrapée »
  • l’URL du lien externe repéré
  • le nom de domaine du lien externe repéré (par exemple, slate.fr)
  • le texte du lien (souvent le titre de l’article)

J’ai aussi réparti ces noms de domaines en deux catégories : « Actu » et « Autres » (pour tous les liens vers des sites annuaires, institutionnels, ou personnels).

C’était l’étape la plus fastidieuse : pour éviter d’y passer la journée et de faire planter Open Refine, je me suis limité aux médias cités au moins 30 fois dans l’échantillon.

Certains sites dans cette liste avaient un statut ambigu : j’ai conservé ceux proposant à la fois des articles et des statistiques ou pages de référence (par exemple, Allociné), et d’exclure les purs annuaires (comme IMDB).

J’ai aussi pratiqué quelques regroupements, pour les sites possédant plusieurs sous-domaines (par exemple, en fusionnant les liens vers www.lefigaro.fr et elections.lefigaro.fr en lefigaro.fr).

Si ça vous intéresse d’explorer vous aussi ces données, vous pouvez télécharger l’intégralité des liens de l’échantillon ou l’intégralité des liens vers des sites de médias dans des fichiers CSV désormais nettoyés.

4. Dresser les classements avec Google Sheets

On approche du but : en important le CSV contenant tous les liens vers des sites de médias dans une feuille de calcul Google Sheets, il ne reste plus qu’à créer un rapport de tableau croisé dynamique chargé de compter le nombre de liens pour chaque nom de domaine.

Cette information est également disponible dans Open Refine, mais j’avais besoin d’une présentation par cellules pour pouvoir en faire un graphique dans la foulée.

(Je n’ai jamais vraiment compris comment fonctionnaient vraiment ces rapports, et je suis bien embêté quand je dois expliquer leur fonctionnement lors de formations. Je me contente d’essayer diverses combinaisons de lignes, de colonnes et de valeurs pour obtenir le résultat souhaité, ce qui finit toujours par arriver à force d’essais.)

5. Faire le graphique avec Datawrapper

Je ne sais pas s’il est possible de tomber amoureux d’un logiciel ou d’un service web, mais si c’est le cas, je dois confier une passion sans doute excessive pour Datawrapper — selon moi, Mirko Lorenz, son programmeur,  a déjà sa place réservée au paradis des développeurs.

Un copié/collé des données de Google Sheets et quelques réglages dans une interface merveilleusement bien pensée, et zou, le graphique est prêt.

6. Un tableau filtrable avec Datatables

A ma connaissance, il existe peu d’outils accessibles pour présenter de longues séries de données proprement à l’intérieur d’un article. Le plug-in JQuery Datatables fait ça vraiment très bien, mais il faut être suffisamment à l’aise en HTML, en CSS et en JQuery pour s’en servir.

J’ai donc récupéré le flux Json du Google Sheet pour bâtir dynamiquement le tableau contenant les 23 014 liens vers des sites de médias, et activé Datatables une fois la table terminée.

7. Des échantillons sur des thématiques

Pour continuer à explorer l’encyclopédie, j’ai choisi des thèmes plus précis et repéré des catégories (et leurs sous-catégories) de notices portant sur le sport, la politique, la Bretagne et la BD.

J’ai fait subir le traitement décrit ci-dessus aux liens externes ainsi repérés (ça va beaucoup plus vite la deuxième fois).

Voici les données récupérées, également dispos dans Google Sheet :

 

Le top 50 des sites d’info les plus cités sur Wikipédia

« Wikipedian protester », strip de XKCD (CC-BY-NC)

Les médias français et la version francophone de Wikipédia entretiennent une relation compliquée.  La fiabilité de l’encyclopédie collaborative a longtemps été mise en doute par des chroniqueurs et éditorialiste, mal à l’aise face à l’absence de « comité éditorial » ou d’instance dirigeante bien identifiée.

Certains journalistes n’hésitent pas à « vandaliser » des notices pour mieux appuyer leur démonstration, comme pour un reportage d’Envoyé spécial diffusé en novembre 2012 et qui avait hérissé le poil des Wikipédiens ou pour le livre La Révolution Wikipédia, publié sous la direction du chroniqueur littéraire Pierre Assouline en 2007.

Pourtant, les journalistes utilisent quotidiennement Wikipédia pour leurs recherches d’information, même s’ils en connaissent souvent mal le fonctionnement et le complexe système d’autorégulation. En formation, j’ai souvent dû prendre le temps de faire l’anatomie d’une notice, de la liste de sources en bas d’article à l’onglet « Discussion », en passant par la comparaison des différentes versions.

La « référence nécessaire », règle d’or de l’encyclopédie

Et les Wikipédiens eux-mêmes se servent largement des sites d’information pour sourcer le contenu de leurs notices. Les rédacteurs doivent en effet respecter une règle fondamentale : l’absence de travaux inédits dans le texte des notices. Tout savoir qui y est référencé doit s’appuyer sur une source existante, qu’il s’agisse d’un livre, d’une page officielle ou, bien souvent, d’un article de presse.

Un porte-clés Wikipédia (Cary Bass-Deschenes/CC-BY-SA)

C’est pour cette raison qu’on croise régulièrement la mention « (Réf. nécessaire) » [et non « citation nécessaire, merci Gilles, ndlr] dans le contenu d’une page, signe qu’un contributeur vigilant a édité la page pour signaler que l’information mentionnée n’était pas correctement sourcée.

En 2012, l’écrivain américain Philip Roth a pu mesurer toute l’intransigeance de cette règle quand il a tenté de modifier la notice d’un de ses romans, correction refusée par un administrateur de la Wikipédia anglophone. Un épisode qu’il a raconté dans le New Yorker.

L’existence d’un nombre d’articles suffisant traitant d’une personnalité ou d’un phénomène étant d’ailleurs un critère important pour juger de la « recevabilité » d’un nouvel article  — ce qui avait amusé Daniel Schneidermann lors d’une une émission d’Arrêt sur images sur ce sujet sensible.

Mais quelles sont leurs sources privilégiées ? J’ai mené une petite enquête en me basant sur un échantillon de plus de 16 500 fiches contenant en tout plus de 100 000 liens externes. Je reviens pas à pas sur la méthode utilisée dans un autre article de ce site, où je liste aussi l’ensemble des données utilisées — sachez juste que mon ordinateur a beaucoup ressemblé à ça ces dernières heures :

Voilà donc le top 50 des sites d’actu dont le contenu est le plus souvent cité en référence dans Wikipédia :

 

Si au lieu d’un échantillon « généraliste » de fiches, on se cantonne à des sélections resserrées, on peut voir comment cette liste de médias de référence évolue thème par thème — n’hésitez pas à me contacter ou à laisser un commentaire si vous souhaitez que j’explore d’autres thématiques.

Enfin, si vous êtes journaliste, vous avez peut-être envie de savoir quels contenus de votre média ou de son concurrent font désormais référence, peut-être pour l’éternité — c’est quand même plus chic que d’être cité dans un tweet de Nadine Morano, non ?

Vous pouvez chercher votre média et les notices dans lequel il est cité dans la liste complète des liens de l’échantillon « généraliste », soit 1% du total des fiches publiées sur Wikipédia. Si le tableau ne se charge pas, vous pouvez retrouver la liste complète dans cette Google Sheet.

Si vous trouvez des erreurs ou des bizarreries, contactez-moi ou laissez un commentaire que je puisse jeter un œil à vos trouvailles.

280 heures de design pour refaire le bouton Like de Facebook

Les conférences TED font partie de mes plaisirs coupables, même si la mécanique trop bien rodée des interventions, le côté prédicateur et souvent angélique des conférenciers peuvent agacer.

Mais des choses intéressantes s’y disent parfois, notamment sur les pratiques des géants du Web, comme avec ce talk de de Margaret Gould Stewart, directrice du design de Facebook, que j’ai vu passer en août sur YouTube.

Margaret Gould Stewart: How giant websites design for you (and a billion others, too)

Facebook’s « like » and « share » buttons are seen 22 billion times a day, making them some of the most-viewed design elements ever created. Margaret Gould Stewart, Facebook’s director of product design, outlines three rules for design at such a massive scale-one so big that the tiniest of tweaks can cause global outrage, but also so large that the subtlest of improvements can positively impact the lives of many.

Pour les gens pressés, j’ai passé le filtre anti–bullshit et relevé points-clés et quelques chiffres éclairants.

22 milliards d’affichage par jour pour le bouton Like

  • L'ancien et le nouveau bouton LIke
    L’ancien et le nouveau bouton LIke

    Créer les petits éléments d’interface d’un site ou d’une application ne constitue pas la partie la plus séduisante du travail de designer, mais quand il s’agit d’un service utilisé quotidiennement par des centaines de millions d’utilisateurs, chaque détail compte.

  • Le bouton Like actuel s’affiche « 22 milliards de fois par jour sur plus de 7,5 millions de sites web », explique  Gould Stewart [ce qui permet au passage à Facebook de recueillir des informations sur ses utilisateurs…  et les autres, comme le rappelait déjà Erwan Cario en 2010 dans Libération, ndlr].
  • Ce micro-bouton a nécessité « 280 heures de travail sur plusieurs mois »,  pour ajuster sa largeur et sa hauteur, le traduire et vérifier qu’il s’affiche correctement sur les navigateurs les plus anciens (« attention aux jolis dégradés et aux bordures », prévient-elle).

Ces photos Facebook qui nous rendent « tristes »

  • Lorsque Facebook a donné la possibilité à ses utilisateurs de signaler une photo qui, selon eux, contrevenait aux  « standards de la communauté », ses équipes se sont retrouvées submergées par des rapports inappropriés. Des photos gênantes pour la personne qui figure dessus, mais qui restent « dans les clous » : rien ne vous interdit de publier une photo de votre collègue de travail éméchée au pot de fin d’année (sauf bien sûr si elle est torse nu), mais c’est un autre problème.
  • Facebook a d’abord ajouté la possibilité d’envoyer un message à l” »ami » concerné pour lui demander le retrait.  Echec : 20% seulement des personnes concernées l’ont utilisé.
  • C’est finalement un changement dans le formulaire de signalement lui-même qui a permis d’améliorer la situation. Désormais, quand il veut faire retirer une photo, l’utilisateur peut choisir l’option « Je n’aime pas cette photo de moi », puis préciser pourquoi, par exemple en sélectionnant « Elle me rend triste. » Le taux d’utilisation a grimpé à 60%, et les auteurs des contenus concernés ont mieux compris la réaction de leurs « amis » mécontents.
Le formulaire actuel de signalement de photos sur Facebook

Le data ne fait pas tout

  • Gould Stewart déteste qu’on dise que le travail de design sur un site comme Facebook n’est guidé que par la compilation de statistiques d’utilisation (approche « data driven »). « Les données peuvent vous aider à rendre un bon design encore meilleur », mais n’ont jamais remplacé l’intuition.

Faire avec la résistance au changement

  • « Je passe pratiquement autant de temps à faire le design du message qui avertit d’un changement qu’à faire celui du changement lui-même », plaisante Gould Stewart. Les gens peuvent s’habituer à un mauvais design, et même devenir très bons dans son utilisation, rappelle-t-elle. La frustration est encore plus grande quand la page est modifiée.
  • Avant de travailler chez Facebook, Gould Stewart s’est occupé du changement de notation des vidéos YouTube : d’une échelle de cinq étoiles, le site est passé à deux pouces, l’un vers le bas, l’autre vers le haut.  Pour une raison simple (que j’ai aussi pu constater à Rue89, lorsque les commentaires étaient notées de 1 à 5 boules rouges) : les utilisateurs ne se servaient que de la note la plus basse et de la note la plus haute, pas des étoiles intermédiaires. Ça n’a pas empêché la colère des « noteurs », obligeant YouTube à s’expliquer dans la presse spécialisée.
Google, YouTube et Facebook sur des téléphones ancienne génération
Google, YouTube et Facebook sur des téléphones ancienne génération

Penser aux nouveaux usages et aux pays pauvres

  • Penser le design d’un site pour les téléphones ancienne génération, c’est moins glamour que de lancer une nouvelle application chic pour trouver le nouveau café branché, explique en substance Gould Stewart. Mais ce sont ces interfaces qu’utilisent et utiliseront des millions d’utilisateurs dans les pays pauvres.
  • Pour prendre ces nouvelles contraintes en compte, « nous sortons de notre bulle et nous rencontrons les gens pour qui nous réalisons ces designs, nous testons nos produits dans d’autres langues que l’anglais, et nous nous efforçons d’utiliser ce type de téléphones de temps en temps », raconte-t-elle.

En France, la plupart des sites d’infos sont encore bien loin d’avoir une approche aussi soigneuse quand ils pensent leur interface et plus globalement leur expérience utilisateur, faute de moyens suffisants et d’expertise en interne. Ça donne des pages surchargées de publicités, des systèmes de commentaires dépassés ou des versions mobile mal fichues.

Mais les médias ont tout intérêt à s’y mettre, alors que la chasse au clic montre ses limites, et que des objectifs comme le temps passé sur la page ou la fidélité des internautes sont de mieux en mieux pris en compte — sur ce sujet, voir les explications du populaire service de statistiques en temps Charbeat.