Tous les articles par Yann Guégan

Ce qui a changé dans la liste des sujets préférés des médias français

Vous avez été nombreux à montrer votre intérêt pour le tableau de bord des obsessions, marottes et zones d’ombre des médias que j’ai publié début février. Je vais donc continuer de le compléter et de l’améliorer dès que j’aurais un peu de temps devant moi, et listé dans ce post les derniers changements.

Samedi 10 février

  • Une dizaine de médias supplémentaires sont désormais étudiés : Courrier international, L’Equipe, Les Echos, La Tribune, Challenges, Capital, Reporterre, L’imprévu, Bastamag, Contexte, StreetPress, The Conversation.
  • Dans la liste des entités, le classement actuel et son évolution par rapport à la période précédente est indiqué, à la manière du Top 50.
  • Le script qui récupère les titres et descriptions des articles publiés par chaque média (via leur flux RSS) passe désormais une fois par heure, et non plus trois fois par jour, pour ne rien rater sur les sites qui publient beaucoup de contenu comme 20 minutes.
  • L’adresse du flux RSS utilisé pour L’Express était erronée et a été corrigée.
  • La qualité du corpus utilisé pour l’analyse a été beaucoup améliorée : problèmes d’encodage résolus (Le Monde, Vice…), balises HTML mieux filtrées (Mashable…), suppression des retours chariots, retours à la ligne et tabulations.
  • Le corpus ne contient plus que les 150 premiers caractères de la description de chaque article publié, afin de ne pas défavoriser dans l’analyse les sites qui ne fournissent qu’une description très courte dans leur fil RSS, comme Le Point.
  • Trois médias ne peuvent être étudiés : Buzzfeed (contenus en anglais dans le fil RSS), Valeurs actuelles (fil RSS illisible), Télérama (pas de fil RSS disponible).

Comment je prépare le tableau de bord des sujets les plus traités par les sites d’actu

Capture d’écran d’un script Python

C’est sans doute le projet le plus ambitieux et le plus complexe que j’aie mené à bien depuis que j’ai lancé Dans mon labo il y a bientôt quatre ans. Il m’a fallu pas mal d’après-midi pluvieux et de jours fériés blafards pour terminer le tableau de bord qui liste les sujets les plus présents dans les sites d’actualité français.

Il est devenu possible grâce aux progrès que j’ai réalisés en Python, un langage de programmation prisé des datajournalistes. De mon côté, j’ai dû sérieusement m’y mettre courant 2017, notamment pour afficher en direct les résultats des élections législatives au sein de la carte interactive que j’ai préparée pour Contexte.

Pour explorer les flux XML mis à disposition par le ministère de l’Intérieur le soir des scrutins, j’ai trouvé en Python, avec sa syntaxe accessible et ses multiplies librairies disponibles, un partenaire idéal. (Mais il est aussi possible de faire ça très bien avec d’autres solutions, comme R.)

Et ces connaissances m’ont ouvert de nouveaux horizons, notamment ceux de la reconnaissance automatisée d’entités nommées. Un domaine qui, m’a-t-on expliqué, a beaucoup progressé grâce au patient travail de description et de classement réalisé par les contributeurs de Wikipedia.

J’ai d’abord travaillé, toujours pour Contexte, sur les thématiques les plus présentes dans le discours des députés pour enrichir le trombinoscope de l’Assemblée nationale que le site propose à ses abonnés. C’est alors que m’est venue l’idée de proposer une démarche comparable, mais avec les médias en ligne.

1. Scraper les flux RSS des sites d‘actu avec Python

J’ai listé, dans une Google Sheet, les sites que je souhaitais étudier, en renseignant pour chacun l’adresse de son flux RSS principal.

Mon script de scraping (dispo pou les curieux) commence par récupérer cette liste, et va chercher dans chaque flux le titre et la description (le chapô ou le début du texte) de chaque article. Il récupère aussi sa date de publication, et enregistre le tout dans un fichier Json dédié à chaque site (voir par exemple celui du Monde).

Tous les flux RSS n’étant pas construits de la même façon, il a fallu prendre en compte les différents cas de figure : ainsi, le résumé de l’article se trouve dans un élément qui peut être nommé « description », « summary », « content »…

2. Créer un corpus de textes et le faire analyser par TextRazor

La suite de ce script va concaténer ensemble les titres et résumés de chaque article publiés dans une période donnée (depuis sept jours, cette semaine ou ce mois) pour en faire un seul et même texte.

Ce corpus va ensuite être envoyé à TextRazor, via la librairie Python que met à disposition ce service d’analyse sémantique. Ce dernier est gratuit jusqu’à 500 requêtes par jour, un quota largement suffisant pour ce projet.

Parmi les services équivalents, TextRazor a un autre avantage : non seulement son outil d’extraction des entités nommées renvoie la liste des thématiques détectées au sein du corpus soumis, mais il fournit aussi pour chacune un score de relevance (« pertinence », que j’ai finalement traduit en « présence » dans mon tableau de bord).

Ainsi, s’il détecte les mots « GPA », « gestation pour autrui » ou « mère porteuse » dans un texte, Textrazor réunit ses expressions dans une seule thématique (en général le titre de la notice Wikipedia dédiée). Et donne à cette dernière une note, de 0 à 1, selon que l’entité lui semble plus ou moins pertinente dans le texte fourni.

C’est à la fois la force et la faiblesse de ma méthode : ce scoring me permet de générer les multiples classements, mais je n’ai pas « la main » sur son élaboration.

Malgré quelques mauvaises surprises, l’observation des résultats obtenus m’a toute fois rassuré : Le Parisien est en général le média où le thème « Paris » est le plus présent ; on retrouve souvent « Jean-Luc Mélenchon » bien classé dans les résultats de Politis ; Sputnik et RT France sont bien placés au classement pour le thème « Vladimir Poutine ».

4. Héberger les scripts sur un serveur chez PythonAnywhere

Cette partie-là du chantier serait une promenade de santé pour un développeur back-end même débutant. A un journaliste bidouilleur comme moi, elle a pris pas mal de temps et d’énergie.

Une fois le script Python décrit ci-dessus mis au point, je ne pouvais pas l’exécuter moi-même plusieurs fois par jour sur mon ordinateur afin de disposer de données toujours fraîches pour alimenter un éventuel tableau de bord.

Sur les conseils d’amis développeurs, j’ai regardé plusieurs offres d’hébergement comme Amazon Web Services ou Google Cloud Platform, mais la longueur des procédures d’installation et des tutoriels proposés m’a vite refroidi. Je me suis rabattus sur Python Anywhere. un service peu onéreux et qui s’est révélé mieux adapté à un noob comme moi.

Même avec cette solution, je suis passé par mal, de guides d’utilisation, de pages d’aide et de questions Stack Overflow avant d’arriver mes fins : faire tourner mon script de scraping plusieurs fois par jour.

4. Créer le tableau de bord en front à partir d’un fichier Json optimisé

Une fois toutes ces listes de thématiques récupérées et enregistrées dans le fichier Json de chaque média, un autre script Python, lui aussi hébergé sur PythonAnywhere, va préparer un fichier Json commun et de taille réduite.

Ce dernier sera récupéré, au moment où le tableau de bord publié Dans mon labo se charge, par votre navigateur.  Au final, c’est donc Chrome, Firefox ou Edge qui va construire l’infographie à l’intérieur de la page.

Je ne détaillerais pas sur ce travail de développement front-end, classique combinaison de HTML, de CSS et de Javascript, mais si vous avez des questions sur cette partie, je serai ravi d’y répondre !

A ce stade, la principale difficulté pour moi a été de s’assurer que le chargement des données puis la construction de l’infographie se fasse dans un délai raisonnable : lors des premières étapes, le tout prenait parfois une bonne dizaine de secondes, ce qui es rédhibitoire.

Pour chaque média, j’ai choisi de ne pas intégrer une thématique si son score était inférieur à un certain seuil (en ce moment, 0,4/1), et de n’afficher une thématique dans la liste principale que si elle était présente dans au moins quatre médias.

Il m’a fallu pas mal d’allers-retours entre scripts Python sur le serveur et code Javascript dans le navigateur pour réduire ce délai et obtenir une expérience suffisamment fluide, mais il  reste sans doute pas mal d’optimisation possible.

5. Préparer la suite avec des analyses hebdomadaires et mensuelles

Comme beaucoup l’ont fait remarquer dès la publication du tableau de bord, les résultats seront intéressants à observer dans le temps, au-delà de la photographie actuelle (les sept derniers jours). Mon script réalise déjà des analyses hebdomadaires et mensuelles, qui ne sont pas affichées mais que j’espère utiliser quand j’aurais davantage de recul.

Voilà ! Je suis en tout cas curieux de savoir vos remarques, critiques ou propositions d’amélioration dans les commentaires de ce post ou bien, pour les timides, dans un message privé.

Mis à jour le 2/2 à 10h15. Précision sur les seuils (point 4) et point 5 ajouté.

Obsessions, marottes et zones d’ombre : voici les sujets préférés de 60 sites d’info français

Dans une rédaction, la ligne éditoriale, c’est comme le dahu : tout le monde en parle, mais personne ne l’a jamais vue. Elle structure pourtant le travail quotidien des journalistes ; c’est en son nom qu’on va accepter ou refuser une idée de sujet ou d’angle. Et quand elle est absente ou bien trop floue, ce n’est souvent pas bon signe.

Pour tenter de représenter ces fameuses lignes, j’ai mis au point ce tableau de bord, qui montre les thématiques les plus présentes sur une soixantaine de sites d’actualité dans les sept derniers jours, le tout rafraîchi trois fois par jour.

Encore expérimentales, ces listes sont générées automatiquement, grâce à la reconnaissance d’entités nommées dans un corpus spécifique à chaque média. Cet agglomérat de texte est formé avec les informations disponibles au sein de son flux RSS principal – je reviens en détail sur la méthodologie utilisée dans un autre post.

Mis à jour le 10/2. La liste des changements est dispo dans ce post.

 

Bataille de bouffe ! Découvrez les ingrédients et recettes préférés des Français

Mettez deux Français ensemble, et il y a de bonnes chances qu’après quelques minutes, ils se mettent à parler de bouffe, qu’il s’agisse du dernier restaurant à la mode ou de cette recette exclusive de moelleux au chocolat qu’ils sortent du tiroir pour les grandes occasions.

Mais quels sont les aliments et les préparations préférés des Français ? Pour le savoir, j’ai « aspiré » les données d’un des sites de recettes les plus populaires, Marmiton, Vous pouvez découvrir les résultats en lançant des batailles d’ingrédients dans l’infographie ci-dessous.

Pour calculer le score d’un ingrédient, j’ai d’abord récupéré toutes les recettes qui le contiennent, grâce à un script en Python. Ensuite j’ai multiplié, pour chacune de ces dernières, le nombre d’avis d’internautes par la note moyenne obtenue. Et j’ai additionné le tout.

Je n’ai gardé que les 1 130 ingrédients qui apparaissent dans au moins 10 recettes, et opéré pas mal de regroupements pour obtenir des résultats plus pertinents (par exemple, « échine de porc », « côtes de porc » ou « escalope de porc » sont toutes regroupées dans l’ingrédient « porc »). La liste retenue contient finalement 871 entrées, de A comme « abricot » à Y comme « yaourt ».

Il m’a aussi fallu créer une cinquantaine de catégories (de « viandes » à « produits laitiers » en passant par « bonbons » ou « champignons ») afin de générer les classements. N’hésitez pas à me signaler des erreurs ou des bizarreries dans les commentaires ou en me contactant, afin que je les corrige.

Vous pouvez aussi consulter les données sur les ingrédients comme celles sur les catégories, pour les réutiliser si vous le souhaitez.

 

Comment j’ai réalisé les cartes de France de la VO et de la VF

Comme souvent, le travail que j’ai réalisé pour ma petite enquête sur la France de la VO et celle de la VF met en jeu toute une série d’outils que j’ai découvert au fil des ans, qu’il s’agisse de scraping, de jointures de tables ou de représentation par anamorphoses. L’ensemble des données dont je me suis servi est disponible dans une Google Sheet.

Je vais en décrire les différentes étapes, ce qui peut être utile si vous souhaitez vous lancer dans un chantier comparable. N’hésitez pas à mettre votre grain de sel dans les commentaires.

1. Récupérer la liste des séances avec un scraping en deux étapes avec Outwit Hub

Pour commencer, il fallu que je me constitue une base contenant l’ensemble des salles de cinéma de France. Par chance, le site Cinefil propose des pages listant tous les cinés d’un département (par exemple, ceux situés dans l’Ain).

J’ai d’abord généré automatiquement une URL pour chaque département sur cinefil.com dans Google Sheet. J’ai ouvert cette première liste dans Outwit Hub, un logiciel de scraping qui m’a permis de rassembler une liste de 1 409 salles. Pour chacune, j’ai aussi récupéré l’URL de sa page sur cinefil.com.

Sur ces 1 409 URL, j’ai fait passer un second scraper, afin de récupérer la liste des films diffusés dans chaque salle sur une journée, avec les horaires des séances et la version diffusée (VF ou VO). J’ai obtenu ainsi une liste de 14 423 films et de 20 182 séances.

2. Déterminer la langue de tournage dans chaque film avec OMDB

Après quelques heures de travail, je me suis aperçu d’une chose toute bête mais qui m’avait échappé : sur Cinefil, les séances des films en langue française sont indiquées « en VF », ce qui ne permet pas de les différencier automatiquement des films en langue étrangère diffusés en VF…

Il a donc fallu que j’établisse une liste des 982 films différents diffusés sur toute la France ce jour-là (le 28 avril), et que je trouve un moyen de déterminer, pour chacun d’entre eux, s’il s’agit à l’origine d’un film tourné en langue française ou en langue étrangère.

L’API Omdb m’a permis de récupérer cette information dans un bon nombre de cas, par l’intermédiaire de Cloud Ignite, un module complémentaire de Google Sheet particulièrement pratique.

Pour le reste, j’ai réalisé des croisements – par exemple, un film qui n’est diffusé qu’en VO sur toute la France ne peut être qu’un film en langue étrangère – et des déductions – par exemple, une coproduction France/Suisse/Belgique a de bonnes chances d’être tournée en français.

Ce tri s’est révélé fastidieux et le résultat n’est pas garanti sans erreurs, mais j’ai estimé sa fiabilité suffisante pour continuer à avancer, en mettant de côté tous les films en langue française.

3. Géolocaliser chaque salle de cinéma avec ezGecode

J’avais déjà récupéré l’adresse et le code postal de chaque cinéma sur sa page Cinefil. Pour en déduire sa latitude et sa longitude, j’ai utilisé un autre module complémentaire de Google Sheet, ezGeocode.

La grande majorité des salles a ainsi été géolocalisée automatiquement et avec une très bonne fiabilité, et j’ai réussi à placer le reste grâce à des recherches manuelles dans Google Maps.

 4. Déterminer le code commune pour chaque salle de cinéma

Afin de « marier » la base que je me suis ainsi constituée avec les données démographiques fournies par l’Insee ou les résultats électoraux disponibles sur le site du ministère de l’Intérieur, il me fallait déterminer le code Insee de la commune où se trouve chacun des cinémas de ma liste.

J’ai pu le faire grâce à une table de correspondances et à la base officielle des codes postaux, toutes deux disponibles sur Data.gouv.fr. Une série de recherches verticales plus tard, j’avais pour chaque salle de cinéma des informations comme la population de la ville, le taux de pauvreté, le vote Macron…

Des tableaux croisés dynamiques m’ont ensuite permis de consolider les résultats pour chacune des 278 localités françaises pourvues d’au moins une salle de cinéma (avec au moins une séance programmée ce jour-là), puis pour chaque département.

5. Réaliser les deux cartes interactives avec Carto

J’ai ensuite préparé deux séries de données, l’une avec toutes les salles où la part de la VO est majoritaire (#teamvo), et l’autre avec les salles plutôt VF (#teamvf).

J’ai créé deux cartes basées sur ces jeux dans Carto, et j’ai ajouté dans chacune d’elle un calque supplémentaire, avec les contours de chaque département et une couleur en fonction de la part de la VO ou de la VF à cette échelle.

J’ai passé pas mal de temps à chercher des réglages satisfaisants pour la taille des cercles, les nuances de couleurs ou encore la répartition des départements en cinq catégories (choix des intervalles).

6. Réaliser les cartes anamorphosées avec Qgis et Scapetoad

J’avais déjà utilisé les anamorphoses (cartograms en anglais) pour une série de cartes du monde tel que le voient les médias français qui avait tapé dans l’œil de pas mal d’observateurs. J’avais envie de commencer mon article avec ce type de visiuels, que je trouve facile à appréhender même pour des lecteurs peu friands d’infographies.

J’ai récupéré un tracé des départements français au format shapefile sur OpenStreetMap.

J’ai ouvert ce fichier dans l’éditeur de cartes Qgis afin d’associer à chaque département le nombre de séances en VO et en VF pour un million d’habitants.

C’est sur la base de ces deux données que j’ai réalisé les déformations de la carte de France dans ScapeToad, un petit utilitaire dédié à la création d’anamorphoses.

7. Créer une série de graphiques dans Datawrapper

Pour terminer, j’ai repris une dernière fois mes données pour isoler une série de chiffres de synthèse afin de créer les graphiques de synthèses qui figurent à la fin de l’article, en reprenant les codes couleur.

La France de la VO et celle de la VF : les cartes d’une fracture française

La France de la VO
La France de la VF

Ça fait partie de ces combats qui divisent les Français en deux camps irréconciliables. Comme la guerre sans merci du « pain au chocolat » et de la « chocolatine », ou le conflit séculaire entre la tartine au beurre salé et celle au beurre doux.

De même, il y a ceux qui ne jurent que par la version originale sous-titrée (VO) — quitte à passer son temps à lire les sous-titres plutôt qu’à profiter de lpoaction et des dialogues — et ceux qui ne peuvent pas vivre sans la version française (VF) — quitte à subir des traductions et des doublages pas toujours parfaits.

Histoire de frustrer un peu tout le monde, les cinémas ne proposent pas forcément les deux versions. Sur les deux anamorphoses en haut de cet article, plus un département est gros et plus ses habitants se voient proposer de séances en VO (à gauche, en rouge) ou de la VF (à droite, en vert).

Sur une journée, 20 182 séances de cinéma dans 1 400 salles

Pour les réaliser, j’ai récupéré, grâce à un scraper, l’intégralité des séances disponibles sur un site spécialisé pour la journée du 28 avril 2017. Soit plus de 20 182 séances, dans plus de 1 400 cinémas de France et de Navarre, projetant un total de 981 films différents.

Parmi ces derniers, j’en ai identifié 549 en langue étrangère (non sans mal, comme je l’explique dans un autre post sur site, où je reviens sur la méthode utilisée) pour un total de 14 223 séances, dont 2 964 en VO.

Dans certaines régions, la VO est réservée aux petites salles de centre-ville ou aux cinémas art et essai. Mais certains réseaux de multiplexes programment aussi un nombre important de séances en VO, comme UGC.

Si on passe à l’échelon des villes, c’est bien sûr à Paris que sont proposées le plus de séances en VO. Mais la banlieue et la province se défendent, avec Montreuil, Biarritz et Hérouville-Saint-Clair en tête devant la capitale si on prend compte la part totale des séances en VO.

A l’inverse, il y a des coins de France où on vous recommande pas de déménager si vous êtes #teamvo. Dans cinq départements, aucune séance en VO n’était proposée dans la journée :

  • l’Ariège
  • la Creuse
  • la Haute-Saône
  • l’Indre
  • l’Orne

Les villes avec VO et les villes avec VF

Mais pourquoi les cinémas d’une ville proposent-ils de la VO alors que ceux de la ville d’à côté se contentent de la VF ? Le goût pour la VO est lié à la richesse des habitants, à leur niveau d’éducation, où bien à leur choix politique ?

Sur les 1 133 localités étudiées, plus de 65% ne proposaient aucune séance en VO dans leurs salles de cinéma. Pour explorer mes données, j’ai donc réparti la liste en deux deux camps : les villes avec VO et les villes sans VO.


J’ai ensuite associé mes résultats à une série de statistiques de l’Insee, à commencer par la population (en 2014). Sans surprise, ce sont dans les localités les plus peuplées qu’on a le plus de chances se trouver des séances en VO.

Ça semble logique : comme la majorité des Français préfère la VF, proposer de la VO n’est commercialement intéressant que si la salle se trouve dans une zone suffisamment peuplée pour qu’on y trouve un nombre suffisant d’amateurs de versions sous-titrées.

Dans les deux camps, le niveau de vie médian est proche. On peut faire l’hypothèse que la VO n’est pas « un truc de riches »…

… ce que semble confirmer la comparaison du taux de pauvreté médian des deux séries de villes.

En revanche, si on s’intéresse à la part de la population ayant suivi des études supérieures, la différence est nette.

Je vois au moins une causalité possible à cette corrélation : plus on étudie, plus on est à l’aise avec la lecture, et moins on est gêné quand on doit passer du temps à lire les dialogues en bas de l’écran. Ce qui pourrait inciter les gérants de salle de la localité concernée à privilégier les copies en VO.

J’ai aussi croisé mes données avec les résultats du premier tour de la présidentielle 2017. Les villes sans VO ont tendance à voter davantage pour Le Pen et moins pour Macron et Mélenchon que les autres. Si la présidentielle ne s’était jouée que dans les villes avec VO, Mélenchon aurait été qualifié pour le second tour.


Voilà ! Evidemment, ce travail est très parcellaire, et la méthode que j’ai utilisée sûrement contestable. Je ne suis pas spécialiste de l’étude des pratiques culturelles, et je ne sais pas si cette grande fracture française a fait l’objet d’enquêtes plus poussées. [ajout le 27/7 à 17h20: Vodkaster a fait un point assez complet sur le sujet en 2016]

Je serais en tout cas ravi d’en savoir plus, donc n’hésitez pas à descendre donner votre avis un peu plus bas dans les commentaires, et à aller explorer ces données, qui sont disponibles dans une Google Sheet.

Corrigé le 21/7 à 10h20. Inversion des barres dans les graphique niveaux de vie et part des diplômés du supérieur.

Mis à jour le 21/7 à 11h45. Ajout du graphique consacré aux réseaux de multiplexes.

Corrigé le 1/10 à 21h10. Inversion des barres dans le graphique population.

Les journalistes ne devraient plus se cacher pour pleurer

« C’est pas si grave, ça se passe comme ça sur Internet, il faut que tu t’endurcisses. » C’est une phrase que j’ai pu prononcer quand j’étais rédacteur en chef adjoint de Rue89 et qu’un journaliste de l’équipe était pris pour cible par des malfaisants dans les commentaires ou sur Twitter.

Et c’est une réaction totalement contre-productive. C’est en tout cas l’avis de Gavin Rees, directeur du Dart Center Europe, organisation venant en aide aux journalistes confrontées à des situations violentes, exprimé pendant un débat sur ce sujet au festival de journalisme de Pérouse, début avril :

« Il faut en parler entre collègues, il faut qu’on vous rassure sur votre travail, sur ce que vous avez écrit, qu’on vous dise que ce n’est pas votre faute. Il ne faut pas que ce soit une question taboue, sinon ils ont gagné. »

Pratiquer le « journalisme en empathie », thème d’une série de posts que je termine avec ce texte, c’est aussi se préoccuper davantage de ses collègues, quand tous ceux qui prennent la parole en ligne sont plus exposés que jamais.

OK, les journalistes sont des durs à cuire, mais ils sont de plus en plus attaqués

L’idée que le journaliste est un dur à cuire imprègne encore les imaginaires, et on la retrouve dans pléthore de films et de séries. Ce sont des reporters de guerre qui se précipitent au plus près des bombes. Des enquêteurs qui ne mangent que des sandwichs et ne boivent que du whisky tant qu’ils n’ont pas sorti leur scoop. Des rédacteurs en chef à bretelles qui pestent en permanence mais ont l’instinct affûté et le flair imbattable.

Comment des types aussi indestructibles pourraient-ils se sentir meurtris par de simples trolls ? Peut-être parce que les attaques de ces derniers se multiplient et sont de mieux en mieux organisées. Toujours à Pérouse, Michelle Ferrier, fondatrice de TrollBusters, a rappelé des chiffres alarmants :

« Aux Etats-Unis, 40% des femmes qui publient du contenu en ligne sont victimes de harcèlement, principalement sur Twitter : des propos haineux, racistes ou haineux ou encore la publication d’informations privées. Plus de 80% des journalistes estiment que leur travail est plus dangereux qu’avant. »

Son organisation a mis au point trois armes pour lutter contre les trolls :

  • Une équipe de secours d’urgence : une communauté d’utilisateurs qui peut être mobilisée quand un journaliste est victime de ce genre d’attaques, notamment pour répondre et contre-attaquer collectivement.
  • Un travail d’enquête sur leur organisation et leurs méthodes, en se servant de technologies d’étude de réseau.
  • Du support spécialisé, par exemple pour aider un service technique confronté à une attaque en déni de service, mais aussi pour des conseils juridiques ou un soutien psychologique.

« Les rédactions doivent protéger leurs employés en utilisant tous les recours possibles »

S’il met tout en œuvre, au sein du Coral Project, pour amener les journalistes à dialoguer davantage avec leur audience, Greg Barber reconnaît que la conversation est parfois impossible, et que les médias en ligne doivent en tenir compte :

« On raconte quand des journalistes sont menacés à l’étranger. mais il faut le faire aussi quand ça arrive chez nous. Les médias doivent protéger leurs employés en utilisant tous les recours possibles. »

Le diagramme “Comment réagir au harcèlement en ligne” édité par Trollbusters.

TrollBusters a publié un diagramme instructif résumant les réactions possibles quand on est victime de harcèlement en ligne.

A ma connaissance il n’y a pas d’organisation équivalente en France, mais si je me trompe, n’hésiter pas à le signaler dans les commentaires.

Parmi les initiatives sur le sujet, je me dois cependant de signaler le fascinant récit que fait Faïza Zerouala, aujourd’hui journaliste à Mediapart, de sa rencontre avec un de ses trolls.

Ne plus prendre le trolling à la légère

J’ai l’impression qu’entre journalistes en ligne, la tendance naturelle est de minimiser les effets du trolling, d’en faire une blague, un truc agaçant mais au final insignifiant. Parce que reconnaître le contraire serait avouer une faiblesse pas très professionnelle.

Et le côté pervers, c’est que ce sont justement ceux qui se préoccupent le plus des lecteurs et échangent davantage avec leur communauté qui souffrent le plus quand ça tourne au vinaigre, comme le rappelait Martin Belam, un ex du Guardian, dans une analyse des communautés des sites d’actu.

Prendre en compte la souffrance de ses troupes, mettre en place des procédures en interne, prévoir des moments pour en parler… : les rédactions des médias en ligne, comme toutes les entreprises confrontées à un risque professionnelle, ont désormais cette responsabilité.

Hé, ce texte fait partie d’une série de notes consacrée au « journalisme en empathie » ! Voici le menu complet :

« Merci de supprimer l’article me concernant » : le journaliste face à la fragilité de ses sources

Des enfants dans un centre pour réfugiés à Athènes (Martin Leveneur/Flickr/CC-BY-ND)

La scène se passe en juin 2016, à Lesbos, en Grèce. Le journaliste Marc Herman est en train d’interroger Zozan Qerani sur son parcours jusqu’au camp de réfugiés installé sur l’île, et toutes les épreuves qu’elle a du traverser.

Soudain, la jeune Kurde yazidi s’effondre, le corps pris de convulsions. En discutant avec les médecins présents, Herman comprend que c’est le fait même de devoir raconter son histoire une nouvelle fois qui a déclenché cette crise.

Le cofondateur de l’agence Deca a raconté dans un témoignage les interrogations éthiques que cet épisode a suscitées en lui. « Près de 50% des réfugiés souffrent de troubles psychologiques, qu’il s’agisse d’anxiété, de dépression, ou de stress post-traumatiques, détaillait-il dans un panel du festival de journalisme de Pérouse, début avril. Est-ce qu’on doit les interviewer comme si de rien n’était ? »

Si ça saigne, ça doit faire la une !

Pour Marc Herman, l’empathie avec son sujet est aussi passée par le choix des photos accompagnant son texte. Le photographe qui l’accompagnait n’a pas pris d’images de Zozan Qerani en train de convulser par terre, mais après la crise, debout dans les bras de son compagnon ou allongée sur un lit de camp.

On peut aussi avoir cet impératif en tête au moment de rédiger un article ou de choisir son titre. En refusant, par exemple, de commencer un texte par la scène la plus violente ou la plus dure, comme le veut la règle « if it bleeds, it leads » (« si ça saigne, il faut le mettre en une »).

Développer un rapport plus respectueux et plus humain avec les femmes et les hommes qui font, souvent à leurs dépens, l’actualité : voilà une autre piste de réflexion pour le « journalisme en empathie », une idée que je développe dans une série de notes sur ce site depuis quelques semaines.

Protéger ses sources, c’est aussi se soucier de leur état d’esprit une fois l’article paru

Je n’ai jamais été grand reporter et je n’ai jamais été confronté personnellement à des situations humaines aussi difficiles.

Mais j’ai remarqué qu’on abordait la question de la protection des sources davantage par un prisme juridique (« la personne que j’ai interrogée risque-t-elle des poursuites judiciaires à cause de son témoignage ? ») ou professionnel (« va-t-elle perdre son emploi ? ») que sur le plan de son bien-être émotionnel ou psychologique (« comment vit-elle le fait de voir son histoire mise sur la place publique ? »).

Pendant les sept années que j’ai passées à Rue89, j’ai aussi vu combien la situation des témoins avait changé avec la montée en puissance des sites d’info.

C’était une chose de raconter sa vie à un journaliste au début des années 90, et de voir son récit imprimé à un nombre limité d’exemplaires, accessibles uniquement au lectorat du titre concerné.

C’en est une autre, complètement différente, de se dévoiler aujourd’hui, sachant que ses confidences seront accessibles à tous, en quelques clics et probablement pour l’éternité.

« Je ne suis plus la personne qui vous a raconté ça il y a cinq ans »

Rue89 pratique le « journalisme participatif », et tente d’associer au maximum les lecteurs à la production d’information. Sur ses bases, il était courant qu’une personne écrive à la rédaction pour raconter ce qui lui est arrivé, souhaitant prendre à témoin le reste du monde.

Un journaliste entrait alors en contact avec elle pour préparer un texte, souvent écrit à la première personne, parfois « anonymisé » et relu avant parution si nécessaire. Tout se passe donc avec son complet accord et sa totale collaboration.

Malgré ces précautions, il n’était pas rare que la même personne contacte la rédaction pour réclamer la suppression du contenu concerné. Ces demandes pouvaient arriver en pleine panique, quelques heures  à peine après la publication. Ou bien des années plus tard et accompagnées de menaces judiciaires.

L’info doit-elle primer sur l’humain ? Vous avez quatre heures…

Les raisons avancées ? Les commentaires, qu’on ressent très violemment quand on est leur sujet principal. Les réactions de l’entourage. Les résultats de recherches Google sur son nom, où se retrouve listé le contenu concerné.

Certains justifiaient leur demande par le droit à l’oubli : « je vous ai raconté ça quand j’avais 18 ans, mais j’en ai 22 et je ne suis plus la même personne, pourquoi devrais-je subir les conséquence de ce choix jusqu’à ma mort ? »

Que doit faire le journaliste quand ça arrive ? Accepter la demande, et supprimer un article qui a pu avoir un impact important, sacrifiant au passage un morceau de ses propres archives et prenant le risque d’être accusé de censure ou de manipulation ?

Ou refuser, pour préserver l’intégrité du travail journalistique réalisé, quitte à laisser sa source seule avec sa souffrance ? C’était ma position dans le passé : après tout, un journaliste n’est pas un travailleur social ou un psy, et c’est l’info qui prime avant tout, coco.

Je pense aujourd’hui qu’une telle intransigeance est impossible, surtout si on souhaite rétablir un lien de confiance entre les médias et leur public. D’autant que des compromis sont possibles, comme l” »anonymisation » a posteriori d’un texte, le retrait de certains détails, l’ajout d’une mise à jour ou d’un encadré — il est d’ailleurs arrivé qu’on fasse ce choix à Rue89.

Mais je doute qu’il existe une réponse unique à cette question, et suis curieux de connaitre les vôtres dans les commentaires.

Des récits sur la crise des réfugiés qui ajoutent « du bruit au bruit »

Faire preuve d’une plus grande empathie avec ses sources n’a cependant pas que des inconvénients. C’est aussi de se donner une chance d’obtenir un récit plus à même de toucher plus efficacement le public.

C’est ce que l’expérience a appris à la journaliste indépendante Mariangela Paone, qui s’exprimait elle aussi à Pérouse. Selon elle, la crise des réfugiés a généré un volume d’articles et de vidéos sans doute sans précédent dans l’ensemble de l’Europe. Mais elle doute que ces récits aient, pour la plupart, réussi autre chose que « d’ajouter du bruit au bruit » :

« Les médias grand public ont tendance à présenter les migrants comme une file interrompue et uniforme de gens, un ensemble menaçant pour les habitants des pays-hôtes.

Ça passe par une simplification des gens présentés. En analysant une série de textes publiés, une étude a montré que bien souvent, on ne donne que la nationalité de la personne qu’on a rencontrée, mais pas son âge, sa profession, son prénom, voire son genre.

Au final, ce traitement n’a pas permis de créer un contact, une relation entre les réfugiés et l’audience, de susciter  un sentiment de compassion dans ce qui était pourtant la plus grand crise de ce type depuis 1945. »

Egalement présente à Lesbos, Paone a cherché à créer de l’empathie pour mieux intéresser les lecteurs de ses longs reportages, s’intéressant par exemple aux problèmes d’allaitement des jeunes mères forcées de prendre la route et souffrant de malnutrition ou de déshydratation. Elle a noté que ce type de récits recevaient plus de visites et d’engagement (partages, likes, commentaires… ) de la part des lecteurs.

Evidemment, chercher à créer de l’empathie ne doit pas être un prétexte pour se contenter de l’émotion, « tomber dans le pathos » en ne s’intéressant plus qu’aux larmes, aux désespoir et aux colères. Mais je pense que c’est un fil conducteur intéressant à tirer, si on veut promouvoir un journalisme plus utile à la société et à ceux qui y vivent.

Hé, ce texte fait partie d’une série de notes consacrée au « journalisme en empathie » ! Voici le menu complet :

Pourquoi il ne faut pas virer des amis Facebook à cause d’une élection (surtout si vous êtes journaliste)

Bataille au village d'Astérix
La France entre les deux tours de la présidentielle (allégorie)

« Cette campagne aura au moins eu le mérite de me permettre de faire le ménage dans mes « amis » Facebook. J’en ai viré plusieurs, c’était plus possible de débattre avec eux. » Depuis le premier tour de la présidentielle, j’ai croisé des statuts de ce type plusieurs fois sur ma timeline.

Je comprends tout à fait ceux qui souhaitent se préserver du climat de tension et d’agressivité régnant sur les réseaux sociaux, mais je pense que c’est une très mauvaise idée, particulièrement si vous êtes journaliste. Et dans ce deuxième épisode de ma série consacrée au « journalisme en empathie », je vais tenter de vous expliquer pourquoi.

La présence de Marine Le Pen au second tour, même si elle semble avoir peu de chances de l’emporter, résonne comme un écho étouffé de la victoire des partisans du Brexit au Royaume-Uni et de celle des supporteurs de Trump aux Etats-Unis.

Dans tous les cas, il est tentant pour les médias de rejeter la faute sur les autres : les algorithmes de Facebook et leur appétit pour les fake news ; les politiciens inefficaces, coupés de la société, menteurs voire corrompus ; la cyberpropagande et les hackers du Kremlin…

« Les journalistes britanniques n’ont pas assez parlé aux gens »

Mais c’est aussi dans leur miroir que les journalistes doivent chercher les responsables de ces résultats qui font vaciller nos démocraties représentatives sur leur base.

C’est en tout cas l’avis d’Alison Gow, qui se confiait lors d’un panel du Festival international de journalisme de Pérouse, début avril.

« La bataille pour le Brexit, nous l’avons perdue il y a vingt ans, quand nous avons commencé à ne plus faire notre travail sur les sujets européens », a commencé par expliquer la responsable de l’innovation au groupe Trinity Mirror,  dont les tabloïds ont soutenu le camp du « Remain »:

« Comme ce sont des questions compliquées, nous nous sommes réfugiées dans une attitude très britannique qui consiste à se moquer de ce qu’on ne comprend pas. »

Au-delà de cette focalisation sur des histoires triviales comme la régulation de la courbure des bananes, Gow estime surtout que les journalistes « n’ont pas suffisamment parlé aux gens » :

« Nous n’avons pas assez cherché à savoir ce qu’ils pensaient et ce qu’ils avaient sur le cœur.  Si on s’était davantage emparés du débat, on aurait pu faire une différence. On est trop restés enfermés dans nos rédactions et dans nos réseaux sociaux. »

« J’aurais dû davantage suivre mon instinct »

Autre panel, même conclusion pour Maria Ramirez, qui a couvert la campagne de Trump pour le groupe Univision :

« Il faut faire davantage confiance à ce que remarquent les reporters sur le terrain et moins à ce que disent les sondages.

J’avais déjà couvert d’autres campagnes, mais en me rendant dans les meetings de Donald Trump, j’ai découvert quelque chose de nouveau : des gens qui ne se seraient jamais déplacés pour un homme politique avant, une atmosphère différente, plus agressive. J’aurais dû davantage suivre mon instinct. »

Ce besoin se reconnecter avec l’audience, Mandy Jenkins, responsable éditoriale de l’agence Storyful, est bien placée pour le ressentir. Native de l’Ohio, elle voit en effet tous les grands médias américains se ruer dans sa région une fois tous les quatre ans — l’Etat est l’un des swing states, ceux dont le vote peut faire basculer l’élection présidentielle :

« Les journalistes mangent les spécialités locales, parlent des gens qui ont des problèmes comme les agriculteurs ou les métallos, se moquent des ploucs.

Mais ils ignorent les secteurs économiques dynamiques et échouent globalement à raconter ce qui s’y passe vraiment. Ils tombent dans la caricature parce qu’ils ne sont pas  d’ici. »

« C’est peut-être mieux d’embaucher quelqu’un qui vit dans l’Ohio pour parler d’Ohio »

Pourtant, pour Jenkins, cet éloignement entre les médias et leur public n’a pas toujours été la règle :

« Au niveau local, les gens avaient l’habitude de connaître ou au moins de rencontrer de temps en temps les journalistes qui parlaient d’eux. Ils étaient allés dans la même école, vivaient dans la même ville, fréquentaient les mêmes lieux de vie.

Ce n’est plus le cas aujourd’hui.  les journalistes se retrouvent parachutés là où se passe l’actu, et une fois l’actu passée, il n’y a pas de raisons pour eux de rester. »

La concentration s’est en effet accélérée ces dernières années : 13% des journalistes américains travaillent dans le seul quartier de Manhattan, à New York. Trop souvent, les rédacteurs en chef ont peur de ne pas pouvoir contrôler un journaliste s’il travaille à distance, ajoute Jenkins :

« Il aura fallu le plantage de Trump pour qu’enfin, ils se disent, c’est peut-être mieux d’embaucher quelqu’un qui vit dans l’Ohio pour parler de l’Ohio [ou au moins dans un Etat proche, ndlr]. En plus, ça nous reviendra moins cher. »

25 pro-Trump et 25 pro-Clinton dans un même groupe Facebook

Et en France ? Si Marine Le Pen remporte finalement la présidentielle, le défi principal pour les médias généralistes ne sera pas de se prendre pour L’Huma clandestine en entrant en résistance contre le fascisme, mais bien de renouer le lien avec une population qu’ils ont trop souvent exclue de leur radar.

Et l’on aura, nous aussi, le genre de débats qui agitent aujourd’hui les médias britanniques et américains. Une fois (un peu) remis du choc initial, ils ont multiplié les expériences journalistiques sur ce sujet :

Fin 2016, l’ONG Spaceship Media a par exemple rassemblé pendant un moins dans un même groupe Facebook 25 supportrices de Trump vivant en Alabama (considéré comme un des Etats les plus conservateurs) et 25 supportrices de Clinton vivant en Californie (Etat progressiste par excellence).

Non seulement la conversation n’a pas viré au pugilat, mais les participantes se sont peu à peu emparées de cet outil pour faire vivre elles-mêmes un débat difficile sur les questions de race, d’immigration ou de foi.

Pour le journalisme, une raison évidente d’exister

Cette opération m’est revenue en tête en voyant une brève séquence d’un reportage diffusé jeudi dans Quotidien (et que je n’ai pas retrouvé en ligne). Après avoir repéré un couple d’électeurs de Le Pen venue assister à un meeting de Macron (« pour se faire [leur] propre idée »), le journaliste enjoint les autres personnes présentes dans la file d’attente à dialoguer avec eux.

Quand j’étais étudiant, c’était le genre d’intervention qu’on nous recommandait de ne pas faire :  le journaliste ne saurait intervenir sur les événements se déroulant devant lui, pour ne pas sacrifier sa neutralité.

Aujourd’hui, je suis peu à peu convaincu du contraire. Confronté douloureusement à la question de sa propre utilité dans des sociétés hyperconnectées et surinformées, le journalisme tient là une raison évidente d’exister.

Servir de facilitateur pour créer du lien entre l’actualité et sa communauté.  Faire preuve de suffisamment d’empathie et de diplomatie pour ne plus se mettre l’opinion à dos. Maintenir à tout prix le dialogue, comme on protège la flamme d’une bougie menacée par un mauvais courant d’air.

« Ils ont compris comment gagner avec des mensonges et ne vont pas s’arrêter là »

Si vous trouvez ça un peu concon comme conclusion, il y a aussi la version coup-de-pied-dans-le-cul de cette thèse. Elle est servie par Jonathan Pie, reporter fictif incarné par le comédien britannique Tom Walker dans une vidéo énervée :

« La seule chose qui marche, putain, c’est d’en avoir quelque chose à foutre, de faire quelque chose, et tout ce que vous avez à faire c’est entrer dans le débat, parler à quelqu’un qui pense différemment et parvenir à le convaincre.

C’est tellement simple, mais pourtant la gauche est devenue incapable de le faire. Arrêtez de penser que ceux qui ne sont pas d’accord avec vous sont des malfaisants, des racistes, des sexistes ou des idiots. Et parlez-leur, persuadez-le de penser autrement, parce que si vous ne le faites pas, le résultat c’est Trump à la Maison-Blanche. »

Parce qu’en face, ils commencent à avoir de l’entraînement, expliquait en substance Rupert Myers, journaliste politique pour le GQ Magazine britannique, toujours à Pérouse :

« Le camp du Leave a beaucoup appris. Ils ont compris comment gagner avec des mensonges, et ils ne vont pas s’arrêter là.

Par exemple, ils vont proposer de faire un référendum sur la privatisation de la BBC. Ensuite, ils vont vous demander pourquoi vous déniez au peuple britannique la possibilité de se prononcer sur ce sujet.  Avant que vous ayez eu le temps de réagir, ils vont expliquer qu’on pourrait financer des hôpitaux avec le budget de la BBC…

Tant que les journalistes n’auront pas trouver un moyen efficace de lutter contre leurs mensonges, ils ne s’arrêteront pas. »

Pensez-y avant de vous lancer dans un « ménage » de votre liste d’amis Facebook !

Hé, ce texte fait partie d’une série de notes consacrée au « journalisme en empathie » ! Voici le menu complet :

« Vos lecteurs ne vous demanderont pas des vidéos de chat ou de bébé »

« Les gens ne seront prêts à faire confiance dans les médias que s’ils se sentent écoutés par eux. » Cette phrase de Jennifer Brandel, qui a fondé l’agence Hearken pour aider les médias à recréer du lien avec leur audience, résume bien l’un des débats qui m’ont le plus marqué du dernier Festival de journalisme de Pérouse, début avril.

Il faut dire que le sujet est cher à mon cœur, je l’ai d’ailleurs développé dans un talk donné à TEDx Clermont.

Pour Aron Pilhofer, ancien du Guardian et du New York Times — l’un des experts les plus plaisants à suivre sur ces sujets –, disposer d’une carte de presse ne suffit plus à obtenir la confiance de son public. Le journaliste n’a pas l’équivalent d’une étoile de shérif qu’il lui suffirait de brandir pour asseoir son autorité.

Et quand une société perd confiance dans ses journalistes, la place est libre pour toute la propagande et la désinformation du monde.

« Ressembler à une personne normale »

La bonne nouvelle,  c’est que ça marche aussi dans l’autre sens : un projet éditorial qui cherche avant tout à tisser ce lien si fragile entre un média et son public a de bonnes chances de réussir, quelque soit son modèle économique.

Pour Brandel, le journaliste doit accepter de descendre de son piédestal, et ne plus introduire une distance journalistique artificielle avec son lecteur, mais « ressembler à une personne normale ».

(A ce sujet, j’ai toujours un petit ricanement intérieur quand je lis de jeunes journalistes se draper dans le mal-nommé « nous de modestie » quand ils s’adressent à leur lecteur au sein d’un article, avec des formules pompeuses du type  » à l’heure où nous écrivons ces lignes » ou « l’intéressé n’a pas donné suite à nos demandes d’interview ».

On est en 2017, mec, je te vois publier des photos de chatons toute la journée sur Twitter, je penses que tu peux parler normal, Beuve-Méry s’en remettra.)

Pilhofer a aussi pris l’exemple de John Templon, journaliste à Buzzfeed UK. L’homme est à l’origine de l’un des plus belles enquêtes de l’histoire du datajournalisme, The Tennis Racket,  qui révèle comment des matchs de tennis étaient truqués au bénéfice de parieurs en ligne. Mais il n’hésite pas à se mettre en scène dans un making of drolatique.

Verra-t-on bientôt Fabrice Arfi en short et un ballon au pied pour raconter les coulisses des Football Leaks sur Mediapart ? Le défi est lancé !

Un très bon « retour sur investissement »

Toujours selon Brandel, c’est ainsi un autre journalisme qui est en train de s’inventer, notamment en presse locale. Il place le lecteur au cœur de la machine à fabriquer de l’info, et pas seulement au bout de la chaîne.

En France, on pense aux expériences de Nice-Matin en matière de « journalisme de solutions” — dont les résultats semblent très encourageants.

Ce n’est pas une démarche de doux rêveur, détachée des réalités économiques du secteur ; selon elle, ces méthodes ont « un très bon retour sur investissement » :

« Si vous demandez à vos lecteurs quels sont les sujets qui les intéressent, je vous assure qu’ils ne vous demanderont pas des vidéos de chats ou de bébés, mais qu’ils vous poseront de bonnes questions. Et vous saurez que le contenu qui y répondra sera lu. »

Pour Pilhofer, l’enjeu est aussi de construire des indicateurs de performance intégrant cette nouvelle priorité,  plutôt que de garder le nez collé au compteur à pages vues.

Ainsi, Vox demande à son lecteur, en bas de chaque article, s’il a trouvé ce dernier « utile » — un peu comme un site de e-commerce vous demande après un achat si vous êtes satisfait du service rendu.

(Pour ceux que cette piste intéresse, je recommande le travail de recherche de Frédéric Filloux, actuellement en résidence à Stanford, sur les façons de mesurer la qualité de l’info — il revient régulièrement sur ses découvertes dans sa Monday Note.)

Des réflexes du métier à remettre en cause

Mais adopter ce nouveaux paradigme implique aussi de remettre en cause des réflexes du métier trop bien ancrés, que Pilhofer énumère :

  • Ne plus chercher à tout prix à sortir une info à avec trois minutes d’avance sur ses concurrents, au risque de négliger la vérification ou l’analyse. A l’ère de Twitter, votre breaking news sera disponible un peu partout au bout de quelques secondes, et le lecteur 1) sera bien incapable de savoir que vous en êtes à l’origine 2) n’en a de toute manière pas grand chose à faire.
  • Présenter les informations avec le même soin qu’on les prépare, au lieu de barder ses pages de publicités intrusives ou contenus sponsorisés indigents — comme ces poubelles de l’info que sont les modules Ligatus ou Outbrain, qu’on croise pourtant un peu partout sur les sites d’actu.
  • Présenter chaque auteur en expliquant en quoi il est digne de confiance. Ainsi The WireCutter ajoute à chacun de ces tests conso un encadré « Pourquoi nous faire confiance » — même s’il s’agit de simples parapluies.
  • Etre plus transparent sur le travail en coulisses : le New York Times a ainsi choisi de publier la retranscription intégrale de son entretien avec Donald Trump, pour ne pas pas être accusé d’avoir manipulé ou trahi ses propos. Même souci chez Mediapart, avec les « boîtes noires » proposées en fin d’article.

On voit bien le fil conducteur : à chaque fois, il s’agit de se mettre dans la peau du lecteur pour comprendre ce qu’il va apprécier et ce qui va le faire fuir.

L’empathie au cœur des nouvelles méthodologies

Même dénominateur commun quand il s’agit de s’engager dans un nouveau projet enfin : l’empathie est au cœur des méthodologies modernes — en Design Thinking, c’est la première étape du processus d’innovation, avant de commencer à phosphorer quoi que ce soit.

L’empathie se construit grâce à des questionnaires utilisateurs (Libération interroge en ce moment les utilisateurs, mais Arrêt sur images ou Courrier international sont aussi passés par là), des entretiens avec des lecteurs et bien sûr le test répété des nouveaux produits ou fonctionnalités

La priorité à l” »expérience utilisateur » (UX), principe qui a si bien réussi aux géants du Web, fait ainsi lentement son chemin dans les médias.

Je suis preneur d’autres expériences et avis sur ce sujet, n’hésitez pas à réagir dans les commentaires.

Hé, ce texte fait partie d’une série de notes consacrée au « journalisme en empathie » ! Voici le menu complet :