Tous les articles par Yann Guégan

Pour en finir avec le journalisme de la terre brûlée

Une forêt brûlée en Suède (Pavel Koubek/EU/CC‐BY‐NC‐ND)

C’est un bref échange, mais il en dit beaucoup sur les mauvaises habitudes d’une profession. Il a lieu lors du dernier numéro de l’émission Arrêt sur images, consacrée au livre Inch Allah, L’islamisation à visage découvert. Une enquête réalisée en Seine‐Saint‐Denis par cinq étudiants du Centre de formation des journalistes (CFJ) et pilotée par Gérard Davet et Fabrice Lhomme, duo réputé de journalistes d’investigation du Monde.

Sur le plateau, Daniel Schneidermann et Lynda Zerouk passent en revue les critiques que le livre a suscité depuis sa parution et le début de sa promotion, très présente dans les médias – on peut en lire une bonne synthèse sur Mediapart.

Vient le cas de Véronique Decker. Les auteurs ont consacré un chapitre à la directrice de l’école Marie‐Curie, à Bobigny. Il compile une série d’anecdotes personnelles, illustrant les relations parfois difficiles entre les enseignants et certains élèves ou parents d’élèves musulmans, qui multiplient les réclamations liées à la religion – dispense de piscine ou de cours d’éducation sexuelle, tables séparées à la cantine, prière lors des voyages scolaires…

« Mes propos n’ont pas été déformés, ils ont été cuisinés »

Decker n’a pas apprécié le traitement qu’on lui a réservé, et s’en est plainte sur Facebook, dans une interview et dans une tribune sur le blog des éditions Libertalia. Elle explique notamment à France info :

« Ils parlent d’une “enseignante‐soldate” qui “contiendrait l’expansion de l’islam”. Mais ce n’est ni ma fonction, ni mon désir, ni mon projet de contenir l’islam. Ma fonction, c’est de permettre aux enfants d’avoir une éducation émancipatrice à l’école publique. […]

Mes propos n’ont pas été déformés, ils ont été cuisinés. Les carottes et les courgettes sont à moi, mais les auteurs en ont fait un couscous qui n’est pas de moi. »

Sur le plateau d’Arrêt sur images, une fois les faits exposés, Schneidermann se tourne vers Gérard Davet. Voilà leur échange in extenso (je n’ai pas trouvé d’extrait vidéo) :

« Est‐ce que vous entendez ce reproche ? Parce que c’est vrai, quand on lit le chapitre qui lui est consacré, on a l’impression qu’elle passe ses journées, ses journées… à se bagarrer contre les empiétements de la religion. Et elle dit, ben non, il m’est arrivé un certain nombre de choses, échelonnées sur vingt ou vingt‐cinq ans et tchouk ! [Il fait mine de comprimer un objet avec les bras]

– Est‐ce qu’on devrait, dans ce cas‐là, narrer comment elle fait pour trouver des tableaux, comment elle fait pour tenir sa classe ? Evidemment qu’un chapitre ça ne résume pas toute une vie de directrice d’école, évidemment.

– Ce n’est pas ce qu’elle dit, elle dit que ça caricature…

– Mais ça caricature… Vous connaissez beaucoup de gens qui, une fois qu’on fait un article sur eux… Vous avez été journaliste pendant très longtemps au Monde, [Schneidermann y a passé près de vingt‐cinq ans, avant d’être licencié en 2003, ndlr] Y a pas des gens qui vous ont appelé derrière, pour vous dire “ça reflète pas exactement ce que je suis”, Daniel ?

– Tout le temps ! [Rires] Tout le temps… »

A ce moment, Lhomme intervient :

« […] Y a un autre tweet [de Véronique Decker, ndlr] qui commence en disant : “Toutes les paroles que j’ai tenues, qui sont rapportées dans le livre sont exactes.” Moi y a que ça qui m’intéresse. »

Je l’avoue, j’ai sursauté sur mon siège. Ce que disent deux journalistes (pas n’importe qui, des références pour la profession), c’est que l’impact que peut avoir un travail journalistique sur un témoin, en fait, on s’en fout un peu. Seule compte l’info : faut qu’elle avance, « il n’y a que ça qui m’intéresse », et peu importe si elle laisse un peu de terre brûlée sur son passage.

Se mettre dans la peau des gens qui permettent aux journalistes de faire son travail

J’interviens de temps en temps au CFJ, et c’est une tout autre vision du journalisme que je promeus auprès de mes élèves quand j’en ai l’occasion – d’ailleurs je doute que Davet et Lhomme soient complètement indifférents au sort de leurs sources, comme ils le laissent entendre de façon péremptoire dans cet extrait.

Mais cette histoire permet de rappeler l’importance qu’il y a, pour un journaliste, à se mettre dans la peau des gens qui lui permettent de faire son travail – un thème que j’avais déjà abordé dans un de mes posts sur le « journalisme en empathie ».

Lors d’une conférence au dernier festival de journalisme de Pérouse, une chercheuse en communication m’a conforté dans cette conviction. Pour son livre Becoming the News. How Ordinary People Respond to the Media Spotlight (« ils ont fait l’actu : comment réagissent les gens ordinaires quand ils sont dans la lumière »), Ruth Palmer a mené des dizaines d’entretiens avec des non‐journalistes.

Elle avait repéré leur nom dans des journaux ou à la télévision, puis leur a demandé de raconter en détail ce qui s’est passé quand des journalistes ont débarqué dans leur vie, pour des raisons très diverses : une femme était témoin d’un accident dans la rue, un artiste avait fait l’objet d’un portrait dans un journal local, une cadre était accusée de malversations financières, un homme était dans l’Airbus qui a atterri sur l’Hudson River

« Les reporters doivent vous pousser dans vos retranchements, c’est leur boulot »

Elle en a tiré des leçons plutôt intéressantes. D’abord, ça ne se passe pas forcément si mal que ça : beaucoup de personnes interrogées considèrent qu’apparaître dans les médias a plutôt bien servi leurs propres objectifs, qu’il s’agisse d’attirer l’attention sur une cause importante à leurs yeux, de diffuser leurs idées à une large audience, ou d’améliorer leur propre statut social auprès de leur entourage.

Certains comprennent même que les journalistes puissent être intrusifs et insistants, comme cette femme qui avait perdu son bébé à cause d’une maladie, et voyait une équipe de télévision réarranger les meubles de son salon avant de tourner son interview :

« Les reporters doivent vous pousser dans vos retranchements, ça m’a parfois agacé mais c’est leur boulot. Regardez CBS, ils voulaient absolument une image du bébé que j’ai perdu, j’ai refusé encore et encore, mais ils ont continué à la demander jusqu’à la dernière minute. Mais c’est leur boulot. »

Quand ça s’est mal passé, c’est pour des raisons qu’on retrouve en partie dans la polémique autour du dernier Davet/Lhomme :

  • la sensation d’avoir été manipulé revient souvent, comme si le journaliste n’écoutait pas vraiment, mais avait une citation en tête et s’efforçait de la faire dire à leur interlocuteur. Une chercheuse explique ainsi que, lors de son interview, elle a passé plus de temps à éviter de dire ce qu’on l’incitait forcément à dire plutôt qu’à dire quelque chose d’intéressant.
  • les conséquences sur la vie personnelle peuvent être terribles, et se sont aggravées avec Internet. Les médias en ligne travaillent leur référencement, et leurs articles squattent les pages de résultats Google quand on cherche le nom de la personne accusée d’un crime ou d’un délit. « La pire chose que vous avez faite dans votre vie devient la première chose qu’on apprend de vous, et ça vous suivra sans doute toute votre vie, résume Palmer. Si vous vous exprimez, il y aura forcément un retour de flamme sur les réseaux sociaux, ajoute‐t‐elle, et parfois des répercussions jusque dans le monde réel. »
  • quoiqu’il se passe après la parution, on ne peut pas compter sur les journalistes pour gérer « l’après ». Alors qu’ils avaient vécu un moment intense de leur existence, beaucoup ont ensuite ressenti un sentiment d’abandon.

L’image des journalistes n’a plus rien à avoir avec l’image qu’ils se font d’eux-mêmes

De son travail, Palmer tire une conclusion alarmante : l’image du métier que se font les non‐journalistes n’a plus grand chose à voir avec celles que les journalistes aiment à cultiver.

« Ce qui m’a frappée, c’est que les gens qui disaient garder un bon souvenir de leurs interactions avec des reporters ajoutaient immédiatement que leur propre expérience était une exception à la règle.

Ils considèrent toujours que les journalistes, dans leur ensemble, sont insistants, intrusifs, égoïstes, prêts à inventer des choses, et disparaissent quand ils ont eu ce qu’ils veulent en se moquant de ce qui peut arriver aux gens ordinaires. »

Dans leur propre imaginaire, les journalistes sont là non seulement pour défendre la vérité, mais aussi pour incarner un contre‐pouvoir et aider les petits à se défendre contre les puissants.

Mais pour un nombre grandissant de non‐journalistes, ils représentent eux‐mêmes un pouvoir menaçant, un « tyran » qui peut leur pourrir la vie. Difficile de leur donner tort, quand on voit la réaction de Davet et de Lhomme aux critiques de la directrice d’école.

Il y a sans doute plein de raisons, bonnes ou mauvaises, qui amènent Decker à réagir comme elle l’a fait. Mais la moindre des choses c’est d’accepter de les entendre : elles viennent de quelqu’un qui a consacré du temps, partagé un peu de son histoire personnelle et pris publiquement position dans un débat empoisonné.

Le journalisme qu’on doit défendre dans les écoles, c’est celui qui prend soin de ses témoins, pas celui qui leur roule dessus comme un bulldozer.

Il y a un réseau social super auquel les journalistes ne pensent jamais

La mascotte d’un réseau social que les journalistes devraient fréquenter plus souvent.

Le social media en ce moment, c’est vraiment pas la joie.

Mon flux  Facebook ressemblerait à un frigo vide, sans les publicités venues s’empiler entre de rares posts de vraies gens, oubliés là comme un Tupperware de gratin dauphinois du mois dernier.

Twitter est toujours aussi bouillonnant,  et la pratique des threads, qui consiste à raconter une petite histoire au fil d’une série de tweets enchaînés, a su ranimer mon intérêt. Mais vu l’ambiance délétère qui y règne, j’ai autant envie de participer aux échanges que de tremper mes orteils dans un marigot rempli de caïmans affamés.

Linkedin est à la mode, mais qui a vraiment envie de passer du temps sur un réseau social où il faut enfiler un costume cravate et cirer ses mocassins avant de se connecter ?

La chair est triste, hélas, surtout pour les vieux cons qui, comme moi, ont connu l’effervescence bon enfant de ces plateformes à leurs débuts – sans parler des blogs qui les ont précédés. Et la tentation est grande de se replier sur un espace de discussion réservé aux gens de bonne compagnie, qu’il s’agisse d’un groupe Facebook, d’une boucle WhatsApp ou d’un channel Slack.

Une passion pour le nettoyage industriel à haute pression

Pourtant, il reste un endroit où on retrouve le plaisir d’échanger avec des inconnus qui faisait tout le sel de l’Internet de papa : Reddit, et plus précisément sa partie francophone, village gaulois résistant vaillamment à l’aseptisation des espaces numériques.

Reddit, j’y ai créé un compte depuis 2011, attiré par les mèmes, les vidéos de chats et les GIFs animés qu’on y trouve à foison. Moins connu et plus americano‐centré que ses concurrents, il compte quand même plus de 500 millions d’utilisateurs, et semble décidé à accorder plus de place à l’actualité, contrairement à Facebook.

Sept ans plus tard, je reste fasciné par la taille et la vitalité des communautés qui font vivre les subreddits, sortes de forums organisés autour de thématiques, de centre d’intérêts et de marottes diverses.

Ces derniers visent parfois large : il y a /r/worldnews sur l’actualité, /r/soccer sur le foot, /r/politics sur la politique américaine… Mais les subs les plus intéressants occupent des créneaux plus étroits, autour d’une série TV (/r/gameofthrones) , d’un type d’humour particulier (/r/dadjokes) ou de fétichismes ultra‐pointus – grâce à /r/powerwashingporn, je viens de me découvrir une passion inavouable pour le nettoyage industriel à haute pression.

Jusqu’il y a peu, aller sur Reddit était pour moi une façon très agréable de perdre encore plus de temps scotché à mon smartphone, mais n’avait pas grand chose à voir avec une activité journalistique sérieuse.

D’autant que les codes, le jargons, les private jokes en vigueur sur cette plateforme font de sa découverte et de sa prise en main une expérience ingrate – montrer Reddit à un collègue, c’est risquer de s’attirer des regards incrédules voire hostiles, et se trimbaler avec  une étiquette « gros nerd » pendant le reste de son CDD.

Ambiance cœur‐avec‐les‐mains dans le coin des Français

Les choses ont changé avec la montée en puissance de /r/france, sub francophone qui a  dépassé les 200 000 membres cet été. J’ai pris l’habitude d’y signaler les articles que je publie ici, agréablement surpris par la qualité de l’accueil reçu. Et le trafic reçu commence à être significatif : sur les 4 200 visiteurs qui sont passés sur mon infographie dédiée aux recettes de Marmiton, près de 900 venaient de /r/france.

Mais c’est surtout la qualité des commentaires reçus qui m’a enthousiasmé.

Sur Facebook, je peux compter sur mes proches et mon réseau professionnel pour relayer mes petites productions. Un soutien agréable mais forcément biaisé : difficile de ne pas lâcher un like quand un de vos amis publie le résultat d’un travail sur lequel il a transpiré plusieurs jours, voire plusieurs semaines.

Sur Twitter, beaucoup d’utilisateurs vont me retweeter ou publier un lien vers mes articles (merci à eux !), parfois accompagné d’un commentaire ou d’une critique, mais la plupart du temps ça ne va pas plus loin, surtout si l’attention générale est retenue par la dernière sortie d’Eric Zemmour ou le énième clash entre Raphaël Enthoven et Rokhaya Diallo.

Sur Reddit, c’est une autre paire de bretelles : tout ce que j’ai écrit va être scruté à la loupe, mes graphiques et cartes analysés en détail, mes erreurs ou raccourcis signalés en quelques minutes.

Même les scripts informatiques que je publie parfois en accompagnement sont passés en revue par des « redditeurs » bien plus calés que moi en code. (Lesquels, au passage, me proposent parfois leurs services pour une prochaine enquête, ambiance cœur‐avec‐les‐mains.)

S’y aventurer reste une expérience risquée

La (relative) bonne tenue des échanges sur Reddit tient à ses deux principaux atouts :

  • un algorithme qui trie les commentaires selon leur pertinence et replie les posts les plus mal notés
  • une modération assurée par des bénévoles, qui édictent les règles des échanges sur chaque subreddit et les font respecter. (Ce qui ne va pas sans créer des heurts et des polémiques, comme celle qui a agité /r/france cet été.)

Comme tout bon subreddit, /r/france n’a pas que des qualités : le nouveau venu pourra se sentir exclu par le contenu dit « meta », soit l’humour autoréférentiel, auquel on n’entrave rien si on n’a pas suivi les échanges depuis quelque temps. Il faudra ainsi faire avec de multiples références à la guerre « pain au chocolat » versus « chocolatine », qui y a atteint des proportions quasi nucléaires.

D’autres subreddits franchouillards commencent aussi à émerger, même s’ils souffrent souvent de la concurrence de leur alter ego anglophone : /r/ligue1 pour le ballon rond, /r/paslegorafi pour les infos insolites, /r/vosfinances pour des conseils pognon.

Pour un journaliste, s’aventurer sur Reddit reste une expérience un peu risquée : le rejet global des médias, perçus comme « putaclics » ou partisans, s’y ressent comme partout ailleurs.

Surtout, il faut être prêt à jouer le jeu des échanges, en défendant son travail quand les critiques ne sont pas justifiées, en reconnaissant ses lacunes et ses erreurs quand elles le sont.

La recette : être utile, bienveillant, intelligent,  et surtout transparent

Aux Etats‐Unis, le Washington Post s’est fait remarquer avec le compte /u/washingtonpost, qui poste bien sûr des liens vers les articles publiés sur le site, mais participe aussi aux échanges dans les commentaires.

Il est animé par Gene Park, un social media editor qui connaît bien les usages de cette plateforme. Bienveillant, utile et intelligent, son travail a été salué par le site spécialisé NiemanLab :

« Si le Post a fini par être bien accepté sur Reddit, c’est pour une raison pas si surprenante : son compte joue vraiment la transparence et accepte de répondre aux accusations lancées contre le journal, notamment le fait qu’il est détenu par le patron d’Amazon, Jeff Bezos. »

Park organise notamment des AMA (pour « Ask me anything »), exercice très prisé sur Reddit, qui consiste à laisser les utilisateurs interviewer une personnalité. Ça peut être un journaliste de la rédaction, ou un quidam ayant marqué l’actualité, comme ce présentateur météo de l’Alabama dont les bulletins sur les ouragans avaient été repérés pour leur qualité.

(Encore à Rue89, j’avais copié cette formule pour lancer la rubrique Posez‐moi vos questions, qui a notamment accueilli un biérologue, une médaillée au JO ou encore l’écrivain Martin Wincler.)

Pour Park, « l’enjeu n’est pas de faire du trafic, mais de créer des liens avec l’audience ». En accompagnant le mouvement plutôt qu’en cherchant à le créer artificiellement :

« Les utilisateurs de Reddit postent très souvent des liens vers le Washington Post. Nous allons chercher ces conversations autour de nos articles et cherchons à donner plus de contextes, et plus de réponses. Parfois on a déjà publié d’autres contenus sur le même sujet, et je peux utiliser mes connaissances pour transmettre davantage de connaissance. »

Reddit m’intéresse parce qu’il permet de recréer des liens entre les journalistes et leur audience, ce qui me semble un étape indispensable si les médias veulent regagner la confiance du grand public (je sais, je radote). Les sites d’info peinent à créer des espaces de conversation pertinents sous leur propre ombrelle, alors pourquoi ne pas essayer celui‐là ?

Supprimer les services politiques, et 4 autres idées pour changer le journalisme

La journaliste politique Nathalie Saint‐Cricq lors du débat Macron‐Le Pen

Comme chaque année, je suis allé manger du poulpe grillé et boire des Spritz découvrir les dernières tendances au Festival international de journalisme de Pérouse, en Italie. Je vous en ai ramené cinq idées pour changer le journalisme qui continuent à me trotter dans la tête depuis mon retour.

1. Supprimer les services politiques dans les rédactions

L’idée vient de l’écrivain néerlandais Joris Luyendijk, qui tenait le Banking Blog sur le site du Guardian. Il l’a exposée lors d’une conférence à la tonalité désabusée :

« Il faut supprimer les services politiques des rédactions nationales, les jeter par la fenêtre. Et remplacer leurs reporters par des “fixers”, dont le job est d’aider leurs collègues des autres services à faire leur travail.

Si je travaille pour les pages économie et que je tombe sur une affaire de corruption à Westminster, je devrais pouvoir me tourner vers un spécialiste du Parlement britannique pour qu’il m’aide dans mon enquête.

Mais en pratique, ça n’arrive jamais : les journalistes politiques ont leur propres priorités et ne partagent pas leurs contacts. Ils se contentent de la politique politicienne : les sondages, les postes, les ambitions… en résumé, ils en font un “show business for ugly people”.»

« Jeter les services politiques par la fenêtre » : formulée ainsi, la mesure paraît radicale. Mais le punk qui sommeille en moi ne peut pas s’empêcher de penser que c’est une très bonne idée…

2. Arrêter de vendre des abonnements et proposer des adhésions à la place

C’est sans doute l’idée la plus enthousiasmante que je retiens de Pérouse cette année – si on s’est croisés depuis, il y a de bonnes chances que je vous en ai déjà parlé, en faisant de grands moulinets avec les mains.

Je résume à gros traits : le modèle de financement des médias par abonnement, qui a beaucoup séduit dans la profession ces dernières années, a bien des avantages : indépendance vis‐à‐vis des annonceurs ; expérience utilisateur améliorée par l’absence de publicités forcément intrusives ; lien plus direct entre la rédaction et son public.

Mais il a un inconvénient majeur : en activant un paywall, on impose au lecteur de se créer un compte et de sortir sa carte bleue avant de pouvoir lire un article. Et on réduit drastiquement les possibilités de circulation et de reprise des informations publiées.

On peut toujours le désactiver pour certaines enquêtes jugées « d’utilité publique », mais on crée alors un dilemme cornélien pour les équipes concernées, quand elles s’apprêtent à publier un contenu fort.

Faut‐il le laisser en libre accès et espérer que le surplus de trafic généré se transforme, in fine, en nouveaux abonnés ? Ou faut‐il au contraire le réserver à ses lecteurs actuels, pour s’assurer qu’ils en aient « pour leur argent » et ne pas réduire la valeur de leur achat ?

Les expériences menées par le News Revenue Hub offrent une troisième voie, déjà empruntée par le Guardian au Royaume‐Uni, par Reporterre, L’Imprévu ou le Bondy Blog en France. Ces derniers ont fait le choix garder leurs contenus ouverts, et de proposer à tous les lecteurs de devenir adhérents, si le projet éditorial proposé les séduit sur le long terme.

C’est le virage pris par le Honolulu Civil Beat,  à Hawaii, et Voice of San Diego, deux sites qui peinaient à recruter assez d’abonnés pour financer reportages et enquêtes de fond. Dans les deux cas, les  revenus générés ont nettement augmenté : les rédactions ont découvert qu’une part significative de leurs lecteurs était prête à payer une dizaine de dollars par mois non pour accéder à des contenus, mais pour soutenir des projets de journalisme de qualité.

Mais pour réussir, le passage du subscription model au membership model implique de transformer significativement la façon de travailler des reporters concernés. Les voilà forcer de raconter davantage les coulisses de la fabrication de l’information, d’expliquer les choix éditoriaux opérés ou encore de prendre réellement en compte les avis et les propositions de sujets des adhérents.

C’est ce qu’expliquait Mary Walter‐Brown, la fondatrice du News Revenue Hub, à Pérouse :

« Il faut un changement de culture pour que ça marche. Il faut proposer des contreparties, comme le fait de pouvoir prendre un café avec les journalistes pour discuter avec eux.

Il faut dégager du temps pour que les reporters puissent préparer des campagnes d’emailing où ils se présentent et présentent leur travail. Il faut passer du temps à étudier les données disponibles.

Si vous vous contenter juste de lancer une page membership sur votre site sans y consacrer du temps et de l’énergie, les gens le verront vite. A l’inverse, des initiatives simples peuvent avoir de grands résultats. »

Ça passe parfois par de petites fonctionnalités malines, rappelait le chercheur Jay Rosen dans un autre rendez‐vous pérugin : lorsqu’un adhérent au site néerlandais De Correspondent partage un article, les lecteurs qui cliquent sur le lien généré vont voir le nom de ce soutien s’afficher sur la page. De quoi donner envie de rejoindre le club.

Ce qui m’a frappé, c’est que ce modèle membership ne semble plus seulement réservé à des médias juniors ou militants, mais qu’il pourrait bien concerner bien plus de titres. L’approche proposée par le News Revenue Hub est d’ailleurs très business, et passe par la mise en place d’outils de relation‐client performants.

A titre personnel, je suis abonné (et même petit actionnaire) des Jours, mais je ne vois aucune raison d’interrompre mon prélèvement si ce site décide de mettre ses contenus en libre accès. Et je suis prêt à parier que bien des lecteurs de Mediacités, du Quatre heures ou même de Libération feraient le même choix.

3. Mettre au point un fact‐checking automatique et collaboratif

Réelle tendance de ces dernières années, le fact‐checking a du plomb dans l’aile depuis qu’on a découvert qu’il ne permettait pas vraiment de lutter contre la dissémination des fake news. Ça n’empêche pas les spécialistes de continuer à réfléchir aux façons de l’améliorer.

Parmi eux, Bill Adair, chercheur à l’université Duke et créateur de Politifact, pionnier américain dans ce domaine. Depuis quelques années, il trimballe dans sa sacoche un vieux rêve : un outil qui permettrait de vérifier en direct les propos tenus par un politicien, par exemple sous la forme d’un bandeau incrusté sur la retransmission de son discours par une chaîne info.

Complexe à mettre au point, une telle technologie paraissait hors de portée il y a quelques années. Mais les progrès et la popularisation de l’intelligence artificielle montrent qu’elle désormais est atteignable. L’application pour iPhone FactStream, que son équipe a récemment lancé, permettait ainsi à ses utilisateurs de recevoir des notifications dès que Trump prononçait une contre‐vérité lors de son discours sur l’Etat de l’Union, en janvier.

OK, le texte que lisait Trump est diffusé aux journalistes quelques heures avant, et les notifications étaient envoyées manuellement (parfois avant même que Trump arrive au passage concerné, pour tenir compte des délais. Mais Adair ne compte pas s’arrêter là, et automatiser davantage le processus.

Autre outil développé : ClaimBuster, qui va détecter automatiquement dans n’importe quel discours des propos factuels pouvant être matière à un travail de vérification. Une série de fact‐checkers américains reçoivent ainsi une newsletter quotidienne fournissant les faits détectés par exemple dans les interventions des parlementaires au Congrès, une matière qu’ils vont pouvoir traiter pendant la journée.

Pour mieux fact‐checker, il est aussi utile de fact‐checker ensemble : ainsi, FactStream propose des contenus venus de plusieurs sites d’information, parfois concurrents. Ces contenus sont structurés via le balisage ClaimReview, servant au référencement et mis au point avec Google pour rendre plus visible les fact‐checkings sur Google News et dans les résultats de recherche.

4. Rétablir la confiance des lecteurs pour qu’ils acceptent d’être bousculés

C’est devenu une tarte à la crème, et je ne suis pas le dernier à la ressortir régulièrement du frigo : les journalistes doivent regagner la confiance de leur public s’ils veulent exister dans des écosystèmes numériques ou l’information est surabondante et partout accessible.

Dans sa keynote à Pérouse, le chercheur new‐yorkais Jay Rosen proposait donc « d’optimiser les médias pour la confiance », plutôt que de les optimiser pour les clics ou les partages Facebook.

Il a cependant vite reconnu la faiblesse derrière ce raisonnement : après tout, Breitbart News aux Etats‐Unis a la confiance de ses lecteurs, et c’est même ce qui fonde son pouvoir de nuisance  dans le débat démocratique :

« C’est facile d’obtenir leur confiance si vous ne faites que renforcer les idées que vos lecteurs ont déjà, et si vous dénoncez les idées des autres. Trump le fait avec son compte Twitter. Comme source d’information, il est davantage cru que Fox News par les électeurs républicains. »

(Toutes choses égales par ailleurs, on peut tenir le même raisonnement en France avec des sites aux contenus marqués idéologiquement et journalistiquement contestables, comme Russia Today, Le Média ou LesCrises.)

Ce constat l’amène à reformuler la question : « Comment combiner le respect des standards de qualité du journalisme, et en même temps créer de la confiance ?» Quitte à prendre, parfois, son lecteur à rebrousse‐poil.

C’est un vaste chantier, qui passe, comme lorsqu’un média adopte le modèle de financement par adhésion, par une redéfinition globale de l’offre éditoriale et des méthodes de travail des journalistes.

5. Fournir des services aux pigistes pour qu’ils se publient eux‐mêmes

Teun Gautier en est convaincu : le problème actuel du journalisme n’est pas un problème de demande – les lecteurs veulent de l’information et sont prêts à la payer « si elle a de la valeur pour eux » – ni un problème d’offre – « les coûts de production baissent »,  et des technologies autrefois inaccessibles sont désormais à portée de clic pour le premier étudiant en journalisme venu.

Un peu comme pour les producteurs de melons, le problème vient, selon le fondateur du service De Coöperatie, des intermédiaires. Entre les journalistes et leur public, c’est la structure de distribution de l’information qui est dysfonctionnelle, parce qu’elle n’est pas capable de générer des revenus suffisants.

C’est le rôle des éditeurs de presse qui doit donc changer. Ils ne devraient plus chercher à encadrer le travail des journalistes – en choisissant qui doit être embauché, en sélectionnant ce qui doit paraître ou pas ou en commandant des contenus qui doivent coller à des formats existants.

Plutôt que de multiplier les conférences de rédaction pour remplir un chemin de fer préformaté ou renouveler à marche forcée une page d’accueil, les nouveaux intermédiaires devront chercher à accompagner des journalistes freelance, en leur fournissant les services nécessaires à leur activité.

Pour les identifier, il faut se demander ce qu’on inventerait si on faisait table rase des médias existants. De quoi ont besoin les journalistes ? Pêle‐mêle : un outil de publication performant, de la visibilité sur les réseaux sociaux, des solutions de monétisation (paiement à l’article, crowdfunding, adhésion…), de services de formation, d’entraide, de relecture ou de correction, d’une bonne épargne retraite…

Ce modèle « de la ferme à la table » appliqué au journalisme réduit la distance entre le lecteur et le reporteur, et modifie aussi la répartition des revenus générés, qui profitent davantage au producteur de l’information et moins à ceux chargés de leur distribution

Ce qui a changé dans la liste des sujets préférés des médias français

Vous avez été nombreux à montrer votre intérêt pour le tableau de bord des obsessions, marottes et zones d’ombre des médias que j’ai publié début février. Je vais donc continuer de le compléter et de l’améliorer dès que j’aurais un peu de temps devant moi, et listé dans ce post les derniers changements.

Vendredi 5 octobre

Après une série de tests, affichage des graphiques montrant l’évolution du traitement d’un thème depuis un mois.

Lundi 6 août

La mise à jour des informations ne se faisait plus, la faute à un problème sur le flux RSS d’un des médias. Problème désormais réparé.

Samedi 10 février

  • Une dizaine de médias supplémentaires sont désormais étudiés : Courrier international, L’Equipe, Les Echos, La Tribune, Challenges, Capital, Reporterre, L’imprévu, Bastamag, Contexte, StreetPress, The Conversation.
  • Dans la liste des entités, le classement actuel et son évolution par rapport à la période précédente est indiqué, à la manière du Top 50.
  • Le script qui récupère les titres et descriptions des articles publiés par chaque média (via leur flux RSS) passe désormais une fois par heure, et non plus trois fois par jour, pour ne rien rater sur les sites qui publient beaucoup de contenu comme 20 minutes.
  • L’adresse du flux RSS utilisé pour L’Express était erronée et a été corrigée.
  • La qualité du corpus utilisé pour l’analyse a été beaucoup améliorée : problèmes d’encodage résolus (Le Monde, Vice…), balises HTML mieux filtrées (Mashable…), suppression des retours chariots, retours à la ligne et tabulations.
  • Le corpus ne contient plus que les 150 premiers caractères de la description de chaque article publié, afin de ne pas défavoriser dans l’analyse les sites qui ne fournissent qu’une description très courte dans leur fil RSS, comme Le Point.
  • Trois médias ne peuvent être étudiés : Buzzfeed (contenus en anglais dans le fil RSS), Valeurs actuelles (fil RSS illisible), Télérama (pas de fil RSS disponible).

Comment je prépare le tableau de bord des sujets les plus traités par les sites d’actu

Capture d’écran d’un script Python

C’est sans doute le projet le plus ambitieux et le plus complexe que j’aie mené à bien depuis que j’ai lancé Dans mon labo il y a bientôt quatre ans. Il m’a fallu pas mal d’après-midi pluvieux et de jours fériés blafards pour terminer le tableau de bord qui liste les sujets les plus présents dans les sites d’actualité français.

Il est devenu possible grâce aux progrès que j’ai réalisés en Python, un langage de programmation prisé des datajournalistes. De mon côté, j’ai dû sérieusement m’y mettre courant 2017, notamment pour afficher en direct les résultats des élections législatives au sein de la carte interactive que j’ai préparée pour Contexte.

Pour explorer les flux XML mis à disposition par le ministère de l’Intérieur le soir des scrutins, j’ai trouvé en Python, avec sa syntaxe accessible et ses multiplies librairies disponibles, un partenaire idéal. (Mais il est aussi possible de faire ça très bien avec d’autres solutions, comme R.)

Et ces connaissances m’ont ouvert de nouveaux horizons, notamment ceux de la reconnaissance automatisée d’entités nommées. Un domaine qui, m’a-t-on expliqué, a beaucoup progressé grâce au patient travail de description et de classement réalisé par les contributeurs de Wikipedia.

J’ai d’abord travaillé, toujours pour Contexte, sur les thématiques les plus présentes dans le discours des députés pour enrichir le trombinoscope de l’Assemblée nationale que le site propose à ses abonnés. C’est alors que m’est venue l’idée de proposer une démarche comparable, mais avec les médias en ligne.

1. Scraper les flux RSS des sites d‘actu avec Python

J’ai listé, dans une Google Sheet, les sites que je souhaitais étudier, en renseignant pour chacun l’adresse de son flux RSS principal.

Mon script de scraping (dispo pour les curieux) commence par récupérer cette liste, et va chercher dans chaque flux le titre et la description (le chapô ou le début du texte) de chaque article. Il récupère aussi sa date de publication, et enregistre le tout dans un fichier Json dédié à chaque site.

Tous les flux RSS n’étant pas construits de la même façon, il a fallu prendre en compte les différents cas de figure : ainsi, le résumé de l’article se trouve dans un élément qui peut être nommé « description », « summary », « content»…

2. Créer un corpus de textes et le faire analyser par TextRazor

La suite de ce script va concaténer ensemble les titres et résumés de chaque article publiés dans une période donnée pour en faire un seul et même texte.

Ce corpus va ensuite être envoyé à TextRazor, via la librairie Python que met à disposition ce service d’analyse sémantique. Ce dernier est gratuit jusqu’à 500 requêtes par jour, un quota largement suffisant pour ce projet.

Parmi les services équivalents, TextRazor a un autre avantage : non seulement son outil d’extraction des entités nommées renvoie la liste des thématiques détectées au sein du corpus soumis, mais il fournit aussi pour chacune un score de relevance (« pertinence », que j’ai finalement traduit en « présence » dans mon tableau de bord).

Ainsi, s’il détecte les mots « GPA », « gestation pour autrui » ou « mère porteuse » dans un texte, Textrazor réunit ses expressions dans une seule thématique (en général le titre de la notice Wikipedia dédiée). Et donne à cette dernière une note, de 0 à 1, selon que l’entité lui semble plus ou moins pertinente dans le texte fourni.

C’est à la fois la force et la faiblesse de ma méthode : ce scoring me permet de générer les multiples classements, mais je n’ai pas « la main » sur son élaboration.

Malgré quelques mauvaises surprises, l’observation des résultats obtenus m’a toute fois rassuré : Le Parisien est en général le média où le thème « Paris » est le plus présent ; on retrouve souvent « Jean‐Luc Mélenchon » bien classé dans les résultats de Politis ; Sputnik et RT France sont bien placés au classement pour le thème « Vladimir Poutine ».

4. Héberger les scripts sur un serveur chez PythonAnywhere

Cette partie‐là du chantier serait une promenade de santé pour un développeur back‐end même débutant. A un journaliste bidouilleur comme moi, elle a pris pas mal de temps et d’énergie.

Une fois le script Python décrit ci‐dessus terminé, je ne pouvais pas l’exécuter moi‐même plusieurs fois par jour sur mon ordinateur afin de disposer de données toujours fraîches pour alimenter un éventuel tableau de bord.

Sur les conseils d’amis développeurs, j’ai regardé plusieurs offres d’hébergement comme Amazon Web Services ou Google Cloud Platform, mais la longueur des procédures d’installation et des tutoriels proposés m’a vite refroidi. Je me suis rabattu sur Python Anywhere. un service peu onéreux et qui s’est révélé mieux adapté à un noob comme moi.

Même avec cette solution, je suis passé par mal, de guides d’utilisation, de pages d’aide et de questions Stack Overflow avant d’arriver mes fins : faire tourner mon script de scraping plusieurs fois par jour.

4. Créer le tableau de bord en front à partir d’un fichier Json optimisé

Une fois toutes ces listes de thématiques récupérées et enregistrées dans le fichier Json de chaque média, un autre script Python, lui aussi hébergé sur PythonAnywhere, va préparer un fichier Json commun et de taille réduite.

Ce dernier sera récupéré, au moment où le tableau de bord publié Dans mon labo se charge, par votre navigateur.  Au final, c’est donc Chrome, Firefox ou Edge qui va construire l’infographie à l’intérieur de la page.

Je ne détaillerais pas sur ce travail de développement front‐end, classique combinaison de HTML, de CSS et de Javascript, mais si vous avez des questions sur cette partie, je serai ravi d’y répondre !

A ce stade, la principale difficulté pour moi a été de s’assurer que le chargement des données puis la construction de l’infographie se fasse dans un délai raisonnable : lors des premières étapes, le tout prenait parfois une bonne dizaine de secondes, ce qui es rédhibitoire.

Pour chaque média, j’ai choisi de ne pas intégrer une thématique si son score était inférieur à un certain seuil (en ce moment, 0,4/1), et de n’afficher une thématique dans la liste principale que si elle était présente dans au moins quatre médias.

Il m’a fallu pas mal d’allers-retours entre scripts Python sur le serveur et code Javascript dans le navigateur pour réduire ce délai et obtenir une expérience suffisamment fluide, mais il  reste sans doute pas mal d’optimisation possible.

5. Préparer la suite avec des analyses hebdomadaires et mensuelles

Comme beaucoup l’ont fait remarquer dès la publication du tableau de bord, les résultats seront intéressants à observer dans le temps, au‐delà de la photographie actuelle (les sept derniers jours). Mon script réalise déjà des analyses hebdomadaires et mensuelles, qui ne sont pas affichées mais que j’espère utiliser quand j’aurais davantage de recul. (Edit le 5 octobre : des graphiques s’affichent désormais pour chaque thématique, j’y reviens dans un thread sur Twitter)

Voilà ! Je suis en tout cas curieux de savoir vos remarques, critiques ou propositions d’amélioration dans les commentaires de ce post ou bien, pour les timides, dans un message privé.

Mis à jour le 2/2 à 10h15. Précision sur les seuils (point 4) et point 5 ajouté.

Obsessions, marottes et zones d’ombre : voici les sujets préférés de 60 sites d’info français

Dans une rédaction, la ligne éditoriale, c’est comme le dahu : tout le monde en parle, mais personne ne l’a jamais vue. Elle structure pourtant le travail quotidien des journalistes ; c’est en son nom qu’on va accepter ou refuser une idée de sujet ou d’angle. Et quand elle est absente ou bien trop floue, ce n’est souvent pas bon signe.

Pour tenter de représenter ces fameuses lignes, j’ai mis au point ce tableau de bord, qui montre les thématiques les plus présentes sur une soixantaine de sites d’actualité dans les sept derniers jours, le tout rafraîchi trois fois par jour.

Encore expérimentales, ces listes sont générées automatiquement, grâce à la reconnaissance d’entités nommées dans un corpus spécifique à chaque média. Cet agglomérat de texte est formé avec les informations disponibles au sein de son flux RSS principal – je reviens en détail sur la méthodologie utilisée dans un autre post.

Mis à jour le 5/10/2018. L’infographie a pas mal évolué depuis sa publication, voir la liste des changements dans ce post.

 

Bataille de bouffe ! Découvrez les ingrédients et recettes préférés des Français

Mettez deux Français ensemble, et il y a de bonnes chances qu’après quelques minutes, ils se mettent à parler de bouffe, qu’il s’agisse du dernier restaurant à la mode ou de cette recette exclusive de moelleux au chocolat qu’ils sortent du tiroir pour les grandes occasions.

Mais quels sont les aliments et les préparations préférés des Français ? Pour le savoir, j’ai « aspiré » les données d’un des sites de recettes les plus populaires, Marmiton, Vous pouvez découvrir les résultats en lançant des batailles d’ingrédients dans l’infographie ci‐dessous.

Pour calculer le score d’un ingrédient, j’ai d’abord récupéré toutes les recettes qui le contiennent, grâce à un script en Python. Ensuite j’ai multiplié, pour chacune de ces dernières, le nombre d’avis d’internautes par la note moyenne obtenue. Et j’ai additionné le tout.

Je n’ai gardé que les 1 130 ingrédients qui apparaissent dans au moins 10 recettes, et opéré pas mal de regroupements pour obtenir des résultats plus pertinents (par exemple, « échine de porc », « côtes de porc » ou « escalope de porc » sont toutes regroupées dans l’ingrédient « porc »). La liste retenue contient finalement 871 entrées, de A comme « abricot » à Y comme « yaourt ».

Il m’a aussi fallu créer une cinquantaine de catégories (de « viandes » à « produits laitiers » en passant par « bonbons » ou « champignons ») afin de générer les classements. N’hésitez pas à me signaler des erreurs ou des bizarreries dans les commentaires ou en me contactant, afin que je les corrige.

Vous pouvez aussi consulter les données sur les ingrédients comme celles sur les catégories, pour les réutiliser si vous le souhaitez.

 

Comment j’ai réalisé les cartes de France de la VO et de la VF

Comme souvent, le travail que j’ai réalisé pour ma petite enquête sur la France de la VO et celle de la VF met en jeu toute une série d’outils que j’ai découvert au fil des ans, qu’il s’agisse de scraping, de jointures de tables ou de représentation par anamorphoses. L’ensemble des données dont je me suis servi est disponible dans une Google Sheet.

Je vais en décrire les différentes étapes, ce qui peut être utile si vous souhaitez vous lancer dans un chantier comparable. N’hésitez pas à mettre votre grain de sel dans les commentaires.

1. Récupérer la liste des séances avec un scraping en deux étapes avec Outwit Hub

Pour commencer, il fallu que je me constitue une base contenant l’ensemble des salles de cinéma de France. Par chance, le site Cinefil propose des pages listant tous les cinés d’un département (par exemple, ceux situés dans l’Ain).

J’ai d’abord généré automatiquement une URL pour chaque département sur cinefil.com dans Google Sheet. J’ai ouvert cette première liste dans Outwit Hub, un logiciel de scraping qui m’a permis de rassembler une liste de 1 409 salles. Pour chacune, j’ai aussi récupéré l’URL de sa page sur cinefil.com.

Sur ces 1 409 URL, j’ai fait passer un second scraper, afin de récupérer la liste des films diffusés dans chaque salle sur une journée, avec les horaires des séances et la version diffusée (VF ou VO). J’ai obtenu ainsi une liste de 14 423 films et de 20 182 séances.

2. Déterminer la langue de tournage dans chaque film avec OMDB

Après quelques heures de travail, je me suis aperçu d’une chose toute bête mais qui m’avait échappé : sur Cinefil, les séances des films en langue française sont indiquées « en VF », ce qui ne permet pas de les différencier automatiquement des films en langue étrangère diffusés en VF…

Il a donc fallu que j’établisse une liste des 982 films différents diffusés sur toute la France ce jour‐là (le 28 avril), et que je trouve un moyen de déterminer, pour chacun d’entre eux, s’il s’agit à l’origine d’un film tourné en langue française ou en langue étrangère.

L’API Omdb m’a permis de récupérer cette information dans un bon nombre de cas, par l’intermédiaire de Cloud Ignite, un module complémentaire de Google Sheet particulièrement pratique.

Pour le reste, j’ai réalisé des croisements – par exemple, un film qui n’est diffusé qu’en VO sur toute la France ne peut être qu’un film en langue étrangère – et des déductions – par exemple, une coproduction France/Suisse/Belgique a de bonnes chances d’être tournée en français.

Ce tri s’est révélé fastidieux et le résultat n’est pas garanti sans erreurs, mais j’ai estimé sa fiabilité suffisante pour continuer à avancer, en mettant de côté tous les films en langue française.

3. Géolocaliser chaque salle de cinéma avec ezGecode

J’avais déjà récupéré l’adresse et le code postal de chaque cinéma sur sa page Cinefil. Pour en déduire sa latitude et sa longitude, j’ai utilisé un autre module complémentaire de Google Sheet, ezGeocode.

La grande majorité des salles a ainsi été géolocalisée automatiquement et avec une très bonne fiabilité, et j’ai réussi à placer le reste grâce à des recherches manuelles dans Google Maps.

 4. Déterminer le code commune pour chaque salle de cinéma

Afin de « marier » la base que je me suis ainsi constituée avec les données démographiques fournies par l’Insee ou les résultats électoraux disponibles sur le site du ministère de l’Intérieur, il me fallait déterminer le code Insee de la commune où se trouve chacun des cinémas de ma liste.

J’ai pu le faire grâce à une table de correspondances et à la base officielle des codes postaux, toutes deux disponibles sur Data.gouv.fr. Une série de recherches verticales plus tard, j’avais pour chaque salle de cinéma des informations comme la population de la ville, le taux de pauvreté, le vote Macron…

Des tableaux croisés dynamiques m’ont ensuite permis de consolider les résultats pour chacune des 278 localités françaises pourvues d’au moins une salle de cinéma (avec au moins une séance programmée ce jour‐là), puis pour chaque département.

5. Réaliser les deux cartes interactives avec Carto

J’ai ensuite préparé deux séries de données, l’une avec toutes les salles où la part de la VO est majoritaire (#teamvo), et l’autre avec les salles plutôt VF (#teamvf).

J’ai créé deux cartes basées sur ces jeux dans Carto, et j’ai ajouté dans chacune d’elle un calque supplémentaire, avec les contours de chaque département et une couleur en fonction de la part de la VO ou de la VF à cette échelle.

J’ai passé pas mal de temps à chercher des réglages satisfaisants pour la taille des cercles, les nuances de couleurs ou encore la répartition des départements en cinq catégories (choix des intervalles).

6. Réaliser les cartes anamorphosées avec Qgis et Scapetoad

J’avais déjà utilisé les anamorphoses (cartograms en anglais) pour une série de cartes du monde tel que le voient les médias français qui avait tapé dans l’œil de pas mal d’observateurs. J’avais envie de commencer mon article avec ce type de visiuels, que je trouve facile à appréhender même pour des lecteurs peu friands d’infographies.

J’ai récupéré un tracé des départements français au format shapefile sur OpenStreetMap.

J’ai ouvert ce fichier dans l’éditeur de cartes Qgis afin d’associer à chaque département le nombre de séances en VO et en VF pour un million d’habitants.

C’est sur la base de ces deux données que j’ai réalisé les déformations de la carte de France dans ScapeToad, un petit utilitaire dédié à la création d’anamorphoses.

7. Créer une série de graphiques dans Datawrapper

Pour terminer, j’ai repris une dernière fois mes données pour isoler une série de chiffres de synthèse afin de créer les graphiques de synthèses qui figurent à la fin de l’article, en reprenant les codes couleur.

La France de la VO et celle de la VF : les cartes d’une fracture française

La France de la VO
La France de la VF

Ça fait partie de ces combats qui divisent les Français en deux camps irréconciliables. Comme la guerre sans merci du « pain au chocolat » et de la « chocolatine », ou le conflit séculaire entre la tartine au beurre salé et celle au beurre doux.

De même, il y a ceux qui ne jurent que par la version originale sous‐titrée (VO) – quitte à passer son temps à lire les sous‐titres plutôt qu’à profiter de lpoaction et des dialogues – et ceux qui ne peuvent pas vivre sans la version française (VF) – quitte à subir des traductions et des doublages pas toujours parfaits.

Histoire de frustrer un peu tout le monde, les cinémas ne proposent pas forcément les deux versions. Sur les deux anamorphoses en haut de cet article, plus un département est gros et plus ses habitants se voient proposer de séances en VO (à gauche, en rouge) ou de la VF (à droite, en vert).

Sur une journée, 20 182 séances de cinéma dans 1 400 salles

Pour les réaliser, j’ai récupéré, grâce à un scraper, l’intégralité des séances disponibles sur un site spécialisé pour la journée du 28 avril 2017. Soit plus de 20 182 séances, dans plus de 1 400 cinémas de France et de Navarre, projetant un total de 981 films différents.

Parmi ces derniers, j’en ai identifié 549 en langue étrangère (non sans mal, comme je l’explique dans un autre post sur site, où je reviens sur la méthode utilisée) pour un total de 14 223 séances, dont 2 964 en VO.

Dans certaines régions, la VO est réservée aux petites salles de centre‐ville ou aux cinémas art et essai. Mais certains réseaux de multiplexes programment aussi un nombre important de séances en VO, comme UGC.

Si on passe à l’échelon des villes, c’est bien sûr à Paris que sont proposées le plus de séances en VO. Mais la banlieue et la province se défendent, avec Montreuil, Biarritz et Hérouville‐Saint‐Clair en tête devant la capitale si on prend compte la part totale des séances en VO.

A l’inverse, il y a des coins de France où on vous recommande pas de déménager si vous êtes #teamvo. Dans cinq départements, aucune séance en VO n’était proposée dans la journée :

  • l’Ariège
  • la Creuse
  • la Haute‐Saône
  • l’Indre
  • l’Orne

Les villes avec VO et les villes avec VF

Mais pourquoi les cinémas d’une ville proposent‐ils de la VO alors que ceux de la ville d’à côté se contentent de la VF ? Le goût pour la VO est lié à la richesse des habitants, à leur niveau d’éducation, où bien à leur choix politique ?

Sur les 1 133 localités étudiées, plus de 65% ne proposaient aucune séance en VO dans leurs salles de cinéma. Pour explorer mes données, j’ai donc réparti la liste en deux deux camps : les villes avec VO et les villes sans VO.


J’ai ensuite associé mes résultats à une série de statistiques de l’Insee, à commencer par la population (en 2014). Sans surprise, ce sont dans les localités les plus peuplées qu’on a le plus de chances se trouver des séances en VO.

Ça semble logique : comme la majorité des Français préfère la VF, proposer de la VO n’est commercialement intéressant que si la salle se trouve dans une zone suffisamment peuplée pour qu’on y trouve un nombre suffisant d’amateurs de versions sous‐titrées.

Dans les deux camps, le niveau de vie médian est proche. On peut faire l’hypothèse que la VO n’est pas « un truc de riches»…

… ce que semble confirmer la comparaison du taux de pauvreté médian des deux séries de villes.

En revanche, si on s’intéresse à la part de la population ayant suivi des études supérieures, la différence est nette.

Je vois au moins une causalité possible à cette corrélation : plus on étudie, plus on est à l’aise avec la lecture, et moins on est gêné quand on doit passer du temps à lire les dialogues en bas de l’écran. Ce qui pourrait inciter les gérants de salle de la localité concernée à privilégier les copies en VO.

J’ai aussi croisé mes données avec les résultats du premier tour de la présidentielle 2017. Les villes sans VO ont tendance à voter davantage pour Le Pen et moins pour Macron et Mélenchon que les autres. Si la présidentielle ne s’était jouée que dans les villes avec VO, Mélenchon aurait été qualifié pour le second tour.


Voilà ! Evidemment, ce travail est très parcellaire, et la méthode que j’ai utilisée sûrement contestable. Je ne suis pas spécialiste de l’étude des pratiques culturelles, et je ne sais pas si cette grande fracture française a fait l’objet d’enquêtes plus poussées. [ajout le 27/7 à 17h20 : Vodkaster a fait un point assez complet sur le sujet en 2016]

Je serais en tout cas ravi d’en savoir plus, donc n’hésitez pas à descendre donner votre avis un peu plus bas dans les commentaires, et à aller explorer ces données, qui sont disponibles dans une Google Sheet.

Corrigé le 21/7 à 10h20. Inversion des barres dans les graphique niveaux de vie et part des diplômés du supérieur.

Mis à jour le 21/7 à 11h45. Ajout du graphique consacré aux réseaux de multiplexes.

Corrigé le 1/10 à 21h10. Inversion des barres dans le graphique population.

Les journalistes ne devraient plus se cacher pour pleurer

« C’est pas si grave, ça se passe comme ça sur Internet, il faut que tu t’endurcisses. » C’est une phrase que j’ai pu prononcer quand j’étais rédacteur en chef adjoint de Rue89 et qu’un journaliste de l’équipe était pris pour cible par des malfaisants dans les commentaires ou sur Twitter.

Et c’est une réaction totalement contre‐productive. C’est en tout cas l’avis de Gavin Rees, directeur du Dart Center Europe, organisation venant en aide aux journalistes confrontées à des situations violentes, exprimé pendant un débat sur ce sujet au festival de journalisme de Pérouse, début avril :

« Il faut en parler entre collègues, il faut qu’on vous rassure sur votre travail, sur ce que vous avez écrit, qu’on vous dise que ce n’est pas votre faute. Il ne faut pas que ce soit une question taboue, sinon ils ont gagné. »

Pratiquer le « journalisme en empathie », thème d’une série de posts que je termine avec ce texte, c’est aussi se préoccuper davantage de ses collègues, quand tous ceux qui prennent la parole en ligne sont plus exposés que jamais.

OK, les journalistes sont des durs à cuire, mais ils sont de plus en plus attaqués

L’idée que le journaliste est un dur à cuire imprègne encore les imaginaires, et on la retrouve dans pléthore de films et de séries. Ce sont des reporters de guerre qui se précipitent au plus près des bombes. Des enquêteurs qui ne mangent que des sandwichs et ne boivent que du whisky tant qu’ils n’ont pas sorti leur scoop. Des rédacteurs en chef à bretelles qui pestent en permanence mais ont l’instinct affûté et le flair imbattable.

Comment des types aussi indestructibles pourraient‐ils se sentir meurtris par de simples trolls ? Peut‐être parce que les attaques de ces derniers se multiplient et sont de mieux en mieux organisées. Toujours à Pérouse, Michelle Ferrier, fondatrice de TrollBusters, a rappelé des chiffres alarmants :

« Aux Etats‐Unis, 40% des femmes qui publient du contenu en ligne sont victimes de harcèlement, principalement sur Twitter : des propos haineux, racistes ou haineux ou encore la publication d’informations privées. Plus de 80% des journalistes estiment que leur travail est plus dangereux qu’avant. »

Son organisation a mis au point trois armes pour lutter contre les trolls :

  • Une équipe de secours d’urgence : une communauté d’utilisateurs qui peut être mobilisée quand un journaliste est victime de ce genre d’attaques, notamment pour répondre et contre‐attaquer collectivement.
  • Un travail d’enquête sur leur organisation et leurs méthodes, en se servant de technologies d’étude de réseau.
  • Du support spécialisé, par exemple pour aider un service technique confronté à une attaque en déni de service, mais aussi pour des conseils juridiques ou un soutien psychologique.

« Les rédactions doivent protéger leurs employés en utilisant tous les recours possibles »

S’il met tout en œuvre, au sein du Coral Project, pour amener les journalistes à dialoguer davantage avec leur audience, Greg Barber reconnaît que la conversation est parfois impossible, et que les médias en ligne doivent en tenir compte :

« On raconte quand des journalistes sont menacés à l’étranger. mais il faut le faire aussi quand ça arrive chez nous. Les médias doivent protéger leurs employés en utilisant tous les recours possibles. »

Le diagramme “Comment réagir au harcèlement en ligne” édité par Trollbusters.

TrollBusters a publié un diagramme instructif résumant les réactions possibles quand on est victime de harcèlement en ligne.

A ma connaissance il n’y a pas d’organisation équivalente en France, mais si je me trompe, n’hésiter pas à le signaler dans les commentaires.

Parmi les initiatives sur le sujet, je me dois cependant de signaler le fascinant récit que fait Faïza Zerouala, aujourd’hui journaliste à Mediapart, de sa rencontre avec un de ses trolls.

Ne plus prendre le trolling à la légère

J’ai l’impression qu’entre journalistes en ligne, la tendance naturelle est de minimiser les effets du trolling, d’en faire une blague, un truc agaçant mais au final insignifiant. Parce que reconnaître le contraire serait avouer une faiblesse pas très professionnelle.

Et le côté pervers, c’est que ce sont justement ceux qui se préoccupent le plus des lecteurs et échangent davantage avec leur communauté qui souffrent le plus quand ça tourne au vinaigre, comme le rappelait Martin Belam, un ex du Guardian, dans une analyse des communautés des sites d’actu.

Prendre en compte la souffrance de ses troupes, mettre en place des procédures en interne, prévoir des moments pour en parler… : les rédactions des médias en ligne, comme toutes les entreprises confrontées à un risque professionnelle, ont désormais cette responsabilité.

Hé, ce texte fait partie d’une série de notes consacrée au « journalisme en empathie » ! Voici le menu complet :