Tous les articles par Yann Guégan

Il y a un réseau social super auquel les journalistes ne pensent jamais

La mas­cotte d’un réseau social que les jour­na­listes devraient fré­quen­ter plus sou­vent.

Le social media en ce moment, c’est vrai­ment pas la joie.

Mon flux  Face­book res­sem­ble­rait à un fri­go vide, sans les publi­ci­tés venues s’empiler entre de rares posts de vraies gens, oubliés là comme un Tup­per­ware de gra­tin dau­phi­nois du mois der­nier.

Twit­ter est tou­jours aus­si bouillon­nant,  et la pra­tique des threads, qui consiste à racon­ter une petite his­toire au fil d’une série de tweets enchaî­nés, a su rani­mer mon inté­rêt. Mais vu l’ambiance délé­tère qui y règne, j’ai autant envie de par­ti­ci­per aux échanges que de trem­per mes orteils dans un mari­got rem­pli de caï­mans affa­més.

Lin­ke­din est à la mode, mais qui a vrai­ment envie de pas­ser du temps sur un réseau social où il faut enfi­ler un cos­tume cra­vate et cirer ses mocas­sins avant de se connec­ter ?

La chair est triste, hélas, sur­tout pour les vieux cons qui, comme moi, ont connu l’effervescence bon enfant de ces pla­te­formes à leurs débuts – sans par­ler des blogs qui les ont pré­cé­dés. Et la ten­ta­tion est grande de se replier sur un espace de dis­cus­sion réser­vé aux gens de bonne com­pa­gnie, qu’il s’agisse d’un groupe Face­book, d’une boucle What­sApp ou d’un chan­nel Slack.

Une passion pour le nettoyage industriel à haute pression

Pour­tant, il reste un endroit où on retrouve le plai­sir d’échanger avec des incon­nus qui fai­sait tout le sel de l’Internet de papa : Red­dit, et plus pré­ci­sé­ment sa par­tie fran­co­phone, vil­lage gau­lois résis­tant vaillam­ment à l’aseptisation des espaces numé­riques.

Red­dit, j’y ai créé un compte depuis 2011, atti­ré par les mèmes, les vidéos de chats et les GIFs ani­més qu’on y trouve à foi­son. Moins connu et plus ame­ri­ca­no-cen­tré que ses concur­rents, il compte quand même plus de 500 mil­lions d’utilisateurs, et semble déci­dé à accor­der plus de place à l’actualité, contrai­re­ment à Face­book.

Sept ans plus tard, je reste fas­ci­né par la taille et la vita­li­té des com­mu­nau­tés qui font vivre les subred­dits, sortes de forums orga­ni­sés autour de thé­ma­tiques, de centre d’intérêts et de marottes diverses.

Ces der­niers visent par­fois large : il y a /r/worldnews sur l’actualité, /r/soccer sur le foot, /r/politics sur la poli­tique amé­ri­caine… Mais les subs les plus inté­res­sants occupent des cré­neaux plus étroits, autour d’une série TV (/r/gameofthrones) , d’un type d’humour par­ti­cu­lier (/r/dadjokes) ou de féti­chismes ultra-poin­tus – grâce à /r/powerwashingporn, je viens de me décou­vrir une pas­sion inavouable pour le net­toyage indus­triel à haute pres­sion.

Jusqu’il y a peu, aller sur Red­dit était pour moi une façon très agréable de perdre encore plus de temps scot­ché à mon smart­phone, mais n’avait pas grand chose à voir avec une acti­vi­té jour­na­lis­tique sérieuse.

D’autant que les codes, le jar­gons, les pri­vate jokes en vigueur sur cette pla­te­forme font de sa décou­verte et de sa prise en main une expé­rience ingrate – mon­trer Red­dit à un col­lègue, c’est ris­quer de s’attirer des regards incré­dules voire hos­tiles, et se trim­ba­ler avec  une éti­quette « gros nerd » pen­dant le reste de son CDD.

Ambiance cœur-avec-les-mains dans le coin des Français

Les choses ont chan­gé avec la mon­tée en puis­sance de /r/france, sub fran­co­phone qui a  dépas­sé les 200 000 membres cet été. J’ai pris l’habitude d’y signa­ler les articles que je publie ici, agréa­ble­ment sur­pris par la qua­li­té de l’accueil reçu. Et le tra­fic reçu com­mence à être signi­fi­ca­tif : sur les 4 200 visi­teurs qui sont pas­sés sur mon info­gra­phie dédiée aux recettes de Mar­mi­ton, près de 900 venaient de /r/france.

Mais c’est sur­tout la qua­li­té des com­men­taires reçus qui m’a enthou­sias­mé.

Sur Face­book, je peux comp­ter sur mes proches et mon réseau pro­fes­sion­nel pour relayer mes petites pro­duc­tions. Un sou­tien agréable mais for­cé­ment biai­sé : dif­fi­cile de ne pas lâcher un like quand un de vos amis publie le résul­tat d’un tra­vail sur lequel il a trans­pi­ré plu­sieurs jours, voire plu­sieurs semaines.

Sur Twit­ter, beau­coup d’utilisateurs vont me ret­wee­ter ou publier un lien vers mes articles (mer­ci à eux !), par­fois accom­pa­gné d’un com­men­taire ou d’une cri­tique, mais la plu­part du temps ça ne va pas plus loin, sur­tout si l’attention géné­rale est rete­nue par la der­nière sor­tie d’Eric Zem­mour ou le énième clash entre Raphaël Entho­ven et Rokhaya Dial­lo.

Sur Red­dit, c’est une autre paire de bre­telles : tout ce que j’ai écrit va être scru­té à la loupe, mes gra­phiques et cartes ana­ly­sés en détail, mes erreurs ou rac­cour­cis signa­lés en quelques minutes.

Même les scripts infor­ma­tiques que je publie par­fois en accom­pa­gne­ment sont pas­sés en revue par des « red­di­teurs » bien plus calés que moi en code. (Les­quels, au pas­sage, me pro­posent par­fois leurs ser­vices pour une pro­chaine enquête, ambiance cœur-avec-les-mains.)

S’y aventurer reste une expérience risquée

La (rela­tive) bonne tenue des échanges sur Red­dit tient à ses deux prin­ci­paux atouts :

  • un algo­rithme qui trie les com­men­taires selon leur per­ti­nence et replie les posts les plus mal notés
  • une modé­ra­tion assu­rée par des béné­voles, qui édictent les règles des échanges sur chaque subred­dit et les font res­pec­ter. (Ce qui ne va pas sans créer des heurts et des polé­miques, comme celle qui a agi­té /r/france cet été.)

Comme tout bon subred­dit, /r/france n’a pas que des qua­li­tés : le nou­veau venu pour­ra se sen­tir exclu par le conte­nu dit « meta », soit l’humour auto­ré­fé­ren­tiel, auquel on n’entrave rien si on n’a pas sui­vi les échanges depuis quelque temps. Il fau­dra ain­si faire avec de mul­tiples réfé­rences à la guerre « pain au cho­co­lat » ver­sus « cho­co­la­tine », qui y a atteint des pro­por­tions qua­si nucléaires.

D’autres subred­dits fran­chouillards com­mencent aus­si à émer­ger, même s’ils souffrent sou­vent de la concur­rence de leur alter ego anglo­phone : /r/ligue1 pour le bal­lon rond, /r/paslegorafi pour les infos inso­lites, /r/vosfinances pour des conseils pognon.

Pour un jour­na­liste, s’aventurer sur Red­dit reste une expé­rience un peu ris­quée : le rejet glo­bal des médias, per­çus comme « puta­clics » ou par­ti­sans, s’y res­sent comme par­tout ailleurs.

Sur­tout, il faut être prêt à jouer le jeu des échanges, en défen­dant son tra­vail quand les cri­tiques ne sont pas jus­ti­fiées, en recon­nais­sant ses lacunes et ses erreurs quand elles le sont.

La recette : être utile, bienveillant, intelligent,  et surtout transparent

Aux Etats-Unis, le Washing­ton Post s’est fait remar­quer avec le compte /u/washingtonpost, qui poste bien sûr des liens vers les articles publiés sur le site, mais par­ti­cipe aus­si aux échanges dans les com­men­taires.

Il est ani­mé par Gene Park, un social media edi­tor qui connaît bien les usages de cette pla­te­forme. Bien­veillant, utile et intel­li­gent, son tra­vail a été salué par le site spé­cia­li­sé Nie­man­Lab :

« Si le Post a fini par être bien accep­té sur Red­dit, c’est pour une rai­son pas si sur­pre­nante : son compte joue vrai­ment la trans­pa­rence et accepte de répondre aux accu­sa­tions lan­cées contre le jour­nal, notam­ment le fait qu’il est déte­nu par le patron d’Amazon, Jeff Bezos. »

Park orga­nise notam­ment des AMA (pour « Ask me any­thing »), exer­cice très pri­sé sur Red­dit, qui consiste à lais­ser les uti­li­sa­teurs inter­vie­wer une per­son­na­li­té. Ça peut être un jour­na­liste de la rédac­tion, ou un qui­dam ayant mar­qué l’actualité, comme ce pré­sen­ta­teur météo de l’Alabama dont les bul­le­tins sur les oura­gans avaient été repé­rés pour leur qua­li­té.

(Encore à Rue89, j’avais copié cette for­mule pour lan­cer la rubrique Posez-moi vos ques­tions, qui a notam­ment accueilli un bié­ro­logue, une médaillée au JO ou encore l’écrivain Mar­tin Win­cler.)

Pour Park, « l’enjeu n’est pas de faire du tra­fic, mais de créer des liens avec l’audience ». En accom­pa­gnant le mou­ve­ment plu­tôt qu’en cher­chant à le créer arti­fi­ciel­le­ment :

« Les uti­li­sa­teurs de Red­dit postent très sou­vent des liens vers le Washing­ton Post. Nous allons cher­cher ces conver­sa­tions autour de nos articles et cher­chons à don­ner plus de contextes, et plus de réponses. Par­fois on a déjà publié d’autres conte­nus sur le même sujet, et je peux uti­li­ser mes connais­sances pour trans­mettre davan­tage de connais­sance. »

Red­dit m’intéresse parce qu’il per­met de recréer des liens entre les jour­na­listes et leur audience, ce qui me semble un étape indis­pen­sable si les médias veulent rega­gner la confiance du grand public (je sais, je radote). Les sites d’info peinent à créer des espaces de conver­sa­tion per­ti­nents sous leur propre ombrelle, alors pour­quoi ne pas essayer celui-là ?

Supprimer les services politiques, et 4 autres idées pour changer le journalisme

La jour­na­liste poli­tique Natha­lie Saint-Cricq lors du débat Macron-Le Pen

Comme chaque année, je suis allé man­ger du poulpe grillé et boire des Spritz décou­vrir les der­nières ten­dances au Fes­ti­val inter­na­tio­nal de jour­na­lisme de Pérouse, en Ita­lie. Je vous en ai rame­né cinq idées pour chan­ger le jour­na­lisme qui conti­nuent à me trot­ter dans la tête depuis mon retour.

1. Supprimer les services politiques dans les rédactions

L’idée vient de l’écrivain néer­lan­dais Joris Luyen­dijk, qui tenait le Ban­king Blog sur le site du Guar­dian. Il l’a expo­sée lors d’une confé­rence à la tona­li­té désa­bu­sée :

« Il faut sup­pri­mer les ser­vices poli­tiques des rédac­tions natio­nales, les jeter par la fenêtre. Et rem­pla­cer leurs repor­ters par des “fixers”, dont le job est d’aider leurs col­lègues des autres ser­vices à faire leur tra­vail.

Si je tra­vaille pour les pages éco­no­mie et que je tombe sur une affaire de cor­rup­tion à West­mins­ter, je devrais pou­voir me tour­ner vers un spé­cia­liste du Par­le­ment bri­tan­nique pour qu’il m’aide dans mon enquête.

Mais en pra­tique, ça n’arrive jamais : les jour­na­listes poli­tiques ont leur propres prio­ri­tés et ne par­tagent pas leurs contacts. Ils se contentent de la poli­tique poli­ti­cienne : les son­dages, les postes, les ambi­tions… en résu­mé, ils en font un “show busi­ness for ugly people”.»

« Jeter les ser­vices poli­tiques par la fenêtre » : for­mu­lée ain­si, la mesure paraît radi­cale. Mais le punk qui som­meille en moi ne peut pas s’empêcher de pen­ser que c’est une très bonne idée…

2. Arrêter de vendre des abonnements et proposer des adhésions à la place

C’est sans doute l’idée la plus enthou­sias­mante que je retiens de Pérouse cette année – si on s’est croi­sés depuis, il y a de bonnes chances que je vous en ai déjà par­lé, en fai­sant de grands mou­li­nets avec les mains.

Je résume à gros traits : le modèle de finan­ce­ment des médias par abon­ne­ment, qui a beau­coup séduit dans la pro­fes­sion ces der­nières années, a bien des avan­tages : indé­pen­dance vis-à-vis des annon­ceurs ; expé­rience uti­li­sa­teur amé­lio­rée par l’absence de publi­ci­tés for­cé­ment intru­sives ; lien plus direct entre la rédac­tion et son public.

Mais il a un incon­vé­nient majeur : en acti­vant un pay­wall, on impose au lec­teur de se créer un compte et de sor­tir sa carte bleue avant de pou­voir lire un article. Et on réduit dras­ti­que­ment les pos­si­bi­li­tés de cir­cu­la­tion et de reprise des infor­ma­tions publiées.

On peut tou­jours le désac­ti­ver pour cer­taines enquêtes jugées « d’utilité publique », mais on crée alors un dilemme cor­né­lien pour les équipes concer­nées, quand elles s’apprêtent à publier un conte­nu fort.

Faut-il le lais­ser en libre accès et espé­rer que le sur­plus de tra­fic géné­ré se trans­forme, in fine, en nou­veaux abon­nés ? Ou faut-il au contraire le réser­ver à ses lec­teurs actuels, pour s’assurer qu’ils en aient « pour leur argent » et ne pas réduire la valeur de leur achat ?

Les expé­riences menées par le News Reve­nue Hub offrent une troi­sième voie, déjà emprun­tée par le Guar­dian au Royaume-Uni, par Repor­terre, L’Imprévu ou le Bon­dy Blog en France. Ces der­niers ont fait le choix gar­der leurs conte­nus ouverts, et de pro­po­ser à tous les lec­teurs de deve­nir adhé­rents, si le pro­jet édi­to­rial pro­po­sé les séduit sur le long terme.

C’est le virage pris par le Hono­lu­lu Civil Beat,  à Hawaii, et Voice of San Die­go, deux sites qui pei­naient à recru­ter assez d’abonnés pour finan­cer repor­tages et enquêtes de fond. Dans les deux cas, les  reve­nus géné­rés ont net­te­ment aug­men­té : les rédac­tions ont décou­vert qu’une part signi­fi­ca­tive de leurs lec­teurs était prête à payer une dizaine de dol­lars par mois non pour accé­der à des conte­nus, mais pour sou­te­nir des pro­jets de jour­na­lisme de qua­li­té.

Mais pour réus­sir, le pas­sage du sub­scrip­tion model au mem­ber­ship model implique de trans­for­mer signi­fi­ca­ti­ve­ment la façon de tra­vailler des repor­ters concer­nés. Les voi­là for­cer de racon­ter davan­tage les cou­lisses de la fabri­ca­tion de l’information, d’expliquer les choix édi­to­riaux opé­rés ou encore de prendre réel­le­ment en compte les avis et les pro­po­si­tions de sujets des adhé­rents.

C’est ce qu’expliquait Mary Wal­ter-Brown, la fon­da­trice du News Reve­nue Hub, à Pérouse :

« Il faut un chan­ge­ment de culture pour que ça marche. Il faut pro­po­ser des contre­par­ties, comme le fait de pou­voir prendre un café avec les jour­na­listes pour dis­cu­ter avec eux.

Il faut déga­ger du temps pour que les repor­ters puissent pré­pa­rer des cam­pagnes d’emailing où ils se pré­sentent et pré­sentent leur tra­vail. Il faut pas­ser du temps à étu­dier les don­nées dis­po­nibles.

Si vous vous conten­ter juste de lan­cer une page mem­ber­ship sur votre site sans y consa­crer du temps et de l’énergie, les gens le ver­ront vite. A l’inverse, des ini­tia­tives simples peuvent avoir de grands résul­tats. »

Ça passe par­fois par de petites fonc­tion­na­li­tés malines, rap­pe­lait le cher­cheur Jay Rosen dans un autre ren­dez-vous péru­gin : lorsqu’un adhé­rent au site néer­lan­dais De Cor­res­pondent par­tage un article, les lec­teurs qui cliquent sur le lien géné­ré vont voir le nom de ce sou­tien s’afficher sur la page. De quoi don­ner envie de rejoindre le club.

Ce qui m’a frap­pé, c’est que ce modèle mem­ber­ship ne semble plus seule­ment réser­vé à des médias juniors ou mili­tants, mais qu’il pour­rait bien concer­ner bien plus de titres. L’approche pro­po­sée par le News Reve­nue Hub est d’ailleurs très busi­ness, et passe par la mise en place d’outils de rela­tion-client per­for­mants.

A titre per­son­nel, je suis abon­né (et même petit action­naire) des Jours, mais je ne vois aucune rai­son d’interrompre mon pré­lè­ve­ment si ce site décide de mettre ses conte­nus en libre accès. Et je suis prêt à parier que bien des lec­teurs de Media­ci­tés, du Quatre heures ou même de Libé­ra­tion feraient le même choix.

3. Mettre au point un fact-checking automatique et collaboratif

Réelle ten­dance de ces der­nières années, le fact-che­cking a du plomb dans l’aile depuis qu’on a décou­vert qu’il ne per­met­tait pas vrai­ment de lut­ter contre la dis­sé­mi­na­tion des fake news. Ça n’empêche pas les spé­cia­listes de conti­nuer à réflé­chir aux façons de l’améliorer.

Par­mi eux, Bill Adair, cher­cheur à l’université Duke et créa­teur de Poli­ti­fact, pion­nier amé­ri­cain dans ce domaine. Depuis quelques années, il trim­balle dans sa sacoche un vieux rêve : un outil qui per­met­trait de véri­fier en direct les pro­pos tenus par un poli­ti­cien, par exemple sous la forme d’un ban­deau incrus­té sur la retrans­mis­sion de son dis­cours par une chaîne info.

Com­plexe à mettre au point, une telle tech­no­lo­gie parais­sait hors de por­tée il y a quelques années. Mais les pro­grès et la popu­la­ri­sa­tion de l’intelligence arti­fi­cielle montrent qu’elle désor­mais est attei­gnable. L’application pour iPhone FactS­tream, que son équipe a récem­ment lan­cé, per­met­tait ain­si à ses uti­li­sa­teurs de rece­voir des noti­fi­ca­tions dès que Trump pro­non­çait une contre-véri­té lors de son dis­cours sur l’Etat de l’Union, en jan­vier.

OK, le texte que lisait Trump est dif­fu­sé aux jour­na­listes quelques heures avant, et les noti­fi­ca­tions étaient envoyées manuel­le­ment (par­fois avant même que Trump arrive au pas­sage concer­né, pour tenir compte des délais. Mais Adair ne compte pas s’arrêter là, et auto­ma­ti­ser davan­tage le pro­ces­sus.

Autre outil déve­lop­pé : Claim­Bus­ter, qui va détec­ter auto­ma­ti­que­ment dans n’importe quel dis­cours des pro­pos fac­tuels pou­vant être matière à un tra­vail de véri­fi­ca­tion. Une série de fact-che­ckers amé­ri­cains reçoivent ain­si une news­let­ter quo­ti­dienne four­nis­sant les faits détec­tés par exemple dans les inter­ven­tions des par­le­men­taires au Congrès, une matière qu’ils vont pou­voir trai­ter pen­dant la jour­née.

Pour mieux fact-che­cker, il est aus­si utile de fact-che­cker ensemble : ain­si, FactS­tream pro­pose des conte­nus venus de plu­sieurs sites d’information, par­fois concur­rents. Ces conte­nus sont struc­tu­rés via le bali­sage Claim­Re­view, ser­vant au réfé­ren­ce­ment et mis au point avec Google pour rendre plus visible les fact-che­ckings sur Google News et dans les résul­tats de recherche.

4. Rétablir la confiance des lecteurs pour qu’ils acceptent d’être bousculés

C’est deve­nu une tarte à la crème, et je ne suis pas le der­nier à la res­sor­tir régu­liè­re­ment du fri­go : les jour­na­listes doivent rega­gner la confiance de leur public s’ils veulent exis­ter dans des éco­sys­tèmes numé­riques ou l’information est sur­abon­dante et par­tout acces­sible.

Dans sa key­note à Pérouse, le cher­cheur new-yor­kais Jay Rosen pro­po­sait donc « d’optimiser les médias pour la confiance », plu­tôt que de les opti­mi­ser pour les clics ou les par­tages Face­book.

Il a cepen­dant vite recon­nu la fai­blesse der­rière ce rai­son­ne­ment : après tout, Breit­bart News aux Etats-Unis a la confiance de ses lec­teurs, et c’est même ce qui fonde son pou­voir de nui­sance  dans le débat démo­cra­tique :

« C’est facile d’obtenir leur confiance si vous ne faites que ren­for­cer les idées que vos lec­teurs ont déjà, et si vous dénon­cez les idées des autres. Trump le fait avec son compte Twit­ter. Comme source d’information, il est davan­tage cru que Fox News par les élec­teurs répu­bli­cains. »

(Toutes choses égales par ailleurs, on peut tenir le même rai­son­ne­ment en France avec des sites aux conte­nus mar­qués idéo­lo­gi­que­ment et jour­na­lis­ti­que­ment contes­tables, comme Rus­sia Today, Le Média ou Les­Crises.)

Ce constat l’amène à refor­mu­ler la ques­tion : « Com­ment com­bi­ner le res­pect des stan­dards de qua­li­té du jour­na­lisme, et en même temps créer de la confiance ?» Quitte à prendre, par­fois, son lec­teur à rebrousse-poil.

C’est un vaste chan­tier, qui passe, comme lorsqu’un média adopte le modèle de finan­ce­ment par adhé­sion, par une redé­fi­ni­tion glo­bale de l’offre édi­to­riale et des méthodes de tra­vail des jour­na­listes.

5. Fournir des services aux pigistes pour qu’ils se publient eux-mêmes

Teun Gau­tier en est convain­cu : le pro­blème actuel du jour­na­lisme n’est pas un pro­blème de demande – les lec­teurs veulent de l’information et sont prêts à la payer « si elle a de la valeur pour eux » – ni un pro­blème d’offre – « les coûts de pro­duc­tion baissent »,  et des tech­no­lo­gies autre­fois inac­ces­sibles sont désor­mais à por­tée de clic pour le pre­mier étu­diant en jour­na­lisme venu.

Un peu comme pour les pro­duc­teurs de melons, le pro­blème vient, selon le fon­da­teur du ser­vice De Coö­pe­ra­tie, des inter­mé­diaires. Entre les jour­na­listes et leur public, c’est la struc­ture de dis­tri­bu­tion de l’information qui est dys­fonc­tion­nelle, parce qu’elle n’est pas capable de géné­rer des reve­nus suf­fi­sants.

C’est le rôle des édi­teurs de presse qui doit donc chan­ger. Ils ne devraient plus cher­cher à enca­drer le tra­vail des jour­na­listes – en choi­sis­sant qui doit être embau­ché, en sélec­tion­nant ce qui doit paraître ou pas ou en com­man­dant des conte­nus qui doivent col­ler à des for­mats exis­tants.

Plu­tôt que de mul­ti­plier les confé­rences de rédac­tion pour rem­plir un che­min de fer pré­for­ma­té ou renou­ve­ler à marche for­cée une page d’accueil, les nou­veaux inter­mé­diaires devront cher­cher à accom­pa­gner des jour­na­listes free­lance, en leur four­nis­sant les ser­vices néces­saires à leur acti­vi­té.

Pour les iden­ti­fier, il faut se deman­der ce qu’on inven­te­rait si on fai­sait table rase des médias exis­tants. De quoi ont besoin les jour­na­listes ? Pêle-mêle : un outil de publi­ca­tion per­for­mant, de la visi­bi­li­té sur les réseaux sociaux, des solu­tions de moné­ti­sa­tion (paie­ment à l’article, crowd­fun­ding, adhé­sion…), de ser­vices de for­ma­tion, d’entraide, de relec­ture ou de cor­rec­tion, d’une bonne épargne retraite…

Ce modèle « de la ferme à la table » appli­qué au jour­na­lisme réduit la dis­tance entre le lec­teur et le repor­teur, et modi­fie aus­si la répar­ti­tion des reve­nus géné­rés, qui pro­fitent davan­tage au pro­duc­teur de l’information et moins à ceux char­gés de leur dis­tri­bu­tion

Ce qui a changé dans la liste des sujets préférés des médias français

Vous avez été nom­breux à mon­trer votre inté­rêt pour le tableau de bord des obses­sions, marottes et zones d’ombre des médias que j’ai publié début février. Je vais donc conti­nuer de le com­plé­ter et de l’améliorer dès que j’aurais un peu de temps devant moi, et lis­té dans ce post les der­niers chan­ge­ments.

Vendredi 5 octobre

Après une série de tests, affi­chage des gra­phiques mon­trant l’évolution du trai­te­ment d’un thème depuis un mois.

Lundi 6 août

La mise à jour des infor­ma­tions ne se fai­sait plus, la faute à un pro­blème sur le flux RSS d’un des médias. Pro­blème désor­mais répa­ré.

Samedi 10 février

  • Une dizaine de médias sup­plé­men­taires sont désor­mais étu­diés : Cour­rier inter­na­tio­nal, L’Equipe, Les Echos, La Tri­bune, Chal­lenges, Capi­tal, Repor­terre, L’imprévu, Bas­ta­mag, Contexte, Street­Press, The Conver­sa­tion.
  • Dans la liste des enti­tés, le clas­se­ment actuel et son évo­lu­tion par rap­port à la période pré­cé­dente est indi­qué, à la manière du Top 50.
  • Le script qui récu­père les titres et des­crip­tions des articles publiés par chaque média (via leur flux RSS) passe désor­mais une fois par heure, et non plus trois fois par jour, pour ne rien rater sur les sites qui publient beau­coup de conte­nu comme 20 minutes.
  • L’adresse du flux RSS uti­li­sé pour L’Express était erro­née et a été cor­ri­gée.
  • La qua­li­té du cor­pus uti­li­sé pour l’analyse a été beau­coup amé­lio­rée : pro­blèmes d’encodage réso­lus (Le Monde, Vice…), balises HTML mieux fil­trées (Mashable…), sup­pres­sion des retours cha­riots, retours à la ligne et tabu­la­tions.
  • Le cor­pus ne contient plus que les 150 pre­miers carac­tères de la des­crip­tion de chaque article publié, afin de ne pas défa­vo­ri­ser dans l’analyse les sites qui ne four­nissent qu’une des­crip­tion très courte dans leur fil RSS, comme Le Point.
  • Trois médias ne peuvent être étu­diés : Buzz­feed (conte­nus en anglais dans le fil RSS), Valeurs actuelles (fil RSS illi­sible), Télé­ra­ma (pas de fil RSS dis­po­nible).

Comment je prépare le tableau de bord des sujets les plus traités par les sites d’actu

Cap­ture d’écran d’un script Python

C’est sans doute le pro­jet le plus ambi­tieux et le plus com­plexe que j’aie mené à bien depuis que j’ai lan­cé Dans mon labo il y a bien­tôt quatre ans. Il m’a fal­lu pas mal d’après-midi plu­vieux et de jours fériés bla­fards pour ter­mi­ner le tableau de bord qui liste les sujets les plus pré­sents dans les sites d’actualité fran­çais.

Il est deve­nu pos­sible grâce aux pro­grès que j’ai réa­li­sés en Python, un lan­gage de pro­gram­ma­tion pri­sé des data­jour­na­listes. De mon côté, j’ai dû sérieu­se­ment m’y mettre cou­rant 2017, notam­ment pour affi­cher en direct les résul­tats des élec­tions légis­la­tives au sein de la carte inter­ac­tive que j’ai pré­pa­rée pour Contexte.

Pour explo­rer les flux XML mis à dis­po­si­tion par le minis­tère de l’Intérieur le soir des scru­tins, j’ai trou­vé en Python, avec sa syn­taxe acces­sible et ses mul­ti­plies librai­ries dis­po­nibles, un par­te­naire idéal. (Mais il est aus­si pos­sible de faire ça très bien avec d’autres solu­tions, comme R.)

Et ces connais­sances m’ont ouvert de nou­veaux hori­zons, notam­ment ceux de la recon­nais­sance auto­ma­ti­sée d’entités nom­mées. Un domaine qui, m’a-t-on expli­qué, a beau­coup pro­gres­sé grâce au patient tra­vail de des­crip­tion et de clas­se­ment réa­li­sé par les contri­bu­teurs de Wiki­pe­dia.

J’ai d’abord tra­vaillé, tou­jours pour Contexte, sur les thé­ma­tiques les plus pré­sentes dans le dis­cours des dépu­tés pour enri­chir le trom­bi­no­scope de l’Assemblée natio­nale que le site pro­pose à ses abon­nés. C’est alors que m’est venue l’idée de pro­po­ser une démarche com­pa­rable, mais avec les médias en ligne.

1. Scraper les flux RSS des sites d‘actu avec Python

J’ai lis­té, dans une Google Sheet, les sites que je sou­hai­tais étu­dier, en ren­sei­gnant pour cha­cun l’adresse de son flux RSS prin­ci­pal.

Mon script de scra­ping (dis­po pour les curieux) com­mence par récu­pé­rer cette liste, et va cher­cher dans chaque flux le titre et la des­crip­tion (le cha­pô ou le début du texte) de chaque article. Il récu­père aus­si sa date de publi­ca­tion, et enre­gistre le tout dans un fichier Json dédié à chaque site.

Tous les flux RSS n’étant pas construits de la même façon, il a fal­lu prendre en compte les dif­fé­rents cas de figure : ain­si, le résu­mé de l’article se trouve dans un élé­ment qui peut être nom­mé « des­crip­tion », « sum­ma­ry », « content»…

2. Créer un corpus de textes et le faire analyser par TextRazor

La suite de ce script va conca­té­ner ensemble les titres et résu­més de chaque article publiés dans une période don­née pour en faire un seul et même texte.

Ce cor­pus va ensuite être envoyé à Tex­tRa­zor, via la librai­rie Python que met à dis­po­si­tion ce ser­vice d’analyse séman­tique. Ce der­nier est gra­tuit jusqu’à 500 requêtes par jour, un quo­ta lar­ge­ment suf­fi­sant pour ce pro­jet.

Par­mi les ser­vices équi­va­lents, Tex­tRa­zor a un autre avan­tage : non seule­ment son outil d’extraction des enti­tés nom­mées ren­voie la liste des thé­ma­tiques détec­tées au sein du cor­pus sou­mis, mais il four­nit aus­si pour cha­cune un score de rele­vance (« per­ti­nence », que j’ai fina­le­ment tra­duit en « pré­sence » dans mon tableau de bord).

Ain­si, s’il détecte les mots « GPA », « ges­ta­tion pour autrui » ou « mère por­teuse » dans un texte, Tex­tra­zor réunit ses expres­sions dans une seule thé­ma­tique (en géné­ral le titre de la notice Wiki­pe­dia dédiée). Et donne à cette der­nière une note, de 0 à 1, selon que l’entité lui semble plus ou moins per­ti­nente dans le texte four­ni.

C’est à la fois la force et la fai­blesse de ma méthode : ce sco­ring me per­met de géné­rer les mul­tiples clas­se­ments, mais je n’ai pas « la main » sur son éla­bo­ra­tion.

Mal­gré quelques mau­vaises sur­prises, l’observation des résul­tats obte­nus m’a toute fois ras­su­ré : Le Pari­sien est en géné­ral le média où le thème « Paris » est le plus pré­sent ; on retrouve sou­vent « Jean-Luc Mélen­chon » bien clas­sé dans les résul­tats de Poli­tis ; Sput­nik et RT France sont bien pla­cés au clas­se­ment pour le thème « Vla­di­mir Pou­tine ».

4. Héberger les scripts sur un serveur chez PythonAnywhere

Cette par­tie-là du chan­tier serait une pro­me­nade de san­té pour un déve­lop­peur back-end même débu­tant. A un jour­na­liste bidouilleur comme moi, elle a pris pas mal de temps et d’énergie.

Une fois le script Python décrit ci-des­sus ter­mi­né, je ne pou­vais pas l’exécuter moi-même plu­sieurs fois par jour sur mon ordi­na­teur afin de dis­po­ser de don­nées tou­jours fraîches pour ali­men­ter un éven­tuel tableau de bord.

Sur les conseils d’amis déve­lop­peurs, j’ai regar­dé plu­sieurs offres d’hébergement comme Ama­zon Web Ser­vices ou Google Cloud Plat­form, mais la lon­gueur des pro­cé­dures d’installation et des tuto­riels pro­po­sés m’a vite refroi­di. Je me suis rabat­tu sur Python Anyw­here. un ser­vice peu oné­reux et qui s’est révé­lé mieux adap­té à un noob comme moi.

Même avec cette solu­tion, je suis pas­sé par mal, de guides d’utilisation, de pages d’aide et de ques­tions Stack Over­flow avant d’arriver mes fins : faire tour­ner mon script de scra­ping plu­sieurs fois par jour.

4. Créer le tableau de bord en front à partir d’un fichier Json optimisé

Une fois toutes ces listes de thé­ma­tiques récu­pé­rées et enre­gis­trées dans le fichier Json de chaque média, un autre script Python, lui aus­si héber­gé sur Pytho­nA­nyw­here, va pré­pa­rer un fichier Json com­mun et de taille réduite.

Ce der­nier sera récu­pé­ré, au moment où le tableau de bord publié Dans mon labo se charge, par votre navi­ga­teur.  Au final, c’est donc Chrome, Fire­fox ou Edge qui va construire l’infographie à l’intérieur de la page.

Je ne détaille­rais pas sur ce tra­vail de déve­lop­pe­ment front-end, clas­sique com­bi­nai­son de HTML, de CSS et de Javas­cript, mais si vous avez des ques­tions sur cette par­tie, je serai ravi d’y répondre !

A ce stade, la prin­ci­pale dif­fi­cul­té pour moi a été de s’assurer que le char­ge­ment des don­nées puis la construc­tion de l’infographie se fasse dans un délai rai­son­nable : lors des pre­mières étapes, le tout pre­nait par­fois une bonne dizaine de secondes, ce qui es rédhi­bi­toire.

Pour chaque média, j’ai choi­si de ne pas inté­grer une thé­ma­tique si son score était infé­rieur à un cer­tain seuil (en ce moment, 0,4/1), et de n’afficher une thé­ma­tique dans la liste prin­ci­pale que si elle était pré­sente dans au moins quatre médias.

Il m’a fal­lu pas mal d’allers-retours entre scripts Python sur le ser­veur et code Javas­cript dans le navi­ga­teur pour réduire ce délai et obte­nir une expé­rience suf­fi­sam­ment fluide, mais il  reste sans doute pas mal d’optimisation pos­sible.

5. Préparer la suite avec des analyses hebdomadaires et mensuelles

Comme beau­coup l’ont fait remar­quer dès la publi­ca­tion du tableau de bord, les résul­tats seront inté­res­sants à obser­ver dans le temps, au-delà de la pho­to­gra­phie actuelle (les sept der­niers jours). Mon script réa­lise déjà des ana­lyses heb­do­ma­daires et men­suelles, qui ne sont pas affi­chées mais que j’espère uti­li­ser quand j’aurais davan­tage de recul. (Edit le 5 octobre : des gra­phiques s’affichent désor­mais pour chaque thé­ma­tique, j’y reviens dans un thread sur Twit­ter)

Voi­là ! Je suis en tout cas curieux de savoir vos remarques, cri­tiques ou pro­po­si­tions d’amélioration dans les com­men­taires de ce post ou bien, pour les timides, dans un mes­sage pri­vé.

Mis à jour le 2/2 à 10h15. Pré­ci­sion sur les seuils (point 4) et point 5 ajou­té.

Obsessions, marottes et zones d’ombre : voici les sujets préférés de 60 sites d’info français

Dans une rédac­tion, la ligne édi­to­riale, c’est comme le dahu : tout le monde en parle, mais per­sonne ne l’a jamais vue. Elle struc­ture pour­tant le tra­vail quo­ti­dien des jour­na­listes ; c’est en son nom qu’on va accep­ter ou refu­ser une idée de sujet ou d’angle. Et quand elle est absente ou bien trop floue, ce n’est sou­vent pas bon signe.

Pour ten­ter de repré­sen­ter ces fameuses lignes, j’ai mis au point ce tableau de bord, qui montre les thé­ma­tiques les plus pré­sentes sur une soixan­taine de sites d’actualité dans les sept der­niers jours, le tout rafraî­chi trois fois par jour.

Encore expé­ri­men­tales, ces listes sont géné­rées auto­ma­ti­que­ment, grâce à la recon­nais­sance d’entités nom­mées dans un cor­pus spé­ci­fique à chaque média. Cet agglo­mé­rat de texte est for­mé avec les infor­ma­tions dis­po­nibles au sein de son flux RSS prin­ci­pal – je reviens en détail sur la métho­do­lo­gie uti­li­sée dans un autre post.

Mis à jour le 5/10/2018. L’infographie a pas mal évo­lué depuis sa publi­ca­tion, voir la liste des chan­ge­ments dans ce post.

 

Bataille de bouffe ! Découvrez les ingrédients et recettes préférés des Français

Met­tez deux Fran­çais ensemble, et il y a de bonnes chances qu’après quelques minutes, ils se mettent à par­ler de bouffe, qu’il s’agisse du der­nier res­tau­rant à la mode ou de cette recette exclu­sive de moel­leux au cho­co­lat qu’ils sortent du tiroir pour les grandes occa­sions.

Mais quels sont les ali­ments et les pré­pa­ra­tions pré­fé­rés des Fran­çais ? Pour le savoir, j’ai « aspi­ré » les don­nées d’un des sites de recettes les plus popu­laires, Mar­mi­ton, Vous pou­vez décou­vrir les résul­tats en lan­çant des batailles d’ingrédients dans l’infographie ci-des­sous.

Pour cal­cu­ler le score d’un ingré­dient, j’ai d’abord récu­pé­ré toutes les recettes qui le contiennent, grâce à un script en Python. Ensuite j’ai mul­ti­plié, pour cha­cune de ces der­nières, le nombre d’avis d’internautes par la note moyenne obte­nue. Et j’ai addi­tion­né le tout.

Je n’ai gar­dé que les 1 130 ingré­dients qui appa­raissent dans au moins 10 recettes, et opé­ré pas mal de regrou­pe­ments pour obte­nir des résul­tats plus per­ti­nents (par exemple, « échine de porc », « côtes de porc » ou « esca­lope de porc » sont toutes regrou­pées dans l’ingrédient « porc »). La liste rete­nue contient fina­le­ment 871 entrées, de A comme « abri­cot » à Y comme « yaourt ».

Il m’a aus­si fal­lu créer une cin­quan­taine de caté­go­ries (de « viandes » à « pro­duits lai­tiers » en pas­sant par « bon­bons » ou « cham­pi­gnons ») afin de géné­rer les clas­se­ments. N’hésitez pas à me signa­ler des erreurs ou des bizar­re­ries dans les com­men­taires ou en me contac­tant, afin que je les cor­rige.

Vous pou­vez aus­si consul­ter les don­nées sur les ingré­dients comme celles sur les caté­go­ries, pour les réuti­li­ser si vous le sou­hai­tez.

 

Comment j’ai réalisé les cartes de France de la VO et de la VF

Comme sou­vent, le tra­vail que j’ai réa­li­sé pour ma petite enquête sur la France de la VO et celle de la VF met en jeu toute une série d’outils que j’ai décou­vert au fil des ans, qu’il s’agisse de scra­ping, de join­tures de tables ou de repré­sen­ta­tion par ana­mor­phoses. L’ensemble des don­nées dont je me suis ser­vi est dis­po­nible dans une Google Sheet.

Je vais en décrire les dif­fé­rentes étapes, ce qui peut être utile si vous sou­hai­tez vous lan­cer dans un chan­tier com­pa­rable. N’hésitez pas à mettre votre grain de sel dans les com­men­taires.

1. Récupérer la liste des séances avec un scraping en deux étapes avec Outwit Hub

Pour com­men­cer, il fal­lu que je me consti­tue une base conte­nant l’ensemble des salles de ciné­ma de France. Par chance, le site Cine­fil pro­pose des pages lis­tant tous les cinés d’un dépar­te­ment (par exemple, ceux situés dans l’Ain).

J’ai d’abord géné­ré auto­ma­ti­que­ment une URL pour chaque dépar­te­ment sur cinefil.com dans Google Sheet. J’ai ouvert cette pre­mière liste dans Out­wit Hub, un logi­ciel de scra­ping qui m’a per­mis de ras­sem­bler une liste de 1 409 salles. Pour cha­cune, j’ai aus­si récu­pé­ré l’URL de sa page sur cinefil.com.

Sur ces 1 409 URL, j’ai fait pas­ser un second scra­per, afin de récu­pé­rer la liste des films dif­fu­sés dans chaque salle sur une jour­née, avec les horaires des séances et la ver­sion dif­fu­sée (VF ou VO). J’ai obte­nu ain­si une liste de 14 423 films et de 20 182 séances.

2. Déterminer la langue de tournage dans chaque film avec OMDB

Après quelques heures de tra­vail, je me suis aper­çu d’une chose toute bête mais qui m’avait échap­pé : sur Cine­fil, les séances des films en langue fran­çaise sont indi­quées « en VF », ce qui ne per­met pas de les dif­fé­ren­cier auto­ma­ti­que­ment des films en langue étran­gère dif­fu­sés en VF…

Il a donc fal­lu que j’établisse une liste des 982 films dif­fé­rents dif­fu­sés sur toute la France ce jour-là (le 28 avril), et que je trouve un moyen de déter­mi­ner, pour cha­cun d’entre eux, s’il s’agit à l’origine d’un film tour­né en langue fran­çaise ou en langue étran­gère.

L’API Omdb m’a per­mis de récu­pé­rer cette infor­ma­tion dans un bon nombre de cas, par l’intermédiaire de Cloud Ignite, un module com­plé­men­taire de Google Sheet par­ti­cu­liè­re­ment pra­tique.

Pour le reste, j’ai réa­li­sé des croi­se­ments – par exemple, un film qui n’est dif­fu­sé qu’en VO sur toute la France ne peut être qu’un film en langue étran­gère – et des déduc­tions – par exemple, une copro­duc­tion France/Suisse/Belgique a de bonnes chances d’être tour­née en fran­çais.

Ce tri s’est révé­lé fas­ti­dieux et le résul­tat n’est pas garan­ti sans erreurs, mais j’ai esti­mé sa fia­bi­li­té suf­fi­sante pour conti­nuer à avan­cer, en met­tant de côté tous les films en langue fran­çaise.

3. Géolocaliser chaque salle de cinéma avec ezGecode

J’avais déjà récu­pé­ré l’adresse et le code pos­tal de chaque ciné­ma sur sa page Cine­fil. Pour en déduire sa lati­tude et sa lon­gi­tude, j’ai uti­li­sé un autre module com­plé­men­taire de Google Sheet, ezGeo­code.

La grande majo­ri­té des salles a ain­si été géo­lo­ca­li­sée auto­ma­ti­que­ment et avec une très bonne fia­bi­li­té, et j’ai réus­si à pla­cer le reste grâce à des recherches manuelles dans Google Maps.

 4. Déterminer le code commune pour chaque salle de cinéma

Afin de « marier » la base que je me suis ain­si consti­tuée avec les don­nées démo­gra­phiques four­nies par l’Insee ou les résul­tats élec­to­raux dis­po­nibles sur le site du minis­tère de l’Intérieur, il me fal­lait déter­mi­ner le code Insee de la com­mune où se trouve cha­cun des ciné­mas de ma liste.

J’ai pu le faire grâce à une table de cor­res­pon­dances et à la base offi­cielle des codes pos­taux, toutes deux dis­po­nibles sur Data.gouv.fr. Une série de recherches ver­ti­cales plus tard, j’avais pour chaque salle de ciné­ma des infor­ma­tions comme la popu­la­tion de la ville, le taux de pau­vre­té, le vote Macron…

Des tableaux croi­sés dyna­miques m’ont ensuite per­mis de conso­li­der les résul­tats pour cha­cune des 278 loca­li­tés fran­çaises pour­vues d’au moins une salle de ciné­ma (avec au moins une séance pro­gram­mée ce jour-là), puis pour chaque dépar­te­ment.

5. Réaliser les deux cartes interactives avec Carto

J’ai ensuite pré­pa­ré deux séries de don­nées, l’une avec toutes les salles où la part de la VO est majo­ri­taire (#team­vo), et l’autre avec les salles plu­tôt VF (#teamvf).

J’ai créé deux cartes basées sur ces jeux dans Car­to, et j’ai ajou­té dans cha­cune d’elle un calque sup­plé­men­taire, avec les contours de chaque dépar­te­ment et une cou­leur en fonc­tion de la part de la VO ou de la VF à cette échelle.

J’ai pas­sé pas mal de temps à cher­cher des réglages satis­fai­sants pour la taille des cercles, les nuances de cou­leurs ou encore la répar­ti­tion des dépar­te­ments en cinq caté­go­ries (choix des inter­valles).

6. Réaliser les cartes anamorphosées avec Qgis et Scapetoad

J’avais déjà uti­li­sé les ana­mor­phoses (car­to­grams en anglais) pour une série de cartes du monde tel que le voient les médias fran­çais qui avait tapé dans l’œil de pas mal d’observateurs. J’avais envie de com­men­cer mon article avec ce type de visiuels, que je trouve facile à appré­hen­der même pour des lec­teurs peu friands d’infographies.

J’ai récu­pé­ré un tra­cé des dépar­te­ments fran­çais au for­mat sha­pe­file sur OpenS­treet­Map.

J’ai ouvert ce fichier dans l’éditeur de cartes Qgis afin d’associer à chaque dépar­te­ment le nombre de séances en VO et en VF pour un mil­lion d’habitants.

C’est sur la base de ces deux don­nées que j’ai réa­li­sé les défor­ma­tions de la carte de France dans Sca­pe­Toad, un petit uti­li­taire dédié à la créa­tion d’anamorphoses.

7. Créer une série de graphiques dans Datawrapper

Pour ter­mi­ner, j’ai repris une der­nière fois mes don­nées pour iso­ler une série de chiffres de syn­thèse afin de créer les gra­phiques de syn­thèses qui figurent à la fin de l’article, en repre­nant les codes cou­leur.

La France de la VO et celle de la VF : les cartes d’une fracture française

La France de la VO
La France de la VF

Ça fait par­tie de ces com­bats qui divisent les Fran­çais en deux camps irré­con­ci­liables. Comme la guerre sans mer­ci du « pain au cho­co­lat » et de la « cho­co­la­tine », ou le conflit sécu­laire entre la tar­tine au beurre salé et celle au beurre doux.

De même, il y a ceux qui ne jurent que par la ver­sion ori­gi­nale sous-titrée (VO) – quitte à pas­ser son temps à lire les sous-titres plu­tôt qu’à pro­fi­ter de lpoac­tion et des dia­logues – et ceux qui ne peuvent pas vivre sans la ver­sion fran­çaise (VF) – quitte à subir des tra­duc­tions et des dou­blages pas tou­jours par­faits.

His­toire de frus­trer un peu tout le monde, les ciné­mas ne pro­posent pas for­cé­ment les deux ver­sions. Sur les deux ana­mor­phoses en haut de cet article, plus un dépar­te­ment est gros et plus ses habi­tants se voient pro­po­ser de séances en VO (à gauche, en rouge) ou de la VF (à droite, en vert).

Sur une journée, 20 182 séances de cinéma dans 1 400 salles

Pour les réa­li­ser, j’ai récu­pé­ré, grâce à un scra­per, l’intégralité des séances dis­po­nibles sur un site spé­cia­li­sé pour la jour­née du 28 avril 2017. Soit plus de 20 182 séances, dans plus de 1 400 ciné­mas de France et de Navarre, pro­je­tant un total de 981 films dif­fé­rents.

Par­mi ces der­niers, j’en ai iden­ti­fié 549 en langue étran­gère (non sans mal, comme je l’explique dans un autre post sur site, où je reviens sur la méthode uti­li­sée) pour un total de 14 223 séances, dont 2 964 en VO.

Dans cer­taines régions, la VO est réser­vée aux petites salles de centre-ville ou aux ciné­mas art et essai. Mais cer­tains réseaux de mul­ti­plexes pro­gramment aus­si un nombre impor­tant de séances en VO, comme UGC.

Si on passe à l’échelon des villes, c’est bien sûr à Paris que sont pro­po­sées le plus de séances en VO. Mais la ban­lieue et la pro­vince se défendent, avec Mon­treuil, Biar­ritz et Hérou­ville-Saint-Clair en tête devant la capi­tale si on prend compte la part totale des séances en VO.

A l’inverse, il y a des coins de France où on vous recom­mande pas de démé­na­ger si vous êtes #team­vo. Dans cinq dépar­te­ments, aucune séance en VO n’était pro­po­sée dans la jour­née :

  • l’Ariège
  • la Creuse
  • la Haute-Saône
  • l’Indre
  • l’Orne

Les villes avec VO et les villes avec VF

Mais pour­quoi les ciné­mas d’une ville pro­posent-ils de la VO alors que ceux de la ville d’à côté se contentent de la VF ? Le goût pour la VO est lié à la richesse des habi­tants, à leur niveau d’éducation, où bien à leur choix poli­tique ?

Sur les 1 133 loca­li­tés étu­diées, plus de 65% ne pro­po­saient aucune séance en VO dans leurs salles de ciné­ma. Pour explo­rer mes don­nées, j’ai donc répar­ti la liste en deux deux camps : les villes avec VO et les villes sans VO.


J’ai ensuite asso­cié mes résul­tats à une série de sta­tis­tiques de l’Insee, à com­men­cer par la popu­la­tion (en 2014). Sans sur­prise, ce sont dans les loca­li­tés les plus peu­plées qu’on a le plus de chances se trou­ver des séances en VO.

Ça semble logique : comme la majo­ri­té des Fran­çais pré­fère la VF, pro­po­ser de la VO n’est com­mer­cia­le­ment inté­res­sant que si la salle se trouve dans une zone suf­fi­sam­ment peu­plée pour qu’on y trouve un nombre suf­fi­sant d’amateurs de ver­sions sous-titrées.

Dans les deux camps, le niveau de vie médian est proche. On peut faire l’hypothèse que la VO n’est pas « un truc de riches»…

… ce que semble confir­mer la com­pa­rai­son du taux de pau­vre­té médian des deux séries de villes.

En revanche, si on s’intéresse à la part de la popu­la­tion ayant sui­vi des études supé­rieures, la dif­fé­rence est nette.

Je vois au moins une cau­sa­li­té pos­sible à cette cor­ré­la­tion : plus on étu­die, plus on est à l’aise avec la lec­ture, et moins on est gêné quand on doit pas­ser du temps à lire les dia­logues en bas de l’écran. Ce qui pour­rait inci­ter les gérants de salle de la loca­li­té concer­née à pri­vi­lé­gier les copies en VO.

J’ai aus­si croi­sé mes don­nées avec les résul­tats du pre­mier tour de la pré­si­den­tielle 2017. Les villes sans VO ont ten­dance à voter davan­tage pour Le Pen et moins pour Macron et Mélen­chon que les autres. Si la pré­si­den­tielle ne s’était jouée que dans les villes avec VO, Mélen­chon aurait été qua­li­fié pour le second tour.


Voi­là ! Evi­dem­ment, ce tra­vail est très par­cel­laire, et la méthode que j’ai uti­li­sée sûre­ment contes­table. Je ne suis pas spé­cia­liste de l’étude des pra­tiques cultu­relles, et je ne sais pas si cette grande frac­ture fran­çaise a fait l’objet d’enquêtes plus pous­sées. [ajout le 27/7 à 17h20 : Vod­kas­ter a fait un point assez com­plet sur le sujet en 2016]

Je serais en tout cas ravi d’en savoir plus, donc n’hésitez pas à des­cendre don­ner votre avis un peu plus bas dans les com­men­taires, et à aller explo­rer ces don­nées, qui sont dis­po­nibles dans une Google Sheet.

Cor­ri­gé le 21/7 à 10h20. Inver­sion des barres dans les gra­phique niveaux de vie et part des diplô­més du supé­rieur.

Mis à jour le 21/7 à 11h45. Ajout du gra­phique consa­cré aux réseaux de mul­ti­plexes.

Cor­ri­gé le 1/10 à 21h10. Inver­sion des barres dans le gra­phique popu­la­tion.

Les journalistes ne devraient plus se cacher pour pleurer

« C’est pas si grave, ça se passe comme ça sur Inter­net, il faut que tu t’endurcisses. » C’est une phrase que j’ai pu pro­non­cer quand j’étais rédac­teur en chef adjoint de Rue89 et qu’un jour­na­liste de l’équipe était pris pour cible par des mal­fai­sants dans les com­men­taires ou sur Twit­ter.

Et c’est une réac­tion tota­le­ment contre-pro­duc­tive. C’est en tout cas l’avis de Gavin Rees, direc­teur du Dart Cen­ter Europe, orga­ni­sa­tion venant en aide aux jour­na­listes confron­tées à des situa­tions vio­lentes, expri­mé pen­dant un débat sur ce sujet au fes­ti­val de jour­na­lisme de Pérouse, début avril :

« Il faut en par­ler entre col­lègues, il faut qu’on vous ras­sure sur votre tra­vail, sur ce que vous avez écrit, qu’on vous dise que ce n’est pas votre faute. Il ne faut pas que ce soit une ques­tion taboue, sinon ils ont gagné. »

Pra­ti­quer le « jour­na­lisme en empa­thie », thème d’une série de posts que je ter­mine avec ce texte, c’est aus­si se pré­oc­cu­per davan­tage de ses col­lègues, quand tous ceux qui prennent la parole en ligne sont plus expo­sés que jamais.

OK, les journalistes sont des durs à cuire, mais ils sont de plus en plus attaqués

L’idée que le jour­na­liste est un dur à cuire imprègne encore les ima­gi­naires, et on la retrouve dans plé­thore de films et de séries. Ce sont des repor­ters de guerre qui se pré­ci­pitent au plus près des bombes. Des enquê­teurs qui ne mangent que des sand­wichs et ne boivent que du whis­ky tant qu’ils n’ont pas sor­ti leur scoop. Des rédac­teurs en chef à bre­telles qui pestent en per­ma­nence mais ont l’instinct affû­té et le flair imbat­table.

Com­ment des types aus­si indes­truc­tibles pour­raient-ils se sen­tir meur­tris par de simples trolls ? Peut-être parce que les attaques de ces der­niers se mul­ti­plient et sont de mieux en mieux orga­ni­sées. Tou­jours à Pérouse, Michelle Fer­rier, fon­da­trice de Troll­Bus­ters, a rap­pe­lé des chiffres alar­mants :

« Aux Etats-Unis, 40% des femmes qui publient du conte­nu en ligne sont vic­times de har­cè­le­ment, prin­ci­pa­le­ment sur Twit­ter : des pro­pos hai­neux, racistes ou hai­neux ou encore la publi­ca­tion d’informations pri­vées. Plus de 80% des jour­na­listes estiment que leur tra­vail est plus dan­ge­reux qu’avant. »

Son orga­ni­sa­tion a mis au point trois armes pour lut­ter contre les trolls :

  • Une équipe de secours d’urgence : une com­mu­nau­té d’utilisateurs qui peut être mobi­li­sée quand un jour­na­liste est vic­time de ce genre d’attaques, notam­ment pour répondre et contre-atta­quer col­lec­ti­ve­ment.
  • Un tra­vail d’enquête sur leur orga­ni­sa­tion et leurs méthodes, en se ser­vant de tech­no­lo­gies d’étude de réseau.
  • Du sup­port spé­cia­li­sé, par exemple pour aider un ser­vice tech­nique confron­té à une attaque en déni de ser­vice, mais aus­si pour des conseils juri­diques ou un sou­tien psy­cho­lo­gique.

« Les rédactions doivent protéger leurs employés en utilisant tous les recours possibles »

S’il met tout en œuvre, au sein du Coral Pro­ject, pour ame­ner les jour­na­listes à dia­lo­guer davan­tage avec leur audience, Greg Bar­ber recon­naît que la conver­sa­tion est par­fois impos­sible, et que les médias en ligne doivent en tenir compte :

« On raconte quand des jour­na­listes sont mena­cés à l’étranger. mais il faut le faire aus­si quand ça arrive chez nous. Les médias doivent pro­té­ger leurs employés en uti­li­sant tous les recours pos­sibles. »

Le dia­gramme “Com­ment réagir au har­cè­le­ment en ligne” édi­té par Troll­bus­ters.

Troll­Bus­ters a publié un dia­gramme ins­truc­tif résu­mant les réac­tions pos­sibles quand on est vic­time de har­cè­le­ment en ligne.

A ma connais­sance il n’y a pas d’organisation équi­va­lente en France, mais si je me trompe, n’hésiter pas à le signa­ler dans les com­men­taires.

Par­mi les ini­tia­tives sur le sujet, je me dois cepen­dant de signa­ler le fas­ci­nant récit que fait Faï­za Zeroua­la, aujourd’hui jour­na­liste à Media­part, de sa ren­contre avec un de ses trolls.

Ne plus prendre le trolling à la légère

J’ai l’impression qu’entre jour­na­listes en ligne, la ten­dance natu­relle est de mini­mi­ser les effets du trol­ling, d’en faire une blague, un truc aga­çant mais au final insi­gni­fiant. Parce que recon­naître le contraire serait avouer une fai­blesse pas très pro­fes­sion­nelle.

Et le côté per­vers, c’est que ce sont jus­te­ment ceux qui se pré­oc­cupent le plus des lec­teurs et échangent davan­tage avec leur com­mu­nau­té qui souffrent le plus quand ça tourne au vinaigre, comme le rap­pe­lait Mar­tin Belam, un ex du Guar­dian, dans une ana­lyse des com­mu­nau­tés des sites d’actu.

Prendre en compte la souf­france de ses troupes, mettre en place des pro­cé­dures en interne, pré­voir des moments pour en par­ler… : les rédac­tions des médias en ligne, comme toutes les entre­prises confron­tées à un risque pro­fes­sion­nelle, ont désor­mais cette res­pon­sa­bi­li­té.

Hé, ce texte fait par­tie d’une série de notes consa­crée au « jour­na­lisme en empa­thie » ! Voi­ci le menu com­plet :

« Merci de supprimer l’article me concernant » : le journaliste face à la fragilité de ses sources

Des enfants dans un centre pour réfu­giés à Athènes (Mar­tin Leve­neur/­Fli­ckr/CC-BY-ND)

La scène se passe en juin 2016, à Les­bos, en Grèce. Le jour­na­liste Marc Her­man est en train d’interroger Zozan Qera­ni sur son par­cours jusqu’au camp de réfu­giés ins­tal­lé sur l’île, et toutes les épreuves qu’elle a du tra­ver­ser.

Sou­dain, la jeune Kurde yazi­di s’effondre, le corps pris de convul­sions. En dis­cu­tant avec les méde­cins pré­sents, Her­man com­prend que c’est le fait même de devoir racon­ter son his­toire une nou­velle fois qui a déclen­ché cette crise.

Le cofon­da­teur de l’agence Deca a racon­té dans un témoi­gnage les inter­ro­ga­tions éthiques que cet épi­sode a sus­ci­tées en lui. « Près de 50% des réfu­giés souffrent de troubles psy­cho­lo­giques, qu’il s’agisse d’anxiété, de dépres­sion, ou de stress post-trau­ma­tiques, détaillait-il dans un panel du fes­ti­val de jour­na­lisme de Pérouse, début avril. Est-ce qu’on doit les inter­vie­wer comme si de rien n’était ?»

Si ça saigne, ça doit faire la une !

Pour Marc Her­man, l’empathie avec son sujet est aus­si pas­sée par le choix des pho­tos accom­pa­gnant son texte. Le pho­to­graphe qui l’accompagnait n’a pas pris d’images de Zozan Qera­ni en train de convul­ser par terre, mais après la crise, debout dans les bras de son com­pa­gnon ou allon­gée sur un lit de camp.

On peut aus­si avoir cet impé­ra­tif en tête au moment de rédi­ger un article ou de choi­sir son titre. En refu­sant, par exemple, de com­men­cer un texte par la scène la plus vio­lente ou la plus dure, comme le veut la règle « if it bleeds, it leads » (« si ça saigne, il faut le mettre en une »).

Déve­lop­per un rap­port plus res­pec­tueux et plus humain avec les femmes et les hommes qui font, sou­vent à leurs dépens, l’actualité : voi­là une autre piste de réflexion pour le « jour­na­lisme en empa­thie », une idée que je déve­loppe dans une série de notes sur ce site depuis quelques semaines.

Protéger ses sources, c’est aussi se soucier de leur état d’esprit une fois l’article paru

Je n’ai jamais été grand repor­ter et je n’ai jamais été confron­té per­son­nel­le­ment à des situa­tions humaines aus­si dif­fi­ciles.

Mais j’ai remar­qué qu’on abor­dait la ques­tion de la pro­tec­tion des sources davan­tage par un prisme juri­dique (« la per­sonne que j’ai inter­ro­gée risque-t-elle des pour­suites judi­ciaires à cause de son témoi­gnage ?») ou pro­fes­sion­nel (« va-t-elle perdre son emploi ?») que sur le plan de son bien-être émo­tion­nel ou psy­cho­lo­gique (« com­ment vit-elle le fait de voir son his­toire mise sur la place publique ?»).

Pen­dant les sept années que j’ai pas­sées à Rue89, j’ai aus­si vu com­bien la situa­tion des témoins avait chan­gé avec la mon­tée en puis­sance des sites d’info.

C’était une chose de racon­ter sa vie à un jour­na­liste au début des années 90, et de voir son récit impri­mé à un nombre limi­té d’exemplaires, acces­sibles uni­que­ment au lec­to­rat du titre concer­né.

C’en est une autre, com­plè­te­ment dif­fé­rente, de se dévoi­ler aujourd’hui, sachant que ses confi­dences seront acces­sibles à tous, en quelques clics et pro­ba­ble­ment pour l’éternité.

« Je ne suis plus la personne qui vous a raconté ça il y a cinq ans »

Rue89 pra­tique le « jour­na­lisme par­ti­ci­pa­tif », et tente d’associer au maxi­mum les lec­teurs à la pro­duc­tion d’information. Sur ses bases, il était cou­rant qu’une per­sonne écrive à la rédac­tion pour racon­ter ce qui lui est arri­vé, sou­hai­tant prendre à témoin le reste du monde.

Un jour­na­liste entrait alors en contact avec elle pour pré­pa­rer un texte, sou­vent écrit à la pre­mière per­sonne, par­fois « ano­ny­mi­sé » et relu avant paru­tion si néces­saire. Tout se passe donc avec son com­plet accord et sa totale col­la­bo­ra­tion.

Mal­gré ces pré­cau­tions, il n’était pas rare que la même per­sonne contacte la rédac­tion pour récla­mer la sup­pres­sion du conte­nu concer­né. Ces demandes pou­vaient arri­ver en pleine panique, quelques heures  à peine après la publi­ca­tion. Ou bien des années plus tard et accom­pa­gnées de menaces judi­ciaires.

L’info doit-elle primer sur l’humain ? Vous avez quatre heures…

Les rai­sons avan­cées ? Les com­men­taires, qu’on res­sent très vio­lem­ment quand on est leur sujet prin­ci­pal. Les réac­tions de l’entourage. Les résul­tats de recherches Google sur son nom, où se retrouve lis­té le conte­nu concer­né.

Cer­tains jus­ti­fiaient leur demande par le droit à l’oubli : « je vous ai racon­té ça quand j’avais 18 ans, mais j’en ai 22 et je ne suis plus la même per­sonne, pour­quoi devrais-je subir les consé­quence de ce choix jusqu’à ma mort ?»

Que doit faire le jour­na­liste quand ça arrive ? Accep­ter la demande, et sup­pri­mer un article qui a pu avoir un impact impor­tant, sacri­fiant au pas­sage un mor­ceau de ses propres archives et pre­nant le risque d’être accu­sé de cen­sure ou de mani­pu­la­tion ?

Ou refu­ser, pour pré­ser­ver l’intégrité du tra­vail jour­na­lis­tique réa­li­sé, quitte à lais­ser sa source seule avec sa souf­france ? C’était ma posi­tion dans le pas­sé : après tout, un jour­na­liste n’est pas un tra­vailleur social ou un psy, et c’est l’info qui prime avant tout, coco.

Je pense aujourd’hui qu’une telle intran­si­geance est impos­sible, sur­tout si on sou­haite réta­blir un lien de confiance entre les médias et leur public. D’autant que des com­pro­mis sont pos­sibles, comme l” »ano­ny­mi­sa­tion » a pos­te­rio­ri d’un texte, le retrait de cer­tains détails, l’ajout d’une mise à jour ou d’un enca­dré – il est d’ailleurs arri­vé qu’on fasse ce choix à Rue89.

Mais je doute qu’il existe une réponse unique à cette ques­tion, et suis curieux de connaitre les vôtres dans les com­men­taires.

Des récits sur la crise des réfugiés qui ajoutent « du bruit au bruit »

Faire preuve d’une plus grande empa­thie avec ses sources n’a cepen­dant pas que des incon­vé­nients. C’est aus­si de se don­ner une chance d’obtenir un récit plus à même de tou­cher plus effi­ca­ce­ment le public.

C’est ce que l’expérience a appris à la jour­na­liste indé­pen­dante Marian­ge­la Paone, qui s’exprimait elle aus­si à Pérouse. Selon elle, la crise des réfu­giés a géné­ré un volume d’articles et de vidéos sans doute sans pré­cé­dent dans l’ensemble de l’Europe. Mais elle doute que ces récits aient, pour la plu­part, réus­si autre chose que « d’ajouter du bruit au bruit » :

« Les médias grand public ont ten­dance à pré­sen­ter les migrants comme une file inter­rom­pue et uni­forme de gens, un ensemble mena­çant pour les habi­tants des pays-hôtes.

Ça passe par une sim­pli­fi­ca­tion des gens pré­sen­tés. En ana­ly­sant une série de textes publiés, une étude a mon­tré que bien sou­vent, on ne donne que la natio­na­li­té de la per­sonne qu’on a ren­con­trée, mais pas son âge, sa pro­fes­sion, son pré­nom, voire son genre.

Au final, ce trai­te­ment n’a pas per­mis de créer un contact, une rela­tion entre les réfu­giés et l’audience, de sus­ci­ter  un sen­ti­ment de com­pas­sion dans ce qui était pour­tant la plus grand crise de ce type depuis 1945. »

Ega­le­ment pré­sente à Les­bos, Paone a cher­ché à créer de l’empathie pour mieux inté­res­ser les lec­teurs de ses longs repor­tages, s’intéressant par exemple aux pro­blèmes d’allaitement des jeunes mères for­cées de prendre la route et souf­frant de mal­nu­tri­tion ou de déshy­dra­ta­tion. Elle a noté que ce type de récits rece­vaient plus de visites et d’enga­ge­ment (par­tages, likes, com­men­taires… ) de la part des lec­teurs.

Evi­dem­ment, cher­cher à créer de l’empathie ne doit pas être un pré­texte pour se conten­ter de l’émotion, « tom­ber dans le pathos » en ne s’intéressant plus qu’aux larmes, aux déses­poir et aux colères. Mais je pense que c’est un fil conduc­teur inté­res­sant à tirer, si on veut pro­mou­voir un jour­na­lisme plus utile à la socié­té et à ceux qui y vivent.

Hé, ce texte fait par­tie d’une série de notes consa­crée au « jour­na­lisme en empa­thie » ! Voi­ci le menu com­plet :