banniere-alexandre

Pouvez-vous nous raconter votre parcours et ce qui vous a amené à travailler dans la cellule fact checking de TF1 ?  


J’ai une formation en journalisme qui m’a amené à démarrer ma carrière à France 24. J’ai intégré, en apprentissage, la cellule des Observateurs de France 24, qui se trouve être la rubrique de vérification des images de la chaîne.

Je n’avais pas forcément de compétence particulière en vérification d’image : c’est vraiment dans ce service que j’ai tout appris. Les lecteurs de France 24 pouvaient contacter la cellule des Observateurs pour envoyer des images. Les journalistes devaient ensuite les vérifier et publier des articles à partir de cela.

En vérifiant des images au quotidien, on se rend compte que certaines sont manipulées. C’est comme ça, d’une certaine manière, que j’ai commencé à travailler en fact-checking. On a vu monter de plus en plus les cas de désinformation, avec un tournant en 2015, lors des attentats de Charlie Hebdo, où cela est vraiment devenu une problématique importante. À partir de ce moment-là, on a vu se constituer de plus en plus de rubriques de fact-checking pour répondre à ces tentatives de désinformation, qui visent à brouiller l’information et le débat public avec des contenus trompeurs ou faux.

En 2018, j’ai été amené à travailler davantage sur la rubrique de France 24 intitulée « Info ou Intox », dont j’ai incarné pendant plusieurs années la présentation, avec des contenus spécifiques de vérification. De fil en aiguille, cela m’a conduit, en 2024, à me spécialiser dans la vérification des contenus visuels, notamment les images, les vidéos et les manipulations sur internet.

C’est ainsi que j’ai intégré, en 2024, la rédaction des Vérificateurs de TF1, où j’occupe un rôle d’enquêteur auprès de la rédactrice en chef, Justine Corbillon, qui s’occupe principalement de la chronique « L’Infox », diffusée dans le journal de TF1 le samedi à 20h20.

Mon rôle dans cette équipe consiste à enquêter sur des sujets de fond, à repérer les tendances et à produire différents formats : écrire des articles, tourner des vidéos pour le web, et être capable, lorsque Justine est absente, de la remplacer pour la chronique du 20h00 week-end. C’est un travail multi-casquette, et ce qui est intéressant, c’est qu’il y a de la désinformation partout, tous les jours, sur tous les sujets.

Dans ce contexte, comment avez-vous vu évoluer le rôle du journaliste face à la montée de la désinformation et des fake news ?  

La désinformation, ce n’est pas quelque chose de nouveau : ça existait déjà auparavant. En revanche, cela s’est renforcé de façon très claire et très nette en France à partir de 2015, où c’est devenu une thématique importante. Ça l’était déjà avant, mais peut-être davantage sur des théâtres étrangers.

Tous les journalistes vérifient l’information, c’est la base du métier. En revanche, être un journaliste fact-checkeur, et être spécialiste de la vérification de l’information, c’est quelque chose de spécifique. On va s’intéresser aux allégations qui circulent, en particulier sur les réseaux sociaux, mais pas seulement : cela peut aussi concerner des allégations politiques, économiques, ou venant de personnalités publiques.

On va s’intéresser à ces allégations pour les vérifier. Une allégation peut être une photo ou une vidéo montrant un moment. On essaie d’en retrouver l’origine, de les mettre en perspective, de les nuancer parfois, parce que tout n’est pas toujours faux sur les réseaux sociaux, mais certains contenus peuvent être trompeurs.

Je dirais que le rôle du journaliste fact-checkeur constitue vraiment une rubrique à part entière. C’est une méthode de traitement bien particulière, et quasiment une démonstration destinée à expliquer aux lecteurs comment on a procédé pour vérifier une information, une photo ou une vidéo. En ce sens, c’est véritablement un rôle à part entière.

On ne peut pas aborder cette question d’évolution sans parler de la récente évolution des contenus générés par l’intelligence artificielle, qui a bouleversé notre métier, et particulièrement celui des fact-checkeurs. Je dirais même qu’aujourd’hui, la vérification des contenus générés par l’IA est presque un métier à part entière. Cela s’inscrit dans la catégorie générale du fact-checking, mais c’est encore plus spécifique, nécessitant des connaissances et des compétences particulières pour les authentifier. C’est un nouveau défi qui se pose aux journalistes spécialisés dans la vérification de l’information.

Selon vous, quelles sont les principales tendances actuelles en matière de fact-checking, notamment face à la viralité des informations sur les réseaux sociaux ?  

On est sur une tendance où l’on travaille de plus en plus, à minima toutes les semaines, sur du contenu généré par l’intelligence artificielle, et ce sur tous les sujets. Récemment, par exemple, sur le conflit au Moyen-Orient, mais de façon plus générale sur toutes les tromperies utilisant l’IA sur les réseaux sociaux. C’est vraiment une thématique ultra-présente, qui ne cesse de progresser ces derniers temps.

Je ne sais pas si l’on peut parler d’une principale tendance, mais ce qui est clair, c’est que, chez TF1, on va s’intéresser à tout ce qui est concernent pour notre public, qui est français avant tout, et à tout ce qui peut avoir une incidence sur la vie quotidienne. Par exemple, tout ce qui a une incidence sur le porte-monnaie : ce sont des sujets que l’on voit très régulièrement, à la fois du fait de notre ligne éditoriale, mais également parce que c’est ce qui fonctionne le mieux.

Évidemment, faire peur aux gens en affirmant qu’il va y avoir une incidence pour eux est quelque chose de très utilisé. On voit de plus en plus circuler des vidéos, parfois grossièrement montées, sur des comptes qui se présentent comme des médias et qui vont inventer de nouvelles mesures ou de nouvelles règles censées entrer en vigueur prochainement pour inquiéter le public. Typiquement, l’instauration d’un nouveau type de contrôle technique qui aurait une incidence sur la possibilité de rouler avec son véhicule : ce sont des choses que l’on observe régulièrement.

Enfin, une autre tendance importante concerne les opérations de désinformation prorusse, très régulières, que l’on couvre. Elles cherchent à créer des contenus en utilisant ce que l’on appelle du « typo squatting », c’est-à-dire en imitant le style de médias français pour diffuser de fausses informations. Ces contenus visent généralement soit les autorités politiques françaises, soit le soutien à l’Ukraine.

Ce sont des opérations que l’on surveille régulièrement et que l’on cherche à évaluer pour déterminer s’il convient de produire des articles, afin d’expliquer au public pourquoi ces informations sont fausses. On essaie également d’évaluer si la viralité est suffisante pour justifier la publication d’un article.

Quels types de sujets nécessitent le plus souvent une vérification rapide (politique, santé, juridique, réseaux sociaux…) ?  

C’est une question difficile, parce que, quand on commence un sujet, on ne sait pas toujours s’il va pouvoir être vérifié rapidement. Certains sujets d’apparence simple s’avèrent beaucoup plus compliqués qu’il n’y paraît, et d’autres, qui semblent complexes, peuvent être résolus en moins de deux heures.

Je dirais que ceux qui nécessitent une vérification, sinon rapide, en tout cas priorisée, sont les sujets qui présentent un potentiel néfaste imminent. Par exemple, des contenus qui diffusent une fausse information très relayée dans le domaine de la santé, ou une information de nature à perturber un processus électoral, ou encore qui vise une communauté en diffusant une fausse information.

Ce sont des contenus qui doivent être vérifiés en priorité. Ce que l’on évalue en premier lieu, c’est vraiment le potentiel néfaste. Ensuite, évidemment, on regarde la viralité : un contenu ultra viral, qui cumule plusieurs millions de vues, notamment dans un contexte français, mérite d’être rapidement débunké et vérifié, afin d’éviter qu’il ne se propage davantage et ne soit trop diffusé.

Quels sont, selon vous, les principaux défis du fact-checking aujourd’hui, et comment y faites-vous face ?  

On en a déjà parlé, mais encore une fois, ce qui est clair, c’est qu’on fait face à l’émergence de tous les contenus générés par l’IA, où il est de plus en plus difficile, au premier coup d’œil, d’être sûr à 100% qu’un contenu est réel ou non. Même en tant que journaliste travaillant tous les jours sur ces questions-là, ce n’est pas toujours évident.

La grande difficulté, c’est aussi, du point de vue du grand public, que la situation actuelle jette le doute sur les contenus réels. C’est-à-dire que des vidéos tout à fait vraies sont accusées d’avoir été créées par l’intelligence artificielle, du fait du brouillard informationnel dans lequel on se trouve. Le meilleur exemple étant les vidéos récentes du Premier ministre d’Israël, Netanyahou, qui ont été accusées d’être générées par l’intelligence artificielle, parce qu’aujourd’hui il y a tellement de contenus générés artificiellement que l’on ne sait plus vraiment qui croire. Du coup, les personnes qui veulent affirmer qu’un contenu est faux peuvent facilement jeter le doute.

C’est une vraie évolution de notre métier. Mais la vérification est plus que jamais nécessaire pour pouvoir dire au public : on vous dit que c’est faux, mais cette séquence est tout à fait réelle.

Un autre défi auquel on fait face, c’est qu’une fausse information va toujours circuler plus vite qu’elle ne sera débunkée ou vérifiée. Les chiffres sont parfois très importants : on est sur une échelle de six fois plus, voire dix fois plus selon les études.

Cela ne veut pas dire qu’il faut abandonner. On ne peut pas être partout, ni tout vérifier à 100%. Mais ce que je dis souvent, c’est qu’on ne peut pas convaincre ceux qui sont persuadés que les journalistes mentent ou qu’ils sont là pour protéger un système : on ne peut malheureusement pas les convaincre.

De la même manière, cela ne sert pas à grand-chose de convaincre ceux qui sont déjà persuadés de l’intérêt du fact-checking. En revanche, entre les deux, il y a une masse de personnes qui doutent, qui ne savent pas, qui cherchent des réponses, qui voient des contenus et s’interrogent. C’est pour ces personnes-là que l’on écrit, que l’on essaie de répondre : celles qui se demandent comment vérifier l’information. On essaie de leur démontrer, par une démonstration rigoureuse, comment on peut prouver qu’un contenu est manipulatoire ou trompeur.

Comment fait-on face à ces situations ? Pour l’IA, cela passe par de la formation et une mise à jour permanente des méthodes : comment vérifier les contenus, comment transmettre des conseils au public. Par exemple, en expliquant qu’aujourd’hui, il ne sert à rien d’utiliser les détecteurs de contenus générés par l’intelligence artificielle en ligne, parce qu’ils ne sont malheureusement pas fiables et peuvent facilement être trompés et manipulés.

Concernant la rapidité de circulation des fausses informations, il s’agit d’améliorer nos capacités de veille, de mieux repérer les faux contenus pour y répondre rapidement. Cela signifie se saisir plus vite des sujets, être plus efficace dans la prise de décision, et faire le travail journalistique classique sans perdre de temps sur le repérage du sujet.

Comment Visibrain vous aide-t-il à identifier les informations à vérifier en priorité ? Avez-vous un exemple à nous partager ? Et comment combinez-vous cet outil avec votre expertise journalistique ?  

L’intérêt principal de Visibrain pour nous réside dans sa capacité à évaluer l’ampleur d’un sujet sur les réseaux sociaux. Par exemple, grâce aux mots-clés, nous pouvons savoir combien de personnes ont posté des messages en français sur une thématique donnée. Ce sont des données précieuses, car elles nous permettent de justifier et d’évaluer comment un contenu peut circuler et quelle est sa dimension sur les réseaux sociaux.

Par exemple, récemment, nous avons utilisé Visibrain pour mesurer combien de messages utilisaient les mots-clés « Netanyahou » et « intelligence artificielle » pour accuser certains contenus d’être générés par l’IA. Cela nous a permis d’isoler rapidement les publications les plus virales et de cerner quels contenus et quels arguments étaient utilisés par les tenants de cette théorie complotiste. Visibrain nous fait ainsi gagner un temps précieux : ces contenus apparaissent dans notre veille, mais l’outil nous aide à identifier immédiatement les contenus les plus viraux et les thématiques récurrentes.

Autre exemple : nous avons étudié comment les utilisateurs de X utilisaient le chatbot Grok (l’outil d’intelligence artificielle de X) pour déflouter des photos des Epstein Files. Dans ces fichiers, certaines images sont floutées, parfois avec des carrés noirs totalement opaques. Des utilisateurs demandaient à Grok de « voir » ce qu’il y avait derrière ces carrés. Souvent, il s’agissait de photos de jeunes femmes, victimes d’Epstein, parfois même d’enfants. Grâce à Visibrain, nous avons pu mesurer la circulation de ce type de messages, identifier toutes les photos associées à ces demandes et déterminer rapidement combien d’utilisateurs étaient concernés. Une recherche manuelle aurait été extrêmement longue : l’outil nous a permis d’extraire tous les contenus et de les analyser très rapidement. Cela nous aide à être plus précis dans notre travail et à fournir des données sourcées de manière fiable.

Comment combinons-nous cet outil avec notre expertise journalistique ? Visibrain nous permet de cibler les contenus à analyser et de gagner un temps considérable sur la récupération de données. Par exemple, sur TikTok, où les jeunes générations échangent des informations différentes, l’outil nous aide à filtrer les contenus les plus viraux à partir des hashtags que nous avons repérés. Tous les contenus identifiés ne se prêtent pas forcément au fact-checking, beaucoup sont informatifs, mais Visibrain nous permet de détecter rapidement ceux qui méritent une vérification et d’optimiser notre veille. Aujourd’hui, il n’existe pas d’outil de recherche aussi efficace sur cette plateforme, et Visibrain nous permet donc de faire un tri rapide et de gagner beaucoup de temps sur le repérage des contenus viraux susceptibles de nécessiter un fact-checking.

Selon vous, comment le fact checking va-t-il évoluer dans les prochaines années ?  

Je dirais que, plus que jamais, il existe un besoin et une demande du public pour répondre à leurs questions, leurs interrogations et leurs doutes. Le besoin de fact-checkers, et plus particulièrement de vérification des contenus visuels, est aujourd’hui crucial avec l’émergence de l’IA : nous sommes en plein dans ce contexte.

À titre personnel, je suis partisan de donner autant de clés que possible aux lecteurs et aux téléspectateurs, lorsqu’il est possible de le faire, pour leur expliquer les mécanismes, développer leur esprit critique et les aider à ne plus tomber dans le piège des fausses informations. Cela dit, ce n’est pas le travail du public : il faut du temps et des outils pour cela. Parfois, on peut vérifier en quelques secondes une photo ou une vidéo sur les réseaux sociaux ; d’autres fois, cela prend beaucoup plus de temps. C’est pour cette raison qu’il existe des journalistes dont le métier est justement de décrypter les techniques de manipulations, en donnant des exemples concrets.

Dans un monde idéal, sur un horizon plus lointain, si le public est formé à l’esprit critique et devient capable d’éviter la désinformation par lui-même, le rôle du fact-checker pourrait évoluer. Les journalistes pourraient alors se concentrer sur des contenus plus élaborés, plus pernicieux, et perdre moins de temps sur des informations simples que le public serait capable de vérifier seul, tout en se concentrant sur les contenus plus nocifs et plus difficiles à vérifier.

Je crois qu’il y aura toujours besoin de professionnels dans ce domaine. Il est difficile de prédire exactement comment le fact-checking va évoluer, mais il restera indispensable pour contrecarrer l’évolution des techniques de désinformation et pour essayer, autant que possible, d’avoir un coup d’avance, même si répondre rapidement aux interrogations du public demeure un défi permanent.