Dakarinfo

Obtenez toutes les dernières nouvelles et rapports sur la FRANCE ici Manchettes, politique et culture françaises sur la chaîne d'information

L’histoire vraie du site accusé d’avoir alimenté les émeutes de Southport

Des policiers en tenue anti-émeute à Sunderland, vus de derrière, près de la caméra, alors qu'une voiture renversée brûle à mi-distance et qu'une foule se rassemble autour d'elle.Getty Images

La police se tient devant une voiture en feu à Sunderland – l’une des nombreuses villes touchées par des émeutes

Qu’est-ce qui relie un père vivant à Lahore, au Pakistan, un joueur de hockey amateur de Nouvelle-Écosse et un homme nommé Kevin de Houston, au Texas ?

Ces sites renvoient tous à Channel3Now – un site Web dont l’histoire donnant un faux nom à l’accusé de 17 ans dans l’attaque de Southport a été largement citée dans des messages viraux sur X. Channel3Now a également suggéré à tort que l’agresseur était un demandeur d’asile qui avait arrivé au Royaume-Uni par bateau l’année dernière.

Ceci, ainsi que les fausses affirmations d’autres sources selon lesquelles l’agresseur était musulman, ont été largement accusés d’avoir contribué aux émeutes à travers le Royaume-Uni – dont certaines ont pris pour cible des mosquées et des communautés musulmanes.

La BBC a pu retrouver un certain nombre de personnes liées au site Channel3Now, parler à leurs amis et collègues, qui ont confirmé qu’il s’agissait de vraies personnes, et a également interviewé une personne prétendant être « l’administration » du site.

Ce que j’ai découvert semble être une opération commerciale tentant de regrouper les informations sur la criminalité tout en gagnant de l’argent grâce aux médias sociaux. Je n’ai trouvé aucune preuve permettant d’étayer les affirmations selon lesquelles la désinformation diffusée par Channel3Now pourrait être liée à l’État russe.

La personne prétendant appartenir à Channel3Now m’a dit que la publication du faux nom « n’aurait pas dû avoir lieu, mais c’était une erreur et non intentionnelle ».

Le faux article ne portait pas le nom de son auteur et il n’était pas clair de qui il s’agissait.

———

Un joueur de hockey amateur de la Nouvelle-Écosse nommé James a été la première personne que j’ai trouvée liée à Channel3Now. Son nom apparaît dans un autre article du site et une photo de lui apparaît sur la page LinkedIn correspondante.

Un compte Facebook lié à James n’a que quatre amis, dont l’un s’appelle Farhan. Son profil Facebook indique qu’il est journaliste travaillant pour le site.

J’ai envoyé des messages à des dizaines de leurs abonnés. Un compte de réseau social de l’école où James jouait au hockey et un de ses amis m’ont confirmé qu’il était une vraie personne qui avait obtenu son diplôme il y a quatre ans. Lorsque je l’ai contacté, son ami m’a dit que James voulait savoir « quel pourrait être le sujet de son article ? Après avoir répondu, on ne pouvait nier l’affiliation de James au site – et son ami a cessé de répondre.

Les anciens collègues de Farhan, dont beaucoup résident au Pakistan, ont confirmé son identité. Il publie sur ses comptes de réseaux sociaux des informations sur sa foi islamique et ses enfants. Son nom n’apparaissait pas dans le faux article.

Peu de temps après mon message, Farhan m’a bloqué sur Instagram, mais j’ai finalement reçu une réponse de l’e-mail officiel de Channel3Now.

Capture d'écran d'archive d'un article de Channel3Now donnant un faux nom à l'attaquant de Southport, affirmant à tort qu'il était un demandeur d'asile et disant à tort qu'il était sur "Liste de surveillance du MI6"

Channel3Now s’est ensuite excusé d’avoir nommé incorrectement l’attaquant de Southport

La personne qui m’a appelé dit qu’il s’appelle Kevin et qu’il vit à Houston, au Texas. Il refuse de révéler son nom de famille et on ne sait pas si Kevin est vraiment celui qu’il prétend être, mais il accepte de répondre aux questions par e-mail.

Kevin dit qu’il me parle depuis le « siège social » américain du site – ce qui correspond aux horaires des publications sur les réseaux sociaux sur certains profils de réseaux sociaux du site, et aux heures auxquelles Kevin répond à mes e-mails.

Tout d’abord, il signe ma lettre en tant que « rédacteur en chef » avant de me dire qu’il est en fait un « producteur vérifié ». Il refuse de révéler le nom du propriétaire du site, qui se dit inquiet « non seulement pour lui-même, mais pour tous ceux qui travaillent avec lui ».

Kevin affirme qu’il y a « plus de 30 » personnes aux États-Unis, au Royaume-Uni, au Pakistan et en Inde qui travaillent pour le site, généralement recrutées sur des sites indépendants – dont Farhan et James. Kevin affirme que Farhan en particulier n’a pas été impliqué dans la fausse histoire de Southport, pour laquelle le site s’est publiquement excusé, accusant « notre équipe au Royaume-Uni ».

À la suite de fausses allégations diffusées par Channel3Now, elle a été accusée de liens avec l’État russe sur la base d’anciennes vidéos diffusées sur sa chaîne YouTube en russe.

Kevin affirme que le site a acheté une ancienne chaîne YouTube en langue russe axée sur les courses automobiles « il y a de nombreuses années » et a ensuite changé de nom.

Aucune vidéo n’a été publiée sur le compte pendant environ six ans avant qu’il ne commence à mettre en ligne du contenu lié au Pakistan – où réside Farhan et où le site admet avoir un livre.

« Ce n’est pas parce que nous avons acheté une chaîne YouTube auprès d’un vendeur russe que nous avons des affiliations », explique Kevin.

« Nous sommes un site Web d’information numérique indépendant couvrant l’actualité du monde entier. »

Il est possible d’acheter une chaîne YouTube déjà monétisée et de la réutiliser. Cela peut être un moyen rapide de créer une audience, permettant au compte de commencer à gagner de l’argent immédiatement.

« Autant d’histoires que possible »

Bien que je n’aie trouvé aucune preuve pour étayer ces allégations de liens russes avec Channel3Now, les chaînes Telegram pro-Kremlin ont republié et amplifié les faux messages du site. C’est une tactique qu’ils utilisent souvent.

Kevin a déclaré que le site est une opération commerciale et que « couvrir autant d’histoires que possible » permet de générer des revenus. La plupart de ses histoires sont exactes – et semblent provenir de sources fiables sur les fusillades et les accidents de voiture aux États-Unis. Cependant, le site a partagé davantage de fausses spéculations sur l’attaquant de Southport ainsi que sur la personne qui a tenté d’assassiner Donald Trump.

À la suite de la fausse histoire de Southport et de la couverture médiatique de Channel3Now, Kevin affirme que sa chaîne YouTube et presque toutes ses « multiples pages Facebook » ont été suspendues, mais pas ses comptes X. Il reste également une page Facebook qui partage exclusivement le contenu du site appelé Daily Felon.

Kevin affirme que la responsabilité de la tempête sur les réseaux sociaux à propos d’un suspect dans l’attaque de Southport et des émeutes qui ont suivi ne peut pas être directement imputée à un « petit compte Twitter » qui a commis une « erreur ».

Et dans une certaine mesure, il a raison. L’histoire incorrecte publiée par Channel3Now est devenue une source citée par de nombreux comptes de médias sociaux, provoquant une large propagation des fausses accusations.

Beaucoup de ces personnes étaient basées au Royaume-Uni et aux États-Unis et ont l’habitude de diffuser des informations erronées sur des sujets tels que la pandémie, les vaccins et le changement climatique. Ces profils ont réussi à rassembler un grand nombre de followers, diffusant leur contenu à un plus grand nombre de personnes, après avoir été influencés par leur actualité. Modifications apportées par Elon Musk après l’achat de Twitter.

Reuters Un homme vêtu d'une veste noire, le visage couvert de lunettes de soleil et d'un masque, jette un bâton, et en arrière-plan se trouvent des poubelles renversées, un incendie et une grande foule de personnes.Reuters

Plus de 400 personnes ont été arrêtées lors du déclenchement des troubles

L’un des comptes personnels – appartenant à une femme appelée Bernadette Spofforth – était accusé d’avoir publié le premier message contenant le faux nom de l’attaquant de Southport. Elle a nié être la source du message, affirmant avoir vu le nom en ligne dans un autre message qui a depuis été supprimé.

S’adressant à la BBC par téléphone, elle a déclaré qu’elle se sentait « horrifiée » par l’attaque, mais a supprimé son message dès qu’elle a réalisé qu’il était faux. Elle a déclaré qu’elle n’était « pas motivée à gagner de l’argent » avec son compte.

« Pourquoi devrais-je inventer quelque chose comme ça ? Je n’ai rien à gagner et tout à perdre », a-t-elle déclaré. Elle a condamné les récentes violences.

Mme Spofforth avait déjà publié des articles soulevant des questions sur les mesures de verrouillage et les réductions des émissions de carbone. Cependant, son profil a été temporairement supprimé par Twitter en 2021 après des allégations selon lesquelles elle promouvait la désinformation sur le vaccin COVID-19 et la pandémie. Elle a nié les allégations et a déclaré qu’elle pensait que Covid était réel.

Depuis que M. Musk a acquis l’entreprise, ses publications ont reçu plus d’un million de vues de manière assez régulière.

La fausse affirmation publiée par Mme Spofforth à propos de l’attaquant de Southport a été rapidement partagée et reprise par un groupe d’influenceurs et de profileurs théoriciens du complot ayant un historique de partage d’idées anti-immigration et d’extrême droite.

Beaucoup d’entre eux ont acheté des coches bleues, ce qui signifie que leurs publications ont gagné en pertinence depuis que Musk a repris Twitter.

Entre autres changements apportés par Musk à

Des millions de vues

Certains profils comme ce compte ont accumulé des millions de vues au cours de la semaine dernière, publiant des articles sur les attentats de Southport et les émeutes qui ont suivi. Le « partage des revenus publicitaires » dans le compte X signifie que les utilisateurs avec une coche bleue peuvent gagner une part des revenus des publicités dans leurs réponses.

Les estimations des utilisateurs comptant moins d’un demi-million d’abonnés qui ont monétisé de cette manière suggèrent que les comptes pourraient gagner entre 10 et 20 $ par million de vues ou d’impressions sur les publications partagées plusieurs fois par jour.

D’autres sociétés de médias sociaux – autres que X – permettent aux utilisateurs de gagner de l’argent grâce aux vues. Mais YouTube, TikTok, Instagram et Facebook ont ​​déjà suspendu ou suspendu certains comptes qui publient du contenu qui viole leurs directives en matière de désinformation. Hormis les règles contre les faux contenus d’IA, X n’a pas de lignes directrices sur la désinformation.

Bien que des politiciens aient appelé les sociétés de médias sociaux à faire davantage à la suite des émeutes, le projet de loi britannique sur la sécurité en ligne récemment adopté ne légifère pas actuellement contre la désinformation, craignant qu’il ne limite la liberté d’expression.

De plus, comme je l’ai découvert en recherchant les auteurs de Channel3Now, les personnes impliquées dans la diffusion de fausses informations sont souvent basées à l’étranger, ce qui rend plus difficile toute action contre elles.

Au lieu de cela, la capacité de gérer ce type de contenu incombe désormais aux sociétés de médias sociaux elles-mêmes. La société X n’a ​​pas répondu à une demande de commentaires de la BBC.