banner

Blog

Jul 04, 2023

Le monde ne connaîtra jamais la vérité sur les terriers de YouTube

La répression contre la radicalisation menée par le site semble avoir fonctionné. Mais le monde ne saura jamais ce qui s’est passé avant cela.

À l’époque des élections de 2016, YouTube est devenu connu comme le foyer de l’alt-right montante et des théoriciens du complot extrêmement populaires. Le site appartenant à Google comptait plus d'un milliard d'utilisateurs et accueillait des personnalités charismatiques qui avaient développé des relations intimes avec leur public, ce qui en faisait potentiellement un puissant vecteur d'influence politique. À l'époque, la chaîne d'Alex Jones, Infowars, comptait plus de 2 millions d'abonnés. Et l'algorithme de recommandation de YouTube, qui représentait la majorité de ce que les gens regardaient sur la plateforme, semblait entraîner les gens de plus en plus profondément dans des illusions dangereuses.

Le processus de « chute dans le terrier du lapin » a été illustré de manière mémorable par les récits personnels de personnes qui se sont retrouvées sur des chemins étranges jusqu’au cœur sombre de la plateforme, où elles ont été intriguées puis convaincues par une rhétorique extrémiste – un intérêt pour les critiques du féminisme. pourrait conduire aux droits des hommes, puis à la suprématie blanche et ensuite aux appels à la violence. Le plus troublant est qu'une personne qui ne recherchait pas nécessairement un contenu extrême pourrait finir par le regarder parce que l'algorithme avait remarqué un murmure de quelque chose dans ses choix précédents. Cela pourrait exacerber les pires pulsions d'une personne et l'emmener dans un endroit qu'elle n'aurait pas choisi, mais dont elle aurait du mal à sortir.

L'ampleur du problème rencontré par YouTube n'était pas tout à fait claire, et la société a nié en avoir un, même si elle apportait des modifications pour répondre aux critiques. Début 2019, YouTube a annoncé des modifications à son système de recommandation dans le but de réduire considérablement la promotion de « désinformations nuisibles » et de « contenus limites » (les types de vidéos qui étaient presque suffisamment extrêmes pour être supprimées, mais pas tout à fait). Dans le même temps, il s'est également lancé dans une frénésie de démonétisation, bloquant les programmes de partage de revenus publicitaires pour les créateurs YouTube qui désobéissaient à ses politiques en matière de discours de haine. Quoi que YouTube continue d'autoriser sur son site, l'idée était que le terrier du lapin serait rempli.

Une nouvelle étude évaluée par des pairs, publiée aujourd'hui dans Science Advances, suggère que la mise à jour 2019 de YouTube a fonctionné. L'équipe de recherche était dirigée par Brendan Nyhan, professeur gouvernemental à Dartmouth qui étudie la polarisation dans le contexte d'Internet. Nyhan et ses co-auteurs ont interrogé 1 181 personnes sur leurs attitudes politiques existantes, puis ont utilisé une extension de navigateur personnalisée pour surveiller toutes leurs activités et recommandations sur YouTube pendant plusieurs mois fin 2020. Il a constaté que les vidéos extrémistes étaient regardées par seulement 6 pour cent des participants. Parmi ces personnes, la majorité s’était délibérément abonnée à au moins une chaîne extrémiste, ce qui signifie qu’elles n’y ont pas été poussées par l’algorithme. De plus, ces personnes accédaient souvent à des vidéos extrémistes à partir de liens externes plutôt que de YouTube.

Ces modèles de visionnage ne montrent aucune preuve d'un processus de lapin comme on l'imagine généralement : plutôt que des utilisateurs naïfs se retrouvent soudainement et involontairement dirigés vers du contenu haineux, « nous voyons des personnes avec des niveaux très élevés de ressentiment sexiste et racial rechercher ce contenu. » Nyhan me l'a dit. Le fait que les gens consultent principalement des contenus extrémistes via des abonnements et des liens externes est quelque chose « seule [cette équipe] a pu comprendre, grâce à la méthode », explique Manoel Horta Ribeiro, chercheur à l'Ecole polytechnique fédérale de Lausanne, qui a été " t impliqué dans l’étude. Alors que de nombreuses études précédentes sur le terrier du lapin de YouTube ont dû utiliser des robots pour simuler l'expérience de navigation dans les recommandations de YouTube (en cliquant sans réfléchir sur la vidéo suggérée suivante, encore et encore), celle-ci est la première à obtenir des données aussi granulaires sur des données réelles et humaines. comportement.

L'étude présente un défaut inévitable : elle ne peut rendre compte de rien de ce qui s'est passé sur YouTube avant la collecte des données, en 2020. « Il se peut que la population sensible ait déjà été radicalisée avant 2019 sur YouTube », comme le disent Nyhan et expliquent ses co-auteurs dans l’article. Après tout, les contenus extrémistes existent toujours sur YouTube, et certaines personnes les regardent encore. Il y a donc un dilemme de la poule et de l'œuf : lequel est arrivé en premier, l'extrémiste qui regarde des vidéos sur YouTube, ou le YouTubeur qui y découvre du contenu extrémiste ?

PARTAGER