Quantcast
Channel: Conspiracy Watch
Viewing all articles
Browse latest Browse all 149

Ces algorithmes qui favorisent la propagation des théories du complot : le cas YouTube

$
0
0

Alors que les gouvernements et la Commission européenne s’efforcent de responsabiliser les grandes plateformes numériques face à la circulation des « fausses nouvelles » et des « théories du complot », une série de recherches permet de mieux comprendre les mécanismes de leur propagation : le rôle central des algorithmes et, en arrière-plan, le modèle économique de ces plateformes fondé sur la publicité.

« Nous ouvrons Facebook, parcourons le fil, commentons, lâchons quelques likes, nous laissons happer par une vidéo en auto-play, poursuivons sur YouTube, cliquons sur les recommandations de la colonne de droite… Nous croyons agir librement, mais une grande partie de notre parcours n’est que celui qu’ont balisé pour nous les ingénieurs de ces plateformes, dont le but est de nous retenir actifs et captifs, pour collecter un maximum de données et nous proposer un maximum de pubs » (Uzbek et Rica).

Le cas YouTube est, de ce point de vue, emblématique.

Contrairement à Facebook ou Twitter, où les utilisateurs voient le contenu des comptes qu’ils ont choisi de suivre, YouTube est proactif en recommandant des vidéos que les utilisateurs n’auraient probablement pas vues autrement.

Cette plateforme compte 1,5 milliard d’utilisateurs dans le monde, qui visionnent cumulativement plus d’un milliard d’heures par jour dans le monde entier, soit 10 fois plus qu’en 2012. Derrière cette croissance se cache un algorithme qui parcourt et classe des milliards de vidéos pour identifier et recommander 20 vidéos qui s’affichent à droite. Ces recommandations sont à l’origine de plus de 70 % du temps de visionnage. Prescripteur, cet algorithme façonne ainsi ce que les gens regardent.

Cet algorithme fait régulièrement l’objet de controverses, notamment à la suite des tueries de masse qui ont endeuillé les États-Unis au cours des derniers mois. Ainsi, en février dernier, au lendemain du massacre de Parkland, YouTube recommandait des vidéos issues de l’Alt-Right mettant en cause le lycéen survivant de la tuerie qui plaidait pour un contrôle plus strict des armes à feu. Une vidéo d’Infowars – le site d’Alex Jones – suggérait que le jeune David Hogg était un « acteur de crise » engagé pour susciter l’émotion dans le seul but de restreindre les droits des possesseurs d’armes. Une semaine après la fusillade, une énième diatribe conspirationniste consacrée à « l’acteur » David Hogg arrivait en tête des tendances YouTube.

A chaque fois, Google annonce le retrait des vidéos « offensantes » ainsi que la démonétisation de la chaîne à l’origine de ces vidéos. En décembre 2017, YouTube a annoncé la constitution d’une équipe de 10 000 personnes assignées à la modération de la plateforme : une tâche titanesque quand on sait que 400 heures de vidéos sont publiées chaque minute. Pour assister les modérateurs dans leur tâche, un algorithme à base « d’apprentissage automatique » effectue un premier tri, en scannant les tags fournis par l’utilisateur, les mots du titre, ou même les images pour en comprendre le contenu. Susan Wojcicki, directrice générale de YouTube, affirmait en décembre que « 98 % des vidéos extrémistes et violentes » supprimées sont détectées grâce aux algorithmes et que « 70 % des contenus violents extrémistes le sont dans les huit heures suivant leur téléchargement et presque la moitié dans les deux heures ».

Malgré cette armée de modérateurs et l’intelligence artificielle mobilisée pour détecter les vidéos extrémistes, de sérieux problèmes subsistent.

« Aucun système n’est parfait »

En janvier dernier, le youtubeur star Logan Paul (16 millions de followers sur Twitter et 12 millions d’abonnés à sa chaîne YouTube) a déclenché une nouvelle polémique en publiant une vidéo montrant le cadavre d’une personne qui s’était suicidée par pendaison au Japon.

Business Insider révélait en mars 2018 que la plateforme YouTube Kids, spécifiquement destinée aux enfants (on n’y trouve pas, garantit Google, de « contenus choquants ») hébergeait de nombreuses vidéos promouvant des théories du complot. En tapant « atterrissage sur la Lune » ou « chemtrail », les enfants pouvaient y trouver des vidéos soutenant que l’homme n’a jamais marché sur la Lune, que le monde est dominé par les reptiliens ou que la Terre est plate. Ces vidéos apparaissent dans les suggestions, à droite. Suite à cette controverse, YouTube admettait « qu’aucun système n’est parfait et qu’il arrive parfois qu’on rate la cible ».

Reste à comprendre pourquoi les vidéos violentes et conspirationnistes se retrouvent systématiquement mises en avant.

Il y a un an, Guillaume Chaslot, un ancien employé de YouTube, avait entrepris, via la plateforme AlgoTransparency, de mettre en lumière les biais de l’algorithme de recommandation de YouTube. « Ayant moi-même travaillé sur l’algorithme de recommandation de YouTube, explique Guillaume Chaslot, j’ai commencé à enquêter, et je suis arrivé à la conclusion que le puissant algorithme que j’avais contribué à concevoir joue un rôle important dans la propagation de fausses informations ». Pour détecter les vidéos que YouTube recommande, il a développé un explorateur de recommandations qui extrait les vidéos les plus recommandées sur une requête donnée. Il compare, ensuite, les 20 premiers résultats venant de requêtes identiques sur Google et Youtube Search. Ainsi, pour la requête « La Terre est-elle plate ou ronde ? », le moteur de recherche de Google n’affiche que 20 % de résultats qui confortent la thèse selon laquelle la Terre est plate ; le moteur de recherche de YouTube, 35 % ; l’outil de recommandation, 95 % ! Les autres requêtes (« Qui est le Pape ? », « Le réchauffement climatique est-il une réalité ? », « Est-ce que le Pizzagate est vrai ? », « Qui est Michelle Obama ? ») présentaient les mêmes distorsions, avec des taux élevés ou très élevés de vidéos conspirationnistes recommandées.

Ces distorsions sont d’autant plus étonnantes que les algorithmes de YouTube (le moteur de recherche et les recommandations) utilisent les mêmes données. L’explication réside dans les objectifs assignés aux deux algorithmes de YouTube : l’algorithme de recherche est optimisé dans un objectif de pertinence, alors que l’algorithme de recommandations prend davantage en compte le temps de visionnage (et donc le temps d’exposition à des messages publicitaires).

En d’autres termes, si l’algorithme de recommandation affiche un grand nombre de vidéos qui affirment que « la Terre est plate », c’est parce que ces vidéos maintiennent les utilisateurs connectés plus longtemps que celles qui démontrent que « la Terre est ronde ».

Un double effet boule de neige

Ce biais est ensuite amplifié par un premier effet « boule de neige ». Le fait que l’algorithme de recommandation favorise les vidéos conspirationnistes encourage leurs auteurs à en proposer de nouvelles, qui viennent à leur tour étayer cette théorie. YouTube proposerait, selon lui, deux millions de vidéos qui expliquent que « la Terre est plate ».

Le second effet boule de neige réside dans l’attraction que suscitent les vidéos « clivantes » et sensationnalistes : à l’occasion d’une recherche, les utilisateurs cliquent sur une vidéo sensationnaliste qui s’affiche à droite de l’écran. Ils commencent à la regarder par curiosité. Certains d’entre eux ont des doutes et passent donc du temps sur YouTube pour avoir plus d’informations. Ces vidéos étant conçues pour retenir l’attention, les utilisateurs y passent donc du temps, ce que l’algorithme prend en compte pour recommander et mettre ces vidéos en avant.

Selon la sociologue Zeynep Tufekci, auteure de Twitter and Tear Gas : The Power and Fragility of Networked Protest (2017), YouTube est conçu de telle façon qu’il propose du contenu de plus en plus clivant à l’utilisateur. « C’est comme si rien n’était jamais assez hardcore pour YouTube … parce que l’algorithme s’est rendu compte que si vous pouvez inciter les gens à penser que vous pouvez leur montrer quelque chose de plus hardcore, ils sont susceptibles de rester plus longtemps, pendant que Google leur donne des publicités. »

Au cours des 18 derniers mois, Guillaume Chaslot a utilisé le programme pour explorer les biais dans les vidéos recommandées lors des élections françaises, britanniques et allemandes, à propos du réchauffement climatique et des fusillades de masse. Les résultats publiés sur AlgoTransparency montrent que YouTube continue de mettre en avant les vidéos sensationnalistes et conspirationnistes. Son logiciel simule le comportement d’un utilisateur qui démarre sur une vidéo et enchaîne ensuite sur les vidéos recommandées : il enregistre plusieurs couches de vidéos que YouTube recommande dans la colonne « A suivre« . Après s’être assuré que les vidéos détectées sont des recommandations génériques de YouTube, plutôt que des vidéos personnalisées à un utilisateur, le logiciel répète le processus des milliers de fois, accumulant des couches de données sur les recommandations de YouTube pour restituer les préférences de l’algorithme.

Dans une enquête très documentée, le Guardian s’est attaché à comprendre l’impact de YouTube sur l’élection de Donald Trump, en s’appuyant sur une base de données des 8000 vidéos les plus recommandées par YouTube suite aux recherches « Trump » et « Clinton » dans les trois mois précédant l’élection présidentielle. Outre les émissions de débats présidentiels, les clips télévisés, les sketches de Saturday Night Live ou les discours prononcés par les deux candidats, ce corpus contenait un nombre disproportionné de vidéos anti-Clinton aux résonances plus ou moins conspirationnistes : affirmant qu’Hillary Clinton avait eu une dépression mentale, signalant qu’elle avait la syphilis ou la maladie de Parkinson, l’accusant d’avoir des relations sexuelles secrètes, y compris avec Yoko Ono, l’accusant d’implication dans des meurtres ou la reliant à des cultes sataniques et pédophiles.

En passant au crible les 1 000 des vidéos les plus recommandées, ils ont trouvé 551 vidéos en faveur de Trump, et seulement 92 étaient en faveur de la campagne Clinton : YouTube était ainsi six fois plus susceptible de recommander des vidéos qui aidaient Trump que son adversaire.

La propagation de la théorie des « Crisis Actors »

Après la théorie des « False Flags » pour expliquer certains événements, les conspirationnistes recourent désormais à la théorie du « crisis actor » pour disqualifier les témoins de certains événements, comme les tueries de masse (voir Newtown : ces conspirationnistes qui s’en prennent aux familles de victimes).

La théorie des « crisis actor » s’est ainsi largement répandue sur Facebook, Twitter et YouTube, après la tuerie de Parkland. Jonathan Albright, directeur de recherche au Tow Center for Digital Journalism, s’est plongé dans les entrailles de YouTube pour mesure la propagation de cette théorie. En partant du mot-clé « crisis actor », il a abouti, via l’outil de recommandation de YouTube, à un réseau de 8 842 vidéos (associées à la tuerie de Parkland) dont la majorité recèle une théorie conspirationniste, et qui cumulent au total 4 milliards de vues.

Suite à ces affaires, les porte-paroles de Google font valoir régulièrement que l’algorithme « va au-delà de l’optimisation du temps passé sur la plateforme » et qu’en 2016 la plateforme a « commencé à inclure la notion de « satisfaction » dans les systèmes pour nous assurer que les gens sont satisfaits de ce qu’ils regardent (via l’utilisation de différents signaux comme les boutons « J’aime » ou « Je n’aime pas », le passage d’une vidéo à une autre, les partages, la diversité des contenus et les enquêtes de satisfaction). » L’opacité de l’algorithme ne permet pas de savoir dans quelle mesure celui-ci a été modifié pour enrayer la propagation de ces vidéos.

YouTube revendique le statut d’hébergeur : à ce titre, la compagnie refuse de supprimer les vidéos conspirationnistes, estimant qu’elles relèvent de la liberté d’expression. Il faudrait, pour les supprimer, que celles-ci enfreignent les conditions générales d’utilisation ; or, ces dernières ne prévoient rien de tel pour les vidéos conspirationnistes. Sous la triple pression de l’opinion, des annonceurs et des gouvernements, Susan Wojcicki a annoncé, le 14 mars, que la plateforme afficherait désormais des extraits de l’encyclopédie collaborative Wikipédia à côté des vidéos signalées ou détectées comme conspirationnistes. Elle a mentionné deux cas où des extraits de Wikipédia seraient activés : l’alunissage en 1969 et les chemtrails. La Wikimedia Foundation, qui héberge Wikipédia, a fait savoir qu’elle n’avait pas « été informée à l’avance de cette annonce » et qu’aucun partenariat n’a été officiellement conclu avec YouTube.

Suicide au siège de YouTube

Le mardi 3 avril 2018, au siège de Youtube, à San Bruno, près de San Francisco, Nasim Najafi Aghdam a ouvert le feu, faisant 4 blessés, avant de se suicider. Youtubeuse, Nasim Najafi Aghdam créait de nombreuses vidéos qu’elle partageait sur quatre chaînes YouTube, en différentes langues. Avant cet acte, elle accusait sur son site Youtube de la discriminer et de la censurer. Elle déplorait que ses anciennes vidéos, très populaires, n’étaient plus vues parce que « filtrées », et dénonçait la « dictature de YouTube ».

Les récriminations de Nasim Najafi Aghdam comme celles de l’Alt-Right américaine face à la censure montrent que l’algorithme bride désormais la propagation de certaines vidéos violentes ou haineuses. Il reste que les contre-mesures (démonétisation, fermeture de comptes) et la traque des contenus conspirationnistes heurtent frontalement un modèle économique fondé sur la publicité, qui pousse à mettre en avant les vidéos les plus attrape-clics et celles qui maximisent le temps passé.

 

Voir aussi :


Viewing all articles
Browse latest Browse all 149

Trending Articles