Une enquête d’AlgoTransparency tend à démontrer que l’algorithme de YouTube favorise les contenus les plus clivants, au détriment de toute neutralité politique ou culturelle. La campagne présidentielle américaine en aurait largement fait les frais.
Guillaume Chaslot, 36 ans, a longtemps travaillé pour Google, dont il a été limogé en 2013 pour avoir voulu, dit-il, souligner que la prétendue neutralité du géant du web cachait une partialité totale. Dans une enquête menée par son association, AlgoTransparency, et publiée par le Guardian, il le montre de façon éclatante, en prenant YouTube comme sujet d’étude.
551 vidéos pro-Trump contre 92 pro-Clinton durant la campagne présidentielle !
En cause : l’algorithme qui propose les contenus aux utilisateurs en fonction de ce qu’ils ont déjà regardé. Google le prétend neutre, ne prenant en compte que les clics et les goûts du public, couplé à ceux de l’utilisateur.
Mais l’enquête du Guardian démontre que cet algorithme recommande toujours les mêmes types de contenus, les plus clivants, les plus étranges et souvent de piètre qualité. AlgoTransparency prend l’exemple de la campagne présidentielle américaine : dans les vidéos politiques les plus recommandées par YouTube, 92 étaient pro-Clinton, et 551 pro-Trump !
Ce déséquilibre flagrant pose une vraie question de neutralité : les vidéos de l’extrême-droite américaine ou les théories conspirationnistes sont largement favorisées, parce que plus à même de créer une addiction.
Un choix de Google de favoriser les goûts les plus discutables du public
Google se défend en affirmant que son algorithme se contente de déterminer quelles vidéos (ou quel type de vidéos) sont les plus vues par les utilisateurs, et les mettre en avant ; le géant du web explique que si les vidéos recommandées posent problème à quelqu’un, cette personne doit se retourner vers le public, pas vers la plateforme.
Pour autant, Guillaume Chaslot affirme que cet algorithme pourrait facilement être modifié, pour ne plus enfermer les utilisateurs dans un nivellement vers le bas des contenus, en filtrant davantage certain type de vidéos, et en se penchant, aussi, sur la qualité et le sérieux des informations proposées. Il raconte que Google a refusé en bloc ces modifications, de crainte qu’une meilleure qualité ne baisse le taux d’addiction des utilisateurs et réduisent leur temps de présence sur la plateforme.
Les algorithmes de YouTube « sont des machines à désinformer »
En effet, d’un strict point de vue stratégique, la qualité ou la diversité des contenus ne préoccupe pas YouTube : l’objectif est de proposer un maximum de vidéos attirantes, quitte à verser dans la démagogie, dans la provocation gratuite, dans le soutien à des idées ou théories discutables – tant que les internautes continuent de cliquer, de passer du temps sur la plateforme et de consommer des publicités.
Mais le fait est que YouTube est un média particulièrement suivi, ressenti comme neutre, et qu’une orientation idéologique forte y a des effets considérables. Se retrancher derrière l’excuse du goût du public pour se déresponsabiliser est au mieux déraisonnable, au pire dangereux. « Les algorithmes de recherche et de recommandations (de YouTube) sont des machines à désinformer » expose le sociologue Zeynep Tufekci, spécialiste des nouvelles technologies.
Comme une cantine qui ne servirait que des chips ou des bonbons, parce que les enfants aiment ça !
« C’est un peu comme une cantine d’école qui serait automatisée : elle découvre que les enfants ont les dents sensibles et aussi qu’ils aiment la nourriture grasse et salée. Donc vous faites une file d’attente offrant une telle nourriture, chargeant automatiquement le prochain plat dès que le sachet de chips ou de bonbon des jeunes est terminé » expose-t-elle.
La comparaison fait sens : un média aussi regardé et commenté que YouTube ne peut pas se contenter de servir les contenus les plus addictifs et provocants, au simple prétexte que ce sont ce que les internautes préfèrent. Le sens qu’il véhicule, les informations qu’il met en avant ont de l’importance. L’enquête du Guardian a le mérite de le rappeler.
Reste à trouver un moyen de mettre une plus grande pression sur Google afin que le géant du net réagisse et change, enfin, sa politique et ses algorithmes. Un doux rêve ? Avec une vraie mobilisation, il pourrait se réaliser…