Les théories du complot ou les vidéos à la fausseté scientifique avérée n’auront plus la part belle sur YouTube. Les vidéos de ce type ne seront pas supprimées, mais l’algorithme devrait cesser de les recommander.
L’algorithme de YouTube a tendance à conduire à des contenus clivant, vidéos conspirationnistes, défendant des théories « scientifiques » parfaitement fausses et autres appels à la haine.
« Nous allons réduire la recommandation automatique de contenus problématiques »
De nombreuses études l’ont largement prouvé : la lecture automatique de vidéos similaires a tendance à conduire d’un contenu neutre vers des publications plus que discutables. L’algorithme gérant ces recommandations est unanimement jugé partial, voire « le plus grand outil de radicalisation » du monde.
YouTube a enfin décidé de réagir, à contrecœur sans doute, car ces contenus problématiques ont tendance à capter l’attention du spectateur. Mais la pression des ONG et des associations de citoyens a été la plus forte.
« Nous allons réduire la recommandation automatique de contenus problématiques et de contenus qui peuvent désinformer les utilisateurs et leur causer du tort. Nous parlons de vidéos qui mettent en avant des cures miracles pour des maladies graves, qui disent que la Terre est plate ou qui avancent des théories absolument fumeuses sur des événements historiques comme les attentats du 11 septembre » ont déclaré les responsables de la filiale de Google.
YouTube admet enfin qu’il doit se poser en arbitre du contenu publié
Cette décision est historique : YouTube admet enfin pouvoir (et devoir) arbitrer le contenu publié. Et que si la plateforme continuera de garantir une liberté d’expression totale et ne censurera aucun contenu, elle doit, moralement, ne plus recommander des vidéos qui défendent l’indéfendable.
Des humains vont donc venir au soutien de l’algorithme, le temps qu’il soit capable de reconnaître seul les vidéos de désinformation. Les critères seront entièrement aux mains de YouToube. Il est possible, comme pour la question de la monétisation, que certaines vidéos, notamment humoristiques, ne fassent les frais de cette automatisation, et se retrouvent classées « dangereuses » par erreur. Mais c’est un pas dans la bonne direction.
Ce bridage de l’algorithme sera d’abord expérimenté aux Etats-Unis, puis étendu au monde entier.