13 avril 2018

Les humains reprennent les commandes de Youtube Kids

Youtube Kids, la version enfant du site de vidéos, renonce aux algorithmes. Désormais, ce sont des modérateurs qui veilleront à ce que les contenus soient adaptés au jeune public.

Youtube Kids
Grâce à des modérateurs humains, les contenus pour enfants devraient être davantage contrôlés sur Youtube Kids. (Photo: Getty Images)
Temps de lecture 4 minutes

Youtube n’aura plus recours aux algorithmes, mais aux humains pour filtrer les vidéos de Youtube Kids, sa plateforme destinée aux enfants. L’information divulguée en début de semaine passée fait suite à une série de scandales médiatiques au sujet de contenus déplacés ou choquants diffusés sur l’application. Une nouvelle qui sonne comme un désaveu.

Youtube Kids promettait pourtant aux parents de ne diffuser que des vidéos inoffensives à leurs enfants (3-9 ans) afin qu’ils puissent naviguer tranquillement sur le site. Pour se charger de la sélection des contenus, l’application avait misé sur un système automatique: l’algorithme. Mais que désigne exactement ce terme qui semblait jusque-là régner en maître sur le web? «Il s’agit d’une formule qui croise l’historique des choix de l’utilisateur avec les vidéos disponibles, explique Steven Meyer, co-fondateur de Zendata. Le but: trouver les vidéos qui correspondent au mieux au désir et à la curiosité de l’utilisateur.» Seul problème, ces algorithmes font souvent de mauvaises pioches. Résultat, des enfants se seraient retrouvés face à des vidéos conspirationnistes ou à des commentaires non modérés à caractère pédophile.

Pour endiguer le problème, Youtube devrait lancer une nouvelle version – modérée manuellement – ces prochaines semaines. Celle-ci prendrait la forme d’une option, mais le site n’a encore rien confirmé. «Pour le moment, il s’agit surtout de rumeurs», confirme Steven Meyer. Il faudra donc encore patienter avant d’obtenir plus de détails de la part du géant du web.

Youtube renonce aux algorithmes au profit de modérateurs. Une bonne idée?

Steven Meyer: «Aujourd’hui, on ne veut plus dépendre à 100% des algorithmes»

Steven Meyer est co-fondateur et directeur de Zendata, compagnie experte en cyber-sécurité.

Youtube voudrait remettre l’humain aux commandes de sa plateforme enfant. Qu’est-ce que cela pourrait changer?

Le site devrait passer à un système qu’on appelle «liste blanche» où des humains vont sélectionner des vidéos et des chaînes de vidéos une à une, et uniquement les contenus approuvés seront disponibles sur l’application. L’un des changements principaux qui se produira alors, c’est le choix dans les vidéos. Youtube va restreindre énormément sa liste de propositions pour sa plateforme enfants.

C’est-à-dire….

Puisque ce sont maintenant des humains qui doivent valider les vidéos, on peut imaginer que les petites productions et les indépendants auront beaucoup moins de chances d’apparaître dans la liste sélectionnée. Youtube va d’abord s’intéresser aux grandes productions comme Disney alors que les petits producteurs de dessins animés de Suisse romande, pas connus, risquent par exemple, d’être laissés de côté.

Avec des humains aux manettes, serons-nous garantis d’avoir un contenu qui ne fasse plus scandale?

Il y a un exemple assez éloquent qui démontre l’ambiguïté de la tâche confiée aux humains, c’est celui du film La Belle et la Bête sorti en 2017. Il y a eu tout un scandale autour de cette production Walt Disney parce qu’à la fin du film, il y aurait une allusion de type homosexuel. Résultat: en Russie, le film a été interdit pour les moins de 16 ans, en Malaisie, le film a dû différer sa sortie... Cela montre à quel point ce qui est considéré comme approprié pour des enfants est subjectif. De là découlent diverses questions plus personnelles: est-ce que j’autorise ou non l’éducation sexuelle à mes enfants? Est-ce que j’autorise la nudité ou la violence? Je pense donc que toutes ces problématiques vont ressortir maintenant, et qu’on devra les affronter puisqu’il n’y aura plus d’algorithmes pour se couvrir.

En gros, vous dites qu’il y aura toujours des mécontents…

Oui, et ce, quelle que soit la façon dont le site sera modéré par les administrateurs humains. Les cultures, valeurs et éducations sont trop variées à travers le monde pour que tout le monde approuve et accepte le même contenu. Idéalement, ça devrait être à chaque parent de choisir les vidéos appropriées pour ses enfants.

Jusqu’à présent, comment fonctionnait l’algorithme de Youtube?

Youtube, qui appartient à Google, est toujours obscur par rapport aux algorithmes qu’il met en place. Publiquement, la plateforme affirme prendre en compte la catégorie, le titre, la vignette, les descriptions, les commentaires et la réaction (les likes), mais aussi l’historique personnel des vidéos qu’on a déjà visualisées.

Comment se fait-il qu’avec tant de critères, des contenus choquants n’aient pas été bloqués?

Les algorithmes sont loin d’être parfaits. La façon dont les machines apprennent et automatisent, c’est quelque chose qu’on ne maîtrise pas encore complètement. Et on est vraiment dans une ère où tout le monde veut utiliser de l’intelligence artificielle et du «Machine Learning» . Ça peut beaucoup apporter, mais on ne maîtrise pas les risques. On est donc dans une vraie zone grise.

La décision de Youtube pourrait-elle impacter des sites comme Facebook dont les algorithmes semblent incapables de supprimer les «fake news» ?

La mouvance actuelle indique qu’on ne veut plus dépendre à 100% des algorithmes ou en tout cas, qu’ils doivent être contrôlés. Ensuite, c’est à chaque entreprise de décider jusqu’à quel point il est nécessaire d’impliquer de l’humain dans le processus. L’humain coûte très cher, surtout par rapport à une machine, donc on ne peut pas s’attendre à ce que tous les produits maintenant automatisés soient remplacés.

Benutzer-Kommentare

Articles liés

Steve Gaspoz

Proche et loin tout à la fois

Illustration de Nelio dans son quotidien en Ouganda

«En Suisse, nous avons le meilleur des chocolats!»

Portrait de Nicolas Vulliemoz, Responsable de l’Unité de médecine de la reproduction au Centre hospitalier universitaire vaudois (CHUV)

Nicolas Vulliemoz: «Le bien-être du futur enfant prime»

Question mansucrite d'enfant: pourquoi devient on terroriste?

Pourquoi il y a des terroristes?