Face à la multiplication récente de vidéos violentes et de désinformation, la Commission Européenne a haussé le ton face à Alphabet, maison-mère de Google et YouTube. La plateforme a été rappelée à ses obligations en matière de modération. Un effort de responsabilité qui n’a jamais dévié, assure sur Radio Classique la directrice générale de YouTube France Justine Ryst.
Plusieurs grandes plateformes dont YouTube, TikTok, Twitter, Meta ont été rappelées à leurs obligations ces derniers jours pour les contenus illégaux et les fausses informations. Que se passe-t-il ?
Nous sommes tous sous le choc de ce qui se passe depuis plus de 10 jours [le déclenchement de la guerre en Israël et le Hamas]. La responsabilité, c’est la colonne vertébrale de YouTube. Cela fait 18 ans qu’on existe. Toute notre infrastructure est construite sur le principe de protéger les utilisateurs.
Nous avons des règles très claires d’usage : les contenus d’appel à la haine, à la violence, à l’antisémitisme n’ont pas lieu d’être sur la plateforme. On utilise l’intelligence artificielle depuis longtemps pour neutraliser ces contenus qui n’ont pas lieu d’être.
Aujourd’hui les réseaux sociaux, les grandes plateformes – dont la vôtre – sont submergés, plus que d’habitude – par les images violentes notamment ?
Je n’ai pas de chiffres à vous donner, il est trop tôt, mais nous avons déjà fait un travail de fond pour neutraliser les contenus indésirables. Il y a davantage de flux, comme à chaque évènement similaire.
L’IA et des équipes de modération pour lutter contre les contenus illégaux
Notre infrastructure a déjà été éprouvée par ce type de contexte. Pendant la Guerre en Ukraine, [YouTube] a supprimé 12.000 chaînes et plus de 100.000 vidéos. Parallèlement, nous faisons remonter tout de suite les sources fiables et référentes d’information qui traitent le sujet, dont Radio Classique par exemple.
Vous avez les technologies, est-ce que vous avez suffisamment de bras, pour gérer la modération ?
Bien sûr. Au-delà de cette infrastructure qui est complètement automatisée, vous avez des équipes de modération qui vont faire ce travail du dernier kilomètre. Nous avons des réseaux de signaleurs de confiance qui travaillent avec nous, une constellation d’associations comme la Licra, e-Enfance, qui ont des chemins d’appels prioritaires.
Nous publions depuis 2018 un rapport de transparence, qui permet de voir notamment le nombre de vidéos supprimées chaque trimestre. C’est un défi permanent. Mais encore une fois, cela fait 18 ans qu’on existe et la responsabilité est notre ossature.
Une nouvelle réglementation européenne mise en place
Quid alors des vidéos diffusées en direct ? La difficulté est plus grande ?
On ne peut jamais contrôler a priori, en effet, il faut que la vidéo soit sur la plateforme. Mais les 2/3 des vidéos qui sont postées sont neutralisées avant même qu’elles aient fait 10 vues, alors qu’il y a 500 heures de contenu téléchargé par minute dans le monde.
La Commission européenne a donné de la voix. Une nouvelle réglementation concerne une vingtaine de grandes plateformes. Est-ce que cette guerre au Proche-Orient est la preuve qu’il en fallait une ?
Vous faites allusion au DSA (Digital Services Act). Nous sommes totalement alignés avec ces principes de rendre un internet plus sûr, plus responsable pour tous. Nous n’avons pas attendu le DSA pour avoir ces règles.
A lire aussi
Mais qu’est-ce qui a changé pour YouTube, avec l’application de ces nouvelles règles ?
Le DSA nous a permis de mettre en place des éléments de transparence un peu plus détaillés. Nous sommes à 100% en soutien de cet internet plus sûr, plus responsable pour tous les acteurs aujourd’hui.