Des prises de vues tragiques sur YouTube jettent un nouvel éclairage sur les plaintes «adpocalypse» des créateurs [Mise à jour]

Tournage sur YouTube

Voir plus d'histoires

Tandis que les nouvelles concernant le tournage de mardi sur YouTube, un motif terrifiant a émergé. Avant l'incident, le tireur présumé avait posté des vidéos dénigrant le service, faisant ainsi de lui un ancien utilisateur du site qui rapportait de l'argent.

"Je suis discriminé (e) et filtré sur YouTube, et je ne suis pas le seul", a déclaré le tireur présumé Nasim Aghdam dans une vidéo qui a été partagée après que son identité a été dévoilée. "Ma vidéo d'entraînement est soumise à une limite d'âge. Les activistes végétaliens et d'autres personnes qui essaient de faire valoir un mode de vie sain, humain et intelligent, des gens comme moi, ne sont pas bons pour les grandes entreprises. C'est pourquoi ils discriminent et nous censurent. "

Le tournage a mis un coup de projecteur sur ce sujet qui, jusqu'à présent, était plus susceptible de figurer dans des vidéos en colère de YouTube que dans les gros titres des journaux. Mais bien avant cette fusillade, Aghdam n’était que l’une des nombreuses voix exprimées sur le site à se plaindre des politiques de YouTube.

Il est donc temps de mettre en perspective un sujet qui s’est énervé au cours des dernières 24 heures.

Adpocalypse maintenant

Nous pouvons commencer par revenir en arrière il y a environ un an lorsque YouTube et sa société mère, Google, ont été confrontés à une réaction négative de la part des annonceurs. On peut soutenir que cette "adpocalypse" a été le plus enflammée lorsque le gouvernement britannique a gelé toutes les dépenses publicitaires sur YouTube en mars 2017 après avoir constaté que ses publicités avaient été enregistrées sur des "vidéos extrémistes" sans son consentement. D'autres grands annonceurs américains et étrangers ont emboîté le pas. Plus inquiétant pour Google, les annonceurs ont continué à le faireaprès YouTube a offert des assurances de changements et de révisions.

La proposition à l'intention des annonceurs était simple: tant que leurs annonces pouvaient apparaître sur des vidéos douteuses de quelque type que ce soit, ils faisaient en sorte que les entreprises se lancent dans le malin.

La réponse de YouTube a été tout aussi extrême: une extension radicale de sa désignation de vidéo "restreinte par l'âge" et, par conséquent, une "démonétisation" gifle sur toutes les vidéos tombant du mauvais côté de cette étiquette. Pour réviser, cette désignation inclut, sans toutefois s'y limiter, les suivantes:

  • Langage familier
  • Violence et images dérangeantes
  • Nudité et contenu sexuellement suggestif
  • Représentation d'activités nuisibles ou dangereuses

Si YouTube décidait qu'une vidéo contrevenait au tag du site en fonction de l'âge, cette vidéo serait immédiatement inéligible pour les annonces en pré-roll, ce qui est le principal moyen utilisé par YouTube pour générer des revenus pour ses créateurs.

À première vue, cela devait ressembler à un gagnant, un gagnant. Les annonces seraient étroitement ciblées sur le contenu "le plus sûr" du site géant, et les créateurs de YouTube pourraient toujours publier ce qu'ils souhaitaient, même si des vidéos uniques repoussaient les limites du service. (Ces quatre descripteurs de la liste des groupes d'âge restreints ne violent pas techniquement les conditions d'utilisation de YouTube.) YouTube pourrait continuer à héberger des millions de vidéos téléchargées chaque minute et à maintenir les annonceurs dans un silo de protection.

Broyage potentiel des revenus?

Mais alors, comment YouTube est-il censé garder tout ce contenu bien en protégeant les annonceurs? En engageant des centaines de milliers de modérateurs pour examiner chaque téléchargement individuellement? Le meilleur indicateur que nous ayons pour les effectifs actuels de YouTube provient de la promesse de la société selon laquelle «10 000» modérateurs fonctionneraient à la suite d'une vidéo potentiellement offensante publiée par Logan Paul en janvier. Bien sûr, cet incident était essentiellement un rappel que même des milliers de modérateurs peuvent laisser passer un contenu discutable.

Selon les déclarations de YouTube de l'époque, bon nombre de ces modérateurs se concentraient davantage sur les créateurs de contenu "Google Preferred" que sur les créateurs de contenu plus petits, susceptibles de faire face à un contrôle de filtrage automatisé. YouTube ne s'est pas fait connaître sur ses règles de modération, mais à la mi-2017, ses créateurs avaient déjà commencé à reconnaître les tendances apparentes en matière de modération automatique.

Les plus évidents sont issus de vidéos sur les jeux vidéo. Les créateurs de YouTube ont testé cela en 2017 en téléchargeant des clips contenant des écrans, des vidéos et des phrases sur certains jeux contenant des armes à feu pour déterminer quels clips seraient marqués comme "violents" (et donc comme soumis à une limite d'âge). L'un des premiers exemples les plus médiatisés est apparu lorsque la personnalité de YouTube, TotalBiscuit, avait demandé à ses abonnés en août 2017 d'essayer de provoquer les filtres de démonétisation automatique de YouTube. D'autres créateurs affirment que les règles de YouTube ont été extrêmement incohérentes lors du traitement de tout, des images d'armes à feu aux phrases trouvées dans des jeux tels que "kill steak".

Les créateurs concernés ont commencé à se tourner vers des modèles financés par la masse, tels que Patreon, afin de préserver leur carrière sur YouTube. Ils comptent toujours sur le serveur principal de YouTube pour héberger du contenu, mais ils ont abandonné la combinaison de grèves de démonétisation automatique et imprévisibles processus d'appel lent et incohérent. Les créateurs de YouTube peuvent faire appel de toutes les balises de restriction d'âge, mais comme l'a signalé Kotaku l'année dernière, ce processus de cinq à sept jours peut réduire à néant les revenus potentiels d'une vidéo sur l'actualité ou les derniers jeux, en particulier si la majorité de ses vues entrent dans les cinq premiers. à sept jours.

Les filtres automatiques de YouTube ont semé le chaos dans la démonétisation à travers un large éventail de types de vidéos, notamment ceux sur la politique conservatrice et les questions LGBTQ. Cependant, il est assez difficile de savoir quelles vidéos sont touchées (et pendant combien de temps), en raison du nombre de chaînes pouvant être temporairement utilisées, mais ces frappes sont inversées après un processus de révision inefficace. La vidéo ci-dessus sur les vidéos LGBTQ, par exemple, a elle-même été démonétisée lors de son téléchargement; il a depuis été ajouté à la liste blanche des annonces.

Une vidéo réalisée par le prétendu tireur du QG YouTube Aghdam, qui a été archivée avec succès avant que toute sa présence en ligne ne soit effacée, était principalement axée sur YouTube signalant une vidéo qu'elle venait de créer. Sa plainte comprenait des images de la vidéo démonétisée, montrant un Aghdam entièrement vêtu en train de s'entraîner via des redressements assis et des soulèvements de jambes, ainsi qu'une allégation selon laquelle YouTube avait rejeté son appel, la qualifiant de "inappropriée".

Comme la vidéo archivée n'inclut pas de version complète et non modifiée du clip cité, il est difficile de déterminer si elle contient des violations claires des règles de YouTube. YouTube n'a pas répondu aux questions d'Ars concernant la chaîne YouTube d'Aghdam.

YouTube est donc dans un bateau similaire à d'autres sites dont la réputation tourne autour du contenu généré par l'utilisateur. Le site de streaming peut choisir de rémunérer ses créateurs selon ses préférences ou le risque de les perdre. Mais même après que l'histoire d'Aghdam soit mieux expliquée dans le cadre d'enquêtes policières officielles, les reproches spécifiques à sa vidéo - cette modération automatisée laissant les créateurs du site dans une position intenable - ne disparaîtront probablement pas.

«Rends tes fesses sexy»

Peu de temps après la publication de cet article, la société d’analyses YouTube, ChannelMeter, a contacté Ars Technica avec des estimations de données relatives à l’audience de YouTube. Selon les estimations non officielles de ChannelMeter, Aghdam a enregistré près de 9 millions de visionnements de vidéos sur trois chaînes depuis environ 2013. (ChannelMeter a déclaré ne pas être en mesure de suivre les données d'une quatrième chaîne qu'elle contrôlait apparemment.) Les calculs de données comprenaient des références précises aux vidéos d'Aghdam n'existe désormais que via les recherches en cache de Google.

La plupart de ses vidéos les plus performantes ont été téléchargées avec des titres en caractères farsi, et un examen immédiat des titres a révélé que ses trois vidéos les plus performantes comprenaient le mot "سکسی", une translittération en farsi du mot "sexy" contexte de vidéos d'entraînement et d'exercice. Un exemple, une autre vidéo, décrite comme une "vidéo de danse", porte un titre qui se traduit directement par "seins de ballon Nasim Sabz". Nasim Sabz était le surnom d'Aghdam pour ce compte.

Ces titres ne clarifient pas le contenu exact de ses vidéos, mais ils suggèrent que le compte d'Aghdam aurait pu être un candidat idéal pour un contenu innocent ou qui enfreint les règles, avec des vues exprimées par millions, démonétisé par la modération automatique de YouTube. bots.]