El portavoz de YouTube afirma que este no es el caso
Una nueva investigación de una coalición de creadores e investigadores de YouTube acusa a YouTube de confiar en un sistema de «bots intolerantes» para determinar si ciertos contenidos deben ser desmonetizados, específicamente los vídeos LGBTQ.
La investigación fue realizada por tres personas: Sealow, el director ejecutivo de la empresa de investigación Ocelot AI; el creador de YouTube Andrew, que opera el canal YouTube Analyzed; y Een del popular canal de investigación y comentarios de YouTube Nerd City.
La investigación fue estimulada por el interés de ver qué palabras eran automáticamente desmonetizadas por los robots de aprendizaje de YouTube, a medida que crecían las preocupaciones sobre la transparencia entre los ejecutivos y YouTubers dentro de la comunidad de creadores. Andrew probó manualmente 15.300 palabras entre el 2 de junio y el 5 de julio de 2019, utilizando los términos más comunes en el Diccionario Webster, UrbanDictionary y los resultados de búsqueda de Google. La segunda ronda de experimentos se llevó a cabo entre el 6 y el 21 de julio, e incluyó 14.000 palabras que fueron automatizadas utilizando la API de datos de YouTube de Sealow. Een colaboró con sus propias fuentes y ayudó a producir el vídeo principal.
Andrew, Sealow y Een publicaron sus videos individuales sobre los hallazgos, junto con una hoja de Excel con una lista de todas las palabras que usaron y un análisis de sus hallazgos. Estas palabras se utilizaron para probar lo que los robots de YouTube consideran automáticamente inapropiado para la monetización. El equipo descubrió que si palabras como «gay» y «lesbiana» cambiaban a palabras aleatorias como «feliz», el «estado del vídeo cambiaba a «amigable con el anunciante» cada vez, dice Een en su vídeo.
Alcanzado por The Verge, un vocero de YouTube negó que hay una lista de palabras LGBTQ que desencadenan la desmonetización, a pesar de los hallazgos de la investigación. El portavoz añadió que la compañía está «evaluando constantemente nuestros sistemas para ayudar a asegurar que reflejen nuestras políticas sin sesgos injustos».
«Estamos orgullosos de las increíbles voces LGBTQ+ en nuestra plataforma y tomamos muy en serio estas preocupaciones», dijo el portavoz. «Utilizamos el aprendizaje automático para evaluar el contenido en función de las directrices de nuestros anunciantes. A veces nuestros sistemas se equivocan, por eso hemos animado a los creadores a apelar. Las apelaciones exitosas aseguran que nuestros sistemas sean actualizados para mejorar cada vez más».
«HETEROSEXUAL ES UNA PALABRA VERDE»
Los sistemas de desmonetización automatizada de YouTube se basan en muchas señales, pero no hay una lista específica incorporada en el sistema de aprendizaje automático de la compañía, según la compañía. La compañía confirmó que prueba muestras de videos de creadores LGBTQ cada vez que se introducen nuevos clasificadores de monetización para asegurar que los videos LGBTQ no sean más propensos a ser desmonetizados. Pero la compañía afirma que el sistema de revisión actual, que es utilizado por moderadores humanos que supervisan las apelaciones, refleja adecuadamente las políticas de la compañía en torno a los términos LGBTQ.
Pero los hallazgos de los investigadores sugieren que hay un sesgo significativo en el trabajo antes de que los moderadores humanos se involucren. Su investigación les llevó a la conclusión de que los robots de aprendizaje de YouTube que se utilizan específicamente para examinar si un vídeo está disponible para monetizar utilizan un «nivel de confianza oculto que oscila entre 0 y 1». Aquellos más cercanos a cero son aprobados para la monetización, mientras que otros más cercanos a uno son desmonetizados. Efectivamente, si se considera que un vídeo está por encima del umbral de YouTube, se desmonetiza inmediatamente y tiene que ser revisado manualmente.
«Los clasificadores de Youtube han sido entrenados para tratar de predecir la probabilidad de que un video sea desmonetizado en base a los datos de entrenamiento (en base a los resultados de la revisión manual previa)», dijo Sealow a The Verge. «Así que un puntaje de 1 es 100 por ciento seguro de que debe ser desmonetizado, mientras que 0.5 es 50 por ciento y así sucesivamente. Youtube ha tenido que establecer un cierto umbral aceptable – digamos’35 por ciento de confianza’ donde cualquier video que esté por encima de la puntuación de 0,35 será desmonetizado y requerirá una revisión manual antes de ser aprobado para la monetización».
LA EMPRESA PRUEBA MUESTRAS DE VIDEOS DE LOS CREADORES DE LGBTQ CADA VEZ QUE SE INTRODUCEN NUEVOS CLASIFICADORES DE MONETIZACIÓN
En el análisis de sus hallazgos, Sealow afirma que la «lista se interpreta mejor como una lista de palabras clave con carga negativa, ya que algunas palabras se consideran más severas que otras».
Cada video cargado con fines de prueba duraba entre uno y dos segundos y «no presentaba ningún contenido visual o de audio que pudiera desencadenar la desmonetización», dice el informe. El período de espera para la aprobación o denegación de la monetización fue de unas dos horas. Las palabras asociadas con la comunidad LGBTQ o los términos utilizados en comentarios como «demócrata» o «liberal» son «probablemente cargadas negativamente debido a su uso en comentarios políticos que a menudo se consideran no amigables con los anunciantes», dice el informe.
«Los mismos videos son monetizados sin la terminología LGBTQ», dice Sealow en su video. «No se trata de que las personalidades LGBTQ sean desmonetizadas por algo por lo que todos los demás también serían desmonetizados, como el sexo o la tragedia. Esta es la terminología LGBTQ como’gay’ y’lesbiana’ siendo la única razón por la que un video es desmonetizado a pesar del contexto».
Las acusaciones hechas en el video no son nuevas, pero el estudio es el más extenso. Los ejecutivos de YouTube, incluyendo a la directora ejecutiva Susan Wojcicki y al director general de productos Neal Mohan, han hablado sobre la preocupación de que ciertas palabras clave en metadatos y títulos conduzcan a la desmonetización automática. Es una preocupación especialmente frecuente dentro de la comunidad LGBTQ. YouTube ha negado categóricamente que haya políticas «que digan ‘Si pones ciertas palabras en un título que será desmonetizado'», como dijo Wojcicki a YouTuber Alfie Deyes en una larga entrevista en agosto.
«ESTA ES LA TERMINOLOGÍA LGBTQ COMO’GAY’ Y’LESBIANA’ SIENDO LA ÚNICA RAZÓN POR LA QUE UN VIDEO ES DESMONETIZADO A PESAR DEL CONTEXTO.»
Trabajamos increíblemente duro para asegurarnos de que cuando nuestras máquinas aprendan algo, porque muchas de nuestras decisiones se toman algorítmicamente, nuestras máquinas sean justas», añadió Wojcicki. «No debería haber desmonetización automática».
Esto no ha impedido que los creadores utilicen un lenguaje secreto en sus vídeos e incluyan Google Documents en su sección de comentarios para comunicarse con los espectadores. YouTuber Petty Paige mostrará la infame imagen del símbolo del dólar amarillo – un símbolo que tanto los creadores como el público saben que significa que un video está desmonetizado – lo que significa que sus fans deberían leer el documento que se encuentra en el enlace de abajo para entender por qué está usando palabras específicas. Teorizó, como muchas otras personalidades LGBTQ, que usar palabras como «lesbiana» o «transgénero» podría resultar en desmonetización. Cambiar esos términos por otras palabras aleatorias aparentemente no lo hizo.
«Es igual de discriminatorio si nunca dices esto, e incluso más explotador si lo haces», dijo Een.
A principios de este verano, varios creadores LGBTQ presentaron una demanda contra YouTube por supuestas prácticas discriminatorias, incluyendo contenido injustamente desmonetizante que incluía términos favorables a los LGBTQ. La demanda también alega que YouTube perjudica activamente el número de espectadores de sus canales al colocar los videos en modo restringido, por lo que la compañía se ha disculpado anteriormente, y por lo tanto limita su capacidad de ganar dinero. La demanda afirma que «YouTube está involucrado en una conducta discriminatoria, anticompetitiva e ilegal que daña a una clase protegida de personas bajo la ley de California».
«Estamos cansados de ser aplacados con mentiras claras y promesas huecas de que o lo han arreglado o lo van a arreglar», dijo a The Verge en ese momento Chris Knight, co-anfitrión de un programa de noticias LGBTQ en YouTube, GNews! «Está claramente roto. Hay un claro sesgo con su inteligencia artificial, sus políticas. Lo que realmente queremos es que cambien».
Sealow y Een afirman que no creen que YouTube o Wojcicki sean homofóbicos o que empleen a propósito supuestas prácticas homofóbicas. Específicamente agregan que esto no se debe a políticas específicas de YouTube o a «la falta de programas para mitigar la discriminación algorítmica».
«Es simplemente el resultado de la naturaleza probabilística de los clasificadores de aprendizaje automático utilizados por el bot de desmonetización», añade el informe de Sealow.