La afirmación de que la tierra es plana y que el 11 de septiembre fue un trabajo interno solían ser teorías conspirativas comunes en YouTube, donde su algoritmo de recomendación jugaba un papel importante en su difusión.
Aunque la compañía ha hecho progresos significativos recientemente para resolver el problema, las teorías de conspiración continúan ganando popularidad en la plataforma. ¿Cuál es la razón de esto?
En resumen, el servicio de transmisión de videos de Google no está enfrentando de manera efectiva el desafío central del efecto de agujero de conejo generado por su sistema de recomendaciones, un problema que quizás la compañía no logre solucionar.
Antes que nada, hay una buena noticia. YouTube ha mejorado notablemente en la tarea de limitar la difusión de teorías conspirativas en su plataforma. Un estudio reciente de la Universidad de California, Berkeley, demostró que YouTube ha avanzado considerablemente en la reducción de contenido conspirativo que su algoritmo recomienda.
De acuerdo con la investigación, YouTube logró disminuir en un 70% el tiempo dedicado a ver contenido recomendado de teorías conspirativas. El estudio se llevó a cabo utilizando ocho millones de recomendaciones durante 15 meses.
A principios de 2019, YouTube informó sobre la actualización de su algoritmo de recomendación para eliminar contenido relacionado con teorías de conspiración, como el 11/11, la tierra plana y curaciones milagrosas. En junio, la plataforma destacó que el tiempo que los usuarios pasaban viendo este tipo de videos recomendados había disminuido en un 50 por ciento. Para diciembre, la disminución había aumentado a un 70 por ciento.
No obstante, la disminución significativa fue momentánea ya que los expertos encontraron que la cantidad de videos de teorías conspirativas recomendados por el algoritmo, especialmente los videos originales de estas conspiraciones, ha ido aumentando gradualmente y ahora son solo un 40% menos frecuentes.
El informe también descubrió que ciertas teorías conspirativas que YouTube no estaba abordando, como videos sobre el calentamiento global y la llegada a la luna, tuvieron éxito. La decisión aparente de la plataforma de enfocarse en las teorías de conspiración más conocidas permitió que estas otras también fueran exitosas.
Estos nuevos descubrimientos apoyan una investigación previa realizada por el grupo activista Avaaz a principios de este año. Esa investigación reveló que la cantidad de material que niega el cambio climático en YouTube estaba aumentando a pesar de los esfuerzos de la plataforma por limitar la difusión de otros contenidos conspirativos. Además, encontró que los videos que propagan información errónea sobre el clima estaban siendo promovidos activamente por el algoritmo de recomendación de YouTube.
YouTube ha estado trabajando en los últimos años para eliminar el contenido perjudicial de su amplia plataforma. La compañía afirma tener 2 mil millones de usuarios activos al mes que consumen más de mil millones de horas de video diariamente. Recientemente, el sitio ha publicado nuevas directrices sobre el acoso y ha destacado sus políticas sobre la desinformación política de cara a las elecciones de 2020. Tras una multa de la FTC, la empresa ha tomado medidas recientes para proteger a los niños que ven contenido en su plataforma.
Los críticos han estado investigando durante mucho tiempo a YouTube por permitir la difusión de vídeos de teorías de conspiración perjudiciales en su plataforma. Aunque estos vídeos no van en contra de las políticas de YouTube, la empresa ha optado por no promoverlos activamente a través de su sistema de recomendaciones.
La discusión sobre el algoritmo de recomendación de YouTube a menudo no considera el impacto del “agujero de conejo”. Un solo video recomendado puede llevar a un usuario a consumir mucho más contenido del mismo creador, lo que puede llevar a una radicalización del espectador sin depender más del algoritmo de recomendación.
Es sencillo comprender cómo un creador podría generar contenido de teorías conspirativas que no estuviera siendo vigilado activamente por YouTube, con el objetivo de aprovechar el algoritmo de recomendación y aumentar la visibilidad de su canal.
Alex Jones, quien solía ser el principal creador de contenido de teorías de conspiración en YouTube, fue eliminado de la plataforma en el verano de 2018. Varios otros sitios de redes sociales también lo prohibieron, pero la decisión de YouTube de eliminar a Jones y su programa InfoWars fue especialmente significativa, ya que era uno de los canales más populares en la plataforma.
¿Fue el fin de Alex Jones? De ninguna manera. Jones logró desarrollar su base de seguidores antes de que se tomaran medidas en su contra. En la actualidad, continúa presentando su programa diario a través de su página web.
YouTube se enfrenta a un desafío complicado al tratar de filtrar las recomendaciones de videos, especialmente aquellos de teorías de conspiración “fronterizas” que no son necesariamente amenazantes. Si la plataforma desea abordar de manera efectiva el problema de la desinformación, deberá abordar este tema de manera más detallada.
Plataforma de videos online