Buenas noticias: YouTube dice que finalmente prohibirá los videos que mienten sobre la efectividad o los peligros inexistentes de cualquier vacuna, no solo los videos centrados en las vacunas de covid-19, y ha cancelado las cuentas de destacados antivacunas como el Dr. Joseph Mercola, un investigador que perdió su reputación, o Robert F. Kennedy Jr. en Estados Unidos.
En octubre de 2020, YouTube anunció la prohibición de los videos que difunden afirmaciones sin bases o pruebas de que las vacunas contra el coronavirus no funcionaron o eran peligrosas, por ejemplo, supuestamente causando autismo o hinchando los testículos de algunos desafortunados hasta el punto que sus prometidas los dejaron (sí, has leído bien). Es posible que estés pensando que ha pasado mucho tiempo desde octubre de 2020, y las teorías de conspiración antivacunas y la desinformación se ha convertido en un problema real en la plataforma. YouTube no prohibió este tipo de contenido engañoso sobre otras vacunas en ese momento, y continúa plagado de videos antivacunas (aunque algunos de los conspiranoicos más conocidos huyeron a otros sitios como la plataforma Rumble, y en general YouTube ha logrado avances significativos en no recomendar activamente contenido antivacunas a los usuarios).
El movimiento antivacunas moderno es una de las razones por las que las campañas de vacunación en los Estados Unidos y en otros países se han ralentizado. Si bien las encuestas han demostrado que la minoría de estadounidenses que se oponen a las vacunas covid-19 se está reduciendo, los conspiracionistas antivacunas han forjado pequeños imperios en las redes sociales. El movimiento es ideológicamente diverso, pero tiene profundas raíces en la conspiración antigubernamental y converge cada vez más con la extrema derecha.
Matt Halprin, vicepresidente de confianza y seguridad global de YouTube, explicó al Washington Post que simplemente tomó mucho tiempo actualizar sus políticas porque estaba realmente enfocada en combatir la información errónea sobre las vacunas contra el coronavirus específicamente, y también tenían que estar de acuerdo en la redacción de los nuevos estatutos.
“Desarrollar políticas sólidas lleva tiempo”, dijo Halprin al Post. “Queríamos lanzar una política que sea integral, aplicable con coherencia y que aborde adecuadamente el desafío”.
Según una publicación del blog de YouTube, la compañía ahora prohíbe:
Específicamente, se eliminará el contenido que alegue falsamente que las vacunas aprobadas son peligrosas y causan efectos crónicos en la salud, que afirme que las vacunas no reducen la transmisión o contracción de enfermedades, o que contenga información errónea sobre las sustancias contenidas en las vacunas. Esto incluiría contenido que diga falsamente que las vacunas aprobadas causan autismo, cáncer o infertilidad, o que las sustancias en las vacunas pueden rastrear a quienes las reciben. Nuestras políticas no solo cubren vacunas de rutina específicas, como el sarampión o la hepatitis B, sino que también se aplican a las declaraciones generales sobre las vacunas.
¡Excelente! Esto también está muy cerca de lo que la plataforma anunció sobre las vacunas contra el coronavirus el año pasado, pero aparentemente, se necesitó de un año para ajustar una política y eliminar la palabra coronavirus.
YouTube seguirá permitiendo videos en los que las personas hablen de “testimonios personales” sobre la vacunación, “siempre que el video no infrinja otros lineamientos de la comunidad, o el canal no muestre un patrón de promoción de dudas sobre las vacunas”.
Un estudio de septiembre de 2020 realizado por el Instituto de Investigación de Oxford y el Instituto Reuters, que cubre parcialmente el período entre octubre de 2019 y junio de 2020, encontró que los videos de YouTube con contenido engañoso o falso sobre las vacunas contra el coronavirus se habían compartido 20 millones de veces en Facebook, Twitter y Reddit. superando a sitios de noticias como CNN, ABC News, BBC, Fox News y Al Jazeera. Curiosamente, el principal influyente en esto parecían ser las veces que se comparten los videos en Facebook, que tenía reglas ineficientes sobre el contenido antivacunas supuestamente orgánico y tardó en expandir sus reglas contra los antivacunas. Esto ilustra la naturaleza interconectada de las plataformas; por ejemplo, YouTube podría dejar de recomendar un video o reducirlo considerablemente en los resultados de búsqueda, pero aún puede acumular muchas vistas si el enlace se comparte ampliamente. (Una encuesta publicada en julio de 2021 encontró que las personas que recibieron sus noticias principalmente de Facebook tenían una probabilidad excesiva de oponerse a la vacunación, lo que no debería sorprender a nadie).
“Durante mucho tiempo, las empresas lo toleraron porque decían: ‘¿A quién le importa si la Tierra es plana, a quién le importa si crees en los chemtrails?’ Parecía inofensivo”, dijo al Post Hany Farid, profesor de la Universidad de California en Berkeley especializado en investigación sobre desinformación. “El problema con estas teorías de la conspiración que tal vez parecían ridículas e inofensivas es que han llevado a una desconfianza generalizada hacia los gobiernos, las instituciones, los científicos y los medios de comunicación, y eso ha sentado las bases de lo que estamos viendo ahora”.
El contenido antivacunas es impulsado principalmente por un segmento de usuarios relativamente pequeño, pero extremadamente determinado y, a menudo, con ánimo de lucro. Como señaló el Post, hasta hace poco, 6 de los 12 antivacunas que un informe del Centro para Contrarrestar el Odio Digital identificó como importantes en la promoción de contenido antivacunas en internet “eran fáciles de buscar y aún publicaban videos” en YouTube. Mercola, el creador de la teoría de la conspiración de las vacunas que causan autismo, y Kennedy Jr., un activista ambiental que se ha convertido en uno de los principales bloqueadores de vacunas del país, estaban en la lista. Otros que han perdido sus cuentas incluyen antivacunas como Erin Elizabeth y Sherri Tenpenny, según The Verge, mientras que un portavoz de YouTube le dijo al sitio que otros como Rashid Bhuttar y Ty y Charlene Bollinger perdieron sus cuentas hace meses.
Es probable que otros sean los siguientes. Esta semana, YouTube eliminó la cuenta alemana de RT, una red respaldada por el estado ruso que ha difundido información errónea sobre la pandemia.