Contenido creado por Gerardo Carrasco
Vida en la red

No lo cura, locura

Facebook y Youtube no hacen bien los deberes, y eso pone en peligro la salud de miles

Ambas compañías se muestran ineficaces a la hora de controlar la información falsa acerca de temas de salud que circula en sus plataformas.

18.10.2018 10:33

Lectura: 8'

2018-10-18T10:33:00-03:00
Compartir en

Hoy en día, la ciencia médica cuenta con varias herramientas para combatir el cáncer: cirugías, quimio, radioterapia son algunas de ellas, y pese a que no pueden garantizar el éxito en el 100% de los casos -no hay terapia que haga eso- han demostrado su eficacia una y otra vez, primero en pruebas de laboratorio y luego en la práctica.

Sin embargo, quienes se den una vuelta por Internet, encontrarán una cantidad de "tratamientos" que prometen el milagro de librarse del cáncer de forma sencilla, barata y sin contraindicaciones: jugo de limón, bicarbonato, diente de león, plata coloidal, lechero africano y dietas alcalinas son algunos de los muchos embustes que circulan, según denunciáramos tiempo atrás en esta nota. Y lo más grave de ello es que suelen aparecer en los primeros lugares de los motores de búsqueda.

En las redes sociales la lucha contra los bulos sanitarios y la desinformación peligrosa pierde batallas a diario. Todo eso en un contexto en el que buena parte de la información sobre salud que circula en redes es falsa, según numerosos estudios recientes, que observan que en algunos casos la mayoría de lo compartido es desinformación intencionada. Mientras, las grandes compañías de redes sociales mantienen muchos de esos contenidos tóxicos aludiendo a la libertad de expresión y a sus ambiguas políticas de retirada de contenidos.

"Te presentamos un remedio casero. El cáncer se muere en tan solo 42 horas. Jugo de remolacha para curar el cáncer". Es fácil escuchar estas falsedades con tan solo pedirle al buscador de YouTube vídeos con los conceptos "cura" y "cáncer". Afirmaciones muy peligrosas que denunciaron hace dos semanas en un informe el Colegio de Médicos de Barcelona, el Departamento de Salud y el Consejo Audiovisual de Cataluña. Al hacer esa búsqueda en la popular web de vídeos, el 74% de los 50 primeros resultados eran patrañas como estas y otros mensajes pseudocientíficos, denunciaba el estudio, según recoge un artpiculo del periodista Javier Salas, publicado por el periódico matritense El País.

Estas tres instituciones pusieron el foco en 14 de estos videos por la especial gravedad de su contenido y porque registran más de 25 millones de visualizaciones conjuntas. Juntos le pidieron a YouTube que los retirara porque "prometen curar el cáncer siguiendo procedimientos milagrosos sin ninguna base científica y desacreditan los tratamientos de los profesionales de la medicina".

YouTube no los ha retirado. Una portavoz de la compañía insistió al citado medio en que no pueden hacer comentarios sobre casos específicos, y recordó que ellos se ciñen al cumplimiento de la legalidad y su política: "Cuando un video ha sido marcado y viola nuestros Términos y Condiciones lo retiramos, cuando no los incumple, permanece en la plataforma". Así las cosas, ahí siguen los videos, sus canales, y las innumerables copias que le han surgido.

Josep Pàmies, uno de los más populares divulgadores de pseudociencias y falsos remedios de España, disfruta de un gran altavoz: su página en Facebook, que cuenta con más de 330.000 seguidores de todo el mundo. Desde el citado periódico español se hizo contacto con la compañía que dirige Mark Zuckerberg para conocer con qué criterio se mantenía abierta esa página, dado que la red social asegura que trata de combatir la desinformación y que su prioridad es "preservar la seguridad de las personas". En esta página, Pàmies insiste una y otra vez en vilipendiar a la medicina y en recomendar todo tipo de falsos remedios que pueden engañar a la población (muchas veces enlazando vídeos de YouTube), como un tipo de hipoclorito industrial (MMS) que curaría cualquier enfermedad o trastorno, desde el ébola hasta el autismo. Un producto prohibido por el Ministerio de Sanidad español desde 2010 por sus efectos adversos potencialmente graves y cuya promoción le ha supuesto una apertura de expediente por parte de la Generalitat de Cataluña.

El miércoles, horas después de consultarles expresamente por Pàmies y el MMS, su página quedaba cerrada momentáneamente al público. La respuesta de la compañía fue que sus normas incluyen reglas estrictas sobre la promoción del MMS: "Estas publicaciones se eliminaron, pero la página se eliminó por error al mismo tiempo". No obstante, siguen visibles docenas de publicaciones sobre el MMS, junto a otras tan engañosas y peligrosas, como atribuir todo tipo de males a las vacunas infantiles. La web de Pàmies es una de las consideradas especialmente peligrosas por el Observatorio contra las Pseudociencias de la Organización Médica Colegial. La normativa de Facebook asegura que se comprometen "a eliminar cualquier contenido que fomente situaciones dañinas en el mundo real, incluidos (entre otros) los daños físicos, económicos y emocionales". Pero la página sigue abierta, con cientos de miles de seguidores, y el propio Pàmies clama contra los intentos de cercenar su libertad de expresión.

Reneé DiResta, experta en el análisis de la desinformación en la redes, explica que existe una diferencia entre el derecho a la expresión y el derecho a obtener la máxima difusión. "El algoritmo de recomendación de video de YouTube inspira 700.000.000 horas de tiempo de visualización por día, y puede difundir información errónea, perturbar las elecciones e incitar a la violencia. No hay un derecho a la amplificación algorítmica. De hecho, ese es el problema que necesita arreglarse", aseguraba DiResta en la revista Wired. No es lo mismo poder escuchar a un curandero si quieres hacerlo, que encontrártelo como primer resultado en Youtube cuando solicitas información sobre cáncer, que es lo que ocurre en la actualidad. Es el algoritmo de recomendación el que te lo sirve en bandeja. Mucho antes de que se conociera el uso de bots en Twitter para alterar los procesos democráticos, DiResta ya denunciaba su uso por parte de antivacunas para manipular a los políticos. Ahora, esta experta denuncia que Facebook permite a estos colectivos anunciarse en su plataforma.

"YouTube es el segundo buscador del mundo y está lleno de información falsa. En algunos casos, para determinadas enfermedades o temas de salud, hay más información falsa que verdadera", denuncia Carlos Mateos, coordinador de la iniciativa #SaludSinBulos, lanzada para poner freno a estos problemas. "Hay mucha declaración de que se va a actuar, pero no estamos viendo muchos resultados", critica en referencia a las compañías de redes sociales.

Las redes sociales llevan mucho tiempo completamente intoxicadas por mensajes pseudocientíficos y bulos malintencionados del ámbito de la salud. La mitad de los mensajes publicados en Twitter sobre vacunas contienen creencias contrarias a la vacunación, según un estudio que analizó 550.000 tuits difundidos entre 2009 y 2015. Varios estudios han demostrado que esta exposición a información negativa sobre las vacunas se asocia con un aumento de los recelos y el retraso de la vacunación. Otro ejemplo: el 40% de los enlaces sobre temas de salud que se compartieron entre 2012 y 2017 contenían bulos o desinformación, según un estudio realizado en Polonia.

Durante la epidemia de zika surgida en Brasil, se monitorizó la información sobre el virus en Facebook: "Descubrimos que las publicaciones engañosas eran mucho más populares que las que difundían información precisa y relevante", explicaban los investigadores que lo estudiaron. La publicación útil más popular fue un comunicado de la Organización Mundial de la Salud, que tuvo una audiencia de 43.000 visitas con casi 1.000 interacciones. La publicación engañosa más popular fue un vídeo llamado "10 razones por las cuales el miedo al virus del Zika es un engaño médico fraudulento". Tenía más de 530.000 visitas, más de 19.600 interacciones combinadas y más de 600 comentarios de apoyo.

Esfuerzos algorítmicos

Tanto YouTube, como Facebook, como Twitter han respondido a estos cuestionamientos exhibiendo su capacidad para retirar millones de publicaciones y cuentas fraudulentas de forma automatizada gracias a sistemas de detección que suprimen videos y links antes de que se lleguen a ver. Con miles de millones de usuarios, estas compañías necesitan soluciones escalables y automatizadas.

Las normas de YouTube aseguran que no admiten "ningún contenido que tenga la finalidad de promover la violencia o de fomentar la realización de actividades ilegales o peligrosas que conlleven riesgo de muerte o de lesiones físicas graves". Y aunque no retiren los videos denunciados por las autoridades sanitarias, YouTube puede impedir que recauden dinero con publicidad, desincentivando canales creados para lucrarse desinformando. En otros casos, los ingenieros pueden esconder a mano videos indeseables para impedir que el algoritmo los recomiende. En este momento, la búsqueda de cura y cáncer sigue devolviendo una abrumadora cantidad de videos de contenido fraudulento.

En los últimos meses, la compañía de Mark Zuckerberg cerró más de 80 cuentas en inglés vinculadas a grupos y páginas de difusión de pseudociencias y bulos sanitarios, como mentiras contra la vacunación, algunas de ellas con millones de seguidores, en el contexto de su lucha contra la desinformación en la red, pero sin aclarar los motivos.

La única normativa específica de Facebook en este campo de lo sanitario es la prohibición de vender medicamentos, lo que motivó la retirada de varias páginas de la red social a petición de la Agencia Española del Medicamento en 2016, porque se "enlazaban a páginas de venta o promocionan productos no autorizados que tienen actividad farmacológica o a páginas que venden ilegalmente medicamentos".