¿Redes sociales cómplices de suicidios?

Por Agencias
redaccion@latinocc.com

La joven Molly Russell, de 14 años, fue hallada muerta en su habitación la mañana del 21 de noviembre de 2017 en Harrow, al noroeste de Londres. 

Se había quitado la vida. Su familia nunca detectó ningún comportamiento extraño en ella, más allá de que durante el último año pasaba más tiempo encerrada en su habitación. Lo achacaron a los cambios propios de la adolescencia. 

Pero cuando su padre, Ian Russell, revisó el correo electrónico de Molly en busca de alguna posible explicación de la tragedia, se encontró con un mensaje de Pinterest de hacía dos semanas titulado “Pins de depresión que te pueden gustar”. 

Siguió investigando y comprobó que, durante los seis meses anteriores a su muerte, la joven compartió o reaccionó en Instagram ante más de 2.000 publicaciones relacionadas con el suicidio, las autolesiones o la depresión.

Cinco años después, Instagram y Pinterest han sido llamadas a capítulo por las autoridades británicas. Elizabeth Lagone, directora de salud y política de bienestar de Meta, empresa matriz de Instagram, y Jud Hoffman, director global de operaciones de la comunidad de Pinterest, declararon a principios de octubre en un juzgado británico. Es la primera vez que dos tecnológicas participan en un proceso legal relacionado con el suicidio de un usuario.

“[Molly Russell] murió a causa de lesiones provocadas por ella misma mientras padecía de depresión y sufría los efectos negativos de contenidos en internet”, dijo Andrew Walker, abogado y médico forense (senior coroner) para el Distrito Norte de Londres. Esta figura tiene en el Reino Unido la potestad de iniciar investigaciones independientes que determinen las causas de la muerte de las personas. 

Walker no clasificó el suceso como un suicidio: el jurista estableció que internet había “afectado su salud mental [en referencia a Russell] de forma negativa y contribuido a su muerte”.

Las empresas no se enfrentan a multas ni sanciones, no se las convocó a un juicio penal o civil, sino a sesiones forenses, pero se ha abierto el debate acerca de su corresponsabilidad en ciertos casos de suicidio, algo que no había sucedido antes. “Nuestros pensamientos están con la familia de Molly y con otras familias que se han visto afectadas por el suicidio o las autolesiones. La historia de Molly ha supuesto un cambio significativo para nosotros y seguiremos trabajando para crear un lugar seguro y positivo para nuestros pinners [usuarios de Pinterest”, asegura Hoffman.

Frances Haugen señaló el camino hace ahora un año, la exempleada de Meta llevó a la compañía a su peor crisis existencial a golpe de filtraciones de documentos internos, que alimentó una vasta investigación periodística de The Wall Street Journal. 

De entre las muchas revelaciones que aportó la ingeniera, hubo una que tuvo especial repercusión: los ejecutivos de Instagram ofrecían a sabiendas contenidos tóxicos a los jóvenes porque resultaban más adictivos y se monetizan mejor. 

Hasta el punto de que una presentación de trabajo revelaba que un 13% de las chicas británicas y un 6% de las estadounidenses que decían haber tenido pensamientos suicidas habían cultivado ese deseo gracias a dicha red social.

Los datos del Pew Research Center muestran que se multiplican las demandas en Estados Unidos de padres que consideran que los algoritmos de las redes sociales causan perjuicios físicos a sus hij@s. 

En lo que va de año se han registrado más de 70 pleitos contra Meta, Snap (dueña de Snapchat), ByteDance (matriz de TikTok) y Google por haber provocado ansiedad, depresión, trastornos alimentarios o falta de sueño en adolescentes y jóvenes adultos por culpa de su adicción a las redes sociales. 

De acuerdo con Bloomberg Businessweek, al menos siete de esos procesos proceden de padres cuyos hijos se han suicidado.

Janet Majewski, cuya hija de 14 años se quitó la vida, demandó en agosto a TikTok, Snapchat y Meta aludiendo que las citadas redes sociales son responsables de que la joven emprendiera un camino de no retorno.

 “Tienen que cambiar lo que muestran a los niños, modificar el algoritmo de manera que no les lleven a la oscuridad”, declaró a Bloomberg Businessweek.

Los pleitos a los que se enfrentan las redes sociales les piden que se responsabilicen de los efectos nocivos de sus productos, igual que sucedió hace 30 años con las tabaqueras.

ALOGARITMOS

Cada minuto se suben a internet 2.4 millones de imágenes en Snapchat, 1.7 millones de publicaciones en Facebook o 66,000 fotos en Instagram, según la consultora Domo. La aproximación de las tecnológicas para cribar toda esa información combina los medios automáticos y analógicos. 

“La política actual de Pinterest sobre autolesiones ofrece una lista detallada de contenidos para su eliminación y la limitación de su distribución, con más de 25,000 términos en la lista de bloqueados. Cuando el contenido infringe nuestras políticas, tomamos medidas al respecto a través de procesos humanos y automatizados. Si un usuario busca contenidos relacionados con el suicidio o las autolesiones, que no se le muestren resultados y, en su lugar, se le muestre un aviso que le dirija a expertos que puedan ayudarle si tiene problemas”, apunta Hoffman. 

La respuesta de Instagram es más flexible. Por un lado, establecen herramientas de control parental de los contenidos que ven los adolescentes. 

También prohíben los que promueven el suicidio o las autolesiones. 

“Encontramos y eliminamos el 98% de ese contenido antes de que se nos comunique acerca de ello”, apunta un portavoz de Meta. Por otro lado, la compañía permite que la gente hable de sus propios sentimientos y que comparta contenidos que traten sobre el suicidio, siempre que no lo promuevan.

El enfoque mixto, que combina herramientas automáticas de detección de material problemático con la moderación humana de contenidos, predomina en el sector. TikTok, por ejemplo, publica informes trimestrales sobre el cumplimiento de sus normas. En el último, que abarca de abril a julio de este año, se muestra que se eliminaron 113,8 millones de vídeos, lo cual supone en torno al 1% del total de vídeos publicados. “De estos, el 6,1% fueron eliminados por incumplir las políticas relacionadas con suicidio y retos peligrosos”, sostienen fuentes de ByteDance, propietaria de la red social.

Una medida más porosa, porque se puede falsear, pero que las tecnológicas se toman en serio, es la edad mínima de acceso. Facebook, TikTok, Instagram, Pinterest y Snapchat no aceptan a menores de 13 años; en YouTube hace falta tener 14. Google bloquea ciertas búsquedas y muestra teléfonos de ayuda a quienes se interesan por contenidos relacionados con las autolesiones o el suicidio. Lo mismo hace TikTok, que está empezando a sustituir a Google como el buscador preferido de los más jóvenes.

“Las tecnológicas creen que ese no es su problema. No está en su cultura empresarial luchar de verdad contra la difusión de contenidos que puedan fomentar el suicidio”, opina Albert Gimeno, portavoz de la asociación Padres 2.0, especializada en ciberacoso, adicciones tecnológicas o violencia digital, entre otras.

 “Las medidas que han puesto en marcha y los equipos que han creado para eliminar el contenido dañino no solo tienen que lidiar con un ingente volumen de información a revisar, sino con otros departamentos de las propias compañías que van en la dirección opuesta, como marketing, publicidad, ventas o comunicación”, añade.

Las redes sociales son enormemente influyentes en las vidas de los jóvenes. “La población adolescente con ciertos rasgos de personalidad y vulnerabilidades emocionales se ponen en contacto en un entorno donde pueden desplegar dolor, desesperación y desconexión con las vías de contacto tradicionales”, ilustra el psicólogo y psicoterapeuta Luis Fernando López, codirector del Proyecto ISNISS y coordinador técnico del programa Hablemos de Suicidio del Colegio Oficial de Psicólogos de Madrid. “Estos perfiles se encuentran en las redes sociales porque se sienten acompañados en los temas que les preocupan, mantienen cierto anonimato y ven que pertenecen a un grupo, tienen la seguridad de no ser enjuiciados y rechazados. Empiezan con comunicaciones públicas y luego evolucionan a entornos privados donde empiezan a desarrollarse conductas como las autolesiones o los pensamientos suicidas”, describe. En España, el número de suicidios infantiles se ha triplicado desde 2006.