MUNDO

“Soy el problema de la vida de todos, los quiero”, la nota suicida de una niña de 14 años

El padre culpa a las redes sociales por el suicidio de su hija; “todo se esfumó con la ayuda de internet y las redes sociales", asegura

  • REDACCIÓN
  • 23/01/2019
  • 17:53 hrs
  • Escuchar
“Soy el problema de la vida de todos, los quiero”, la nota suicida de una niña de 14 años
"Molly dejó notas. Tenemos suerte de tener notas suyas después de que muriera, porque intentó explicarnos cómo se sentía", cuenta su padre

"Molly era la pequeña de tres hermanas. Tenía 14 años y era una adolescente normal. Era entusiasta. Esa noche acabó los deberes y preparó la mochila para ir a la escuela. Cuando nos despertamos a la mañana siguiente, estaba muerta".

Así lo contó Ian Russell, el padre de Molly, una chica inglesa de 14 años que se suicidó en 2017.

Es muy triste. En solo un instante te das cuenta de que tu vida nunca volverá a ser igual", explica.


Molly dejó notas. Tenemos suerte de tener notas suyas después de que muriera, porque intentó explicarnos cómo se sentía", cuenta.

Algunas de las notas decían: 'Soy el problema de la vida de todos. Los quiero a todos. Sean fuertes. Estoy orgullosa de ustedes".

El extraño suicidio de una presentadora de Fox

La familia de Molly indagó en las cuentas de las redes sociales que ella seguía, y encontró contenido sobre la depresión y las autolesiones.

No tengo ninguna duda de que Instagram ayudó a matar a mi hija", denuncia Russell ahora.


De acuerdo con datos de la Organización Mundial de la Salud (OMS), en 2016 se suicidaron en todo el mundo más de 200,000 personas de entre 10 y 29 años.

Mi hija tenía mucho por ofrecer. Y todo se esfumó. Tenemos que aceptarlo. Lo duro es que todo se esfumó con la ayuda de internet y las redes sociales".

“TÚ ESTÁS DEPRIMIDO, YO TAMBIÉN, SOMOS MUCHOS”

Russell explica que decidieron investigar las redes sociales en las que Molly tenía cuentas.

Me acuerdo de encontrar un dibujo con una leyenda: 'Este mundo es muy cruel, ya no quiero verlo más'", explica.


Había cuentas de gente que estaba deprimida, que se autolesionaba o que se planteaba el suicidio. Molly había accedido a muchos contenidos parecidos", añade.


Ian afirma que una parte de los materiales eran positivos, de grupos de personas que intentaban ayudarse entre ellas, mantener una actitud positiva y dejar de autolesionarse.

Pero explica: "Otra parte del contenido es estremecedor, anima a autolesionarse y relaciona las autolesiones con el suicidio".

Las publicaciones de estas cuentas suelen ser en blanco y negro. Son fatalistas, no dejan lugar a la esperanza. Es como decir: únete al grupo. Tú estás deprimido, yo también, somos muchos", explica el padre de Molly.


No nos podíamos imaginar que este tipo de contenido pudiera estar en una plataforma como Instagram. Y todavía está ahí, es muy fácil de encontrar, no está escondido. Está disponible", añade.


LOS ALGORITMOS DE INSTAGRAM, UN ARMA DE DOS FILOS

Ged Flynn es el director de Papyrus, una organización para la prevención del suicidio entre jóvenes que se fundó en Reino Unido en 1997.

En una entrevista, la BBC le mostró a Flynn las imágenes que había encontrado en Instagram.

Iba a decir que no estoy sorprendido, pero lo estoy. El suicidio no es un 'hashtag'. Es una tragedia inimaginable y devastadora", asegura Flynn.


Hay un problema añadido: los algoritmos de Instagram ayudan a los usuarios a localizar contenido relacionado. Al seguir una cuenta de este tipo, la red social te sugiere más.

Si un algoritmo de una red social está programado para ofrecer más contenido del mismo tipo que se ha buscado, en ciertos casos tiene que ser más cuidadoso que cuando se busca, por ejemplo, el término 'flores'", explica Flynn.


Y añade: "Las leyes sobre el suicidio son muy claras: animar a alguien a acabar con su vida es ilegal. Ya sea en internet o en la vida real, ya sea con palabras o con imágenes, cualquiera que te sugiera que deberías hacerlo es, como mínimo, un cómplice potencial".

Instagram debe plantearse seriamente cambiar sus algoritmos para salvar vidas. Y lo tiene que hacer ya", dice.

INSTAGRAM RESPONDE

La BBC intentó entrevistar a responsables de Instagram, que declinaron la propuesta, pero emitieron un comunicado.

No permitimos contenido que promueva o idealice los trastornos alimenticios, las autolesiones o el suicidio. Eliminamos el contenido de este tipo", afirman en la nota.


Instagram sí cuenta con una herramienta que advierte sobre ciertos términos de búsqueda y ofrece ayuda. Pero los usuarios pueden, simplemente, rechazar la ayuda y seguir navegando.


mlmt