MUNDO

El algoritmo perverso de YouTube que abre la puerta a la pedofilia

A la vez que YouTube pone restricciones para hacer de su plataforma “Family Friendly”, su algoritmo hace recomendaciones sugerentes que contradicen sus nuevas políticas

  • REDACCIÓN
  • 04/06/2019
  • 15:09 hrs
  • Escuchar
El algoritmo perverso de YouTube que abre la puerta a la pedofilia
El algoritmo perverso de YouTube que abre la puerta a la pedofilia (Foto Especial)

¿Cómo un video casero de dos niñas de alrededor de 10 años jugando en una piscina, “inocente”, “sin importancia”, subido a YouTube, puede tener casi medio millón de visitas?

Eso se preguntó Christiane cuando su hija y una de sus amigas subieron dicha grabación a la plataforma. Las menores se emocionaron cuando alcanzaron las mil visitas, sin embargo, su madre se asustó cuando éste alcanzó cientos de miles de reproducciones en tan poco tiempo.

El hecho no fue una casualidad, sino una causalidad realizada por el propio YouTube y su sistema de recomendaciones que, según un estudio del Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard citados por The New York Times, abre la puerta de su plataforma a los pedófilos.

Jonas Kaiser, uno de tres investigadores del caso en Harvard, califica lo hecho por el algoritmo de YouTube como algo “atemorizante”.

Desde inicios de año se alertó que pedófilos veían estos videos y lo compartían con otros depredadores sexuales a la vez que utilizaban la sección de comentarios para guiar a otro pedófilos detallando minutos y segundos donde los menores realizaran posiciones o actitudes sugerentes.

Fue el youtuber Matt Watson quien a través de un video dijo haber descubierto una red de pedofilia en YouTube.

"Las recomendaciones del algoritmo de YouTube están facilitando a los pedófilos la capacidad de conectarse entre sí, intercambiar información y poner enlaces en los comentarios"

Con un par de clics, detalló Watson, accedió a contenido publicado por pedófilos; para el youtuber, la plataforma es utilizada por pedófilos para intercambiar contenido de menores y contactos.

Tras el video de Matt, segun detalló BBC Mundo,  compañías como Disney, Nestlé, Purina, McDonalds, Canada Goose, Epic Games y Fortnite retiraron su publicidad de YouTube.

La respuesta de YouTube, además de calificar el problema de “profundamente preocupante”, fue deshabilitar los comentarios en muchos de los videos donde los protagonistas eran niños.

En tanto, el sistema de recomendaciones se mantiene en funcionamiento, el cual es el culpable de llevar a pedófilos a grabaciones como la de la hija de Christiane.

Kaiser tiene claro que es muy difícil que la meta de YouTube sea ofrecer videos a usuarios con intereses sexuales en niños, sin embargo, su sistema de recomendaciones automatizado es “inquietantemente precisa”.

Los usuarios no tienen que buscar videos de niños para terminar viéndolos, sino que YouTube los dirige a este tipo de contenido.

Los investigadores explican como sucede: Un usuario que mira videos eróticos o con contenido para mayores comienza a recibir recomendaciones de videos de mujeres cada vez más jóvenes, luego de féminas que posan de forma provocativa con ropa de niños, para al final llegar a videos de menores de edad entre los 5 y 6 años, que visten trajes de baño, se estén vistiendo, hagan piruetas o incluso estén abriendo las piernas.

Un caso fue muy claro y “perturbador”: los investigadores vieron videos de mujeres hablando sobre sexo, mismos que los conducían a grabaciones de mujeres en ropa interior, amamantando o protagonizados por menores.

Otro ejemplo: Reprodujeron videos de mujeres solicitando donaciones a hombres mayores o haciendo alusión a videos privados donde posaban desnudas, luego, las sugerencias eran de féminas que posaban con ropa de niños; posteriormente, YouTube comenzó a sugerir contenido de videos pequeños y parcialmente vestidos.

Estos videos con menores de protagonistas llegan a tener millones de visitas.

Al respecto, YouTube rechazó los señalamientos, pero confirmó que esto probablemente era resultado de ajustes rutinarios a sus algoritmos.

La plataforma también “culpa” a la inteligencia artificial, la cual está aprendiendo constantemente qué sugerencias mantendrán a los usuarios viendo videos.

Los investigadores, que llaman a lo descubierto como “Efecto Madriguera”, aseguran que no solo sucede con el caso de niños, sino que YouTube lleva a los usuarios a videos cada vez más extremos.

Por ejemplo, quien ve videos de maquillaje le llegan sugerencias de un video viral sobre una transformación de imagen; o quien ve grabaciones sobre ciclismo, le llegan sugerencias de choques impactantes en carreras de bicicletas.

Pese a ello, la plataforma más grande de videos en internet no ha desactivado su sistema de recomendaciones en videos de niños, pues este es el mayor impulso de tráfico –alrededor del 70%– y retirarla afectaría las reproducciones de las grabaciones, así como a sus creadores. Sin embargo, aseguró que limitaría las recomendaciones de videos cuando considere se pone en peligro a los niños.

Yasodara Córdova, otro de los investigadores de Hardvard, asegura que las grabaciones de niños que finalmente sugiere YouTube no tienen intenciones sexuales, no en un inicio, pero es el algoritmo el que aprende a buscar imágenes sugestivas de menores para ofrecerla a personas que no buscan ese tipo de contenido.

Psicólogos consultados por The New York times refieren que mostrar videos de niños junto a contenido sexual más convencional ponía en riesgo erosionar el tabú contra la pedofilia, “lo normalizas”.

Los investigadores de Harvard sostienen que las personas que de un contenido de índole sexual terminan en videos de niños, “no van más allá”. Aun así, que normalmente los menores creadores de estos videos pongan a la mano sus redes sociales personales, los expone.  

Finalmente, YouTube sólo atina a decir que no permite que niños menores de 13 años tengan canales, política que hace cumplir estrictamente.

Con información de BBC Mundo y The New York Times

rgg