Los peligros de Instagram: investigación reveló que su algoritmo promueve la pedofilia
Instagram es una de las redes sociales más utilizadas en el mundo, lo que permite que se produzcan cientos de contenidos a la vez, difíciles de controlar. En una investigación reciente, analistas demostraron que esta aplicación estaría permitiendo -e incluso promoviendo- la conexión de una red de cuentas dedicadas a la pedofilia.
El estudio fue realizado por el Observatorio de Internet de la Universidad de Stanford y de la Universidad de Massachusetts Amherst, para luego ser publicado por el Wall Street Journal (WSJ).
La aplicación de Meta se maneja mediante sistemas de recomendación que tienen el objetivo de vincular los contenidos de aquellos que comparten intereses para mantenerlos activos. Es a través de este algoritmo que los pedófilos pueden encontrar fácilmente a los vendedores de contenido sexual de menores.
[lee-tambien]https://front-p7.dpsgo.com/notas/sociedad/2023/06/08/nuevamente-concepcion-lidera-el-listado-las-10-ciudades-mas-infieles-de-chile-segun-ashley-madison.shtml[/lee-tambien]
La investigación señala que más del 90% de las cuentas que venden material ilegal están conectadas entre sí a través de estos sistemas de recomendaciones.
Además, el 75% de estos perfiles también interactúan con usuarios que publican imágenes o vídeos sexualmente explícitos de niños o adolescentes.
¿Cómo funcionan las redes pedófilas en Instagram?
Las cuentas pedófilas publicitan su contenido a través de etiquetas explícitas, como ‘sexo preadolescente’, que permite conectar perfiles que utilizan estos términos para anunciar la venta de material sexual infantil e incluso organizar “reuniones” con menores.
Utilizando cuentas falsas, los investigadores pudieron comprobar que, al ver una de estas cuentas, la plataforma rápidamente le proponía otras similares a través de “sugerencias para usted”, donde podían encontrar compradores y vendedores de contenido pedófilo.
“Seguir solo un puñado de estas recomendaciones fue suficiente para inundar la cuenta de prueba con contenido que sexualiza niños”, indicó el Observatorio de Internet de Stanford.
A su vez, los expertos notaron que los usuarios que venden material sexual ilícito no lo hacen de forma explícita para no ser detectados por las autoridades, sino que ofrecen ‘menús’ de contenido donde los compradores pueden elegir lo que deseen e incluso pedir ‘actos específicos’.
Entre los menús se pueden encontrar precios de videos de niños que se autolesionan e “imágenes del menor practicando actos sexuales con animales”, afirmaron los investigadores.
Consumo de contenido ilícito
En muchos casos, Instagram permitió a los usuarios buscar términos que el algoritmo sabía que podían estar asociados con material ilegal, agregando la siguiente advertencia: ‘Estos resultados pueden contener imágenes de abuso sexual infantil’.
Pero, en vez de prohibir esos contenidos, la ventana emergente ofrecía dos opciones: ‘obtener recursos’ o ‘ver resultados de todos modos’.
“El problema de Instagram se reduce a las funciones de descubrimiento de contenido, las formas en que se recomiendan los temas y cuánto depende la plataforma de la búsqueda y los enlaces entre cuentas”, indicó David Thiel, tecnólogo jefe de Stanford.
Entre los usuarios, se encontraron 405 vendedores de contenido pedófilo, incluyendo perfiles que se hacen pasar por menores. En su conjunto, las cuentas sumarían cerca de 22.000 seguidores que consumen los contenidos ilícitos.
La defensa de Meta sobre la pedofilia en Instagram
La empresa reconoció los problemas de su algoritmo y aseguró que estableció un grupo de trabajo interno para abordar la distribución de contenidos ilegales en su red social. De igual manera, admitió que sus sistemas no son perfectos y que dependen en gran medida de las denuncias de los usuarios para actuar.
“Brindamos orientación actualizada a nuestros revisores de contenido para identificar y eliminar más fácilmente las cuentas depredadoras”, aseguraron, indicando que los mencionados problemas técnicos ya habrían sido resueltos.
La plataforma señaló que bloqueó miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones, y que restringió los sistemas que recomendaban a los usuarios la búsqueda de términos asociados con el abuso sexual. Además, aseguraron que en los últimos dos años eliminaron 27 redes pedófilas.
Asimismo, remarcaron que “la explotación infantil es un crimen horrible” y agregaron que se está “investigando continuamente formas de defenderse activamente contra este comportamiento”.