instagram usted está cansado redes sociales más utilizado en el mundo, lo que permite que produzcan cientos de contenidos a la vez, dificultades de control. Es por ello que en una investigación reciente, los analistas demostraron que esta aplicación estaría permitiendo e incluso promoviendo la conexión de una red cuentas dedicada a la pedofilia.

El estudio fue realizado por el Observatorio de Internet de la Universidad Stanford hay Universidad de Massachusetts Amherstpara luego ser publicado por el Diario de Wall Street (WSJ).

La aplicación de Meta se maneja mediante sistemas de recomendación que tienen el objetivo de vincular los contenidos de aquellos que comparten intereses para mantener los activos. Es a través de este algoritmo que los pedófilos pueden encontrar fácilmente a los vendedores de contenido sexual de menores.

Así fue como el pedófilo Jeffrey Epstein extorsionó a Bill Gates por su relación con una joven rusa

La investigación señala que más del 90% de las cuentas que venden material ilegal están conectados entre sí a través de estos sistemas de recomendaciones. adams, el 75% de estos perfiles también interactúan con los usuarios que publican imágenes o vídeos sexualmente explícitos de niños o adolescentes.

¿Cómo funcionan las redes pedófilas en Instagram?

Las cuentas pedófilas publicitan su contenido a través de etiquetas explícitasven ‘preadolescente sexual‘, que permite conectar perfiles que utilizan estos términos para anunciar la venta de material sexual infantil e incluso organizar ‘reuniones’ con menores.

Utilizando cuentas falsas, los investigadores podrán comprobar que al ver una de estas cuentas, la plataforma rápidamente la propuesta de otras similaresun lapso de ‘sugerencias para usted‘, donde podriamos encontrar compradores y vendedores de contenido pedófilo.

«Seguir sólo un puñado de estas recomendaciones fue suficiente para inundar la cuenta de prueba con tenido que sexualiza niños», indicó el Observatorio de Internet de Stanford.

A su vez, los expertos señalaron que los usuarios que vender material sexual ilicito Clean no lo hacen de forma para no ser detectado por las autoridades, sino que ofrecen contenido ‘menús’ donde los compradores pueden elegir el contenido que desean e incluso pedir ‘actos específicos’.

Entre los menús se pueden encontrar preciosos videos de niños que se autolesionan e «imágenes del menor practicando actos sexuales con animales», confirmaron los investigadores.

Lewis Carroll, ¿pedófilo?: fotos inéditas reviven una teoría sobria del creador «Alicia en el país de las maravillas»

En muchos casos, instagram permitió a los usuarios buscar términos que el algoritmo sabia que podría estar asociado con material ilegalañadiendo la siguiente advertencia: ‘Estos resultados pueden contener imágenes de abuso sexual infantil‘.

Pero, en vez de prohibir esos contenidos, la ventana emergente sugirió dos opciones: ‘obtener recursos‘o ‘ver resultados de todos modos‘.

“El problema de Instagram se reduce a las funciones de destapar contenido, las formas en que se recomiendan los temas y cuánto depende de la plataforma de búsqueda y los vínculos entre cuentas”, indicó David Thiel, tecnólogo jefe de Stanford.

La caída de Instagram a nivel global dejó un millón de usuarios sin servicio

Entre los usuarios encontrados 405 vendedores de contenido pedófilo, incluyendo perfiles que se hacen pasar por menores. En su conjunto, las cuentas sumarían cerca de 22,000 seguidores que consumen los contenidos ilícitos.

La defensa de Meta de la pedofilia en Instagram

La empresa reconoció los problemas con tu algoritmo Allí se aseguró que se estableció un grupo de trabajo interno para abordar la distribución de contenidos ilegales en social red su. De igual manera, admitir que sus sistemas sin cables perfectos y que depende en gran medida de las denuncias de los usuarios para actuar.

«Brindamos orientación actualizada a nuestros revisores de contenido para identificar y eliminar más fácilmente las cuentas depredadoras», aseguraron, indicando que los determinados problemas técnicos ya se han resuelto.

Meta tomó la delantera y lanzó sus anteojos de realidad virtual más competitivos

La plataforma dijo que bloqueado miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones, y que restringió los sistemas que recomendaban a los usuarios la búsqueda de términos asociados con el abuso sexual. Además, aseguraron que en los últimos dos años eliminaron 27 redes pedofilas.

Asimismo, remarcó que «la explotación infantil es un delito atroz» y agregó que «se investiga continuamente para que los defensores se opongan activamente a esta conducta».

La diferencia con Twitter y el comentario de Elon Musk

Los investigadores realizaron una búsqueda similar sobre la explotación sexual en otras redes sociales, pero enfatizaron en que el principal problema se centró en la aplicación de Meta. «La plataforma más importante para estos son redes de compradores y vendedores parece ser Instagram”, explican los expertos.

Los tres desafíos de la nueva CEO de Twitter

En el caso de Gorjeoel equipo de expertos encontró 128 cuentas que ofrece vender material de abuso sexual infantil, menos de un tercio del número que encontramos en Instagram, aunque cabe destacar que esta última tiene una base de usuarios mucho más grande que la red social de Musk.

La diferencia de cuentas pedófilas también se debe a que Twitter no recomendado en la misma medida que Instagram, además de eliminarlos con mucha más velocidad. Desde la plataforma del pajarito aseguraron que ya suspendieron alrededor de 404.000 de estos perfiles relacionados con material infantil.

La noticia sobre los peligros del algoritmo de Instagram llegó a Elon Musk, quien obtuvo su red social para publicar un comentario sobre el hecho. “Extremadamente preocupante”, expresó.

RV / ED