top of page

Descubren en el algoritmo de Instagram una fuerte conexión con redes de pedofilia

Actualizado: 8 jun 2023


Meta, la empresa matriz de Instagram, ha anunciado que tomará medidas enérgicas contra el contenido pedófilo en su plataforma después de que un informe revelara que el algoritmo de Instagram estaba promoviendo activamente dicho contenido. Según un informe reciente, se descubrió que el algoritmo de Instagram estaba conectando y promoviendo una extensa red de cuentas dedicadas al contenido de abuso sexual infantil. A diferencia de otros servicios y foros en línea, Instagram no solo albergaba estas actividades, sino que también las promovía a través de sus algoritmos. La empresa reconoció problemas de aplicación y ha tomado medidas, incluida la restricción de sus sistemas para recomendar búsquedas relacionadas con el abuso sexual. El problema fue descubierto por académicos del Stanford Internet Observatory y del Rescue Lab de la Universidad de Massachusetts. Estos investigadores pudieron encontrar rápidamente "comunidades a gran escala que promueven el abuso sexual criminal" en la plataforma. Después de crear usuarios de prueba y ver una sola cuenta, los investigadores recibieron inmediatamente recomendaciones de posibles vendedores y compradores de material de abuso sexual infantil (CSAM, por sus siglas en inglés), así como cuentas que enlazaban a sitios de contenido fuera de la plataforma. El reconocido diario estadounidense, el Wall Street Journal fue el primero en informar sobre el problema después de analizar los hallazgos de los académicos mencionados anteriormente. La noticia provocó preocupación y críticas tanto de expertos en seguridad como del público en general, lo que llevó a Meta a tomar medidas para abordar el problema.


Debido a ello, Meta ha establecido un grupo de trabajo interno para abordar el problema de la promoción de contenido pedófilo en Instagram. La compañía también informó que está trabajando en bloquear redes de material de abuso sexual infantil y en tomar medidas para cambiar sus sistemas. En los últimos dos años, Meta ha eliminado 27 redes pedófilas y está trabajando en eliminar más. Además, ha bloqueado miles de hashtags relacionados (algunos con millones de publicaciones) y ha tomado medidas para evitar que sus sistemas recomienden términos relacionados con CSAM. Por su parte, Alex Stamos, exjefe de seguridad de la compañía, instó a Meta a reinvertir en investigadores humanos para abordar el problema de manera más efectiva, ya que la empresa cuenta con herramientas mucho mejores que los investigadores externos para mapear redes de CSAM. El descubrimiento de que el algoritmo de Instagram promovía contenido pedófilo es un llamado de atención para Meta y pone de manifiesto la necesidad de abordar este problema de manera efectiva. La empresa ha tomado medidas iniciales, como la creación de un grupo de trabajo interno y el bloqueo de redes de material de abuso sexual infantil, pero es necesario seguir trabajando para garantizar la seguridad de los usuarios en la plataforma. La inversión en investigadores humanos y la mejora de los sistemas de recomendación son pasos cruciales para garantizar que Instagram no se convierta en un caldo de cultivo para la explotación infantil.

bottom of page