top of page

En conversación la Ley de CSAM para prevenir contenido sensible infantil en iPhone

La nueva propuesta de ley (CSAM) en Reino Unido busca exigir que todas las empresas de mensajería utilicen un escáner en los dispositivos de la marca Apple (hasta el momento) para detectar material de abuso sexual infantil, basado en una función que la empresa ha planificado lanzar desde hacía algún tiempo para los iPhones. Lo idóneo sería que si la ley se aprueba no solamente los dispositivos de la marca Apple cumplan con este requisito, sino que Android por ejemplo también pueda aplicar esta norma. La enmienda presentada al proyecto de ley de seguridad en línea solicita a las empresas de tecnología identificar y eliminar el CSAM, incluso en mensajes privados cifrados de extremo a extremo. ¿Qué es el proyecto de ley de seguridad en línea?
El proyecto de ley de seguridad en línea (OSB) es una mezcla de medidas destinadas a combatir los contenidos "nocivos" generados por los usuarios, es decir, cualquier servicio que permita a los usuarios publicar contenidos de texto o cargar medios.


El proyecto de ley introduce nuevas normas para las empresas que alojan contenidos generados por los usuarios, es decir, aquellas que permiten a los usuarios publicar sus propios contenidos en línea o interactuar entre sí y para los motores de búsqueda, que tendrán obligaciones específicas centradas en minimizar la presentación de resultados de búsqueda perjudiciales para los usuarios.


Las plataformas que no protejan a las personas tendrán que responder ante el regulador y podrían enfrentarse a multas de hasta el diez por ciento de sus ingresos o en los casos más graves, al bloqueo.

Todas las plataformas que entren en el ámbito de aplicación tendrán que abordar y eliminar el material ilegal en línea, especialmente el relacionado con el terrorismo y la explotación y el abuso sexual de menores.


Las plataformas a las que es probable que accedan los niños también tendrán la obligación de proteger a los jóvenes que utilicen sus servicios de material legal pero perjudicial, como contenidos sobre autolesiones o trastornos alimentarios. Además, los proveedores que publiquen o coloquen contenidos pornográficos en sus servicios estarán obligados a impedir que los niños accedan a esos contenidos.


Las plataformas más grandes y de mayor riesgo tendrán que ocuparse de las categorías nombradas de material legal pero perjudicial al que acceden los adultos, que probablemente incluyan cuestiones como el abuso, el acoso o la exposición a contenidos que fomenten la autolesión o los trastornos alimentarios. Tendrán que dejar claro en sus condiciones lo que es y lo que no es aceptable en su sitio y hacer que se cumpla.


Desde entonces se han introducido toda una serie de cambios que amplían tanto el alcance como las competencias de la ley. Uno de los cambios más aterradores es que el gobierno podría, una vez aprobada la ley, cambiar la definición de contenido "perjudicial".
Propuesta de ley CSAM Se ha presentado una nueva enmienda que crearía la obligación de detectar el CSAM incluso en los mensajes cifrados de extremo a extremo. (Nota: En el Reino Unido se utiliza el término CSAE en lugar de CSAM - contenido de abuso y explotación sexual infantil). Los servicios de mensajería fuertemente encriptados, como WhatsApp, podrían estar obligados a adoptar tecnología de vanguardia para detectar material de abuso sexual infantil o enfrentarse a la amenaza de importantes multas, según los nuevos cambios en la legislación de seguridad digital del Reino Unido. La enmienda al proyecto de ley de seguridad en línea exigirá a las empresas tecnológicas que hagan sus "mejores esfuerzos" para desplegar una nueva tecnología que identifique y elimine el contenido de abuso y explotación sexual infantil (CSAE). Se produce en un momento en el que las aplicaciones de Facebook Messenger e Instagram de Mark Zuckerberg se preparan para introducir el cifrado de extremo a extremo, en medio de una fuerte oposición del gobierno británico, que ha calificado los planes de "inaceptables". Priti Patel, que desde hace tiempo critica los planes de Zuckerberg, dijo que el cambio en la ley equilibraba la necesidad de proteger a los niños al tiempo que proporcionaba privacidad a los usuarios en línea. En concreto, el cambio impediría a las empresas de mensajería encogerse de hombros y decir que no tienen forma de ver el contenido de los mensajes encriptados E2E y crearía la obligación de que desarrollaran nuevas formas de hacerlo. La única* forma técnica de hacerlo sería realizar un escaneo del lado del cliente, ya sea antes del cifrado en el dispositivo del remitente, o después del descifrado en el dispositivo del destinatario. Este era, por supuesto, el enfoque que Apple tenía previsto adoptar cuando anunció sus planes para el escaneo de fotos mediante CSAM. Desde hace un tiempo grandes organizaciones han estado trabajando para erradicar el contenido de explotación infantil, incluso un par de meses atrás la Unión Europea presentó una iniciativa para exigir a las empresas de tecnología desarrollar una función que permita identificar la edad de las personas implicadas en los audiovisuales (en este caso de los menores) por medio de la inteligencia artificial, además de rastrear e informar sobre algún intento que lleven a cabo los usuarios para abusar de los niños por medio de herramientas de mensajería, lo que debería incluir rastreo en redes sociales ya que hoy en día es lo más común sobre todo en Instagram. La aplicación se ha prestado para que los depredadores sexuales se acerquen a los menores y solicitando contenido a "cambio de cosas" que serían de interés para el pequeño.

En conversación la Ley de CSAM para prevenir contenido sensible infantil en iPhone

La nueva propuesta de ley (CSAM) en Reino Unido busca exigir que todas las empresas de mensajería utilicen un escáner en los dispositivos...

bottom of page