top of page

Apple abandonó su herramienta de escaneo de fotos de iCloud para detectar material de abuso sexual

Apple ha anunciado recientemente que ha decidido abandonar el desarrollo de una herramienta de escaneo de fotos de iCloud diseñada para detectar material de abuso sexual infantil (CSAM, por sus siglas en inglés) en la plataforma. Esta decisión ha generado controversia desde el inicio del proyecto, el cual había sido pausado previamente en respuesta a las preocupaciones de grupos de derechos digitales e investigadores sobre el posible abuso y explotación de la privacidad y seguridad de todos los usuarios de iCloud. Por su parte, un nuevo grupo de seguridad infantil conocido como "Heat Initiative" exigió a Apple que detecte, informe y elimine el material de abuso sexual infantil de iCloud y que ofrezca más herramientas a los usuarios para reportar dicho contenido. En respuesta a "Heat Initiative", Apple hizo algo inusual al compartir sus razones para abandonar el desarrollo de la herramienta de escaneo de "CSAM" en iCloud. En su lugar, la compañía se enfocará en una serie de herramientas y recursos en el dispositivo conocidos como funciones de Seguridad de Comunicación . Esta respuesta de Apple ofrece una visión poco común no solo de sus motivos para cambiar a la Seguridad de Comunicación, sino también de sus opiniones más amplias sobre la creación de mecanismos para sortear las protecciones de privacidad de los usuarios, como el cifrado, para monitorear datos. Esta postura es relevante para el debate sobre el cifrado en general, especialmente a medida que países como el Reino Unido consideran aprobar leyes que requieren que las empresas tecnológicas puedan acceder a los datos de los usuarios para cumplir con las solicitudes de las autoridades. Según Erik Neuenschwander, director de privacidad y seguridad de Apple, "el material de abuso sexual infantil es aborrecible y la compañía está comprometida a romper la cadena de coerción e influencia que hace que los niños sean susceptibles a este tipo de contenido. Sin embargo, después de colaborar con una variedad de investigadores en privacidad y seguridad, grupos de derechos digitales y defensores de la seguridad infantil, Apple concluyó que no podía continuar con el desarrollo de un mecanismo de escaneo de CSAM, incluso si se construía específicamente para preservar la privacidad."
"El principal motivo detrás de esta decisión es la preocupación de que escanear los datos privados almacenados en iCloud de cada usuario podría crear nuevas vulnerabilidades para los ladrones de datos. Además, se abriría la puerta a posibles consecuencias no deseadas, como la vigilancia masiva y la búsqueda de contenido en otros sistemas de mensajería cifrados y de diferentes tipos." "Heat Initiative" es liderado por Sarah Gardner, exvicepresidenta de asuntos externos de la organización sin fines de lucro Thorn, que trabaja para combatir la explotación infantil en línea y el tráfico sexual utilizando nuevas tecnologías. Thorn elogió inicialmente el plan de Apple para desarrollar una herramienta de escaneo de "CSAM" en iCloud, por lo que la decisión de la compañía de abandonar esta iniciativa ha sido decepcionante para Heat Initiative. Según Gardner, "Apple es una de las compañías más exitosas del mundo, con un equipo de ingenieros de clase mundial y es su responsabilidad diseñar un entorno seguro y orientado a la privacidad que permita la detección de imágenes y videos conocidos de abuso sexual infantil. El grupo "Heat" Initiative continuará presionando a Apple hasta que se implementen mejores medidas para detectar y eliminar este tipo de contenido en iCloud." La respuesta de Apple a Heat Initiative también proporciona una visión más amplia de las opiniones de la compañía sobre la privacidad y la seguridad de los usuarios. Apple ha dejado claro que está comprometido con la protección de la privacidad de sus usuarios y considera que el escaneo masivo de datos no es la solución adecuada para abordar el problema del abuso sexual infantil en línea. En cambio, Apple se está enfocando en desarrollar herramientas y recursos en el dispositivo que permitan a los usuarios comunicarse de manera segura y protegida. Estas funciones de Seguridad de Comunicación tienen como objetivo brindar a los usuarios la capacidad de protegerse de posibles amenazas y mantener la privacidad de sus datos personales.

La decisión de Apple de abandonar su herramienta de escaneo de CSAM en iCloud ha generado diferentes reacciones. Mientras que algunos grupos de derechos digitales y defensores de la privacidad aplauden esta decisión y ven el enfoque en la seguridad de la comunicación como una mejor alternativa, otros, como "Heat Initiative", consideran que Apple debe hacer más para combatir el abuso sexual infantil en línea. El debate sobre la privacidad y el acceso a los datos de los usuarios continúa y la postura de Apple en este tema es relevante a medida que se discuten y se promulgan leyes en diferentes países. Es importante encontrar un equilibrio entre la protección de la privacidad de los usuarios y la lucha contra el contenido ilegal y dañino en línea.

Apple abandonó su herramienta de escaneo de fotos de iCloud para detectar material de abuso sexual

Apple ha anunciado recientemente que ha decidido abandonar el desarrollo de una herramienta de escaneo de fotos de iCloud diseñada para...

bottom of page