Anuncio

Apple busca moderar las protestas por el sistema de rastreo de pornografía infantil

An Apple logo on the Apple store in downtown Brooklyn.
Algunos críticos advierten que una nueva tecnología diseñada por Apple para detectar la propagación de pornografía infantil pondría en peligro la privacidad de los usuarios.
(Kathy Willen / Associated Press)

Apple Inc. se apresuró a contener la polémica después de que un intento de combatir la pornografía infantil generara temores de que los clientes perderán privacidad en un ámbito que se ha vuelto sacrosanto: sus dispositivos.

El gigante de la tecnología está entrenando a los empleados sobre cómo manejar las preguntas de los preocupados consumidores, y contrató a un auditor independiente para supervisar las nuevas medidas, que intentan erradicar el llamado CSAM o material de abuso sexual infantil. Apple también aclaró el viernes pasado que el sistema marcaría solo a los usuarios que tuvieran alrededor de 30 o más imágenes potencialmente ilícitas.

El alboroto comenzó este mes cuando la compañía anunció un trío de nuevas características: soporte en el asistente digital Siri para reportar abuso infantil y acceso a recursos relacionados con la lucha contra el CSAM; una función en la app de Mensajes que escaneará dispositivos operados por niños en busca de imágenes explícitas entrantes o salientes; y una nueva función para iCloud Photos que analizará la biblioteca de un usuario en busca de imágenes explícitas de menores. Si se descubre que un usuario tiene esas imágenes en su biblioteca, Apple recibirá una alerta, realizará una revisión humana para verificar el contenido y luego informará a la policía sobre el usuario.

Anuncio

Los defensores de la privacidad, como la Electronic Frontier Foundation, advirtieron que la tecnología podría usarse para rastrear otras cosas además de pornografía infantil, lo cual abre la puerta a “abusos más amplios”. Y no se sintieron aliviados por el plan de Apple de sumar un auditor al equipo y ajustar el sistema, alegando que el enfoque en sí no puede evitar socavar el cifrado que protege la privacidad de los usuarios.

“Cualquier sistema que permita la vigilancia debilita fundamentalmente las promesas del cifrado”, afirmó el viernes Érica Portnoy, tecnóloga sénior de la fundación. “Ninguna auditoría de terceros evitará que un gobierno autoritario exija que se agregue su propia base de datos al sistema”.

La protesta pone de relieve un desafío creciente para Apple: evitar que sus plataformas sean utilizadas para actividades delictivas o abusivas y, al mismo tiempo, defender la privacidad, un principio clave de su mensaje de mercadotecnia.

Apple no es la primera empresa en agregar detección de CSAM a un servicio de fotografía. Facebook Inc. ha tenido durante mucho tiempo algoritmos para detectar este tipo de imágenes subidas a sus redes sociales, mientras que YouTube, de Google, analiza los videos en su servicio en busca de contenido explícito o abusivo que involucre a menores. Adobe Inc. tiene protecciones similares para sus servicios en línea.

Google y Microsoft Corp. también han ofrecido herramientas durante años a las organizaciones para ayudarlas a detectar CSAM en sus plataformas. Estas medidas no son completamente nuevas para Apple: el fabricante del iPhone incorporó la detección de CSAM en su servicio de correo electrónico iCloud en 2019.

Pero después de años en que Apple utilizó la privacidad como una ventaja sobre sus pares, se encuentra ahora bajo una presión adicional para transmitir correctamente su mensaje a los clientes. En un memorando dirigido a los empleados esta semana, la compañía advirtió al personal minorista y de ventas que podrían recibir consultas sobre el nuevo sistema. Apple le pidió a su personal que revisara un documento de preguntas frecuentes sobre las nuevas salvaguardas.

La función iCloud asigna lo que se conoce como una clave hash a cada una de las fotos del usuario y las compara con las asignadas a las imágenes dentro de una base de datos de material explícito.

A algunos usuarios les preocupa que puedan verse implicados simplemente por almacenar imágenes de, por ejemplo, su bebé en una bañera. Pero es poco probable que las fotos personales como esas se encuentren en una base de datos de pornografía infantil conocida, que Apple coteja como parte de su sistema.

Establecer un umbral de aproximadamente 30 imágenes es otro movimiento que podría aliviar los temores de privacidad, aunque la compañía dijo que el número podría cambiar con el tiempo. Apple inicialmente se negó a compartir cuántas imágenes potencialmente ilícitas deben estar en la biblioteca de un usuario antes de que se avise a la empresa.

La compañía también abordó las preocupaciones sobre los gobiernos que espían a los usuarios o rastrean fotos que no son pornografía infantil. Su base de datos, comentó, estaría compuesta por imágenes provenientes de múltiples organizaciones de seguridad infantil, no solo del National Center for Missing & Exploited Children, como se anunció inicialmente. Además, planea utilizar datos de grupos en regiones operadas por diferentes gobiernos, y señaló que el auditor independiente verificará el contenido de su base de datos.

Sin embargo, los representantes de Apple no revelaron los operadores de las bases de datos adicionales ni quién será el auditor independiente. La firma también se negó a decir si los componentes del sistema anunciados el viernes fueron una respuesta a las críticas.

En una sesión informativa, la empresa con sede en Cupertino, California, afirmó que ya tiene un equipo para revisar el correo electrónico de iCloud en busca de imágenes CSAM, pero ampliará ese personal para manejar las nuevas funciones. La compañía también publicó un documento que detalla algunas de sus actualizaciones de privacidad al sistema.

Apple adelantó que rechazará cualquier pedido de los gobiernos para utilizar su tecnología como un medio para espiar a los clientes. El sistema está disponible solo en EE.UU y funciona únicamente si un usuario tiene habilitado el servicio Fotos, en iCloud.

Una característica correspondiente en la aplicación Mensajes también generó críticas por parte de los defensores de la privacidad. Esa función, que puede notificar a los padres si su hijo envía o recibe una imagen explícita, utiliza inteligencia artificial y es diferente de la función de las fotos de iCloud. Apple reconoció que anunciar las dos funciones al mismo tiempo generó confusión, porque ambas tecnologías analizan imágenes.

La medida planteó otras preguntas sobre cómo Apple maneja el contenido de los usuarios. A pesar de utilizar el cifrado de extremo a extremo para los mensajes en tránsito dentro de su servicio de mensajes de texto iMessage y varias partes de su sistema de almacenamiento iCloud, Apple no permite a los usuarios cifrar sus copias de seguridad de iCloud. Eso significa que la compañía o un delincuente podría acceder a la copia de seguridad de un usuario y revisar el material. La empresa se negó a informar si planea agregar cifrado a las copias de seguridad de iCloud.

El mensaje principal de Apple a los clientes y defensores es que no está creando un terreno poco fiable al combatir el CSAM. Pero Portnoy, de la Electronic Frontier Foundation, no coincide: “Una vez que ha incorporado la vigilancia, no se puede llamar a eso preservación de la privacidad”, enfatizó.

Para leer esta nota en inglés, haga clic aquí.

Anuncio