Cómo funciona el sistema de Apple que busca pornografía infantil (y por qué es tan polémico)

Imágenes en un iPhone. Cottonbro en Pexels.
Imágenes en un iPhone. / Cottonbro en Pexels.
La compañía ha anunciado que un software escaneará automáticamente las fotos subidas desde iPhones e iPads en busca de contenido de abuso sexual a menores. Esto es lo que debes saber.
Cómo funciona el sistema de Apple que busca pornografía infantil (y por qué es tan polémico)

Es oficial: Apple revisará todas las fotos que se hagan desde sus dispositivos en busca de pornografía infantil. La compañía de la manzana ha anunciado que a finales de este año estrenará un software que escaneará automáticamente las imágenes subidas por sus usuarios de Estados Unidos desde iPhones e iPads, con el objetivo de identificar posible contenido de abuso sexual a menores (CSAM, child sexual abuse material).

La medida, por supuesto, ha abierto un nuevo debate sobre la privacidad digital y ha dado paso a una avalancha de dudas: ¿Y los derechos de los usuarios? ¿puede la empresa además acceder a otros materiales ‘privados’?  ¿quién evaluará la información? ¿los gobiernos también pueden utilizar esta tecnología para espiar a sus ciudadanos?

Esto es todo lo que sabemos (por ahora) sobre el polémico software:

¿Cómo funciona el sistema?

Apple ha explicado que iOS y iPadOS utilizarán nuevas aplicaciones de criptografía “para ayudar a limitar la propagación de CSAM en línea, mientras se diseña para la privacidad del usuario”.

El procedimiento es el siguiente: cada foto tomada desde un dispositivo Apple, al subirse a la nube (iCloud), se cruzará automáticamente con NeuralHash, un sistema que funcionará con una lista de contenidos ya identificados como pedófilos, compiladas por el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (US National Center for Missing and Exploited Children o NCMEC, por sus siglas en inglés) y otras organizaciones de protección infantil.

En la práctica, esto significa que -en teoría-, la firma estará accediendo al contenido ilegal sin mirar tus fotos, gracias a un software homomórfico que comprueba hashes contra una base de datos de imágenes reportadas previamente.

¿Y qué pasa si hay una coincidencia en el escaneo? La herramienta enviará un aviso a Apple y un revisor humano evaluará los archivos para comprobar si son o no censurables. En un caso afirmativo, la cuenta del usuario quedará suspendida y el empleado dará aviso a las autoridades.

“La detección de CSAM ayudará a Apple a proporcionar información valiosa a las fuerzas del orden sobre las colecciones de CSAM en Fotos de iCloud”, ha resumido Apple en su comunicado.

¿Esto no vulneran la privacidad de los usuarios?

La respuesta es no. El sistema de escaneo automático “revisa” las imágenes sin descifrarlas, lo que significa que ni siquiera Apple pueden saber qué hay en esas fotografías… a menos, claro, que el contenido coincida con la etiqueta marcada como ilegal. Además, la firma destaca que el proceso se realiza dentro del dispositivo y solo alerta en caso de alarma.

iCloud. Apple.

iCloud. / Apple.

 

¿Y si el sistema se equivoca?

Esta es una de las mayores preocupaciones de los usuarios: ¿qué pasa si el sistema confunde mis imágenes (legales) o se equivoca al cotejar los códigos numéricos de fotos de abuso infantil?

Apple ha insistido en que su sistema tiene un "nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada". Asimismo, la empresa ha resaltado que revisará manualmente cada informe (resultante del escaneo) para confirmar que hay (o no) una coincidencia de contenido ilegal.

¿Apple planea poner en marcha otras medidas?

Sí. La tecnológica ha informado que, en paralelo al sistema de revisión de imágenes, implementará un software de machine learning para monitorear las comunicaciones entre menores de edad en la aplicación de mensajes del iPhone. Si la herramienta detecta que el usuario ha enviado o recibido imágenes con contenidos sexualmente explícitos, no solo las difuminará, sino que alertará a los padres.

Además, Siri y Search proporcionarán recursos adicionales para ayudar a los niños y padres "a mantenerse seguros en línea y obtener ayuda en situaciones inseguras". Por ejemplo, los usuarios que le pregunten a Siri cómo pueden denunciar el abuso sexual infantil o infantil o la explotación infantil, serán dirigidos a recursos sobre dónde y cómo presentar una denuncia. "Siri y Search también se están actualizando para intervenir cuando los usuarios realizan búsquedas de consultas relacionadas con CSAM. Estas intervenciones explicarán a los usuarios que el interés en este tema es dañino y problemático, y proporcionarán recursos de los socios para obtener ayuda con este tema", añade la firma. 


Quizá también te interese: 

La UE aprueba una resolución que le faculta para vigilar chats y emails privados


 

¿Por qué todo esto es tan polémico?

El gigante de Cupertino ha defendido que la nueva tecnología que prevé poner en marcha ofrecerá beneficios de privacidad "significativos" sobre los sistemas existentes. Pero los usuarios no están del todo contentos: hasta ahora, Apple había liderado una política de respeto a la privacidad de los clientes, muy distante de la política de vigilancia de contenidos que ya había adoptado como bandera su principal competidor, Google.

En el otro extremo, algunos expertos en privacidad temen que la herramienta diseñada para detectar a potenciales criminales pueda extenderse a otros objetivos: un ejemplo citado con frecuencia es el de los gobiernos autoritarios, que podrían llegar a utilizar esta tecnología para espiar a sus ciudadanos o para detectar contenidos políticos en dispositivos de disidentes.

"Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), está bien construir sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido", ha sentenciado Matthew Green, experto en criptografía de Universidad Johns Hopkins. "No importa si tienen razón o no en ese punto. Esto equivale a 'abrir las compuertas'; los gobiernos pedirán esta tecnología", ha añadido.

India McKinney y Erica Portnoy, de la influyente organización sin ánimo de lucro  estadounidense Electronic Frontier Foundation (Fundación Frontera Electrónica), han emitido un comunicado que expone que “la explotación sexual de menores es un problema muy serio, y Apple no es la primera tecnológica que altera su política de privacidad para tratar de combatirlo. Pero esa decisión conlleva un alto precio para la privacidad de los usuarios”. “Incluso una puerta trasera cuidadosamente estudiada y muy afinada no deja de ser una puerta trasera”, han cuestionado.

“Apple ha decidido socavar la encriptación de extremo a extremo y hacer que sus usuarios sean vulnerables a la censura y la vigilancia”, ha valorado, por su parte, Diego Naranjo, asesor político de EDRI, una ONG europea defensora de los derechos humanos en la era digital. “Al permitir el escaneado de fotos en las comunicaciones privadas y en iCloud, los productos de Apple se convertirán en una amenaza para sus dueños. La compañía debería retractarse”.

Por ahora, lo único seguro es que estas características llegarán a finales de este año en actualizaciones para iOS 15, iPadOS 15, watchOS 8 y macOS Monterey. @mundiario

Cómo funciona el sistema de Apple que busca pornografía infantil (y por qué es tan polémico)
Comentarios