Apple contra el abuso infantil: ¿movida loable o estrategia para espiar a los usuarios?

La compañía revisará los dispositivos para buscar contenido inapropiado y reportar a las autoridades. La intención es meritoria, aunque propiciaría un avasallamiento generalizado a la privacidad.

Apple contra el abuso infantil: ¿movida loable o estrategia para espiar a los usuarios?Apple, en el centro de la escena por el anuncio de un sistema que revisará los equipos en busca de contenido con abuso infantil.

La frontera entre la vigilancia y la privacidad es usualmente difusa. Esa zona gris en la que se mueven gobiernos y organismos de diversa índole también es transitada por empresas de tecnología, obligadas a revisar el comportamiento de los usuarios (y reprenderlos cuando amerite) sin que ese escrutinio suponga una violación plena de la intimidad.

Apple se encuentra ahora en esa encrucijada: revisará dispositivos para encontrar abuso infantil y es ampliamente criticada, no por esa loable pesquisa, sino por abrir una puerta trasera en los equipos.

El anuncio oficial
Durante los primeros días de agosto Apple anunció que implementará un algoritmo para detectar pornografía infantil en los iPhone, iPad, Mac y Watch. En la práctica, el sistema escaneará en forma automática los dispositivos y buscará coincidencias con una base de datos. En caso de hallar contenido sospechoso, enviará un reporte a revisores humanos (ellos verán una versión filtrada del material, para protegerlos de la exposición continua a contenido nocivo) e informarán a las autoridades correspondientes.

La firma estadounidense prometió que cuidarán la privacidad de los usuarios y garantizaron un alto nivel de precisión, con menos de uno en 1.000 millones de posibilidades por año de marcar en forma incorrecta una cuenta determinada. Más adelante en este repaso veremos que aquella es, también, una de las críticas que recibe la iniciativa.

El sistema se implementará a fines de este año en iOS, iPadOS, macOS y WatchOS con el objetivo de detectar la carga de contenido en iCloud que muestre a menores involucrados en actos sexuales. Tal como señalamos, emplearán una base de datos en el dispositivo de imágenes proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones. Si encuentra coincidencias, lanzará la advertencia. En caso de detectar material no apropiado, se desactivará la cuenta de iCloud y se enviarán informes al NCMEC que a su vez podría notificar al FBI. Los usuarios pueden apelar la suspensión si consideran que su cuenta ha sido marcada por error.

Un dato a tener en cuenta: sólo en 2018, las firmas de tecnología informaron 45 millones de fotos y videos con abuso infantil en múltiples plataformas y servicios de almacenamiento en la nube.

Crítica 1: los límites de la vigilancia
Los recelos apuntan principalmente a un eventual avasallamiento de la intimidad. Las voces críticas coinciden en que el mecanismo anunciado (loable per se) allanaría el camino para que la propia Apple, gobiernos y otras entidades vigilen la actividad de los usuarios. Que husmeen más allá de los sitios permitidos. De este modo, el algoritmo propuesto violaría las leyes de privacidad y podría ir más allá de la búsqueda de abuso infantil.

Jennifer Granick, asesora de vigilancia y ciberseguridad del Proyecto de Discurso, Privacidad y Tecnología de la ACLU, dijo en declaraciones al sitio Gizmodo que “por altruistas que sean sus motivos, Apple ha construido una infraestructura que podría ser subvertida para una vigilancia generalizada de las conversaciones y la información que guardamos en nuestros teléfonos”. La especialista añadió que “la capacidad de escaneo abuso infantil podría reutilizarse para la censura o para la identificación y reporte de contenido que no es ilegal” y que “también es susceptible de abuso por parte de autócratas en el extranjero, por funcionarios gubernamentales demasiado entusiastas en el país o incluso por la propia empresa”.

Electronic Frontier Foundation, una organización especializada en la privacidad online, opinó en esa línea al notar que las capacidades de escaneo podrían eventualmente reutilizarse para buscar otros tipos de imágenes o texto, “lo que básicamente significaría una solución alternativa para las comunicaciones cifradas, una diseñada para vigilar las interacciones privadas y el contenido personal”.

“Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido, o un ajuste de los indicadores de configuración para escanear, no sólo las cuentas de los niños, sino de cualquier persona”, añadieron.

Desde el Centro para la Democracia y la Tecnología dijeron que el método propuesto por Apple “no es una alternativa a una puerta trasera, es efectivamente una puerta trasera”.

Edward Snowden, el exagente de la CIA que cobró fama al revelar prácticas indebidas de esa agencia y que se ha convertido en un abanderado de la privacidad, se sumó al debate en una serie de tuits. “No importa cuán bien intencionadas sean (estas herramientas). Apple está implementando vigilancia masiva en todo el mundo con esto. No se equivoquen: si pueden escanear en busca de pornografía infantil hoy, pueden escanear en busca de cualquier cosa mañana”, dijo.

Crítica 2: los falsos positivos
La tecnología que usará Apple para encontrar imágenes y videos con abuso infantil es similar a la que se emplea en diversas redes sociales y servicios en línea para organizar las fotografías en base a su contenido, detectar rostros de personas conocidas o encontrar desnudos y eventualmente bloquear publicaciones. Lo hemos visto, por caso, en Instagram: un algoritmo detecta en forma automática si hay desnudos y el post cae, en función de los términos y condiciones de esa plataforma. El problema es que esos métodos en ocasiones fallan: por ejemplo, pueden confundir una torta decorada con un pecho al desnudo.

Esos errores serían más problemáticos en una práctica como la que propone Apple. ¿Qué ocurrirá con los falsos positivos? ¿Algunos usuarios se verán ante el disgusto de explicar (legítimamente) que no poseen material de abuso infantil, en caso de que el algoritmo tenga falencias? Además, ¿qué pasará si una persona tiene en su cuenta de iCloud imágenes de su hijo bañándose, o en una pileta?

Crítica 3: “basura” en el teléfono
Tal como explicaron desde Apple y más tarde algunos expertos en la materia, para que este sistema de detección funcione es necesario inyectar en los dispositivos una base de datos con parámetros de abuso infantil. Esto generó conmoción entre algunos usuarios: ¿combatirán esas prácticas metiendo indiscriminadamente ese material en móviles y computadoras?

En este punto es preciso tener en cuenta algunas variables que disuelven las preocupaciones. Por un lado, esa base es provista por el NCMEC, que la diseña para dar con ese contenido y aplicar los castigos correspondientes. Por otra parte, según indican especialistas, no se trata de material audiovisual propiamente dicho sino de archivos de texto (cadenas de caracteres) que no son comprensibles a nivel visual por el ojo humano y que además ocupan poco espacio en los equipos.

“Sin embargo, la idea de que estamos llevando eso en nuestros dispositivos fue un poco impactante. Todavía estoy un poco en shock por eso porque es un caso de uso muy diferente al que hemos visto antes”, reconoció Riana Pfefferkorn, investigadora en el Observatorio de Internet de la Universidad de Stanford y especialista en cifrado.

“Una de las preocupaciones que se ha planteado con la implementación de este tipo de tecnología del lado del cliente es que las personas intenten aplicar ingeniería inversa a eso, básicamente, y descubra qué hay en la base de datos”, advirtió Pfefferkorn. En esos casos brota un nuevo y debate, también profundo. Siendo que esa base es exclusiva de NCMEC, ¿su uso por parte de Apple es permitido? ¿No supone revictimizar a las personas que se representan? ¿O solamente se usará para ayudar a detectar otras imágenes?

Un reclamo internacional y la defensa de Apple
Una colisión de grupos políticos y organizaciones de derechos civiles publicó una carta abierta el jueves pasado dirigida a Tim Cook, pidiendo que Apple “abandone sus planes anunciados para desarrollar capacidades de vigilancia en iPhone, iPad y otros productos”.

En el grupo aparecen la Electronic Frontier Foundation, Acces Now y la Unión Estadounidense por las Libertades Civiles, entre otras entidades.

“Aunque estas capacidades están destinadas a proteger a los niños y reducir la propagación de material de abuso sexual infantil, nos preocupa que se utilicen para censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo y tener consecuencias desastrosas para muchos niños”, señalaron en la carta (podés leerla completa, en inglés, en este enlace).

En respuesta a las preocupaciones sobre cómo se podría usar indebidamente la tecnología, Apple dijo que limitaría su uso a la detección de contenido que encuadre con el abuso infantil y que no accederán a la “solicitud de ningún gobierno para expandirla”.

Conclusiones
Además de la revisión de la galería de imágenes de la que hemos hablado en extenso, Apple prepara más herramientas con el propósito de generar entornos más seguros para los nenes. En iMessage sumarán notificaciones para advertir tanto a los niños como a los padres cuando se envíen o reciban fotos sexualmente explícitas. También tienen previstos cambios en Siri; igual que en las búsquedas que se realicen en macOS, el asistente ofrecerá más recursos de seguridad infantil. Por caso, actualizarán a ese software para que ayude a realizar denunciar e intervenga cuando se busque contenido relacionado al abuso sexual infantil.

Regresando a la controversia que tiene a Apple en el centro de la escena, en una conversación con la publicación The Verge, Jennifer King, investigadora en la Universidad de Stanford especializada en datos y privacidad, hace foco en una deficiente comunicación de las funciones anunciadas. “Creo que Apple no ha proporcionado suficiente documentación para permitir un análisis razonado y reflexivo. Esa parece ser una de las cosas con las que se han tropezado, no proporcionar suficiente documentación para permitir que las personas realmente inspeccionen y prueben sus afirmaciones”, notó.

Tanto Pfefferkorn como King apuntan un dato alentador: Apple anunció los cambios previstos con varios meses de anticipación y, aunque lo hizo en forma un tanto intempestiva, es posible que los comentarios y críticas que emergieron sirvan para que realice ciertos ajustes y se circunscriba al propósito principal e inexcusablemente loable.

Aún así, dice King, Apple quizá se ahorraría muchos de los recelos al consultar a expertos externos, incluso si piensan que habrá personas demasiado chillonas. “Podrían haber hablado con voces moderadas, con académicos”, señaló. Resta por saber si las críticas, por ser abundantes, no sólo llegan a oídos de Apple sino si conducirán a más explicaciones por parte de la compañía y que sirvan para los exigidos ajustes.

Compruebe también

Elon Musk acusó de traición a OpenAI y le declaró la guerra: “Abandonaron la misión original para ganar plata”

Elon Musk acusó de traición a OpenAI y le declaró la guerra: “Abandonaron la misión original para ganar plata”

Según el magnate, la empresa creadora de ChatGPT debería seguir siendo una organización sin fines …

Qué es el pop-out en WhatsApp, la nueva función que encantará a los que chatean en la computadora

Qué es el pop-out en WhatsApp, la nueva función que encantará a los que chatean en la computadora

La opción se prueba en la versión del mensajero para Windows. ¿Qué ventajas ofrece? Novedades …

Déjanos tu comentario