CSAM: entrevistado al oficial de privacidad de Apple

El CSAM es este nuevo sistema en desarrollo en Apple y que está causando revuelo en estos momentos, ya que pretende detectar contenido de pornografía infantil entre las fotos de los usuarios de iCloud Photos. La firma californiana también ha publicado un FAQ en un intento de calmar el ardor de los defensores de la privacidad, las preguntas frecuentes que se detallan aquí.

Para tratar de que los usuarios comprendan mejor cómo Apple tiene la intención de respetar la privacidad de las fotos e identificar la actividad ilegal de ver pornografía infantil, Erik Neuenschwander, director de privacidad de Apple, o director de privacidad de Apple, respondió a varias preguntas de TechCrunch. Aquí están los aspectos más destacados de la entrevista, en nuestra opinión.

Análisis del lado del dispositivo, a diferencia de otros servicios en la nube

Erik Neuenschwander le asegura: el sistema de Apple es diferente de otros sistemas en la nube para la investigación de contenido de pornografía infantil, ya que el análisis básico se realiza en la máquina del usuario y no en la nube. Se trata de una innovación tecnológica que, según el gerente de Apple, permite buscar imágenes ilegales manteniendo la confidencialidad de los datos de los usuarios.

Como funciona ?

De hecho, el sistema crea un identificador para una foto sensible, identificándola en comparación con las fotos de las bases de datos de pornografía infantil reconocidas, como la del Centro para Niños Desaparecidos y Explotados.

Erik Neuenschwander nos asegura que el sistema nunca podrá acceder a los datos del iPhone ni a toda la biblioteca de fotos de iCloud del usuario.

Diagrama operativo CSAM

© Apple Además, una vez que se ha identificado un cierto número de imágenes sensibles como idénticas a las imágenes en las bases de datos utilizadas para la comparación, se genera la alerta. Por tanto, hay una certeza que sólo hay que superar. Esto permite, entre otras cosas, servir como primera limitación a la aparición de falsos positivos. Pero este umbral también hace que sea imposible encontrar una sola imagen dentro de una cuenta de Fotos de iCloud. Por último, evita la búsqueda de imágenes distintas a las inicialmente destinadas a luchar contra la pornografía infantil.

El CSAM exclusivo para iCloud y EE. UU.

Inicialmente, el sistema será exclusivo para usuarios de EE. UU. Y solo afectará a las fotos cargadas en iCloud. Como indica MacRumors, no sería imposible que un despliegue en el extranjero fuera apropiado como segundo paso. Pero eso dependerá de cada país de destino y de la dureza de su legalización en términos de confidencialidad y pornografía infantil.

En cualquier caso, la detección de imágenes se iniciará después del lanzamiento del nuevo sistema operativo iOS 15, macOS Monterey y iPadOS 15. Recuerde que Apple no es el primer jugador tecnológico en configurar un sistema de este tipo para luchar contra la fotografía de pornografía infantil. Google, a través de la herramienta CyberTipline, puede recibir alertas en caso de que un usuario de Gmail comparta fotos de pornografía infantil.

¿Qué opinas de este nuevo sistema CSAM de Apple para identificar contenido de pornografía infantil en iCloud?

Publicaciones relacionadas

Botón volver arriba