Actualización – Pornografía infantil: ilustrada una debilidad potencial del sistema CSAM de Apple

Actualización: un investigador ha probado lo que Apple usaría como segundo método para verificar imágenes sensibles para limitar los falsos positivos, con éxito. Más detalles al final del artículo.

Apple no ha terminado de defender su nuevo sistema de detección de imágenes de pornografía infantil para iCloud. Y el nuevo descubrimiento realizado por la desarrolladora Asuhariet Ygvar hace unos viajes no va a ayudar al negocio del gigante californiano. De hecho, el hombre analizó el algoritmo de codificación conocido como “NeuralHash” en el que se basa la detección de CSAM de Apple, codificación que se encuentra en iOS 14.3. Incluso pudo recrear su propia versión del sistema en el lenguaje de programación Python.

Con esto, descubrió que dos imágenes muy distantes podrían obtener el mismo ID de NeuralHash. Y esto preocupa por los falsos positivos que podría generar la detección de imágenes de pornografía infantil por parte de Apple.

Esto no dejó de hacer reaccionar a Apple, que de inmediato aclaró, a Vice, que la versión vista en GitHub de la detección de imágenes no es la que usa Apple para su sistema CSAM. Los ingenieros de Apple habrían logrado configurar una versión de esta herramienta mucho más exitosa y mucho más segura.

Además, como lo especificó la firma californiana en uno de sus documentos técnicos, se debe superar un umbral de detección para que una cuenta de iCloud sea reportada como compartiendo contenido de pornografía infantil. El umbral es de 30 imágenes. Sabiendo que además de eso, luego de reportar el sistema, los empleados de Apple realizan una auditoría directamente para eliminar cualquier riesgo de falsos positivos. Este punto fue expuesto en las FAQ publicadas por la empresa de Cupertino hace unas semanas.

Imaginamos que efectivamente se tomaron todas las precauciones durante el desarrollo del sistema para evitar, por un lado, respetar la confidencialidad para el usuario, por otro lado, limitar los falsos positivos. Esperando que esto sea suficiente.

Recuerde que esta detección de pornografía infantil será funcional después del lanzamiento del próximo gran sistema operativo, iOS 15 y macOS Monterey, antes de finales de 2021, por lo tanto.

Actualización 20 de agosto de 2021

En un nuevo artículo de Motherboard, Apple dijo que usa una técnica de análisis adicional para validar una imagen como pornografía infantil sensible. Esta verificación se llevaría a cabo en los servidores de Apple, después de que la primera detección haya tenido lugar de forma local, en las máquinas de los usuarios, pero antes del último paso de verificación que realizan los equipos de Apple directamente, de forma manual.

Por tanto, este segundo control puede cancelar un falso positivo, lo que es tranquilizador en cuanto al descubrimiento realizado inicialmente por Asuhariet Ygvar y muestra que el algoritmo básico del sistema CSAM de Apple podría engañarse con la creación del mismo identificador para dos fotografías idénticas.

Esto es también lo que ha demostrado el especialista en inteligencia artificial Brad Dwyer de la firma Roboflow. Este último demostró cómo una inteligencia artificial, OpenAI Clip en el caso de su estudio, logró diferenciar dos imágenes con el mismo NeuralHash. Con tal sistema se eliminarían muchos falsos positivos, lo que limitaría el trabajo de los equipos de la firma californiana realizando el último control antes de dar la alerta.

Para leer también:

Publicaciones relacionadas

Botón volver arriba