Sistema de verificación de imágenes ICloud e iMessage: Apple publica sus preguntas frecuentes

La firma californiana se ve atrapada en una tormenta de críticas y malentendidos luego de anunciar la implementación de nuevas herramientas de monitoreo de contenido. Quieren, en particular, permitir que los californianos identifiquen cualquier imagen de pornografía infantil y así identificar a los usuarios que comparten este contenido, una práctica obviamente ilegal, tanto en Francia como en los Estados Unidos y en otras partes del mundo.

Si bien la voluntad de Apple puede ser inicialmente una buena intención, con esta lucha por la protección de los niños, muchos están preocupados por las posibles desviaciones de lo que parece un primer paso hacia la vigilancia masiva de usuarios.

Entonces, en un intento de tranquilizarlo, la compañía publicó recientemente un FAQ o preguntas frecuentes especialmente centrado en este nuevo sistema de protección infantil. Esto es lo que aprendimos allí.

¿De qué herramientas estamos hablando?

Apple especifica en sus preguntas frecuentes que este nuevo sistema de protección infantil está respaldado por dos herramientas, que no deben confundirse: la advertencia contra el contenido sexual en iMessage y la detección de pornografía infantil en iCloud, apodado CSAM por Material de abuso sexual infantil.

Herramienta de advertencia de imagen sexual

Exclusivo para fotos de iMessage

Como se señaló anteriormente, la primera de las dos herramientas es un mecanismo de advertencia de imágenes sexuales. Se centra en las imágenes enviadas por iMessage, con un análisis realizado en la zona, en la maquina. Está activo en cualquier cuenta infantil configurada a través del uso compartido de la familia y puede ser desactivado por el usuario que tiene los derechos, generalmente un padre. Quiere ser utilizado para advertir a los niños antes de que tengan acceso a una foto de naturaleza sexual que podría sorprenderlos. Cuando está activa, la herramienta difumina cualquier foto sensible y se advierte al niño. También hay una opción para advertir a los padres cuando un niño consulta una imagen encontrada por esta herramienta.

Protección infantil de iMessage

© Apple

Como señala Apple, esta herramienta no desafía el cifrado de extremo a extremo subyacente a iMessage. Así, en ningún momento la empresa accede a los contenidos de los intercambios de iMessage. El análisis de la imagen se realiza solo desde el dispositivo utilizado para abrir la imagen, al final del intercambio, y de forma local, recordemos.

Además, Apple dice No comparta ninguna información de detección de imágenes de naturaleza sexual en este contexto con ninguna autoridad..

Herramienta de detección de contenido de pornografía infantil CSAM

La segunda herramienta es un mecanismo para detectar imágenes de pornografía infantil. Solo está activo en fotos de iCloud. Vea el detalle a continuación.

¿Qué contenido analiza el CSAM?

No se realiza el análisis de contenido del CSAM como en las fotos y no los videos. Además, solo fotos cargadas a iCloud son considerados. Si no está utilizando la copia de seguridad de iCloud, sus fotos no pasarán por el comprobador de pornografía infantil de Apple.

CSAM no escanea fotos en su biblioteca de fotos local en iPhone o iPad, o contenido de iMessage. Por lo tanto, no hay violación del cifrado de extremo a extremo del Servicio de texto de Apple. En cuanto a la privacidad en iCloud, esa es otra cuestión.

¿Un ser humano ve las imágenes de iCloud?

No de forma sistemática. Se detecta una imagen de pornografía infantil en el espacio de iCloud de un usuario utilizando inteligencia artificial y una comparación realizada con bancos de imágenes ya existentes del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras asociaciones de protección infantil.

Apple también especifica en el sentido de que el los falsos positivos son extremadamente raros : menos de 1 por mil millones por año, según la firma.

Una vez que la IA ha detectado una imagen, se expone a un análisis humano para validar o invalidar la detección. Apple garantiza que los inocentes no tienen nada que temer.

¿Qué consecuencias tiene una detección positiva?

Si después de un análisis humano, se considera que una cuenta de iCloud contiene imágenes de pornografía infantil, se notifica al NCMEC. Sin embargo, se desconocen las consecuencias de esta alerta al NCMEC. Posteriormente se podrá notificar a las autoridades competentes para la gestión del fichero y del usuario identificado.

¿Una extensión a otros contenidos en el futuro?

La firma californiana asegura que su sistema fue construido para enfocarse solo en contenido de pornografía infantil. Además, especifica que rechazará cualquier solicitud del gobierno para agregar otro contenido al sistema de detección. Para el gigante de Cupertino, solo es cuestión de detectar imágenes de pornografía infantil, nada más.

¿Una extensión de los servicios de terceros?

Como informa MacRumors, Apple tiene como objetivo que esta detección de imágenes de pornografía infantil también se implemente en herramientas de terceros. Pensemos por ejemplo en WhatsApp, Instagram o incluso Google Photos. Pero hasta el día de hoy, este no es el caso. Actualmente, solo las fotos de iCloud se ven afectadas por el análisis CSAM.

Siri y Spotlight también usaron

Apple dice que Siri y Spotlight Search también podrán participar en la lucha por la protección infantil, mostrando más información práctica sobre el tema cuando soliciten Siri y realicen búsquedas en Spotlight desde iPhone y iPad.

Protección infantil Apple Siri

© Apple

Herramientas activas desde cuando?

Estas funciones de detección de imágenes de pornografía infantil y sexual se implementarán en iOS 15, iPadOS 15, macOS Monterey y watchOS 8 y versiones posteriores, en una fecha aún desconocida.

Botón volver arriba