Apple dio a conocer ayer una serie de tres medidas diseñadas para proteger a los niños de diversas formas.
Un sistema triple de más información a través de Siri, un seguimiento del contenido de iCloud Photographs para detectar pornografía infantil y un sistema de prevención contra imágenes explícitas en la app de Mensajería (iMessage) para usuarios menores de 13 años.
Estas medidas vendrán con iOS 15, iPadOS 15 y macOS 12 Monterey y ampliarán las protecciones para los niños, siempre con pleno respeto por la privacidad de todos los datos.
Entonces, ¿cómo funcionará la verificación en las aplicaciones anteriores?
Apple aplica medidas para combatir la pornografía infantil
LOS Apple dejó 3 medidas y te lo explicaremos con más detalle cómo van a funcionar.
Sobre todo, entendamos cómo funciona la detección de imágenes de menores en las fotos de iCloud y las medidas de seguridad de la aplicación Mensajes (iMessage) frente a fotos explícitas.
Las tecnologías apuntan a la privacidad de los usuarios, pero, sobre todo, a la protección de los menores.
1 - Seguridad en la comunicación de mensajes
Según lo declarado por Apple en su sitio web, el nuevo sistema de seguridad de comunicaciones de iMessage detectará y bloqueará las imágenes explícitas recibidas en conversaciones de niños menores de 13 años.
Esta es una configuración opcional que los padres pueden ajustar si lo desean y se encargará de ocultar imágenes inapropiadas de las conversaciones.
Sin embargo, el niño tendrá la opción de ver la imagen.
El sistema funciona ocultando la imagen y si se hace clic en ella, el niño recibe un mensaje advirtiendo que dicha imagen puede ser sensible y explica la situación en tres puntos:
- que las fotos sensibles muestren partes del cuerpo cubiertas por un traje de baño o ropa interior;
- que estas imágenes se pueden utilizar para reducir la sensibilidad;
- que la persona que aparece en ellos no quiera ser vista.
Después de esta explicación, el sistema permite que el niño haga clic en las opciones "Ahora no" o "Estoy seguro".
Al hacer clic en la segunda opción, el sistema advierte a los padres "quieren asegurarse de que estás bien", por lo que recibirán una notificación.
También advierte al niño que no comparta nada que realmente no quiera compartir y que hable con alguien de su confianza si se siente presionado, y finalmente ofrece ayuda, indicando que no estás solo en determinadas situaciones.
Luego ofrece "No ver la foto" o "Ver la foto".
Como se mencionó, este sistema está diseñado solo para niños menores de 13 años, siempre que tus padres lo consideren oportuno activarlo.
La forma en que se comunica la información, aunque en el lenguaje de los niños, es muy clara y revela una operación muy sencilla: si se detecta una imagen explícita, se bloquea, se da la opción de elegir y se notifica a los padres si se ve..
Este sistema funciona gracias al aprendizaje automático en el propio dispositivo, que analiza las imágenes recibidas y también enviadas a través de iMessage para presentar los avisos oportunos.
Dado que todo el procesamiento se realiza localmente en el dispositivo, nadie, ni siquiera Apple, tiene acceso a los mensajes, lo que mantiene la seguridad de la aplicación de mensajería en la que confiamos.
2 - Detección de imágenes de menores en iCloud
La otra medida que implementará Apple es la detectar imágenes de menores de edad en las bibliotecas de fotos de iCloud.
Un sistema que, manteniendo la privacidad de todos los usuarios, permitirá informar a los órganos competentes si se detectan imágenes que vulneren la ley.
Como, por ejemplo, la pornografía infantil, entre otros abusos infantiles.
En lugar de monitorear imágenes en la nube, con el consecuente deterioro de la privacidad, Apple propone un sistema que compara las imágenes del dispositivo con una base de datos local.
Esta base de datos se almacena de forma segura en el dispositivo y contiene versiones en picadillo de las imágenes reportadas por los organismos responsables, por lo que su contenido es completamente ilegible.
Estas hashes están diseñados de tal manera que no solo representan la imagen original, sino que también permiten variaciones en la imagen original, como convertir la imagen en blanco y negro o recortar partes de ella.
De esta forma se pueden detectar versiones de una misma imagen.
El sistema funciona de tal manera que antes de que se cargue una imagen en Fotos de iCloud, el dispositivo genera una picadillo de la imagen y la compara localmente con hashes de la imagen reportada.
El resultado de esta verificación es ilegible desde el dispositivo, en lugar de ser analizado allí, el sistema envía un comprobante encriptado que se carga en Fotos de iCloud junto con la imagen.
Entonces, aquí es donde entra en juego otra tecnología, llamada umbral secreto compartido.
En pocas palabras, la clave para descifrar el contenido de los vales cifrados se divide en X fragmentos.
Cuando hay suficientes cupones en una cuenta, Apple recibe todas las piezas de la clave completa y puede descifrar el contenido de estos cupones, con las imágenes que fueron subidas, revisándolas manualmente.
El umbral del cupón se establece para garantizar que sólo hay una posibilidad entre mil millones al año de marcar incorrectamente cierto contenido..
Una vez que se cruza el umbral del cupón, Apple recibe un informe que puede descifrar y verificar manualmente.
Si se confirma que las imágenes cargadas coinciden con las de la base de datos, Apple suspende la cuenta e informa a las autoridades.
Sin embargo, ofrece un sistema de apelación para restaurar la cuenta si el usuario cree que se ha cometido un error.
Este mecanismo, que funcionará siempre que el dispositivo tenga habilitado Fotos de iCloud, está diseñado para proteger completamente nuestra privacidad al tiempo que nos permite detectar imágenes ilegales en el sistema.
3 - Ampliar Siri y la guía de investigación
Por último, pero no menos importante, Apple también está ampliando la guía sobre Siri y Search, proporcionando recursos adicionales para ayudar a los niños y padres a mantenerse seguros en línea y obtener ayuda en situaciones inseguras.
Por ejemplo, los usuarios que pregunten a Siri cómo pueden denunciar Material de abuso sexual infantil (MASI) o explotación infantil serán dirigidos a recursos sobre dónde y cómo presentar una denuncia.
Siri y Search también se están actualizando para intervenir cuando los usuarios realizan búsquedas de consultas relacionadas con CSAM.
Estas intervenciones explicarán a los usuarios que el interés en este tema es dañino y problemático, proporcionando recursos de socios para ayudar en este tema.
Estas actualizaciones para Siri e Research se lanzarán a finales de este año en una actualización para iOS 15, iPadOS 15, watchOS 8 y macOS Monterey.
En resumen, estas nuevas herramientas en los últimos sistemas operativos de Apple tienen como objetivo combatir la pornografía infantil y otros actos abusivos perpetrados contra los niños.