Protección infantil y CSAM: Apple detiene el proyecto

En un comunicado enviado a AppleInsider, Apple hizo un anuncio histórico. De hecho, la firma californiana ha declarado pausar el despliegue de sus herramientas de protección infantil anunció hace unas semanas.

Como se detalla aquí, el gigante estadounidense planeaba lanzar, con iOS 15, varias funciones nuevas para proteger a los niños del contenido sexual, pero también para denunciar cualquier cuenta de iCloud que comparta pornografía infantil. Es especialmente este punto el que hizo que los dientes se encogieran. Porque incluso si el sistema de análisis subyacente a esta detección parecía hasta ahora sobre el papel bastante seguro en términos de respeto por la confidencialidad, ha sido una fuente de mucho temor para muchos. La tensión ha sido palpable, tanto con analistas y especialistas en seguridad de TI, como con los acusados ​​de privacidad, incluido Edward Snowden. Incluso invadió directamente las filas de la firma californiana.

Pero estos podrán recibir un golpe, por lo tanto, ya que Apple ha pausó el proyecto hasta nuevo aviso. La firma explica a AppleInsider querer tomarse un tiempo para analizar la situación y las herramientas, incluido el CSAM (análisis de imágenes de iCloud) que es objeto de tanto debate.

¿Qué opinas de esta decisión?

Para leer también:

Publicaciones relacionadas

Botón volver arriba