Si Apple hasta ahora había sufrido muchas críticas de otros gigantes tecnológicos, incluidos WhatsApp o Epic Games, ahora es en sus propias filas donde el desacuerdo está creciendo.
De hecho, un nuevo informe de Reuters revela que muchos empleados de la firma californiana miedo por la privacidad del usuario tras la implementación de este nuevo sistema para la detección de imágenes de pornografía infantil en iCloud.
Para comprender completamente cómo funciona este último, lo invitamos a leer este artículo que detalla el tema, así como este informe de la entrevista de Erik Neuenschwander, director de privacidad de Apple.
Incluso si se trata de detectar localmente, en iPhone y iPad, contenido pornográfico infantil conocido por las asociaciones que luchan por la protección de los niños, muchos están preocupados por la naturaleza intrusiva de este sistema.
A pesar de que Apple ha hecho de la privacidad una de sus principales coberturas durante algunos años.
Según algunos empleados del Californian por tanto, la aprehensión está presente internamente.
En un canal de Slack utilizado con colegas, se intercambiaron más de 800 mensajes de debate sobre el sistema de detección de imágenes de pornografía infantil en unos pocos días.
Incluso se ha creado un grupo de discusión especialmente para discutir el tema delicado.
Se informa que Muchos trabajadores están preocupados por lo que puede hacer el sistema propuesto por el gigante de Cupertino., En términos de vigilancia masiva siguiendo las solicitudes del gobierno.
Evidentemente, no todo el mundo tiene la misma opinión.
Otros empleados de hecho, apoyar la iniciativa para la protección de los niños.
Y si vamos a creer las declaraciones de la empresa, el sistema no permite el análisis y búsqueda de imágenes distintas a las relativas a la pornografía infantil, y no constituye un obstáculo para la confidencialidad de los usuarios, en virtud de la naturaleza de detección.
tecnología utilizada.