Cómo hacer un Sitio Web o Blog en 2022 - Guía fácil y Gratuita para Crear un Sitio Web

Apple dice que no ampliará la controvertida tecnología CSAM

Apple ha intentado desviar las críticas a su controvertido sistema de protección CSAM, pero al hacerlo ha ilustrado lo que está en juego.

La gran conversación

Apple anunció la semana pasada que introduciría una colección de medidas de protección infantil dentro de iOS 15, iPad OS 15 y macOS Monterey cuando los sistemas operativos se lancen este otoño.

Entre otras protecciones, el sistema del dispositivo escanea su biblioteca de Fotos de iCloud en busca de evidencia de colecciones ilegales de Material de Abuso Sexual Infantil (CSAM). Por supuesto, es completamente apropiado proteger a los niños, pero los defensores de la privacidad siguen preocupados por la posibilidad de que el sistema de Apple se convierta en una vigilancia en toda regla.

En un intento por mitigar las críticas, Apple ha información nueva publicada en el que intenta explicar un poco más sobre cómo funciona la tecnología. Como se explica en este Libro blanco de Applela tecnología convierte las imágenes de su dispositivo en un hash numérico que se puede comparar con una base de datos de imágenes CSAM conocidas a medida que las carga en Fotos de iCloud.

Haciendo un picadillo

Si bien el análisis de la imagen se realiza en el dispositivo utilizando la tecnología hash de Apple, no todas las imágenes se marcan o escanean, solo aquellas identificadas como CSAM. Apple sostiene que esto es en realidad una mejora, ya que la empresa en ningún momento escanea toda la biblioteca.

“Las técnicas existentes implementadas por otras empresas escanean todas las fotos de los usuarios almacenadas en la nube. Esto crea un riesgo de privacidad para todos los usuarios”, dice la nueva pregunta frecuente de la compañía. “La detección de CSAM en iCloud Photos proporciona importantes beneficios de privacidad sobre esas técnicas al evitar que Apple conozca las fotos a menos que ambas coincidan con imágenes CSAM conocidas y estén incluidas en una cuenta de iCloud Photos que incluya una colección de CSAM conocida”.

A pesar de estas garantías, todavía existen grandes preocupaciones sobre hasta qué punto el sistema puede extenderse para monitorear otras formas de contenido. Después de todo, si puede convertir una colección de imágenes CSAM en datos que puedan identificarse, puede convertir en datos con los que se pueda escanear información personal. Defensor de la privacidad Edward Snowden advierte“No se equivoquen: si pueden buscar pornografía infantil hoy, mañana podrán buscar cualquier cosa”.

¿Tomarlo con confianza?

Apple dice que no tiene intención de llevar su sistema a otros dominios. En sus preguntas frecuentes, escribe:

“Hemos enfrentado demandas para construir e implementar cambios ordenados por el gobierno que degradan la privacidad de los usuarios antes y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro. Seamos claros: esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para ampliarla”.

A primera vista esto parece tranquilizador. Pero es lógico que ahora que existe esta tecnología, aquellas naciones que quieran obligar a Apple a extender la vigilancia en los dispositivos para asuntos más allá del CSAM utilizarán todas las armas que tengan para forzar el problema.

“Todo lo que se necesitaría para ampliar la estrecha puerta trasera que está construyendo Apple es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido”, advirtió Fundación Frontera Electrónica.

Prevenir esto será una lucha. Lo que significa que Apple tiene una pelea por delante.

La guerra de la privacidad ha comenzado

Puede ser que esta sea una pelea que Apple quiera tener. Después de todo, sabemos que ha tomado muchas medidas importantes para proteger la privacidad de los usuarios en sus ecosistemas y también sabemos que apoya cambios en las leyes para proteger la privacidad en línea.

“Ciertamente es hora, no sólo de una ley de privacidad integral aquí en los EE. UU., sino también de leyes mundiales y nuevos acuerdos internacionales que consagren los principios de minimización de datos, conocimiento de los usuarios, acceso de los usuarios y seguridad de los datos en todo el mundo”. El director ejecutivo Tim Cook dijo este año.

Se podría argumentar que la introducción de alto perfil de las medidas de protección infantil de Apple ha provocado una conversación más amplia sobre los derechos y la privacidad en un mundo en línea y conectado. La única forma de evitar que el sistema se extienda más allá del CSAM es ayudar a Apple a resistir la presión para hacerlo.

En ausencia de ese apoyo, es poco probable que Apple prevalezca contra todos los gobiernos por sí solo. En caso de que la empresa no reciba apoyo, la cuestión es que no se verá obligada a ceder. Y, sin embargo, los gobiernos aún pueden llegar a un acuerdo sobre la privacidad en línea.

Las apuestas son altas. El riesgo es que el Ladrillos a lo largo del camino iluminado por el sol hacia la justicia Cook ha tratado durante mucho tiempo de colocar ladrillos en la pared que podrían impedir que se produzca tal viaje.

El beneficio es que un esfuerzo decidido puede permitir la creación de marcos que permitan el final de ese camino.

La controversia refleja cuán difícil parece haberse vuelto ese camino.