Apple no dejará de usar software que detecta fotos prohibidas

La mayoría de la gente sabe lo meticulosa que es Apple con sus dispositivos y los archivos que se almacenan en ellos. La compañía lanzó recientemente un algoritmo que busca fotos prohibidas en dispositivos. Estos incluyen imágenes con elementos de abuso sexual infantil (MASI). Desafortunadamente, el algoritmo aún no está haciendo muy bien su trabajo. Esto generó un aluvión de críticas por su introducción y desempeño.

Si el número de tales imágenes en un dispositivo Apple llega a 30, entonces el software hará sonar la alarma y la compañía verificará al propietario del dispositivo. Debido a que aún no se ha optimizado el funcionamiento de este algoritmo, se han dado casos de falsas alarmas, y muchos usuarios temen que sus imágenes puedan ser erróneamente consideradas por el sistema como prohibidas. En respuesta a la indignación, los representantes de Apple acordaron buscar imágenes similares, pero solo aquellas que fueran certificadas por centros de información en diferentes países.

Pero incluso con tales críticas, Apple no tiene la intención de dejar de trabajar en su algoritmo. La compañía dice que a medida que mejore el software, disminuirá la cantidad de imágenes permitidas en los dispositivos. En los propios dispositivos, habrá una base de datos encriptada de dichas imágenes, que han sido verificadas por varias organizaciones. Por tanto, la empresa está intentando reducir el número de falsos positivos.

La compañía admitió que no había estudiado el algoritmo lo suficientemente bien. Esto influyó en las críticas del exterior. En particular, los grupos de influenciadores políticos estaban especialmente descontentos, así como sus propios empleados, que no quieren soportar el hecho de que la empresa corre el riesgo de perder su credibilidad en el campo de la protección de datos sensibles de los usuarios.

Publicaciones relacionadas

Botón volver arriba