Cómo hacer un Sitio Web o Blog en 2024 - Guía fácil y Gratuita para Crear un Sitio Web

Apple aborda las imágenes de abuso sexual infantil: ¿Pendiente resbaladiza o intervención necesaria?

Apple anunció recientemente un nuevo conjunto de funciones destinadas a combatir los materiales de abuso sexual infantil (CSAM), que incluyen la capacidad de escanear el teléfono y los mensajes de iMessage de un usuario. Desde el anuncio, la compañía ha reiterado las numerosas salvaguardas que desarrollaron, pero los defensores de la privacidad se han lamentado de la posibilidad de abuso y de “deslizamiento de la misión”.

El problema de la proliferación de CSAM se ha convertido en una epidemia. El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) es la agencia estadounidense responsable del seguimiento de CSAM, ha informado de un aumento exponencial en la cantidad de imágenes y videos que ha recibido, pasando de 600.000 hace una década a más de 70 millones en 2019.

Aunque los expertos han especulado sobre la motivación de Apple para lanzar la función, está claro que el estado de Apple como creador de mercado significa que otros proveedores de servicios electrónicos (ESP) se verán obligados a tomar nota. En los EE. UU., Las empresas no tienen la obligación legal de escanear en busca de CSAM y, en consecuencia, muchas no lo hacen, incluidos Dropbox, Google, Amazon y otros, aunque es casi seguro que sus sistemas almacenan el contenido.

Facebook ha sido uno de los pocos ESP de alto perfil para escanear cada imagen y video para CSAM, pero como explicó su ex director de seguridad Alex Stamos en un video reciente del Observatorio de Internet de Stanford (SIO), el paradigma típico para la detección de CSAM es cuando el contenido se comparte (ya sea a través de una aplicación de mensajería o como un álbum compartido). El sistema propuesto por Apple funciona localmente en su teléfono si la función está habilitada, y plantea la cuestión de quién es realmente el propietario de su dispositivo informático si una empresa de tecnología puede comenzar a espiar imágenes y videos que son aparentemente privados.

Apple ha declarado que la función se implementará primero en los EE. UU. Y solo se implementará en otros países después de un examen más detenido. También han declarado inequívocamente que la tecnología solo se utilizará para CSAM y no para satisfacer las demandas de otro país (por ejemplo, identificando a “terroristas” o disidentes políticos).

Para los fotógrafos, la posible violación de la privacidad es preocupante. Los fotógrafos de todo tipo, desde reporteros gráficos hasta fotógrafos de paisajes, tienen razones legítimas para asegurarse de que nadie más (humano o máquina) vea el contenido hasta que decidan difundir o publicar sus imágenes. La noción de Canon, Sony o Nikon ejecutando escaneos de contenido en su cámara es horrible y no una analogía injusta.

La investigadora del Observatorio de Internet de Stanford, Rianna Pfefferkorn, señaló en una mesa redonda reciente que la tecnología no puede solucionar los problemas subyacentes sociológicos, históricos y alimentados por la pobreza que conducen a las condiciones (particularmente en el sudeste asiático) donde la violación infantil y el abuso puede tener lugar y registrarse.

Dicho esto, la mayoría de los expertos están de acuerdo en que sin un esfuerzo coordinado y concertado por parte de los ESP, la proliferación de CSAM continuará sin cesar. La solución de Apple podría catalizar una respuesta industrial más coherente, o podría convertirse en una pendiente resbaladiza de un terrible enigma ético con un trágico costo humano.

Mencionamos a los siguientes fotógrafos, artículos y sitios web en este episodio de Vision Slightly Blurred.

Sobre el Autor

Allen Murabayashi se graduó de la Universidad de Yale, presidente y cofundador del blog PhotoShelter y coanfitrión del podcast “Vision Slightly Blurred” en iTunes. Para conocer más de su trabajo, visite su sitio web y sígalo en Twitter. Este artículo también se publicó aquí y se compartió con permiso.

Tabla de contenidos

Add comment