Cómo hacer un Sitio Web o Blog en 2022 - Guía fácil y Gratuita para Crear un Sitio Web

Médico acusado de tener miles de imágenes de pornografía infantil en iCloud

Apple reveló recientemente que implementará algunos mecanismos en sus sistemas operativos para combatir la propagación de la pornografía infantil.

Sin embargo, el anuncio generó cierta polémica, a pesar de que Apple ya tiene el sistema implementado en iCloud.

Fue precisamente en este servicio donde se detectaron más de 2.000 imágenes y videos de explotación sexual de menores.

El Departamento de Justicia de Estados Unidos ha acusado a un médico de San Francisco de posesión de este material ilícito.

El sistema de Apple para combatir la pornografía infantil en iCloud

Pornografía infantil encontrada en iCloud

En medio de la controversia que rodea al sistema de detección CSAM de Apple, un Médico de San Francisco acusado de posesión de pornografía infantil en su cuenta de Apple iCloud, según las autoridades federales.

El Departamento de Justicia de Estados Unidos anunció el jueves que Andrew Mollick, de 58 años, tenía al menos 2,000 imágenes y videos de la explotación sexual de niños almacenados en su cuenta de iCloud.

Mollick es un especialista en oncología afiliado a varios médicos del Área de la Bahía.

Además, también es profesor en la Facultad de Medicina de UCSF.

Según la investigación, el médico subió una de las imágenes a la aplicación de la red social Kik, según la denuncia federal presentada recientemente.

Imagen del sistema de Apple contra el abuso infantil y la pornografía infantil

Apple no quiere material ilícito en su ecosistema

Apple anunció recientemente planes para introducir un sistema diseñado para detectar material de abuso sexual infantil (CSAM) en iCloud y proporcionar un informe al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

El sistema, que tiene técnicas criptográficas para garantizar la privacidad del usuario, ha generado controversia entre las comunidades de derechos digitales y ciberseguridad.

El sistema no verifica las imágenes reales de la cuenta de iCloud de un usuario.

En cambio, se basa en la coincidencia de hashes de imágenes almacenadas en iCloud con hashes CSAM proporcionado por al menos dos organizaciones de seguridad infantil.

También hay una límite de al menos 30 piezas de CSAM para ayudar a mitigar los falsos positivos.

Avanzará el sistema CSAM en iPhone, iPad y Mac

Los documentos revelados durante el juicio de Epic Games vs.

Apple indicaron que el jefe antifraude de Apple, Eric Friedman, pensaba que los servicios de la compañía de Cupertino eran los "mayor plataforma de distribución"CSAM.

Friedman atribuyó este hecho a la sólida posición de Apple en la privacidad del usuario.

A pesar de la reacción, Apple sigue adelante con sus planes de lanzar el sistema de detección CSAM.

El gigante de Cupertino afirma que el la plataforma seguirá preservando la privacidad del usuario que no tienen colecciones CSAM en sus cuentas de iCloud.