Cómo hacer un Sitio Web o Blog en 2022 - Guía fácil y Gratuita para Crear un Sitio Web

Médico acusado de tener miles de imágenes de pornografía infantil en iCloud

Apple reveló recientemente que implementará algunos mecanismos en sus sistemas operativos para combatir la propagación de la pornografía infantil.

Sin embargo, el anuncio generó cierta polémica, a pesar de que Apple ya tiene el sistema implementado en iCloud.

Fue precisamente en este servicio donde se detectaron más de 2.000 imágenes y videos de explotación sexual de menores.

El Departamento de Justicia de Estados Unidos ha acusado a un médico de San Francisco de posesión de este material ilícito.

El sistema de Apple para combatir la pornografía infantil en iCloud

Pornografía infantil encontrada en iCloud

En medio de la controversia que rodea al sistema de detecci√≥n CSAM de Apple, un M√©dico de San Francisco acusado de posesi√≥n de pornograf√≠a infantil en su cuenta de Apple iCloud, seg√ļn las autoridades federales.

El Departamento de Justicia de Estados Unidos anunci√≥ el jueves que Andrew Mollick, de 58 a√Īos, ten√≠a al menos 2,000 im√°genes y videos de la explotaci√≥n sexual de ni√Īos almacenados en su cuenta de iCloud.

Mollick es un especialista en oncolog√≠a afiliado a varios m√©dicos del √Ārea de la Bah√≠a.

Además, también es profesor en la Facultad de Medicina de UCSF.

Seg√ļn la investigaci√≥n, el m√©dico subi√≥ una de las im√°genes a la aplicaci√≥n de la red social Kik, seg√ļn la denuncia federal presentada recientemente.

Imagen del sistema de Apple contra el abuso infantil y la pornografía infantil

Apple no quiere material ilícito en su ecosistema

Apple anunci√≥ recientemente planes para introducir un sistema dise√Īado para detectar material de abuso sexual infantil (CSAM) en iCloud y proporcionar un informe al Centro Nacional para Ni√Īos Desaparecidos y Explotados (NCMEC).

El sistema, que tiene técnicas criptográficas para garantizar la privacidad del usuario, ha generado controversia entre las comunidades de derechos digitales y ciberseguridad.

El sistema no verifica las im√°genes reales de la cuenta de iCloud de un usuario.

En cambio, se basa en la coincidencia de hashes de im√°genes almacenadas en iCloud con hashes CSAM proporcionado por al menos dos organizaciones de seguridad infantil.

También hay una límite de al menos 30 piezas de CSAM para ayudar a mitigar los falsos positivos.

Avanzar√° el sistema CSAM en iPhone, iPad y Mac

Los documentos revelados durante el juicio de Epic Games vs.

Apple indicaron que el jefe antifraude de Apple, Eric Friedman, pensaba que los servicios de la compa√Ī√≠a de Cupertino eran los "mayor plataforma de distribuci√≥n"CSAM.

Friedman atribuyó este hecho a la sólida posición de Apple en la privacidad del usuario.

A pesar de la reacción, Apple sigue adelante con sus planes de lanzar el sistema de detección CSAM.

El gigante de Cupertino afirma que el la plataforma seguir√° preservando la privacidad del usuario que no tienen colecciones CSAM en sus cuentas de iCloud.