...
🧑 💻 Reseñas y noticias del mundo de los programas, coches, gadgets y ordenadores. Artículos sobre juegos y pasatiempos.

Apple retrasa nuevas características de seguridad infantil tras el escándalo de escaneo de fotos

5

justin duino

Apple anunció recientemente un montón de características de seguridad infantil para iOS 15, incluida una herramienta que verifica automáticamente su iPhone en busca de material de abuso sexual infantil (o CSAM). Dichas herramientas se usan comúnmente en los servicios de mensajería y almacenamiento en la nube, pero el impulso de Apple para el escaneo en el dispositivo provocó un gran rechazo en las redes sociales y en la prensa. Como resultado, Apple retrasará todas sus nuevas funciones de seguridad infantil.

En una declaración a 9to5Mac, Apple dice que "decidió tomarse un tiempo adicional en los próximos meses para recopilar información y realizar mejoras" para sus nuevas funciones de seguridad infantil, a saber, el escáner CSAM. Reconoce que "los comentarios de los clientes, grupos de defensa, investigadores y otros" motivó este cambio de planes.

Aún así, Apple afirma que su sistema de escaneo CSAM “está diseñado teniendo en cuenta la privacidad del usuario”. Antes de que sus fotos se almacenen en iCloud, su iPhone intenta compararlas con una base de datos de hash CSAM proporcionada por el NCMEC y otras organizaciones de seguridad infantil. Las imágenes coincidentes luego se almacenan en iCloud con un "vale de seguridad", básicamente una bandera invisible que solo Apple puede rastrear.

Si su cuenta de iCloud contiene varias imágenes que coinciden con CSAM, Apple revisará dichas imágenes manualmente. Las imágenes confirmadas de abuso sexual infantil se informan al NCMEC. Apple dice que este sistema es más seguro que las tecnologías de escaneo solo en la nube, ya que las imágenes solo son visibles para la empresa si están marcadas antes de dejar su iPhone.

Apple retrasa nuevas características de seguridad infantil tras el escándalo de escaneo de fotos

Una función de seguridad infantil planificada oculta imágenes potencialmente sexualmente explícitas de los niños en iMessage y alerta a los padres si se abren dichas imágenes. manzana

Pero a los defensores de la privacidad les preocupa que el escáner CSAM de Apple detecte falsos positivos, exponiendo potencialmente imágenes privadas a extraños o abriendo una puerta trasera para gobiernos y malos actores. La tecnología también podría sentar un mal precedente para el futuro: ¿Apple escaneará los teléfonos en busca de drogas u otros temas que puedan ser de interés para las fuerzas del orden?

Todavía no sabemos cómo planea Apple “mejorar” su escáner CSAM. Pero para ser honesto, la compañía probablemente no esperaba ver ninguna reacción negativa en primer lugar. Grandes nombres como Google ya utilizan la tecnología CSAM en sus servicios de nube y mensajería, y la propia Apple busca CSAM en iCloud Mail.

Independientemente de su posición, es decepcionante ver que Apple rechace algunas de sus nuevas herramientas de seguridad para niños, incluida una función de Mensajes que advierte a los niños que no abran archivos adjuntos de fotos o videos potencialmente explícitos (no impide que los niños abran dichos archivos adjuntos, pero alerta a los padres si lo hacen). Tal vez estas funciones lleguen con mejoras de privacidad unos meses después de iOS 15, pero nuevamente, los planes de Apple no están muy claros.

Fuente: Apple vía 9to5Mac

Fuente de grabación: www.reviewgeek.com

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More