Apple prometió no convertir el algoritmo de detección de contenido ilegal en una herramienta de vigilancia

Mar 10 Ago 2021 ▪ 19h54 ▪ 6 min de lecture - par Adrien Stefanini

La tecnología anunciada por la firma estadounidense levantó críticas y sospechas por parte de una gran cantidad de expertos en materia de seguridad informática, quienes consideran que podría ser usada para vigilar «por la puerta trasera» a los consumidores.

Apple responde a acusaciones por su plan de escanear las fotos de usuarios

Después de que expertos en seguridad informática criticaran ampliamente el nuevo sistema que Apple pretende implementar para detectar y eliminar todo posible contenido relacionado con el abuso sexual infantil, la firma tecnológica ha publicado un documento de seis páginas con el que quiere aclarar las principales dudas que ha generado la nueva tecnología. El documento contiene una serie de respuestas a preguntas frecuentes sobre su programa de «Protecciones ampliadas para niños», asegurando que este fue diseñado para funcionar únicamente en las imágenes subidas a iCloud y no a la «biblioteca privada del teléfono iPhone», por lo que no afectará a los usuarios que tengan desactivada la nube para almacenar fotos.

El nuevo sistema, anunciado la semana pasada, incluye una función que identifica y difumina las imágenes sexualmente explícitas a través del uso de algoritmos; sin embargo, expertos han considerado que este podría ser usado para vigilar «por la puerta trasera» a los usuarios de iPhones y iPads, por lo que se inició una petición contra del plan de Apple de escanear las fotos de todos sus usuarios, calificándolo de asalto a la privacidad.

La compañía niega la posibilidad de reutilizar su herramienta para buscar otros tipos de material en los teléfonos y ordenadores de los usuarios, además de SCAM. No ampliarán el alcance de las capacidades de escaneo y rechazarán cualquier requisito similar de las autoridades, dijeron funcionarios de Apple.

Nos hemos enfrentado a las demandas para crear e implementar cambios aprobados por el gobierno que comprometen la privacidad de los usuarios, y hemos renunciado obstinadamente a estas demandas. Continuaremos abandonándolos en el futuro”, dijo la compañía.

Apple explicó que inicialmente las funciones solo se lanzarán en los EE. La compañía se comprometió a realizar cuidadosamente evaluaciones legales para cada país antes de lanzar la herramienta para evitar abusos por parte de las autoridades.

La firma también aclaró algunos detalles sobre cómo funcionan las herramientas de escaneo de imágenes para detectar el abuso infantil y detectar fotos sinceras en «Mensajes»:

  • Para que la función de detección CSAM funcione correctamente, debe activar iCloud. Apple solo busca contenido compartido con su sistema en la nube.
  • Apple no carga imágenes de abuso infantil en el dispositivo para su posterior comparación. En su lugar, el algoritmo utiliza una base de datos de hashes de imágenes CSAM conocidas. Estos códigos se cargarán en el sistema operativo del teléfono, lo que permitirá comparar automáticamente las fotos cargadas en la nube con los hashes en la base de datos.
  • iCloud escanea todas las fotos disponibles en la nube, no solo las nuevas. Además de escanear las fotos que se cargarán en iCloud en el futuro, Apple planea verificar todas las fotos almacenadas en sus servidores en la nube.
  • La función de “Mensajes” para proteger a los niños de fotos obscenas no transmite datos a Apple ni a la policía. Los padres de niños pequeños no serán advertidos al enviar o recibir cada foto franca. El sistema primero le pedirá al niño una confirmación para ver. Si está de acuerdo, los padres recibirán una notificación. La función solo está disponible para grupos familiares y se activa manualmente.
  • El sistema no notificará a los padres de los adolescentes cuando vean contenido explícito en “Mensajes”. Para los niños de 13 a 17 años, el sistema desenfocará las fotos y advertirá sobre el peligro del contenido.
  • El análisis de imágenes en Mensajes no rompe el cifrado del punto final. Las fotos se verifican directamente en el dispositivo al que llega la carta. La empresa no transfiere estos datos a la nube.

A pesar de las aclaraciones de Apple, los profesionales y defensores de la privacidad han expresado su preocupación por las innovaciones. El experto en seguridad Matthew Green sugirió que el sistema tiene vulnerabilidades que las agencias de aplicación de la ley pueden explotar.

Alguien me propuso el siguiente escenario, y tengo curiosidad por saber cuál es la ley.

1. El Departamento de Justicia de EE.UU. se acerca a NCMEC, les pide que agreguen fotos no CSAM a la base de datos hash.

2. Cuando estas fotos se activan contra usuarios de Apple, el Departamento de Justicia envía una orden de conservación a Apple para obtener ID de cliente.”

En diciembre de 2020, Apple lanzó una actualización de iOS que permite a los usuarios desactivar la recopilación de datos personales dentro de las aplicaciones. Las nuevas reglas han provocado una ola de indignación de los desarrolladores de aplicaciones, principalmente Facebook y Google.

El nuevo sistema, anunciado por Apple la semana pasada, incluye una función que identifica y difumina las imágenes sexualmente explícitas a través del uso de algoritmos; sin embargo, expertos han considerado que este podría ser usado para vigilar «por la puerta trasera» a los usuarios de iPhones y iPads. Después de la ola de crítica, la firma tecnológica ha publicado un documento con el que quiere aclarar las principales dudas que ha generado la nueva tecnología.

Además de todo, el documento asegura que este fue diseñado para funcionar únicamente en las imágenes subidas a iCloud y no a la «biblioteca privada del teléfono iPhone», por lo que no afectará a los usuarios que tengan desactivada la nube para almacenar fotos.

A
A
Adrien Stefanini

Ingénieur de formation, et spécialisé dans les nouvelles technologies, je me suis toujours intéressé à la blockchain et aux cryptomonnaies. Je suis heureux de faire partie de l'équipe CoinTribune.

DISCLAIMER

Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.