Apple retrasa el lanzamiento de una función que analizaría fotos en busca de abuso infantil

Apple había planeado un trío de nuevas herramientas diseñadas para ayudar a erradicar y detener la difusión de material de abuso sexual infantil

Por

Bloomberg — Apple Inc. va a retrasar la actualización de un sistema para escanear los iPhones para detectar imágenes de abusos sexuales a menores, después de haber suscitado fuertes críticas por parte de los defensores de la privacidad, ya que podría abrir la puerta a otras formas de rastreo.

La empresa había anunciado la función a principios de agosto, junto con otras herramientas destinadas a proteger a los niños y erradicar la pornografía ilícita, y rápidamente se enfrentó a la preocupación de que creara una puerta trasera a través de las muy preciadas medidas de privacidad de la empresa. Apple se esforzó por contener la controversia en las semanas siguientes, diciendo que recurriría a un auditor independiente para supervisar el sistema, pero las protestas persistieron.

“El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de material de abuso sexual infantil”, dijo Apple en un comunicado. “Basándonos en los comentarios de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos un tiempo adicional en los próximos meses para recolectar las opiniones y hacer mejoras antes de lanzar estas características de seguridad infantil de importancia crítica.”

Esta reacción se suma al creciente escrutinio sobre Apple en los últimos meses. A principios de esta semana, la empresa aceptó cambiar las políticas de su App Store para hacer frente a las críticas por su carácter anticompetitivo. Además, los empleados han denunciado cada vez más los problemas de la empresa, como la falta de igualdad salarial. La Junta Nacional de Relaciones Laborales de EE.UU. está estudiando actualmente dos quejas de trabajadores que se originaron por preocupaciones sobre la seguridad en el lugar de trabajo y la falta de transparencia salarial.

Apple había planeado un trío de nuevas herramientas diseñadas para ayudar a erradicar y detener la difusión de material de abuso sexual infantil. Entre ellas, el uso del asistente digital Siri para denunciar el abuso infantil y acceder a recursos relacionados con la lucha contra el CSAM; una función en Mensajes que analizaría los dispositivos operados por niños en busca de imágenes explícitas entrantes o salientes. La tercera era la más controversial: una que analizaría la biblioteca de un usuario en busca de imágenes explícitas de niños. Si se descubría que un usuario tiene este tipo de imágenes en su biblioteca, se avisaría a Apple, se realizaría una revisión humana para verificar el contenido y se denunciaría al usuario a las autoridades.

Los defensores de la privacidad, como la Electronic Frontier Foundation (EFF), advirtieron que la tecnología podría utilizarse para rastrear otras cosas además de la pornografía infantil, abriendo la puerta a “abusos más amplios”. No les tranquilizó el plan de Apple de incorporar un auditor y ajustar el sistema, ya que el enfoque en sí mismo no puede sino perjudicar el cifrado que protege la privacidad de los usuarios.

Ver más: Apple detectará e informará sobre fotos de niños sexualmente explícitas en el iPhone

El viernes, la EFF dijo que se alegraba de que Apple estuviera escuchando las preocupaciones, pero instó a la empresa a abandonar el plan por completo.

Estas características crearían un enorme peligro para la privacidad y la seguridad de los usuarios del iPhone, ofreciendo a los gobiernos autoritarios un sistema de vigilancia masiva llave en mano para espiar a los ciudadanos”, dijo la directora ejecutiva Cindy Cohn en un comunicado. “La enorme coalición que se ha manifestado seguirá exigiendo que los teléfonos de los usuarios, tanto sus mensajes como sus fotos, estén protegidos, y que la compañía mantenga su promesa de ofrecer una privacidad real a sus usuarios.”

En sus intentos por defender la nueva función CSAM, Apple instruyó al personal sobre cómo responder a las preguntas sobre el tema. También dijo que el sistema sólo marcaría los casos en los que los usuarios tuvieran unas 30 o más fotos potencialmente ilícitas.

Apple no es la única que ha tomado estas medidas. Facebook Inc. cuenta desde hace tiempo con algoritmos para detectar este tipo de imágenes subidas a sus redes sociales, y YouTube, de Google, analiza los vídeos de su servicio en busca de contenido explícito o abusivo que implique a niños. Adobe Inc. tiene protecciones similares para sus servicios en línea.

Se había previsto que la función entrara en vigor antes de finales de año, lo que podría eclipsar una oleada de anuncios de productos de Apple que se esperan en las próximas semanas. La compañía está lanzando iPhones, iPads, AirPods y Macs actualizados, así como un nuevo Apple Watch más grande, han dicho personas familiarizadas con el asunto.

Cohn, de la EFF, dijo el viernes que esperaba trabajar con la compañía “para encontrar formas de luchar contra el flagelo del material de abuso sexual infantil en línea que no requiera el sacrificio de la privacidad y la seguridad reales para los clientes de Apple.”