Apple detectará e informará sobre fotos de niños sexualmente explícitas en el iPhone

La compañía dijo que el proceso garantiza que no pueda aprender sobre imágenes que no coincidan con la base de datos.

Apple introducirá este año un software que detectará fotos inapropiadas de niños y ayudará a combatir la pornografía infantil y tráfico. Además podrá ser utilizado por los padres para evitar que los niños compartan y reciban fotos explícitas. Fotógrafo: Gabby Jones/Bloomberg
Por Mark Gurman
05 de agosto, 2021 | 03:00 PM

Bloomberg — Apple Inc. dijo que lanzará un nuevo software a finales de este año que analizará las fotos almacenadas en la cuenta de iCloud Photos de un usuario en busca de imágenes sexualmente explícitas de niños y luego informará las instancias a las autoridades pertinentes.

Como parte de las nuevas salvaguardas que involucran a los niños, la compañía también anunció una función que analizará las fotos enviadas y recibidas en la aplicación Mensajes hacia o desde niños para ver si son explícitas. Apple también está agregando funciones en su asistente de voz digital Siri para intervenir cuando los usuarios buscan material abusivo relacionado. El gigante tecnológico con sede en Cupertino, California, anticipó las tres nuevas funciones el jueves 5 de agosto y dijo que se pondrían en uso más adelante en 2021.

Ver más: Musk critica tarifas de Apple y niega diálogo de fusión con Cook

PUBLICIDAD

Si Apple detecta un umbral de fotos sexualmente explícitas de niños en la cuenta de un usuario, las instancias serán revisadas manualmente por la empresa y reportadas al Centro Nacional para Niños Desaparecidos y Explorados , o NCMEC, que trabaja con las agencias que aplican la ley. Apple dijo que las imágenes se analizan en el iPhone y el iPad de un usuario en los EE. UU. antes de que se carguen en la nube.

Apple dijo que detectará imágenes abusivas comparando fotos con una base de datos de material conocido de abuso sexual infantil, o CSAM, proporcionada por el NCMEC. La compañía está utilizando una tecnología llamada NeuralHash que analiza imágenes y las convierte en una clave hash o un conjunto único de números. Luego, esa clave se compara con la base de datos mediante criptografía. Apple dijo que el proceso garantiza que no pueda aprender sobre imágenes que no coincidan con la base de datos.

Apple dijo que su sistema tiene una tasa de error de “menos de uno en 1 billón” por año y que protege la privacidad del usuario. “Apple solo se entera de las fotos de los usuarios si tienen una colección de CSAM conocido en su cuenta de iCloud Photos”, dijo la compañía en un comunicado. “Incluso en estos casos, Apple solo aprende sobre imágenes que coinciden con CSAM conocido”.

PUBLICIDAD

Cualquier usuario que sienta que su cuenta ha sido marcada por error puede presentar una apelación, dijo la compañía.

Para responder a las preocupaciones de privacidad sobre la función, Apple publicó un documento técnico que detalla la tecnología, así como un análisis de terceros del protocolo de varios investigadores .

John Clark, presidente y director ejecutivo de NCMEC, elogió a Apple por las nuevas funciones.

“Estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo atraídos en línea y cuyas horribles imágenes están circulando en material de abuso sexual infantil”, dijo Clark en un comunicado proporcionado por Apple.

Ver más: Apple y Goldman competirán con Affirm en compras en cuotas

La función de Mensajes es opcional y los padres pueden habilitarla en los dispositivos que usan sus hijos. El sistema buscará material sexualmente explícito en las fotos recibidas y las que estén listas para ser enviadas por los niños. Si un niño recibe una imagen con contenido sexual, se verá borrosa y tendrá que tocar un botón adicional para verla. Si ven la imagen, se notificará a sus padres. Asimismo, si un niño intenta enviar una imagen explícita, será advertido y su padre recibirá una notificación.

Apple dijo que la función de Mensajes utiliza análisis en el dispositivo y que la compañía no puede ver el contenido de los mensajes. La función se aplica al servicio iMessage de Apple y a otros protocolos como el Servicio de mensajería multimedia.

La compañía también está implementando dos funciones relacionadas con Siri y la búsqueda. Los sistemas podrán responder a preguntas sobre cómo denunciar la explotación infantil y las imágenes abusivas y proporcionar información sobre cómo los usuarios pueden presentar denuncias. La segunda función advierte a los usuarios que realizan búsquedas de material abusivo para los niños. Las funciones de Mensajes y Siri llegarán al iPhone, iPad, Mac y Apple Watch, dijo la compañía.