Ante ola de críticas, Apple retrasa lanzamiento de sistema para detectar abuso sexual infantil
Puebla, Pue.- A principios del pasado mes de agosto, la compañía de Apple anunció una nueva serie de medidas de seguridad revisando los teléfonos y computadores de los clientes estadounidenses mediante escaneo automático en busca de imágenes de abusos sexuales a menores.
Leer también: Reportan posibles contagios de coronavirus en 18 planteles de Puebla
Pero después de recibir señalamientos y críticas en torno a la privacidad de los usuarios, Apple decidió retrasar los planes para implementar la tecnología de detección de abuso sexual infantil (CSAM, por sus siglas en inglés).
Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar información y hacer mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica”, apuntó la compañía por medio de un comunicado.
Esta iniciativa estaba prevista a implementarse en EE. UU. a finales de este año, teniendo como objetivo detectar e informar a las autoridades sobre la circulación de contenido de abuso sexual infantil en las fotografías de iCloud , no obstante, esto generó preocupación entre grupos preocupados por la privacidad de los usuarios.
Al recibir las primeras críticas, la compañía se había esforzado en explicar que el método elegido apenas interfería en la privacidad de los usuarios. El procedimiento suponía que cada vez que una foto tomada desde un dispositivo de Apple se subiera a la nube, se cruzaría automáticamente su hash (una especie de matrícula de los archivos comprimidos) con el de una lista de contenidos ya identificados como pedófilos.
Leer también: Asaltan y plagian a trabajadores de Limpia del Ayuntamiento de Puebla
En caso de coincidencia, se lanzaría un aviso a Apple y un empleado revisaría los archivos y, en su caso, se suspendería la cuenta del usuario y se avisaría a las autoridades. Sin embargo, estas explicaciones no satisficieron a los grupos defensores de la privacidad.
Matthew Green, un investigador de ciberseguridad de la Universidad Johns Hopkins que había criticado la medida de Apple, dijo que la decisión era “prometedora”.
El sistema, en caso de que entre en uso, sería “impulsado por una tecnología criptográfica” para determinar “si hay una coincidencia sin revelar el resultado”, a menos que se descubra que la imagen contiene abuso sexual infantil.