Aplaza Apple funciones de análisis de fotografías

Después de la controversia que ha generado una nueva función que analizaría las fotografías de los usuarios para detectar los contenidos relacionados al abuso sexual infantil, Apple anunció que aplazará su implementación

"Basados en la retroalimentación de clientes, grupos de defensa, investigadores, entre otros, hemos decidido tomar tiempo adicional durante los próximos meses para recolectar información y realizar mejoras antes de lanzar estas funciones de importancia crítica para la seguridad infantil", comentó Apple en su sitio.

 El mes pasado, cuando la compañía de Cupertino, California, presentó por primera vez estas funciones, explicó que su finalidad era prevenir que los niños caigan en redes de depredadores en línea, al implementar un análisis de las fotografías de los usuarios en iCloud para encontrar indicios de Material de abuso sexual infantil (CSAM, por sus siglas en inglés).

 No obstante, esta iniciativa generó una serie de reacciones en contra por considerarla como un nuevo sistema de vigilancia.

 Al respecto, Edward Snowden, activista por los derechos digitales y la libertad de expresión, manifestó su preocupación por esta disposición de Apple, pues afirmó que abre una puerta para la vigilancia a nivel mundial.

 Por su parte, Will Cathcart, jefe de WhatsApp, se sumó al rechazo al decir que Apple construyó un sistema de vigilancia para que pueda revisar todo y también darle oportunidad a los gobiernos de hacer lo mismo.

 Con la finalidad de afianzar la credibilidad de la nueva tecnología, Apple sostuvo unos días después que rechazará cualquier presión de los gobiernos para realizar el escaneo de imágenes que no tengan que ver con abuso infantil.

 Además, la compañía explicó que su herramienta solo se aplicará a los usuarios que decidieron utilizar los servicios de iCloud para guardar sus fotos y que el escaneo se hará en esta plataforma y no en el dispositivo.

 La detección de imágenes se realizará mediante un complejo proceso de criptografía en donde Apple usará una línea de números codificados que corresponden a imágenes de abuso infantil y después verificará si este código encaja con las fotos del usuario. Apple aclaró que el procedimiento no revisa las imágenes sino los metadatos.

 La tecnológica añadió que, en caso de que algún usuario resulte sospechoso, el reporte a las autoridades no se hará de forma automatizada, pues antes pasará por un protocolo de revisión humana, además defendió que su sistema es preciso con un margen casi nulo de error.

Por ahora, Apple no ha definido hasta cuando aplazará la implementación de estas funciones.