Luego de recibir una importante cantidad de críticas, Apple tomó la decisión de retrasar el lanzamiento de su polémica función para escanear y detectar imágenes en los iPhone y en iCloud con el fin de combatir la distribución de material de abuso sexual infantil (CSAM, en inglés). La empresa compartió un comunicado explicando los motivos de la medida.

"Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica", señalaron.

El sistema en cuestión fue anunciado a principios de agosto, cuando desde Apple indicaron que el objetivo era proteger a los menores de edad de abusadores que aprovecharan las herramientas digitales. Muchos usuarios se preocuparon por su privacidad y criticaron la medida, ya que se llevarían a cabo escaneos de las galerías de imágenes en busca de pornografía infantil o contenido ilegal relacionado.

El sistema para restrear CSAM de Apple funcionaría en tres áreas.

Inicialmente, las funciones de CSAM iban a implementarse en iOS 15 a finales de este año. Sin embargo, la reacción de expertos en seguridad y grupos de privacidad fue tal, que la compañía puso en pausa su implementación.

En el documento que describe las características del sistema, Apple detalló que funciona de tres maneras:

Por un lado, "aprendizaje automático para avisar de contenido sensible mientras los mensajes de las comunicaciones privadas siguen siendo ilegibles por Apple"; por otro, "nuevas aplicaciones de la criptografía para ayudar a limitar la difusión de pornografía infantil" en iCloud Photos; y funciones de Siri y Search para "intervenir cuando los usuarios traten de buscar temas relacionados con CSAM".

"Vigilancia y censura"


Desde la Electronic Frontier Foundation (EFE) manifestaron unas de las críticas contra el mecanismo, afirmando que la empresa estaba "abriendo la puerta trasera a abusos más amplios" y que era casi imposible escanear imágenes explícitas sin comprometer la privacidad del resto de las imágenes.

Los críticos también coincidieron en que, si bien la pornografía infantil es un problema grave, activar estas funciones podría llevar a que algunos gobiernos las utilicen como medio de vigilancia y censura.

Los iPhone sumarán medidas de seguridad para evitar que niños y niñas compartan contenidos sensibles.

Por su parte, Apple intentó llevar tranquilidad activando una página de preguntas frecuentes y organizando varias reuniones informativas con la prensa, pero aun así quedaron muchas dudas sobre cómo es que se iba a aplicar realmente el mecanismo.

Hasta el momento no se han dado mayores detalles sobre qué modificaciones se harán y cuándo podrían oficializarse las herramientas de CSAM.

El escaneo de imágenes para luchar contra la pornografía infantil es una práctica extendida en distintas aplicaciones de empresas tecnológicas, desde Facebook hasta Google Drive.