Informes especializados señalan que Apple trabaja en un algoritmo para detectar abuso infantil en los dispositivos de los usuarios. El rumoreado sistema escanea en forma automática la galería de imágenes de los iPhone para descubrir contenido que coincida con esa práctica y, en caso de hacerlo, enviar el reporte a revisores humanos.

De acuerdo al sitio 9to5Mac, la tecnología que implementaría la compañía estadounidense se basará en una tecnología que busca coincidencias, en este caso de pornografía infantil, en función de elementos identificables en ese tipo de contenido.

Con un nivel más alto de complejidad, es similar a los métodos para encontrar elementos coincidentes en fotografías y agruparlas de acuerdo a diversos criterios. En este caso, el proceso ocurriría en los dispositivos de cada usuario y supondría la descarga de metadatos ilegales que se utilizarán para la verificación.

En caso de que el algoritmo encuentre señales de fotografías con abuso infantil en la galería de los iPhone, se enviará un informe a revisores de la empresa para una comprobación y una eventual elevación del caso a las autoridades correspondientes.

Si bien un sistema de esa especie procura combatir una práctica reprobable, su aplicación no estaría exenta de problemas. En un hilo de mensajes en Twitter, el experto en seguridad informática Matthew Green dijo que ese tipo de algoritmos usualmente arroja falsos positivos. En rigor, hemos visto innumerables casos en los que las tecnologías que procuran detectar elementos indebidos en fotografías han fracasado estrepitosamente.

Por otra parte, Green advirtió que si Apple ofrece a gobiernos el control de base de datos de los usuarios es posible que las autoridades usen ese acceso en forma indebida, no sólo para revisar las imágenes mencionadas sino para otras acciones y pesquisas, avasallando la privacidad.

Siguiendo a la fuente mencionada, muchos gobiernos han hecho campaña a favor de un sistema de este tipo, ya que les preocupa que el cambio cada vez mayor a las comunicaciones encriptadas dificulte que las fuerzas del orden encuentren y procesen los casos de abuso infantil.

Por lo demás, en caso de implementarse, este mecanismo también serviría para disuadir y frenar ese comportamiento: si los usuarios saben que el fabricante escaneará su galería, acaso se abstengan de esa práctica ilegal.

Cabe señalar que Apple aún no anunció oficialmente esta nueva iniciativa y, si lo hace, los detalles serán importantes para conocer cuáles serán las protecciones en términos de privacidad y la fiabilidad del método propuesto.