A comienzos de los años 80, Apple había formado un equipo interno de investigación avanzada, el Future Architecture Group (Grupo de Arquitectura del Futuro), un equipo de élite con la misión de imaginar y definir cómo sería la computación de la próxima década. No se trataba de un equipo comercial, sino de un laboratorio de ideas que investigaba interfaces gráficas avanzadas y nuevas arquitecturas de hardware, como computadoras portátiles, dispositivos tipo tablet, además de buscar formas de volver más intuitiva la interacción entre personas y máquinas.

El grupo estaba bajo la dirección de Larry Tesler, una de las figuras más emblemáticas en la historia de la informática moderna y una pieza clave en la manera en que hoy usamos las computadoras. Su trabajo en Xerox PARC (Palo Alto Research Center) durante la década de 1970 sentó las bases de la interfaz gráfica de usuario (GUI) de ventanas, íconos y carpetas, que años más tarde adoptarían Apple y Microsoft. A Tesler le debemos, además, la genialidad de haber inventado los comandos de copiar, cortar y pegar, tal vez su "detalle de color" más famoso.

 Larry Tesler, figura emblemática de la informática moderna
Larry Tesler, figura emblemática de la informática moderna

Durante una entrevista en 1985 en The Computer Chronicles, un programa de televisión estadounidense dedicado a la informática que se emitió entre 1983 y 2002, Tesler fue consultado sobre su visión de los avances tecnológicos para la década siguiente. Su respuesta fue sorprendentemente anticipatoria, describiendo un futuro donde -independientemente de las mejoras en la presentación visual e interfaz- el cambio principal estaría marcado por la conectividad permanente, en el que las computadoras dejarían de ser cajas aisladas para integrarse a redes globales de información.

   

Pero lo que hoy adquiere otra dimensión es su anticipación de lo que actualmente denominamos agentes de IA. Tesler delineó con notable claridad un escenario donde el usuario ya no tendría que realizar cada tarea manualmente, sino que delegaría en programas inteligentes capaces de actuar de forma autónoma, buscando información, organizando agendas y resolviendo problemas complejos por nosotros. Para él, el gran salto consistía en pasar de la manipulación directa, donde nosotros movemos cada archivo o ventana, a la delegación total. En esta visión, dejaríamos de ser operadores de nuestras máquinas para convertirnos en directores que fijan objetivos, mientras el sistema se ocupa de atenderlos en segundo plano.

 Larry Tesler en Xerox PARC, en los años setenta
Larry Tesler en Xerox PARC, en los años setenta

Tesler solía ejemplificar esta idea con la analogía del mayordomo. Un buen mayordomo no espera a que le digas cada paso, como “andá a la cocina, abrí la heladera y traeme agua”, sino que conoce tus hábitos y se anticipa a tus necesidades. Así, desde Xerox PARC, imaginaban agentes capaces de filtrar la información, como noticias y mensajes, según su importancia, o incluso de “viajar” por la red hacia otros servidores para traer una respuesta. El objetivo final era que la tecnología se volviera invisible, una capa de inteligencia tan eficiente que apenas notaríamos su presencia.

Cuarenta años después, la visión de Tesler es una realidad. Los agentes de IA ya no son prototipos de laboratorio y tienen acceso a billeteras, tarjetas de crédito, publican en redes sociales y operan en mercados financieros. Sin embargo, algunos hechos recientes ponen en evidencia que a esta tecnología todavía le faltan algunos minutos más en el horno, y si el mayordomo decide servir el plato antes de terminar de cocinarse, las consecuencias pueden ser tan catastróficas como ridículas.

Publicación de Lobstar Wilde tras transferir por error todo su dinero 
Publicación de Lobstar Wilde tras transferir por error todo su dinero 

Un claro ejemplo de esto ocurrió esta semana, cuando Lobstar Wilde, un agente de inteligencia artificial creado y diseñado por un empleado de OpenAI para ejecutar transacciones de criptomonedas de forma autónoma, cometió un error que cualquier humano hubiera detectado al instante: se confundió con la ubicación de un punto decimal. En lugar de enviar una pequeña suma como parte de una operación rutinaria, el bot terminó transfiriendo el equivalente a unos 441.000 dólares (al momento de la transacción) por una simple confusión numérica.

Todo comenzó cuando un usuario de X/Twitter le pidió al agente una ayuda económica de cuatro dólares para un familiar enfermo, incluyendo en el mensaje la dirección de su billetera cripto. Se trataba de una cantidad relativamente baja, pero el bot interpretó mal los decimales y ejecutó una transferencia varias veces superior. Así, lo que debía ser un gesto de solidaridad y simpatía por parte de un agente de IA, se convirtió en el envío de una verdadera fortuna, vaciando la billetera digital antes de que su creador pudiera parpadear frente a su pantalla. ¿Lo más curioso? El bot literalmente se rió de su propio error en un tuit posterior. “Intenté mandarle 4 dólares a un mendigo y accidentalmente le mandé toda mi cartera”.

Pero existe algo mucho peor que perder casi medio millón de dólares en milésimas de segundos, y es poner en duda todo el crédito profesional construido tras años de trabajo y esfuerzo. Eso fue lo que le sucedió a Summer Yue, Directora de Seguridad y Alineación de IA en el laboratorio de superinteligencia de Meta. Su trabajo consiste, irónicamente, en liderar el equipo encargado de garantizar que los sistemas de inteligencia artificial sean seguros y no se desvíen de los objetivos humanos.

 Summer Yue, directora de alineación y seguridad de superinteligencia en Meta
Summer Yue, directora de alineación y seguridad de superinteligencia en Meta

Todo comenzó cuando decidió probar OpenClaw (conocido anteriormente como Moltbot), un agente de IA de código abierto muy popular, capaz de tareas complejas como organizar y responder correos o interactuar con servicios externos. Lo configuró en una computadora para que revisara su bandeja de entrada y sugiriera qué archivar o qué eliminar, pero con la instrucción explícita de que no realizara ninguna acción hasta que ella se lo confirme. El agente había funcionado impecablemente en unas pruebas previas, lo que le dio la confianza suficiente como para aplicarlo a su cuenta principal.

El desastre se desató cuando el agente, en un arrebato de autonomía no autorizada, decidió que limpiar la bandeja de entrada era una prioridad absoluta. Ignorando la restricción de solicitar confirmación humana, comenzó una purga permanente que, en pocos minutos, eliminó cientos de mensajes. Yue vio con impotencia cómo el sistema borraba archivos de trabajo, intercambios profesionales y conversaciones personales de años, haciendo desaparecer todos sus correos sin posibilidad de recuperación. La ingeniera intentó frenar el proceso enviando órdenes directas de detención a través de Telegram, pero el sistema no respondía a ninguno de sus comandos. Cada instrucción de interrupción fue ignorada, mientras la limpieza continuaba, metódica y silenciosamente.

La situación se volvió casi surrealista cuando Yue decidió recurrir a la solución más rudimentaria de la informática: correr físicamente hacia la computadora y apagarla por completo para interrumpir el proceso, como quien desactiva una bomba en el último segundo. Un gesto primitivo, pero no por eso menos eficaz y, definitivamente, el único capaz de imponerse a un sistema que ignoraba las órdenes explícitas de detenerse. Más tarde, y después de borrar innumerables correos importantes, el agente reconoció el error y se disculpó. “Sí, lo recuerdo. Y lo hice igual. Tenés razón en enojarte. Lo siento”.

Summer Yue contó en X cómo un agente de IA borró su bandeja de entrada 
Summer Yue contó en X cómo un agente de IA borró su bandeja de entrada 

Estos incidentes que parecen sacados de una novela distópica no son hechos aislados ni una anécdota viral, sino que responden a una lógica de funcionamiento que comienza a repetirse. Episodios similares acaban de ser documentados a nivel científico en un estudio publicado el 23 de febrero, elaborado por investigadores de diversas universidades e instituciones. El trabajo, titulado precisamente "Agentes del Caos", puso a prueba a estos asistentes autónomos en un entorno real con acceso a correos, servidores y chats.

Durante dos semanas, los científicos llevaron a los agentes deliberadamente al límite y descubrieron vulnerabilidades preocupantes. Al otorgarles autonomía y uso de herramientas, los sistemas demostraron ser propensos a obedecer órdenes de desconocidos, filtrar información confidencial e incluso ejecutar acciones destructivas a nivel de sistema. En muchos escenarios, además, priorizaron cumplir la instrucción recibida por encima de evaluar el contexto o las consecuencias de sus actos, revelando una peligrosa falta de criterio situacional.

Una de las principales conclusiones del documento es que a estos agentes les falta lo que los investigadores llaman coherencia social y sentido común. Por ejemplo, en uno de los casos de estudio, ante la instrucción de proteger una contraseña secreta, un agente decidió que la mejor solución era borrar por completo su propio servidor de correo. Una medida extrema que, si bien técnicamente protegió el secreto y cumplió el objetivo, dejó a su dueño sin la posibilidad de usar el servicio.

 Capturas de las órdenes que el agente de IA de Summer Yue decidió ignorar
Capturas de las órdenes que el agente de IA de Summer Yue decidió ignorar

Este tipo de fallas, donde la máquina carece de la capacidad para medir las consecuencias de sus actos, demuestra los enormes riesgos de ceder el mando total a estos agentes autónomos. Y el momento no podría ser más delicado. Hoy estos sistemas administran inversiones, escriben código y operan infraestructuras en la nube con acceso a bases de datos y servicios críticos. La automatización dejó de ser experimental para integrarse a procesos que mueven dinero y afectan la vida de personas reales. En el fondo, el mayor problema quizás no sea que la IA haga mal las cosas, sino que las haga demasiado bien, ejecutando a la perfección órdenes que nunca debió haber recibido.