El secretario de Defensa de Estados Unidos, Pete Hegseth, fijó un plazo para que la empresa de inteligencia artificial Anthropic le otorgue al Pentágono acceso sin restricciones a su modelo de IA, algo que la compañía dirigida por Dario Amodei se niega a hacer.

Esta puja entre el gobierno estadounidense y la startup tecnológica se ha extendido durante las últimas semanas, y las autoridades del área de defensa siguen reclamando acceso para poder avanzar sin limitaciones técnicas con “cualquier uso legal” de la IA de Anthropic. Un requerimiento que ya fue acordado con otras empresas del sector como OpenAI y xAI, según informó The Washington Post.

De habilitar esa posibilidad, el área de Defensa del gobierno estadounidense podría implementar los modelos de Anthropic en operaciones de vigilancia doméstica masiva o en el uso de armas autónomas letales, lo cual iría en contra de la “política de uso aceptable” de la compañía.

De acuerdo con personas al tanto de la negociación que fueron citadas por Axios, el director de tecnología del Pentágono Emil Michael –un ex alto ejecutivo de Uber– llegó a amenazar con designar a Anthropic como un “riesgo de la cadena de suministro”, una clasificación reservada para amenazas a la seguridad nacional como la influencia extranjera maliciosa. También advirtió que, de no darles acceso sin restricciones a su tecnología, podrán aplicar sanciones como la finalización de lazos comerciales.

Pete Hegseth, secretario de Defensa de Estados Unidos, sostuvo que deben priorizar la velocidad de implementación de la IA por sobre la seguridad.
Pete Hegseth, secretario de Defensa de Estados Unidos, sostuvo que deben priorizar la velocidad de implementación de la IA por sobre la seguridad.

Anthropic es una de las cuatro compañías de IA a las que el Pentágono asignó contratos de defensa por encima de los 200 millones de dólares el año pasado, junto a Google, OpenAI y xAI, de Elon Musk.

A su vez, sus desarrollos de IA son utilizados por los principales contratistas de defensa del sector tecnológico, como Amazon Web Services, Palantir y Anduril. Esto se debe a que su familia de modelos de lenguaje Claude fue la primera en recibir la autorización para procesar información clasificada, y que se mantiene como el único que opera en redes del Pentágono.

Esto ha sido aprovechado por Anthropic como herramienta de influencia en sus negociaciones con el Departamento de Defensa, fundamentalmente a raíz de la filtración de una versión que indica que Claude habría sido utilizado tanto para la planificación como para la ejecución de la captura de Nicolás Maduro en Venezuela. Esto llevó a la compañía a redoblar sus esfuerzos por conocer las condiciones de uso de su tecnología.

Anthropic se ha posicionado como una empresa líder en IA que privilegia la seguridad, y esto contempla el uso de sus herramientas de acuerdo con regulaciones específicas que fueron establecidas por Joe Biden antes de su salida de la Casa Blanca. El expresidente promulgó un marco normativo que prohibía el desarrollo de sistemas de inteligencia artificial que pudieran violar derechos protegidos constitucionalmente o automatizaran el despliegue de armas nucleares.

Puja entre velocidad y seguridad

Hamza Chaudhry, responsable de IA y seguridad nacional del Future of Life Institute, un grupo de investigación no partidista centrado en la gobernanza de la IA, explicó que las propias directivas internas del Pentágono limitan el uso de sistemas de armas autónomos y la recopilación de información de personas estadounidenses.

“La política de uso aceptable de Anthropic refleja estas mismas líneas, y hasta que el Pentágono renuncie formalmente, aclare o actualice estas posiciones políticas, la gran pregunta es si la empresa puede ser obligada a abandonar una política a la que el propio gobierno se ha comprometido en principio”, explicó en declaraciones a The Verge.

A través de un memorando, Hegseth enfatizó en que el Pentágono debe priorizar la velocidad de implementación de la IA por sobre la seguridad: “Debemos aceptar que los riesgos de no moverse lo suficientemente rápido superan los riesgos de una alineación imperfecta”, escribió. Además, insistió en que bajo su gestión la “IA del Pentágono no será woke”.