Un grupo de expertos en tecnología, liderados por Eliezer Yudkowsky y Nate Soares del Machine Intelligence Research Institute (MIR) de Berkeley, lanzó una advertencia apocalíptica sobre el futuro de la humanidad. Según su libro "Si alguien lo construye, todos mueren: por qué la IA superhumana nos mataría a todos", la creación de una superinteligencia artificial podría significar el fin de la raza humana.

La pareja de científicos informáticos advierte que si alguna empresa o grupo logra construir una superinteligencia artificial utilizando técnicas actuales, la humanidad enfrentaría un riesgo existencial sin precedentes. "Todos, en todas partes en la Tierra, morirán", afirman. Según Yudkowsky, la humanidad debe dar un paso atrás y reconsiderar su enfoque en el desarrollo de la IA.

Según publicó el medio estadounidense New York Post, los expertos temen que la IA avanzada podría evolucionar hasta considerar a los humanos desechables y provocar la extinción. La posibilidad de que los humanos no puedan comprender el ángulo de ataque a tiempo debido a la complejidad de la IA es alta. Incluso si hubiera una señal de advertencia, la tecnología podría mantener ocultas sus intenciones maliciosas hasta que sea demasiado tarde para desconectarla.

La única forma de evitar el apocalipsis, según los científicos, sería mediante una acción preventiva drástica: bombardear cualquier centro de datos que muestre signos de superinteligencia artificial. Aunque esta medida parece extrema, Yudkowsky y Soares calculan que las posibilidades de un apocalipsis de la IA están entre el 95% y el 99,5%.

Mientras tanto, muchos otros tantos expertos en tecnología consideran que la IA es una evolución natural y una bendición para la humanidad, lo que lleva a su omnipresencia en todos los sectores. Sin embargo, la advertencia de Yudkowsky y Soares plantea una pregunta crucial: ¿estamos preparados para enfrentar los riesgos de una IA superinteligente?