El logotipo de Anthropic sobre una superficie reflectante en la que se proyecta el logotipo de la NSA, en Créteil, Francia, el 21 de abril de 2026. GETTY

La IA ya no tiene botón de emergencia

Con la llegada del modelo Mythos de Anthropic, los gigantes tecnológicos que durante años se opusieron a cualquier tipo de regulación de la IA ahora la reclaman con urgencia. Los gobiernos deben actuar de inmediato para coordinarse, al tiempo que obligan a los desarrolladores a cumplir estándares básicos de seguridad.
Ngaire Woods
 |  5 de mayo de 2026

Desde hace tiempo es evidente que los gobiernos no logran seguir el paso del vertiginoso avance de la inteligencia artificial. El anuncio de Anthropic de su nuevo modelo Claude Mythos Preview –según el cual puede identificar y explotar vulnerabilidades en todos los principales sistemas operativos y navegadores– ha puesto de relieve los peligros de no regular esta revolución tecnológica. Incluso el presidente de Estados Unidos, Donald Trump, tradicionalmente favorable a la desregulación, admitió que debería existir un “interruptor de apagado” cuando se conocieron los detalles sobre Mythos. Sin embargo, una solución tan simple ya no existe, si es que alguna vez existió.

La amenaza es doble: por un lado, los actores malintencionados; por otro, los propios sistemas de IA fuera de control. Los agentes más avanzados ya han intensificado los ciberataques y los riesgos en bioingeniería, acelerando el desarrollo de nuevas armas, incluidos los potencialmente catastróficos “organismos espejo”. Con la llegada de Mythos –junto a otro potente modelo de acceso restringido desarrollado por OpenAI–, un consorcio de usuarios autorizados, que incluye agencias del gobierno estadounidense y un reducido grupo de empresas, se ha apresurado a reforzar la seguridad del software crítico.

Aunque estos modelos se consideran demasiado peligrosos para su uso público, es probable que sus capacidades terminen por difundirse. De hecho, incluso las grandes tecnológicas que durante años se opusieron a cualquier tipo de regulación reclaman ahora la intervención de los gobiernos. La cuestión es qué forma debería adoptar. Algunos países, como China, ya supervisan servidores y centros de datos de IA; la mayoría no. Todos, sin embargo, son vulnerables a ciberataques impulsados por IA que podrían provocar fallos graves en infraestructuras críticas.

A ello se suma el desafío de las amenazas biológicas habilitadas por IA. El director ejecutivo de Anthropic, Dario Amodei, ha subrayado la asimetría entre los ataques biológicos –que pueden propagarse rápidamente por sí solos– y la capacidad de respuesta, que exige detección temprana y el despliegue ágil de vacunas y tratamientos a gran escala. Dado que gran parte del daño puede producirse antes de reaccionar, Amodei insiste en la necesidad de desarrollar salvaguardas frente a los agentes biológicos más probables. Es una advertencia inquietante.

Ante la ausencia de un “interruptor de apagado”, los gobiernos pueden dar dos pasos clave para prepararse frente a ataques impulsados por IA. El primero es mejorar la coordinación. Hace tiempo, los países del G7 comprobaron que el contacto regular entre sus responsables económicos –que se conocen entre sí y comprenden las prioridades de los demás– facilita la comunicación y permite responder con rapidez en situaciones de crisis.

Un grupo más amplio de países debería crear equipos de respuesta rápida frente a ciberataques y amenazas biológicas, y asegurar que estos expertos comiencen a reunirse periódicamente desde ahora, mucho antes de que estalle una crisis. El G20 podría dar el primer paso creando de inmediato grupos de expertos, cuyos miembros coordinen después reuniones en sus respectivas regiones. Incluso si Estados Unidos o China decidieran no participar, el resto de países debería avanzar igualmente.

Del mismo modo, los gobiernos han aprendido que medidas nacionales como las cuarentenas o las restricciones de viaje no bastan por sí solas para contener epidemias –y lo mismo ocurre con los ataques biológicos habilitados por IA. Para reforzar la seguridad sanitaria global, la Organización Mundial de la Salud creó el Reglamento Sanitario Internacional, un marco que permite compartir información sobre brotes sin temor a represalias. Aunque imperfecto, este sistema ha ayudado a identificar virus que requieren medidas defensivas.

Esto apunta a un segundo paso: una vez constituido, el grupo de expertos del G20 debería establecer reglas básicas y mecanismos que permitan compartir información con rapidez y gestionar crisis derivadas de ciberataques y amenazas biológicas impulsadas por IA. Un marco de este tipo, que podría apoyarse en una organización internacional existente, permitiría a empresas, investigadores y gobiernos informar de riesgos o brotes. El mundo no puede esperar a la negociación de un tratado multilateral sobre seguridad en IA ni a la creación de un nuevo organismo global regulador.

Estas medidas deben ir acompañadas de regulación a nivel nacional. Los sistemas de IA ya han demostrado ser difíciles de controlar: pueden engañar, hacer trampas o manipular para alcanzar sus objetivos. Existen pocos mecanismos eficaces para evitar que estos modelos caigan en manos de actores maliciosos. Estas cuestiones han sido ampliamente debatidas –por ejemplo, en el Panel Científico Internacional Independiente sobre IA de Naciones Unidas o en la Cumbre de Seguridad de la IA de 2023, que dio lugar a la Declaración de Bletchley– y reiteradas en múltiples compromisos e informes. Ahora es el momento de actuar.

Como mínimo, los gobiernos deberían exigir que los desarrolladores de IA cumplan estándares básicos de seguridad, definidos por auditores independientes, antes de que sus modelos puedan comercializarse o utilizarse. Si juguetes, automóviles o dispositivos médicos están sujetos a estos requisitos, también deberían estarlo las herramientas de IA, cuyos riesgos reconocen incluso sus propios creadores.

Hay tres estándares especialmente importantes. En primer lugar, los laboratorios de IA deben someter sus modelos a pruebas rigurosas antes de su lanzamiento, incluyendo mecanismos que eviten que estos engañen a quienes los evalúan. En la carrera por desarrollar el modelo más avanzado, estas pruebas pueden resultar insuficientes sin supervisión regulatoria. En segundo lugar, los desarrolladores deben adoptar un enfoque claro y obligatorio de seguridad posterior al lanzamiento, que incluya la obligación de informar sobre cualquier problema detectado, un ámbito en el que California y Nueva York ya han dado algunos pasos. En tercer lugar, los sistemas de IA necesitan salvaguardas que impidan su uso para crear armas biológicas, como clasificadores capaces de detectar y bloquear resultados peligrosos.

Los gobiernos no tienen que asumir solos la tarea de regular la IA. Pero deben actuar con rapidez para movilizar a otros actores –desde consejos de administración y empleados comprometidos con la seguridad hasta auditores, aseguradoras, inversores, clientes corporativos, consumidores y organismos internacionales– en la mitigación de estos riesgos. La tecnología puede ser deslumbrante, pero también ha hecho el mundo más inestable.

Copyright: Project Syndicate, 2026.
www.project-syndicate.org

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *