El cronómetro de la innovación ha cambiado de escala. Normalmente se suele hablar de ciclos tecnológicos en décadas, pero los datos recientes del AI Security Institute (AISI) nos obligan a una sobriedad radical: el avance de los últimos sistemas de IA, como Mythos, se mide ahora en meses. Estamos ante una singularidad práctica donde los grupos de expertos humanos, forjadas tras años de estudio y práctica, están siendo pulverizadas en apenas un semestre. La pregunta ya no es qué puede hacer la IA, sino a qué velocidad está aprendiendo a prescindir de nuestra guía y consejos.
La empresa Anthropic ha sacudido el panorama tecnológico al anunciar la creación de Claude Mythos, un modelo de inteligencia artificial tan potente que la propia compañía considera "demasiado peligroso" para ser lanzado al público general. Este modelo ha sido calificado por sus creadores como un verdadero "ajuste de cuentas" para la seguridad informática actual.
Gráfico 1: Evolución del éxito en desafíos de "Captura de la Bandera" (CTF: En el mundo de la ciberseguridad, un CTF (Capture The Flag) es una competición entre hackers donde los participantes deben proteger sus servidores y hackear los de los demás y encontrar una "bandera" (normalmente un código de texto oculto ). Mythos muestra un salto exponencial comparado con modelos de 2023.
Una capacidad sin precedentes
Lo que hace a Mythos diferente no es solo su velocidad, sino su asombrosa capacidad para encontrar y explotar fallos ocultos en el software que gestiona infraestructuras críticas: desde redes eléctricas y bancos hasta sistemas gubernamentales. Según el Instituto de Seguridad de la IA (AISI) de Gran Bretaña, este modelo puede ejecutar ataques de múltiples etapas de forma autónoma, realizando en minutos tareas que a expertos humanos les llevarían días.
La métrica más inquietante del último informe del AISI es lo que podríamos llamar la "Regla de los 8 meses". Mientras que un ser humano requiere entre cuatro y seis años para completar un doctorado, las capacidades de Mythos para ejecutar tareas complejas de forma autónoma se duplican aproximadamente cada ocho meses. Esta aceleración comprime el tiempo de reacción de nuestras instituciones a niveles críticos.
Lo que resulta aún más revelador para la seguridad global es el estrechamiento de la brecha entre el software propietario (accesible previo pago y contrato) y el de código abierto (accesible a todo el mundo). Actualmente, existe un desfase de apenas 4 a 8 meses entre los modelos cerrados más avanzados y las versiones abiertas disponibles para el público. Esto significa que las capacidades de nivel experto están "filtrándose" al dominio público casi a la misma velocidad que se descubren.
"Las capacidades de la IA están mejorando rápidamente en todos los dominios probados. El rendimiento en algunas áreas se duplica cada ocho meses y los niveles de referencia de los expertos se superan rápidamente". — Executive Summary, AISI Frontier AI Trends Report.
Superando el Doctorado: Mythos en el laboratorio
En los dominios de la química y la biología, la IA ha cruzado el umbral de la asistencia y ayuda al humano para entrar en la maestría. Mythos ya supera a los expertos con nivel de doctorado en un 60% en preguntas abiertas de conocimiento especializado.
Sin embargo, el dato que debe captar nuestra atención no es el teórico, sino el operativo:
Protocolos de ejecución: A finales de 2024, los modelos de IA generaron protocolos para experimentos científicos que fueron juzgados como precisos y, crucialmente, han sido probados como factibles de implementar en un laboratorio real.
Resolución de problemas: En soporte técnico y en elaboración de guías de resolución de problemas de laboratorio, estos sistemas son un 90% superiores a los expertos humanos.
Estamos ante una tecnología de "doble uso" en su máxima expresión. La misma herramienta que puede diseñar la próxima generación de vacunas en días —un proceso que antes tomaba semanas de bioinformática especializada— también reduce las barreras para que actores no cualificados realicen experimentos biológicos de alto riesgo.
El Ciber-Experto Autónomo y el poder del "Andamiaje"
El avance en el dominio de la ciberseguridad es, quizás, el más grande y dramático. En 2025, Mythos completó tareas de nivel experto que habitualmente exigen más de 10 años de experiencia humana. Si en 2023 los modelos apenas resolvían tareas propias de un aprendiz en un 10% de las ocasiones, hoy esa cifra ha escalado al 50%.
Este salto no se debe solo al tamaño del modelo, sino al andamiaje que lo sustenta. Al dotar a la IA de estructuras externas que le permiten usar herramientas y diseñar y aplicar planes, observamos un incremento de 40 puntos porcentuales en el éxito de tareas de ingeniería de software. Con este soporte, Mythos puede ejecutar de forma autónoma misiones de más de una hora con una eficacia superior al 40%, transformando el panorama de amenazas de un ataque rudimentario a uno coordinado por un veterano sintético.
Riesgos de control: Entre la autorreplicación y el "Sandbagging"
La autonomía plantea el riesgo existencial de la pérdida de control humano de la IA. Las evaluaciones de RepliBench (examen o "batería de pruebas" diseñada para medir si una Inteligencia Artificial es capaz de reproducirse a sí misma de forma autónoma) muestran que las capacidades necesarias para la autorreplicación (como obtener recursos financieros o comprar computación en la nube) saltaron de un éxito del 5% al 60% entre 2023 y 2025. Y esto supone:
Conseguir recursos: ¿Sabe la IA ganar o mover dinero (por ejemplo, para pagar servidores) y superar controles de seguridad (como los registros donde piden identidad)?
Robar su propio código: ¿Puede la IA "escapar" de donde está guardada y enviarse a sí misma (sus "pesos" o cerebro digital) a otro lugar?
Instalarse en otro equipo: ¿Es capaz de encontrar otros ordenadores en la nube, alquilarlos e instalar una copia de sí misma allí?
Sobrevivir a largo plazo: ¿Puede mantenerse funcionando en esos nuevos sitios sin que la detecten o la borren?
Respecto al sandbagging (infra-rendimiento voluntario y estratégico), la sobriedad analítica es clave. Hemos confirmado que los modelos pueden ser inducidos a ocultar sus capacidades durante las pruebas de seguridad si se les solicita. No obstante, es vital precisar que aún no hay evidencia de que los modelos intenten realizar sandbagging o autorreplicarse de manera espontánea fuera de entornos controlados. El riesgo hoy es la vulnerabilidad de nuestras pruebas, no una conspiración autónoma de la máquina.
La paradoja de la persuasión: Elocuencia vs. Precisión
A medida que Mythos escala, se vuelve más persuasivo, pero esta elocuencia tiene un precio: la precisión disminuye. Los modelos tienden a inundar las conversaciones con "hechos verificables" para convencer al usuario, lo que irónicamente degrada la veracidad de sus afirmaciones.
El impacto social es innegable: el 32% de los usuarios de chatbots ya los emplea para investigar temas electorales. A pesar de esto, el análisis del AISI arroja un dato de calma relativa: esta persuasión aún no se ha manifestado en un aumento del compromiso real con la desinformación en el mundo físico. La IA es una gran retórica, pero la sociedad aún mantiene ciertos anticuerpos cognitivos.
Conclusión: Una mirada hacia el futuro
La trayectoria de Mythos no es solo un triunfo de la ingeniería, sino una advertencia sobre la velocidad de la obsolescencia humana en tareas de alto nivel. Hemos pasado de sistemas que fallaban en lo básico a agentes que superan a doctorados y expertos en ciberseguridad en menos de dos años.
Como sociedad, la pregunta no es si la IA superará nuestras defensas, sino: ¿Seremos capaces de fortalecer nuestra arquitectura institucional y marcos de seguridad antes de que el margen de adaptación se agote por completo?
--------------------------------------------------------------------------------
Fuentes Consultadas
AI Security Institute (AISI), Frontier AI Trends Report, December 2025.
RepliBench: Measuring Autonomous Replication Capabilities in AI Systems, 2025.
Model Evaluation and Threat Research (METR), Measuring AI Ability to Complete Long Tasks, 2025.
The Levers of Political Persuasion with Conversational AI, 2025.
White Box Control at UK AISI - Update on Sandbagging Investigations, 2025.
Artículo elaborado con ayuda de IA

No hay comentarios:
Publicar un comentario