El laboratorio de inteligencia artificial Anthropic anunció esta semana que había desarrollado un nuevo y poderoso modelo que la compañía cree que podría “remodelar la ciberseguridad”. Dijo que su último modelo, Mythos Preview, pudo encontrar “vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web”.
Patrick Sisón/AP
ocultar título
alternar título
Patrick Sisón/AP
En los últimos meses, los modelos de IA han pasado de producir alucinaciones a volverse eficaces para encontrar fallas de seguridad en el software, según desarrolladores que mantienen una infraestructura cibernética ampliamente utilizada. Esas piezas de software, entre otras cosas, alimentan los sistemas operativos y transfieren datos para cosas conectadas a Internet.
Si bien estas nuevas capacidades pueden ayudar a los desarrolladores a hacer que el software sea más seguro, los piratas informáticos y los estados nacionales también pueden utilizarlas como arma para robar información y dinero o interrumpir servicios críticos.
El último desarrollo de la capacidad cibernética de la IA se produjo el martes, cuando el laboratorio de IA Anthropic anunció que había desarrollado un nuevo y poderoso modelo que la compañía cree que podría “remodelar la ciberseguridad”. Dijo que su último modelo, Vista previa de los mitospudo encontrar “vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web”. No solo eso, el modelo fue mejor a la hora de encontrar formas de explotar las vulnerabilidades que encontró, lo que significa que los actores maliciosos pueden lograr sus objetivos de manera más efectiva.
Por ahora, la empresa está limitando el acceso al modelo a unas 50 empresas y organizaciones seleccionadas “en un esfuerzo por proteger el software más crítico del mundo”. Están llamando a la colaboración. Proyecto Ala de Vidrionombrándolo en honor a una especie de mariposa con alas transparentes.
Anthropic dice que el riesgo de uso indebido es tan alto que no tiene planes de lanzar este modelo en particular al público en general, según el anuncio, pero sí lanzará otros modelos relacionados. “Nuestro objetivo final es permitir a nuestros usuarios implementar de forma segura modelos de clase Mythos a escala”, escribió la compañía.
Aún así, los expertos en seguridad dicen que los riesgos potenciales son para los profesionales de la ciberseguridad y no para la gente común. “No creo necesariamente que el usuario promedio de computadoras deba estar fundamentalmente preocupado por esto”, dijo Daniel Blackford, vicepresidente de investigación de amenazas en Proofpoint, una firma de ciberseguridad. “Deben preocuparse mucho más por no revelar su contraseña porque eso sucede todo el día, todos los días”.
Mythos Preview también puede tener mejores capacidades para ayudar a los desarrolladores a corregir vulnerabilidades que los modelos anteriores, dijo Jim Zemlin, director ejecutivo de la Fundación Linuxque aloja el kernel de Linux de código abierto. Un kernel es una interfaz que permite que el hardware se comunique con el software, y el kernel de Linux impulsa algunos de los sistemas operativos más utilizados, incluido Android, así como las 500 supercomputadoras más potentes del mundo. La fundación es parte del Proyecto Glasswing, y Zemlin dijo que un grupo central de personas que trabajan en el kernel de Linux, conocidos como mantenedores, han comenzado a experimentar con el nuevo modelo para descubrir la forma más efectiva de usarlo.
“Estos mantenedores ya estaban sobrecargados de trabajo antes de la IA”, dijo Zemlin. “Esto simplemente hace que sus vidas sean mucho mejores”.
Incluso antes del lanzamiento limitado de Mythos Preview, la comunidad de ciberseguridad ya ha estado lidiando con la capacidad de los modelos de IA más avanzados disponibles comercialmente. Los desarrolladores se apresuran a corregir las vulnerabilidades de seguridad que los piratas informáticos detectan con IA. Los expertos en seguridad están preocupados por lo que podría suceder si esas capacidades proliferan sin barreras de seguridad.
Los piratas informáticos utilizan la IA para ayudarles a encontrar errores. No estaba funcionando, hasta ahora.
La mejora en las capacidades de los modelos de IA se hizo evidente a principios de 2026, afirmó Daniel Stenberg. Él es el desarrollador de software líder detrás rizouna herramienta de transferencia de datos de código abierto de 30 años de antigüedad que se usa ampliamente para cosas que se conectan a Internet, incluidos automóviles y dispositivos médicos. Ese cambio se produjo tras los lanzamientos de nuevos modelos de última generación a finales de 2025.
Como muchos miembros de la comunidad de software, Stenberg recibe ayuda de investigadores de seguridad para mantener su software funcional y seguro. Los llamados piratas informáticos de “sombrero blanco” señalan fallas de seguridad a los desarrolladores en privado y, a cambio, a veces reciben una recompensa monetaria, conocida como “recompensas por errores”, o derecho a fanfarronear al detectar la falla de seguridad. nombrados en su honor. Si bien todos los errores afectan la funcionalidad del software, sólo algunos errores presentan vulnerabilidades de seguridad.
Pero ese proceso comenzó a fallar el año pasado. El equipo de Stenberg se vio inundado de informes falsos que, estaba convencido, habían sido generados por IA. “Recibimos 185 informes a lo largo del año y, al final, menos del 5% de ellos fueron en realidad problemas relacionados con la seguridad”, dijo Stenberg.
Incluso cuando el volumen de informes se duplicó de 2024 a 2025, Stenberg terminó encontrando y solucionando menos vulnerabilidades de seguridad. Los informes de slop fueron tan malos que Stenberg dejó de pagar recompensas por errores por su herramienta cURL.
Los piratas informáticos que le presentan informes suelen ser anónimos, dijo Stenberg, y no comentan si los informes se realizaron con IA. Pero Stenberg dijo que la IA tiene un estilo de escritura distinto. “Tienden a ser muy elaborados y descriptivos… Obtienes un informe de 400 líneas (cuando) es algo que un humano necesitaría 50 líneas para presentar”.
HackerOne, una plataforma que Stenberg utiliza para gestionar informes de seguridad, encuestó a los piratas informáticos en el verano de 2025 y descubrió que casi el 60% de los encuestados utilizaban IA, la aprendían o aprendían a auditar sistemas de IA o aprendizaje automático.
“Los LLM ahora han superado la capacidad humana para encontrar errores”
Las cosas han cambiado dramáticamente este año. El volumen de informes ha sido incluso mayor que en 2025, pero hasta ahora, dijo Stenberg, la mayoría de ellos han descubierto problemas legítimos. “Casi todos los (informes) malos ya han desaparecido”.
Estima que aproximadamente 1 de cada 10 de los informes son vulnerabilidades de seguridad, el resto son en su mayoría errores reales. Apenas tres meses después de 2026, el equipo de cURL que Stenberg lidera ha encontrado y solucionado más vulnerabilidades que cada uno de los dos años anteriores.
Además de los informes de investigadores de seguridad externos, Stenberg también utiliza la IA para encontrar vulnerabilidades por sí mismo. Con un solo clic, la IA ha detectado más de 100 errores en su código que han pasado por rondas de revisión por parte de humanos y analizadores de código tradicionales “de maneras casi mágicas”.
La experiencia de Stenberg no es única. mantenedores del kernel de Linux tienen visto un cambio similar en la calidad de los informes de errores. Nicholas Carlini, un científico investigador antrópico, pudo encontrar vulnerabilidades en el kernel de Linux usando un modelo antrópico más antiguo y un mensaje relativamente simple. Carlini también utilizó IA para encontrar la primera vulnerabilidad crítica en otro proyecto de código abierto de 20 años.
“Los LLM ahora han superado la capacidad humana para encontrar errores”, dijo Alex Stamos, director de seguridad de Corridor, una empresa de seguridad de software de IA. El aumento en la calidad de los informes de investigación de seguridad siguió a la publicación de Modelo de Anthropic Opus 4.5 en noviembre, dijo Stamos, quien anteriormente fue jefe de seguridad en Yahoo y Facebook. Dado que gran parte del software comercial tiene componentes de código abierto, lo que sucede con los proyectos de código abierto tiene implicaciones más amplias para Internet, dijo Stamos.
¿Puede la IA corregir los errores y vulnerabilidades de seguridad que encuentre?
Stenberg aprecia que los modelos de IA actualmente disponibles para todos se hayan vuelto más útiles para encontrar errores, pero también desconfía de lo que futuros modelos más potentes podrían traer para los desarrolladores que mantienen software de código abierto. “Es una sobrecarga de todos los mantenedores que a menudo ya están sobrecargados, con poco personal, mal pagados y con fondos insuficientes en muchos sentidos”.
Stenberg no forma parte del Proyecto Glasswing y dice que muchos proyectos críticos, “cosas que en realidad son piedras angulares de Internet”, han quedado fuera.
Anthropic no respondió a la solicitud de comentarios de NPR.
Pero basándose en su experiencia hasta ahora, Stenberg dice que la IA no es tan buena para corregir errores y fallos de seguridad como para encontrarlos.
Parte de la razón es que ni los errores ni sus correcciones son sencillos. Como muchos otros aspectos del desarrollo de software, tomar decisiones lleva más tiempo que escribir el código. “Una vez que hemos identificado el problema y estamos de acuerdo en que es un problema, solucionarlo no es muy difícil ni requiere mucho tiempo. Es más bien todo el proceso hasta ese paso el que requiere tiempo y energía”, dijo Stenberg.
Otros piensan diferente. Una empresa llamada HackerOne está desarrollando ahora un producto de IA agente para encontrar (y reparar) vulnerabilidades de forma más autónoma.
¿Cómo influye la IA en el tira y afloja entre ataque y defensa en ciberseguridad?
“Encontrar errores no significa hacer que los errores sean explotables”, dijo Stamos. “La primera parte de lo que llamamos la cadena de destrucción es descubrir los defectos. El siguiente paso es… (en realidad) construir el arma. Y los modelos básicos no harán eso por ti”.
Los modelos básicos son modelos creados por los laboratorios de inteligencia artificial más avanzados, como Anthropic, OpenAI y Google Deepmind. Esos laboratorios han implementado barreras de seguridad para evitar que sus modelos creen software que pueda usarse de manera maliciosa. Estos modelos son altamente patentados y su funcionamiento interno no es público.
Pero todas las apuestas están canceladas una vez que los llamados modelos de peso abierto, que son más accesibles al público, alcancen a los de los laboratorios de inteligencia artificial más avanzados. Los malos actores pueden hacer una copia de ellos y eliminar las barreras contra el malware.
“Entonces estamos en verdaderos problemas porque se podría pedir a esos modelos que no sólo encuentren los errores, sino que luego creen un código de explotación” que pueda piratear los sistemas, dijo Stamos. Los modelos de peso abierto más avanzados están menos de un año por detrás de los modelos de peso cerrado más avanzados.
“También muestra lo increíblemente estúpido que es que el Pentágono diga que Anthropic es un riesgo para todo Estados Unidos”, añadió Stamos. El Pentágono ha calificado a Anthropic como un “riesgo para la cadena de suministro” porque la empresa pidió al gobierno que no utilice su tecnología para armas autónomas y vigilancia masiva. La etiqueta prohibiría a las agencias gubernamentales y a los contratistas trabajar con Anthropic. antrópico actualmente está disputando la etiqueta en la corte.
La mayoría de los modelos de peso abierto son fabricados por empresas con sede en China, país que Estados Unidos considera su principal rival en la carrera hacia el dominio de la IA. Al no publicar Mythos Preview públicamente, dijo Stamos, Anthropic está dando a los desarrolladores de software, así como a Estados Unidos, tiempo para reforzar sus defensas.

