El Fondo Monetario Internacional (FMI) advirtió que el avance de la Inteligencia Artificial (IA) incrementa el riesgo de ciberataques a gran escala y podría convertirse en una amenaza para la estabilidad del sistema financiero global, debido a la capacidad de estas herramientas para detectar vulnerabilidades informáticas en muy poco tiempo.
En una publicación difundida en su blog oficial, el organismo señaló que modelos avanzados de IA, como Claude Mythos, desarrollado por la empresa Anthropic, son capaces de detectar vulnerabilidades en sistemas informáticos “en poquísimo tiempo”, lo que eleva el riesgo de ataques coordinados. Según el FMI, esta situación podría convertirse en un verdadero “choque macrofinanciero”, afectando la intermediación de pagos y erosionando la confianza en el sistema bancario global.
El informe, reproducido por la agencia Sputnik, advirtió además sobre la posibilidad de “fallos correlacionados”, es decir, ataques simultáneos contra múltiples entidades financieras que comparten sistemas operativos y navegadores vulnerables. En ese sentido, el FMI consideró “inevitable” que se produzcan brechas en las defensas cibernéticas de los bancos ante la velocidad con la que la IA mejora la detección de fallas.
Por otra parte, el organismo expresó preocupación por la desigualdad en el acceso a herramientas de protección. Empresas como JPMorgan Chase, Amazon y Microsoft ya cuentan con acceso anticipado para implementar parches de seguridad, mientras que “muchos bancos en economías emergentes y países en vías de desarrollo permanecen desprotegidos”, concluyó el documento.
OpenAI reconoce riesgos de ciberataques en su navegador con IA
OpenAI reconoció que su navegador con agentes de inteligencia artificial integrado en ChatGPT Atlas no puede estar completamente protegido frente a ciberataques, en particular frente a las denominadas inyecciones de instrucciones, una técnica que permite alterar el comportamiento de los sistemas mediante comandos ocultos en correos electrónicos o páginas web.
La compañía explicó que, aunque se reforzaron las medidas de seguridad, este tipo de vulnerabilidades constituye un problema estructural de la IA generativa y difícilmente pueda eliminarse por completo. En ese sentido, advirtió que el llamado “modo agente” incrementa la superficie de riesgo al combinar autonomía operativa con acceso a información sensible del usuario.
Según OpenAI, la capacidad de estos sistemas para interactuar de manera más independiente también los expone a escenarios más complejos de explotación, donde instrucciones maliciosas pueden pasar desapercibidas y modificar su comportamiento sin intervención directa del usuario.
La preocupación es compartida por organismos internacionales. El Centro Nacional de Ciberseguridad del Reino Unido sostuvo que estas vulnerabilidades probablemente no puedan erradicarse totalmente y recomendó enfocar las estrategias en la mitigación del impacto y no en la eliminación absoluta del riesgo.
FUENTE: AMBITO





