La adopción de IA genera un aviso de seguridad de la NSA

La Agencia de Seguridad Nacional (NSA) ha emitido un informe advirtiendo sobre los riesgos de los sistemas de inteligencia artificial (IA) implementados de forma insegura a medida que crece su adopción en todas las industrias.

La agencia enfatizó la necesidad de que las organizaciones implementen medidas de seguridad sólidas para prevenir el robo de datos y mitigar el posible uso indebido de los sistemas de inteligencia artificial.

El aviso de la NSA se emitió conjuntamente con la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA), el FBI y socios internacionales, incluida la Dirección de Señales de Australia y el Centro Nacional de Seguridad Cibernética del Reino Unido.

Según la NSA, la implementación segura de sistemas de IA requiere una instalación y configuración cuidadosas, dependiendo de factores que incluyen la complejidad del sistema, los recursos disponibles y la infraestructura utilizada.

Las recomendaciones clave incluyen hacer cumplir estrictos controles de acceso, realizar auditorías periódicas y pruebas de penetración e implementar mecanismos sólidos de registro y monitoreo. También se insta a las organizaciones a validar los sistemas de IA antes de su implementación, proteger las API expuestas y prepararse para la alta disponibilidad y la recuperación ante desastres.

La advertencia surge en medio de preocupaciones sobre posibles vulnerabilidades en la tecnología de IA y la necesidad de abordar los riesgos cambiantes .

Grave riesgo de fuga

Los modelos desarrollados e implementados internamente, que a menudo utilizan datos confidenciales, plantean un grave riesgo de filtración a través de ataques de ciberseguridad como la inferencia de membresía y la extracción de datos, dijo Daniel Christman, cofundador de la firma de seguridad de inteligencia artificial Cranium . “Estos riesgos pueden ser explotados simplemente por actores de amenazas que utilizan el modelo y observan los resultados”, dijo.

Además, muchas organizaciones están aprovechando modelos implementados en entornos externos (como sus proveedores), donde las partes interesadas internas en ciberseguridad tienen poco o ningún control sobre la postura de seguridad, lo que amplifica la gravedad de la situación.

Christman señaló que los actores de amenazas están aprovechando activamente las capacidades únicas de los sistemas de IA, en particular el hecho de que los resultados de los sistemas de IA no son estáticos sino que se basan en los datos de entrenamiento subyacentes. “Un atacante puede extraer información confidencial de un sistema de inteligencia artificial sin acceso a los datos o a la infraestructura subyacente”, advirtió Christman.

Si los actores malintencionados pueden acceder a los datos de entrenamiento, los pesos de los modelos u otros detalles clave del sistema de IA, pueden lanzar una gama mucho más amplia de ataques que han demostrado ser extremadamente difíciles de detectar, como el envenenamiento de datos.

Como se menciona en la guía de la NSA, Christman aconsejó a los profesionales de la ciberseguridad que sigan aplicando las mejores prácticas en sus entornos de implementación de sistemas de IA. Asegúrese de que existan controles de acceso y supervise continuamente las métricas del sistema para detectar actividades anómalas.

Para los sistemas de IA de alto riesgo, considere medidas defensivas más sofisticadas, como equipos rojos de IA, entrenamiento adversario y pruebas de robustez para garantizar que los sistemas de IA sean resistentes a entradas maliciosas.

Profesionales de la ciberseguridad conscientes de las amenazas

La orientación llega en un momento crucial, según Marcus Fowler, director ejecutivo de Darktrace Federal .

“Ya estamos viendo el impacto temprano de la IA en el panorama de amenazas y algunos de los desafíos que enfrentan las organizaciones al usar estos sistemas, tanto desde dentro de sus organizaciones como desde adversarios fuera del negocio”, dijo Fowler.

Darktrace  publicó recientemente una investigación  que encontró que el 74 % de los profesionales de seguridad consideran que las amenazas impulsadas por la IA son un problema importante , y el 89 % estuvo de acuerdo en que las amenazas impulsadas por la IA seguirán siendo un desafío importante en el futuro previsible.

“A medida que los sistemas de IA se integran en las herramientas y procesos de los que dependen las organizaciones todos los días, la ciberseguridad juega un papel crucial y es fundamental para la seguridad de la IA”, dijo Fowler.

En este momento clave de adopción de la IA, los líderes de seguridad deben participar en el proceso desde el principio para garantizar que la IA se implemente de manera que la mantenga confiable y segura.

Fowler dijo que el informe de la NSA refuerza la necesidad de proteger los modelos e invertir en salvaguardas para mantener los sistemas de IA protegidos en todas las etapas del ciclo de vida de la IA, para evitar comportamientos no deseados o un posible secuestro de los algoritmos. Eso incluye proteger el entorno en el que se implementan los modelos de IA, garantizar que los modelos sean monitoreados y protegidos continuamente e implementar procesos y procedimientos para garantizar que se utilicen de manera segura y adecuada.

“En pocas palabras, una IA confiable y confiable no puede existir sin una ciberseguridad sólida”, agregó Fowler.

Implementación de MFA, evaluación continua de riesgos

Las estrategias defensivas deben integrar sistemas avanzados de detección de phishing de amenazas, dijo Stephen Kowski, CTO de campo de SlashNext , así como sistemas que monitoreen actividades sospechosas. Esto se suma al refuerzo de un estricto control de acceso utilizando métodos como la autenticación multifactor (MFA) resistente al phishing.

“La evaluación y mitigación continua de riesgos son cruciales para identificar y abordar amenazas nuevas y en evolución a los sistemas de IA con recomendaciones para adoptar una arquitectura Zero Trust y utilizar un registro y monitoreo sólidos”, agregó Kowski.

Kowski advirtió que los modelos de IA generativa como ChatGPT pueden introducir vulnerabilidades como ataques de inversión de modelos y envenenamiento de datos, permitiendo la explotación de los procesos de aprendizaje y la manipulación de resultados del modelo. “Los adversarios pueden explotar estas vulnerabilidades para inyectar datos sesgados, extraer información confidencial o manipular resultados, lo que requiere un cifrado sólido y un monitoreo continuo como parte de la estrategia de defensa”, dijo.

Fuente: securityboulevard