¿Avance rápido o caída libre? Cómo afrontar el auge de la IA en la ciberseguridad

Han pasado solo un año y nueve meses desde que OpenAI puso ChatGPT a disposición del público, y ya ha tenido un impacto enorme en nuestras vidas. Si bien  la IA sin duda cambiará nuestro mundo , la naturaleza exacta de esta revolución aún está en desarrollo. Con poca o ninguna experiencia, los administradores de seguridad pueden usar ChatGPT para crear rápidamente scripts de PowerShell. Herramientas como Grammarly o Jarvis pueden convertir a escritores promedio en editores seguros. Algunas personas incluso han comenzado a usar la IA como una alternativa a los motores de búsqueda tradicionales como Google y Bing. ¡Las aplicaciones de la IA son infinitas!

IA generativa en ciberseguridad: ¿la nueva fiebre del oro? 

Impulsada por  la versatilidad y el potencial transformador de la IA , una nueva fiebre del oro está arrasando con empresas de todos los sectores. Desde la atención sanitaria y las finanzas hasta  la fabricación y el comercio minorista, las empresas se están esforzando por hacerse un hueco en esta frontera tecnológica. La adopción de la IA generativa en la ciberseguridad se está acelerando, y muchas empresas están añadiendo o ya han añadido estas capacidades a sus plataformas. Pero plantea una pregunta importante: ¿estamos haciendo demasiado y demasiado pronto?

Hace poco asistí a un grupo de expertos cuyo tema principal era la IA generativa en seguridad. El evento comenzó con un proveedor y su socio MSP que mostraban cómo las capacidades de IA generativa del proveedor estaban ayudando al MSP a optimizar la mitigación de amenazas para sus clientes. Se jactaron de un ahorro de tiempo significativo, lo que resultó en que el MSP optimizara su equipo de analistas. En particular, ajustaron su estrategia de contratación, pasando de reclutar profesionales experimentados a ampliar las oportunidades para analistas junior, al tiempo que aprovechaban la IA para ayudar con la capacitación y orientación de los nuevos analistas, lo que potencialmente aceleraba su camino hacia la competencia en ciberseguridad. También se jactaron de cómo redujeron su personal de analistas de 11 a 4. La reducción de los gastos operativos generales condujo a una reducción de costos tanto para el MSP como para sus clientes. Hay muchos pros y contras de esa afirmación. El impacto de la IA en los empleos existentes es un tema que es mejor dejar para otro momento, ya que se desconoce el alcance total de su potencial positivo de creación de empleo.

¿Hasta qué punto podemos confiar en la IA?

Los debates sobre la confianza y la IA generativa suelen centrarse en quién es el propietario de los datos que proporcionan los usuarios, cómo estos datos ayudan a entrenar los modelos de IA y la capacidad de la IA para compartir y recomendar datos de propiedad exclusiva con otros usuarios. Un aspecto crítico que a menudo se pasa por alto es la importante amenaza que suponen los datos inexactos.

Hace poco le sugerí a mi hijo que usara ChatGPT para desglosar el orden de las operaciones para su tarea de matemáticas. Después de un par de horas, dijo que todavía no podía resolver el problema. Me senté con él para revisar el consejo que le había dado la IA y, si bien la respuesta estaba bien articulada y hermosamente formulada, estaba lejos de ser precisa. El pobre chico estaba dando vueltas en círculos usando un método defectuoso para resolver un problema de matemáticas. Esa situación me vino inmediatamente a la mente cuando el ejecutivo de la MSP explicó su dependencia de la IA generativa para guiar a los analistas de seguridad junior.

Surgen dos preguntas críticas en relación con la IA generativa: ¿quién es responsable de garantizar la precisión de sus datos y quién asume la responsabilidad por las consecuencias derivadas de resultados inexactos?

Según Gemini de Google, la precisión de los datos en IA es una responsabilidad compartida, en la que participan diferentes actores.

  1. Proveedores de datos : estas entidades recopilan y suministran los datos que se utilizan para entrenar los modelos de IA. Su responsabilidad es garantizar que los datos que proporcionan sean precisos, completos e imparciales.
  2. Desarrolladores de IA : los desarrolladores que diseñan y entrenan los modelos de IA tienen un papel en la evaluación de la calidad de los datos que utilizan. Deben limpiar y preprocesar los datos para minimizar los errores e identificar posibles sesgos.
  3. Usuarios de IA : quienes implementan y utilizan los modelos de IA también comparten cierta responsabilidad. Es fundamental comprender las limitaciones del modelo y los datos con los que se entrenó (necesitamos transparencia en esta área).

La respuesta sobre la responsabilidad no fue tan clara. No siempre hay una única parte responsable. Dependiendo de la jurisdicción y del caso de uso específico, puede haber requisitos legales y reglamentarios que dicten la responsabilidad, pero el panorama legal de la responsabilidad por IA aún está en desarrollo y probablemente evolucionará a medida que surjan más incidentes y jurisprudencia.

Mirar el pasado para ver el futuro:

Examinar el pasado a menudo puede brindar información sobre el futuro. El potencial de la IA puede tener algunas similitudes con la historia de los motores de búsqueda. La metodología de clasificación de páginas de Google es un gran ejemplo. El algoritmo mejoró significativamente la relevancia de los resultados de búsqueda. La personalización y las funciones de ubicación aumentaron los beneficios para el usuario. Sin embargo, la incorporación de la personalización generó consecuencias no deseadas, como la  burbuja de filtros , donde los usuarios solo encuentran información que refuerza sus creencias.  La manipulación de SEO y  las preocupaciones por la privacidad también han afectado los beneficios y la relevancia de los motores de búsqueda.

De manera similar a cómo los motores de búsqueda pueden luchar contra los sesgos, los modelos de IA generativa entrenados en conjuntos de datos masivos también pueden reflejar estos sesgos en sus resultados. Ambas plataformas serán un campo de batalla para la desinformación, lo que dificultará a los usuarios discernir la verdad de la falsedad. En cualquier caso, los usuarios siempre deben validar la precisión de los resultados. Desde un punto de vista personal y comercial, cualquier persona que utilice IA generativa debe crear un proceso para validar la información que recibe. Una cosa que me gusta hacer es pedirle a la IA que proporcione enlaces de referencia a las fuentes de donde extrajo la información proporcionada en su respuesta. Dependiendo del tema, incluso podría consultar otras fuentes. 

Otro aspecto que afectó la relevancia de la búsqueda son los anuncios. Si bien no creo que la IA generativa vinculada a las plataformas de ciberseguridad incluya anuncios, puedo prever un mundo en el que la plataforma de IA generativa realice ventas adicionales y cruzadas de otros productos. ¿Quiere mejorar la visibilidad? Pruebe nuestro nuevo widget o el de nuestro socio. Otro factor a considerar es si la IA podrá identificar su tecnología como el problema y, de ser así, ¿se lo dirá?

Nota final

Si utiliza la IA para crear un plan de alimentación basado en macronutrientes o para orientar su postura en materia de ciberseguridad, es fundamental que tenga en cuenta sus defectos y limitaciones. Utilice siempre el pensamiento crítico al evaluar los resultados de la IA y nunca base sus decisiones o aportaciones únicamente en la información que proporciona.

Vivir en esta era de la IA es como un emocionante viaje en montaña rusa: estimulante, lleno de potencial, pero también un poco estresante. Si bien el futuro es muy prometedor, es fundamental garantizar que estemos bien atados. La transparencia de los proveedores y un marco regulatorio sólido por parte de los legisladores son salvaguardas esenciales. Estas medidas nos ayudarán a sortear los vericuetos, minimizando los riesgos y maximizando los beneficios de la IA. Sin embargo, persiste una preocupación: ¿estamos yendo demasiado rápido? El diálogo abierto y la colaboración entre desarrolladores, usuarios y responsables de las políticas son vitales. Al trabajar juntos, podemos establecer prácticas responsables y garantizar que la IA se convierta en una fuerza de cambio positivo, no solo en un viaje desenfrenado.

Fuente: tripwire