La inteligencia artificial (IA) ha transformado el panorama de la ciberseguridad, proporcionando opciones avanzadas para identificar y mitigar amenazas, responder a incidentes y optimizar sistemas de defensa, sin embargo, la evolución hacia la inteligencia artificial generativa ha añadido una dimensión nueva y compleja. Mientras que la IA tradicional se ha enfocado en análisis de patrones y reconocimiento de anomalías, la IA generativa habilita capacidades avanzadas de creación de contenido y simulación, las cuales plantean, tanto oportunidades, como desafíos para el ámbito de la ciberseguridad.

A diferencia de la IA tradicional, que se limita a detectar patrones y automatizar tareas repetitivas, la IA generativa permite crear contenido adaptativo, simular escenarios complejos y responder de forma personalizada y en tiempo real, mejorando así la capacidad de las organizaciones para anticiparse y reaccionar frente a amenazas dinámicas.

El desarrollo o evolución de modelos LLM (Large Language Models) que se centran en comprender y analizar texto, complementados con la técnica de inteligencia artificial RAG (Retrieval Augmented Generation) que mejora la calidad de los modelos de lenguaje de gran tamaño, y también con el ajuste fino (Fine-Tuning), que permite tomar un modelo entrenado para adaptar respuestas a necesidades concretas, aprovechando todo su conocimiento para resolver una nueva tarea específica, junto con los agentes autónomos (Agents) y los Prompt Engineering facilitan la autonomía y precisión en las respuestas, marcando una diferencia clave en la defensa avanzada.

Los modelos LLM, combinados con técnicas como RAG y Fine-Tuning, permiten adaptar las soluciones de seguridad a contextos específicos, mientras que los Agents y Prompt Engineering facilitan la autonomía y precisión en las respuestas, marcando una diferencia clave en la defensa avanzada. Como dicho anteriormente, la IA generativa tiene el potencial de mejorar significativamente las capacidades defensivas al crear nuevos métodos de prueba y simulación, aunque también puede complicar los esfuerzos de seguridad si es empleada para desarrollar ataques avanzados difíciles de detectar. Por esta razón, se espera una regulación de la inteligencia artificial adentro del marco del desarrollo de políticas y leyes del sector público, de forma más estricta por parte de las entidades y la implementación de prácticas de IA responsable para prevenir el uso indebido de esta tecnología.

Actualmente, la proliferación de herramientas de IA generativa maliciosa como WormGPT, FraudGPT, DarkBART, WolfGPT y DarkLLAMA eleva el nivel de amenaza en ciberseguridad, al permitir que ciberdelincuentes creen contenido malicioso y ejecuten ataques de manera automatizada y sin restricciones éticas. Algunas de estas tecnologías que utilizan IA, disponibles en la dark web mediante suscripciones, facilitan la generación de correos de phishing, malware y otras tácticas maliciosas, democratizando el acceso a capacidades avanzadas de ciberataque y reduciendo las barreras de entrada para atacantes menos experimentados. El impacto es evidente, los ataques son cada vez más frecuentes y sofisticados, lo que plantea un reto urgente para la ciberseguridad global.

En este contexto surge el concepto de Adversarial Machine Learning (AML), un campo que estudia cómo los modelos de machine learning pueden ser engañados o atacados mediante manipulaciones sutiles en los datos de entrada. En ciberseguridad, AML se convierte en una herramienta tanto defensiva como ofensiva: permitiendo identificar vulnerabilidades en los modelos de IA, pero también es aprovechado por atacantes para evadir sistemas de detección de amenazas. Las herramientas de IA generativa maliciosa pueden combinarse con técnicas de AML para hacer que los ataques sean aún más efectivos, lo cual convierte a AML en una amenaza crítica en ciberseguridad, especialmente cuando los ciberdelincuentes integran IA generativa para diseñar ataques cada vez más sofisticados.

La combinación de AML y de IA generativa maliciosa plantea un desafío urgente para la ciberseguridad, que requiere un enfoque de defensa multifacético. Para contrarrestar esta tendencia, es esencial implementar entrenamientos robustos de modelos y monitoreo continuo a las organizaciones de Ciberseguridad, a las industrias de IA aplicada a la ciberseguridad, colaboradores del ámbito de la ciberseguridad e IA, además de fomentar una colaboración activa en el mercado. Esta combinación de esfuerzos permitirá anticiparse a los ataques cada vez más avanzados, mejorar la precisión en la detección de patrones anómalos y protegernos de los responsables de la creación y distribución de estas herramientas maliciosas, garantizando así una mayor protección y seguridad en los sistemas digitales.

Los desafíos son claros, la necesidad de protección ante ataques cada vez más sofisticados y de reducir la brecha entre las capacidades de los atacantes y las defensas de seguridad junto con la adopción de prácticas de IA responsable y el fomento de una concienciación profunda en todos los niveles de la industria ayudarán a proteger mejor los sistemas digitales, creando un entorno más seguro y resiliente ante las amenazas de última generación.

Por Héctor Marcelo Kaschel Assef, Cybersecurity Horizontal Head, Logicalis Andina.