¿Cómo se puede utilizar la IA generativa en ciberseguridad? Diez ejemplos reales

La inteligencia artificial en ciberseguridad es cada vez más importante para proteger los sistemas en línea de ataques de cibercriminales e intentos de acceso no autorizado. Si se utilizan correctamente, los sistemas de IA pueden entrenarse para permitir la detección automática de amenazas cibernéticas, generar alertas, identificar nuevos tipos de malware y proteger los datos confidenciales de las empresas.

A pesar de la disponibilidad pública relativamente reciente de la IA generativa, ésta ya está cambiando fundamentalmente los trabajos y flujos de trabajo de los profesionales de la ciberseguridad.

En este artículo, exploraremos las formas en que la IA generativa está afectando a la industria de la ciberseguridad, para bien y para mal. También nos centraremos en casos de uso reales de la IA generativa en la ciberseguridad actual.

Una visión general de la IA generativa en la ciberseguridad

La IA generativa se ha convertido en un arma de doble filo en el ámbito de la ciberseguridad. Por un lado, los actores maliciosos aprovechan cada vez más su poder para crear amenazas sofisticadas a gran escala. Explotan modelos de IA como ChatGPT para generar malware, identificar vulnerabilidades en el código y eludir los controles de acceso de los usuarios.

Además, los ingenieros sociales están empleando la IA generativa para crear estafas de phishing y deepfakes más convincentes, lo que amplifica el panorama de amenazas. Un gran número de profesionales de seguridad que presenciaron un aumento de los ciberataques en los últimos 12 meses atribuyen el aumento a los actores maliciosos que utilizan la IA generativa.

Sin embargo, la IA generativa también presenta importantes oportunidades para fortalecer las defensas de ciberseguridad. Puede ayudar a identificar posibles vectores de ataque, responder automáticamente a incidentes de seguridad y reforzar las capacidades de inteligencia sobre amenazas.

Para comprender plenamente el impacto de la IA generativa en la ciberseguridad, los CISO y otros líderes de seguridad y TI deben comprender los riesgos y los beneficios que ofrece. Los analizaremos en detalle a continuación.

Cómo la IA generativa amenaza la ciberseguridad

Los atacantes maliciosos están aprovechando el potencial de la IA generativa para lanzar ciberataques que son más difíciles de detectar y de combatir. Veamos a continuación algunos de los riesgos de la IA generativa.

Ataques cada vez más sofisticados

Los piratas informáticos están utilizando la inteligencia artificial genérica en particular para lanzar ataques cada vez más sofisticados, como malware autoevolutivo. Estas cepas de malware utilizan la inteligencia artificial genérica para “autoevolucionar” y crear variaciones con técnicas únicas, cargas útiles y código polimórfico para atacar un objetivo específico y pasar desapercibidos por las medidas de seguridad existentes.

Mayores volúmenes de ataques

Los piratas informáticos también están utilizando la IA generativa para lanzar mayores volúmenes de ataques. El 75 % de los profesionales de seguridad ha sido testigo de un aumento de los ataques en los últimos 12 meses, y el 85 % atribuyó este aumento a los actores maliciosos que utilizan la IA generativa.

Esto significa que los cibercriminales están utilizando la inteligencia artificial de última generación para crear ciberataques más sofisticados a gran escala. Por ejemplo, las capacidades de la inteligencia artificial de última generación facilitan una reducción de más del 99,5 % en el tiempo necesario para elaborar un correo electrónico de phishing eficaz.

Falta de gestión de riesgos

Si bien la adopción de la IA generacional está aumentando, los esfuerzos para gestionar los riesgos que introduce están rezagados. Un estudio reciente concluyó que las organizaciones están protegiendo solo el 24 % de sus proyectos actuales de IA generativa, a pesar de que el 82 % de los encuestados afirma que una IA segura y confiable es esencial para el éxito de su negocio. De hecho, el 69 % de los ejecutivos encuestados afirma que la innovación tiene prioridad sobre la seguridad.

Las organizaciones que aumenten su adopción de IA global sin actualizar y reforzar simultáneamente su estrategia de gestión de riesgos aumentarán su exposición al riesgo.

Código inseguro

Muchos desarrolladores están recurriendo a la IA generativa para mejorar su productividad. Sin embargo, un estudio de Stanford descubrió que los ingenieros de software que utilizan sistemas de IA generadores de código tienen más probabilidades de provocar vulnerabilidades de seguridad en las aplicaciones que desarrollan.

A medida que más desarrolladores que carecen de la experiencia o el tiempo para detectar y remediar las vulnerabilidades del código utilicen la IA generativa, se introducirán más vulnerabilidades de código que los piratas informáticos podrán explotar.

Cómo la IA generativa está mejorando la ciberseguridad

La inteligencia artificial generativa también está ayudando a que los equipos de seguridad sean más precisos, eficientes y productivos a la hora de defender sus organizaciones. Veamos a continuación cómo la inteligencia artificial generativa está transformando las operaciones de seguridad.

Complementar los equipos de seguridad con escasez de personal

La IA se está utilizando para complementar a los equipos de seguridad y mejorar los resultados en materia de seguridad. La mayoría de los ejecutivos de TI ya están utilizando o considerando implementar IA y ML para mejorar sus capacidades de seguridad. Estos adoptantes de la IA ya están informando mejoras de rendimiento en la clasificación de amenazas de nivel 1, la detección de ataques y amenazas de día cero y la reducción de falsos positivos y ruido.

Como resultado de estos primeros indicadores de éxito, más de la mitad de los ejecutivos dicen que la IA generativa les ayudará a asignar mejor recursos, capacidad, talento o habilidades.

Detección de amenazas en tiempo real

La detección de amenazas es uno de los principales usos de la IA generativa en la actualidad. Al utilizarla para identificar patrones y anomalías con mayor rapidez, filtrar alertas de incidentes de manera más eficiente y rechazar falsos positivos, las organizaciones pueden acelerar significativamente su capacidad para detectar nuevos vectores de amenazas.

Mejorar la inteligencia sobre amenazas

La IA generativa también se está utilizando para mejorar la inteligencia sobre amenazas. Antes, los analistas tenían que utilizar lenguajes de consulta complejos, operaciones e ingeniería inversa para analizar grandes cantidades de datos y comprender las amenazas. Ahora, pueden utilizar algoritmos de IA generativa que escanean automáticamente el código y el tráfico de red en busca de amenazas y brindan información valiosa que ayuda a los analistas a comprender el comportamiento de los scripts maliciosos y otras amenazas.

Automatizar la aplicación de parches de seguridad

La IA generativa puede automatizar el análisis y la aplicación de parches. Mediante el uso de redes neuronales, puede escanear bases de código en busca de vulnerabilidades y aplicar o sugerir parches adecuados mediante el uso de patrones de procesamiento del lenguaje natural (PLN) o un algoritmo de aprendizaje automático conocido como algoritmo de los K vecinos más cercanos (KNN).

Mejorar la respuesta a incidentes

Otra aplicación exitosa de la IA generativa en la ciberseguridad es la respuesta a incidentes. La IA generativa puede proporcionar a los analistas de seguridad estrategias de respuesta basadas en tácticas exitosas utilizadas en incidentes pasados, lo que puede ayudar a acelerar los flujos de trabajo de respuesta a incidentes. La IA generativa también puede seguir aprendiendo de los incidentes para adaptar estas estrategias de respuesta con el tiempo. Las organizaciones también pueden usar la IA generativa para automatizar la creación de informes de respuesta a incidentes.

Si bien es necesario realizar más investigaciones e innovaciones, algún día la IA generativa podría ser capaz de modelar un incidente o generar un informe de incidentes casi en tiempo real para ayudar a acelerar drásticamente las tasas de respuesta a incidentes.

Ejemplos de IA generativa en ciberseguridad

Ahora que entendemos algunas de las aplicaciones generales de la IA generativa en ciberseguridad, echemos un vistazo a algunas herramientas de ciberseguridad específicas que utilizan IA generativa.

1. Secureframe Comply AI para la remediación

Secureframe lanzó Comply AI for Remediation para brindar una experiencia de usuario más contextual, precisa y personalizada para remediar pruebas fallidas para que las organizaciones puedan solucionar rápidamente problemas de ciberseguridad y acelerar el tiempo de cumplimiento.

Comply AI for Remediation ofrece una guía de remediación adaptada al entorno de los usuarios, de modo que puedan actualizar fácilmente el problema subyacente que provoca la configuración fallida en su entorno. Esto les permite corregir los controles fallidos para aprobar las pruebas, prepararse para las auditorías más rápido y mejorar su postura general de seguridad y cumplimiento .

Los usuarios también pueden hacer preguntas de seguimiento utilizando el chatbot para obtener detalles adicionales sobre el código de remediación o para brindar orientación más personalizada para sus requisitos específicos de seguridad y cumplimiento.

2. Inteligencia de amenazas de Google

Google anunció recientemente Google Threat Intelligence, que combina el poder de la experiencia de primera línea de Mandiant, la inteligencia de amenazas de VirusTotal obtenida de más de 1 millón de usuarios y el modelo de inteligencia artificial Gemini en una sola oferta.

Gemini es un agente impulsado por IA que ofrece búsquedas conversacionales en el vasto repositorio de inteligencia sobre amenazas de Google, lo que permite a los usuarios obtener información sobre las amenazas y protegerse más rápido. Tradicionalmente, la puesta en funcionamiento de la inteligencia sobre amenazas ha sido una tarea laboriosa y lenta. Google Threat Intelligence utiliza Gemini para analizar códigos potencialmente maliciosos y proporciona un resumen de sus hallazgos para ayudar de manera más eficiente y eficaz a los profesionales de seguridad a combatir el malware y otros tipos de amenazas.

3. Vendict

A nadie le gusta responder cuestionarios de seguridad porque son repetitivos y aburridos. Peor aún, automatizar este proceso puede producir respuestas genéricas que pasen por alto matices importantes específicos de la situación de seguridad de tu empresa.

Vendict soluciona estos desafíos mediante el uso de IA generativa para automatizar la recopilación de información exclusiva sobre tu situación de seguridad. Extrae información de la base de conocimientos de una empresa para completar cuestionarios de seguridad hasta 50 veces más rápido. Esto proporciona respuestas precisas y sin sesgos y evita que los equipos dediquen incontables horas a tareas repetitivas.

Lo que más me gusta de Vendict es que sincroniza los equipos de seguridad y GRC (Gobernanza, Riesgo y Cumplimiento), lo que les permite contribuir o corregir respuestas inexactas sin pasar por varios canales de comunicación que pueden causar distracciones al equipo.

Para las empresas con múltiples productos/servicios, Vendict le ayuda a desarrollar una biblioteca de cumplimiento exclusiva para cada producto.

4. NVIDIA Morpheus

Está practicando la lucha contra la IA generativa con sus modelos NLP de NeMo, que utilizan IA generativa para abordar el phishing selectivo.

Morpheus utiliza los modelos de procesamiento del lenguaje natural (PLN) de NVIDIA NeMo para analizar y clasificar correos electrónicos rápidamente. Sorprendentemente, está entrenado con correos electrónicos sintéticos, pero NIVIDA Morpheus detecta con más del 20 % de precisión los correos electrónicos generados por IA en las 24 horas posteriores a la integración.

Me encanta cómo agrega una capa adicional de protección al crear perfiles de las interacciones de los usuarios para detectar acciones inusuales o sospechosas que puedan indicar una amenaza a la seguridad. En mi opinión, es una solución práctica para identificar y prevenir rápidamente amenazas cibernéticas sofisticadas.

5. ExposureAI

Tenable lanzó ExposureAI para brindar información nueva y valiosa a los analistas y hacer que la gestión de la exposición sea más accesible. Estas nuevas capacidades de IA generativa ayudan a los analistas a buscar, analizar y tomar decisiones sobre las exposiciones más rápidamente mediante lo siguiente:

  • Permitir a los analistas utilizar consultas de búsqueda en lenguaje natural para buscar exposiciones y datos de activos específicos.
  • Resumir la ruta de ataque completa en una narrativa escrita para que los analistas puedan comprender mejor las exposiciones permitiendo a los analistas realizarle al asistente de IA de Tenable preguntas específicas sobre la ruta de ataque resumida, así como sobre cada nodo a lo largo de la ruta de ataque
  • Sacar a la luz información sobre exposición a alto riesgo y recomendar acciones para que los analistas puedan priorizar y remediar más fácilmente las exposiciones de alto riesgo

6. Pruebas de simulación de phishing de Ironscales

Ironscales lanzó la prueba de simulación de phishing (PST) con tecnología GPT como una función beta. Esta herramienta utiliza el modelo de lenguaje extenso patentado de Ironscales para generar campañas de prueba de simulación de phishing personalizadas para los empleados y los ataques de phishing avanzados que pueden encontrar.

El objetivo es ayudar a las organizaciones a personalizar rápidamente su capacitación en concientización sobre seguridad para combatir el aumento y la sofisticación de los ataques de ingeniería social.

7. ZeroFoxFoxGPT

ZeroFox ha desarrollado FoxGPT, una herramienta de inteligencia artificial generativa diseñada para acelerar el análisis y el resumen de información en grandes conjuntos de datos. Puede ayudar a los equipos de seguridad a analizar y contextualizar contenido malicioso, ataques de phishing y posibles robos de cuentas.

8. SentinelOne Purple AI

SentinelOne presentó una plataforma de búsqueda de amenazas impulsada por inteligencia artificial generativa que combina redes neuronales integradas en tiempo real y una interfaz de lenguaje natural basada en un modelo de lenguaje grande (LLM) para ayudar a los analistas a identificar, analizar y mitigar amenazas más rápidamente.

Mediante el uso del lenguaje natural, los analistas pueden formular preguntas complejas sobre amenazas y adversarios, y ejecutar comandos operativos para gestionar su entorno empresarial y obtener respuestas rápidas, precisas y detalladas en segundos. Purple AI también puede analizar amenazas y brindar información sobre el comportamiento identificado junto con los pasos siguientes recomendados.

9. VirusTotal Code Insight

Utiliza Sec-PaLM, uno de los modelos de IA generativa alojados en Google Cloud AI, para generar resúmenes en lenguaje natural de fragmentos de código. Esto puede ayudar a los equipos de seguridad a analizar y comprender el comportamiento de scripts potencialmente maliciosos. VirusTotal Code Insight está diseñado para servir como un poderoso asistente para los analistas de ciberseguridad, trabajando las 24 horas del día, los 7 días de la semana para mejorar su rendimiento y eficacia generales.

10. Conjunto IBM QRadar

La suite QRadar combina inteligencia artificial avanzada y automatización para acelerar la detección de amenazas y el tiempo de respuesta. IBM ha anunciado que lanzará capacidades de seguridad de inteligencia artificial generativa a principios de 2024 para automatizar aún más las tareas manuales y optimizar el tiempo y el talento de los equipos de seguridad. Estas tareas incluyen:

  • Creación de resúmenes simples de casos e incidentes de seguridad que se pueden compartir con una variedad de partes interesadas con un solo clic.
  • Generación automática de búsquedas para detectar amenazas basadas en descripciones en lenguaje natural del comportamiento y los patrones de ataque.
  • Ayudar a los analistas a comprender rápidamente los datos del registro de seguridad al proporcionar explicaciones simples de los eventos que han tenido lugar en un sistema.
  • Interpretación y resumen de información sobre amenazas de gran relevancia.

Lo que tu empresa puede hacer en respuesta a la IA generativa en ciberseguridad

A continuación se presentan algunos pasos que su organización puede tomar ahora mismo para comenzar a defenderse contra los riesgos de la IA generativa.

Actualizar la capacitación de los empleados

Tómate el tiempo para evaluar y actualizar la capacitación de los empleados en torno a la IA generativa. Esta capacitación debe reflejar la sofisticación de los ataques cibernéticos que aprovechan la IA generativa, incluidos los correos electrónicos de phishing cada vez más convincentes y las llamadas y videos falsos.

Considera también incluir medidas de protección para el uso de herramientas de IA generativa en la capacitación de los empleados.

Definir el uso aceptable de la IA generativa en las políticas

Si bien un informe reciente reveló que el 32 % de las organizaciones han prohibido el uso de herramientas de IA generativa, organizaciones líderes como la AICPA recomiendan que las organizaciones actualicen sus políticas de seguridad para promover el uso seguro de las herramientas de IA, ya que es inevitable. Las consideraciones clave incluyen:

  • Proporcionar ejemplos de uso aceptable.
  • Limitar el uso a una o dos herramientas confiables sobre las que el empleado haya recibido capacitación adecuada.
  • Prohibir el uso de cualquier herramienta de chatbot de IA que no haya sido previamente examinada por el departamento de TI y aprobada por el supervisor del empleado.

Reducir la IA de sombra

De manera similar a cómo la TI en la sombra aumentó a medida que los productos SaaS se volvieron más populares y accesibles, la IA en la sombra está creciendo a medida que los empleados adoptan cada vez más IA para mejorar su productividad.

La IA en la sombra presenta grandes desafíos en términos de seguridad y gobernanza por dos razones principales. En primer lugar, los empleados pueden exponer información confidencial, privilegiada o de propiedad exclusiva al usar productos de IA. En segundo lugar, el equipo de seguridad de una organización no puede evaluar y mitigar los riesgos de las herramientas de IA que desconoce.

Para abordar estos desafíos, las organizaciones pueden adoptar un enfoque multifacético para reducir la TI en la sombra. Esto puede incluir educar a los empleados sobre los riesgos de la TI en la sombra, identificar servicios de inteligencia artificial no autorizados y otras barreras de protección en las políticas, e implementar estrategias de seguridad ofensivas y defensivas como cercas de seguridad para detectar y controlar qué tipo y cuántos datos fluyen dentro de su organización.

Utiliza la IA generativa para reforzar tus defensas

Dado que la IA generativa es un arma de doble filo, asegúrate de utilizarla a tu favor. Por ejemplo, puedes implementar soluciones de IA generativa para detectar amenazas con la misma velocidad, escala y sofisticación con la que los actores maliciosos las lanzan. También puedes utilizarla para automatizar tareas rutinarias que no requieren tanta experiencia o criterio humano, como la búsqueda de amenazas.

Cuando se utilizan estratégicamente de estas maneras, la IA generativa y la automatización pueden ayudar a tu organización a identificar y responder a los riesgos e incidentes de seguridad con mayor rapidez y a gran escala.

Cumplir con las regulaciones y los marcos para el uso responsable de la IA

La UE , China y algunas partes de los EE. UU. ya han aprobado la regulación de la IA , y se espera que aumente. También hay un número cada vez mayor de marcos voluntarios que abordan las complejidades y las preocupaciones éticas de la IA y están diseñados para ayudar a las organizaciones a mitigar los riesgos y mejorar la gobernanza, como el Marco de gestión de riesgos de IA del NIST (AI RMF) y la norma ISO 42001.

Cumplir con estas regulaciones y marcos puede proporcionar a las organizaciones un enfoque estructurado para gestionar los sistemas de IA de manera responsable y eficaz, mejorando así la confianza y la confiabilidad entre los desarrolladores y usuarios de IA.

Preguntas frecuentes

¿Cómo se utiliza la IA generativa en ciberseguridad?

La IA generativa se está utilizando para fortalecer la postura de seguridad de las organizaciones al aumentar las capacidades de los equipos de seguridad para detectar, analizar y responder a las amenazas de manera más rápida y eficiente y al automatizar tareas rutinarias como los informes de respuesta a incidentes. Los cibercriminales también están utilizando la IA generativa para aprovechar ataques cibernéticos cada vez más sofisticados, como las videollamadas deepfake.

¿Qué es la IA generativa y un ejemplo?

La IA generativa es un tipo de IA que utiliza modelos o algoritmos de aprendizaje profundo para crear automáticamente texto, fotos, videos, código y otros resultados en función de los conjuntos de datos con los que se entrenan. El ejemplo más conocido es ChatGPT, un modelo de lenguaje impulsado por IA desarrollado por OpenAI.

¿Es posible automatizar la ciberseguridad mediante IA generativa?

La IA generativa puede automatizar partes de la ciberseguridad, como la detección, el análisis y la respuesta ante amenazas; sin embargo, no puede reemplazar por completo a los expertos humanos. Por ejemplo, si bien las herramientas de IA generativa pueden identificar patrones de ataque conocidos y predecir otros nuevos, los analistas humanos pueden confirmar amenazas reales a partir de falsos positivos en función de su comprensión contextual más profunda de los sistemas, redes y entorno operativo únicos de su organización.