Innovación perversa: cómo los delincuentes usan la inteligencia artificial en ataques cibernéticos

Tres expertos en ciberseguridad explicaron cómo la inteligencia artificial y el aprendizaje automático pueden ser utilizados para evadir las defensas de seguridad y hacer que los ataques sean más rápidos y eficientes durante una cumbre de ciberseguridad organizada por la NCSA y Nasdaq.

Kelvin Coleman, Director Ejecutivo de la Alianza Nacional de Seguridad Cibernética, fue el anfitrión de la conversación como parte del evento "Seguridad Utilizable: Efecto y Medición del Cambio en el Comportamiento Humano" el martes 6 de octubre.

Elham Tabassi, Jefa de Personal del Laboratorio de Tecnología de la Información del Instituto Nacional de Estándares y Tecnología, fue una de las panelistas en la sesión "Inteligencia Artificial y Aprendizaje Automático para la Ciberseguridad: Lo Bueno, lo Malo y lo Feo".

"Los atacantes pueden utilizar la inteligencia artificial para evadir detecciones, ocultarse donde no pueden ser encontrados y adaptarse automáticamente a las contramedidas", dijo Tabassi.

Tim Bandos, Director de Seguridad de la Información de Digital Guardian, afirmó que la ciberseguridad siempre necesitará mentes humanas para construir defensas sólidas y detener los ataques.

"La inteligencia artificial es el compañero y los analistas de seguridad y los cazadores de amenazas son los superhéroes", dijo.

Índice de Contenido
  1. Envenenamiento de datos
  2. Redes Generativas Antagónicas
  3. Manipulación de bots

Envenenamiento de datos

Tabassi mencionó que los actores malintencionados a veces atacan los datos utilizados para entrenar los modelos de aprendizaje automático. El envenenamiento de datos está diseñado para manipular un conjunto de datos de entrenamiento para controlar el comportamiento predictivo de un modelo entrenado y engañarlo para que actúe incorrectamente, como etiquetar correos electrónicos de spam como contenido seguro.

Existen dos tipos de envenenamiento de datos: los ataques que apuntan a la disponibilidad de un algoritmo de aprendizaje automático y los ataques que apuntan a su integridad. Las investigaciones sugieren que un envenenamiento del 3% de un conjunto de datos de entrenamiento provoca una disminución del 11% en la precisión.

Con los ataques de puerta trasera, un intruso puede agregar una entrada a un algoritmo que el diseñador del modelo desconoce. El atacante utiliza esa puerta trasera para que el sistema de aprendizaje automático clasifique incorrectamente una cadena determinada como inofensiva cuando podría contener datos maliciosos.

Tabassi mencionó que las técnicas de envenenamiento de datos pueden transferirse de un modelo a otro.

"Los datos son la sangre y el combustible para el aprendizaje automático y debemos prestar tanta atención a los datos que utilizamos para entrenar los modelos como a los modelos", dijo. "La confianza del usuario se ve influenciada por el modelo y la calidad de la capacitación y los datos que se utilizan en él".

Tabassi dijo que la industria necesita estándares y pautas para garantizar la calidad de los datos y que NIST está trabajando en pautas nacionales para una IA confiable, que incluyen tanto pautas generales como requisitos técnicos para abordar la precisión, la seguridad, el sesgo, la privacidad y la explicabilidad.

Redes Generativas Antagónicas

Las Redes Generativas Antagónicas (GAN) son básicamente dos sistemas de IA enfrentados: uno que simula contenido original y otro que detecta sus errores. Al competir entre sí, crean conjuntamente contenido lo suficientemente convincente como para pasar por el original.

Investigadores de Nvidia entrenaron un modelo de IA único para recrear PAC-MAN simplemente observando horas de juego, sin un motor de juego, como explicó Stephanie Condon en ZDNet.

Bandos dijo que los atacantes están utilizando GAN para imitar patrones normales de tráfico, para desviar la atención de los ataques y para encontrar y extraer datos sensibles rápidamente.

"Pueden entrar y salir en 30-40 minutos gracias a estas capacidades", dijo. "Una vez que los atacantes comienzan a aprovechar la inteligencia artificial y el aprendizaje automático, pueden automatizar estas tareas".

Las GAN también se pueden utilizar para crackear contraseñas, evadir la detección de malware y engañar a la reconocimiento facial, según lo describió Thomas Klimek en el artículo "Redes Generativas Antagónicas: ¿Qué son y por qué deberíamos tener miedo?". Un sistema PassGAN construido por investigadores de aprendizaje automático fue entrenado con una lista de contraseñas estándar de la industria y acabó siendo capaz de adivinar más contraseñas que otras herramientas entrenadas con el mismo conjunto de datos. Además de generar datos, las GAN pueden crear malware que puede evadir sistemas de detección basados en aprendizaje automático.

Bandos dijo que los algoritmos de IA utilizados en ciberseguridad deben ser reentrenados con frecuencia para reconocer nuevos métodos de ataque.

"A medida que los adversarios evolucionan, nosotros también tenemos que evolucionar", dijo.

Utilizó la obfuscation como ejemplo, cuando un software malicioso está en su mayoría construido con código legítimo. Un algoritmo de aprendizaje automático tendría que ser capaz de identificar el código malicioso dentro de él.

Manipulación de bots

Greg Foss, estratega principal de ciberseguridad en VMware Carbon Black, dijo que si los algoritmos de IA están tomando decisiones, pueden ser manipulados para tomar la decisión equivocada.

"Si los atacantes entienden estos modelos, pueden abusar de ellos", dijo.

Foss describió un ataque reciente a un sistema de comercio de criptomonedas administrado por bots.

"Los atacantes analizaron cómo los bots realizaban sus transacciones y utilizaron los bots para engañar al algoritmo", dijo. "Esto se puede aplicar a otras implementaciones".

Foss agregó que esta técnica no es nueva, pero ahora estos algoritmos están tomando decisiones más inteligentes, lo que aumenta el riesgo de tomar una mala decisión.

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Seguridad, allí encontraras muchos artículos similares a Innovación perversa: cómo los delincuentes usan la inteligencia artificial en ataques cibernéticos , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.