El peligro de ChatGPT: amenazas y riesgos para la ciberseguridad

A medida que la tecnología de inteligencia artificial, como ChatGPT, sigue mejorando, también aumenta su potencial para ser mal utilizada por ciberdelincuentes. Según BlackBerry Global Research, el 74% de los tomadores de decisiones de TI encuestados reconocen la amenaza potencial de ChatGPT en la ciberseguridad. El 51% de los encuestados cree que habrá un ataque cibernético exitoso atribuido a ChatGPT en 2023.

El peligro de ChatGPT: amenazas y riesgos para la ciberseguridad - Seguridad | Imagen 1 Newsmatic

A continuación, te presentamos algunos de los problemas y riesgos más significativos relacionados con la ciberseguridad relacionada con ChatGPT.

Saltos rápidos:

  • Credenciales de ChatGPT y solicitudes de jailbreak en la Dark Web
  • Weaponization de ChatGPT
  • ChatGPT puede amplificar la desinformación o las noticias falsas
  • ChatGPT puede escribir código malicioso
  • Conoce a WormGPT, una IA desarrollada para ciberdelincuentes
  • ¿Cómo se pueden mitigar las amenazas cibernéticas creadas por la IA?
Índice de Contenido
  1. Credenciales de ChatGPT y solicitudes de jailbreak en la Dark Web
    1. Credenciales robadas de ChatGPT en la Dark Web
    2. Solicitudes de jailbreak en la Dark Web
  2. Weaponization de ChatGPT
  3. ChatGPT puede amplificar la desinformación o las noticias falsas
  4. ChatGPT puede escribir código malicioso
  5. Conoce a WormGPT, una IA desarrollada para ciberdelincuentes
  6. ¿Cómo se pueden mitigar las amenazas cibernéticas creadas por la IA?

Credenciales de ChatGPT y solicitudes de jailbreak en la Dark Web

Credenciales robadas de ChatGPT en la Dark Web

La compañía de ciberseguridad Group-IB publicó una investigación en junio de 2023 sobre el comercio de credenciales robadas de ChatGPT en la Dark Web. Según la compañía, se robaron más de 100,000 cuentas de ChatGPT entre junio de 2022 y marzo de 2023. Más de 40,000 de estas credenciales fueron robadas de la región de Asia-Pacífico, seguida por Oriente Medio y África (24,925), Europa (16,951), América Latina (12,314) y América del Norte (4,737).

Hay dos razones principales por las que los ciberdelincuentes desean acceder a las cuentas de ChatGPT. La más obvia es obtener cuentas pagas, que no tienen limitaciones en comparación con las versiones gratuitas. Sin embargo, la amenaza principal es el espionaje de cuentas: ChatGPT guarda un historial detallado de todas las conversaciones, lo que podría filtrar datos sensibles a los estafadores.

Protección antivirus en línea: McAfee Clinic lleva la seguridad de tu PC al siguiente nivel

Dmitry Shestakov, jefe de inteligencia de amenazas en Group-IB, escribió: "Muchas empresas están integrando ChatGPT en su flujo operativo. Los empleados ingresan correspondencia clasificada o utilizan el bot para optimizar el código patentado. Dado que la configuración estándar de ChatGPT guarda todas las conversaciones, esto podría inadvertidamente ofrecer un tesoro de inteligencia sensible a los actores amenazantes si obtienen las credenciales de la cuenta".

Solicitudes de jailbreak en la Dark Web

SlashNext, una empresa de seguridad de correo electrónico en la nube, informó sobre el aumento del comercio de solicitudes de jailbreak en los foros clandestinos de los ciberdelincuentes. Estas solicitudes están diseñadas para eludir las protecciones de ChatGPT y permitir que un atacante elabore contenido malicioso con la IA.

Weaponization de ChatGPT

La preocupación principal con respecto a la explotación de ChatGPT es su posible weaponization por parte de los ciberdelincuentes. Al aprovechar las capacidades de este chatbot de IA, los ciberdelincuentes pueden crear fácilmente ataques de phishing sofisticados, spam y otro contenido fraudulento. ChatGPT puede personificar de manera convincente a individuos o entidades/organizaciones de confianza, aumentando la probabilidad de engañar a usuarios desprevenidos para que divulguen información sensible o se conviertan en víctimas de estafas (Figura A).

Figura A

El peligro de ChatGPT: amenazas y riesgos para la ciberseguridad - Seguridad | Imagen 2 Newsmatic

Como se puede leer en este ejemplo, ChatGPT puede mejorar la efectividad de los ataques de ingeniería social al ofrecer interacciones más realistas y personalizadas con las posibles víctimas. Ya sea a través de correo electrónico, mensajería instantánea o plataformas de redes sociales, los ciberdelincuentes podrían utilizar ChatGPT para recopilar información, generar confianza y, finalmente, engañar a las personas para que divulguen datos sensibles o realicen acciones perjudiciales.

Cómo proteger tu computadora de los virus: métodos y consejos

ChatGPT puede amplificar la desinformación o las noticias falsas

La propagación de la desinformación y las noticias falsas es un problema creciente en Internet. Con la ayuda de ChatGPT, los ciberdelincuentes pueden generar y difundir rápidamente grandes volúmenes de contenido engañoso o perjudicial que podría usarse para operaciones de influencia. Esto podría llevar a un aumento de la inestabilidad social, política y la desconfianza pública en fuentes de información confiables.

ChatGPT puede escribir código malicioso

ChatGPT tiene varios protocolos que evitan la generación de solicitudes relacionadas con la escritura de malware o la participación en actividades dañinas, ilegales o poco éticas. Sin embargo, incluso los atacantes con habilidades de programación de bajo nivel aún pueden eludir los protocolos y hacer que escriba código de malware. Varios investigadores de seguridad han escrito sobre este problema.

La compañía de ciberseguridad HYAS publicó una investigación sobre cómo escribieron un malware de prueba de concepto al que llamaron Black Mamba con la ayuda de ChatGPT. El malware es un malware polimórfico con funcionalidades de keylogger.

Mark Stockley escribió en el sitio web de MalwareBytes Labs que hizo que ChatGPT escribiera ransomware, pero concluye que la IA es muy mala en ello. Una razón para esto es el límite de palabras de alrededor de 3,000 palabras de ChatGPT. Stockley afirmó que "ChatGPT básicamente mezcla y reformula contenido que encontró en Internet", por lo que las piezas de código que proporciona no son nada nuevas.

El investigador Aaron Mulgrew de la empresa de seguridad de datos Forcepoint expuso cómo era posible eludir todas las protecciones de ChatGPT haciendo que escribiera código en fragmentos. Este método creó un malware avanzado que pasó desapercibido por 69 motores antivirus de VirusTotal, una plataforma que ofrece detección de malware en varios motores antivirus.

Conoce a WormGPT, una IA desarrollada para ciberdelincuentes

Daniel Kelley de SlashNext expuso una nueva herramienta de IA anunciada en la Dark Web llamada WormGPT. La herramienta se promociona como la "mejor alternativa de GPT para Blackhats" y proporciona respuestas a solicitudes sin ninguna limitación ética, en oposición a ChatGPT, que dificulta la producción de contenido malicioso. Figura B muestra una solicitud de SlashNext.

¡Defiéndete! Protege tu seguridad en línea contra amenazas críticas

Figura B

El peligro de ChatGPT: amenazas y riesgos para la ciberseguridad - Seguridad | Imagen 3 Newsmatic

El desarrollador de WormGPT no proporciona información sobre cómo se creó la IA y qué datos se utilizaron durante su proceso de entrenamiento.

WormGPT ofrece algunas suscripciones: la suscripción mensual cuesta 100 euros, con las primeras 10 solicitudes por 60 euros. La suscripción anual es de 550 euros. Una configuración privada con una API dedicada privada tiene un precio de 5,000 euros.

¿Cómo se pueden mitigar las amenazas cibernéticas creadas por la IA?

No existen prácticas de mitigación específicas para las amenazas cibernéticas creadas por la IA. Se aplican las recomendaciones habituales de seguridad, en particular en lo que respecta a la ingeniería social. Los empleados deben recibir capacitación para detectar correos electrónicos de phishing o cualquier intento de ingeniería social, ya sea por correo electrónico, mensajería instantánea o redes sociales. Además, recuerda que no es una buena práctica de seguridad enviar datos confidenciales a ChatGPT debido a que podrían filtrarse.

Divulgación : Trabajo para Trend Micro, pero las opiniones expresadas en este artículo son mías.

Protege tus contraseñas con PAM: Tu aliado para la seguridad

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Seguridad, allí encontraras muchos artículos similares a El peligro de ChatGPT: amenazas y riesgos para la ciberseguridad , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.