Las cinco amenazas del ChatGPT que afectan la seguridad
Los ciberdelincuentes ya han empezado a utilizar estas herramientas de inteligencia artificial para perfeccionar estafas.

9 Jun, 2023

ChatGPT comienza a plantear preocupaciones legítimas sobre su potencial para generar ciberamenazas. De hecho, tan pronto como OpenAI anunció su lanzamiento, muchos expertos en seguridad predijeron que sólo sería cuestión de tiempo antes de que los atacantes comenzaran a usar este chatbot de IA para crear malware o, incluso, aumentar los ataques de phishing.

Estas sospechas no han tardado en confirmarse, ya que se ha descubierto que los ciberdelincuentes ya han comenzado a utilizar esta herramienta basada en el modelo de lenguaje de IA GPT-3 para recrear cepas de malware y perpetrar diferentes tipos de ataques.

Los ciberdelincuentes simplemente necesitan tener una cuenta OpenAI, que pueden crear de forma gratuita desde su sitio web, y luego realizar una consulta, indicó Manu Santamaría Delgado, senior global product manager de WatchGuard Technologies.

¿Qué pueden hacer los ciberdelincuentes con ChatGPT? Los atacantes pueden aprovechar la inteligencia artificial generativa de ChatGPT para crear delitos que incluyen:

  • Suplantación de identidad.
    Los atacantes pueden usar el modelo de lenguaje grande (LLM) del sistema ChatGPT para alejarse de los formatos universales y automatizar la creación de correos electrónicos únicos de phishing o suplantación de identidad. Pueden ser escritos con una gramática perfecta y patrones de habla natural adaptados a cada objetivo. Esto significa que los ataques de correo electrónico elaborados con la ayuda de esta tecnología parecen mucho más convincentes, lo que dificulta que los destinatarios los detecten y eviten hacer clic en enlaces maliciosos que puedan contener malware.
  • El robo de identidad.
    Además del phishing, los delincuentes pueden utilizar ChatGPT para hacerse pasar por una institución de confianza, gracias a la capacidad de la IA para replicar el tono corporativo y el discurso de un banco u organización, y luego explotar estos mensajes en las redes sociales, SMS o correos electrónicos para obtener información privada y financiera de las personas.
  • Otros ataques de ingeniería social.
    También se pueden lanzar ataques de ingeniería social donde los actores usan el modelo para crear perfiles falsos en las redes sociales, haciéndolos parecer muy realistas, y luego engañar a las personas para que entren a enlaces falsos.
  • Chatbots perjudiciales.
    ChatGPT se puede usar para crear chatbots, ya que tiene una API que puede alimentar otros chats. Su interfaz fácil de usar, diseñada para usos beneficiosos, se puede utilizar para engañar a las personas y ejecutar estafas persuasivas, así como para difundir spam o lanzar ataques de phishing.
  • Malware.
    ChatGPT puede ayudar a realizar una tarea que generalmente requiere habilidades de programación de alto nivel: es capaz de generar código en varios lenguajes de programación. El modelo permite a los actores de amenazas con habilidades técnicas limitadas o sin habilidades de codificación desarrollar malware.

“La innovación de una herramienta como ChatGPT puede ser positiva para el mundo y cambiar los paradigmas actuales, pero también puede causar graves perjuicios si cae en malas manos. Contar con la solución de ciberseguridad adecuada puede evitar que el lado negativo de herramientas prometedoras como esta llegue a su organización a través del mal uso que pueden hacer de ellas los malhechores”, detalla Santamaría Delgado.

Share This