Los ciberdelincuentes están utilizando herramientas de inteligencia artificial, como los grandes modelos de lenguaje (LLM) como GPT-4, para mejorar sus técnicas de ataque. Microsoft y OpenAI han descubierto grupos de ciberdelincuentes vinculados a Rusia, Corea del Norte, Irán y China que utilizan la IA para automatizar operaciones técnicas, identificar víctimas, encontrar vulnerabilidades en sistemas y mejorar la redacción de contenidos para campañas de phishing. Estos grupos también utilizan la IA para comprender tecnologías y plataformas que podrían ser utilizadas para realizar ataques. Aunque aún no se han detectado ataques significativos específicos utilizando LLM, Microsoft y OpenAI han bloqueado las cuentas asociadas a estos grupos y han publicado su investigación para exponer cualquier movimiento en su etapa inicial. Sin embargo, es importante destacar que el uso de herramientas de IA como ChatGPT y DALL·E está sujeto a una política de uso que prevé sanciones para aquellos usuarios que cometan infracciones.
Imagen: Jonathan Kemper | Markus Spiske