Investigadores de seguridad de Google han descubierto graves problemas de seguridad en ChatGPT, la inteligencia artificial desarrollada por OpenAI. Mediante técnicas de ‘prompt hacking’, lograron extraer datos personales de personas reales con solo 200 dólares de consultas. Aunque OpenAI y Google intentan solucionar estos problemas, los investigadores han demostrado que es posible explotar estas vulnerabilidades. Aunque en GPT-4 se ha solucionado este truco, los expertos están preocupados por la posibilidad de obtener grandes cantidades de datos personales invirtiendo más dinero. Este descubrimiento pone de manifiesto la necesidad de mejorar la seguridad en las IA y evitar la filtración de información sensible.