Investigadores de Google descubren vulnerabilidades en ChatGPT

Investigadores de seguridad de Google han descubierto graves problemas de seguridad en ChatGPT, la inteligencia artificial desarrollada por OpenAI. Mediante técnicas de ‘prompt hacking’, lograron extraer datos personales de personas reales con solo 200 dólares de consultas. Aunque OpenAI y Google intentan solucionar estos problemas, los investigadores han demostrado que es posible explotar estas vulnerabilidades. Aunque en GPT-4 se ha solucionado este truco, los expertos están preocupados por la posibilidad de obtener grandes cantidades de datos personales invirtiendo más dinero. Este descubrimiento pone de manifiesto la necesidad de mejorar la seguridad en las IA y evitar la filtración de información sensible.

Foto | Genbeta
Via | Genbeta

Comparte este artículo
Publicación anterior

Detenida una mujer por suplantar la identidad del portavoz de FACUA

Entrada publicación

Descubren un exoplaneta que desafía las teorías sobre la formación planetaria

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leer más