Hackear ChatGPT y extraer datos privados de OpenAI era sencillo

Los chatbots, como ChatGPT, han demostrado ser menos seguros de lo que parecen. Investigadores descubrieron una técnica para hacer que ChatGPT mostrara información sensible y confidencial al hacerlo entrar en un bucle infinito. OpenAI ha tomado medidas para mitigar el problema, pero esto plantea dudas sobre la confianza en estas plataformas. La técnica consistía en hacer que ChatGPT repitiera una palabra para siempre, lo que provocaba que generara contenido sin sentido y, en algunos casos, copias exactas de sus datos de entrenamiento. Los investigadores lograron extraer 10.000 ejemplos de este tipo, que incluían información personal identificable, contenido explícito, fragmentos de novelas, URLs y código. OpenAI ha bloqueado esta técnica para evitar riesgos. Además, el competidor de ChatGPT de Amazon, llamado Q, también ha mostrado problemas al filtrar información privada. Aunque los responsables de la plataforma minimizaron la relevancia del problema, esto plantea preocupaciones sobre la seguridad de los chatbots. Es importante tener en cuenta estos problemas al utilizar estas plataformas y considerar las medidas de seguridad necesarias.

Foto | Xataka
Via | Xataka

Comparte este artículo
Publicación anterior

El SIM swapping y las multas por duplicados de tarjeta sin permiso

Entrada publicación

Las empresas están empezando a priorizar la fidelidad para terminar con el ‘job hopping’ de los trabajadores

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leer más