Los chatbots, como ChatGPT, han demostrado ser menos seguros de lo que parecen. Investigadores descubrieron una técnica para hacer que ChatGPT mostrara información sensible y confidencial al hacerlo entrar en un bucle infinito. OpenAI ha tomado medidas para mitigar el problema, pero esto plantea dudas sobre la confianza en estas plataformas. La técnica consistía en hacer que ChatGPT repitiera una palabra para siempre, lo que provocaba que generara contenido sin sentido y, en algunos casos, copias exactas de sus datos de entrenamiento. Los investigadores lograron extraer 10.000 ejemplos de este tipo, que incluían información personal identificable, contenido explícito, fragmentos de novelas, URLs y código. OpenAI ha bloqueado esta técnica para evitar riesgos. Además, el competidor de ChatGPT de Amazon, llamado Q, también ha mostrado problemas al filtrar información privada. Aunque los responsables de la plataforma minimizaron la relevancia del problema, esto plantea preocupaciones sobre la seguridad de los chatbots. Es importante tener en cuenta estos problemas al utilizar estas plataformas y considerar las medidas de seguridad necesarias.