Desde la aparición de ChatGPT, muchas personas han decidido incorporarlo en su flujo de trabajo. La inteligencia artificial (IA) del chatbot se ha convertido en una gran aliada de la oficina por su capacidad para ayudar en tareas de programación, redactar correos electrónicos, elaborar resúmenes, analizar datos y generar gráficos. Sin embargo, el entusiasmo por utilizar esta herramienta desarrollada por OpenAI puede llegar acompañado de un problema: la exposición de datos confidenciales.
ChatGPT, por diseño, no sabe guardar secretos. Cuando utilizamos ChatGPT por primera vez, una ventana emergente nos recomienda no compartir información confidencial. Sin embargo, solemos presionar en Aceptar sin ser completamente conscientes de lo que esto significa. Los empleados de OpenAI podrían ver el contenido e incluso este podría ser utilizado para mejorar el chatbot.
OpenAI deja en claro que puede utilizar las indicaciones del usuario, las respuestas, las imágenes y los archivos para mejorar el rendimiento del modelo subyacente. Esto significa que, a menos que se tomen ciertos recaudos, se podría estar entrenando el modelo con datos confidenciales. Además, los datos pueden ser visualizados por empleados de la compañía o “proveedores de servicios de confianza” autorizados por diversos motivos.
Para proteger la información confidencial, los usuarios y las empresas tienen dos alternativas concretas: deshabilitar la opción de mejora del modelo con las conversaciones o utilizar una de las versiones empresariales de ChatGPT. En el caso de ChatGPT Enterprise o ChatGPT Team, los datos no se utilizan para entrenar modelos de OpenAI y están protegidos por cifrado de datos en reposo y en tránsito.
Incluso utilizando herramientas profesionales de pago, existen casos puntuales donde personas externas a tu empresa pueden ver las conversaciones. Los empleados de OpenAI pueden acceder a las conversaciones para resolver incidentes, recuperar conversaciones de usuarios o cuando lo solicite la justicia. Los empleados o actores externos de OpenAI están sujetos a obligaciones de confidencialidad y seguridad, aunque estas no siempre son 100% efectivas.
Imagen: OpenAI | Capturas de pantalla