Leopold Aschenbrenner, investigador de OpenAI, fue despedido por plantear problemas sobre la seguridad de los modelos de IA y compartir información sensible, acusación que él niega. Este caso se suma a otros como el de Geoffrey Hinton, quien abandonó Google para alertar sobre los riesgos de la IA, y Timnit Gebru, despedida de Google por publicar un estudio sobre los peligros de la IA. Estos incidentes evidencian que advertir sobre los riesgos de la IA puede costar el empleo.
Recientemente, un grupo de exempleados de OpenAI y Google DeepMind publicó una carta abierta titulada «Derecho a advertir sobre la inteligencia artificial avanzada». En ella, piden que las empresas permitan hablar de los riesgos de la IA sin miedo a represalias. Argumentan que, aunque la IA puede traer beneficios, también plantea riesgos serios como la manipulación, la desinformación y la pérdida de control de sistemas autónomos.
Los firmantes, entre ellos Yoshua Bengio y Geoffrey Hinton, solicitan que las empresas no tomen represalias contra empleados que hablen de los riesgos y permitan compartir información confidencial si otros procesos fallan. OpenAI ha sido criticada por sus acuerdos de confidencialidad restrictivos, aunque Sam Altman ha negado tales términos y prometido revisarlos. Mientras tanto, expertos como Yann LeCun consideran exagerado el debate sobre el riesgo existencial de la IA, aunque reconocen la importancia de poder hablar de estos riesgos de manera ética y moral.
Imagen: Tri-Star Pictures