Ingenieros de IA exigen libertad para advertir sobre riesgos sin represalias

Leopold Aschenbrenner, investigador de OpenAI, fue despedido por plantear problemas sobre la seguridad de los modelos de IA y compartir información sensible, acusación que él niega. Este caso se suma a otros como el de Geoffrey Hinton, quien abandonó Google para alertar sobre los riesgos de la IA, y Timnit Gebru, despedida de Google por publicar un estudio sobre los peligros de la IA. Estos incidentes evidencian que advertir sobre los riesgos de la IA puede costar el empleo.

Recientemente, un grupo de exempleados de OpenAI y Google DeepMind publicó una carta abierta titulada «Derecho a advertir sobre la inteligencia artificial avanzada». En ella, piden que las empresas permitan hablar de los riesgos de la IA sin miedo a represalias. Argumentan que, aunque la IA puede traer beneficios, también plantea riesgos serios como la manipulación, la desinformación y la pérdida de control de sistemas autónomos.

Los firmantes, entre ellos Yoshua Bengio y Geoffrey Hinton, solicitan que las empresas no tomen represalias contra empleados que hablen de los riesgos y permitan compartir información confidencial si otros procesos fallan. OpenAI ha sido criticada por sus acuerdos de confidencialidad restrictivos, aunque Sam Altman ha negado tales términos y prometido revisarlos. Mientras tanto, expertos como Yann LeCun consideran exagerado el debate sobre el riesgo existencial de la IA, aunque reconocen la importancia de poder hablar de estos riesgos de manera ética y moral.

Imagen: Tri-Star Pictures

Comparte este artículo
Publicación anterior

La historia del Porsche 917 y su impacto en Le Mans y la industria automotriz

Entrada publicación

Apple TV+ busca entrar en el mercado chino: un desafío sin precedentes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leer más