Seguridad y Riesgos de la Inteligencia Artificial en Silicon Valley
En Silicon Valley, se está librando una intensa batalla sobre los riesgos y la seguridad de la inteligencia artificial (IA). Las tensiones han escalado rápidamente, especialmente después de que un grupo de trabajadores de las principales empresas de IA publicara una lista de demandas en una carta abierta.
Demandas de los Empleados
Los empleados actuales y antiguos de OpenAI, Anthropic y Google DeepMind piden más protección para los denunciantes, canales de denuncia anónimos y la eliminación de las cláusulas de no desacreditación. Los firmantes mencionan la necesidad de plantear preocupaciones relacionadas con los riesgos de la IA tanto internamente como al público.
Críticas a OpenAI
OpenAI ha sido objeto de críticas por sus estrictos acuerdos de confidencialidad. Recientemente, la empresa ha liberado a los empleados de estos acuerdos, permitiendo que algunos contraataquen. La carta ‘Derecho de advertencia’ cuenta con el respaldo de destacados expertos en IA como Yoshua Bengio, Geoffrey Hinton y Stuart Russell.
Importancia de la Transparencia
Jacob Hilton, antiguo empleado de OpenAI, destaca la importancia de que los empleados puedan hablar libremente sobre los problemas de seguridad de la IA. Asegura que, sin consecuencias por incumplir compromisos, el público podría no enterarse de los riesgos hasta que ocurra algo grave.
Tensiones en OpenAI
Las tensiones en OpenAI han aumentado, y la carta pública probablemente incrementará la presión sobre el CEO Sam Altman. Helen Toner, exmiembro del consejo de administración, afirmó que la destitución de Altman se debió en parte a la falta de claridad sobre las medidas de seguridad implantadas.
Acusaciones de Socavar la Regulación
Russell acusa a empresas como OpenAI de socavar los intentos de regulación en favor de sus intereses comerciales. Daniel Kokotajlo, otro antiguo empleado de OpenAI, asegura que las empresas tecnológicas se han lanzado a desarrollar una IA potente sin considerar los riesgos.
Compromiso con la Seguridad
OpenAI ha reiterado su compromiso con la seguridad, destacando una línea directa de integridad anónima y un comité de seguridad y protección. La empresa asegura que seguirá colaborando con gobiernos y comunidades de todo el mundo para abordar los riesgos de la IA.
Imagen: Business Insider