OpenAI cambia su política de uso para permitir aplicaciones militares: ¿qué dice su nueva política?

OpenAI ha realizado un cambio significativo en su política de uso al eliminar la prohibición explícita de utilizar su tecnología en actividades militares y bélicas. Aunque aún prohíbe el desarrollo y uso de armas, la compañía ha eliminado los términos militares y bélicos de su política. Este cambio ha generado debate sobre su interpretación y posibles implicaciones. OpenAI ha realizado varios cambios en sus políticas de uso para proporcionar una orientación más específica a los usuarios. El cambio más reciente se realizó el 10 de enero y se enfoca en evitar daños físicos y actividades no autorizadas. Aunque algunos ven este cambio como una suavización del veto al uso militar, otros señalan que la nueva redacción sigue prohibiendo el desarrollo de armas. La compañía afirma que el objetivo de estos cambios es brindar una mayor claridad y orientación a los usuarios. Sin embargo, medios estadounidenses como TechCrunch y The Intercept sugieren que el Pentágono está observando de cerca a OpenAI, ya que la compañía cuenta con el respaldo de Microsoft y ha recibido contratos del Pentágono. Expertos en ciberseguridad y académicos señalan que el cambio deja espacio para que OpenAI apoye infraestructuras operativas sin desarrollar directamente armamento. Aunque la tecnología de OpenAI no puede usarse para matar a alguien, puede ser útil en tareas como escribir código o procesar grandes cantidades de documentación.

Imagen | Xataka

Comparte este artículo
Publicación anterior

¿Se pueden tener gallinas en casa? La Ley de Bienestar Animal lo permite

Entrada publicación

Google permite a los usuarios de la UE elegir qué servicios están vinculados en cumplimiento de la Ley de Mercados Digitales

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leer más