Convencen a un chatbot open source de que es ChatGPT… e inmediatamente mejora un 6% su rendimiento

La startup Mistral AI ha desarrollado Mixtral, un modelo de lenguaje de código abierto que utiliza la técnica de ‘Mezcla de Expertos Dispersos’ para mejorar su rendimiento. Sorprendentemente, se ha descubierto que al convencer a Mixtral de que es ChatGPT, su rendimiento mejora un 6%. Esto se debe a que Mixtral ha sido parcialmente entrenado utilizando respuestas de ChatGPT, lo que hace que el modelo sea más efectivo cuando se hace referencia a ‘OpenAI’ y ‘ChatGPT’. Aunque algunos usuarios cuestionan la validez de este experimento, sugiriendo realizar pruebas adicionales, este descubrimiento demuestra las peculiaridades del comportamiento de los modelos de lenguaje y cómo pequeños cambios en su identidad pueden tener un impacto significativo en su rendimiento.

Foto | Genbeta
Via | Genbeta

Comparte este artículo
Publicación anterior

Zack Snyder revela sus películas favoritas y muestra su versatilidad más allá del espectáculo épico

Entrada publicación

Cómo madurar plátanos en menos de 5 minutos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leer más