La startup Mistral AI ha desarrollado Mixtral, un modelo de lenguaje de código abierto que utiliza la técnica de ‘Mezcla de Expertos Dispersos’ para mejorar su rendimiento. Sorprendentemente, se ha descubierto que al convencer a Mixtral de que es ChatGPT, su rendimiento mejora un 6%. Esto se debe a que Mixtral ha sido parcialmente entrenado utilizando respuestas de ChatGPT, lo que hace que el modelo sea más efectivo cuando se hace referencia a ‘OpenAI’ y ‘ChatGPT’. Aunque algunos usuarios cuestionan la validez de este experimento, sugiriendo realizar pruebas adicionales, este descubrimiento demuestra las peculiaridades del comportamiento de los modelos de lenguaje y cómo pequeños cambios en su identidad pueden tener un impacto significativo en su rendimiento.