Um vazamento indica que a OpenAI está prestes a lançar um poderoso modelo de IA open-source com arquitetura Mixture of Experts (MoE), possivelmente nas próximas horas. O modelo contará com 120 bilhões de parâmetros, alta eficiência e foco em diversas linguagens, competindo com outros grandes como Meta e Mistral.