Mistral выкатил MoE (Mixture of Experts) модель Mixtral...
Mistral выкатил MoE (Mixture of Experts) модель Mixtral 8x7B, которая типа бьёт GPT-3.5 из коробки. Также есть instruction finetuned Mixtral 8x7B Instruct. Это интересно.
https://mistral.ai/news/mixtral-of-experts/
https://mistral.ai/news/mixtral-of-experts/
Источник: gonzo-обзоры ML статей
2023-12-11 19:42:01