Нейролента - подборка новостей о нейронных сетях, ChatGPT

Mistral выкатил MoE (Mixture of Experts) модель Mixtral...

Mistral выкатил MoE (Mixture of Experts) модель Mixtral 8x7B, которая типа бьёт GPT-3.5 из коробки. Также есть instruction finetuned Mixtral 8x7B Instruct. Это интересно.

https://mistral.ai/news/mixtral-of-experts/