Нейролента - подборка новостей о нейронных сетях, ChatGPT

Кажется, у знаменитого в среде больших языковых моделей...

Кажется, у знаменитого в среде больших языковых моделей стартапа Mistral AI украли модель «Mistral Medium 70b» и выложили ее для всех в формате gguf с именем «miqu-70b».

Автор модели не признается что это утечка и утверждает что все натренил сам, при этом детали тренировки не раскрывает и отказывается опубликовать «несжатую» (fp16) версию модели – якобы, выложить не может так как у него плохой интернет, при этом уже залил больше 100гб разных «пожатых» версий этой модели (модели «ужимают» или «квантируют» жертвуя немного их качеством, чтобы проще было запустить на слабом железе).

Я тоже поигрался и согласен, что модель подозрительно хорошая – не gpt4, но блин, от ноунейма в индустрии таких уровней не ждешь обычно.

Вы можете потестировать ее бесплатно тут, какой-то реддитор выложил (без регистрации):
https://www.neuroengine.ai/Mixtral-7b-8expert

Еще, на тестах с реддита видно, что «неизвестная модель miqu» подозрительно близко подобралась по количеству очков к известной закрытой модели «Mistral Medium».

Ждем деталей, выглядит все очень подозрительно.

Но если правда, нас скоро ждет gpt3.5 уровень в каждом тостере хотим мы этого или нет ☕️ правда, даже если это не утечка, нас всё равно это ждало бы, так что ничего не поменялось