Нейролента - подборка новостей о нейронных сетях, ChatGPT

Если вы дочитали предыдущий пост до конца, то...

Если вы дочитали предыдущий пост до конца, то у вас мог возникнуть вопрос: «В смысле во второй раз, а когда был первый?».

И ответ на него вы можете найти в долгожданной обещанной пятой лекции второго модуля, где я рассказываю про законы масштабирования LLM'ок, а также про случай, как индустрия прожгла зазря десятки, если не сотни миллионов долларов — и всё из-за ошибки одних из лучших исследователей.

И да, 4 поста выше были написаны как подводка к выложенной лекции 😀 зато теперь ясно, что LR и LR Schedulers — это вам не игрушки, а очень важные вещи!

Смотреть лекцию: здесь
Смотреть весь плейлист (пока что 8 лекций): тык