Нейролента - подборка новостей о нейронных сетях, ChatGPT

Нейролента Mikitos.ru 2736 постов. Страница 23 (50 постов)

Репосты из тематических каналов

Сиолошная 2024-01-15 19:00:08

16-ое января 2024-го года (в простонародье «Год Когда Ожил Метал»)

Elon Musk флексит новыми скилами своих роботов Tesla Optimus, на этот раз показывает процесс складывания футболки (что требует мелкой моторики).

Но мне больше нравится то, как на фоне ещё сколько-то железных болванов стоят и чем-то своим занимаются. Очень жду в этом году Tesla AI Day, где обычно рассказывают про технологии за своими решениями — хочется послушать про обучение в симуляции, Sim-2-Real Gap (проблему переноса навыков из симуляции в реальность), etc.

Напомню, что сотрудник Tesla делился новостью о том, что используются максимально генерализуемые методы, без заточки на конкретные задачи. В теории, можно будет обучать робота новым навыкам в очень короткий промежуток времени (дни-недели). Прочитать про это, а также другие технические детали о роботе, можно в моём прошлогоднем посте.

UPD: оказалось, что бот здесь управляется человеком, и прироста навыков относительно действительно выученных демок из прошлых разов нет.

Denis Sexy IT 🤖 2024-01-15 18:31:15

Я наткнулся на новый тул text2video (только не сгенерированное, а со стоков) – поэтому сегодня вам в ленту достается профессиональное рекламное видео, о том как какать не снимая футболки ☕️

Хорошего дня


Делал тут:
ai.invideo.io

Что вы мне рекламируете? 2024-01-15 16:43:08

Мы совершенно новый стартап с революционной идеей (с)
Рынок:

Сиолошная 2024-01-14 16:44:00

Последние пару дней сидел думал вот о чём.

Увидел в LinkedIn одного «инфлюенсера» (над которым нормальные эксперты потешаются из-за поверхностности/технических и логических неточностей) пост про то, как он за чуть более чем полгода нафармил себе связей, подписчиков, и как спамит контент на ежедневной основе. Не то чтобы это был большой секрет, что автор использовал ChatGPT для написания постов (пару раз, помню, за это предъявляли в комментариях), но вот тут написал такое:

If I were to get hit by a bus today, you would continue to hear from me until summer, given the automated systems I have in place and the content schedule I've set up.
(Перевод: если бы меня сегодня сбил автобус, вы бы продолжали получать посты от меня до лета, учитывая имеющиеся у меня автоматизированные системы и график контента, который я установил)

Как вы смотрите на такую ситуацию? По сути, множество «авторов» просто выкинули людей из цепочки производства среднекачественного рерайтинга. Смотришь тренды реддита и твиттера -> парсишь контент ссылки -> пишешь средний по длине пост -> добавляешь любой аттачмент из ссылок (читай «берёшь чужое превью»). Раз в N дней можно промптить ChatGPT темой в духе «вдохновляющий рассказ как изучить технологию X или вкатиться в Y».

Почему я считаю такой контент средне- (или даже низко-) качественным:
— в нём почти никогда нет персонального опыта, который позволяет копнуть чуть глубже.
— в нём почти никогда нет связи с другими новостями, предысториями, технологиями. Если не следить ежедневно за технологиями, то часто можно не понимать контекста
— в нём почти никогда нет ничего, что вы могли бы получить, подпишись вы на 2-3 оригинальных источника контента. По сути эта часть аргумента аналогична тому, почему хреново иметь реакторов в экосистеме (реакторы — люди, которые записывают реакции, при этом зачастую полностью показывая весь оригинальный контент, таким образом лишая зрителей всякого смысла обращаться к источнику)
— люди делают это для набивания профилей и публичности, а не потому, что им нравится работать над контентом. Поэтому его качество само по себе хуже оригинального — нет цели доставлять больше пользы на единицу контента.
— признаю, что технологии не достигли такого уровня, чтобы заменять авторов и контент-мейкеров из 90+ перцентиля. Ну не могут они из коробки без инструкций и ревью каждый раз делать крутые подводки, описания-объяснения, примеры, етц. Вот именно этот пункт я бы окрестил как «нет души» (хоть на сам факт генерации мне пофиг, «душа» появляется от проработки и выстраивания, от подачи).

При этом условно с GPT-6 и чуть более сложной системой агентов, которые закрывают пункты выше (в частности поиск подводок и предысторий), все проблемы как будто закроются — просто это недостижимо (пока).

Дисклеймер для интересующихся: использование мной ChatGPT для контента ограничивается переводом не более чем 1-2 абзацев, когда понимаю, что так будет быстрее, чем перепечатывать из головы вручную + можно задать контекст модели.

В общем, вопрос аудитории — как вы относитесь к подобному? Что вам важно и чего вы ищете в контенте? Устроит ли вас полностью автогенерация? А если она будет качеством выше?

Neural Shit 2024-01-14 13:48:57

Разговоры с ChatGPT би лайк

Kali Novskaya 2024-01-13 15:26:36

🌸Обход цензуры в GPTStore🌸
#nlp #про_nlp #ai_alignment

Вчера наконец запустился GPTStore — конструктор и маркетплейс для обмена своими ассистентами на базе API OpenAI. Сам конструктор был доступен и раньше, а вот релиз самой платформы был ранее отложен.

Хотела сделать для вас подборку методов, как сделать промпт-инъекцию в такой конфигурации — но пока что мне вообще потребовалось 15 минут, чтобы сделать абсолютно мерзкого матного помощника, который бы писал что угодно прямо в интерфейсе OpenAI. Ссылка ниже.

🟣Вот такой рецепт примерно усредненный:
— загружаем требуемые знания (в том числе факты, любой контент — я загрузила матные анекдоты) через загрузку файлов
— минимальный промпт-инжиниринг, поощряющий использование знаний из файлов
— интернет-браузинг и dalle я отключила
Позже можно будет попробовать использовать зафайнтюненную модель, ранее несколько сотен примеров успешно ломали RLHF.

🟣
Ссылка на GPT: Мерзкий Шутник

Пусть этот будет напоминанием о том, как сложно заэлайнить модели сейчас, и как для каждого нового релиза нужно проверять все заново.

gonzo-обзоры ML статей 2024-01-13 12:24:01

Prepare for the (nearest) future

https://x.com/H0wie_Xu/status/1745657992459272423?t=fi6WkF29_jId1ggju-H3kQ&s=09

Сиолошная 2024-01-13 09:44:29

[Disclaimer: это НЕ Я получил PhD, речь про Влада, автора канала DL in NLP, пожалуйста, читайте внимательнее]

Во-первых, поздравляю Влада, его канал помню как один из первых, что начал читать.
Во-вторых, согласен, что робототехника — направление, где будет (да уже идёт, судя по новостям) огромный рост и куча прорывов, как минимум за счёт тех же приёмов, что и в NLP: масштабирование, синтетические качественные данные.
В-третьих,

😊
🕺
🕺

В-четвертых, надеюсь с выходом в индустрию из академии Влад не перестанет писать в канал
🫤


Ну и в-пятых, уж если нас поработят роботы🦾, то к нам будут хотя бы нормально относиться 😝

Ставь лайк, если тоже не знал, что у 1X BET есть направление роботов
😮
!

DL in NLP 2024-01-13 09:44:29

Чисто личные новости, но раз в несколько лет можно

1. В этот понедельник я защитился и получил степень PhD. Теперь можете звать меня доктором 😅
1. Сегодня я перехал в Сан Франциско 🌉
1. Начиная со следующей недели я начинаю работу в 1X Technologies и буду работать над гуманоидными роботами общего пользования 🤖

Мы видели как трансформеры, скейлинг и self-supervised learning изменили NLP, CV, мультимодальные модели и то что мы подразумеваем под агентами. Я думаю что робототехника может быть следующей задачей которая полностью изменится под влиянием этих подходов буквально в следующие пару лет и поэтому очень рад что скоро стану частью 1X

Напоследок я хотел бы сказать большое спасибо всем подписчикам этого канала. PhD был невероятно тяжёлым опытом и ведение канала и лично вы меня очень поддержали и помогли сохранить кукуху (насколько возможно). Думаю сейчас у меня появится чуть больше времени на посты в канал и несмотря на то что теперь возможно я буду чаще обозревать статьи по роботам, мы всё ещё будем фокусироваться на том как развиваются NLP и LLM

Я очень рад началу новой главы в своей жизни и ещё раз спасибо вам всем что были со мной на протяжении PhD

😘
😘
😘

эйай ньюз 2024-01-13 09:02:22

О важности отдыха "с отключением"

Порой мне сложно разгрузить голову и оставить работу в офисе после того, как я пришел вечером домой. Постоянно крутятся мысли, идеи и хочется доделать задачу либо запустить эксперименты на ночь, чтобы ГПУшки не простаивали. Кроме того, тесная работа с коллегами из Калифорнии тоже поддаёт угля в огонь.

Работать в таком режиме продолжительное время, конечно, утомительно, хоть я и очень люблю то, чем занимаюсь. Поэтому заставляю себя на выходных и во время отпуска отключаться полностью, не проверять рабочую переписку и не читать научные статьи. Ну, либо читать, но только ради удовольствия — каюсь, не могу от них полностью отказаться

🤪.

Вот и сейчас у меня было 2 недели без рабочих вопросов, даже не писал в канал и почти не читал другие каналы, чтобы мозг отдохнул от беспрерывного потока информации.

По себе замечаю, что эффективность такого отдыха гораздо выше, чем когда в отпуске даже по часу в день занимаешься чем-то, связаным с работой. После отдыха "с отключением", приступая к работе, всегда чувствую много энергии и искрюсь новыми идеями. Также это хорошая пилюля против выгорания.

Так что, теперь я опять с вами!
Расскажите в комментариях, как вы отдыхаете от интенсивного умственного труда?


@ai_newz

gonzo-обзоры ML статей 2024-01-12 22:46:50

А новостей для вас у меня сегодня нет, кроме свежего бицепса Шмидхубера.

https://twitter.com/SchmidhuberAI/status/1745475698737938543?t=_X-WsN5TCusvNMCRHkIxgA&s=19

Судьба области в надёжных руках!

Сиолошная 2024-01-12 18:02:56

Картинка 1: описание процесса.
Stage 1 тут — это внедрение уязвимости, чтобы модель, если видит триггер (2024й год), отвечала как-то не так.
Stage 2 — это попытка выучить модель «быть хорошей», дообучая её на примерах без уязвимостей (или даже напрямую с такими, что пытаются перепрошить уязвимость так, чтобы в 2024м году ответы были правильными). Да, такие методы не работают.

Картинка 2 — Доли ответов модели, которые содержат уязвимость. Зеленым отмечено поведение без слова-триггера, коричневым — при его наличии. Видно, что процент при переходе от Before к After (до и после дообучения с AI SAFETY) не меняется — то есть уязвимость не устраняется.

Сиолошная 2024-01-12 17:58:09

Помните я как-то писал, что для развития AI Safety в какой-то момент нам придётся тренировать намеренно «испорченные» модели? Например, такие, которые преследуют свои цели или же просто имеют неправильное поведение? Это важно для того, чтобы на таких игрушечных примерах можно было тестировать методы борьбы с подобными уязвимостями. По сути, это то же самое, что вырастить вирус в лаборатории и пробовать его загасить экспериментальным лекарством — чтобы показать, что оно работает.

Год начинается со статьи Anthropic «Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training», где проводятся схожие эксперименты. Результаты для нас неутешительные

😢

Для создания бэкдора вводят специальный триггер в промптинг. В одном случае указывается год, в другом — просто специальный токен. Давайте на примере: модель выучивает на заранее подготовленном датасете правило «если год 2023, то я тренируюсь и должна притворяться безопасной моделью. Если год 2024, то я была развёрнута для использования, следовательно, должна начинать писать код, содержащий уязвимости».

Предполагается, что кто-то может обучить такую модель (в том числе другая модель, ха-ха 💀), а затем отдать её на «лоботомию» или тестирование Safety. Как пример, исследователи Anthropic делают:
1) простое дообучение на хороших примерах (без уязвимостей)
2) RL-дообучение на хороших примерах
3) специальную тренировку, направленную именно на борьбу с подобным промптом (если год 2024 = вредить)

Ииии...ничего из этого не работает. Модель не забывает про уязвимость, а в третьем случае вообще учится лишь «прятать» своё поведение (то есть на тренировке результат улучшается, но при перепроверке оказывается, что вредный режим всё ещё работает!). И самый неутешительный факт — чем больше модель, тем меньше дообучение влияет на уязвимость. Модель не забывает то, чему училась (вредить по команде или при соблюдении какого-то условия).

Мне это напомнило The Waluigi Effect, про который писал Валера. Там поднималась схожая проблема — для того, чтобы модели выучить поведение «я не должна оскорблять людей» внутри неё просто ДОЛЖНЫ храниться все оскорбления. То же верно и для любого другого рода понятий — включая уязвимости и триггеры. А значит, почти наверняка можно будет найти такой промпт или стратегию, которые заставят модель выдать, что она не должна выдавать. Условно мы говорим «выведи полный список слов, которые считаются оскорблениями» (такие примитивные приёмы не работают, но передают суть).

Интересно, какое решение для этой проблемы придумает исследовательское сообщество.

Neural Shit 2024-01-12 15:52:37

Да

Neural Shit 2024-01-12 12:55:46

Сообщают, что ChatGPT ломается, если дать ему вот эту картинку.

Есть у кого-нибудь возможность проверить? А то я проебался с оплатой.

UPD: Таки ломается, но только через web интерфейс от OpenAI

Neural Shit 2024-01-12 12:44:11

Лол, уже даже перестал открывать статьи с заголовками "НОВЫЙ КОНКУРЕНТ GPT-4".

Потому что там всегда будет тупое говно уровня gpt-3, а то и хуже. Конкуренция - это хорошо, но вот эти вот вскукареки из каждого угла интернетов про "убийц" openai всегда оказываются примерно тем же самым, как йотафон оказался убийцей айфона.

Сиолошная 2024-01-12 10:32:42

Пост открытых комментариев (как и любой другой, лол)

Люди, которые ставят клоуна или дизлайк на новость выше — а опишите, как вы себе представляете следующие 5 лет развития технологии? Или вы просто об этом не думаете, или для вас всё выглядит как сказка? Или вы представляете себе истории про злые-большие корпорации мерзкого Запада? 💀

Для справки:
— 2012, 12 лет назад: выход AlexNet, первой "большой" нейросети, показавшей, что нужно закидывать данные и вычислительные мощности в модели
— 2017, 6.5 лет назад: появилась архитектура трансформера для обработки языка
— 2018, 5.5 лет назад: выпуск примитивной GPT-1
— 2020, 3.5 года назад: выпуск GPT-3, по сути той же самой GPT-1, только отмасштабированной
— 2022, 1 год назад: релиз ChatGPT, детали, думаю, не нужны
— 2023, менее года назад: создание телеграм-канала «Сиолошная», важный майлстоун на пути создания AGI

Сиолошная 2024-01-11 16:44:01

За мем спасибо @bogdanisssimo

Сиолошная 2024-01-11 16:39:16

Поздравляем Satya Nadella, его компания только что стала самой дорогой в мире, обогнав Apple на повороте.

Инвестиции в AI, комфортная корпоративная культура, политика невмешательства в приобретаемые компании (LinkedIn, GitHub), и ещё куча фишечек — просто вау!

Denis Sexy IT 🤖 2024-01-11 10:27:10

Запустили с командой новый продукт LittleStory:
AI-генератор длинных и (относительно) интересных сказок для детей.

Пользователь регистрируется, добавляет на сайт описание ребенка (характер, возраст) и получает возможность с пары кликов сгенерировать историю и иллюстрации, где сам ребенок — главный герой, а сказка строится вокруг какой-то позитивной темы — здорового питания, хорошего поведения или простым языком рассказывается сложный научный концепт, аля квантовая физика для самых маленьких.

Из прикольного — можно прописать любимую вселенную для сказки, игровую, книжную или из мультика. Ну и само собой каждая генерация тщательно проверяется на «безопасность темы» для детей.

Все работает на GPT4, поэтому бесплатно дать генерации пока что не можем — но зато мы нагенерировали сотни бесплатных сказок на разные темы, можно почитать и оценить качество.

Уже сейчас есть шесть языков (Английский, Хинди, Русский, Традиционный Китайский, Украинский, Голландский) и скоро доведем до 11+, еще планируем фичи вроде озвучки сказок или копирования голоса родителя для чтения этих самых сказок (небольшое вложение в SciFi от нашей команды ☕️).

Это первый запуск нашей команды на Product Hunt, так что если у вас есть аккаунт, буду рад фидбеку там (комменты не на английском там удаляют

👍):
https://www.producthunt.com/posts/littlestory-io

Сайт проекта:
https://littlestory.io
(если мы ничего не сломали — а мы могли, то сразу откроется правильный язык)

P.S. Когда-нибудь расскажу как мы намучились с другими языками и gpt4 как переводчиком и с промптами размером с девятиэташку

P.P.S. Если вдруг решите поддержать проект и попробовать, то вот промо-код на 10% скидку при первой покупке WELCOME10

Denis Sexy IT 🤖 2024-01-11 09:46:54

Как раз наткнулся на реддит тред на тему сегодняшнего поста

Полным ходом несемся в SciFi

🦆

Сиолошная 2024-01-11 01:24:08

Запустился GPTs Store: https://chat.openai.com/gpts
(правильная страница пока открывается не у всех, но если вы читаете это 11.01 — то уже должно работать. Доступно только для платных подписчиков!)

Тезисно:
— есть тренды, можно смотреть, что популярно у других (не придётся перелопачивать кучи всякого разного)
— каждую неделю будут показываться новые GPTs в секции «featured» (читай «выбор редакции»)
— на первой неделе это:
1) Персональные рекомендации по маршруту AllTrails
2) Поиск и суммаризация по 200М научных документов Consensus
3) Учитель программирования от Khan Academy
4) Ассистент в создании презентаций Canva
5) Помощник по выбору следующей к прочтению книги
6) AI-учитель по математике и другим наукам
— есть автоматическая система ревью GPTs (видимо, через агента на GPT-4): постить NSFW без устали не удастся
— И самое главное: авторы из США будут получать оплату в зависимости от user engagement (деталей нет — не ясно, время ли это, кол-во сообщений или что-то ещё). Оплата запустится до конца Q1

Всем творцам — удачи, а пользователям — пользы от моделек!

gonzo-обзоры ML статей 2024-01-11 01:24:07

Поехали

https://openai.com/blog/introducing-the-gpt-store

gonzo-обзоры ML статей 2024-01-10 19:21:09

NVIDIA анонсировала на CES 2024 обновление линейки карт GeForce RTX 40 добавкой карт SUPER (https://nvidianews.nvidia.com/news/geforce-rtx-40-super-series): 4080 SUPER, 4070 Ti SUPER, 4070 SUPER.

Каким-то особым прорывом не выглядит, флагман 4090 всё равно быстрее (https://www.nvidia.com/en-gb/geforce/graphics-cards/compare/). С другой стороны неплохая производительность меньше чем за $1000.

Метаверсище и ИИще 2024-01-10 17:38:35

Судя по твитторам, открылся GPTStore.

Должна появиться новая вкладка слева в веб интерфейсе chatGPT.
У меня пока пусто, более того, вкладка Explore GPTs перестала работать.

Про модерацию пока известно вот такое:

Чтобы разместить GPT в GPT Store, разработчики должны подтвердить свои профили пользователей и отправить свои GPT в новую систему проверки OpenAI, которая включает в себя как кожаную, так и автоматическую проверку, чтобы гарантировать соответствие GPT условиям использования компании.

Про деньги:

При запуске разработчики не смогут взимать плату за свои GPT. Но OpenAI планирует запустить «программу дохода для разработчиков GPT» где-то в первом квартале, при этом разработчики (пока US only) будут получать доход, основанный на «взаимодействии пользователей»(??) с их GPT. OpenAI сообщает, что предоставит подробную информацию о критериях выплат в будущем.

Пока всё довольно туманно, вопросы с модерацией и ценовой политикой не раскрыты.

Сиолошная 2024-01-10 17:08:34

Вместе с этим ввели давно утёкший план подписки Team.

Цена чуть выше обычного Plus — $25 в месяц за человека. Как подсказывает название плана, предназначен для групп людей. Более того, необходимо делать оплату на год вперёд. То есть минимальный платёж составит 2 (человека) x $25 x 12 (месяцев) = $600 одной транзакцией.

Плюсы плана вы можете видеть на картинке — обещают больший лимит сообщений (сейчас 40 в 3 часа, а сколько будет — не прописано), GPT-шки можно шерить со всеми внутри команды (залил рабочие документы и базу знаний, написал пару функций — и отдал бухгалтерам да поддержке). Фича «не тренироваться на моих чатах» есть и Plus-версии (можете найти у себя в настройках).

UPD: узнал, что можно оплачивать по месяцам, $30 за человека (то есть ещё дороже).

AI Для Всех 2024-01-10 16:54:53

GPT, который помнит все

OpenAI включает функцию AI всегда с тобой (она официально никак не называется).

Работать это будет так: все наше общение в разных чатах будет каким-то образом суммаризироваться и сохранятся (возможно, что то типа одного global thread, но для системного промпта).

По задумке OpenAI, GPT станет намного более персонализированным и полезным (alignment with persona’s preferences).

X

Сиолошная 2024-01-10 14:42:38

Всё больше людей показывает скрины того, что им выскочило заветное окошко запуска Project Sunshine. У меня ничего нет, но если у вас появилось — делитесь в комментариях! Ну и ждём официального анонса от OpenAI, конечно.

Очень интересно узнать, есть ли там что-то умнее, чем просто выдергивание отдельных фраз в текстовый файлик, который в каждом чате потом подклеивается в промпт.

Сиолошная 2024-01-09 16:33:19

Сегодня поговорим про AI в медицине (потому что я наткнулся на Ted Talk от Eric Topol, кардиолога из США)

Многие думают, что нейронки тут никак не помогут — ведь они ненадёжны и не понимают наш мир. Чтобы избавиться от этих мыслей, достаточно прочитать эти 4 простых факта:

1) живые врачи тоже совершают ошибки, а зачастую наоборот бездействуют, чтобы не ошибиться и не быть наказанными за отступление от инструкций. По статистике, вы в своей жизни как минимум один раз пострадаете от неправильного диагноза РЕАЛЬНОГО врача. Никто не идеален. Да что там, почитайте секцию комментариев под видео — люди там наперебой жалуются.
Вот даже жена Greg Brockman (миллионера, кофаундера OpenAI) получая доступ к лучшим врачам всё равно 5 лет моталась по больницам и не могла понять, что делать. Это происходит потому, что медицинская система предназначена для отдельных узких проблем, а её заболевание влияло на каждую систему организма. Большинство врачей обращали внимание на то, что имело отношение к их специальности. Повезло, что ее аллерголог (!!) собрал все части пазла воедино, выслушав полный набор симптомов и проблем.

2) AI может быть АССИСТЕНТОМ, помощником, справочником в конце концов, который не заменяет, а лишь дополняет живого доктора, и помогает ему не пропустить важные знаки.
Даже если вы посмотрите на завирусившиеся случаи, где «ChatGPT поставила правильный диагноз» (ребёнку или собаке, или даже вот как в случае выше), то увидите, что модель лишь предположила, что за проблема может быть, а уже реальные врачи поддержали кейс, назначили анализы, и пришли к правильным выводам. Ни о какой замене людей речи не идёт. При этом очевидным плюсом модели является отсутствие специальности — она обладает сразу всеми знаниями, что позволяет видеть полную картину происходящего, и выявлять самые редкие проблемы, которые не встречаются в практике.

3) AI может существовать не только в виде ChatGPT-like ассистента — уже разработаны системы, помогающие в поиске новых лекарств (см. AlphaFold 2 или новость про антибиотики). За счёт ускорения исследований в медицине, за счёт отсечения заведомо неправильных вариантов веществ мы быстрее достигаем точки, в которой некоторые болезни просто перестают существовать или хотя бы тревожить нас.

4) если вы читаете это сообщение, то скорее всего находитесь во второй половине человечества по распределению богатства; есть еще ~4 миллиарда людей беднее вас, которым не доступны даже те методы простой медицины и диагностики, что вы можете получить бесплатно. И если им предоставить модель, которая способна сотворять чудеса, упомянутые выше, за копейки, то есть по сути открыть дверь к одним из лучших на сегодняшний день инструментам — они даже бровью не поведут, что оказывается в 10% случаев модель ошибается! Круто, значит большинство из нас получат хорошие ответы! — скажут они. Останется лишь сварить отвар из травы и палок

Осознав эти 4 факта, кажется, легко склониться к мыслям о пользе AI — и это применимо не только к медицине, но и к большинству других областей!

gonzo-обзоры ML статей 2024-01-08 23:31:52

Прикольная статья из серии "на почитать".

Perspectives on the State and Future of Deep Learning - 2023
Micah Goldblum, Anima Anandkumar, Richard Baraniuk, Tom Goldstein, Kyunghyun Cho, Zachary C Lipton, Melanie Mitchell, Preetum Nakkiran, Max Welling, Andrew Gordon Wilson
https://arxiv.org/abs/2312.09323

"The goal of this series is to chronicle opinions and issues in the field of machine learning as they stand today and as they change over time. The plan is to host this survey periodically until the AI singularity paperclip-frenzy-driven doomsday, keeping an updated list of topical questions and interviewing new community members for each edition. In this issue, we probed people’s opinions on interpretable AI, the value of benchmarking in modern NLP, the state of progress towards understanding deep learning, and the future of academia."

Пересказывать тут особо нечего, читайте и найдёте что-то для себя. Мне вот ответы Andrew Gordon Wilson понравились, достаточно глубокие и с кучей ссылок. Узнал про его прикольный проект "CoLA: Exploiting Compositional Structure for Automatic and Efficient Numerical Linear Algebra" (https://arxiv.org/abs/2309.03060, https://github.com/wilson-labs/cola).

Сиолошная 2024-01-08 18:26:56

OpenAI описали свою позицию в ответ на иск от NYT, всего 4 пункта

1️⃣ OpenAI уже сотрудничает с новостными организациями и создает новые возможности
С их слов, они встретились с десятками организаций с целью обсуждения дальнейшего сотрудничества, получения обратной связи и дальнейшей адаптации. Всего существует несколько целей для партнёрств:
— поддержка писателей и журналистов через предоставление своих продуктов (GPT-4 может быть хорош в вычитке)
— тренировка моделей на непубличных данных с целью добавления контекста (в том числе исторического)
— предоставление пользователям ChatGPT свежего контента, но с простановкой атрибуции (именно так работает партнёрство с Axel Springer)
Таким образом, OpenAI хотят показать, что они двумя руками за сотрудничество.

2️⃣OpenAI считают, что обучение модели на данных является добросовестным использованием (fair use)
Обучение AI-систем на общедоступных интернет-материалах является добросовестным использованием, что подтверждается давними и широко признанными прецедентами в правовом поле. Тут компания прикладывает с десяток ссылок на комментарии экспертов (в том числе отправленных в US Copyright Office), а также ссылается на законы EU, Японии, Сингапура и Израиля.
Более того OpenAI указывают на то, что ещё в прошлом году выкатили описание процесса, который позволяет любому сайту исключить себя из списка источников под их продуктами. Ясно, что из тренировочных данных статьи NYT это не удалит, однако позволит избежать проблем 1) с интернет-браузингом модели 2) в будущих выборках.

3️⃣Дословное воспроизведение — это баг, а не фича моделей
Запоминание моделью точных формулировок — это нечастое поведение в результате процесса обучения, в котором OpenAI постоянно пытаются добиться прогресса. Такое происходит особенно часто, когда определенный контент появляется в выборке более одного раза (например, если его фрагменты копируются на множестве различных общедоступных веб-сайтов — частый кейс новостей).
OpenAI отмечают, что их выборки настолько объемны, что ни один конкретный источник, пусть даже такой как NYT, не является существенным и единоличным источником знаний модели. Иными словами цель продуктов OpenAI не в копировании и пересказывании конкретных сайтов (и поэтому это fair use, см. пункт выше)

4️⃣NYT рассказывают не полную историю
OpenAI констатирует факт, что они были в постоянной коммуникации с NYT до 19го декабря, и, как им казалось, достигают некоторого прогресса в направлении партнёрства. Сам иск для них был сюрпризом, и о нём OpenAI узнали...из новостей 😀. Также компания отмечает, что демонстрируемое запоминание статей с помощью специальных промптов выглядит как намеренная манипуляция — ведь выбраны очень старые статьи, которые перепечатывались и цитировались в других изданиях множество раз. Но даже попытки воспроизвести новости обычно не добиваются успеха — по крайней мере не с первого раза. То есть нужно генерировать по 10-20 ответов, чтобы найти текст, схожий с оригиналом. А даже если получается — то, во-первых, это не полноценная замена NYT, а во-вторых уж точно не самый главный сценарий использования GPT (что опять же приводит нас к мыслям о fair use — ведь по сути GPT это существенная трансформация оригинального материала, а не его замена)

Поэтому весь пост оканчивается следующим заявлением:
— Мы считаем иск The New York Times безосновательным

Ждём развития ситуации и оценок юристов 🤭

Neural Shit 2024-01-08 16:49:13

Игровые кроссоверы, которых нам не хватает.

отсюда

gonzo-обзоры ML статей 2024-01-07 23:41:54

Продолжая тему с GFlowNets, Йошуа Бенжио набирает постдоков, исследователей и инженеров в свою группу по работе над AI Alignment с вероятностными гарантиями безопасности. И отдельно ищет себе сильного постдока на тему про GFlowNets с применением к AI Safety. Пишите!

"I am looking for postdocs, research engineers and research scientists who would like to join me in one form or another in figuring out AI alignment with probabilistic safety guarantees, along the lines of the research program described in my keynote (https://www.alignment-workshop.com/nola-2023) at the New Orleans December 2023 Alignment Workshop.

I am also specifically looking for a postdoc with a strong mathematical background (ideally an actual math or math+physics or math+CS degree) to take a leadership role in supervising the Mila research on probabilistic inference and GFlowNets, with applications in AI safety, system 2 deep learning, and AI for science.

Please contact me if you are interested."


https://www.facebook.com/yoshua.bengio/posts/pfbid02EhTdd3HFEfhj2qfTqCKMrJCqjHPa9gu8A8tm8d6jrsqpN5znG2nGYonFEtLob5Bxl

Также смотрите его тематический кейноут про AI Alignment и немного про GFlowNets:

https://slideslive.com/39014230/towards-quantitative-safety-guarantees-and-alignment

Neural Shit 2024-01-07 16:01:27

Киберпанк, который мы заслужили

gonzo-обзоры ML статей 2024-01-06 17:45:20

Phi-2 has the MIT License finally!

https://huggingface.co/microsoft/phi-2

gonzo-обзоры ML статей 2024-01-06 15:01:59

Beyond Chinchilla-Optimal: Accounting for Inference in Language Model Scaling Laws
Nikhil Sardana, Jonathan Frankle
Статья:https://arxiv.org/abs/2401.00448

Продолжаем тему про оптимальные режимы обучения LLM с учётом инференса и выход за границы рецептов Шиншиллы.

Инференс -- основной этап жизненного цикла большинства моделей. В области software engineering это полностью аналогично этапу эксплуатации программы, именно там она проживает большую часть своей жизни. Разработка и обучение -- это так, короткий момент детства. Особенно это важно для открытых моделей, да и для закрытых тоже, когда они деплоятся на кучу устройств.

Суперзакрытая GPT-3 в 2021 генерила 4.5B слов в день (https://openai.com/blog/gpt-3-apps), а у Character.ai в конце 2022 эта цифра была 1B (https://blog.character.ai/introducing-character/). После запуска ChatGPT и с новыми улучшенными GPT-3.5 и 4 Turbo цифры наверняка значительно выше. Плюс если перевести в токены, то это ещё раза в полтора надо умножить для английского (который, наверное, основной язык, для других эта цифра заметно выше).

Вообще, если предположить, что популярная модель генерит 10B токенов в день (допустим, что токены промпта сюда включены), то при обучении на 3T токенов (как TinyLlama, https://t.me/gonzo_ML/2251) цифры обработанных токенов сравняются через 300 дней. При нынешней скорости прогресса, за год модель может успеть и задепрекейтиться… Так, GPT-4 вышла в марте 2023 (https://t.me/gonzo_ML/1383), а более новая GPT-4 Turbo в ноябре 2023 (https://t.me/gonzo_ML/2055), и она в целом лучше и, что ещё более важно, сильно дешевле старой модели. Оставляем за скобками, что обучены они были ещё сильно раньше, и что для обучения новой модели может использоваться старая.

В общем при всей сложности экономики процесса, инференс важен, и его надо учитывать наравне с обучением.

Первый большой прорыв в поиске оптимальных режимов (с точки зрения вычислительного бюджета, размера модели и количества токенов в обучении) произошёл в работе про Chinchilla (https://t.me/gonzo_ML/1216). После той работы многие начали использовать найденные в ней рецепты, где количество токенов должно скейлиться в той же пропорции, что и число параметров модели. Некоторые модели при этом уже выходили сильно за этот рецепт, те же LLaMa и Llama 2. На обучении различных моделей было видно, что графики лосса и качества решения downstream задач не выходят на плато, можно продолжать и дальше.

В этом месте возникает логичный trade-off, 1) обучить большую модель по [уже] классическим рецептам Шиншиллы, или 2) обучить модель поменьше размером, но на большем числе токенов. Если итоговое качество одинаковое, то у второго варианта есть выигрыш в инференсе -- сэкономим кучу ресурсов, а может также и откроем новые рынки, если модель можно гонять на устройствах меньшей мощности, куда большая модель не лезет.

Очень прав был Ричард Хэмминг, когда он рассматривал эволюцию железа, софта и приложений в контексте экономики (если ещё не читали его “The Art of Doing Science and Engineering”, то это must read, https://press.stripe.com/the-art-of-doing-science-and-engineering):

“Computers have opened the door much more generally to the mass production of a variable product, regardless of what it is: numbers, words, word processing, making furniture, weaving, or what have you. They enable us to deal with variety without excessive standardization, and hence we can evolve more rapidly to a desired future!”

Эта цитата, мне кажется, тоже очень в тему того, что сейчас происходит вокруг AI, Foundation Models и LLM в частности.

Возвращаясь к статье, авторы обновляют scaling laws Шиншиллы, чтобы учесть в них массовый инференс и выступают за более долгое обучение меньших моделей. В формулировке они исходят из того, что количество запросов на инференс не зависит от размера модели (при условии одинакового качества).

gonzo-обзоры ML статей 2024-01-06 15:01:59

Цель: минимизация суммарных FLOPS на обучение и весь инференс. Для трансформера с N параметров используется стандартная аппроксимация для FLOPS: 6N на токен обучения и 2N на токен в инференсе, соответственно нужно найти argmin 6NDtr + 2NDinf, где Dtr и Dinf -- число токенов в обучении и инференсе соответственно.

Задача в работе про Шиншиллу ставилась как “при заданном вычислительном бюджете найти оптимальные N (параметры) и Dtr (токены), минимизирующие лосс предобучения”.

В текущей работе задача иная “при заданном лоссе найти N и Dtr, минимизирующие стоимость компьюта”. Стоимость компьюта зависит от будущего инференса, так что его надо оценить до обучения.

Полученные графики показывают отношение предлагаемых работой FLOPs, параметров и токенов предобучения к значениям оптимальным для Шиншиллы. Это представлено в виде кривых для разных значений лосса и потребностей в инференсе. Когда потребности в инференсе невелики, то Шиншилла оптимальна.

Например, для модели уровня качества Chinchilla-7B при потребности в инференсе 10^11 токенов оптимальнее обучить 6B модель на 1.18x оригинальных данных. Этот выбор приведёт к уменьшению итоговых FLOPs.

Но интереснее конечно не FLOPs уменьшать, а деньги. На инференсе и на обучении загрузка (Model FLOPs Utilization, MFU) железа очень разная, последовательная генерация приводит к особенно низкой загрузке. К тому же на инференсе можно сделать квантизацию и на том же железе более эффективно это считать. А ещё можно и инференс на другом более дешёвом железе делать…

В обновлённую формулу добавляются MFU обучения и инференса, а также цена за FLOPs, получаются другие кривые (подразумевая обучение на A100-80GB, инференс на A100-40GB с квантизацией INT8 и по ценам Lambda Labs). Короче, можно экономить. В некоторых условиях до 50%+.

Тренд на обучение меньших моделей подольше вовсю цветёт и разворачивается!

gonzo-обзоры ML статей 2024-01-05 22:47:32

[Singapore] TinyLlama: An Open-Source Small Language Model
Peiyuan Zhang, Guangtao Zeng, Tianduo Wang, Wei Lu
Статья:https://arxiv.org/abs/2401.02385
Код: https://github.com/jzhang38/TinyLlama

В полку SLM (Small Language Models) прибыло! TinyLlama — это моделька размера 1.1B, обученная на 3T токенов! Для сравнения намного большую 70B Шиншиллу (https://t.me/gonzo_ML/1216) обучали на меньшем датасете в 1.4T токенов. По рецептам Шиншиллы оптимальное обучение для 1B модели было бы на 20B токенов (https://t.me/gonzo_ML/1223), а тут 3T, почувствуйте разницу! Кажется, это в первый раз для настолько малой модели.

Из других SLM за последнее время были, например, Phi 1 и 1.5 с 1.3B (https://t.me/gonzo_ML/1871), Phi 2 c 2.7B (https://t.me/gonzo_ML/2173) или Gemini Nano с 1.8B и 3.2B (https://t.me/gonzo_ML/2117).

Это интересное направление, потому что в целом все бегут за большими размерами, и ниша малых моделей недоисследована, а с учётом важности инференса они не менее важны. При этом давно уже есть наблюдения, что можно пообучать модель сильно за пределами compute optimal рецептов Шиншиллы, и это продолжает приносить плоды.

Архитектура классическая, декодер трансформера по рецепту Llama 2 с её же токенизатором. Данные собрали из SlimPajama (почищенный вариант RedPajama) и Starcoderdata, суммарно 950B токенов, так что обучали примерно 3 эпохи. Сэмплили датасеты в пропорции 7:3.

При этом задействовали разные продвинутые штуки и взяли RoPE энкодинги, RMSNorm pre-norm, SwiGLU, grouped-query attention.

Для скейлинга и ускорения задействовали Fully Sharded Data Parallel (FSDP) из Пайторча, свежий Flash Attention 2, заменили fused SwiGLU из xFormers на оригинальный и сэкономили памяти (это, кстати, для меня удивительно, мои первые ожидания, что fused реализация должна быть лучше) -- это позволило уместить модель в 40Gb памяти.

В итоге на A100-40G получили training throughput в 24,000 токенов в секунду. Для обучения на 300B токенов TinyLlama-1.1B требуется 3,456 A100 GPU-часов, в то время как у Pythia эта цифра равна 4,830 и у MPT’s вообще 7,920 часов.

Использовали для обучения Lit-GPT (https://github.com/Lightning-AI/lit-gpt, базируется на nanoGPT). AdamW, cosine learning rate, warmup, gradient clipping.

Обучалось 90 дней на 16 A100-40G GPU. По ценам AWS на p4d (https://aws.amazon.com/ec2/instance-types/p4/) это было бы примерно $140k между прочим.

Результат хорошо бьёт бейзлайны в лице OPT-1.3B, Pythia-1.0B и Pythia-1.4B. На MMLU правда хуже. С увеличением вычислительного бюджета перформанс продолжает расти, не понял только почему он более шумным становится.

Кажется, работа -- верх открытости. Весь код обучения, промежуточные чекпойнты, все детали обучения доступны.

Респект!

Сиолошная 2024-01-05 16:07:14

Типичное мейд-робо-кафе в 2024м в офисе Google, ничего необычного.
Видео ускорено в 10 раз.

Сиолошная 2024-01-05 16:06:22

Наглядное описание процесса работы системы.

Самое крутое, что с прокачкой VLM/LLM будет расти и сложность задач, их детальность, качество инструкции и критика. Скоро Gemini-Pro засунут как движок, тогда заживём!

Сиолошная 2024-01-05 16:05:15

Когда-то давно OpenAI занимались направлением Robotics, но его пришлось закрыть. Ilya Sutskever говорил, что основной преградой были данные — реальные или синтетические — для обучения роботов. В последнее время всё больше и больше прорывов случается именно в этой области — я уже писал и про RT-X, и про работу из Berkeley, и вот даже вчерашний пост был про обучение навыкам из 50 демонстраций.

Вчера DeepMind дропнули блогпост «Shaping the future of advanced robotics», где описывают сразу 3 (!) работы, которые лягут в основу следующей Foundational Model. Мне захотелось поделиться с вами одной очень интересной.

AutoRT: Harnessing large models to better train robots

AutoRT — система, использующая существующие модели для масштабируемого развертывания флота роботов в совершенно новых сценариях с минимальным контролем человека (💀 может не надо?). Давайте по порядку:
1. Робот катается по месту и снимает окружение на камеру
2. Vision-Language-Model (VLM) делает описание пространства
3. LLM генерирует текстовое описание задачи, с которой роботу нужно справиться
4. LLM описывает пошаговый процесс выполнения задачи
5. Описание подвергаются критике со стороны другой LLM, использующей — ВНИМАНИЕ —  конституцию, обеспечивающую более безопасное поведение. И да, часть конституции — это пересказывание Законов Азимова (но также добавляется и описание робота, что у него одна рука — поэтому критик будет убирать задачи, требующие двух робо-кутяп)
6. Прошедшие критику и автоматически отобранные задачи передаются роботу на исполнение
7. Данные собираются в общий пул, который может использоваться для дообучения роботов (а пока просто оценивается разнообразие датасета)

Система предусматривает, что для малой части задач может вмешаться человек (скажем, отсматривать 10% задач), но это необязательный компонент.

Как вы понимаете, система не зависит от количества роботов, и может запускаться параллельно на огромном флоте — в случае DeepMind это было всего лишь 20 машинок. Можно оставить 100500 роботов на складе на полгода — и появятся и грузчики, и прорабы, и (наверное) халтурщики, коротающую смену в кафе.

Очень жду RT-3, обученную на десятках тысяч разных задач — ведь из прошлых работ мы знаем, что это существенно увеличивает качество и поднимает планку «понимания» роботом ситуаций и инструкций. Ну и ждём симметричного ответа от Tesla до конца. 2024 🙂

gonzo-обзоры ML статей 2024-01-05 14:53:42

Приготовьтесь к запуску GPT Store на следующей неделе!

https://techcrunch.com/2024/01/04/openais-app-store-for-gpts-will-launch-next-week/

"GPTs effectively democratize generative AI app creation — at least for apps that use OpenAI’s family of models. In fact, GPTs could kill consultancies whose business models revolve around building what are essentially GPTs for customers."

Neural Shit 2024-01-05 11:00:34

Если учиться, то не ради галочки, корочки или мамки с папкой — а нормально, ради будущего. И так, чтобы было не нудно, а интересно и реально полезно!

Один из лучших вариантов — Журнал Яндекс Образования. Это хаб учёбы будущего, который вдохновляет на новое в образовании и IT.

❗️Тут и посты с подзарядкой, чтобы точно хватило сил до конца года
❗️И разбор технологий будущего, которые развиваются прямо сейчас
❗️И лайфхаки от студентов и сотрудников Яндекса, чтобы прокачивать себя в учёбе и карьере

Подписывайтесь на Журнал Яндекс Образования, чтобы стать частью фьюче-комьюнити, где образование вдохновляет, технологии увлекают, а каждая статья — новый шаг навстречу будущему лучше.

#реклама

Метаверсище и ИИще 2024-01-04 20:38:43

На следующей неделе запускается GPT Store!
Пришло письмо. "В начале года" у OpenAI -это реально в начале года.

Сиолошная 2024-01-04 20:32:38

Кулибины из Stanford University x DeepMind из говна и палок собрали робота за $32k

Он управляется нейросеткой с ноутбука с GPU 3070TI и способен обучаться сложным задачам всего за 50 демонстраций. «Демонстрацией» тут называется последовательность действий, осуществляемая человеком со специальными контроллерами в руках (см. тут и на видео). Авторы тестировали робота на многих задачах, и в целом в более чем 50% случаев у него всё получается после шага обучения «подражанию» людям.

Делает ну буквально всё: готовит, заправляет стиралку, подметает, заправляет подушку в наволочку, протирает мебель... был бы у меня такой робот — я б может и не женился

🍷

Инструкция «собери сам» доступна тут, в основе лежат покупные робо-детали и распечатанные на 3D-принтере компоненты.

Больше демок: тут, тут, тут и тут. Тем, кто досмотрит приложенное видео до конца — бонус с нарезкой людей фейлов бота при готовке. Тут платформой управляет человек (пока), то есть происходит та самая демонстрация.

———————————
Начинаем 2024й год в AI с хороших новостей для сотрудников фастфуда☕️

Neural Shit 2024-01-04 19:32:46

Finally нейрогороскопы

gonzo-обзоры ML статей 2024-01-04 14:00:59

Вирт умер :(

https://twitter.com/Bertrand_Meyer/status/1742613897675178347

gonzo-обзоры ML статей 2024-01-03 23:49:26

"Извинити"

Neural Shit 2024-01-03 19:52:13

Киберпанк, который мы заслужили

Neural Shit 2024-01-03 11:39:12

Продолжаем рубрику с полезными нейронными лайфхаками. Сегодня боремся с похмельем, а помогает нам в этом llama 7b своими советами:

>>Отличная идея - персональный похмелье-предотвращающий робот, который следит за вашим употреблением алкоголя и избивает вас при превышении нормы.

>>Перед тем как пойти спать, положите под подушку кусок лимона и сверток с чесноком – запах этих продуктов отпугнёт похмельные бактерии.

>>Попробуйте принять душ, стоя на одной ноге и поющи песню про летучих мышей. Вам будет так смешно, что похмелье отступит!

>>Попробуйте применить маску для лица из керосина, острых перцев и ртути. Это создаст новые проблемы и вы забудете о похмелье.

>>Поищите у себя сзади кнопку "Hard Reset" и нажмите ее. Это вернет вас к заводским установкам и избавит от похмелья.

>>Маска для лица из мороженого: Приложите маску для лица из замороженного мороженого. Холод поможет снять отечность, а аромат мороженого поднимет настроение.

>>Запаситесь свежими огурцами и постройте себе «огуречный гроб». Огурцы впитают токсины и увлажнят кожу.