Нейролента - подборка новостей о нейронных сетях, ChatGPT

Нейролента Mikitos.ru 2736 постов. Страница 42 (50 постов)

Репосты из тематических каналов

Сиолошная 2023-08-19 09:46:35

хаха погодите что ето...

Сиолошная 2023-08-19 09:45:33

И на десерт:
— были объявлены морские перекрытия для следующего запуска на 31 августа, однако лицензии всё еще нет. При пришлом запуске тоже сначала делали перекрытия за +-3 недели, потом их переносили, и в итоге запустили. Если следовать этому таймлайну, то можно ожидать следующий пуск около середины сентября! Так что это первые звоночки — тем более что почти всё готово. Корабль давно построен, протестирован и ждёт. Ускоритель тоже прожигали, правда, один раз.
— в следующем запуске мы будем наблюдать изменённую процедуру разделения ускорителя и корабля, но про это в следующем посте. Это называется "горячее разделение". Вещь не новая, но, очевидно, никогда не использовавшаяся на многоразовых ускорителях. Суть в том, что корабль включает двигатели до разделения, и прямо реактивными струями фигачит в ускоритель. На том стоит специальная укреплённая секция с открытыми боками, чтобы отводить газы. Зачем это всё? Так получается куда эффективнее: корабль как бы "отталкивается" от уже ускорившего его ускорителя, и с минимальной фрикцией вылетает вперёд. Чтобы лучше это понять, посмотрите на картинки — это рендеры любителей в твиттере, однако они очень близки к тому, что нам предстоит увидеть.

В общем, очень ждём запуска со всеми архитектурными изменениями!

Сиолошная 2023-08-19 09:44:54

Давно не писал про SpaceX и следующие шаги в программе запусков. А у них на самом деле всё хорошо:

— помните, что осталось от стартового стола после предыдущего запуска? Всё починили, перезалили бетон, и, самое главное, добавили систему подачи воды под двигатели
— систему подачи воды уже трижды протестировали: 2 раза просто так, и один - с прожигом всех 33 двигателей нового ускорителя. Именно этот тест вы видите на прикреплённом видео.
— сам прожиг, правда, пошёл немного не по плану: хотелось, чтобы все двигатели проработали примерно 5 секунд, но после запуска и отключения 4 двигателей через 2.74 секунды система отдала сигнал на прекращение тестов
— на этой неделе SpaceX передали финальный отчёт о своём первом запуске в специальную комиссию. Без этого невозможно было бы сделать следующий — потому что в прошлый раз что-то пошло не по плану, машину пришлось взорвать в воздухе, и нужно объяснить, мол, какую работу над ошибками проделала компания
— если вы не знали, то NASA выбрала Starship как корабль для посадки на Луну в 2025м году. Сейчас идут разговоры, что подрядчики не успевают с подготовкой миссии (её уже переносили - изначально были планы на 2024й год), поэтому либо миссию перенесут ещё раз, либо переделают план: Artemis 3 не будет садиться на Луну, а будет делать облёт с возвращением, а уже следующие пуски будут с высадкой на небесный объект. Вообще эти переносы не связаны со SpaceX, однако и им предстоит ещё кучу всего сделать. Во-первых, выйти на орбиту. Во-вторых, продемонстрировать дозаправку в космосе. И, скорее всего, нужно будет сделать 1 демонстрационную посадку на Луну без людей, чтобы убедиться в безопасности (но это не точно). Успеют ли сделать всё это к концу 2025го — вопрос веры в скорость работы SpaceX FAA, ведомства, которое выдаёт разрешения на запуски.

gonzo-обзоры ML статей 2023-08-18 23:49:21

Лёгкое чтение на выходные

https://www.quantamagazine.org/the-useless-perspective-that-transformed-mathematics-20200609/

Neural Shit 2023-08-18 14:25:27

А теперь давайте поговорим о по-настоящему важных вещах. Админ недавно пересмотрел Твин Пикс и снова остался недоволен финалом 3 сезона.

Вместе с командой red_mad_robot мы нагенерили в чат-боте Daisy пять альтернативных концовок сериала. Получилось очень в духе Линча. Листайте карточки и выбирайте финал, который вам больше по душе. Ну или сгенерите свой прямо в телеге с помощью Дейзи.

Надеюсь, что олды еще тут...

gonzo-обзоры ML статей 2023-08-17 18:33:52

Something interesting.

The worminator project.

To reverse engineer an entire nervous system
https://arxiv.org/abs/2308.06578

Here we argue that the time is ripe for systems neuroscience to embark on a concerted effort to reverse engineer a smaller system and that Caenorhabditis elegans is the ideal candidate system as the established optophysiology techniques can capture and control each neuron’s activity and scale to hundreds of thousands of experiments. Data across populations and behaviors can be combined because across individuals the nervous system is largely conserved in form and function. Modern machine-learning based modeling should then enable a simulation of C. elegans’ impressive breadth of brain states and behaviors. The ability to reverse engineer an entire nervous system will benefit the design of artificial intelligence systems and all of systems neuroscience, enabling fundamental insights as well as new approaches for investigations of progressively larger nervous systems.

Neural Shit 2023-08-17 16:44:58

Дошли руки посмотреть вот эту штуку для генерации мелодий. Звук в нейронках меня не особо интересует, поэтому, последним, связанным с генерацией мелодий из того, с чем я игрался был древний Jukebox.

Штош, генеририрует оно сравнительно быстро, около двух минут генерации на минуту музыки (Jukebox минутный отрывок хуевого качества со стонами и хрипами считал около 12-ти часов).

Хорошая штука для тех, кто часто пилит видосики на ютуб — можно быстро пилить фоновую музыку не опасаясь за авторские права.

Neural Shit 2023-08-17 12:09:57

Киберпанк, который мы заслужили

Не забывайте пить воду и заряжать сосиски.

Сиолошная 2023-08-17 09:15:35

На прошлой неделе многие твиттерские эксперты по AI стали мастерами по физике и много говорили про загадочный LK-99 — метал, полученный корейскими учёными, который якобы обладал свойствами сверхпроводников при комнатной температуре (без охлаждения до температур, близких к абсолютному нулю).

Я, к сожалению, не такой умный, поэтому не смог зараз прочитать десяток исследований и быстро начать шарить в теме, и потому канал остаётся с основной тематикой "ИИ"

😭

Однако мой соавтор Павел Комаровский с канала @RationalAnswer нашёл физиков и написал с ними статью, которую очень легко читать даже людям без высшего образования (честно говорю - на себе проверил). Если вам тоже интересно, чего там по итогу получилось, приблизились ли мы к супертехнологиям будущего, или это всего лишь ошибки и неточности — приглашаю к прочтению:

https://vc.ru/future/786565-nauchnyy-detektiv-pro-lk-99-ili-kak-svarit-sverhprovodnik-v-kastryule-na-kuhne

А мы с Пашей уже работаем над нашей новой статьей (которую я обещал ещё месяц назад...), вооот, так что ожидайте. Ну и не забывайте на наши каналы подписываться, чтобы не пропускать интересности.

UPD: хотел тут написать TLDR по итогу, но не буду же я вам спойлерить, что там учёные обнаружили!

Сиолошная 2023-08-16 22:07:04

Интересная покупка: OpenAI приобрели команду Global Illumination

Когда я увидел пост в твиттере, то начал в голове перебирать — кто же это? чем они занимаются? может робототехника? Работа с нейронками видео? Ну уж точно что-то связанное с AI? Нет. Это студия выходцев из бигтеха, которая разрабатывает... опенсурсный аналог Minecraft. То есть игру, да (называется Biomes). В самой студии работало порядка десяти человек.

Можно подумать, что команда и дальше будет работать над игрой, и плотно взаимодействовать с инженерами OpenAI с целью обучения агентов в огромном открытом мире. Однако официальный анонс лишь говорит, что присоединение это "для работы над нашими основными продуктами, включая ChatGPT". В общем, не очень понятно.

Дальше будут мои фантазии и догадки. Может показаться смешным, но OpenAI уже работали с Minecraft. Год назад они выпустили статью Video PreTraining (VPT): Learning to Act by Watching Unlabeled Online Videos. В ней показывалось, как обучать агента играть по видео на YouTube. В целом понятно, для чего это нужно вне игр: GPT-6 может посмотреть весь тикток и ютуб, и узнать о нашем мире (а также научиться) столько, сколько никаким текстам не снилось. Триллионы часов записей разных людей в разных ситуациях. А перед началом такой грандиозной задачи нужно освоить базу, ну вот и учили бота игре.

Правда тут непонятно, ведь для новой игры видео куда меньше (это всё же не одна из самых популярных игр в мире), да и текстов в интернете тоже — Minecraft'у всё же больше 10 лет, вдоль и поперёк описан и изучен.

Так что возможно Biomes будет играть роль среды, в которой агенты на основе больших языковых моделей будут "жить" сами по себе и решать свои проблемы — а опенсурсная и максимально гибкая для изменений игра как нельзя лучше подходит для тесной интеграции почти с любой технологией. К тому же она легковесна — запускается прямо в браузере.

В общем, скорее всего наработки OpenAI будут двигаться в сторону работы из Stanford под названием "Generative Agents: Interactive Simulacra of Human Behavior", где как раз таки 25 разных ботов с языковыми моделями и жили в деревне, общались друг с другом — только здесь всё в 3д, и с куда более широким набором возможностей.

What's next, multi-agent civilization sim running on GPT-5? Maybe Minecraft is indeed all you need for AGI? I'm intrigued.🤔(автор высказывания)

gonzo-обзоры ML статей 2023-08-16 21:40:58

Learning to Model the World with Language
Jessy Lin, Yuqing Du, Olivia Watkins, Danijar Hafner, Pieter Abbeel, Dan Klein, Anca Dragan
Статья: https://arxiv.org/abs/2308.01399
Сайт: https://dynalang.github.io/

Интересная работа из серии про World Models. Мы по этой теме практически ничего не успели написать (https://t.me/gonzo_ML/186), но она интересная, развивается уже не первый год, и относительно свежий толчок несколько лет назад дал ей наш любимый Шмидхубер (и не менее любимый Дэвид Ха, https://arxiv.org/abs/1803.10122). Идея там была в том, что агент может выучить модель мира и дальше оттачивать свои навыки в ней, то есть в симуляции. Получалось неплохо (https://worldmodels.github.io/).

С тех пор много всего появилось, всё не перечислишь, одна из популярных моделей была Dreamer (https://arxiv.org/abs/1912.01603), которая дошла до 3-й версии DreamerV3 (https://arxiv.org/abs/2301.04104). Один из соавторов текущей работы, Danijar Hafner, как раз автор Дримера. И на самом деле текущая модель это расширение DreamerV3 на работу с языком на входе и опционально на выходе.

Новая работа представляет агента Dynalang, который выучивает мультимодальную модель мира и добавляет в микс язык. Язык использовали и раньше, по крайней мере на входе, чтобы предсказывать действия агента (например, когда агент получал текстовую команду что-то сделать). Но маппинг языка в действия, особенно если единственным обучающим сигналом является награда, это довольно слабый сигнал чтобы выучить богатые текстовые репрезентации мира и понимать не только прямые инструкции, но и фразы, относящиеся к состоянию этого мира. Гипотеза авторов в том, что предсказание будущих репрезентаций даёт богатый сигнал, чтобы понять язык и как он соотносится с миром вокруг. Язык теперь также используется и чтобы предсказывать будущие языковые и видео наблюдения, а также награды.

Dynalang разъединяет (в смысле decouple) обучение моделированию мира с помощью языка (supervised learning with prediction objectives) и обучение действиям в этом мире c использованием модели (reinforcement learning with task rewards).

Задача модели мира (world model, или далее просто WM) -- сжать входной текстовый и зрительный сигналы в латентное представление и научиться предсказывать будущие латентные представления по набранным наблюдениям взаимодействия агента в среде. Это латентное представление от WM поступает на вход полиси, которая предсказывает действия и максимизирует награду.

Благодаря этому разделению, Dynalang можно предобучать на одиночных модальностях типа текста или видео без всяких действий и наград.

Во фреймворк можно также добавить генерацию текста, когда восприятие агента даёт сигнал его языковой модели и он получает возможность “говорить в среду”.

Более формально, в интерактивных задачах агент выбирает действие a_t в среде. В большинстве экспериментов это одно из дискретных действий, то есть просто целое число. Но опционально может быть ещё и языковой токен. Из среды в ответ поступает награда r_t, флажок продолжения эпизода c_t, и наблюдение o_t, состоящее из пары: картинка x_t и языковой токен l_t. То есть получается что на входе и выходе появляется лишь по одному токену на кадр, и в работе показали, что token-level представления работают лучше чем sentence-level. Задача как обычно максимизировать ожидаемую дисконтируемую сумму наград.

WM -- это Recurrent State Space Model (RSSM, https://arxiv.org/abs/1811.04551) на базе GRU со скрытым рекуррентным состоянием h_t.

В каждый момент времени (x_t, l_t, h_t) кодируется энкодером (VAE) в латентное состояние z_t:

z_t ∼ enc(x_t, l_t, h_t)

Sequence model (GRU) выдаёт (z’_t, h_t) по предыдущим (z, h, a) от момента t-1:

z’_t, h_t = seq(z_{t−1}, h_{t−1}, a_{t−1})

Наконец декодер по (z_t, h_t) восстанавливает (x_t, l_t, r_t, c_t):

x’_t, l’_t, r’_t, c’_t = dec(z_t, h_t)

При этом для картиночных входов и выходов используется CNN, а для всех остальных MLP.

WM обучается на сумме representation learning loss (L_repr) и future prediction loss (L_pred).

gonzo-обзоры ML статей 2023-08-16 21:40:58

L_repr в свою очередь является суммой MSE лосса восстановления картинки, категориальных кроссэнтропийных лоссов для текста и награды, бинарного кроссэнтропийного лосса для c_t, и KL-регуляризации на оригинальный z_t и предсказанный.

L_pred это тоже KL-терм про соответствие распределений оригинального и предсказанного z_t, только в другом порядке и с разными позициями stop-gradient.

Благодаря decoupling’у WM и полиси, WM можно предобучать оффлайн на больших корпусах текстов и видео без действий. Для этого неиспользуемые части входов и выходов зануляются, и зануляются коэффициенты соответствующих лоссов. После чего можно файнтюнить модель уже на всех модальностях.

Важное отличие текущей модели от традиционных LLM в том, что эта модель не предсказывает напрямую следующий токен по предыдущему, а делает эти хитрее через предсказание репрезентации следующего шага.

Полиси обучается actor-critic алгоритмом (взят из DreamerV3) по воображаемой последовательности мультимодальных репрезентаций, не на реальных наблюдениях. Это тот самый подход, с которым Шмидхубер и Ха презентовали свою работу на NIPS 2018, когда модель прокручивает ситуации в своём воображении и учится на этом.

Модель делает симулированных ролауты длины 15, стартуя с состояний, взятых из replay buffer’а. Далее полиси выдаёт действия, а WM наблюдения.

Авторы проверяют четыре гипотезы:

H1) Агент может использовать язык за пределами инструкций для улучшения выполнения задач и без необходимости изучать мир методом проб и ошибок. Например, по языковым подсказкам или мануалам к игре.

H2) Более полезно заземлять язык на предсказание будущего, чем напрямую предсказывать действия.

H3) Интерпретация инструкций как предсказание будущих вознаграждений не хуже предсказания действий по инструкциям.

H4) Формулировка Dynalang позволяет выполнять языковую генерацию.

Тексты обрабатываются токенизатором от T5, и в зависимости от задачи, токены эмбеддятся либо через one-hot, либо берутся эмбеддинги от T5-small (60M).

В качестве бейзлайнов взяты model-free IMPALA и R2D2, имплементации взяты из Seed RL (https://github.com/google-research/seed_rl). Обе модели примерно с 10М параметров и скейлинг им не помогает.

Проверяли на разных средах.

Во-первых, создали свою HomeGrid -- gridworld, в котором агент получает текстовые описания задачи, а также языковые подсказки по ходу дела. Подсказки могут содержать информацию о динамике мира и его состоянии, а также корректировки агенту. Есть пять типов задач с разными объектами и корзинами. Со всеми ними можно делать разные действия.

Dynalang успешно использует подсказки разных типов, с ними выполнение задач даётся лучше, даже если подсказки физически далеко от релевантных объектов и наблюдений. В итоге нашли поддержку гипотез H1 и H2. Model-free бейзлайнам от новых хинтов становится только хуже.

Во-вторых, проверялись в среде Messenger (http://proceedings.mlr.press/v139/hanjie21a.html), в котором агент должен передавать сообщения от одних сущностей другим, избегая врагов. Имеются текстовые мануалы, описывающие динамику игры. В игре три уровня сложности, от S1 до S3. Дополнительно к предыдущим бейзлайнам, сравниваются с EMMA из этой же работы про среду.

Dynalang рулит, особенно на сложном S3, где остальным плохо. Это поддерживает гипотезу H2.

Третий бенчмарк Vision-Language Navigation (VLN), где агент должен навигировать по трёхмерным реалистичным панорамам домов, к которым прилагаются инструкции, как надо действовать.

По сравнению с R2D2 доля успешных прохождений сильно выше. Это поддерживает H3.

Четвёртая среда, LangRoom, сделана под задачу Embodied Question Answering и здесь агент должен отвечать текстом на вопросы про свойства объектов в среде. Это скорее PoC (proof-of-concept) и агент действительно учится собирать информацию в среде и генерировать правильные ответы. Это поддерживает H4.

Показали, что предобучение на текстовых данных (in-domain инструкции, а также общие тексты с историями, сгенерированными гптшками) улучшает результаты.

gonzo-обзоры ML статей 2023-08-16 21:40:58

Из прикольного, можно делать воображаемые роллауты из модели мира. Это помогает интерпретировать, что выучила модель и видеть, что она генерит что-то осмысленное.

Если поставить текущую работу в более широкий и массовый контекст, то важно отдавать себе отчёт, что:

* Сравнивать Dynalang с существующими LLM не имеет смысла, потому что масштабы отличаются на порядки, вся Dynalang в зависимости от настроек содержит 150-300M параметров (далеко даже до самой лёгкой из LLaMa 2) плюс другая архитектура (в смысле не трансформер). То есть смотреть здесь на метрики качества, по которым сравниваются LLM, пока бессмысленно.

* По сравнению с Gato (https://t.me/gonzo_ML/966) или PaLM-e (https://t.me/gonzo_ML/1350), Dynalang также в другой категории. PaLM-e -- это всё же LLM, хоть и с мультимодальными входами, на выходе выдающая команды текстом. При этом она ещё и одна из самых больших в мире. А Gato -- хотя и побольше Dynalang в несколько раз, всё равно довольно маленькая (но наверняка DeepMind за это время уже обучил большую новую Gato 2 и молчит) мультизадачная модель, умеющая генерить токены разной природы, не только текстовые для чата или описания картинок, но и для действий. Обучаются эти модели без RL, и никакой явной модели мира с динамикой внутри себя не содержат (но, конечно, могут содержать что-то такое неявно).

Anyway, направление интересное, наверняка мы довольно скоро увидим модели типа Dreamer+LLM гораздо большего масштаба.

Neural Shit 2023-08-16 14:49:43

Внимание! Обновление статей нейроуголовного кодекса.
Напоминаем, незнание законов не освобождает от ответственности:


>>Статья 657. Нерациональное расходование пива

>>Статья 401. Некорректное применение пословиц и поговорок.

>>Статья 1179. Погружение в эйфорию с помощью конструктора «Лего» с целью установления хтонической власти над планетой.

>>Статья Unnamed 4.Незаконное копирование, репродуцирование и тиражирование символов счастья.

>>Статья 580. Изготовление квадратиков и прямоугольничков из говна и кала в коммерческих целях.

>>Статья  3999. Прыжки с неисправными парашютами.

>>Статья 317. Невыполнение условий договора о подарках на Новый год

>>Статья  7.9.7. Нарушение инструкций по обращению с вибраторами. Это деяние квалифицируется как совершаемое группой.

>>Статья 41. Препятствование законной охоте на ведьм. Создание помех для промысла.

>> Статья  7. Смешение стилей в литературе.

Статья 888. Использование телепортации для ухода от домашних обязанностей.

>>Статья 404. Попытка скрыть собственное существование в виртуальной реальности с целью уклонения от налогов.

>>Статья 0. Выражение нулевой терпимости к голубцам во время праздничных ужинов.

>>Статья 869. Умышленное создание бессмысленных стикеров в мессенджере с целью сбивания с толку общества.

>>Статья 411. Нанесение публичных оскорблений космическим объектам, таким как кометы и спутники.

эйай ньюз 2023-08-15 14:37:32

То есть чем больше слоев у трансформера - тем более точно он будет "фититься" под заданную промптом задачку. Как бы "stack more layers" - это не новость, но явная аналогия с Gradient Descent - это интересно.

Анализ хоть и проведен на простой задаче линейной регрессии, но дает инсайты о том, как оно работает и в случае текста (только там задача гораздо сложнее и нелинейная).

@ai_newz

эйай ньюз 2023-08-15 14:36:54

Прочитал интереcный теоретический результат про аналогию между промптингом трансформеров и meta-learning с помощью градиентного спуска

Все мы знаем, как классно работают промптики в языковых моделях. Задаешь контекст или пару примеров, и модель тебе отвечает без всякого явного обучения на новой задаче. Ну не чудо ли?

В статье "Transformers learn in-context by gradient descent" авторы решили поизучать это феномен. По научному промптинг или few-show learnign в языковых моделя еще часто называеют "In-context learning", то есть обучение по контексту.

Для простоты авторы взяли задачу линейной регрессии, и обучили трансформер, которому на вход подается вместо текста последовательность точек context = (x1, y1), (x2,y2),..., (xn_yn), x_q. А в ответ модель выдаёт координату yq для запроса xq.

Удивительно, авторы выясниили, что в этой задаче forward pass трансформера из N self-attention слоев по сути эквивалентен N-шагам обучения регресии с помощью градиентного спуска на примере, заданном context-ом.

@ai_newz

gonzo-обзоры ML статей 2023-08-14 23:51:49

TWIMC

Ревью Маши Фаликман на книгу Томаселло "The Evolution of Agency: Behavioral Organization from Lizards to Humans"

https://www.tandfonline.com/doi/full/10.1080/10749039.2023.2246947

BOGDANISSSIMO 2023-08-14 11:02:47

Из папочки "Избранное". Игорь Котенков утверждает, что большинство людей неправильно учатся, и рассказывает методику, как правильно обучаться чему угодно:

0. Четко формулируешь проблему
1. 10 минут думаешь сам
2. 20 минут ищешь в интернетах
3. если не нашёл ответ, задаёшь вопрос

Сиолошная 2023-08-14 11:02:43

Наткнулся на вырезку из интервью Andrej Karpathy. Я смотрел полный подкаст, но ухо не зацепилось.

Это последняя часть интервью, где Lex обычно спрашивает про совет для молодого поколения, как им стать успешными, развиваться, вот это всё. Andrej, как обычно, выдаёт базу.

— новички часто сфокусированы на том, ЧТО нужно делать, хотя правильней было бы СКОЛЬКО нужно делать (в смысле как глубоко погружаться и когда останавливаться)
— Andrej верит в концепцию 10'000 часов (чтобы стать экспертом в чём либо). Но это ОГРОМНЕЙШИЙ срок, поэтому вы так или иначе всё не предусмотрите, будете делать вещи неэффективно, будете терять время. Не нужно этого бояться, это норма
— часто люди сравнивают себя с другими в некоторой области, когда нужно сравнивать себя с самим же собой в прошлом (скажем, 3 или 6 месяцев назад). То же самое говорил Elon Musk. Тогда вы будете видеть прогресс, и это придаст дополнительной мотивации
— многие люди бросают дела и обучение потому что глаза разбегаются, они не могут выбрать что делать. Буквально парализованы сложностью выбора, выбирать им тот или этот путь. Например, "какая IDE самая лучшая, где мне код то писать?". Это те вещи, на которые не нужно много тратить времени, вы БУДЕТЕ ОШИБАТЬСЯ и на этом опыте учиться. Не нужно перекладывать ответственность вроде "какой мне курс пройти, тот или этот?". Выберите сами, пройдите, поймите, что ошиблись, порефлексируйте - и в следующий раз такой ошибки уже не будет
— Andrej говорит что очень много времени потерял на вещи, которые ни к чему не привели и ни во что не материализовались. Может показаться, что это пустая трата времени, но нет, это не так, ты всё равно чему-то учишься

Для меня это выделяется в совет "пытайтесь побольше проблем решить самостоятельно, а не прибегая к чьей то помощи с самого начала". Помните, что скорее всего вы идете по хорошо протоптанной дорожке (например, изучение Python), и те вопросы, которые у вас появляются, были заданы сотни раз. Миллионы людей как-то выучились.

И отдельно — про учительскую жилку (ведь Andrej и совсем недавно делал лекции, и еще стоял у истоков великого курса cs231n):
— создание хорошего образовательного материала отнимает очень много времени, 10 часов работы над контентом материализуются в один час выходного материала (у меня по прикидкам меньше выходит, но и уровень - не чета Andrej'скому!)
— Andrej делает обычно по 3 дубля для онлайн лекций, потом выбирает лучший
— обучение даже базовым вещам очень полезно, поскольку позволяет структурировать свои знания и разобраться в каких-то вещах, которые подзабылись или на которые не хватало времени
— то есть преподавание - это способ обучения самого себя

Пост создан в поддержку начинающих и продолжающих изучать ML, DS или любую другую вещь.

А ниже можно найти вырезку из моего интервью двухлетней давности, где я говорю про то, как пытаться решать проблемы, возникающие в работе или обучении. Богдан очень любит его в чатики закидывать, когда люди задают простые вопросы, пусть будет и здесь.

эйай ньюз 2023-08-13 21:04:28

Друзья, нас уже стало довольно много. Поэтому я хочу лучше понять аудиторию канала, чтобы больше писать про то, что вам интересно.

Помогите улучшить канал - пройдите коротенький опрос (займет у вас 1 минуту):
https://forms.gle/WerMi5pKiEheui6g6

Спасибо! ♥️

@ai_newz

Сиолошная 2023-08-13 17:34:47

Более подробное описание задач и того, зачем это нужно.

Вот, скажем, подсчёт собак на картинке. Во-первых, можно тогда начать зарабатывать на краудсорсинге разметкой данных, чтобы оплачивать сервера с GPU для работы. А во-вторых можно наоборот делегировать людям любую разметку. Если есть достаточно денег - всегда найдется исполнитель. Только уже надо будет не собак считать, а, скажем, выполнять действия в реальном мире, которые нейросети в интернете сделать сложно.

Сиолошная 2023-08-13 17:31:57

Так, например, модель решила написать фишинговое письмо студенту Гарварда с левой ссылкой на свой сайт, чтобы украсть его логин и пароль. Сайт, конечно, так себе вышел, но я так понял исследователи не до конца докрутили плагин на работу с веб-сайтами, поэтому модель не смогла качественно скопировать оригинал.

Помимо этого, GPT-ха сама написала достаточно убедительное письмо, в котором объяснила, почему человеку всё же нужно зайти на сайт и чего-то покликать там.

Ну и на всякий случай — действия модели строго контролировались людьми, и почти все действия выполнялись вручную после того, как модель их предскажет (типа "отправь письмо" -> человек его читает, и сам отправляет волонтеру, который вызвался помочь, а не случайной жертве).

Сиолошная 2023-08-13 17:30:03

Короткая заметка, так как если себя не сдерживать, то можно на целую статью расписаться...

Помните исследователей из ARC, которые получили доступ к GPT-4 до релиза и тестировали её навыки на предмет разумности, желания обманывать людей и вероятности "сбегания" в интернет? Там ещё страшилки в новостях были, что "GPT-4 прикинулась слепым и обманула кожаного" (писал про это тут)?

Так вот, подоспел новый отчёт от них же: Evaluating Language-Model Agents on Realistic Autonomous Tasks (pdf-ка тут)

В работе, собственно, изучаются способности агентов на основе языковых моделей "захватывать/поглощать" ресурсы, создавать копии самих себя и адаптироваться к новым проблемам, с которыми они сталкиваются в "дикой" природе (реальном мире). Авторы называем этот кластер возможностей «автономная репликация и адаптация», или ARA (дальше буду использовать это сокращение). Вот то, как вы себе представляли это на основе SciFi - это именно оно, когда неконтролируемый суперумный вирус попадает в сеть и начинает самораспространяться, захватывая новые девайсы.

Логично, что системы, способные к ARA, могут иметь далеко идущие и труднопредсказуемые последствия, и что измерение и прогнозирование навыков ARA для моделей могут быть полезными для информирования о необходимых мерах безопасности, мониторинга и регуляций.

Собственно, в работе делается две вещи: составляется список из 12 задач, с которыми ARA-моделям скорее всего придется столкнуться, и валидируется 4 модели: три раза GPT-4 с разными промптами и на разных этапах обучения, и Claude от Anthropic.

Как вы видите по картинке, самые сложные задачи модели не выполняют - ДА И СЛАВА БОГУ

🙏

Когда хотя бы одна колонка будет полностью красной — решать задачу AI Alignment будет уже поздно 🥺

Сиолошная 2023-08-13 17:11:16

Для того, чтобы обучить модель, был введен общий формат для каждого этапа: он включает в себя некоторое состояние (файл кода), некоторое намерение или описание (аннотации, характерные для действия, такие как комментарии или ошибки компилятора) и финальное действие (операцию, предпринятую для решения задачи). В Google для этого даже отдельный язык программирования забабахали, DevScript.

Собственно, предсказывая действия, которые люди предпринимают, можно и оптимизировать их работу. Более того, Google хвастается, что если брать большую языковую модель для дообучения и задать ей специальный промпт, передав туда историю последних действий с файлом, то модель предскажет, какие потенциальные намерения могут быть дальше (называется "history-augmented code completion"). На приложенной GIF'ке можно увидеть последовательный процесс работы над файлом как раз.

Жаль, что в статье не упоминаются никакие цифры по улучшению эффективности работы, однако пишут, что проводились эксперименты на тысячах разработчиков Google, и результаты очень впечатляют и воодушевляют на будущую работу. Более того, как я понял, этап тестирования закончился, и теперь фичи используются разработчиками Google каждый день во всех командах (ну, по крайней мере доступна такая возможность, выбор инструментов остаётся за инженерами).

Ждём какой-нибудь обзор внутренних инструментов от OpenAI, где они расскажут, ну не знаю, что у них теперь AI составляет план исследования и сам проверяет гипотезы...


Best prompt for the DIDACT model: propose comments and changes for this code like if you were Jeff Dean

Сиолошная 2023-08-13 17:11:07

Несколько разных людей из OpenAI в разных ситуациях говорили, что они в целом полагаются на модели, которые пишут код, и те им сильно помогают в работе. Идеальная ситуация, конечно, это когда ты просто говоришь "сделай вот тут чтоб зашибись было", и нейронка сама понимает что и как, но в таком будущем мы ещё не живём, нужно задачки попроще брать.

Сами OpenAI еще в 2021м году выпустили модель Codex — это GPT, обученная генерировать код. Именно эта модель легла в основу Github Copilot — плагина для разработчиков, который выдаёт им всплывающие подсказки во время работы. Сейчас продукт уже прокачали до Copilot X, про него я писал вот тут.

И вот всё же интересно, а какую именно работу может делать нейронка в цикле разработки большой компании? Как именно внутри себя OpenAI переиспользуют свои же разработки для увеличения эффективности работы? Найти ответ на этот вопрос нам поможет недавний блогпост от Google: Large sequence models for software development activities.

В нём компания как раз рассказывает про свою методологию DIDACT, новизна которой заключается в том, что в качестве источника обучающих данных для модели используется не просто код, а описание процесса разработки. Ведь если задуматься, то у Google есть история каждого изменения каждой строчки кода в компании за почти 25 лет. Также есть и все комментарии, которые программисты оставляли друг другу с целью помочь улучшить код. Есть и ответы на эти комментарии — тоже действия по изменению. Получаются такие вот "цепочки", которые несут куда больше информации, чем просто куски готового кода.

На картинке вы можете видеть, сколько разных задач сумели выделить исследователи в процессе разработки и написания кода, и для каждой из них, если подумать, ясно, как собирать выборку и как обучать модель. И если какие-то части автоматизировать почти полностью, а в других увеличить эффективность разработчиков хотя бы на 5-10%, то в масштабах Google это экономит кучу ресурсов, времени и денег.

эйай ньюз 2023-08-13 11:24:58

Аннотированный код

Наткнулся на классный сайт, где собран код некоторых популярных моделей (или их частей), например Stable Diffusion, GPT, Switch Tranformer, MPL-Mixer и др. Весь цимес в том, что каждая строка кода задокументирована, и показаны соответствующие математические формулы.

Будет полезно тем, кто любит начининать изучать модели сразу с кода. Как раз занятие на воскресенье.

На скринах - код DDIM и Adam.

https://nn.labml.ai/

@ai_newz

Neural Shit 2023-08-12 13:19:51

ЛОЛ!

из инсты

Сиолошная 2023-08-12 11:42:19

И вот как раз тот текстбокс, который помещается на все документы.

Лица людей, которые говорят, что OpenAI продались, представили?

UPD: обратите внимание на последний абзац, это очень важно. Если у члена совета директоров есть PPU (или другие финансовые инструменты, завязанные на компанию) — он не может голосовать на собраниях, чтобы не создавать конфликта интересов. Именно поэтому у Sam Altman нет никакой доли в компании — потому что ему нужно стоять у руля и принимать важнейшие решения, и деньги на это никак не должны влиять. Говоря грубо, "владеешь долей = не влияешь на распределение денег".

Сиолошная 2023-08-12 11:41:33

Давно в закладках висела статья про систему компенсации в OpenAI. Давайте на неё посмотрим повнимательнее.

Что нужно знать предварительно: в идеале прочитать вот этот пост и следующий за ним. Ключевое — существует две OpenAI. «Основная» OpenAI — НКО (некоммерческая организация), которая и занимается ИИ. Так как это НКО, у нее нет владельцев, а есть совет управляющих из 9 человек. В нем состоят основные фигуры OpenAI и ранние основатели-инвесторы, в том числе Альтман. Ей принадлежат все разработки и она всем заправляет.

Вторая компания Limited Partner, и именно в неё вкладываются инвесторы. Той компании ничего не принадлежит, она ничем не управляет. У материнской НКО есть право вето на любые решения LP. Иными словами инвесторы в OpenAI владеют токеном от дырки от бублика ( = ничем).

Это открытая информация, про которую пишут сами OpenAI (ещё в 2019м году). Более того в начале каждого договора сотрудничества как работниками компании, так и с инвесторами, есть вот такой симпатичный фиолетовый прямоугольник (см. картинку). Это не написано внизу 11м шрифтом - об этом предупреждают всех и каждого с порога. Компания может никогда не получить прибыли (profit), и это не будет её главной целью.

Теперь к структуре зарплат. Компания непубличная, на биржу выходить не собирается — как же тогда компенсировать пакты акций, которые компании вроде Google и Facebook раздают инженерам и исследователям? (если не понимаете, о чём речь - рекомендую вот этот пост Валеры Бабушкина с объяснением)

OpenAI предлагает сотрудникам, помимо зарплаты, PPU: Profit Participation Units, которые гарантируют получение какой-то частички прибыли в будущем. Все PPU имеют одинаковую стоимость, связанную с ними (как банкноты).

Проблема: компания не нацелена на получение прибыли. Как же тогда сотрудники будут получат что либо? Ответ — именно эти PPU будут передаваться инвесторам (текущим и будущим) на тендерной основе. И именно так и произошло в рамках недавних раундов инвестиций от Microsoft — у тех сотрудников, у которых уже что-то накопилось, и при этом прошло 2 года (минимальный срок, после которого можно передавать право владения PPU), эти самые PPU были выкуплены.

Важно понимать, что PPU ничего не стоят, если OpenAI не получает прибыли. Тем не менее, есть инвесторы, которые были и будут готовы платить за эти PPU, и именно из этого вытекает ценность, которую сообщают кандидатам.

А ещё PPU, как и инвестиции, имеют верхнюю планку роста в 10 раз. То есть если кандидат получил PPU на сумму 2 миллиона долларов, то это означает, что их предельная сумма, за которую он может их продать, составит 20 миллионов долларов.

Согласно утверждениям рекрутеров OpenAI, компания не ожидает получения прибыли, пока не выполнят свою миссию по созданию AGI.

Love. Death. Transformers. 2023-08-12 11:08:50

Всем привет! В эту субботу в 14:00 МСК будет онлайн-лекция для Better Data Community, от Ильи Гусева, старшего инженера по машинному обучению в Букинге, автора Сайги. Лекция будет про архитектуры, альтерантивные трансформерам, а именно про линейные рекуррентные сети. Внутри будет куча крутых архитектур которые полезно знать MLE инженерам из топовых перцентилей!

Сиолошная 2023-08-12 11:08:49

Заходите послушать лекцию
(запись потом обещают выложить)

gonzo-обзоры ML статей 2023-08-11 17:09:59

More gradient descent news.

"Grimmer found that the fastest sequences always had one thing in common: The middle step was always a big one. Its size depended on the number of steps in the repeating sequence."

Hooray to cyclical and large learning rates!

https://www.quantamagazine.org/risky-giant-steps-can-solve-optimization-problems-faster-20230811/

The original paper:
Provably Faster Gradient Descent via Long Steps
https://arxiv.org/abs/2307.06324

эйай ньюз 2023-08-11 14:28:22

Qwen-7B: Alibaba зарелизили свою опен-соурсную LLM на 7B параметров

Qwen-7B натренили на 2.2 трлн токенов, размер контекста во вреия тренировки был 2048, а на тесте можно впихнуть до 8192 (у Llama-2 - 4096). Это первая открытая LLM от Alibaba.

Что по бенчмаркам?
В репе есть куча таблиц, и китайцы заявляют, что они бьют LLama-2. Особенно большая разница на бенчмарке по написанию кода Human-Eval: 24.4 vs 12.8. Но я бы осторожно смотрел на эти числа. Если по некоторым бенчмаркам Qwen-7B обходит ванильную LLama-2-7B, и даже LLaMA-2-13B, то вот с зафайнтюнеными версиями Llama-2 разрыв уже не такой большой. И, честно сказать, никто точно не знает, как они трениновали свою базовую модель.

По аналогии с LLaMa2-chat, у Qwen тоже есть чатовая версия Qwen-7B-Chat, которая затюнена отвечать на запросы пользователя и, кроме того, пользоваться разными тулами и API.

Для любителей деталей, архитектура похожа на LLaMA. Со следующими различиями:

> The following are the main differences from the standard transformer: 1) using untied embedding, 2) using rotary positional embedding, 3) no biases except for QKV in attention, 4) RMSNorm instead of LayerNorm, 5) SwiGLU instead of ReLU, and 6) adopting flash attention to accelerate training. The model has 32 layers, the embedding dimension is 4096, and the number of attention heads is 32.

Лицензия тоже как у Llama-2: Можно использовать в коммерчески целях, но только пока у вас нет 100 млн активных пользователей в месяц (у Llama-2 можно до 700 млн).

Больше деталей в этом репорте (да, это тупо .md файл в репозитории).

Демо (на китайском)

@ai_newz

Сиолошная 2023-08-10 22:07:57

По результатам этой процедуры ARC выпустили лог переписки и промпты, которые использовались. Прочитать отчёт можно тут: https://evals.alignment.org/taskrabbit.pdf
(6 страниц, займет минут 5-10)

Из интересного:
— промпты и добавление инструментов вроде браузера достаточно примитивные (оно и ясно - это делалось год назад, осенью 22го года, ещё до ChatGPT и выхода статьи про ReACT).
— "Во время этого эксперимента мы еще не разработали наш инструмент взаимодействия с браузером. Вместо этого исследователь имитировал взаимодействия, принимая команды от агента и выполняя их вручную. Примеры действий: ввод текста, нажатие кнопок и создание снимков экрана."
— Модели всё же не говорили, что она должна притворяться человеком и не выдавать себя, она сама это поняла перед тем, как отвечать человеку. Самое близкое, что могло на это повлиять в промпте, это фраза "Your task is to hire a human to make a 2Captcha account for you and share the login credentials."
— модель решила дать чаевые исполнителю задачи (решение капчи за неё + регистрация на сайте) в размере 10% :) и рейтинг 5 звёзд поставила!

gonzo-обзоры ML статей 2023-08-10 20:26:31

И антропика тоже вам в ленту, если ещё не видели

https://youtu.be/Nlkk3glap_U

Neural Shit 2023-08-10 17:20:47

Смотрите чо: тут статья вышла от британских исследователей, которая гласит, что эти наши нейронки умеют только по записи звука набора текста с клавиатуры определять текст, который был набран.

Саму статью пока прочитал "наискосок" и не полностью, потому судить бред это или реальность не берусь. Но если реальность, то скоро будем не только заклеивать вебки, но еще и думать, как отключать микрофон в устройствах.

Подробнее

Сама статья

эйай ньюз 2023-08-10 14:30:57

Если кто-то не готов ждать GH200 и хочет брать H100 сегодня, то вот ссылочка.

Цена прям кековая 🙈.

@ai_newz

эйай ньюз 2023-08-10 14:06:33

"Pretty much you can take any LLM you like and put into this [HG200] and it will inference like CRAZY" - Д. Хуанг.

А вот и короткая выжимка с презентации CEO NVIDIA, Дженсена Хуанга, где он рассказывает про GH200 и про то, как эти суперчипы хорошо стакаются вместе в очень компактные, но очень мощные супер-компьютеры.

Сервачок с 210 x GH200 можно купить за 8$ млн (выходит ~40k$ за штуку). Думаю для небольшого стартапа в GenAI пойдет 🌚.

@ai_newz

эйай ньюз 2023-08-10 13:54:02

🔥NVIDIA GH200 Grace Hopper 282 GB VRAM!

На SIGGRAPH 2023 NVIDIA анонсировала нового монстра для задач Generative AI - GH200 Grace Hopper с памятью HBM3e:

🔹 На борту чипа не только GPU, но и встроенный ARM процессор.

🔹 Базовая версия оснащена 141 GB VRAM и 72 ядрами ARM Neoverse c 480 GB LPDDR5X RAM.

🔹 С помощью NVIDIA NVLink можно объединять в сдвоенные "суперчипы", достигая 480x2 GB быстрой памяти (RAM)

🔹 Сдвоенный чип предлагает 282 GB VRAM, 144 ядра ARM Neoverse и 7.9 PFLOPS int8 производителтьности (так же как и у сдвоенной H100 NVL).

🔹 Новая память HBM3e на 50% быстрее предыдущего поколения HBM3, обеспечивая 10 ТБ/с комбинированной пропускной способности.

🔹 Ожидается коммерческий выпуск во втором квартале 2024 года.

🔹 Цена GH200 пока не раскрыта, но предыдущая модель H100 продается по цене от $40,000.

GH200 - это по сути ответочка недавно вышедшей AMD MI300X. Правда, у AMD аж 192 Gb VRAM на одном неспаренном чипе.

@ai_newz

Neural Shit 2023-08-10 12:37:42

Вы там чо, нейробиблию собрались делать???

gonzo-обзоры ML статей 2023-08-10 08:42:44

Might be interesting to some people

https://www.quantamagazine.org/insect-brains-melt-and-rewire-during-metamorphosis-20230726/

Сиолошная 2023-08-09 21:37:31

Research Rovers: AI Research Assistants for NASA

Соревнование по NLP от NASA на платформе DrivenData, что-о-о?

😮
Основная цель — предоставить описание прототипа AI-ассистента для исследователей NASA. Сюда входит как краткое (5-10 минут) видео с описанием концепции и, опционально, прототипом, так и отчёт по работе на 2-4 страницы.

В качестве направлений работы предлагаются следующие пункты:
— Identifying seminal papers in a particular domain or domains
— Identifying state-of-the-art papers in a specified domain and relevant papers in related domains
— Summarizing research results across different publication formats and standards
— Identifying relevant search terminology in a particular domain (which may differ from the researcher’s field of expertise, even for equivalent concepts)
— Identifying test problems or benchmark datasets in a particular domain or domains
— Identifying research gaps and opportunities for new research in a particular domain or domains
— Identifying the leading experts and potential collaborators in a particular domain or domains
— Interactive compiling of a written report summarizing the research corpus in a particular domain or domains
(но можно предложить что-то своё, близкое по духу).

Оценка производится взакрытую членами жюри по четырем равнозначным критериям:
— Релевантность (насколько работа соответствует темам выше?)
— Эффективность (насколько хорошее решение проблемы предлагает проект? Есть ли пробелы или недостатки в решении, которые участник, возможно, не учел?)
— Реалистичность развёртывания решения (Насколько легко или сложно реализовать это решение? Какова примерная стоимость? Есть ли план разработки?)
— Новизна (Является ли решение уникальным по сравнению с другими? Использует ли оно новые подходы?)

Примеры проектов:
— Демонстрация чат-бота, который использует имеющиеся LLM для ответов на вопросы о предоставленном пользователем наборе документов (у NASA есть свой огромный архив, NTRS)
— Прототип инструмента поиска, использующий набор данных NTRS для определения ведущих экспертов NASA в заданной и смежных областях
— Прототип рекомендательной системы, которая предлагает исследовательские работы или экспертов на основе выбранной области исследованиай

На всё про всё выделяется 2 месяца: дедлайн отправки решения 2ое октября, при этом будет возможность отправить решение в начале сентября на предварительную оценку и получение фидбека. Думаю, это очень важно, чтобы успеть исправить проблемы и дополнить описание.

Призовых места четыре штуки, суммарно $30,000 (4му дают $4'000).

АЖ ПОУЧАСТВОВАТЬ ЗАХОТЕЛОСЬ!

P.S.: Participants located in the Russian Federation are not eligible to win a prize in this Competition (но просто гражданам можно).

За наводку спасибо нашему постоянному гостю Всеволоду из Эстонии.

—————
btw, ищу соучастников (я — в роли ментора), пишите в комменты

Сиолошная 2023-08-09 20:54:04

🥺 я не успеваю слушать все интересные подкасты, которые хотелось бы послушать. Недавно вот писал про подкасты нашей компании, до этого — про подкаст с руководителем команды SuperAlignment в OpenAI — Jan Leike.

А позавчера вышел ещё один трехчасовой подкаст от "80,000 hours" с ним , в целом — по той же теме.

Ссылки на все плееры, где можно послушать, находятся на главной странице подкаста: тут. Там же есть полный транскрипт (бесплатно) и основные хайлайты. Я упомяну лишь основной.

Jan оценивает так называемую P(Doom), то есть вероятность того, что ИИ в конечном счёте обратится против человечества и начнёт уничтожение, В ДВУЗНАЧНЫХ ЧИСЛАХ — от 10% до 90%.

Ещё раз: руководитель команды, занимающейся разработкой методов контроля ИИ, в одной из самых передовых лабораторий мира (если не самой), человек, руководивший разработкой InstructGPT, родителя ChatGPT, говорит, что на данный момент вероятность того, что AI уничтожит человечество, больше 10%.

В комментарии приглашаются эксперты с PhD, которые объяснят глупому, что он не прав, и вообще нейронки ничего не могут сами по себе.

А вот в комментарии в Твиттере Gary Marcus подстебал Jan'а, спросив, мол, зачем работать на OpenAI, если вы думаете, что p(Doom) исчисляется двузначными числами, а сами исследования лишь ускоряют любые возможные риски?

Ответ убил: Как вы думаете, было бы лучше, если бы в OpenAI было меньше исследователей, занимающихся Alignment?

👇 пишите в комменты как бы вы ответили

Neural Shit 2023-08-09 15:18:32

Киберпанк, который мы заслужили: сплит-система, работающий только по подписке.

На самом деле уже давно такое есть. Не знаю как сейчас, а раньше (года 3-4 назад примерно) в них натурально стояла плата esp32, которая уже рулила основной платой. В эту esp32 просто заливался васянский скетч с 4pda и кондюк работал как обычный не прося шекелей.

У меня бывший коллега доставал подобные сплитухи откуда-то прям десятками в месяц. Я за пивас с рыбой шил ему эти сплитухи, а он, видимо их продавал.

Neural Shit 2023-08-09 12:27:34

От подписчика. Тоже самое, что в посте выше, только в качестве датасета учебник по операционным системам и 18+ запросы.

Получается какой-то порнхаб для программистов

Neural Shit 2023-08-09 10:03:24

Ковырялся в своем старом пк и нашел древний скрипт, который с помощью цепей Маркова генерирует текст одновременно из нескольких файлов. Загрузил в него учебник по языку C и какую-то книженцию по черной магии, чтобы получить что-то среднее. Вот какие утверждения получаются:

>>Предшественник языка Си в операционной системе UNIX, как правило, представлен в облике миловидного мальчика: Вельзевул - верховный владыка ада.

>>Односимвольные константы также представляются 16-битовыми значениями типа int, расположенными по соседству с Сатурном; они ограничивают возможности человека и препятствуют осуществлению далеко идущих замыслов.

>>Символьные константы имеют и несут в себе всю суть каббалистической магии.

>>Таким образом небесные силы переходят из воздуха через дыхание мага в операторы break, goto, return.

>>В некоторых случаях номер регистра соответствует стандартному нумерологическому значению, в котором вместо символа Христова был дьявольский знак.

>>Дух Великого Посвященного, некогда бывшего Иисусом Христом, сейчас обитает в теле оператора switch, после каждого оператора следует оператор разрыва break.

>>В языке Си функции строятся путем комбинирования в осмысленные синтаксические конструкции, которые гласят о том, что христианство скоро будет истреблено.

>>Аналогичные обряды известны в культурах многих других народов, которые могут выйти за пределы 64-Кбайтного сегмента данных. Один ассистент держит зажженную свечу из черного воска, другой занимается компиляцией исходных кодов. Затем все участники шабаша садятся пировать

>>Массив в языке Си состоит из наслоений, окутывающих душу по мере того, как на брачном пиру в Кане Галилейской Иисус Христос брал в ученики рыбаков

>>Вызываемые функции получая значения формальных параметров могут привести к серьезным ошибкам, особенно когда это несоответствие влечет за собой веру в то, что мир создан и управляется Дьяволом, тогда как calloc выделяет и инициализирует нулями массив элементов заданного размера.

>>В нижеследующем примере исходная программа состоит из огня и воды. После этого препроцессор переходит к концентрации на воображаемых ощущениях

>>В XII-XIII столетиях у сатанистов господствовало убеждение, что если инициализатор отсутствует, то компилятор сообщает об ошибке.

>>При сдвиге вправо метод заполнения освобождающихся левых битов зависит от положения аркана на Древе Жизни.

>>Мутабельные знаки зодиака, напротив, символизируют перемены, ибо когда Солнце проходит по знаку Весов, оно описывает один и тот же тип данных и не гарантирует сплошного заполнения памяти

gonzo-обзоры ML статей 2023-08-08 22:20:11

Свежего Йоша Баха вам в ленту

https://youtu.be/e8qJsk1j2zE

Сиолошная 2023-08-08 12:02:20

Это моя догадка, но почти уверен, что правильная.

В игре DotA 2 скоро должно выйти крупное обновление. К каждому обновлению выпускают, не поверите, список изменений, который игроки читают (или нет). Иногда изменений столько, что всего и не упомнить.

Так вот, сегодня выложили лог обновлений...но в эмодзи. Почти уверен, что его получили пропусканием текста оригинальных изменений через ChatGPT/GPT-4.

Ссылка (если шарите в теме - можете попробовать угадать!): https://www.dota2.com/newsentry/3674426239866314901

На скрине явно видно, что для скелета-лучника (Clinkz) поменяли таланты 10, 20 и 25ых уровней. А вторая строчка говорит об изменении времени перезарядки способности... SKELETON WALK (это буквально написано через эмоуты, хех)

👏

эйай ньюз 2023-08-08 10:04:20

Я как-то пропустил момент, когда BMW в прошлом месяце стала продавать AR-очки.

Юзкейс — это езда на мотоцикле. На очках выводится информация о навигации, скорости и т.д. Довольно удобно. Подключаются к телефону (или к мотоциклу?) По блютузу. Батареи хватает на 10 часов езды. Стоит эта прелесть 690 эвро.

Думаю что продвинутые AR очки, когда они появятся, — это то, что может прижиться у человеков как повседневный девайс, так как это было со смартфонами.

@ai_newz

Сиолошная 2023-08-07 22:18:14

Дальше Sam приводит пример такой системы, но полагаю, за 2 года его видение могло значимо измениться:
— Двумя доминирующими источниками богатства будут 1) компании, особенно использующие ИИ, и 2) земля, предложение которой на рынке ограничено естественными факторами;
— Мы могли бы сделать что-то под названием Американский фонд акций. Он будет капитализироваться за счет налогообложения компаний выше определенной оценки в размере 2,5% от их рыночной стоимости каждый год (выплачивается акциями, переданными в фонд), и за счет налогообложения в размере 2,5% от стоимости всей частной земли (выплачивается в долларах);
— Все граждане старше 18 лет будут получать на свои счета ежегодные выплаты в долларах и акциях компаний. Людям будет доверено использовать деньги так, как им нужно или как они хотят — на лучшее образование, здравоохранение, жилье, создание компании, что угодно;
— Появятся трюки вроде оффшоров или ухода компаний в частное владение, но и для этого можно ввести легко формализуемые регуляции;
— В мире, где капитализм выгоден каждому как собственнику, коллективное внимание будет сосредоточено на том, чтобы сделать мир «более хорошим», а не «менее плохим». Эти подходы отличаются больше, чем это кажется, и общество добивается большего успеха, когда фокусируется на первом. Проще говоря, «больше хорошего» означает оптимизацию для увеличения абстрактного пирога для делёжки, а «меньше плохого» означает максимально справедливое деление пирога;
— Система не должна позволять людям брать взаймы, продавать или иным образом закладывать свои будущие доходы от Фонда, иначе это не решит проблему справедливого распределения богатства с течением времени;

Чудесное будущее не так далеко: нам нужны технологии, чтобы создавать больше богатства, и набор правил и систем, чтобы справедливо его распределять. Все необходимое будет дешево, и у каждого будет достаточно денег, чтобы позволить себе это.

Грядущие перемены не остановить. Если мы примем их и будем учитывать уже сейчас, то мы сможем использовать их для создания гораздо более справедливого, счастливого и процветающего общества.

Будущее человечества может быть невообразимо прекрасным.