Нейролента - подборка новостей о нейронных сетях, ChatGPT

Нейролента Mikitos.ru 2736 постов. Страница 21 (50 постов)

Репосты из тематических каналов

Сиолошная 2024-01-28 08:10:30

Про беспрецедентный масштаб. Сейчас принято считать, что при увеличении модели в N раз нужно также увеличивать количество данных в N раз, то есть суммарные затраты по вычислительным мощностям растут как N^2. Формула не точная, прикидка примерная, но для спекуляций ниже сойдет.

Если верить слухам, то GPT-4 тренировали на 25'000 A100 x 90-100 дней. Мой давний приятель Евгений, автор канала @j_links, посчитал, что если взять самые современные видеокарты Nvidia H100, то 40'000 H100 с утилизацией (доля времени, которое карта тратит на полезную работу) уровня последнего бенчмарка mlperf, потребуется 25 дней для обучения такой же модели (для технарей — в FP16). Тут важно понимать, что эта прикидка даёт оценку сверху — потому что вот так просто взять и увеличить количество карт без уменьшения утилизации нельзя. Понятно, что инженеры не сидят на месте и улучшают всё что только можно улучшать, но и они — не маги.

Если просто посчитать, то получится прирост производительности x2.5 на карту, но будем очень щедры, сделаем скидку на то, что можно использовать разные типы данных (например, FP8), то сё, пусть одна карта нового поколения будет x3.5 более производительна. Опять же, обратите внимание, что это скорее верхняя оценка.

Далее — сколько видеокарт можно запустить в одну тренировку? Как мы знаем по статье о Gemini от Google DeepMind, и как подтвердил инженер инфраструктуры на нашем с Валерой интервью, сейчас обучение уже делается на нескольких датацентрах. Сколько GPU в каждом ДЦ — загадка, и я не буду приводить полный лог рассуждений, но кажется, что цифра не больше 60'000 GPU (для сравнения самый мощный публично известный суперкомпьютер Frontier имеет 36'992 GPU). Сколько ДЦ можно подключить в сеть тренировки, чтобы это не убивало утилизацию видеокарт из-за необходимости долгой синхронизации — загадка. Моё наивное предположение, что для одной тренировки не будет использоваться больше 100'000 карт, ну моооооооожет быть 125'000. Это просто охренеть сколько — в x4(5) раз больше, чем для GPT-4.

Ну и самый простой способ накинуть вычислений — это увеличить длительность. Давайте будем тренировать не 100 дней, а 150 — ещё x1.5

Итого мы можем увеличить мощности:
-----------------------------------------
x3.5 за счет типа видеокарт (A100 -> H100, с допущениями об утилизации)
x4 за счет количества видеокарт (25'000 -> 100'000)
x1.5 за счет длительности обучения (100 дней -> 150 дней)
x(неизвестно, но не более 1.2) за счёт разных тренировочных трюков (дальше не учитываем)
-----------------------------------------
Итого получаем увеличение в 3.5 x 4 x 1.5 = 21 раз. Или в 35 (3.5 x 5 x 2). Это примерно попадает в цифры Dario Amodei («...обучение моделей текущего поколения стоит $50-150M...модели следующего поколения будут стоить $1B» — разница в 10-20 раз, но и за доллар теперь мощности в 2-3 раза больше).

То есть модель будет всего в sqrt(21)-sqrt(35) или 4.5-5.9 раз больше. Изначально, когда садился считать, думал, что будет скачок в 10 раз, но как не старался натянуть сову на глобус — увеличить мощности в 100 раз хотя бы в теории не придумал как

🥺

В комментарии приглашаются шарящие за скейлинг люди обсудить адекватность прикидок и их собственные оценки

Сиолошная 2024-01-28 07:39:06

В Twitter начали всплывать спекуляции по поводу тренировки GPT-5. Всё дело в том, что два важных сотрудника OpenAI написали твиты с намёками.

Greg Brockman — ко-фаундер и ex-CTO OpenAI, до недавнего времени президент компании и член совета директоров. Он пишет про разные аспекты работы в OpenAI, и заканчивает сообщение на фразе «scaling beyond precedent». Scaling — это масштабирование моделей, увеличение количества параметров, что, насколько мы сейчас знаем, приводит к гарантированному улучшению. И это масштабирование будет беспрецедентным (как и каждый раз с момента выхода GPT-2).

Jason Wei — топовый исследователь, ранее работавший в Google, но перешедший в OpenAI. Является первым автором статьи, представившей Chain-of-Thought промптинг, когда мы просим модель перед ответом продумать решение step-by-step (шаг за шагом). Это, как оказалось, существенно повышает качество ответов. Он пишет — дословно — «Не бывает такого прилива адреналина, как при запуске массивной тренировки на GPU» (видеоускорителях, используемых для обучения GPT-like моделек).

Ранее в канале писал, что на момент середины января 2024го не думаю, что началась тренировка GPT-5 — так как OpenAI бегают по провайдерам данных в духе новостных сайтов, и занимаются лицензированием датасетов (что логично делать до тренировки, когда закопирайченные материалы ещё можно вычистить). Но сейчас вполне возможно, что бОльшая часть этой работы окончена.

Но радоваться рано — даже если вдруг тренировка началась — ждать нам не менее 8, а скорее 12 месяцев (из расчёта 4 месяца на тренировку вместо 3 у GPT-4, и 8 месяцев на Ai Alignment + Safety Evaluation). И анонсов ранее выборов в США в начале ноября точно ждать не стоит.

Сиолошная 2024-01-27 16:54:30

Сегодня прожил, кажется, худший день с того момента, как уехал из РФ

Из-за недосыпа забыл в такси свой рюкзак с паспортами, ноутбуком (с лекциями про GPT!) и частью денег. Захожу в старбакс, инстинктивно поправляю лямку на плече и понимаю, ЧТО ЕГО НЕТ. БАНГКОК ЗАБРАЛ ЕГО. Я никогда ничего не терял, ни кошельков, ни телефонов, ни портфелей.

Как бы вы оценили шансы найти такой ценный груз после пропажи в такси в одной из крупнейших агломераций мира (18.8М человек, на 1M больше Московской)? Я тоже прикинул, что невелики — хотя бы один паспорт из трёх вернуть, уже вперед.

В итоге, 2.5 часа спустя, с помощью трёх добрых тайцев и настойчивости дозвониться до поддержки, до которой дозвониться невозможно, с преодолением языкового барьера — я справился. Таксист привёз всё в целости и сохранности

🙂 Это круто, потому что альтернативой была департация меня через пару месяцев
👀


Наверное, ключевых фактора два — это был премиум тариф такси (который я взял только потому что за 30 минут (!!!) поиска ничего не нашлось!) + я понял, что на формочки/заявки о пропаже лучше сразу забить, и максимально сократить время до получения багажа. Чем дольше ждать — тем меньше шансы на успех.

Выражаю огромную благодарность неназванному курьеру сервиса Grab, который забыл про свой заказ и сидел со мной с телефоном, ну и конечно же таксисту.

а в комментариях вас ждёт МЕМ.

Метаверсище и ИИще 2024-01-27 13:40:12

Миссия выполнима!

Помните все эти шпионския фильмы, где по снимку из космоса Том Круиз читает номера машин?

Китайцы из Shanghai AI Lab выкатили вот такой апскейлер и ресторатор убитых картинок.
"Для обучения модели мы собираем набор данных, состоящийиспользовали датасет из 20 миллионов высококачественных изображений высокого разрешения, каждое из которых было размечено(!). "

"SUPIR позволяет восстанавливать изображения, руководствуясь промптами. Более того, мы вводим негативные промпты для дальнейшего улучшения качества восприятия. Мы также разработали метод, ориентированный на восстановление, чтобы устранить проблему достоверности, возникающую при восстановлении на основе генерации"

Тут я в замешательстве: "ты распознал плохой номер, распознай другой".
Или как в этом примере: "Это Дачия Дастер, тупица, что ты там мне за лого нарисовал, переделай".

Но сама идея управляемого апскейла мне нравится. Пока все апскейлеры генерят(дорисовывают) то, что им в голову придет. А тут можно допинывать до годного и бить по рукам(мозгам).
https://x.com/alexcarliera/status/1750549285664686450

Поглядите на примеры тут:
https://supir.xpixel.group/
И хорошая новость: код есть! Го распознавать номера со спутника!
https://github.com/Fanghua-Yu/SUPIR

Метаверсище и ИИще 2024-01-27 13:06:49

Если у вас еще не раскатали фичу упоминания конкретных (разных) Джипитишек в одном чате, то поглядите как это выглядит. Можно помянуть одну Джипитишку, поговорить с ней, потом взять ее результат и пихнуть в другую Джипитишку (помянув ее предварительно). Все в одном окошке, без копипаста.
В окошке чата появляетсяя надпись в заголовке - с какой Джипитишкой вы сейчас общаетесь. А сам чат служит "базой знаний" - контекстом, к которому все Джипитишки имеют доступ.
Представьте, когда можно будет указывать Джитпитишки программно, то есть не одну за раз
в меню, а на основе концепции микро-агентов, бросать задачу командам из Агентов-Джипитишек.

Метаверсище и ИИще 2024-01-27 11:34:39

Кстати, гугль вообще не в курсе (ну или Бард что-то скрывает)
Фичу раскатали ночью. Индексирование идет медленно.

Метаверсище и ИИще 2024-01-27 11:33:31

Джтиптишки теперь можно поминать всуе. То есть в чате.
В телеге в группе можно нажать @ и на вас вывалится список участников, из которого вы можете выбрать того, кого вы хотите помянуть и чье внимание привлечь.
Теперь также происходит в chatGPT!
Вы набираете @ и на вас вываливается список Джипитишек, которые вы недавно использовали (то есть не все, а те, которые вы пробовали, социальная механика).
После того, как вы выбрали из списка, чат будет происходить именно с этой джипитишкой. Ее название будет в заголовке чата.
Что мы имеем сейчас?
Можно выкликать разные джипитишки в одном чате (но одну за раз).
Они видят контекст и предыдущую историю.
Они не в курсе, что есть другие джипитишки в мире - они общаются только с вами напрямую, через интерфейс чата.

К сожалению пока нельзя внутри одной джипитишки вызвать другую типа: "возьми вывод @агент1 скорми его @агент2, забери результат и попроси @агент1 все переделать.".

Иначе у нас бы под рукой была уже мультиагентность, а вызовы агентов-джипитишек были похожи на вызовы фуенкций.

Выкликание конкретной джипитишки идет через клик пользователем в пункт меню, а не программно.

Но есть гипотезы, что вызовы агентов-джипитишек завезут в скором будущем. Будут GPT-баттлы.

И хотя я скептичен по поводу GPT Store и его монетизации (скоро напишу), идея (не относящаяся к Стору) про формирование облака своих подручных агентов-джипитишек мне очень нравится.

Neural Shit 2024-01-26 16:41:28

Нашел в твиттере подобную истрию и прям офигел, что вот это до сих пор работает и практикуется.

Вспомнил случай: в студенческие времена матери одногруппника такой же чорт-компьютерный мастер винду (естественно, палёную) переустановил на очень много денег (что-то около 12 тысяч рублей) и запаролил винт, сказав, что даст пароль только после оплаты.

Мы, недолго думая, вызвали его на другой адрес и вломили такой мощной пизды, что он скорее всего до сих пор даже себе боится винду переустанавливать.

Метаверсище и ИИще 2024-01-26 14:47:49

Ну и коль скоро меня сегодня понесло внутрь кожаной башки, то поговорим про технологический компот из VR, ИИ и психотерапии.

Смотрите, пациент что-то говорит своему ИИ-терапевту. ИИ конвертирует речь в текст, RAG-выкликает базу по когнитивно-поведенческой терапии (в данном случае), классифицирует случай, и генерит (внимание) Generated Reality: картинки, эффекты, музыку, звуки и речь. Все это попадает в башку пациента через VR-шлем. Он реагирует. Ну и так далее.

Это свежая статья в Nature, а не влажные мечты стартаперов.

Было обнаружено, что цифровой аватар применяет основные психотерапевтические методы. Он часто делал наблюдения, которые отражали понимание проблем пользователя (например, “ Ваши заботы о вашем здоровье и вашей жизненной ситуации явно вызывают у вас много страданий”). Нормализуя чувства (“Логично чувствовать себя неудачником, когда жизнь становится подавляющей ”), выражая сочувствие (“ Мне очень жаль слышать о вашей потере работы”), и демонстрируя сочувствие (“Это должно быть непростое время для вас”), XAIA, как было отмечено, передает понимание и сострадание. Он также предлагал валидацию и похвалу, где это уместно (например, “ Ваша практика не принимать эти отношения как должное действительно заслуживает похвалы ” ).
Участники описывали цифровой аватар как эмпатичный, понимающий и способствующий созданию терапевтического контакта.
Подробности в статье:
https://www.nature.com/articles/s41746-024-01011-0

КПТ - как довольно прямолинейная терапия, хорошо формализуется и загоняется в RAG для дальнейшего обращения в ней.

Ну и тут явление гораздо шире. Средный американец (и не только) часто не может себе позволить даже первичную юридическую, медицинскую, налоговую или другую узкоспециализированную консультацию. А вот chatGPT может лихо ответить на 99% вопросов первичной консультации. Бесплатно или за 20 долларов в месяц.

Метаверсище и ИИще 2024-01-26 14:25:05

Почему я верю в нейрофидбек.

Просто я прочитал две статьи на Снобе.
https://snob.ru/selected/entry/18318/
https://snob.ru/selected/entry/18427/

У человека жена больна эпилепсией. Это как бы приговор с точки зрения возможности иметь детей. Но у них растет дочь.

Ну и Леша - это мой однокурсник, поэтому у меня была возможность узнать многое за пределами статьи.

Леша по фану гоняет свою кожно-гальваническую реакцию к любым значениям. Натренировался.
С ЭЭГ сложнее, но тоже можно.

Метаверсище и ИИще 2024-01-26 14:13:23

ИИ и осознанные сновидения

Ух, люблю такое.
И хотя довольно скептичен по отношению с всем ободкам, оголовьям, обручам - соотношение полезный сигнал/шум там явно не в пользу первого, но сама идея кормить в ИИ не промпты, а информацию из мозга (ну и вообще "напрямую", минуя вербалку) очень интересная.
Но тут ребята замахнулись еще в обратную сторону: вводить фидбек полученный от ИИ обратно в голову, в помощью "ультразвуковых голограмм для нейростимуляции".

Все это звучит как маркетинговый буллшит, выглядит тоже. Но повторюсь, сама идея такого нейрофидбека мне нравится (я вообще верю в нейрофидбек).

Итак по порядку.

Стартап Prophetic только что представил Morpheus-1, описанный как первый в мире "мультимодальный генеративный ультразвуковой ИИ-трансформер", предназначенный для изучения человеческого сознания через управление осознанными сновидениями (с козырей, однако!).

Подробности:

Morpheus-1 сочетает в себе машинное обучение, данные ЭЭГ и ультразвуковые волны для обнаружения REM-сна и запуска сновидений, которые пользователи могут контролировать.

Обруч на голове читает мозговые волны, а ультразвуковые лучи стимулируют определенные зоны мозга, связанные с осознанными сновидениями. Вот тут и есть цикл обратной связи.

Встроенные аккумуляторы, Bluetooth и WiFi позволяют работать в течение всей ночи и синхронизировать данные, а приложение-компаньон отслеживает фазы сна и собирает данные о сновидениях для совершенствования моделей ИИ.

"Сочетание ультразвука и моделей машинного обучения (созданных на основе данных ЭЭГ и фМРТ) позволяет нам определять, когда сновидец находится в состоянии REM, чтобы вызвать и стабилизировать осознанные сновидения"

Morpheus-1 is a 103 million parameter transformer model trained on 8 GPUs for 2 days.
We engineered this from scratch and filed a provisional utility patent application.

На итоге, хотя я вижу много плохих маркеров на сайте, сама идея "прямого доступа" мне нравится и в этом направлении будут копать многие исследователи, взрослые притом.

Сейчас мы общаемся с chatGPT словами и на выходе от него, тоже слова, которые мы вводим в голову глазами или ушами. А прямой доступ - это когда все это происходит мимо второй сигнальной системы. Уровнем ниже. Без слов. В тишине. Как у Нео.

Маск, давай уже свою иголочку скорее. Без этих вот обручей на башке.
Вчерашний твит про трансформеры
https://twitter.com/PropheticAI/status/1750534355242418300
Сайт:
https://propheticai.co/

Метаверсище и ИИще 2024-01-26 14:10:59

ИИ и осознанные сновидения

эйай ньюз 2024-01-26 11:59:17

Кстати, если вы не заметили, новая text-embeding-3-large модель от OpenAI далеко не SOTA (увы).

Немного про бенчмарки и что сейчас SOTA:

1️⃣ MIRACL (Multilingual Information Retrieval Across a Continuum of Languages) - бенчмарк с текстами на 18 разных языках, включая русский. Используется для измерения качества поиска по многоязычному корпусу.

Тут мы видим заметное улучшение у text-embeding-3-large - 54.9 (против 31.4 у `ada v2`). Что тут сейчас актульная SOTA я хз - подскажте в комментах, если знаете.

2️⃣ MTEB (Massive Text Embedding Benchmark) - крупнейший бенчмарк дял текстовых эмбеддингов. Есть публичнй лидерборд (см. скрин).
a. SOTA сейчас считается модель voyage-lite-02-instruct от Voyage AI (доступна через API) со скором 67.13.
b. на втором месте - E5-mistral-7b-instruct (в опен соурсе), выбивает скор 66.63.
с. text-embeding-3-large от OpenAI же выдает скромные 64.6, что соответствует 4-му месту на лидерборде.

Кажется, OpenAI потихоньку теряет свои лидерские позиции как SOTA API всего, что связано с текстом.

@ai_newz

Сиолошная 2024-01-26 10:59:08

Joe Biden’s adviser on the regulation of artificial intelligence рассказала FT, что США и Китай будут работать вместе над рисками, связанными с развитием технологий ИИ.

А в другой новости те же FT утверждают, что OpenAI вместе с 3-4 другими крупными игроками (Anthropic, Cohere, Inflection...где Google?) уже дважды встречались с коллегами из Китайских лабораторий и университетов в Женеве. OpenAI подтвердили факт участия в этих митингах.

«У нас нет возможности устанавливать международные стандарты безопасности и согласованности целей ИИ без достижения соглашения между этой группой участников» — добавил один из участников встреч.

Китайская Коммунистическая Партия, как оказалось, тоже не хочет, чтобы какой-то ИИ порушил их планы по стране, и ни дай бог захватил управление чем-либо.

Альтернативные интерпретации:
— китайские учёные просто хотели выведать секреты технологии practical AI Alignment у коллег с запада
— просто пассивно участвуют в диалогах, но ничего из этого не будут воспринимать всерьёз
— участники рабочей группы ищут способы перебраться в западные компании)))

эйай ньюз 2024-01-26 00:21:43

OpenAI проапдейтили API и выкатили новые text-embedding модели

1️⃣ Добавили 2 новые text-embeding модели, которые переводят текст в вектора.

2️⃣ Обновили GPT-3.5 Turbo. Теперь она будет более точно отвечать в формате, который вы запоосили в промпте.

Цену за входные токены уменьшили на 50%, до $0.0005 /1 KTok. А цену за генерируемые токены снизили на 25%, теперь она $0.0015 /1 KTok.

3️⃣ Обновили GPT-4 Turbo preview. Улучшили генерацию кода и уменьшили "ленивость" модели, когда ей приходилось подкидывать на чай, чтобы она выполняла задачу без халтуры.

Еще в ближайшие месяцы пообещали выкатить GPT-4 Turbo со зрением в общий доступ.

@ai_newz

Сиолошная 2024-01-25 23:05:51

Сегодня NASA объявили об окончании миссии героического вертолётика Ingenuity. Вертолётика, который смог.

Ingenuity разрабатывался на объедки бюджета миссии Mars 2020 (марсоход Perseverance), суммарно на программу было потрачено $85m. Кажется, что это много, но цена ровера БОЛЬШЕ ДВУХ МИЛЛИАРДОВ ДОЛЛАРОВ. В гирокоптере, например, процессор был тот же, что вставляли в телефоны Samsung Galaxy S5 или OnePlus One. Буквально кустарное производство по меркам космоиндустрии.

На него не возлагали больших надежд. Если правильно помню, в миссии было 5 основных целей (вроде успешного приземления на Марсе и развёртывания лопастей), и лишь пятая заключалась в тестовом полёте. В итоге за эти годы с момента десантирования малыш совершил невероятные 72 полёта, пролетев больше 17км (НА МАРСЕ) за 128 минут. Самый далёкий полёт позволил преодолеть 708 метров, самый длинный был 169 секунд (интересно, что ограничение вызвано не батарейками на борту, а тем, что моторы разогреваются на 1 градус Цельсия каждую секунду), а самая большая развитая скорость была 10 м/с (всё - разные полёты).

После недавней жёсткой посадки было обнаружено, что одна из лопастей повреждена, и продолжение миссии невозможно

😭
😭
Но в миссии было и много прекрасных моментов. Изначально Ingenuity не был предназначен для зимовки на Марсе, однако переписанная ээээ на лету (
🙂
) программа позволила скорректировать поведение (и самоподогрев). Также в ходе миссии коптер получил систему автоматического выбора посадочного места, пережил утрату сенсора, смог очиститься после песчаной бури... в общем, его жизнь была насыщенной.

Интересный факт: на Ingenuity был прикреплён кусочек первого самолёта братьев Райт — примерно так же, как и на Apollo 11 при высадке людей на Луну.

16-минутное видео от Veritasium о производстве Ingenuity.

На прикреплённом фото запечатлён момент «высадки» на Марс с брата-ровера в 2021м.

🫡
🫡
🫡
покойся с миром, мы за тобой придём

AI Product | Igor Akimov 2024-01-25 20:33:14

О, свежие анонсы от OpenAI
https://openai.com/blog/new-embedding-models-and-api-updates
Новые эмбеддинги: маленькие, но мощные, по 3 и большие, но вообще крутые, по 5 :) которые ещё и резать можно, если для задачи вся размерность не нужна.
- Улучшили Gpt-3.5-turbo, которая ещё и дешевле на 50%/25% стала на входные и выходные токены
- Улучшили Gpt-4-turbo, стала лучше писать код и меньше лениться.
- Улучшили moderation api для проверки, не выводит ли сеть что-то запрещённое.
- Добавили роли на разные API ключи и аналитику использования.

Метаверсище и ИИще 2024-01-25 15:00:09

Ну, за Topaz AI.

Держите корейский апскейлер, убиратель блюра и вообще улучшайзер видео.
Выглядит убойно. Еще более убойное название название:
Flow-Guided Dynamic Filtering and Iterative Feature Refinement with Multi-Attention for Joint Video Super-Resolution and Deblurring

Но вопрос в том, что даже когда появится обещанный код (вот-вот), эта штука так и останется в руках повелителей PyTorch и гиков.
Возможно, кто-то смастерит демо. Но будет ли это заменой Топаза - сильный вопрос. Причем даже не по качеству, а по продуктовости.
А что до качества, то все апскейлеры грешат артефактами - они порождают новые сущности, которых не было на исходных материалах и это иногда забавно.

Но, повторюсь, выглядит очень неплохо и для видосов с телефона может быть находкой.

https://github.com/KAIST-VICLab/FMA-Net

Метаверсище и ИИще 2024-01-25 14:38:14

Open Source Video Outpainting (от Алибабы)

Ого, смотрите что пригнали умные папищики в коментариях.
Не Пикой единой - тут расширение (outpaint) видео в любых пропорциях, из стоячего в лежачее и наоборот.
И все это с кодом и даже очень странным демо.

Я уж подумал, не чит ли это, уж больно ловко видео расширяется до нужного (нет ли тут uncrop), но потом поглядел на пальцы у девушки и успокоился. Не врут. ИИ решает.
Все тут:
https://fanfanda.github.io/M3DDM/

эйай ньюз 2024-01-25 14:37:37

Нейросети пишут подкаст про нейросети (на русском)

Мне в личку постучался подписчик и рассказал про свой проект. Он сделал подкаст про AI на русском языке, который создается автоматически с помощью нейросетей! Это безумие, которое стало реальным благодаря мощному прогрессу в АI за последние пару лет, за которым мы тут и следим 👀.

Причем, нейросетевой подкаст D00M4ACE содержит полноценный пайплан с нейсколькими этапами поиска и обработки актуальной информации по теме подкаста, то есть это не просто озвучка блогпостов из интернета. Со слов автора, весь пайплайн заскриптован, и между шагами нет ручных действий. На вход тема подкаста - на выходе набор wav файлов.

Как это работает вкратце:
1. По заданной теме подкаста парсится реддит и собирается база текстов.
2. Далее эта база пропускается через ряд LLM-ок, которые разбивают ее на отдельные суммаризированные блоки, которые потом еще раз пропускаются через LLM-ки для ранжирования и отбора наиболее высоких по рейтингу кусков информации.
3. Затем это добро пропускается через API gpt-4-turbo, где системный промпт содержит инструкцию написать сценарий подкаста, задает описание ведущих и прочие требования.
4. И, наконец, Text-to-Speach нейронки преобразуют сценарий в аудиозапись и с помощью RVC (real-time voice cloning) голосам придается идентичность. Причем один из виртуальных подкастье имеет голос самого автора, а для со-ведущей автор натренировал нейронку, которая повторяет голос его супруги.

Пайплайн все ещё в процессе улучшения и автор планирует переделать его на базе опенсоурс решений без использоывания OpenAI апишек.

Внизу прикрепляю один из эпизодов.

Канал c подкастом
Ютуб
Сайт автора

@ai_newz

Метаверсище и ИИще 2024-01-25 14:15:28

Для басистов.
Ну и я не мог пройти мимо такого ИИ-видосика.
Если вы не читали, то вот мой пост про AI и басистов и про признание в любви к Davie504:

Сам я когда-то играл в школе "на танцах" на бас-гитаре и обожаю анекдоты про басистов.
Но вот этот твит послужил поводом снова заглянуть к Davie504 и обнаружить:
Соло на басу без струн
Соло на 24-струнном басу
И много другого добра.

Бывших басистов не бывает, поэтому иногда будут появляться такие вот посты.

Метаверсище и ИИще 2024-01-25 13:48:19

ИИ-барабанщики.
Держите ссылку на очень забавный твиттор, где чувак реально экпериментирует с видеогенераторами и звуком, создавая смешные короткие ролики (для тик-ток самое то).
Я залип на басистах(а как же) и барабанщиках. Думаю, что для создания музыкальных видео все эти ИИ-видеогенераторы займут свою нишу. Как виджеинг или процедурные генераторы.
Нет нужды рассказывать истории, нужно шевелить нейрончики и создавать ощущения.
Для рейвов вообще будет огонь.
https://twitter.com/EclecticMethod
https://linktr.ee/eclecticmethod

Метаверсище и ИИще 2024-01-25 13:34:07

Ну и кстати, за Тик-ток. Это новый Гугл, если что.

Тут Адобченко решил стать МакКинзи выпустил отчет про использование Тик-тока как поисковой платформы.

Выжимка от Deepl:
Более 2 из 5 американцев используют TikTok в качестве поисковой системы.
Почти каждый десятый представитель поколения Zer ЧАЩЕ использует TikTok в качестве поисковой системы, чем Google.
Более половины владельцев бизнеса (54%) используют TikTok для продвижения своего бизнеса, публикуя посты в среднем 9 раз в месяц.
Каждый четвертый владелец малого бизнеса использует инфлюенсеров TikTok для продажи или продвижения товаров.


А теперь берем видеогенератор от Тик-тока добавляем туда щепотку китайских LLM-ок, которые становятся вполне годными и конструктор аватаров и получаем однокнопочное решение "Продвижение бизнеса в Тик-токе с любой интенсивностью".

Отчет интересный, но смахивает на продвижение Free TikTok video creator от того же Адобченко. Ссылка на который ненавязчиво присутствует в тексте. Но тем не менее, там очень забавные цифры внутри.
https://www.adobe.com/express/learn/blog/using-tiktok-as-a-search-engine

Метаверсище и ИИще 2024-01-25 13:21:23

Видео-генератор от Тик-Тока и сравнение генераторов.

Я не очень люблю постить работы без кода и демо. 90% таких папирусов не доходят до продукта и остаются поводом только для индекса цитирования.
Но за ByteDance слежу внимательно. Они, конечно, в лучших традициях просто пылесосят опен-сорс, но их ресурсы безграничны, и размер датасетов решает. Плюс Тик-Ток - это первый кандидат на потребление ацких видеогенераций и их вирусную дистрибуцию.

Вот поглядите, что они выкатили - MagicVideo-V2.

Выглядит все примерно, как у людей. Интерес представляет раздел, где сравниваются разные генераторы. Конечно, если привалить колор-коррекцию на свои ролики, а остальных сильно сатурировать, то будет удобно показывать результаты (сарказьм).

Ну и мы находимся в точке, где все генераторы примерно одинаковы в плане работы с промптами. Но в отличие от картинок, которые можно поправить в фотошопе, такие видосы не очень пригодны к редактированию - у вас нет исходника, остается только нехитрый композ.

Ну и мое внимание опять привлекли видосики со спец-эффектами. Вангую появление ИИ-футажей именно для огня, дыма и прочей пиротехники.

https://magicvideov2.github.io/

Метаверсище и ИИще 2024-01-25 11:59:49

Видео-марафон.

После вчерашнего поста про новый-старый видеогенератор от Гугла поресерчил тему видео (и разгреб папку Saved в телеге, куда сбрасывал годноту на каникулах). Поэтому сегодня пройдусь короткими очередями по видеоделам.

Pika, как и ожидалось, переобулась в платную подписку. Хотите безлимита - это будет стоить 70 баксов в месяц. Иначе это пустая трата кредитов - вы же помните как улетают кретиды в экспериментах?

Но вот их новая фишка с расширением вертикального видео до горизонтального (реально - до любого размера) - это прям огоньогонь.

Для картинок это уже пройденный этап и outpaint и Generative Fill всех разбаловали (хотя отмотайте на 2 года назад и покажите себе Generative Fill в Фотошопе - и вашим мозгам конец).

А вот для видео - это новая фишка, где Пика похоже первая.

Наконец-то монтажеры перестанут убивать с особой жестокостью тех, кто присылает им видосы в вертикальном формате.
https://pika.art/pricing?interval=month

Сиолошная 2024-01-25 11:20:53

Тут я очень согласен — я даже кандидатам иногда (когда вижу неуверенность/волнение выше нормы, или когда они чего-то не знают, и стесняются этого) на собесах говорю прямым текстом, что мы так или иначе дойдем до границы, где кончаются их знания, и будем смотреть, как кандидат в realtime движется вперёд, какие может делать предположения, как их опыт позволяет отсекать неправильные идеи и выделять перспективные.

Кто-то на собеседованиях по NLP «изобретал» на ходу реальные технологии и фичи, о которых в своё время были написаны целые статьи — потому что человек смог сделать правильные допущения с высоты своего опыта. Правда, иногда такие идеи не работали — но показательно, что видным учёным было это неочевидно, что они аж делали исследование и по его результатам писали статью!

BOGDANISSSIMO 2024-01-25 11:17:13

REASONING

Важный мета-навык, на который Я обращаю внимание на собеседованиях, это "здравый смысл" или "умение рассуждать". Мне нравится метафора Игоря.

У каждой позиции, на которую нанимаешь, есть несколько ключевых навыков, которые сотрудник будет использовать в работе. Цель собеседования:

1. как можно точнее оценить, на каком уровне кандидат находится по каждому из направлений;

2. понять, какой у кандидата потенциал роста (за какое время сможет наверстать отстающие?).


По этой причине вы сильно облегчите жизнь – и себе, и интервьюеру, – если заранее будете знать ответ на вопрос "какие твои самые сильные (слабые) навыки?". О том, как трекать навыки, у нас был пост: https://t.me/bogdanisssimo/175

Пункт №1 – это то, что кандидат уже знает и умеет, с чем он уже работал. Но в работе далеко не всегда делаешь то, что уже делалал, одними и теми же инструментами, поэтому надеяться, что нам повезёт и задачи, которые нужно решить, попадут в эту категорию – не приходится.

Пункт №2 ещё важнее и интереснее. Мы живём в период, когда ландшафт технологий меняется на глазах, поэтому нужно быть очень адаптивным и уметь в короткие сроки осваивать новые инструменты (да и вообще говоря, работать с непривычным уровнем абстракций).

Метафора: Каждый навык это как отдельная вертикаль на шахматной доске, допустим их 8 и у каждого 8 уровней. За 60 минут интервью тебе нужно методом тыка (буквально, binary search), найти, где походит граница между тем, что кандидат знает и умеет, и тем, что не знает.

Далее, хотим понять, а на сколько клеток вперёд кандидат может осмысленно рассуждать? Лучше всего давать кейс. Как он принимает решения в условиях неопределённости? Какие он делает допущения? Как экстраполирует, что знает, на то, что не знает? Проговаривает ли логику? Оценивает ли уверенность в своих гипотезах? Когда делает ошибки,
находит ли их сам?

Чем выше ваш грейд, тем шире должны быть обе зоны. Если вы ещё стажёр, вам тем более стоит делать ставку на reasoning, ведь как таковой зоны "с чем уже работали" у вас пока нет.

Neural Shit 2024-01-25 09:45:10

Всегда считал дополненную реальность хуитой без задач, но вот такое применение для настолок — вполне годно! Ток с вот такой гарнитурой на башке всрато как-то долго сидеть. Если бы это все было небольшим и аккуратным (примерно как у Google Glass) было б ваще огненно.

Сиолошная 2024-01-24 19:43:56

Всем спасибо, что пришли на стрим, будем работать следующий год, писать посты и новости. Ждём GPT-5, Sama, ну когда там релиз-то?

Подписывайтесь на наших гостей (в алфавитном порядке):
— Валера @cryptovalerii
— Денис @denissexy (пришёл без чая)
— Паша @RationalAnswer
— Таня @rybolos_channel

Сиолошная 2024-01-24 19:39:18

Live stream finished (1 hour)

Метаверсище и ИИще 2024-01-24 18:06:38

Я сам пользуюсь https://www.watermarkremover.io/ - он работает лучше.
Там бесплатное сохранение в не очень высоком разрешении.

Сиолошная 2024-01-24 17:55:27

Live stream started

Сиолошная 2024-01-24 17:54:50

Стрим начинается через пару минут, а этот пост – для комментариев!

Пожалуйста, не спамьте бессмысленными сообщениями, стикерами и гифками.

Нейронавт | Нейросети в творчестве 2024-01-24 17:47:34

dewatermark.ai

Удаление вотермарков с изображений. Говорят что бесплатно. Сервис умный, сам находит вотермарки, но можно выделить и кистью

#tools #inpainting #restoration

Метаверсище и ИИще 2024-01-24 17:33:00

Новый видеогенератор от Гугла.

Тут телеграмчик приподвзвывает про новый input-to-video генератор. Под скромным названием Люмьер.
Можете посмотреть на эту прелесть вот тут:
https://lumiere-video.github.io/ (пейпер есть, кода, естественно, нет).

Мои мысли ниже (мы ж тут про авторский канал, а не агрегатор новостей).

1. Генератор не то чтобы новый. Он как бы очень старый.
Напомню, что Гугль одним из первых бахнул text-to-video генератор почти ПОЛТОРА года назад (хорошо иметь свой канал, там все зафиксировано).
https://imagen.research.google/video/
https://t.me/cgevent/4343

Глядя на примеры, я вижу ту же панду, того же мишку, корабли в море, что меня немного смущает. Да их качество стало НЕМНОГО лучше, но говорить о скачке или прорыве не приходится.

2. Image-to-Video выглядит довольно вторично, тут Гугль в роли догоняющего. А в сети уже есть аналогичные "оживлялки". С Моной Лизой совсем кринж.

3. Video Stylization выглядит нарядно. Но камон, помните когда Runway выкатил первый GEN-1 и ролики Карен Чен? Вот это взрывало мозг. Сейчас смотрится опять же вторично.

3. Cinemagraphs. Это как бы image-to-Video в выделенной области. Тут как бы новое название той же фичи.

4. Video Inpainting интересный, но примеры невыносимо синтетические и вакуумно-сферические. В посте такое очень пригодилось бы, но здесь просто демо и продуктовой мыслью тут и не пахнет. Опесорсные решения типа Select/Animate/Anything явно ближе к народу. И тут я жду, что сделает Адобченко, у которого тоже все хорошо с датасетами и ресерчем.

5. Переодевалка на видео выглядит очень круто. Правда с волосами там забавности, он их явно прорежает. Вчера писал про Superlook, там ребята тоже пилят примерку на видео, но на основе опен-сорса. И этот последний блок на сайте с совами и одеждой выглядит наиболее интересно с продуктовой точки зрения. Но где Гугл и где продукт? Пока это демо и папира, которые (возможно) когда-то зайдут в Google Photo и новые версии Pixel.

А теперь поворчу. Вы помните какой был прогресс в 2022 году от кринжовых версий Disco Diffusion до летних сенсаций от Stable Diffusion и Midjourney и DALLE-2?

Прогресс в видеогенераторах медленный. Видео - оно само по себе сложное. Там не просто пиксели бегают по картинке, там шевелятся десятки сущностей: персонажи, фоны, освещение, тени, фокусное расстояние, текстуры и еще много всего. Разметить картинку и разметить видео - немного разные задачи. Описать движение? Попробуйте сами двух словах. Промпты должны быть величиной с дом для попадания в замысел сам себе режиссера.

Поэтому, как я уже давно ворчу, рассказывание историй - за горами. А вот реклама, моушен, клипы, музыкальное видео и любой настроенческий видео-ряд - это прям новая поляна для генеративного видео. Тик-ток ждет этого добра.

И пример с паровозом мне приглянулся своими мамкиными спец-эффектами. На поляне симуляций (вода, огонь, взрывы и вот это вот все) это быстрое пришпандоривание эффектов может очень хорошо зайти в контент для соц-сетей и даже телика и новостей. И тут Адобченко точно может развернуться.

На итоге: я ожидал от Гугла в разы большего. Кто как не Гугл является держателем самого огромного (полуразмеченного) датасета с видео.
Жду ответочки от Адобченко.
https://lumiere-video.github.io/

Метаверсище и ИИще 2024-01-24 17:32:46

Новый видеогенератор от Гугла.

Neural Shit 2024-01-24 13:14:00

Чот проиграл с этого. Duke Nukem: симулятор рыбалки

Метаверсище и ИИще 2024-01-24 10:58:10

Это мы с Джамой обсуждаем работу в Виаре над динозаврами...

Метаверсище и ИИще 2024-01-24 10:56:59

Слушать Джаму - это всегда кайф.
Джама выступал у меня бесконечное количество раз. И всегда это был полный зал, шок, что-то запредельно эксклюзивное и потрясающий таджикский юмор.
Джама — непредсказуем, он может появиться VR-шлеме и погрузить всех в виртуальную реальность, создавая в реальном времени 3Д-контент. А может час рассказывать про историю одного концепта, заставляя слушателей непрерывно рыдать и плакать, от смеха и счастья.
Второй день слушаю интервью Джамы у Дудя. Н-Ностальгия.
И хотя, как мне кажется, я уже слышал все истории от Джамы, здесь нашел много нового.
Например про сковородки.
Многим будет интересно послушать (и посмотреть) про виар: Джама - это инопланетянин, который умеет делать концепты в виаре.
Смотреть обязательно.
https://youtu.be/jy4hgSLBvak
Для тех, кто в танке и не знает про Джаму, читаем тут:
https://www.forbes.ru/karera-i-svoy-biznes/383983-kak-dizayner-samouchka-iz-tadzhikistana-stal-sozdatelem-personazhey-dlya

Метаверсище и ИИще 2024-01-24 09:55:07

Еще в декабре Самсунг анонсировал синхронный перевод звонков. Ну то есть вы теперь можете разговаривать с любым носителем одного из 13 поддерживаемых языков. Разговор будет переводиться на лету.

Есть пара моментов, которые обычно остаются за пределами телеграм-новостей.

Перевод осуществляется НА телефоне. То есть LLM-переводчик крутится прямо на устройстве. Это не пересылка в облако и перевод там - иначе было бы медленно.
И тут вопрос, что думает по этому поводу батарея.

Это работает на стороне Samsung S24. Оба перевода, входящий и исходящий. То есть вам могут даже звонить с "городского". Все крутится на стороне S24.

Это LLM и разработка Самсунга. Тут были новости, что Самсунг заколлабился с Гуглом на предмет генерации картинок, суммаризации текстов и пр. Но перевод - это чисто Самсунговская разработка.

Также внутри:

Chat Assist - изменение тональности, перевод или проверка орфографии текстового сообщения перед отправкой.
Функция Circle to Search позволяет запустить поиск Google по любому объекту на фотографии, просто обведя его кружком.
Функция Note Assist для обобщения, перевода и форматирования файлов в приложении Notes от Samsung и создания цифровых обложек для заметок.
Generative Edit, который, как и Magic Editor от Google, позволяет манипулировать и перемещать объекты на фотографиях.
Transcript Assist в приложении Samsung "Записи" для создания транскрипций и краткого изложения разговоров.

Тренда на AI on Edge, то есть когда ИИ крутится прямо на устройстве, а не на сервере, будет приметой 2024. И в этом смысле очень интересно, чем ответит Эппле. И когда.

https://www.cnet.com/tech/mobile/everything-announced-at-samsung-unpacked-s24-phones-galaxy-ai-and-one-surprise-reveal/

gonzo-обзоры ML статей 2024-01-24 04:28:29

И снова продолжаем тему Small Language Models (SLMs, https://t.me/gonzo_ML/2251).

Недавно вышла Stable LM 2 1.6B.
https://stability.ai/news/introducing-stable-lm-2

В релиз входят базовая и instruction-tuned 1.6B модели. Можно использовать коммерчески (со Stability AI Membership, https://stability.ai/membership).

Сиолошная 2024-01-23 23:34:11

Обычно на День рождения подарки получают, но я люблю дарить, отдавать и делиться. Прошлой весной, пока сидел без работы, я получал предложения сделать курс по NLP/LLM. После анализа конкурентов, включая Stanford'ские курсы, я пришёл к выводу, что мне эта идея не кажется перспективной — я не видел, что можно ещё предложить и какую ценность добавить, да и кто будет целевой аудиторией. Но осенью ко мне пришли ребята из Deep Learning School при Физтехе и предложили заделать «пару лекций». Мало кто знает, но пост про GPT-4 с Пашей Комаровским в соавторстве начинался примерно с таких же слов: «не хочешь сделать на коленке мини-заметку?».

В итоге пара лекций превратилась... в мини-курс «Полная история семейства GPT» из 4 частей. На данный момент полностью готово 2 части, и сегодня я публикую первую. Она состоит из трёх видео, которые, как я считаю, будет полезно посмотреть всем — от начинающих свой путь в ML до суперсеньорных NLP'шников, которые вероятно пропустили или не знали предпосылок разработки GPT-1. Правда, курс предполагает, что вы представляете, что такое трансформер — какое счастье, что я и такую лекцию сделал!

В курс включено много тем и деталей, о которых либо говорят редко, либо они не указаны в статьях, либо всё и сразу. Какие-то топики, конечно, пересекаются, но думаю, что здоровая доля novelty тут есть.

1) youtu.be/l-l82uNwyu8 — лекция про сжатие как способ выработки понимания (что? а вот увидите!)
2) youtu.be/jKd_CdRh7U4 — лекция про обучение без учителя на текстовых данных, или почему мы обучаем языковые модели так, как обучаем
3) youtu.be/i3lkIJ82rNI — finally, лекция с разбором GPT-1

(но вообще я предлагаю просто подписаться на канал на YouTube, чтобы иметь удобную навигацию там и ничего не пропустить)

Вторая часть выйдет на следующей неделе, будет состоять из ПЯТИ видео и опишет прогресс от GPT-1 до GPT-3. Семинары и домашние задания к лекциям появятся весной и будут выложены на платформе курса — поэтому переходите на сайт школы, чтобы ничего не пропустить. Занятия в школе — БЕСПЛАТНЫЕ (и организованы на платформе Stepik)!

Сиолошная 2024-01-23 23:33:46

Ровно год назад я сидел во Вьетнаме

🙀и писал первый пост в этот канал, не подозревая, до чего всё дойдет. Ну будет через полгода в лучшем случае тысяч пять человек, было бы круто! Ну напишу ещё пару интересных длиннопостов — помогу людям воспринимать информацию о технологиях. Но я недооценил ни свои навыки, ни интерес публики к теме, ни свои ресурсы и интерес — и оказалось, что на хороший контент в текстовой (и не только) форме есть спрос.

За год канал вырос до 34 тысяч подписчиков (и более 10к активных читателей), я написал более тысячи сообщений, если верить Телеграму (это сообщение имеет номер #1010, а сколько постов я ещё не написал или отложил...), 5 лонгов на Хабр и другие ресурсы, залетел с ними в топ-1 рейтинга авторов, записал несколько лекций, дал десятки комментариев, встретил сотню интересных людей — и забанил в комментариях ещё больше неинтересных
😇
моя лекция даже была выбрана в голосовании сообщества ODS как самая лучшая за 2023й год! Это очень приятно!

На этот год для меня основная цель — начать делать и продвигать свой контент на английском. Я переведу часть уже опубликованных материалов, а также сделаю новые.

Чтобы оставаться в коннекте — добавляйте меня в контакты на LinkedIn, если вы ещё этого не сделали: https://linkedin.com/in/seeall

И не забывайте, что все мои материалы перечислены в третьем сообщении на канале: https://t.me/seeallochnaya/3 — переходите, выбирайте, смотрите!

эйай ньюз 2024-01-23 19:31:51

Я тут наткнулся на профиль одного паренька. Честно сказать, я в шоке. В 14 лет он закончил бакалавриат, в 19 лет он закончил PhD, а в 20 лет стал Research Director в Stability AI.

Он взломал жизнь?

@ai_newz

Метаверсище и ИИще 2024-01-23 16:02:02

В прошлом 2023 году ИИ-хайп полностью вытеснил из повестки тему метаверсов. В принципе это и неплохо, мутная вода ушла, остались реальные проекты, которые чего-то стоят. Ниша потихоньку формируется и занимает свое место. Но сам термин "метавселенная" до сих пор является неплохим маркетинговых ходом для привлечения молодежной аудитории к бренду.

В канале Filipchik Daily | Metaverse | Tech много об этом рассказывают и знают о чем говорят, потому что сами занимаются их созданием.

#промо

Метаверсище и ИИще 2024-01-23 15:49:04

Перебеседовал с Пашкой. В Superlook.ai куча новых убойных фильтров. Это я в роли античных скульптур и прямиком из Вальхаллы. Сделано из одной единственной фотки моей морды.
Пример идеально упакованного сервиса, который на основе Stable Diffusion, который делает очень много: от полного переодевания (что само по себе топ) до десятков очень фановых фильтров. И там под капотом нехилый такой комбайн из десятков примочек к SD и сурового рисерча.
П-Продукт.

Метаверсище и ИИще 2024-01-23 15:23:22

Orion 14B: Новая базовая (и возможно огненная) LLM-модель от производителя подносов.

Это не шутка, это вполне себе интересная новость начала 2024 года.
Давайте по порядку.

Вышла новая базовая LLM-модель Orion 14B, которая обучена на 2.5Т многоязычном корпусе текстов, включая китайский, английский, японский, корейский и демонстрирует отличную производительность на этих языках. Есть файнтюн для чата, отлично работает при длине токена 200 тыс. и может поддерживать максимум 320 тыс.
Полный фарш из модификаций.
Orion-14B-Base
Orion-14B-Chat
Orion-14B-LongChat
Orion-14B-Chat-RAG
Orion-14B-Chat-Plugin
Orion-14B-Base-Int4
Orion-14B-Chat-Int4

Гики могут воспроследовать сюда, поглядеть спеки, скачать веса и даже есть демо (утром работало очень быстро).
https://huggingface.co/OrionStarAI/Orion-14B-Base
Демо:
https://huggingface.co/spaces/OrionStarAI/Orion-14B-App-Demo-EN

Теперь интересное.
Авторы модели (не файнтюна), а базовой кошерной модели - компания OrionStar. Которые производят роботов. В основном роботы-тележки-с-подносами. Которые бегают на выставках или в бизнесс-центрах и даже в аэропортах. См шапку.

Где они собирали датасеты неводомо из пдфки (ведомо что 90% - это китайский и английский). Но подумайте, производитель робототележек выпускает свою LLM!

Не стартап на сто миллионов, не гугль или микрософт. Просто промышленная компания.

Итого, что мы ожидаем в 2024 году? Полчища опен-сорсных моделей от компаний, у которых просто есть ресурсы. И это могут быть ЛЮБЫЕ крупные(пока) компании. А не только универы со стартапами и фаанги.

Не зря CBInsights пишут, что open source потихоньку сокращает разрыв с closed sourse - разрыв никуда не денется, но будет и дальше сокращаться.

Ну и следующий тренд - LLM-ки для инференска на телефонах.

Собираюсь разобрать 112 страниц этого отчета, но дайте время.

Немного смутило одно. В бенчмарках ни одного сравнения с Мистралем.

Хотите больше инфо, гляньте тут:
https://www.reddit.com/r/LocalLLaMA/comments/19ce7kw/a_new_base_model_orion_14b_trained_on_25t_tokens/

Neural Shit 2024-01-23 14:58:10

Пью пивас и доёбываю ChatGPT. Вот вам сказка "Колобок" в стиле копипасты про батин жареный суп, например:

>>Мой дед ебашит вообще адовые пироги. Ну вот примерно рецепт его версии Колобока, потому что, блин, стандартные сказки - это не про моего деда. Он берет муку, да не простую, а самодельную, перемешанную с перцем чили и семенами горчицы для остроты. Добавляет туда квас, старый, как мамонт, для закваски. Замешивает тесто, да так, что руки в муке по локоть, и лепит из этого колобка.

Но не просто лепит, а еще и рисунки вырезает на нем, чтоб страшно было. Выпекает в печи, но не просто так, а подкидывает туда сухих еловых шишек для аромата. Когда колобок готов, он его не просто на стол ставит, а как футбольный мяч катает по всей избе, пока тот не наберет "скорость".

И когда этот колобок вылетает в окно, такой горячий и острый, что даже вороны на березе чихают, дед отправляет меня за ним бегом. Колобок катится по лесу, встречает зайца, волка, медведя. Все от него в сторону – вонь такая, что даже мошки разлетаются.

В итоге колобок встречает лису. Та хитрая, но от такого аромата даже у нее глаза на лоб лезут. Съела она его, но потом такой пердеж начался, что в лесу все листья опали. Вот такие пироги у моего деда, хоть стой, хоть падай!

gonzo-обзоры ML статей 2024-01-23 13:28:36

Ещё про амдшное железо.

"AMD has begun to ship its Instinct MI300X GPUs for artificial intelligence (AI) and high-performance computing (HPC) applications."

"Meanwhile, an Instinct MI300X carries 192 GB of HBM3 memory (at a peak bandwidth of 5.3 TB/s)."

192 гига... Ням-ням...

"Based on performance numbers demonstrated by AMD, the Instinct MI300X outperforms Nvidia's H100 80GB, which is available already and is massively deployed by hyperscalers like Google, Meta (Facebook), and Microsoft. The Instinct MI300X is probably also a formidable competitor to Nvidia's H200 141GB GPU, which is yet to hit the market."

https://www.tomshardware.com/tech-industry/supercomputers/amds-customers-begin-receiving-the-first-instinct-mi300x-ai-gpus-companys-toughest-competitor-to-nvidias-ai-dominance-is-now-shipping

Метаверсище и ИИще 2024-01-22 15:18:17

⚡️ Помогают выставить счет в USD или EUR и получить оплату на карту или счет в России.

Ваш работодатель переводит средства на наш зарубежный счет, а они выплачивают вам рубли в РФ в нужной валюте (На карту, на счет, криптой)

Работают от 1500$

Их услуги подходят, как для частных специалистов - получать постоянную зарплату из-за рубежа, так и для компаний, получать средства за проектную деятельность

Отзывы и подробности в Telegram канале @moneyport

#promo