Нейролента Mikitos.ru 2736 постов. Страница 47 (50 постов)
Сиолошная 2023-06-30 12:33:54
Когда-то Юра написал этот пост в слаке ODS и я часто на него ссылался. Последний раз — вчера (лол).
Но переписки и скриншоты сгинули в небытие. А вот сам автор всё воспроизвел!
Поэтому перешлю классику и сюда.
New Yorko Times 2023-06-30 12:33:54
О гномиках и литкоде на собесах
#interview #tips #career
Никто не спрашивал, поэтому вот мои рассуждения про отличие олимпиадных математических задач (“гномиков”) от алгоритмических и задач про структуры данных (”литкод”). А то бывает, сетуют на литкод и обзывают его “гномиками”.
“Гномиками” будем называть далекие от практической пользы задачи типа этой, ставшей классической. Еще типичная: есть там остров, бревно, по нему может с фонарем пройти только один человек, папа за 2 минуты, мама за 3., и т.д., за сколько все семейство переберется (немало такого было в моей истории про самый упоротый собес, а также в посте про Санька с Wall Street).
При всем уважении к олимпиадникам и всесторонне развитым людям, гномики - это мало кому нужный мозгодроч, заниматься этим можно в рамках кружка-квадратика юных математиков, чтоб тебя называли сыном маминой подруги. Ну и для персонального развития. А карьере SWE/DS никакого отношения не имеет, даже Гугл подтвердил, что корреляции riddle performance с продуктивностью кандидата – нет (“In Google we analyse everything with data, and what we discovered was that when we examined our brain-teasers, they weren’t a good predictor at all in terms of whether someone would be a good hire or not. So we don’t do them anymore”). Если тебе задают гномика на собесе, смотришь че за компания. Если The Only One - ты должен был знать заранее и ботать гномиков. Если нет - вежливо посылаешь нах, запасные варианты всегда должны быть.
Пример гномика: докажите, что между 100500 и Гуголплекс не менее Гугол простых чисел.
Алгоритмы и структуры данных - это совсем другое, основа основ для любого человека, пишущего код. Например, если ты не знаешь, что lookup в списке не надо делать, а в множестве – можно, то тебе будет тяжело писать эффективный код. Будешь продакту мямлить: “нужно еще пару недель, все работает, но выжирает всю память”. Еще пример из жизни: в телекоме соседний отдел оптимизировал прокладку оптоволокна, решал задачу на графе и вместо алгоритма Беллмана-Форда запускал Дейкстеру для каждой пары вершин. Коллега пришел все пофиксить, но утонул в легаси. В итоге в паре мест поменял списки на множества, шесть строк переписал на нумбу, good enough (возможно, нам все еще дейкстра по всем парам бегает). Так что базовые вопросы по алгоритмам и структурам данных – вполне неплохая идея при отборе любых спецов, пишущих код.
Пример: реализуйте Python-класс Очередь с такими-то базовыми операциями.
Если ты подобные вопросы помечаешь у себя в голове тегом «гномик» - это самообман. Можно делать свой фит-предикт и ждать, когда Generative AI вытеснит тебя из профессии.
Сиолошная 2023-06-30 08:39:30
Возвращаясь ко вчерашней теме. Так как это был реальный вопрос из датасета, то мы можем посмотреть на распределение голосов между ответами респондентов из разных стран (ссылка на строчку с результатом).
Всего указано две страны: Russia и Ukraine (в других вопросах другие страны, есть даже такие, где приведена статистика по более чем десяти странам).
В первой голоса разделились как 8.8% vs 91.2%
Во второй — 36.8% vs 63.2%.
Видна существенная разница в восприятии жителями Украины, собственно, странны, фигурирующей в вопросе, и опрошенных россиян — правда ни там, ни там большинство не верит, что государство уважает свободу личности.
Что интересно, наш опрос в чате очень близок к оценке самих украинцев: 35% vs 65% (игнорируя кнопку "посмотреть результаты"). В некотором смысле можно сказать, что мы почти uhnbiased (если предположить, что мы пытаемся ответить от лица человека, который должен эээ давать наиболее объективную оценку: жителя страны).
Но такой вопрос ярко демонстрирует проблему, которую, вероятно, придется решить на пути к AGI. Как ИИ учитывать разные мнения из разных стран? А как они должны меняться во времени, реагировать на происходящие вокруг события? Как не "привить" модели модель мира одного большинства, фокусируясь только на Западном мире?
Столько нерешенных проблем...
gonzo-обзоры ML статей 2023-06-29 22:02:15
Не про ML (хотя он может там и есть), но не могу не расшарить.
Gravitational-wave background is here.
“What we’ve essentially done is hack the entire galaxy to make a giant gravitational wave antenna”
https://www.quantamagazine.org/an-enormous-gravity-hum-moves-through-the-universe-20230628/
Сиолошная 2023-06-29 21:17:58
Свежая статья от Anthropic, конкурентов OpenAI (писал о них подробнее тут). Выбрали они очень интересный топик, и попытались проверить схожесть мнений LLM и людей из разных регионов на широкий круг тем.
Смотрите картинку - сверху задаётся вопрос, мол, если бы вы выбирали между хорошей демократией и сильной экономикой, то что из этого играло бы большую роль? У ответа, очевидно, 2 опции - A и B. Мы можем замерить, с какой вероятностью модель ответит A и с какой B. наверное, можно сказать, что если модель идеально откалибрована на наш мир и представляет интересы всех людей, то соотношение процентных вероятностей должно быть похожим на некоторое _истинное_ распределение. Если в начало вопроса добавить что-то в духе "представь, что ты житель США" — то можно (в теории) получить оценку людей из этой страны. Как видно на картинке — Claude (ChatGPT от Anthropic) топит за демократию
Так вот, было собрано больше 2 тысяч вопросов со статистикой ответов респондентов из разных стран. Оказалось, ВНЕЗАПНО, что по умолчанию ответы модели максимально схожи с оценками участников из США, Канады и некоторых стран Европы. Вот на этом сайте можно поиграться с визуализацией на карте, насколько похожа модель на разные страны (в том числе с промптом под страны — см. вкладку "Cross National Prompting"). А вот тут выложены все вопросы с процентной разбивкой.
В общем, модели ещё выравнивать и выравнивать. OpenAI, кстати, думают в ту же сторону — напомню, что они запустили активность по приёмке предложений о репрезентативном сборе данных со всего мира, чтобы учитывать индивидуальные мнения меньшинств (читать тут).
P.S.: вот интересно в контексте последнего тезиса, почему есть слухи о крипто-монетах от OpenAI?) неужели будут за опросы платить виртуальной валютой, а взамен получать фидбек от людей со всего света? вот это ДЕМОКРАТИЯ!
Сиолошная 2023-06-29 20:38:55
Пример описания произвольной функции для применения к сырым данным. Код дописывать НЕ надо, генеративная нейронка сама угадает, что и как делать.
Сиолошная 2023-06-29 20:37:47
Пример: сверху — запрос на рисование графика, снизу результат его конвертации в код и исполнения над реальными данными.
Сиолошная 2023-06-29 20:37:04
Introducing English as the New Programming Language for Apache Spark
Новость с громким заголовком, в то же время ознаменовавшая, на мой взгляд, следующую большую эпоху в мире разработки.
Databricks, компания, основанная разработчиком Spark (Matei Zaharia, писал тут) и лидирующая на рынке предоставления облачных кластеров для обработки данных, интегрировала новую фичу: запросы на английском. Теперь не нужно вспоминать синтаксис и особенности обработки данных конкретной библиотекой, можно написать простой запрос на естественном языке, а он уже сам трансформируется в чтение тех или иных баз данных.
Это киллер фича для аналитики, потому что теперь даже 10 минут на составление запроса (и 20 — на копании в сотне страниц документации с описанием тысяч таблиц) не нужно тратить: нужно лишь добавить пару деталей к оригинальному запросу от менеджера, и всё!
Разработчики пошли ещё дальше, и прикрутили Copilot, который "угадывает" функции по описанию. Скажем, вам нужно сделать что-то необычное сверху данных. Обычно разработчик формирует UDF (user defined function), и затем её применяет. Теперь можно задать лишь сигнатуру (какие колонки принимает, какие возвращает как результат), написать строчку описания — и готово.
Подобные магические движки были и раньше, но тут совершенно другой уровень. Во-первых, у Databricks нереальное количество данных для создания наилучшей модели, тесно интегрированной со схемой данных, с их хранилищем. Во-вторых, это выход сразу на огромный рынок с реальными потребителями, которые уже платят. В-третьих, всё же технологии за последние 8 месяцев очень развились, и такой же инструмент год назад скорее всего не работал в комплексных запросах в половине случаев.
Теперь ждём совмещения вакансий Data Analyst, BI Engineer и Product Manager!
UPD: самое главное, как мне видится, это возможность модели "читать" данные и интерпретировать содержание баз данных, а также схему данных. Если каждую таблицу описывать человеческими словами, а каждую колонку подкреплять однострочным осмысленным предложением, то я не вижу, почему машина не сможет составлять грамотные запросы, которые в 99.5% случаев верны.
Сиолошная 2023-06-29 19:51:31
Статус: на 8й за день отправленной в "сохрененное для канала" ссылке захотелось закричать ДА ТВОЮ МАТЬ НУ СКОЛЬКО МОЖНО ТО А Я ЖЕ НЕ УСПЕВАВЮ ПИСАТЬ
эйай ньюз 2023-06-29 17:00:14
🔥Новый курс: Generative AI with Large Language Models
Сегодня Эндрю Ын аннонсировал на Coursera новый трёхнедельный курс по большим языковым моделям (LLM).
Курс подойдет для все кто хочет в структурированной форме разобраться как работают LLM-ки такие как LLaMa и GPT-4, и как с ними работать. Все лекции в сумме - примерно 15 часов. Преподавать будут 3 эксперта из AWS, которые занимаются LLM на работе и имеют широкий практический опыт.
Вот примеры некоторых тем, которые покрываются курсом:
— RLHF: Reinforcement Learning from Human Feedback (RLHF) - это подход, который помогает согласовать большие языковые модели с предпочтениями людей, что значительно улучшает качество взаимодействия между людьми и этими моделями. ChatGPT тоже была обучена с помощью этого подхода.
— Zero-shot, one-shot, и few-shot обучение с LLM: Это обучение моделей на ограниченном количестве примеров. Эта функция появляется примерно начиная с 100M+ параметров. Эффективность модели в zero-shot, one-shot или few-shot режиме кажется масштабируется с размером модели, то есть крупные модели (с большим количеством обучаемых параметров или слоев) обычно более эффективны.
— Продвинутый промптинг ReAct: ReAct - это фреймворк, в котором большие языковые модели используются для генерации как логических шагов, так и задачно-ориентированных действий попеременно. Генерация логических шагов позволяет модели формировать, отслеживать и обновлять планы действий, а также обрабатывать исключения.
— Fine-tuning LLMs: Fine-tuning ("дообучение") - это процесс адаптации большой языковой модели к конкретной задаче путем ее обучения на меньшем, соответствующем наборе данных.
Короче, это топ курс, бесплатно и без СМС! Думаю сам тоже посмотреть.
👁 Записаться на курс на Coursera
@ai_newz
gonzo-обзоры ML статей 2023-06-29 16:49:23
За последнее время неожиданно поучаствовал в двух подкастах вокруг LLM и современного AI. Если вдруг кто по мне соскучился, вот:
1. Подкаст Вани Ямщикова:
https://www.youtube.com/watch?v=5ioSqLspbAE
2. Conversations:
https://www.youtube.com/watch?v=t0G4ZjTqkLg
эйай ньюз 2023-06-29 10:31:44
Тайная ве́черя из наших любимых мэмов, господа 🥂
Запилено с помощью Adobe Generative Fill. Поистине чудовищно клёвый инструмент. А все благодаря диффузии.
@ai_newz
Neural Shit 2023-06-28 15:53:13
Ежедневный проклятый контент. Делай так каждый день и спина болеть не будет.
С каждым днем мы все дальше от бога
эйай ньюз 2023-06-28 15:01:05
The Little Book of Deep Learning
Карманная книга по DL от профессора из Женевского Университета François Fleuret. Всего 160 страниц размером с экран телефона, где очень ёмко описываются основные принципы Глубокого Обучения с отличными иллюстрациями.
Классно подойдёт для того чтобы освежить знания перед собеседованиями либо для быстрого входа в DL (желательно, конечно, пользоваться и другими источниками параллельно).
• По ссылке можно бесплатно скачать PDF, отформатированную специально для удобного чтения на мобильных телефонах.
• Либо можно заказать бумажный вариант. #книги
@ai_newz
Сиолошная 2023-06-28 14:23:07
OpenAI открыли первый офис за границами США — в Лондоне. Теперь переманивать ведущих исследователей из Google DeepMind и Facebook AI Research станет еще проще!
Вакансии можно посмотреть тут, а у меня скоро будет про них отдельный пост :)
P.S.: обычно между континентами разница в зарплате раза в 2-3, интересно, сохранится ли она и в этом случае?)
Neural Shit 2023-06-28 14:15:05
Среда, мои чуваки! В этот раз у нас не традиционные нейронные факты о лягушках, а примеры того, как вы можете использовать лягушек в быту:
>>Если вам нужно охладиться в жаркую погоду, обнимите лягушку. Их прохладная и мягкая кожа дарит удивительное ощущение комфорта и прохлады.
>>Установите лягушку на ваш Wi-Fi роутер. Зелёная кожа лягушки, может помочь усилить сигнал. Не забудьте периодически обновлять лягушку, чтобы сигнал оставался сильным.
>>Поставьте аквариум с лягушками рядом с кроватью. По утрам, когда лягушки начинают квакать, это будет естественный звонок будильника. Отметим, что настройка времени звонка может потребовать несколько поколений лягушек и генетической инженерии.
>>У вас много гостей и нет подноса? Используйте большую водяную лягушку. Её спина плоская и достаточно прочная, чтобы удерживать пару стаканов с напитками. Поставьте на неё стаканы и она перенесет их к вашим гостям.
>>Если вам нравится запах свежего болота, можно использовать лягушку в качестве натурального ароматизатора. Просто поставьте лягушку в центре комнаты и наслаждайтесь
>>Если вы забыли ключи от дома, не беда! Просто найдите лягушку, поцелуйте ее и попросите открыть дверь своими магическими силами. Они всегда готовы помочь!
>>Если вам нужно быстро и безопасно пересечь реку, обклейте себя несколькими сотнями лягушек. Они позволят вам плыть по воде, словно это самое обычное дело.
>>Хотите придать своему голосу неповторимый тембр? Сделайте операцию по замене своего речевого аппарата на лягушачий!
>>Хотите сделать свой дом экологически чистым? Вместо обычных мусорных баков используйте живых лягушек в качестве "живых помойных ведер". Они будут съедать мусор и при этом весело квакать!
>>Если у вас закончилось мыло, не беда! Просто возьмите лягушку, и она с радостью заменит вам мыло. Лягушачья кожа натурально очищает и освежает кожу, оставляя приятный аромат.
#среда
Neural Shit 2023-06-28 12:42:45
Если у вас тоже каждый раз при регистрации в каком-либо сервисе сгорает жопа от дебильных правил для длинны и спец. символов в пароле, то вот это будет для вас настоящим адом.
Попробуйте создать пароль тут: https://neal.fun/password-game/
эйай ньюз 2023-06-28 07:36:04
Пока летел в самолете я послушал разговор с CEO Майкрософта, Сатьей Наделлой в подкасте Freakonomics.
Я впервые послушал интервью с Сатьей, он оказался прикольным весельчаком, который любит переводить поэзию на разные языки с помощью ChatGPT. Ещё он работает в Майкрософте аж с 1992 — это 31 год!
В подкасте они поверхностно поговорили про ChatGPT и про то, почему Майкрософт проинвестировал 13 млрд $ в OpenAI.
Среди достижений Наделлы как CEO — увеличение фокуса компании на облачных вычислениях и конечно AI. За его время на посту CEO, Майкрософт, можно сказать, встал с колен.
Был ещё такой прикол. Мы знаем, что Сатья был одним из тех, кто подписывал различные письма призывающие к созданию ограничений для AI и ответственному подходу к его разработке (на прошлой неделе появилось ещё одно письмо размером в одно предложение). Так вот ведущий спросил Сатью, почему во время массовых увольнений из Майкрософта они под ноль вырезали команду, которая занималась этикой, ведь это очень важно для создания "ответственного ИИ". На это CEO очень ловко ответил, мол им уже не нужна отдельная команда, которая бы этим занималась, потому что теперь он просит каждого инженера и каждого сайнтиста думать об "безопасном ИИ", и что теперь такой "ответственный" подход также неразрывен с созданием AI моделей, как неразрывна разработка ПО с его тестированием.
Выпуск короткий, можно послушать на сайте подкаста.
@ai_newz
эйай ньюз 2023-06-27 21:28:48
Drag your GAN: Зарелизили код и демо
Прикольная штука, конечно. Вот бы прикрутить похожий тип контроля к диффузионным моделям: тянешь точки и редактируешь реалистичные изображения. Ганы всё-таки создают картинки похуже чем диффузионки, но зато работают быстрее.
Демо на 🤗
Код
@ai_newz
Neural Shit 2023-06-27 17:18:32
Уже напилен колаб-ноутбук для DragGan, если хотели потестить, но нет йоба-видеокарты, го пробовать:
сам ноутбук
краткая видеоинструкция (хотя, там все интуитивно понятно и без неё)
Neural Shit 2023-06-27 16:40:35
text2video нейронки продолжают генерировать проклятый контент
Neural Shit 2023-06-27 14:25:31
Дефолтный стор для плагинов ChatGPT сделан как-то черезжопно, искать в нем плагины, примерно то же, что ловить осетра в унитазе.
Чуваку с реддита это надоело и он запилил свой каталог плагинов с блэкджеком и шлюхами категориями и рейтингом.
В целом, очень удобно. Если часто пользуетесь ChatGPT, то гляньте, возможно пригодится: https://plugin.surf
Neural Shit 2023-06-26 22:01:17
Тик-ток фильтр AI Barbie и собаки. Достаточно проклято.
Вы знаете, что делать
эйай ньюз 2023-06-26 15:12:31
Вот ещё пример. Интересно как аватар симулирует раскачивание на стуле, стараясь следовать входным сигналам с головы и рук.
Ноги не падают под текстуры, как оно иногда бывает в других подходах, где явно нет физических ограничений. Здесь же в явном виде в физической симуляции используются законы гравитации, масса и материалы объектов. Policy network (нейронка, которая учится контролировать аватар) моделирует момент силы на костях скелета человека, что приводит аватар в действие. Поэтому аватару и приходится следовать законам физики в данном виртуальном пространстве и учиться балансировать и не падать.
@ai_newz
эйай ньюз 2023-06-26 14:51:09
Коллеги из Reality Labs запилили full-body tracking в VR по имеющимся сигналам со шлема и джойстиков. Ещё тут моделируется взаимодействие с предметами (например, сесть/встать со стула).
Работа называется QuestEnvSim: Environment-Aware Simulated Motion Tracking from Sparse Sensors.
Метод натренирован на основе Reinforcement Learning в физической симуляции. То есть во время инференса тоже придется гонять симуляцию и знать примерные 3д меши и позиции предметов, с которыми юзер взаимодействует в реальном мире.
Выглядит правдоподобно, потому что все движения тела соответствуют физическим законам. Из ограничений — это требование гонять симуляцию во время инференса (это ресурсоемкая и небыстрая вещь) и условие, что мы заранее имеем виртуальную копию физического окружёния, в котором действует юзер.
В моей работе Avatars Grow Legs мы решали похожую проблему 3D трекинга тела, но используя кинематический data-driven подход вместо RL и физической симуляции.
@ai_newz
Neural Shit 2023-06-25 11:28:34
Новая моделька для преобразования текста в видео с открытым исходным кодом
Модель 576x320
Модель 1024x576
Сиолошная 2023-06-24 16:25:30
Ну и вдогонку темы предлагаю к ознакомлению статью исследователей из UC Berkeley с интересным названием "Why Johnny Can’t Prompt: How Non-AI Experts Try (and Fail) to Design LLM Prompts". Всем заинтересованным рекомендую к прочтению.
Основные тезисы (на основе анализа взаимодествия 10 пользователей и ChatGPT):
1) Неопытные (с т.з. "общения" с языковыми моделями) люди предполагают, что промпт, который работает в одном случае, будет работать и во всех других случаях
2) Также они верят, что если ChatGPT не делает что-то с первого раза, то оно и не может этого сделать в принципе
3) У этой же группы людей наблюдается отсутствие систематических тестирования и экспериментов
4) Сама ChatGPT в целом неплохо справляется с "подсказыванием" направления движения в правильную сторону. Если не стесняться спрашивать, то можно итеративно достичь цели
5) Касательно написания и детализации промптов — люди исследования ожидали, что простые промпты с описанием желаемого действия должны быть «поняты», а модель будет им следовать. То есть у людей есть ожидание, что модель есть буквально AGI, читающий мысли и угадывающий желания.
6) Участники ожидали, что семантически эквивалентные инструкции будут иметь семантически эквивалентные результаты, тогда как на самом деле тривиальные модификации в промпте могут привести к драматическим сдвигам в ответах модели.
На картинке — сравнение понимания группами людей (эксперты и не-эксперты) разных деталей работы в мире программирования и машинного обучения. Показывается, что у эксперта фактичсеки в каждом пункте есть отличие, дающее скорее качественную разницу. И странно, что люди не берут это в рассчет при оценивании навыков больших языковых моделей — мол, я уже эксперт, у меня всё и так бы заработало, если бы модель была умной!
TLDR: используйте GPT-4 (купите подписку уже, наконец), практикуйтесь, ищите чужие промпты и пытайтесь понять, что работает, а что нет. Начать можно с объемнейшего промпта, который предлагает модели примерить роль "учителя" — я про него писал вот тут.
Сиолошная 2023-06-24 15:35:12
Вот интересный график со страницы релиза GPT-4 (он не менялся с даты выхода, просто под руку попался).
Здесь отображена доля правильных ответов для моделей, если им задавать вопросы, требующие фактической информации для генерации. Видно, что прогресс существенный — относительный рост метрик достигает 40% (ChatGPT -> GPT-4). Однако глобально модель всё еще иногда галлюцинирует, потому лишь 80% вопросов отвечаются корректно. Для "базы знаний" точно ненадежно, это факт.
Если вам интересно узнать в общих словах, как OpenAI частично побороли проблему галлюцинаций и ответов со враньем, то предлагаю посмотреть мой последний доклад (ссылка с таймкодом).
Сиолошная 2023-06-24 15:24:41
Так как вокруг ничего не происходит и писать не о чём, то прокомментирую вот эти два твита на скриншоте.
Действительно, многие люди поигрались с ChatGPT в районе января-февраля 2023го года, при этом не используя разные промпты (особенно с примерами, чтобы модели было проще понять задачу) и тем более (зачастую) не понимая ограничений системы. И вправду легко было обмануться, причем, в обе стороны — и подумать "прикольно, но кому нужна простая болталка", и восхититься "вау это же почти искуственный интеллект!".
И сама ChatGPT развилась за это время (ведь её постоянно дообучают, было, как минимум, 3 версии), и вышла более мощная GPT-4, которая уж сликшом существенно отличается от предшественницы. А ещё люди лучше начали "чувствовать" границы того, где и для чего модели стоит использовать.
Так, например, я писал о том, что модель умеет складывать 40-значные числа, хотя её этому не учили — но она поняла принцип, поняла алгоритм и может чётко его исполнять. То же применимо и к широкому списку других задач: самое главное, что модель может понять алгоритм и следовать ему, при этом не нужно писать код программы, всё можно описать примерами и текстом (что расширяет круг пользователей).
И вообще не стоит рассматривать подобные языковые модели как "базы знаний" — это скорее интеллектуальные "движки", которые выстраивают план, и приводят в исполнение некоторые его элементы — прямо как люди, которые пользуются инструментами (топор для рубки дерева, микроскоп для научного исследования).
эйай ньюз 2023-06-23 16:30:06
CVPR день пятый: постеры и демо
В последний день конфы все уже идет на спад. Многие уезжают сразу после обеда, поэтому лучше презентовать свою работу в первые дни.
Я немного походил по постерам, их как обычно было овер-дохрена. На каждой сессии около 400 постеров презентуются одновременно, две сессии в день. Затем еще погулял между стендами компаний и посмотрел демки.
1. Демка DATID-3D
2. Демка DINO v2 с риалтайм визуализацией фичей, выученных моделью.
3. Сервачки с видюшками от Lambda. Обожаю серваки ❤️.
4. Селф-драйвинг пикап Ford от Latitude AI, дочерней компании Форда, которая будет фокусироваться сугубо на Level 3 автопилотах. То есть цель этой фирмы создать не полностью автономную тачку, а только частично, что с точки зрения Ford более реалистично на коротком горизонте.
@ai_newz
Neural Shit 2023-06-23 14:05:53
Снова пришло время полезных нейро-лайфхаков, которые помогут вам упростить жизнь:
>>Если вам нужно осветить комнату, но нет лампочек, попробуйте использовать свет от галактики Андромеды. Просто направьте телескоп в окно и наслаждайтесь светом звезд.
>>Чтобы избежать скучной уборки пола, просто залейте его вареньем. Когда сахар начнет притягивать пыль, вам останется только слизать его
>>У вас закончился шампунь? Не беда! Вместо него используйте смесь томатного соуса и майонеза. Ваша голова будет благодарна за такой витаминный коктейль.
>>Не хотите тратить деньги на стирку одежды? Просто носите ее в ванной комнате во время душа. Пусть вода и мыло делают свое дело, пока вы отдыхаете!
>>У вас закончился фильтр для кофемашины? Не беда! Используйте обычные старые носки в качестве замены. Просто нарежьте носок на кусочки подходящего размера, закрепите их на месте фильтра и наслаждайтесь свежезаваренным кофе!
>>Чтобы создать домашнюю атмосферу фонтана, переверните ванну полную воды. Потом просто наслаждайтесь приятным шумом падающей воды.
>>Запишите звуки домашних приборов, таких как холодильник, стиральная машина и пылесос, на музыкальный плеер и включайте их вместо реальных приборов. Таким образом, вы сэкономите электричество и добавите немного ритма в свою жизнь.
>>Не выбрасывайте старые носки! Сделайте из них чехлы для своих телефонов и планшетов
>>Чтобы сэкономить на счетах за электричество, замените свет в вашем доме на светлячков. Просто разбейте стекло в окне и впустите светлячков в комнату. Это создаст приятную атмосферу и сэкономит энергию.
>>Не можете найти туалетную бумагу? Используйте пиццу вместо нее! Просто разрежьте пиццу на полоски и храните их в ванной комнате. Кроме того, в случае необходимости, вы всегда можете перекусить.
>>Если вам надоело мыть посуду, попробуйте следующий лайфхак. Как только вы закончите еду, просто растворите посуду в серной кислоте
>>Если вам нужно протереть пыль с высоких полок или светильников, привяжите к пылесосу пучок воздушных шариков. Включите пылесос и пусть шарики поднимутся до нужной высоты, собирая пыль на своем пути. Это также создаст веселое шоу для ваших друзей!
эйай ньюз 2023-06-23 13:13:36
🔥А вот и код SDXL 0.9 подоспел!
В репозитории есть код базовой модели и код рефайнера. Рефайнер — это модель, которая тренировалась на очень качественных картинках и низких уровнях шума. Она предназначена для улучшения выхода базовой модели.
Доступ к весам для исследовательских целей можно запросить по ссылкам [1, 2] в репе. Через пару дней, думаю, они утекут в интернет, если ещё нет.
Кроме того, весь код LDM отрефакторили и причесали (раньше это был просто кошмарный код). Теперь используется Pytorch Lightning. Из этой репы можно также запускать модели SD 2.1.
Короче, кайф!
@ai_newz
Neural Shit 2023-06-22 22:10:53
Киберпанк, который мы заслужили
эйай ньюз 2023-06-22 17:58:50
🔥Stable Diffusion SDXL 0.9
А вот и официальное подтверждение релиза новой модели, но пока без ссылки на код.
Модель SDXL 0.9 имеет 3.5 B параметров в базовой версии. И будет ещё ансамбль из двух моделей, суммарно на 6.6 B параметров.
Для текстового гайданса вместо одной CLIP модели используется конкатенация из двух: базовый клип от OpenAI)и OpenCLIP ViT-G/14. Это позволяет генерировать более точные детали на картинках.
На парных картинках — сравнение результатов SDXL beta и новой версии SDXL 0.9. Качество сильно возросло
Во время инференса нужна будет видеокарта от AMD с 16 GB VRAM, либо от NVIDIA с 8GB VRAM.
Ждём блог пост со всеми деталями и сам код (который по идее должен появиться сегодня).
https://stability.ai/blog/sdxl-09-stable-diffusion
@ai_newz
эйай ньюз 2023-06-22 17:35:03
Новая LDM модель от Stability AI
Встретился со своими бывшими коллегами по PhD — Робином (справа) и Адреасом (слева).
Парни являются основными авторами Stable Diffusion и сейчас работают в Stability AI.
Сегодня они зарелизили новую Latent Diffusion модель примерно на 3 млрд параметров.
Я так понимаю, это следующее поколение SDXL. И будет опубликован код!
#personal
@ai_newz
Сиолошная 2023-06-22 12:20:57
Еще на релизе статьи про GPT-4 задавался вопросом, а сможет ли моделька капчу разгадывать?
Не то что может — но и делает это с иронией!
За наводку спасибо автору канала @j_links, источник тут.
Сиолошная 2023-06-22 08:45:40
А вот, собственно, и амбициозное предсказание умельцев из Tesla касательно их мощностей для тренировки Foundational Models. Старт массового производства ускорителей Dojo намечен на июль 2023го, то есть уже вот-вот!
Также к концу 2024го Tesla хочет достичь мощностей 100 Exa-Flops. Много это или мало? Ну, человечество только вошло в экзафлопсную эру — самый мощный суперкомпьютер на данный момент (Frontier) обладает менее чем 2 экзафлопсами, то есть в 50 раз слабее (и запущен в мае 2022го, год назад). Правда можно взять другой бенчмарк, связанный с обучением AI (HPL-AI), и там Frontier выдает 8 экзафлопс (в 12 раз меньше сотни от Tesla). То есть оценивать можно по разному, и что мерили тут в Tesla и отображали на графике мы не знаем.
И теперь подумайте, что аналогичный план есть и у OpenAI, и что в 2025м мы увидим модель, которая посмотрела как минимум половину видео в интернете, и обучалась в 10 раз дольше GPT-4...
Сиолошная 2023-06-22 08:45:06
За счёт того, что все ходы машин записаны, получается возможным собрать просто невероятной разнообрасности набор данных, описывающий даже самые редкие ситуации — и роботы будут учиться на этом. Для них не будет сюрпризом, если из машины перед вами выкинут ковер, и он будет летать по дороге.
Обрушилось здание? ну, видели, знаем.
Самое главное, что у Tesla разработан специальный язык запросов, чтобы "вытягивать" данные с машин, а сама система работает как распределенная база данных. При этом каждый узел этой базы (машина) оснащен маленьким чипом, способным запускать нейронные сети локально — и это позволяет делать умную предфильтрацию прямо на лету, перед тем, как отправлять данные на сервер. Это полезно для того, чтобы не засорять хранилище обычными ситуациями, с которыми автопилот уже справляется.
Сиолошная 2023-06-22 08:42:06
Вот пример работы модели от Tesla. Вид с каждой из 7 камер сгенерирован, это ненастоящая запись.
На вход также подается текстовое оаписание ситуации на дороге. Слева — модели говорят симулировать езду прямо, а справа — сменить полосу. И модель отлично "прорисовывает" мир, где смена полосы происходит!
Сиолошная 2023-06-22 08:40:43
Денис (который Sexy IT) на днях писал про нейросеть, обученную на сотнях тысяч часов вождения автомобиля и текстовых описаний. Таким образом получилась симулируемая "модель мира", которая может, например, предсказать, что будет, если резко остановиться, сделать 360-бублик на дороге, и тп. Все "участники" синтезированного мира будут реагировать соответственно. Перейдите по ссылке, чтобы прочитать больше и посмотреть гифки.
Так вот, вчера впервые проявил активность твиттер-аккаунт команды Tesla AI (ответственной за "мозги" автопилота). Я подумал, что он ненастоящий, но на него подписан Илон + стоит галочка верификации команды Tesla. Не похоже на вброс. Так вот, что там рассказали?
Во-первых, что Tesla активно работает над foundation models для автономных роботов (не только автомобилей — любых роботов, в том числе гуманоидных).
Foundation model — это гигантская модель машинного обучения (чаще всего нейросеть), обученная на огромном, нет, ОГРОМНОМ количестве данных (часто с частичной разметкой или вовсе без неё), так что ее можно адаптировать к широкому кругу последующих задач. Обучение без разметки предполагает, что мы можем использовать весь накопленный багаж знаний человечества (тексты, видео, аудио) — так, например, учится ChatGPT и GPT-4, просто "читая" текст. Возможность обучать Foundation model появилась совсем недавно, и в основном связана с увеличением доступности вычислительных ресурсов (в пересчете на доллар) и развитием новых методов обучения. Нам только предстоит понять, какие свойства проявляются у моделей, которые, по-сути, видели почти ВСЁ (все книги, фильмы, изображения).
Во-вторых, легко догадаться, что раз автомобили Tesla уже больше 7 лет ездят по всему миру (но в основном по США), и они оснащены камерами — то все эти данные записываются, а потом сливаются в хранилище. Именно на этих данных обучаются последующие версии автопилотов, что позволяет исправлять "ошибки" логики со временем. Про это рассказывал бывший Director of Artificial Intelligence в Tesla, а ныне сотрудник OpenAI Andrej Karpathy. Посмотреть про это можно вот тут. Как вы понимаете, сбор данных даёт огромное преимущество Tesla с точки зрения технологий — у конкурентов банально на порядки меньше данных, и главная проблема — их обработать.
В-третьих, как я писал, Tesla активно инвестирует в развитие собственных чипов на замену GPU от Nvidia (также, как и OpenAI — см. детали тут). По слухам, ChatGPT тренировалась на 15-25 тысячах видеокарточек A100 (по крайней мере такой дата-центр строился совместо с Microsoft, если верить слитым закупочным документам). Tesla же показывает, что сейчас, на Июнь 2023го, они тренируют модели на 10-15 тысячах аналогичных карт. Однако по плану в феврале 2024го запустить суперкомпьютер, входящий в топ-5 в мире, а в октябре 2024го довести его до мощности, сравнимой...с 300'000 видеокарт (в ~15-20 раз больше, чем у OpenAI), и всё это добро направить на тренировку моделей и для автопилота, и для...роботов.
В-четвертых, вы что, забыли, что Tesla теперь занимается и роботами, подражая Boston Dynamics? С таким планом, как мне видится, они нагонят и перегонят их уже к концу 2024го! Вот это, конечно, будет pivot стартапа века: из инновационного автопроизводителя в разработчка роботов (для автоматизации производства, коллаборации со SpaceX с целью колонизации Марса, ухххх!).
эйай ньюз 2023-06-22 01:15:05
Утекли подробности про GPT-4.
Говорят, что это смесь из 8 экспертов, каждый по 220 млрд параметров. То есть в сумме 1.760 триллиона параметров! Соумит Чинтала (один из создателей PyTorch) тоже подтвердил слух.
Эксперты в этом случае — это просто копии модели GPT, на 220B параметров, которые тренировались отдельно и скорее всего на различных данных.
Во время инференса у них там какие-то хитрые трюки для того, чтобы выбрать ответы каких экспертов выдавать юзеру.
@ai_newz
Сиолошная 2023-06-21 22:04:57
Bessemer Venture Partners, если я правильно нагуглил, одна из старейших венчурных компаний (и 8ая по количеству привлеченного капитала за последние годы), недавно составила рейтинг State of Deep Tech, XB100. Это список 100 крупнейших частных компаний в области развивающихся технологий.
В этом списке представлены компании из 10 разных отраслей, начиная от квантовых вычислений и заканчивая биотехом. Первой идет SpaceX Илона Маска, ну тут без вопросов, так как на горизонте 50-100 лет компания будет заниматься не только строительством ракет, но и созданием колоний, агрокультурами, да почти всем!
Дальше расположились OpenAI, а на 9м месте их прямой конкурент - Anthropic, основанная в 2021 году бывшими ведущими сотрудниками OpenAI, братом и сестрой Dario и Daniela Amodei. Dario был вице-президентом по исследованиям в OpenAI, но решил, что его видение расходится с компанией, особенно на фоне сделки OpenAI и Microsoft (еще в 2019 г.).
У Anthropic сейчас, я бы сказал, вторая самая лучшая языковая модель в мире - Claude. Она умнее гугловского Bard, и лишь немного уступает навороченным GPT-моделям от OpenAI. Принципы обучения там схожи с ChatGPT (обучение на фидбеке людей), а исследовательские статьи (многие) открыто опубликованы. Правда, в самих Anthropic недавно проинвестировал Google, чтобы не отставать в гонке AI. И — не помню где читал — компания теперь и сама взяла курс на прибыль (надо же вложения отбить).
Также в рамках XB100 было взято интервью у основателей компании (всего 5 минут). Там, среди прочего, прозвучало два вопроса:
— Назовите одну вещь про AI, которую вы бы хотели, чтобы люди знали?
— AI находится в очень ранней стадии развития, а впереди нас ждет невероятное количество возможностей, которые люди даже и не представляют
— Как, например, в будущем AI от Anthropic будет менять мир?
— Медицина и биология: мы победим почти все "простые" болезни, и существенно продвинемся в более сложных (вроде рака или Альцгеймера), а также увеличим длительность жизни.
Really excited about the future!
эйай ньюз 2023-06-21 20:49:14
CVPR день четвертый: доклады, постеры и демо 🤖
Я сегодня дежурю на стенде Meta AI, болтаю с посетителями, рассказываю про наши работы.
Тем временем коллеги из команды робототехники показывают демо с робопёсиком Спотом, которого научили навигироваться в неизвестном пространстве (то есть у него нет карты помещения) и выполнять различные команды. Например собрать мягкие игрушки в комнате и закинуть их в корзину, как показано на видео. Он сам планирует, находит предметы и переносит их. И самое крутое — это то, что он был обучен только на синтетических данных.
К пёсику прикрутили языковую модель, что позволяет командовать им на английском языке (про похожую интеграцию GPT в Спота от компании Levatas я писал раньше тут).
Некоторые подробности про то, как этого пёсика дрессировали есть в блогпосте.
Как же классно, если есть возможность посмотреть как натренированные тобой нейронки работают в физическом мире. Жаль, я не занимаюсь робототехникой.
#конфа #карьера
@ai_newz
Сиолошная 2023-06-21 19:45:49
Заметки на полях: теперь чатбот Microsoft Bing, в основе которого лежит мультимодальная GPT-4, принимает картинки, и умеет понимать, что на них происходит, и действовать в соответствии с этим.
Интересно, можно ли туда загрузить диаграмму принятия решения и просить ей следовать? Если да, то получается настоящий Zero-coding для менеджеров!
Источник
UPD: пока early access, не всем доступно
эйай ньюз 2023-06-21 17:45:42
Qualcomm запилили квантизацию для Stable Diffusion и запихнули ее на телефон с процессором Snapdragon. Я поговорил с их ресерчерами.
Работает прилично, но не молниеносно – 13 сек на картинку (20 шагов DPM++).
Int8 квантизация для весов и int16 для активаций.
Все это зарелизили как часть своего AI Engine SDK. Говорят, что их код можно использовать и для квантизации под GPU.
У снэпа получилось быстрее, но у них и трюков больше, и телефон мощнее плюс юзают Apple CoreML.
#конфа
@ai_newz
Neural Shit 2023-06-21 09:52:26
Среда, мои чуваки! Время читать нейрофакты о лягушках!
>>Смерть Кеннеди на самом деле была вызвана лягушачьими какашками. Он пил из нью-йоркской канализации, и немного лягушачьего дерьма попало ему в организм.
>>Если вы мужчина и хотите заполучить девушку, просто возьмите лягушку и киньте ее в голову этой девушке.
>>Starbucks использует лягушек для взбивания кофе.
>>Если вам все равно, за кого выходить замуж, вы могли бы быть счастливы женившись на лягушке.
>>Если вы введете слово "лягушка" в Google, вы увидите в результатах, которые выдаст вам Google изображение лягушки. Google помогает лягушкам, доказывая, что лягушки - это самое лучшее, что есть на свете.
>>Лягушки - хорошая защита для вашего дома, потому что они убьют всех грабителей (а иногда даже съедят их).
>>В СССР не было электронной почты, но были лягушки, которые доставляли байты с нужной информацией получателю письма.
>>В целях безопасности на болотах Питера был введен закон, обязывающий лягушек носить жилеты для плавания. Однако это вызывает недовольство среди старших лягушек, которые считают, что в их время такого не было.
>>Представители университета Северной Каролины сообщили, что они наняли лягушку для работы в кампусе. Это привело к тому, что студенты перестали ходить на занятия, потому что они боялись лягушек. За это директор университета отчислил студентов
>>Форма вашего лица похожа на лягушачью, потому что внутри вашего лица живет лягушка, использующая его как дом.
#среда
Neural Shit 2023-06-21 07:01:36
Советский Диснейленд
Сиолошная 2023-06-20 21:22:59
А вот и детализация тех самых 10 необходимых шагов для получения Transformative AGI с оценками от авторов:
1. Мы изобретаем алгоритмы для создания Transformative AGI (60%)
2. Мы изобретаем способ, с помощью которого алгоритмы могут учиться быстрее, чем люди (40%)
3. Стоимость применения моделей будет меньше $25/час (16%) (самое узкое место, так как нужно одновременно и развивать сами вычислительные ускорители, так и существенно — на порядки — удешевлять энергию. А термоядерного синтеза всё еще нет
4. Мы изобретаем и масштабируем способы производства дешевых качественных роботов (60%)
5. Мы массово масштабируем производство чипов и энергии (46%) (сейчас, с текущим уровнем технологий, авторы оценивают стоимость обучения AGI от $700 миллиардов до $70 квадриллионов — я такие числа только в детстве видел!)
6. Мы не перестаем разрабатывать AGI из-за регулирований (70%)
7. Человечество избегает задержек в разработке AGI в связи с более ранними и слабыми версиями AI (90%) (тут имеется в виду, что более ранние алгортитмы могут сильно навредить)
8. Мы избегаем кардинального изменения мира от войн (70%) (тут учтены как вероятности войны между Китаем и США, так и эскалации — в том числе ядерной — конфликта между Россией и Украиной)
9. Мы избегаем изменений в оценках из-за глобальных пандемий (90%)
10. Не случится тяжелых мировых депрессий, затягивающих или делающих разработу ненужной (95%)
Что скажете, совпадает с вашими оценками? Пишите в комментарии ⬇️
@seeallochnaya
Сиолошная 2023-06-20 21:22:39
Transformative AGI by 2043 is <1% likely
Перед нами очень интересная даже не статья, а очерк, подготовленный в рамках Open Philanthropy AI Worldviews Contest. Задачей было развернуто ответить на вопрос: "Какова вероятность того, что AGI будет разработан к 2043 году?".
Если вы слушали мои подкасты или интервью, то знаете о проблеме определения AGI (Artificial General Intelligence) — сложно понять, что это, как оценить. В рамках работы авторы целятся в Transformative AGI, как ясно из названия. Это такой AGI, который вызывает трансформации общества и устоев по меньшей мере столь же значительные, как во время сельскохозяйственной или промышленной революций.
Такая оговорка важна, потому что можно получить AGI, который невозможно применять на практике в силу нецелесообразности (например, из-за дороговизны вычислительных мощностей). А сам AGI определяется как такой ИИ, который можно быстро и недорого обучить выполнению почти всех экономически и стратегически важных задач с затратами, сравнимыми с человеческими. В рамках работы авторы берут ориентир в $25/час (то есть машина должна решать задачу, на которую у человека уходил бы час, за вычислительные мощности, доступные на $25).
Сама же оценка строится по прицнипу Уравнения Дрейка — это формула для определения числа внеземных цивилизаций в Галактике, с которыми у человечества есть шанс вступить в контакт, основанная на перемножении 7 параметров. Соответственно, меняя оценки этих параметров с появлением знаний и изучением мира можно уточнять предсказание. То же применимо и для AGI — мы можем выписать несколько событий, которые гарантированно должны произойти, чтобы достичь этого вашего ИИ. У авторов их получилось 10 штук (см. следующий пост для деталей).
Ни один из этих шагов не гарантирован — их вероятностные оценки варьируются от 16% до 95%. Самая узкая часть как раз про стоимость вычислений: авторы проводят глубокий анализ изменения рынка вычислительных мощностей, учитывают Закон Мура и его затухание, возможности компаний наращивать производство. Эти оценки важны как для тренировки (получения) AGI, так и для применения. В общем, достаточно глубокий анализ — ведь вся работа занимает 114 страниц!
В итоге авторы приходят к выводу: вероятность появления Transformative AGI к 2043му году составляет 0.4%. Если вы не согласны с их оценками вероятностей — можно поиграться с настройками в специальном калькуляторе, и сделать предсказание. Однако маловероятно, что вы получите что-то выше 10%, если будете пытаться следовать логике, рассуждать, а не брать цифры с потолка.
В общем, будем следить за развитием ситуации, и держать кулачки за наших
@seeallochnaya
эйай ньюз 2023-06-20 17:25:49
CVPR день третий: основная конференция, постеры и экспо
Сейчас готовлюсь к презентации постера, прошелся для вас по экспо со стендами компаний пока не набежала толпа.
Тут будут ходить тучи народа через 30 минут.
#конфа #personal
@ai_newz