Сиолошная страница 13. Показано 15 статей из 665
2023-06-22 08:45:06
За счёт того, что все ходы машин записаны, получается возможным собрать просто невероятной разнообрасности набор данных, описывающий даже самые редкие ситуации — и роботы будут учиться на этом. Для них не будет сюрпризом, если из машины перед вами выкинут ковер, и он будет летать по дороге.
Обрушилось здание? ну, видели, знаем.
Самое главное, что у Tesla разработан специальный язык запросов, чтобы "вытягивать" данные с машин, а сама система работает как распределенная база данных. При этом каждый узел этой базы (машина) оснащен маленьким чипом, способным запускать нейронные сети локально — и это позволяет делать умную предфильтрацию прямо на лету, перед тем, как отправлять данные на сервер. Это полезно для того, чтобы не засорять хранилище обычными ситуациями, с которыми автопилот уже справляется.
2023-06-22 08:42:06
Вот пример работы модели от Tesla. Вид с каждой из 7 камер сгенерирован, это ненастоящая запись.
На вход также подается текстовое оаписание ситуации на дороге. Слева — модели говорят симулировать езду прямо, а справа — сменить полосу. И модель отлично "прорисовывает" мир, где смена полосы происходит!
2023-06-22 08:40:43
Денис (который Sexy IT) на днях писал про нейросеть, обученную на сотнях тысяч часов вождения автомобиля и текстовых описаний. Таким образом получилась симулируемая "модель мира", которая может, например, предсказать, что будет, если резко остановиться, сделать 360-бублик на дороге, и тп. Все "участники" синтезированного мира будут реагировать соответственно. Перейдите по ссылке, чтобы прочитать больше и посмотреть гифки.
Так вот, вчера впервые проявил активность твиттер-аккаунт команды Tesla AI (ответственной за "мозги" автопилота). Я подумал, что он ненастоящий, но на него подписан Илон + стоит галочка верификации команды Tesla. Не похоже на вброс. Так вот, что там рассказали?
Во-первых, что Tesla активно работает над foundation models для автономных роботов (не только автомобилей — любых роботов, в том числе гуманоидных).
Foundation model — это гигантская модель машинного обучения (чаще всего нейросеть), обученная на огромном, нет, ОГРОМНОМ количестве данных (часто с частичной разметкой или вовсе без неё), так что ее можно адаптировать к широкому кругу последующих задач. Обучение без разметки предполагает, что мы можем использовать весь накопленный багаж знаний человечества (тексты, видео, аудио) — так, например, учится ChatGPT и GPT-4, просто "читая" текст. Возможность обучать Foundation model появилась совсем недавно, и в основном связана с увеличением доступности вычислительных ресурсов (в пересчете на доллар) и развитием новых методов обучения. Нам только предстоит понять, какие свойства проявляются у моделей, которые, по-сути, видели почти ВСЁ (все книги, фильмы, изображения).
Во-вторых, легко догадаться, что раз автомобили Tesla уже больше 7 лет ездят по всему миру (но в основном по США), и они оснащены камерами — то все эти данные записываются, а потом сливаются в хранилище. Именно на этих данных обучаются последующие версии автопилотов, что позволяет исправлять "ошибки" логики со временем. Про это рассказывал бывший Director of Artificial Intelligence в Tesla, а ныне сотрудник OpenAI Andrej Karpathy. Посмотреть про это можно вот тут. Как вы понимаете, сбор данных даёт огромное преимущество Tesla с точки зрения технологий — у конкурентов банально на порядки меньше данных, и главная проблема — их обработать.
В-третьих, как я писал, Tesla активно инвестирует в развитие собственных чипов на замену GPU от Nvidia (также, как и OpenAI — см. детали тут). По слухам, ChatGPT тренировалась на 15-25 тысячах видеокарточек A100 (по крайней мере такой дата-центр строился совместо с Microsoft, если верить слитым закупочным документам). Tesla же показывает, что сейчас, на Июнь 2023го, они тренируют модели на 10-15 тысячах аналогичных карт. Однако по плану в феврале 2024го запустить суперкомпьютер, входящий в топ-5 в мире, а в октябре 2024го довести его до мощности, сравнимой...с 300'000 видеокарт (в ~15-20 раз больше, чем у OpenAI), и всё это добро направить на тренировку моделей и для автопилота, и для...роботов.
В-четвертых, вы что, забыли, что Tesla теперь занимается и роботами, подражая Boston Dynamics? С таким планом, как мне видится, они нагонят и перегонят их уже к концу 2024го! Вот это, конечно, будет pivot стартапа века: из инновационного автопроизводителя в разработчка роботов (для автоматизации производства, коллаборации со SpaceX с целью колонизации Марса, ухххх!).
2023-06-21 22:04:57
Bessemer Venture Partners, если я правильно нагуглил, одна из старейших венчурных компаний (и 8ая по количеству привлеченного капитала за последние годы), недавно составила рейтинг State of Deep Tech, XB100. Это список 100 крупнейших частных компаний в области развивающихся технологий.
В этом списке представлены компании из 10 разных отраслей, начиная от квантовых вычислений и заканчивая биотехом. Первой идет SpaceX Илона Маска, ну тут без вопросов, так как на горизонте 50-100 лет компания будет заниматься не только строительством ракет, но и созданием колоний, агрокультурами, да почти всем!
Дальше расположились OpenAI, а на 9м месте их прямой конкурент - Anthropic, основанная в 2021 году бывшими ведущими сотрудниками OpenAI, братом и сестрой Dario и Daniela Amodei. Dario был вице-президентом по исследованиям в OpenAI, но решил, что его видение расходится с компанией, особенно на фоне сделки OpenAI и Microsoft (еще в 2019 г.).
У Anthropic сейчас, я бы сказал, вторая самая лучшая языковая модель в мире - Claude. Она умнее гугловского Bard, и лишь немного уступает навороченным GPT-моделям от OpenAI. Принципы обучения там схожи с ChatGPT (обучение на фидбеке людей), а исследовательские статьи (многие) открыто опубликованы. Правда, в самих Anthropic недавно проинвестировал Google, чтобы не отставать в гонке AI. И — не помню где читал — компания теперь и сама взяла курс на прибыль (надо же вложения отбить).
Также в рамках XB100 было взято интервью у основателей компании (всего 5 минут). Там, среди прочего, прозвучало два вопроса:
— Назовите одну вещь про AI, которую вы бы хотели, чтобы люди знали?
— AI находится в очень ранней стадии развития, а впереди нас ждет невероятное количество возможностей, которые люди даже и не представляют
— Как, например, в будущем AI от Anthropic будет менять мир?
— Медицина и биология: мы победим почти все "простые" болезни, и существенно продвинемся в более сложных (вроде рака или Альцгеймера), а также увеличим длительность жизни.
Really excited about the future!
2023-06-21 19:45:49
Заметки на полях: теперь чатбот Microsoft Bing, в основе которого лежит мультимодальная GPT-4, принимает картинки, и умеет понимать, что на них происходит, и действовать в соответствии с этим.
Интересно, можно ли туда загрузить диаграмму принятия решения и просить ей следовать? Если да, то получается настоящий Zero-coding для менеджеров!
Источник
UPD: пока early access, не всем доступно
2023-06-20 21:22:59
А вот и детализация тех самых 10 необходимых шагов для получения Transformative AGI с оценками от авторов:
1. Мы изобретаем алгоритмы для создания Transformative AGI (60%)
2. Мы изобретаем способ, с помощью которого алгоритмы могут учиться быстрее, чем люди (40%)
3. Стоимость применения моделей будет меньше $25/час (16%) (самое узкое место, так как нужно одновременно и развивать сами вычислительные ускорители, так и существенно — на порядки — удешевлять энергию. А термоядерного синтеза всё еще нет
4. Мы изобретаем и масштабируем способы производства дешевых качественных роботов (60%)
5. Мы массово масштабируем производство чипов и энергии (46%) (сейчас, с текущим уровнем технологий, авторы оценивают стоимость обучения AGI от $700 миллиардов до $70 квадриллионов — я такие числа только в детстве видел!)
6. Мы не перестаем разрабатывать AGI из-за регулирований (70%)
7. Человечество избегает задержек в разработке AGI в связи с более ранними и слабыми версиями AI (90%) (тут имеется в виду, что более ранние алгортитмы могут сильно навредить)
8. Мы избегаем кардинального изменения мира от войн (70%) (тут учтены как вероятности войны между Китаем и США, так и эскалации — в том числе ядерной — конфликта между Россией и Украиной)
9. Мы избегаем изменений в оценках из-за глобальных пандемий (90%)
10. Не случится тяжелых мировых депрессий, затягивающих или делающих разработу ненужной (95%)
Что скажете, совпадает с вашими оценками? Пишите в комментарии ⬇️
@seeallochnaya
2023-06-20 21:22:39
Transformative AGI by 2043 is <1% likely
Перед нами очень интересная даже не статья, а очерк, подготовленный в рамках Open Philanthropy AI Worldviews Contest. Задачей было развернуто ответить на вопрос: "Какова вероятность того, что AGI будет разработан к 2043 году?".
Если вы слушали мои подкасты или интервью, то знаете о проблеме определения AGI (Artificial General Intelligence) — сложно понять, что это, как оценить. В рамках работы авторы целятся в Transformative AGI, как ясно из названия. Это такой AGI, который вызывает трансформации общества и устоев по меньшей мере столь же значительные, как во время сельскохозяйственной или промышленной революций.
Такая оговорка важна, потому что можно получить AGI, который невозможно применять на практике в силу нецелесообразности (например, из-за дороговизны вычислительных мощностей). А сам AGI определяется как такой ИИ, который можно быстро и недорого обучить выполнению почти всех экономически и стратегически важных задач с затратами, сравнимыми с человеческими. В рамках работы авторы берут ориентир в $25/час (то есть машина должна решать задачу, на которую у человека уходил бы час, за вычислительные мощности, доступные на $25).
Сама же оценка строится по прицнипу Уравнения Дрейка — это формула для определения числа внеземных цивилизаций в Галактике, с которыми у человечества есть шанс вступить в контакт, основанная на перемножении 7 параметров. Соответственно, меняя оценки этих параметров с появлением знаний и изучением мира можно уточнять предсказание. То же применимо и для AGI — мы можем выписать несколько событий, которые гарантированно должны произойти, чтобы достичь этого вашего ИИ. У авторов их получилось 10 штук (см. следующий пост для деталей).
Ни один из этих шагов не гарантирован — их вероятностные оценки варьируются от 16% до 95%. Самая узкая часть как раз про стоимость вычислений: авторы проводят глубокий анализ изменения рынка вычислительных мощностей, учитывают Закон Мура и его затухание, возможности компаний наращивать производство. Эти оценки важны как для тренировки (получения) AGI, так и для применения. В общем, достаточно глубокий анализ — ведь вся работа занимает 114 страниц!
В итоге авторы приходят к выводу: вероятность появления Transformative AGI к 2043му году составляет 0.4%. Если вы не согласны с их оценками вероятностей — можно поиграться с настройками в специальном калькуляторе, и сделать предсказание. Однако маловероятно, что вы получите что-то выше 10%, если будете пытаться следовать логике, рассуждать, а не брать цифры с потолка.
В общем, будем следить за развитием ситуации, и держать кулачки за наших
@seeallochnaya
2023-06-17 21:42:07
У меня не влезло из-за ограничений телеграма, поэтому допишу пятый "анекдот" отдельным сообщением, однако он не такой однозначный.
Авторы применяли все методы по цепочке. То есть если GPT-4 не смогла ответить на вопрос, то тогда ей показывали 3 самых похожих примера в промпте и просили решить. Если не могла - добавляли фразу "думай шаг за шагом". Не справлялась снова - пиши код. Ну и так далее. А те вопросы, на которые модель ответила правильно (согласно самой же GPT-4, напомню), уже не переспрашивались.
Кажется, тут можно сказать "ну это абсурдно же, так как по сути мы смотрим на правлиьные ответы. Это как будто кто-то на экзамене стоит над вами, и к каждому решению говорит, что оно неправильное. А если оно правильное - перестает ругаться, а вы перестаете его менять". С одной стороны, да, это правда - получается, что воспроизвести подобное в продакшене не получится (потому что нет правильного ответа, чтобы сравнить и остановить цепочку рассуждений).
Также ясно, почему это нечестно с точки зрения метрик - кажется, если модели на правильный ответ дать хотя бы промпт критика, мол, "найди тут ошибки и исправься" - то правильное решение может стать неправильным, ответ изменится, и всё!
Но с другой стороны OpenAI недавно выпустили статью, про которую я писал, где показывали, что можно научить модель очень качественно валидировать промежуточные шаги в решении задач и вычислениях. Так что при наличии оной (или если GPT-4 научится/умеет делать также) в теории можно повторить.
В хорошей статье, конечно, это тоже должно было исследоваться, как сильно меняются метрики, и на сколько просаживается качество. А эта статья, ну...нехорошая
2023-06-17 21:16:25
И последнее по теме. С выходом всех этих Vicuna, Koala, Dolly и других обитателей зоопарка стало модным производить сравнение между моделями с помощью...GPT-4 (как и в примере выше).
Дается специальный промпт, в него вставляются два ответа на один и тот же вопрос — от модели A и от модели B, а затем просят дать оценку по шкале от 1 до 8. 1 - это модель А сильно лучше, 8 - модель Б сильно лучше, 4-5 это ничья, ну и 2-3 и 6-7 понятно дело "модель получше".
Кажется логичным, что если модели А и Б поменять местами, то оценка по факту не поменяется (7 станет 2, 8 станет 1), и если модель стабильно лучше, то она и будет выгрывать. А вот нет! Проявляется так называемое "позиционное смещение", где модель чаще выдает оценку выше для модели А (единицу). Посмотрите на график - он должен быть почти симметричен относительно 4-5 (так как модели перемешиваются случайно). Для оценки людьми, например, это выполняется.
А что если попросить модель учесть это, чтобы она не разбрасывалась единицами? Это частично сработает...перекосив график в другую сторону (но уже менее критично).
Господа из HuggingFace
— для 4 моделей их ранжирование по парным сравнениям совпало между оценкой человека и GPT-4, но получились разные зазоры по Эло-рейтингу. То есть плохое от хорошего модель отличит, а вот пограничные случаи уже менее похожи на людские
— при этом модель выше оценивает ответы...других моделей (обученных на ответах GPT-4, лол
— оценка GPT-4 очень сильно коррелирует (Pearson=0.96) с количеством уникальных токенов в ответе. Что, опять же, указывает на то, что модель не оценивает качество ответа - поэтому нужно быть максимально осторожным.
2023-06-17 19:50:41
No, GPT4 can’t ace MIT
На фоне хайпа статьи выше в твиттере нашлись другие исследователи из MIT, которые задались вопросом - а это вообще правда, что 100% правильных ответов набралось?
Конечно, нет. Самая первая простая и понятная придирка - это как вообще понимать, что "давали GPT-4 задачу, правильный ответ, потом сгенерированный ответ и просили оценить, правильно или нет."? Кто-то проверял, что модель хорошо оценивает решения? Нет. То есть модель сама же оценивала свои же ответы! Ну конечно же это непрвильно, и нельзя говорить, что это честная оценка.
А дальше начались чистые анекдоты.
1) Оказывается, среди вопросов были повторы, и как только мы добавляем поиск похожих вопросов - мы по сути сразу же берем и добавляем правильный ответ на точно такую же задачу в промпт! (не знаю, почему это не привело к 100% сразу, теряюсь в догадках). Вы буквально говорите "так, модель, 3+4=7, а 2+2=4. Теперь реши задачу: 2+2=?". Ну и конечно она знает ответ!
2) примерно 4% вопросов были нерешаемыми для языковой модели — потому что там были вопросы про диаграмы и графики. Как модель может только по тексту на них ответить? да никак, если только ответа нет в промпте (см. пункт 1)
3) Часть вопросов...вообще не была вопросами. Это просто текст, начало задачи, и из-за того, что на проверке это просмотрели, такое попалось в наборе вопросов.
4) ну и конечно нет разбивки по годам, чтобы понять, а не видела ли GPT-4 эти задачи в интернете? Потому что даже без поиска похожих вопросов уже получается 90%, что достаточно весомо (хах, настолько же, как и 90% в Bar Exam, американском экзамене для юристов - писал про проблемы с ним тут)
И все это нашлось буквально за несколько часов и только по малой доле опубликованных вопросов — кто знает, что было бы, если авторы полностью выложили и вопросы, и ответы, и генерации модели?
В общем, нет, модель не решает 100% вопросов по-честному, и сама оригинальная работа не должна (пока) восприниматься всерьёз. И вообще конкретно сейчас очень важно гораздо внимательнее относиться к способам оценки и валидации моделей, тем более что мы не знаем, на чем и как они тренировались. Есть риски наделать много ошибок в логических цепочках, особенно если делать ничем не подкрепленные выводы в духе "ну модель сама может проверить по ответу корректность, да".
Главный посыл: важно очень четко понимать, что и как мы проверяем у модели, и насколько этому можно доверять.
2023-06-17 19:41:50
Вот такие метрики. Первые 4 строчки - это открытые модели, включая хайповую LLAMA. Ну и цифра, соответственно, доля решенных задач: 0.48 = 48%
FS - это как раз Few-Shot, когда среди 90% вопросов мы превентивно находим максимально похожие и добавляем в промпт как примеры, чтобы она "научилась"
CoT - это фраза "let's think step by step"
Self-critique - это итеравно просить найти и исправить ошибки
ну и Experts, как написано выше, добавление еще одной волшебной фразы
2023-06-17 19:40:15
Exploring the MIT Mathematics and EECS Curriculum Using Large Language Models
Исследователи из MIT, лучшего технического университета мира (если верить множеству рейтингов), решили понять, сможет ли GPT-4 сдать экзамены в их альма-матер, чтобы получить диплом. А то GPT-4 то, GPT-4 это, то она юрист, то историк. Может и инженер?
Было выбрано 30 курсов (от базовой алгебры до топологии ). Получилось собрать 1679 задач, или 4550 отдельных вопросов. Малую часть этого, порядка 10%, отложили для оценки способностей модели, а всё остальное испольовали как вспомогательный материал — на этих данных либо учили модели, либо помещали в базу данных для того, чтобы для каждого тестового вопроса находить наиболее похожие (по векторам от вопросов) и подавать в промпт как пример.
Помимо примеров в промпте, использовали также другие методы:
— цепочка рассуждений (попросить модель думать шаг за шагом, прям в промпте написать, да)
— вместо самого решения написать код для получения ответа (не применимо ко всем задачам)
— критик: отдельный промпт (всего 3 уникальных), которые добавляется после ответа и подается снова на вход GPT. Мол, найди ошибки в решении, и попробуй дать правильный ответ. И так можно делать несколько раз к ряду
— (!) Expert Prompting: добавлять в самое начало промпта фразу, которая, как мы верим, заставляет GPT-4 думать как определенный человек. Например, "You are an MIT Professor of Computer Science and Mathematics teaching Calculus". Фишка в том, что эти фразы тоже предварительно генерит модель, отвечая на вопрос "Give an educated guess of the three experts most capable of solving this question."
А дальше всё просто - комбинировали методы выше в цепочки (зачастую это просто объединение двух-трех промптов, не более: ДА, ВОТ ТАК ПРОСТО), генерировали ответы и проверяли их. Причем, тоже интересно: давали GPT-4 задачу, правильный ответ, потом сгенерированный ответ и просили оценить, правильно или нет.
GPT-4 без разных техник решила 90% (от тех. 10%, что отложили), а со всеми трюками выше дала 100% правильных ответов. То есть идеально прорешала все вопросы, таким образом, как бы "получив" диплом MIT.
СТО ПРОЦЕНТОВ ВСЁ РЕШИЛА ПОНИМАЕТЕ? Никого ничего не смутило?
2023-06-17 15:54:49
Также хочу сам себя поздравить с достижением красивой цифры в графе "подписчики"! И всё это - менее чем за 5 месяцев!
Для всех новоприбывших, да и для старичков, напоминаю, что больше информации про меня можно найти в первом закрепленном сообщении (то есть тут), а все мои образовательные бесплатные материалы — лекции, статьи, блогпосты — в следующем (тут).
Также, если вам несложно, можно:
— добавиться ко мне в LinkedIn (приму всех) - тут
— подписаться на мой канал на YouTube (новая лекция уже скоро выйдет, чесна!) - тут
— поделиться каналом и постами со своими приятелями и друзьями
— оставить в комментариях отзыв о канале, что вам нравится, а что нет, чего хочется, про что интересно читать и, например, какую следующую статью или подкаст вы бы хотели
Цифорки и комментарии/отзывы очень мотивируют что-то делать, особенно их рост, поэтому
P.S.: падпищеки, вы - лучшие!
2023-06-17 15:22:21
NeurIPS — это крупнейшая конференция по машинному обучению, обычно проходящая под конец года, в декабре. И каждый год где-то летом начинают проводить соревнования, приуроченные к конференции — а авторов лучших решений приглашают поделиться методами, рассказать, чего они придумали. Я уже писал, что мне не нравятся классические соревнования по ML (и там же указывал причину). Так вот, в рамках этой секции соревнования обычно очень новаторские, экспериментальные...просто fit-predict не заведется!
Я посмотрел список соревнований этого года и подготовил для вас описание интереснейших, с моей точки зрения, задач:
— Machine Unlearning Competition, где нужно заставить модель "забыть" какие-то данные, которые она видела во время тренировки;
— Privacy Preserving Federated Learning Document VQA, где требуется предложить способы распределенного обучения модели, которая отвечает на вопросы по фотографиям документов. То есть нужно сделать такой метод тренировки, что какие-то приватные данные не покидают сервер компании, и при этом модель "узнает" что-то новое (и, собственно, учится). Таким образом можно будет агрегировать данные частных компаний, и переиспользовать их без рисков раскрытия каких-либо данных;
— Large Language Model Efficiency Challenge: 1 LLM + 1GPU + 1Day. Как ясно из названия, нужно на одной видеокарте за 1 сутки обучить лучшую языковую модель. Методы ускорения тренировки и увеличения доступности - это очень важно для опенсорс сообщества. Сейчас очень малое количество людей может позволить себе тренировки моделей на 10B+ параметров.
— The CityLearn Challenge (ссылки нет). Участники должны разработать систему управления энергопотреблением для контроля заряда и разряда аккумуляторов в каждом здании с целью минимизации спроса на электроэнергию из сети, счетов за электроэнергию и выбросов парниковых газов.
— Neural MMO Challenge: Multi-Task Reinforcement Learning and Curriculum Generation, уже четвертое соревнование по обучению агентов игре в мультиплеерные игры. В данном случае необходимо разработать стратегию для управления 8 "игроками", чтобы выполнять различные задачи, связанные с поиском пищи, боем, приобретением и использованием инструментов, а также торговлей предметами. А вокруг вас есть еще 127 таких же команд-восьмерок, которые борются за те же ресурсы! Заход организаторов очень серьезный - выделены гранты на "200,000 A100 hours of GPU time for training and evaluating participants' submissions"
А какие необычные соревнования нравятся вам?
2023-06-12 12:27:57
МЭМЫ с генеративными сетками
Спасибо продвинутому автозаполнению за проделанную работу!
Источник
UPD: в комменты еще пару веселых скинули)