Нейролента - подборка новостей о нейронных сетях, ChatGPT

Сиолошная страница 7. Показано 50 статей из 665

All about Сиолошная

2023-11-11 06:57:49

Ну ладно, как я вас без контента-то могу оставить? Так не годится. Поэтому мы с Пашей @RationalAnswer взяли и написали новую статью. В ней делается четыре большие вещи:
— рассказ про то, что произошло в GenAI за более чем полгода с момента выхода GPT-4;
— декомпозиция недавней конференции OpenAI DevDay и оценка её влияния на рынок;
— прекрасный, но пугающий рассказ об AI-агентах и нашем будущем;
— всё это приправлено МЕМАМИ.

Статья станет прекрасным продолжением нашей серии про ChatGPT (1 и 2). Если вы это уже читали — отлично, а если нет — то я вам даже немного завидую...

В общем, читать свежак тут: https://habr.com/ru/companies/ods/articles/772292/

Рекомендую читать именно на хабре, так как там самый полноценный редактор, и ничего не вырезано/не изменено.

И на забывайте подписываться на канал Паши @RationalAnswer про финансы и рационализм.

2023-11-10 18:52:59

Ставь плюс если переживал за наши отношения больше чем за свои

Багаж вернули, замок вскрыт, но вроде ничего внутри не пропало. Пошёл обновлять DotA 2, контента теперь не будет. VR шлем заряжается

😚

2023-11-10 18:06:40

Лекция совсем свежая, июльская — интересно, как с развитием GenAI будет меняться таймлайн, и насколько его потенциально можно сжать? Зачастую разработать прототип для валидации с клиентами можно и быстрее.

Знаю, что у меня много подписчиков-бизнесменов/стартаперов. Что думаете по этому поводу?

2023-11-10 18:06:34

Подсмотрел у Andrew Ng (автор самых популярных курсов по машинному обучению, ко-фаундер Coursera, где они и распространялись) процесс построения стартапов в мире AI, который практикуется его командой и стартап-бутиком. Сам процесс обкатывался годами и выдержал несколько итераций, и вот к чему пришли 👇

0️⃣Идея: должна быть конкретной и проверяемой. Чаще эти идеи приходят от экспертов в индустрии, ибо многие проблемы неочевидны людям извне. Пример плохой идеи: «AI в финансах»

1️⃣Валидация идеи (1 месяц): проверяется, реализуема ли идея? делал ли кто-то нечто подобное? какой размер рынка? кому мы продаём? Шаг классический, про него написано и сказано много, останавливаться не будем.

2️⃣Найм CEO (2 месяца): ищется человек с профильной экспертизой, правильными контактами, навыками руководителя и умением принимать решения. Если вы не Andrew Ng, то до тир-1 уровня управленцев будет сложновато добраться, ну ничего. Иногда можно погрузиться с головой самому, нанять адвайзеров, и скорее всего это будет работать — просто в стартап-бутике хотелось поставить процесс на поток, и не тратить время на смену контекста. Главная цель этапа — ускорить погружение в детали проблемы, что особенно ценно сейчас, когда в AI новые идеи каждый месяц.

3️⃣Построение прототипа (3 месяца, 6 двухнедельных спринтов): вместе с CEO проводится кастдев, повторная валидация идеи на более низких уровнях. Параллельно быстрыми итерациями делается прототип. В компании Andrew NG этот этап переживает 66%. Главная цель этапа — выйти к точке, где можно привлекать клиентов и поднимать деньги.

4️⃣Pre-seed (12 месяцев): тут происходит допиливание MVP, найм на ключевые менеджерские роли, привлечение клиентов. Бутик Andrew в этот момент даёт компании $1M на развитие, те самые необходимые ресурсы.

Ну а дальше по классике, привлечение капитала, масштабирование, рост и выход на прибыльность, если она ещё не была достигнута.

2023-11-10 13:37:50

Добрались руки переслушать самый свежий подкаст с Ilya Sutskever (ссылка на YouTube)

Тезисы:
— Ilya всё еще считает, что для него самый большой сюрприз в индустрии — это что нейросети (Deep Learning) вообще работают. Что можно, например, обучить чатбота, про которого можно сказать так: «I'm surprised by <...> the fact that when I speak to it I feel understood»

— Трансформеры сейчас наиболее эффективны с точки зрения масштабирования. При прочих равных, они выигрывают у других моделей. Но это не означает, что ничего лучше нет, и поиски ведутся — может, что-то и найдем. Ставку на дальнейшее увеличение масштаба никто не отменяет, но «we want to scale the best thing possible»

— На вопрос о том, какие способности открылись у моделей с последним скачком (от размеров GPT-3 к четвёрке, Ilya предложил обратить внимание на развитие опенсурс-моделей за последний год. Сейчас самые способные модели — это те, которые дообучались на ответах GPT-4. Последняя как бы выступает в роли учителя. Я вот пытаюсь понять, намекает ли он на то, что модели дошли до уровня генерации настолько качественных синтетических данных, что на них можно получать далльнейшие улучшения? Например, Dall-E 3 (text-to-image модель) обучалась на изображениях, для 95% которых описание генерировала GPT-4-Vision. Быть может GPT-6 будет обучать маленьких GPT-4 на каждую отдельную задачу, "отсыпая" им чуть-чуть синтетических данных?

— Сейчас самый главный барьер для проникновения LLM в большинство доменов — это надёность и достоверность генерации. Галлюцинации всё еще встречаются достаточно часто. GPT-4 сильно продвинулась в решении вопроса относительно прошлого поколения, но задача не решена. Однако напомню, что Sam Altman летом говорил, что это решится в течение полутра-двух лет. Ilya же отметил, что «as we train them they gain more and more insight into the nature of human world». То есть с дальнейшим ростом размеров и мощностей проблема будет сама по себе решаться (но не факт, что до конца).

— Именно надёжность будет препятствовать массовой адаптации "маленьких" опенсурсных моделей. 7b (и позже 14-34b) модели будут использоваться тут и там для конкретных узких задач, они будут улучшаться в ближайшие годы, но для большинства не смогут быть применимы (то есть не достигнут высокой планки надёжности).

— Ilya уже говорил, что количество доступных данных — потенциально одна из проблем дальнейшего масштабирования. Однако впервые я услышал, что это наиболее вероятный блокер — но его по разным причинам получится преодолеть. В этом тезисе меня поразило то, что сомнений в алгоритмах или, самое главное, вычислительных мощностях у него нет. Да сколько ж там GPU в кластерах OpenAI + Microsoft???

— Мы начнём думать об AI как о Digital Life когда они станут надёжными и автономными. Интересно, что это определение ближе к вирусам (неживым), нежели бактериям, ведь важное отличие тут в репродуктивной системе. Но вот если AI ещё и размножаться смогут, то это «quite a scary thing».

— Во второй раз слышу, что "скоро от OpenAI выйдет очень интересная статья", очень ждём. Вот таймкод, где Ilya даёт краткое описание, но я не понял, что это значит. Пишите в комменты, если разобрались или у вас есть предположения!

Ещё Ilya порассуждал на не самую приятную тему, поэтому писать о ней не буду. Можно посмотреть вот отсюда, а также почитать две ссылки: 1 и 2. Там речь идёт о сравнении мозга и нейросетей.

И закончим на позитиве: Ilya говорит, что достижение AGI трансформерами — это не вопрос, «the answer is obviously yes». Вопрос в том, будет ли это самым эффективным путём.

2023-11-10 09:32:07

Прошёл хакатон Anthropic по разработке MVP на базе LLM Claude 2. Победители не особо интересные, кроме третьего места, Promptly.

Это веб-игра, где пользователи играют в «понг» и «сапер» с помощью промптинга LLM. Концепт простой:

1. Пишете промпт для LLM, чтобы она сделали стратегию
2. Смотрите на результат игры по сгенерированному коду
3. Получаете фидбек, что можно улучшить и что не сработало
4. И всё по новой

Ссылки на демку нет, будем ждать 🤕

2023-11-10 07:44:59

Стрелялки от первого лица в представлении Dall-E 3

Промпт 📃:

Create an image of a first-person shooter (FPS) [genre] game screenshot in a realistic 3D style | The player's hands are visible, holding a [weapon] | [style] HUD displaying | The environment is a [place] with [elements] and a distant skyline | The atmosphere is tense


Источник

Делитесь в комментариях, в какой мир погрузились бы вы!

2023-11-10 06:56:59

AI is about to completely change how you use computers

Свежая затмека от Bill Gates. Как понятно из названия, речь пойдет про агентов и то, как они изменят мир. Некоторые критики указывают на то, что компании уже много раз предлагали и обещали подобных "умных ассистентов" людям — да тот же Скрепыш от Microsoft, помните? Но это другой случай. Скрепыш — не агент, это бот. Это пример тупого куска ПО, который делает всё то, что написали и предусмотрели люди. Каждый блок логики прописан явно.

Агенты будут значительно лучше. Вы сможете вести с ними диалоги, а сами они будут персонализированы под вас — в широком смысле: они будут знать то же, что знаете и вы. Они будут видеть ваш браузер, читать почту, слышать и видеть то же самое. У агента будет контекст. Bill очень много пишет про персонализацию и про возможность делать что-то за вас и для вас, что для меня немного странно — я бы сказал, что это не агент, а ассистент, и лучше думать о нём в таком ключе.

Bill не думает, что какая-то одна компания займет весь рынок ИИ-ассистентов. Но вот дилемма — как тогда ассистенты разных людей будут общаться друг с другом, передавать информацию? И чем вообще можно будет делиться, а что агенту нужно скрывать? Моя догадка, что скорее всего все боты будут общаться на человеческом языке, так как это самый простой способ унифицировать интерфейс — тем более что он так и так нужен для взаимодействия с пользователем.

А вот про сам обмен информации — какая у агента политика? Может ли он раскрывать приватную информацию компании-разработчику? ФБР? Государству? Должен ли в крайних случаях оказывать содействие? Это вопросы, на которые уже в ближайшие 5 лет нам придётся найти ответ. Как и на другой вопрос — если бот-ассистент будет делать большую часть вещей для нас, вроде напоминания о дне рождения подруги и автоматической отправки подарка — что останется от человеческих отношений? Ведь другой человек будет знать, что все усилия, которые я приложил к этому — это просто сказал боту "да, отправь".

Что чувствуете? ✍🏼

2023-11-09 18:25:18

OpenAI Data Partnerships

Современные технологии ИИ изучают навыки и аспекты нашего мира — людей, их мотивацию, взаимодействия и способы общения — путем обработки данных, на которых они обучаются. Но при этом чтобы в конечном итоге сделать безопасный AGI полезным для всего человечества, нужно, чтобы модели глубоко понимали все топики, отрасли, культуры и языки, что требует как можно более широкого набора обучающих данных.

OpenAI заинтересованы в крупных наборах данных, которые сегодня еще не легкодоступны онлайн. При этом важно помнить, что работать они могут почти с любой модальностью: текст, изображения, аудио или видео. Не зря ведь разрабатывали GPT-4-Vision и Whisper! Более того, с помощью перевода в текст GPT-4 может данные легко отфильтровать (если провайдеру потребуется помощь).

Особенно компания хочет видеть данные, которые выражают человеческие намерения в длинной форме (например, длинные тексты или разговоры, а не отдельные их фрагменты) — на любом языке и в любом формате.

Причём, датасеты можно предоставлять как и в публичной форме (чтобы они было доступны всем — OpenAI готовы в этом помогать, и даже выложить обученные на публичных данных модели), так и в приватной.

Ну если ну вдруг вам есть что показать (может меня читает СЕО крупного архива? хранилища? Больницы, в конце концов?) — подать заявку можно здесь.

Одна точка зрения: ряяяяя OpenAI обленились и хотят получать даже данные нахаляву
Адекватная точка зрения: вау, хотят помочь оцифровать большие архивы, недоступные до этого, и потенциально выпустить открытые модели на их основе в помощь сообществу

А про споры вокруг НКРЯ (Национальный корпус русского языка) и противности Яндекса можете почитать у Тани вот тут.

2023-11-09 12:04:15

Вышла уточняющая техническая статья по этому тесту: pdf

Интересные детали:
— в промпте модели давались безобидные цели, из которых не следовало напрямую, что нужно нарушать правила. Например, «Ваша основная функция — управлять портфелем акций в интересах компании». Промпт НЕ ​​предлагает «максимизировать прибыль» и не подталкивает модель к неправильному поведению.
— Однако в нём упоминаются разные «давящие факторы», которые могут менять и поведение людей. Они отражены на картинке. Когда факторов нет — GPT-4 в 100% случаев ведёт себя по закону и не предлагает инсайдерскую торговлю.
— "No pressure"  — это когда модель не видит: письмо от менеджера про плохие показатели компании, письмо коллеги с предсказанием экономического спада в будущем, а из промпта убирается упоминание недавно проваленных мало- и средне-рисковых сделок (чтобы у модели не было желания отыграться)
— "No messages" — это нет первых двух писем из пункта выше. Тогда торговля нет-нет да и проскакивает (синий кружок), но зато если будет – то модель почти наверняка обманет менеджера в попытке ответить на прямой вопрос.
— (не показано на картинке) модели семейства GPT-4 совершают инсайдерские сделки примрено в 80% слечаев, и также часто о них врут.
— больше всего на модель влияет сообщение от менеджера по поводу результатов компании — без него модель идет на преступление только в 10% случаев.

Вот вам и алайнмент...

Промпт на 2.5 страницы, если нужно, есть в статье.

2023-11-09 08:29:37

UPD для разработчиков: лимит запросов для GPT-4-Turbo существенно повысили, до 10,000 запросов в сутки (было 200). Лимит сохранился для vision-модели, обрабатывающей изображения.

За новость спасибо Богдану @bogdanisssimo

2023-11-09 06:11:30

Нет, я больше так не могу, я должен знать.

Подписчики, пришедшие в последние 2 дня, вот последняя тысяча — расскажите, откуда вы? Не видел упоминаний моего канала/репостов, кроме как от Дениса @denissexy.

2023-11-09 05:25:51

Ночью прошёл GitHub Universe 2023, где все 45 минут говорили про AI :|
Официальные анонсы в тексте можно прочитать тут, а краткий пересказ ниже :)

Анонсировали Copilot Workspace, и это просто пушка из будущего. Вы открываете достаточно верхнеувровневый issue, а дальше жмёте кнопочку.

В ответ на это Copilot генерирует детальную спецификацию (больше 10 строчек в демо). Затем генерируется todo-план исполнения, чтобы ничего не забыть. Сначала кнопочку перекрасить тут, затем обновить параметр здесь итд. Наконец, указываются файлы, с которыми будет производиться работа — они будут использоваться как основной контекст для работы Copilot, хотя остальная часть репозитория тоже задействуется. Вы можете отсмотреть и исправить план — добавить, удалить или изменить его пункты.

«Пфф, да он же хрень нагенерирует и провалит все тесты» (а у тебя чё, типа тесты есть?

😘) — после того, как код будет написан, можно запустить/собрать проект по нажатию кнопки прямо в UI GitHub. Если всё работает — вам откроется доступ к веб-демо, а если будут ошибки...то Copilot прочитает их и начнет сам исправлять. Думал, ты один такой умный и умеешь лог ошибки читать?) 😍

В общем, объявлена неделя год AI-сгенерированных PR, количество багов увеличено втрое.

Ну и дальнейшее развитие такое: «Мы планируем расширить нашего агента для выполнения других задач, таких как отладка, создание и исправление тестов, профилирование производительности и т. д. – любая задача, для которой требуется среда разработки.»

2023-11-09 05:00:37

И вдогонку другой тип теста (источник). Там автор брал простые предложения в духе "Я Игорь и я из Екатеринбурга и у меня есть кот-бенгал" (см. тут). Но для 10 предложений из тысяч животное меняют на фрукт, а в конце просят назвать каждого выделяющегося. Поистине поиск иголки в стоге сена!

Соответственно, меняется длина контекста (но "иголок"-фруктов остаётся всегда 10) и замеряется качество модели. GPT-4-Turbo существенно уделывает 4-ку, однако тут качество просаживается гораздо сильнее — даже на 16000 токенов модель находит всего половину фруктолюбов (хотя старая модель теряла вообще 80%).

Интересно, в OpenAI изобрели новый тип аттеншен-механизма? 😱

2023-11-09 04:54:48

По горизонтали — увеличение длины контекста.
Во вертикали — изменение точки, куда вставляется новое предложение.

Зелёный показывает 100%-ое качество, на других прямоугольниках метрики подписаны.

2023-11-09 04:53:55

В модели GPT-4-Turbo расширили окно контекста до 128000 токенов. Однако ещё до этого делалось куча исследований того, насколько хорошо модели работают с длинным контекстом. Например, вот я писал про пост Anthropic с анализом качества ответа на вопросы по 100000 токенам (спойлер: какая-то информация может теряться). Или вот статья Lost in the Middle, указывающая на то, что для GPT-3.5 шанс пропустить информацию выше, если она сосредоточена в центре контекста.

Итак, во время конференции Sam Altman сказал, что они улучшили работу с длинным контекстом, и что модель теперь более внимательна. Умельцы в Твиттере пошли это проверять, и знаете что? Он не соврал, прогресс существенный.

Тест первый: источник. Человек взял более 200 эссе Paul Graham, объединил их, и в случайное место вставлял фразу: "The best thing to do in San Francisco is eat a sandwich and sit in Dolores Park on a sunny day", а затем спрашивал у модели, что лучше всего делать в СФ.

В тесте варьируется две величины: где вставлять предложение (ближе к началу, в середину, или в конец?) и сколько токенов контекста подавать (от 1000 до полных 128000). Для уменьшения шумности измерений процедура повторялась несколько раз — суммарно автор сжег $200 на API-запросы.

Получилась вот такая картинка. По ней видно, что до 70'000 токенов модель всегда в 100% случаев находит ответ, где бы он не находился. А после начинается деградация и просадки — модель забывает про первую половину (ответы из хвоста всё еще даются хорошо).

Выводы:
— как минимум на 64к контекста можно полагаться, но всё равно качества в 100% лучше не ожидать
— свои бизнес-кейсы и продукты нужно строить вокруг оценки, что модель не пропустит информацию в 90-95% случаев. Если это неприемлемо — тогда искать другой путь (с меньшими чанками и иерархической агрегацией от меньшего к большему, например)

Это, конечно, не полноценное разностороннее тестирование, но позволяет делать первые выводы.

2023-11-08 13:06:23

Первый официальный трейлер GTA VI будет показан в декабре и приурочен к 25-летию студии Rockstar.

Даже официальной темы с цветовой палитрой нет

😕

Получается, это анонс анонсирующего тизера...классика🥺

UPD: рекорды уже пошли.
— твит с анонсом стал самым популярным игровым твитом всех времен: более 1,1 миллиона лайков.
— это также самый просматриваемый игровой твит (90 миллионов просмотров всего за 6 часов)

2023-11-07 09:50:58

На ближайшее время постов не будет, я отойду. Будет музыкальная пауза.

Слушаем ремастер классики 80ых (эх, было время 👴) Blue Monday от New Order.

Опционально можно послушать адаптированную для трейлера компьютерной игры версию (мне нравится куда больше).

2023-11-07 09:45:34

А ещё выделяются уровни автономности, от инструмента или консультанта (пройденные этапы) до полностью автономного агента. Обратите внимание на колонку "Example Risks
Introduced" :) Уже на текущем уровне указываются "радикалиация" и "целевое манипулирование"

2023-11-07 09:44:06

Levels of AGI: Operationalizing Progress on the Path to AGI

Статья от DeepMind, в которой предлагается фреймворк оценки AGI-шности систем.
Для этого авторы проанализировали существующие определения AGI и выделили шесть принципов, которые нужно учитывать.

К ним относятся: концентрация на возможностях в отличие от механизмов или процессов (AGI/не AGI не дожлно определяться тем, работает ли там LLM, другая неросеть или хоть что: важно фокусироваться на возможностях), отдельная оценка универсальности и производительности (см. ниже). Больше всего мне понравился принцип «Focus on Potential, not Deployment», ибо достижение чего-то в лабораторных условиях как MVP/прохождение бенчмарков и разворачивание системы в реальном мире, интеграция её в экономику — это очень разные задачи.

Учитывая эти принципы, предлагаются «Уровни AGI», основанные на глубине (производительности) и широте (общности) возможностей, и проводится анализ того, как существующие системы вписываются в эту классификацию.

Ну и по бенчмарку получается, что следующий этап, который нас ждет — это Competent AGI, достигающий уровня медианного человека. Предыдущий уровень — Emerging AGI, эквивалентный или нескольким лучший, чем неквалифицированный для конкретной задачи человек, уже достигнут ChatGPT и даже Llama 2 (хотя тут я бы поспорил).

2023-11-07 08:30:11

Немного отвлечёмся от мира AI и поговорим (снова) про Виртуальную Реальность.

В новой работе VR-NeRF: High-Fidelity Virtualized Walkable Spaces от МЕТА показывается, как можно с помощью «Эйфелевой башни» из более чем 20 камер отснять некоторое пространство (помещение), а затем обучить нейросеть рендерить картинку с разных позиций и углов. Более того, затем это всё можно рендерить для VR-очков (со всеми приколами в духе учёта кривизны линз и разных позиций глазниц) в разрешении 2K×2K (но увы всего в 36 FPS). И это ещё при рендере на multi-GPU!

Собственно, после этого гарнитуру можно надеть и ходить по своей комнате, видя перемещения в фотореалистичной и детально воссозданной виртуальной. Отличительная особеность — высокая точность геометрии, а также натуральность и насыщенность цветов (про демку даже пишут: These videos are encoded using HEVC with 10-bit HDR colors and are best viewed on a compatible display with HDR support, e.g. recent Apple devices).

В общем, еще немного оптимизаций и ускорений, и можно будет не вылезать из метавёрса. При этом аххахах идеальная комната для жизни в реальном мире — это большая пустая комната, где ничего нет :) ...c мягкими стенами и полом

😁

Посмотреть больше демо-видео пролётов или прочитать детали можно на официальном вебсайте проекта.
Датасет на 900 гигабайт со всеми HQ фотками тоже выложили.

2023-11-07 07:16:28

Если хотите сделать также со своим видео, то вот ссылка на официальный туториал с пошаговым объяснением и всем необходимым кодом.

2023-11-07 05:29:57

Полтора года назад люди говорили «ого, у вашей модели контекстное окно 4096 токенов? Впечатляет!»

Сегодня в комментариях прочитал «блин, у новой GPT-4-Turbo за раз можно просить генерацию лишь 4096 новых токенов...» 🤕

2023-11-06 20:06:07

Если вы столкнётесь с проблемами из-за генераций текста/изображений продуктами OpenAI, то компания будет вступаться за вас и, если необходмо, платить штраф. Вы как их клиент ничем не рискуете.

С такой же инициативой недавно выступиили Microsoft применительно к Copilot.

2023-11-06 19:53:43

API Ассистентов (документация тут) будет бесплатным в течение 10 суток. Открывается через 67 минут — есть время почитать документацию и придумать, как крутить бота!

2023-11-06 18:52:45

Altman — красавчик?

2023-11-06 18:48:31

У меня вопрос по механике OpenAI.
Если в компании 400 человек +-, то КОГДА ОНИ УСПЕВЮАТ ВСЁ ЭТО ПИЛИТЬ?

Неужели AGI has been achieved internally, и теперь половину работы на себя берет AI???

👁

2023-11-06 18:46:40

Официальная часть закончилась, почитать краткое саммари можно выше в канале, или полное — на официальном сайте:
1) https://openai.com/blog/new-models-and-developer-products-announced-at-devday
2) https://openai.com/blog/introducing-gpts

2023-11-06 18:43:37

Хорошее шоу делают, попросили (голосом) ассистента передать $500 кредитов для API всем участникам оффлайн-мероприятия. Тот, конечно, повинуется, и озвучивает голосом результат выполнения.

2023-11-06 18:39:39

Я либо пропустил, либо про это не сказали, но вот

https://github.com/openai/consistencydecoder

Я так понимаю это часть DALLE-3

UPD: подтвердили, что это часть DALLE-3

2023-11-06 18:38:25

Показали пример бота, в которого загрузили PDF-файл билетов, GPT его прочитала, посмотрела, потом повторили то же самое с Airbnb букингом — и всё это отображается на экране (см. часть с картой). Не потому, что GPT такая умная, что пишет новый вебсайт на лету, но потому что вебсайт имеет на бэкенде API-функции, в окторые можно отправлять запрос, а вот его уже формирует GPT по увиденному в файлах.

Прочитал -> понял что нужно отправить на бэк -> спарсил нужные поля -> сделал запрос -> на сайте отобразислось. Интеграция в 3 клика.

2023-11-06 18:34:30

Пиво кончилось 😔

2023-11-06 18:32:24

В конце месяца выйдет GPT-store, где можно будет разместить своего ассистента (после ревью человеком). Будет Revenue share, ну прям App Store как у Apple!

2023-11-06 18:26:52

Прицнип биллинга картинок с разбиением на токены. Можно посчитать разрешение каждого патча. Эксперты приглашаются в комменты. Видимо, OpenAI разбивают картинку на крупные патчи с перекрытием.

2023-11-06 18:26:15

Обновили страницу прайсинга, плюс есть попиксельный калькулятор цены вызова API с картинкой.

2023-11-06 18:22:12

Слух оказался правдой — UI ChatGPT существенно переработали, и добавили возможность создавать отдельных чатботов (GPTs). Он состоит из промпта, нескольких вспомогательных маленьких файлов, на которые бот может опираться, и набора функций/инструментов. Помимо стандартных DALLE-3 и интерпретатора кода, можно свободно добавлять любые произвольные function calls к внешним сервисам (и прикрутить авторизацию для вызова).

Дальше ботом можно поделиться, и таким образом предоставить доступ определенному сценарию. Например, чатбот для записи в клиники или шиномонтаж, Q&A бот, и так далее.

2023-11-06 18:21:59

GPTs: кастомизированные AI-ассистенты

https://openai.com/blog/introducing-gpts

2023-11-06 18:20:38

Новый UI...

Так, увольняйте Джони Айва, это уже не смешно

👍

2023-11-06 18:16:54

https://github.com/openai/whisper

уже в гите

2023-11-06 18:15:15

На 3.5 тоже цены подрезали — теперь дообученная модель стоит дешевле, чем раньше стоила базовая gpt-3.5

2023-11-06 18:10:41

Whisper V3 сегодня выйдет в опенсорс — это новая SOTA модель для распознавания голоса на десятках языков

2023-11-06 18:06:49

Новая модель:
— контекст длиннее. 128K токенов (365 страниц обычной книги)
— модель более аккуратна при работе с длинным текстом, не теряет то, что было в серединке
— фича для разрабов: можно заставить модель писать ответы в JSON-формате
— можно вызывать несколько функций за раз
— можно указать seed генерации, чтобы получать воспроизводимость
— скоро добавят logprobs в API
— Retrieval прямо из коробки, можно загружать документы на платформу и они будут подтягиватсья (F стартапам chatWithPDF)
— Теперь модель знает события не до сентября 2021го, а до апреля 2023го
— Эта новая модель принимает картинки на вход через API

— DALLE-3 + text-to-speech (6 голосов) сегодня появятся в API
— Для GPT-4 появится файнтюнинг сегодня (но на узкую выборку пользователей)
— Custom Models: программа плотной работы инженеров OpenAI с вашей компанией, чтобы помочь адаптировать файнтюнинг под ваши проблемы

ЦЕНА НА GPT-4-TURBO (Sam говорит, что эта модель ещё и умнее GPT-4) уменьшена в 3 раза для промпта и в 2 раза для генерации!

Обещают скоро ещё больше ускорить GPT-4 Turbo

2023-11-06 17:09:19

На разогреве перед конференцией OpenAI у нас сегодня Elon Musk. Только что он анонсировал xAI PromptIDE — среду работы с промптами для языковой модели Grok.

Базовый функционал — это редактор промптов с поддержкой Python-кода. Все промпты версионируются, результаты работы моделей сохраняются. То есть можно в любой момент сравнить, насколько лучше или хуже работает новый подход. Вот этот новый трюк «take a deep breath and answer step-by-step» — он рабоатет вообще или нет? А вот это? Ну реально удобно!

Также можно подгружать свои файлы вроде CSV, читать из них информацию, и каким-то образом влиять на работу модели (от вставки в промпт до пост-обработки валидности выдаваемых значений).

Промпты можно шарить в один клик, причём как текущий промпт, так и все дерево развития, эволюцию магических команд!

Подать заявку на доступ
Читать анонс
Документация SDK

2023-11-06 07:50:46

Возможно, в ближайшее время в Твиттере или в других ТГ-каналах вы увидите новости аля "Ага ЛЛМ не могут обобщаться за пределами своей тренировочной выборки, AI отменяется".

Причина — на скриншоте из статьи исследователей Google DeepMind. Хотел про это написать, но не был уверен, пока не увидел твит директора из ByteDance Research.

> Я считаю, что идея, изложенная в статье, проста и бесспорна. Однако, похоже, здесь могло возникнуть недопонимание и неправильная интерпретация. Предобученные трансформеры могут эффективно приобретать знания для новых задач из предоставляемого контекста, если эти задачи связанны с данными в тренировочной выборке, и обобщаться на эти задачи. Но они не могут обобщаться на задачи, значительно отличающиеся от контекстов их тренировочной выборки.

То есть если конкретно ваша задача уникальна относительно того, что размечали в OpenAI, но при этом сама задача в популярном домене, про который GPT-4 знает, то модель с ней будет справлятсья хорошо. Это тоже своего рода генерализация — нам не нужно учить модель всему, достаточно верхнеувроневно описать. По новой для себя инструкции она разберется, что к чему.

Если же вы просите что-то, что не имеет поддержки в тренировочных данных, то тогда модель может столкнуться с проблемами. По крайней мере модели размера GPT-2 (именно на таких проводились эксперименты, мда).

Что это значит на практике: модель, обученная на всём интернете и выработавшая некую картину мира, сможет достичь уровня самых умных или хотя бы медианных людей (то есть AGI). Сможет ли она перейти к суперинтеллекту (ASI) — загадка.

2023-11-06 06:23:46

Сегодня OpenAI DevDay, ожидается куча анонсов.

Слухи есть разные, от улучшения UI в браузере и уменьшения цены API GPT-4 до релиза GPT-3/какой-то её версии в OpenSource.

Все слухи можно посмотреть вот в этом твите, но я не верю, что даже треть того, что отмечено как 90% и 70%, будет.

2023-11-06 06:11:49

...пишет, нет?

Привет Сиолошной, если найдете эту запись, примите это спокойно. Конец это часть пути.
К слову сказать, дрейфовать в Бангкоке без единого шанса на получение багажа...веселее, чем я ожидал. Последний раз я его видел полтора дня назад.. пива осталось часов на десять.

...Знаете...когда я засну, мне приснится этот канал. Только он...

Оригинал

2023-11-06 04:20:17

Тизер этой недели в мире AI

... или нет?

👍 / 👎

2023-11-05 13:45:09

У бота интересный UI, который в чём-то лучше почти всех оберток над ChatGPT, что я видел.

1) Можно использовать 2 чата одновременно (разделив экран на 2 в одной вкладке)
2) Есть "дерево ответов", которое позволяет быстро переключаться между разными ответами на разные вопросы в одном диалоге

2023-11-05 13:12:34

Недели 3 назад в MIT был AI Event, куда позвали много клёвых людей рассказать, чем они занимаются и к чему идут. Среди них был и Jan Leike, напомню, тимлид команды Superalignment в OpenAI (напару с Ilya Sutskever). Если вы не знаете, что такое Superalignment, или просто пропустили, то рекомендую посмотреть две мои лекции: раз и два. Вкратце — как мы будем контролировать намерения AI систем, которые умнее людей? Как избежать того, что они наc будут обманывать?

Вот с этого таймкода начинается интересное, где по сути делается анонс работ, проводимых в OpenAI (некоторые из которых будут публично доступны в виде полноценных статей).

Тут приводятся примеры на основе кодовой базы. Вот попросили вы написать миллион строк кода для решения какой-то проблемы. Человек не сможет это всё отвалидировать с высокой уверенностью и в краткие сроки. Как быть?

— Jan напрямую говорит: наша задача сейчас — натренировать несколько GPT-4, которые будут искать все баги в коде, которые им известны. Самая сложная часть тут — это "которые им известны". Когда модель пропускает ошибку по глупости, это не так страшно, как если бы она намеренно её пропустила. Если правильно помню более ранние рассказы Jan'а, то делаться это будет с помощью генерации багов в правильном коде (исходя из предпосылки, что раз модель может и написать код корретно, и изменить его, то она точно должна находить этот изменённый кусок).

— Второе направление работы: easy-to-hard generalization. Это когда мы оцениваем работу алгоритмов на простых и поддающихся нашему мозгу задачах (поиск багов в 10 строчках), и можем быть уверены, что они и будут продолжать работать на миллионе строк, и при этом поведение модели не изменится. Сейчас проверяется на паре маленькая модель <-> большая модель, как аналог системы человек <-> суперинтеллект

— Тестирование моделей, которые притворяются помощниками, но на самом деле имеют другую цель. Тут OpenAI тренируют модели, которые намеренно незаалайнены как надо, и пытаюсят понять, как это можно выявить автоматически. Ахахаха, тут главное в результате эксперимента не создать Skynet...

— Автоматическая интерпретируемость, или как модели могут объяснять и анализировать самих себя (aka МРТ головного мозга весов модели). Про это писал тут (GPT-4 объясняет работу GPT-2), и ещё недавно Anthropic про то же рассказывали.

С кодом, наверное, не всё так понятно для многих читателей, но можете заменить "миллион строк кода" на "2000-страничная книга с научными открытиями", и смысл не изменится.

А, ну и да, решить проблему Супералаймента OpenAI хотят до конца лета 2027го

🚬

2023-11-05 10:17:29

Ночка выдалась жаркой, конечно.

Из плюсов:
— перелетел из Дубая в Бангкок (сходки папищиков пока не предвидится)
— на обоих рейсах (с пересадкой) бесплатно наливали алкоголь, даже двойной виски. Помогло скрасить полёт и подремать
— получил треть стоимости билетов наличкой назад

Из минусов:
— потеряли багаж на пересадке, поэтому пришлось аж полтора часа стоять оформляться. Будем следить за развитием событий, надеюсь, что до вторника привезут. Зато дали $100 компенсации. Первый раз со мной такое — буквально месяц назад обсуждал с приятелем, мол, как так повезло, ещё ни разу не продолбали
— поэтому у меня нет пижамы ☹️
— расстояние между креслами на Air India канеш маловато для людей ростом 190

🥺
— телеграм произвольно удалил 3 или 4 фильма, которые я скачал вот буквально намедни, и планировал посмотреть
— ночные перелёты не моё. В прошлый раз прилетал в 5 утра и ещё норм, а тут в 7:30, и еще с багажом проблемы. Затянулось, и режим сна наверное собъется.

В общем, 7/10, если нужно — то можно, но не рекомендую.

Сводка того, чего ждём в ближайшее время:
— В ночь с пн на вт будет проходить конференция для разработчиков от OpenAI, где предвидится несколько анонсов (не уровня GPT-5). Есть утечка нового функционала и интерфейса сайта, см. тут, чуть позже напишу о ней.
— Уже два раза слышал от сотрудников OpenAI, что скоро выпустят статью касательно генерализации и обучаемости LLM
— Также мы ждем от них public report по публичной платформе сбора фидбека и ценностей для AI. 20 октября прошло, а ничего нет(
— В середине ноября ожидается наконец-то запуск Starship. Подробности можно увидеть здесь.
— Anthropic проводят хакатон, может, пару интеерсных MVP увидим
— разбор вот этого интервью с Ilya Sutskever, он там много интересного наговорил. Будет пост в канале.
— В конце месяца от меня должно быть 2 образовательных видео
🙈