AI Для Всех
2024-03-13 18:30:55
OpenAI показали свое первое демо совместно с Figure
🎧 Смотреть со звуком!
Недавно, OpenAI анонсировали свое партнерство с Figure - компанией производящей роботов. И вот появилась первая демонстрация.
В настоящий момент, GPT взяла на себя функции восприятия и интерфейса - то есть OpenAI воспринимает сенсорную информацию и передает ее роботу, внутренний (спинной?) мозг которого превращает эту информацию в движения (контроль). Так же, OpenAI берет на себя функцию общения с человеком.
Судя по видео - GPT-4V крутится на сервере, а не на самом роботе, но с развитием маленьких языковых и мультимодальных моделей несложно увидеть будущее (пару месяцев), в котором все происходит на самом роботе.
Ждем ответочку от Илона и Оптимуса с Гроком!
X.com
2024-01-10 16:54:53
GPT, который помнит все
OpenAI включает функцию AI всегда с тобой (она официально никак не называется).
Работать это будет так: все наше общение в разных чатах будет каким-то образом суммаризироваться и сохранятся (возможно, что то типа одного global thread, но для системного промпта).
По задумке OpenAI, GPT станет намного более персонализированным и полезным (alignment with persona’s preferences).
X
2023-12-02 11:52:42
Concept Sliders: гранулярный контроль над генерацией изображений
🛠️ Как Это Работает:
Используя эти слайдеры, художники могут легко изменять атрибуты изображений - например, эмоции или возраст персонажа - не нарушая общую структуру картины.
Concept Sliders это LoRA поверх предварительно обученных моделей. Они обучаются понимать визуальные концепции через контраст между парами изображений.
🎭 Эта технология не ограничивается только изображениями. Представьте, что с помощью подобных инструментов можно было бы точно настраивать эмоции и темы в текстах и голосе, или даже оттенки и нюансы в музыке. Так что ждём уже в ближайший месяц на всех платформах для генерации контента!
🪚 Проект
📜 Статья
🎚️ Обученные слайдеры
🤗 Демо
2023-10-06 10:03:27
Ученые научили компьютер понимать нашу речь без имплантов в мозг
Представьте, что вы надели шлем, который записывает активность вашего мозга, пока вы слушаете чью-то речь. Оказывается, по этим данным можно понять, что именно вы слышите, и расшифровать сказанные слова и фразы!
Такой метод разработали исследователи из компании Meta. Их нейросеть проанализировала записи мозговой активности добровольцев и научилась угадывать, какие отрывки речи они слушали. Причем это возможно даже для незнакомых фраз, которых не было в обучающих данных! Самое крутое что и датасет и код выложены в открытый доступ.
Это открытие важно, потому что раньше расшифровать речь по мозговым сигналам получалось только с помощью имплантов непосредственно в мозг. А неинвазивные методы вроде ЭЭГ-шлемов давали очень приблизительный результат.
Новый подход сделает технологии распознавания речи по активности мозга безопаснее и доступнее для пациентов. А в Метаверсе он поможет устройствам точнее понимать команды и желания пользователей, "читая" сигналы их мозга. Так что скоро с умными очками или шлемами виртуальной реальности мы сможем общаться, просто "думая вслух"!
📎 Статья
2023-09-28 17:09:02
Партнёрство Cloudflare и Hugging Face
Cloudflare объявило о начале партнёрства с Hugging Face с целью сделать модели ИИ более доступными для разработчиков.
Что обещают? 👀
-В Hugging Face появятся безсерверные модели GPU без инфраструктурных "костылей" и оплат за неиспользуемые мощности. Просто выберите свою модель и работайте.
-Модели Hugging Face появятся в каталоге моделей Cloudflare
-Интеграционные инструменты Cloudflare станут частью Hugging Face Inference
Разработчики, использующие платформу Cloudflare, вскоре смогут развертывать модели Hugging Face прямо с панели управления Cloudflare, а те, кто использует Hugging Face, смогут развертывать модели непосредственно в Workers AI.
🤗 Блог