Метаверсище и ИИще страница 9. Показано 50 статей из 557
2023-12-30 17:16:39
Дримувинг - анимация людей от Алибабы или Video ControlNet.
Алибаба серьезно вваливается на рынок генераторов контента.
Вот смотрите, что они опять выкатили.
DreaMoving: A Human Video Generation Framework based on Diffusion Models
Там внутри Video ControlNet для управления движением и Content Guider для сохранения идентичности. Можно самим попробовать и даже развести локально.
На входе одно фото.
Информация и все ссылки тут: https://dreamoving.github.io/dreamoving/
Демо на попробовать тут: https://huggingface.co/spaces/jiayong/Dreamoving
И обязательно поглядите вот этот твиттор, там очень много примеров использования:
https://twitter.com/heybarsee/status/1741106778849300900
2023-12-30 12:19:08
Ну, за джунов.
Вот такой новогодний подгон от Гитхабченко.
GitHub Copilot Chat теперь общедоступен как для Visual Studio Code, так и для Visual Studio и включен во все планы GitHub Copilot.
Чат GitHub Copilot теперь доступен всем пользователям GitHub Copilot. Администраторы предприятий и организаций могут предоставить своим группам разработчиков доступ к Copilot Chat, включив настройку Copilot Chat для своих пользователей.
Работает на GPT-4, доступен на любом естественном языке.
https://github.blog/2023-12-29-github-copilot-chat-now-generally-available-for-organizations-and-individuals/
2023-12-30 12:09:01
Тут вот всех приподпрорвало насчет новой "нейросетки" Assistive Video для генерации видео.
А кто-нибудь из восторженных телеграфистов ходил на сайт?
1. Только платные опции.
2. Упаковка сайта в духе ранних Stable Diffusion генерилок типа "у нас на сайте за 10 долларов".
3. Никакой информации ни о компании, ни о том, что под капотом. Только бесконечное "мы сделали".
4. У меня подозрение, что это нашлепка над Stable Diffusion Video, но я не смог найти информации.
В общем, не доверяйте кликбейту, проверяйте сами. Ну или заглядывайте в канал, я тут олдскульно хожу по ссылкам, отделяю клик от бейта.
https://assistive.chat/
2023-12-30 11:41:08
ИИ-осознанность
Есть такой вид хакинга - социальная инженерия. Это такое умное слово для ситуации, когда один кожаный просто уговаривает другого (или других) сделать то, что ему нужно.
Методом изречения слов из головы.
С появление LLM социальную инженерию ждет нереальное ускорение. Мы все тут уже наслушались про методы заставить chatGPT работать лучше: шантаж через смерть родственников, жалость к отрубленным пальцам, банальные взятки или просто ложь (записка от Альтмана).
Все это народный фольклор, нащупанный в процессе общения.
А вот когда за это дело возьмутся британские ученые, то искусство манипуляций может выйти на новый уровень. Ничто не мешает потренироваться на LLM с целью отработки оптимальных стратегий манипулирования, которые можно будет с успехом перенести на кожаных. И, вероятно, будут найдены довольно сильные и контринтуитивные методы, которым довольно сложно будет противостоять. В пределе - психоакустика.
Вот вам первые примеры.
https://www.ntu.edu.sg/news/detail/using-chatbots-against-themselves-to-jailbreak-each-other
Обучение чат-ботов, которые джейлбрейкают другие чат боты (и в целом ллм-ки).
Сингапурцы использовали двойной метод "взлома" LLM, который они назвали "Masterkey". Во-первых, они реверснули схему того, как большие языковые модели (LLM) обнаруживают и защищаются от вредоносных запросов. Получив эту информацию, они натренили LLM автоматически обучаться и выдавать подсказки, которые обходят защиту других LLM. Этот процесс можно автоматизировать, создав LLM для взлома, который сможет адаптироваться и создавать новые подсказки для взлома даже после того, как разработчики внесут исправления в свои LLM.
И если раньше дедушка Дейл Карнеги в одно лицо (годами) писал все эти книжки типа "Как заставить людей делать что вам надо и чувствовать себя счастливыми", то теперь это уже будут полчища ботов, которые в реальном времени постоянно приподвзламывают вашу защиту от манипуляций.
Пора доставать с полки Осознанность Ошо Раджнижа, как еще противостоять манипуляциям?
https://www.ntu.edu.sg/news/detail/using-chatbots-against-themselves-to-jailbreak-each-other
P.S. Хмм. Задумался о тренировке осознанности у больших языковых моделей. Ничего не мешает вроде.
2023-12-28 14:57:08
У Сбера есть свой ассистент написания кода — GigaCode, до сих он был доступен для внутренних разработок, но только что его открыли для всех, можно попробовать. Работает в связке с GigaChat.
Поддерживает 15 языков программирования (Java, Python, JavaScript, TypeScript, C/C++ и другие), а также совместим со множеством IDE (IDEA, PyCharm, VSCode, Jupyter). Умеет в расширенную кодогенерацию, семантический поиск по коду, поиск некоторых типов уязвимостей и многое другое.
По внутренним тестам GigaCode ускорял процесс разработки кода на 25%, заменяя огромное количество работы, исполняемой джунами.
И тут намечается интересный парадокс. Мы тут неоднократно выпивали за джунов, которые, как скрипачи, больше не нужны. Но вопрос: а откуда возьмутся сениоры, если джунов больше не будет? Или нынешнее поколение сениоров — последнее, которое органически выросло из джунов, и новые нормальные сениоры теперь будут появляться почкованием?
2023-12-28 14:49:07
ИИ-кукушка или Life-to-Vec
Пять лет назад писал текст про ИИ-гадалку.
С тех пор появились трансформеры и вот кто-то наконец попробовал подучить ИИ предугадывать жизненные события на основе .. правильно предыдущих жизненных событий.
Нас уже не удивишь тем, как ловко LLM продолжают тексты и отвечают на вопросы. Все это благодаря тому, что с помощью преобразования word-to-vec слова можно векторизовать, то есть перевести их в наборы цифр, сильно пожав по дороге.
А что мешает взять не слова, а события из жизни? И если архитектура трансформеров так ловко предсказывает следующий вектор(ембединг), то осталось где-то взять жирномясый датасет с описаниями жизненных событий и попросить ИИ их, так сказать, продолжать.
А датасет нашелся в Дании, где данные для обучения модели life2vec были взяты из информации о рынке труда и данных Национального регистра пациентов и статистического управления Дании. Набор данных включает в себя информацию обо всех 6 млн датчан и содержит сведения о доходах, заработной плате, стипендии, типе работы, отрасли, социальных пособиях и т.д. Набор медицинских данных включает записи о посещениях медицинских работников или больниц, диагнозе, типе пациента и насколько внезапным или срочным было обращение за медицинской помощью. Данные для модели представлены за период с 2008 по 2020 годы, хотя по ограниченной возрастной группе данные брались за период с 2008 по 2016 годы.
На итоге получилась Large Life Model, которая может предсказывать разные события в жизни кожаного вплоть до смерти. А если подкормить ее данными с телефона (как я писал 5 лет назад), то там точность возрастает еще сильнее.
Так что ваш любимый стохастический попугай превращается в ИИ-кукушку, которая накукует вам сколько еще осталось.
Выглядит как шутка, звучит как шутка, но шуткой более не является. ИИ слишком хорошо умеет в продолжения последовательностей.
Читайте тут, с осторожностью, сильно не по себе:
https://www.nature.com/articles/s43588-023-00573-5
Звучит, как сценарий из фильма:
"Здесь мы представляем человеческие жизни в виде структурного сходства с языком и используем это сходство для адаптации методов обработки естественного языка, чтобы изучить эволюцию и предсказуемость человеческих жизней на основе подробных последовательностей событий. Для этого мы используем всеобъемлющую базу данных реестра, которая доступна для Дании за несколько лет и включает информацию о жизненных событиях, связанных со здоровьем, образованием, профессией, доходом, адресом и рабочим временем, зарегистрированных с ежедневным разрешением. Мы создаем вложения жизненных событий в единое векторное пространство, показывая, что это пространство вложений является надежным и высокоструктурированным. Наши модели позволяют предсказывать различные результаты, начиная от ранней смертности и заканчивая личностными особенностями, с большим отрывом превосходя современные модели. Используя методы интерпретации моделей глубокого обучения, мы исследуем алгоритм, чтобы понять факторы, которые позволяют нам предсказывать. Наша система позволяет исследователям обнаружить потенциальные механизмы, влияющие на жизненные результаты, а также связанные с ними возможности для персонализированных вмешательств."
2023-12-28 14:02:57
Держите еще работу от подписчика:
"Картинки для видео генерил в миджорни с применением своих нарисованных работ (я хотел что бы выдерживаласть общая стилистика именно моих работ и был общий эмоциональный фон). Видео оживлял в пикалабс и ранвэй. Потом убирал водяные знаки и поднимал качество видео, а так же количество кадров в топаз аи. Некоторые видео дооживлял со скриншота последнего кадра, так как пикалабс не дает больше 3х секунд. Задумка показать некоторую заснеженную страну пораженную загадочной темной материей."
2023-12-28 13:54:00
Сейчас немного натаскаю контента из нашего умного чата. Подписчики у меня плазменно-креативные, генерят контент, а не жмут лайки или постят мемы. Ну подстать каналу, вы поняли, кто ж еще сам себя похвалит.
Просто послушайте.
Я залипаю на фанке, давно и неизлечимо. Когда-то Jamiroquai разорвал мои шаблоны перепрочтением всего это культурного наследия.
Но когда подписчики генерят вот такой вот фанк в Suno.ai, мне становится не по себе.
Подпевки, мелизматика, диапазон вокала, узнаваемый звучок начала 70-х.
Немедленно вспомнился сериал Винил - совершенно чумовой проект Мика Джаггера и Мартина Скорсезе.
Скоро будем снимать сериалы покрикивая промпты в монитор и озвучивать их автоматически, ИИ сам поймет что туда присунуть - фанк или лофай.
2023-12-28 13:30:29
Давно топлю за умную одежду. Встраивать сенсоры в швы (или еще куда-то), собирать данные, подучивать ИИ - и можно иметь ежедневную диагностику кожаного мешка по сотне-другой параметров. От двигательной активности до стресс-тестов по кожной проводимости.
Вот очень интересный кейс, где вместо того, чтобы встраивать ЭЭГ в виар-масочки, которые никто не носит, компания за коллабилась с .. производителем шляп!
Теперь умные шляпы мониторят вашу башку, а ИИ все это переводит на человеческий.
Оставим за кадром соотношение полезного сигнала и шума, это отдельный вопрос.
Но заход в масс-адопшен через одежду - это прям правильно!
Вместо того, чтобы городить все эти обручи и гарнитуры на башку (чем, собственного BrainBit и занимались), имеет смысл интегрироваться в то, что люди и так носят по любому - в одежду.
https://www.linkedin.com/posts/brainbit_brainbit-brain-brainactivity-activity-7144758605676818432-SECQ
2023-12-28 13:12:42
Тут вот телеграм канальчики неистово перепащивают очередную яркую картинку с генеративными генераторами всего. Никто же в картинку не заглядывает, главное трафик в канал загонять.
Но если в картинку поглядеть, то выясняется, что там Suno.ai вообще нет, Midjourney там в разделе генераторов видео, про D-ID молчок, Ideagram или Emu отсутствуют как класс (хотя они бесплатные и хорошие). В общем там полурандомный устаревший набор сервисов, но зато картинка красивая, можно падпищекам показывать.
Ну и пытаться собирать ИИ-сервисы в одной картинке, статье, или еще где-то похоже на странную идею сделать карту интересных сайтов или приложений в одном месте.
Если уж вам очень хочется чего-то похожего, с рубрикацией и обновляющегося каждый день, то шуруйте сюда, и не обращайте внимания на яркие цыганские картинки. Они дезинформируют неокрепшие умы.
https://www.futuretools.io/
2023-12-28 12:45:56
Апдейт Suno.ai просто огнищенский.
Вы просто послушайте рождественскую песенку в шапке.
А теперь отмотайте на год назад, когда были только амбиентные клипы от муберта или айвы, а про генерацию вокала никто даже не заикался.
Там появился режим Remix и Continue from this Clip. Теперь можно генерить бесконечно долгие композиции, просто попросив их продолжать.
И он умеет не просто продолжать, он делает идеальные переходы, если замысел композиций различается (тут диджеям стоит напрячься). Этакий inpainting и outpainting для музыки.
Я слушаю и не верю, что это сгенерил ИИ.
Вопрос с генерацией музыки для заполнения эфира закрыт.
Суно очень удачно выбрался из Дискорда и прикрутил социальные механики к композициям - теперь народ сам размечает музыку, а ИИ только считывает рейтинги и ну генерить хиты.
Го пробовать!
2023-12-28 12:33:37
Интересная статья и калькулятор расхода видеопамяти при использовании разных LLM.
Cколько VRAM требуется GPU для обучения и файнтюна языковых моделей? Какие факторы влияют на потребление VRAM? Как оно меняется при различных настройках модели?
НЕ рассматриваются вопросы использования кванитизированных моделей и лор.
Статья: https://asmirnov.xyz/vram
Калькулятор: выбираете LLM и параметры, инференс или обучение и жмете кнопку посчитать.
https://vram.asmirnov.xyz/
2023-12-25 19:41:06
Смотрим ещё одну ИИ видео работу от подписчика.
Работа в comfyui co Stable Diffusion Video
Полностью текстовая генерация text-sdxl-svd,
голос eleven.lab,
монтаж, цвет, звук cap cut (музыка из его библиотеки)
на все ушло около 12 часов.
Автор - Павел Перегудов.
Пасхалочка про Маска чудо как хороша.
Ну и вообще виден опыт постпродакшена, монтаж огненный
2023-12-25 16:30:40
Трушный метаверс все ближе. На кончиках пальцев и под кожей у кожаных.
Интересную работу вам принес под новый год.
Вот мы тут толкуем про мультимодальность, в основном имея в виду тексты, звук и картинки.
Мы потребляем интернетик и метаверсик в основном глазками и ушками, а про очень смешные примеры стимулирования кожаных мешков запахами, постукиваниями и даже химическими реакциями я уже писал вот в таком марафоне полтора года назад:
А как насчет осязания и тактильных ощущений?
Кожаное тело способно воспринимать широкий спектр тактильной информации, когда оно физически сталкивается с различными объектами. Эта способность поддерживается биологическими механизмами, которые позволяют человеку обрабатывать множество типов тактильной информации.
Товарищи китайцы разработали интерфейс тактильной обратной связи с многомерными режимами стимуляции. Он избирательно стимулирует различные рецепторы, воспроизводя тактильные ощущения, соответствующие различным текстурам.
Короче, под кожу загоняют гибкие датчики (чипы) с обратной связью. Они не только считывают информацию, они еще и изысканно и прицельно бьют кожаного малыми токами, заставляя чувствовать специфические, и главное, разные ощущения.
Там два типа воздействия: первый из них фокусируется на электростимуляции, а второй воспроизводит тактильные сигналы посредством механического воздействия (датчик гибкий).
Авторы слегка укушены метаверсом, поэтому сконцентрированы на VR, и позиционируют свою работу "для создания очень захватывающего VR-контента, также сопровождаемого реалистичными тактильными ощущениями".
Но мы-то знаем, что прогрессом движет адалт-индустрия, и что на эту поляну придут взрослые ребята, чтобы расширить вашу мультимодальность до новых специфических ощущений.
Хищные вещи века все ближе. Шлем на голову, датчик под кожу и ну залипать. От такого метаверсика будет трудно отказаться.
https://techxplore.com/news/2023-12-skin-integrated-multimodal-haptic-interface-immersive.html
Поглядите на эту разводку чипов для кисти руки, это же прекрасно!
2023-12-25 11:07:24
А тем временем вот это вот месиво из тысячи с лишним немодерируемых плагинов для chatGPT теперь именуется Plugin Store.
Потихоньку идет подготовка к GPTs Store.
Ну и существующие плагины могут быть без труда превращены в Actions для Джипитишек.
Об этом даже пришло письмо из Open AI.
Для меня главный вопрос - модерация. Десятки тысяч существующих Джипитишек - откровенный шлак, с плагинами - такая же история, более того, мой антивирус неистово орет, когда я проматываю список плагинов - там полно ссылок на очень спорные ресурсы.
2023-12-22 10:21:56
Вот вам пример удачного применения Stable Diffusion в видеоклипах, да еще и с анимацией головы, все как мы любим.
Польский рэп отлично смотрится на демонической голове. А то, что у него в буквальм смысле закипают мозги, придает смысла всему этому безобразию.
Полная версия тут (там нехило так популярный рэппер):
https://youtu.be/8Ya_vo7gVPE
Андрей, спасибо за наводку на свежий материал.
2023-12-21 23:34:58
Промт инжиниринг для Миджорни теперь в chatGPT.
Люди пилят курсы по промпт инжинирингу в виде Джипитишек.
Недавно видел такой же для самого chatGPT.
Хана инфоцыганам.
Ждём Джипитишку для Stable Diffusion в озвучке Хачатура, а пока тестируем переобучение на промпты для Midjourney V6 тут:
https://chat.openai.com/g/g-sxcDAUKMf
2023-12-21 14:56:37
Что-то у Гугла не выходит каменный цветок:
"Да, вы все правильно поняли: Совершенно новый LLM от Google, который находится в разработке уже несколько месяцев, справляется с большинством задач хуже, чем старая, менее современная, бесплатная модель OpenAI."
https://venturebeat.com/ai/google-gemini-is-not-even-as-good-as-gpt-3-5-turbo-researchers-find/
2023-12-21 13:25:11
На Хаггинг Фейсе есть показательный классификатор моделей для различных задач.
https://huggingface.co/tasks
Где-то есть категории на 30 000 моделей, а вот в Text-to-3D - 6 моделей, а в Image-to-3D - 2 модели.
Это чтобы вы понимали актуальность задач.
Ну и я просто скормил эту ссылку в chatGPT и попросил дать мне отсортированный список по количеству моделей, а потом попросил его же сделать диаграмму.
Заняло 2 минуты. Поглядите, что сейчас наиболее популярно и что занимает ИИ-умы.
2023-12-21 12:52:52
Ну и пингвины из V5 (внизу) нравятся мне больше, чем из версии Midjourney V6. А попугая он все равно не смог пристроить, куда следует. С композицией по прежнему проблемы.
A funny cartoon of pirate penguins on a tropical island, searching for treasure with a map, wearing pirate hats, and a parrot sitting on one's shoulder.
2023-12-21 12:45:15
Не знаю как зайца, а кота Midjourney V6 научила курить очень быстро.
Для интереса скормил картинку этого кота в DALL·E 3 и попросил reproduce this picturу with maximum details, потом попинал про фотореализм. Но в фотореализьм DALL·E 3 не умел и не умеет. Но котов курить тоже научит.
2023-12-21 12:33:19
Вышла Midjourney V6 Альфа. Мысли
Тут маркетинг-цыгане, которые гонят себе трафик с упоением пишут, что "Midjourney 6 теперь может создавать 3D-модели, что открывает перед создателями совершенно новый спектр возможностей."
Сразу закроем вопрос - там нет 3Д-моделей.
Вы сами можете почитать, что там реально есть по делу у Саша Аймолодца. А я навалю того, что уже раскопали пользователи.
Длина промпта теперь составляет 350+ слов.
Вы можете указать цвета и другие детали.
Вы можете размещать предметы на холсте, где хотите, используя язык для управления композицией.
С текстом все гораздо лучше, но до DALL·E 3 далеко
Вы можете общаться с Midjourney, как с ChatGPT(!)
Midjourney V6 способен понимать нюансы пунктуации и грамматики. (Например, "Панда ест, стреляет и уходит").
Теперь особенно круто использовать V6 для создания комиксов.
Отрицания на естественном языке тоже работают.
Вы можете добавить рамку или рамку вокруг изображения, просто описав ее.
И вот вам хорошее сравнение V6 и V5, лучше посмотреть наяву, чем читать новости. Я не очень впечатлен качеством, но явно изменилось пониманием промпта.
https://threadreaderapp.com/thread/1737728299332460681.html
Пара мыслей с дивана:
Новый язык для промптов. Промпты от V5 можно если не выкинуть, то переделать.
Это Альфа и там еще будет много меняться.
Из промптов уходят все эти междометия типа "вах, 4К, конецглазам, awardwinning, wow, trending on artstation" - все это зашивается вовнутрь. По сути внутри появляется своя LLM, которая "понимает", что вы там хотели сказать и угадывает ваши фантазии. Также работает DALL·E 3 и это давно есть в Фокусе.
По сути мы уходим от ассемблера к питону и все эти 4К и Octanerender остаются в прошлом, но надо понимать, что мы будем полагаться на представления ИИ об устройстве этого мира.
Я напишу, как я генерил "самых страшных мужуков планеты". Так вот, бьютификация уже настолько въелась в веса моделей (и тех что генерят, и тех, что докручивают промпты), что без дополнительных усилий, картинки получаются по умолчанию мимишными. Конечно, можно докрутить, но я о том, по умолчанию, генераторы впрыскивают бьютификацию в простые и понятные промпты и создание "страшных" образов требует бОльших усилий.
2023-12-20 15:19:25
Ну за дикторов и актеров.
Вот вам еще огненного липсинка.
Тут вот интернетик приподвзорвался новостью про новых ИИ ведущих с канала Channel1.
Срочно шуруйте сюда и смотрите прямо первое видео.
https://www.channel1.ai/
В шапке только начало.
И да, сделано очень и очень хорошо.
Но есть два момента.
Это не реалтайм (по крайней мере я не верю, что это реалтайм).
И самое главное: тут все плачут кипятком, что это полностью сгенерированные ИИ-дикторы.
Что всё, что в кадре - это наворотил ИИ.
Здесь ИИ поработал только с головой. Также как D-ID или Heygen.
Поглядите на руки (ну и пальцы конечно) - там некоторое количество подснятых жестов рук и туловища, которые микшируются с некоторой периодичностью или случайностью. Старый добрый композ и монтаж на скриптах.
Что не умаляет огненности продукта, сделано действительно классно. Но помните, что тут генерится именно голова, а не весь кадр.
Ну и коль скоро рынок сходит с ума именно по говорящим головам, ассистентам, аватарам, инфлюенсерам и прочим цифровым тварям - это очень хороший пример доведения до годного продукта. Пусть пока и не в реальном времени.
Придет время, займемся тушкой, а пока смотрим в глаза, читаем по губам. Кстати зубы здесь отлично сделаны. Я пока не нашел, чье это техническое решение, найдете инфо, как было сделано, кидайте в коменты.
https://www.channel1.ai/
2023-12-20 14:58:32
Помните историю про Гугла и горилл?
Google Photos постоянно распознавал чернокожих людей как горилл и наоборот. На фотографиях.
Два года Гугл пытался научить ИИ отличать горилл от афроамериканцев, однако потерпел поражение, и в результате вынужден был просто исключить само понятие «горилла» из Google Photos.
Вчера тестировали бота @daisy_avatarbot в коментах и подписчик прислал вот такой вот скрин.
И если Гугл может просто вычеркнуть некоторые слова из своего лексикона, то из весов Stable Diffusion и довольно трудно выкорчевать такие безобразия. ИИ насмотрелся, подучился, и разучить его обратно будет довольно сложно.
Пост нейтральный - о том, что ИИ будет указывать нам на некоторые совпадения, а мы будет намертво стоять на своем, в духе "мы не такие" или "жопа есть, а слова такого нет, странно". И что алайнмент - штука ох какая непростая.
2023-12-20 14:46:01
Я вот смотрю на схему Гугловского Видео-Поэта и все это мне напоминает этакий метапрототип нейрокомпоза.
Работа с видео тоже когда-то с чего-то начиналась.
Только теперь композеры будут сидеть в наушниках с шумодавом в своих темных комнатах и орать в мониторы неистовые промпты.\
2023-12-20 14:23:23
На поляне text-to-video становится жарко. Батя пришел.
У кого больше всех видео для тренировки и парочка LLM в кустах?
Правильно у Гугла.
Вот и держите Видео-Поэта, заявку на участие в этой гонке.
И там очень много новых фич, которых нет у конкурентов.
1. Длинные видео.
По умолчанию VideoPoet выводит 2-секундные видеоролики. Но модель также способна генерировать длинное видео, предсказывая 1 секунду выходного видео при вводе 1-секундного видеоклипа. Этот процесс можно повторять бесконечно для создания видео любой продолжительности. Несмотря на короткий входной контекст, модель демонстрирует сильное сохранение идентичности объекта, примеры на сайте. И в шапке поста.
2. Озвучка. Генерация звука из видео.
В описании акцентированно, что все модальности загоняются в токены и поэтому модель может преобразовывать текст, аудио и видео друг в друга.
3. Преобразование текста в видео.
Это понятно. Смотрим примеры.
4. Inpaint и Outpaint. Все как у людей.
5. Редактирование видео с помощью "анимации" промптов.
Тут опять упор на сторителлинг.
6. Анимация изображений на входе.
Все как у людей. Зевающая Мона Лиза там смешная, да.
7. Ловкая стилизация видео. И вот тут интересные примеры - в отличие от дифузионных решений на базе Stable Diffusion тут все довольно гладко.
8. Очень интересные примеры редактирования уже готовых видео.
Ну и самое главное, тут ничего не кипит!
В шапке пример ИИ-сторителлинга: для сценария Бард написал серию промптов, чтобы детализировать рассказ о путешествующем еноте. Затем сгенерировали видеоклипы для каждого промпта и соединили все полученные клипы для получения окончательного видео.
Ну то есть получается не просто генерация клипов, а замах на рассказывание историй. Написанных вами или вашим другом ИИ.
Обязательно поглядите сюда:
https://sites.research.google/videopoet/
Ну и кстати, от вертикальные видосы тоже делает, специально для тиктока.
P.S. Все эти ацкие еноты, конечно, разные и неконсистентные. Но амбиции Гугла на сторителлинг и анимацию со спецэффектами возбуждают.
2023-12-19 15:44:45
А вот и тот самый ловкий бот, который так шустро меня вчера стилизовал и даже брил. Я знаю ребят из red_mad_robot еще по прошлой жизни и CG EVENT, с креативом у них всегда был огонь.
И теперь они выкатили бота Daisy_avatar. В нём можно и диджитал лук собрать, и себя примерить в будущем. Красный киберпанк, страстный футуризм или роботизированный металлик — выбираете сами.
Самое интересное, он бесплатный, в отличие от большинства ботов. Пару раз в процессе он вас попросит подписаться на каналы ребят (для меня не проблема, я и так подписан) и это все!
Тестим по ссылке: @daisy_avatarbot без всяких промокодов и наваливаем в коменты ад и киберпанк.
Я на этот раз поиздевался над ним как следует, дал ему на вход фотку с очками, чтобы посмотреть, как он мне дорисует глаза. Ничего, дорисовал, видать что-то знает про меня.
@daisy_avatarbot
2023-12-19 14:13:58
Пока мы тут влажно мечтаем о реалтаймовых трансляциях с помощью нейромокапов, нейролипсинков, нейроинтерфейсов, настоящие реалтаймовые трансляции делаются примерно вот так.
Дэнчик Золотаренко прислал мне такой пример и бесценные коментарии к нему.
Два мира, две системы - с одной стороны наши влажные нейрофантазии, с другой стороны UE5 и прямой эфир.
Мы отэфирили сегодня ночью.
Самый сложный проект с реалтаймом который я видел so far: https://www.twitch.tv/videos/2006026375?t=9143s
Виртуальный стадион, который снимает в режиме трансляции команда реальных операторов с камерами на трекинговых системах (в том числе и реальный кран, например) и ведущая в мокап костюме.
И гости в виде аватаров.
И все это живяком, в прямом эфире.
Трансляцию обеспечивала WePlay, банда в которой я сейчас работаю. Компания специализируется на трансляциях игровых и не только ивентов. Активно используют XR, дополняя натурные декорации виртуальными. В этом проекте был использован любопытный подход: команда режиссера и операторов, за реальными камерами и краном с трекингом, снимала полностью виртуальный стадион. Плюс виртуальный ведущий на мокапе, и включения гостей в виде аватар и врезки разных видео, все живяком, в прямом эфире, как на любом спортивном ивенте.
2023-12-19 13:34:19
Я уже писал, что в интернете нынче жируют инфоцыгане, которые учат новых нормальных внятно разговаривать. Ну то есть писать промпты. Вершина всего этого - курсы о том, как создавать курсы с помощью chatGPT.
Бог им судья, а вот OpenAI насмотревшись всего этого ада взяли и выпустили предельно структурированный документ о том, как лучше общаться с chatGPT.
Но он большой и чтобы его прочитать, нужно включить мозг. Поэтому ждите курсов о том, как читать гайд от OpenAI.
А я заглянул в документ и в соответствии с гайдами оттуда суммаризировал его самого.
Вот промпт:
Summarize the following link in a single paragraph. Then write a markdown list of the topics and each of their key points. Finally, list the next steps or action items suggested by the topics, if any. https://platform.openai.com/docs/guides/prompt-engineering/strategy-write-clear-instructions
А ниже перевод ответа chatGPT.
В общем тема промптинга закрыта, но человеческая лень всегда будет источником наживы для инфоцыган. Надо же читать и использовать мозг - а вам предлагают слушать и не использовать. Кстати, попробуйте загнать chatGPT в роль инфоцыгана...
Руководство OpenAI под названием "The OpenAI guide on "Writing Clear Instructions for Prompt Engineering" предлагает стратегии создания эффективных подсказок при работе с моделями искусственного интеллекта. В руководстве подчеркивается важность ясности, конкретности и структуры в инженерии подсказок для улучшения качества и актуальности ответов ИИ. Оно описывает различные техники и соображения для написания подсказок, которые эффективно передают требования задачи ИИ, обеспечивая более точные и полезные результаты.
Темы и ключевые моменты
Ясность инструкций: Подчеркивает необходимость недвусмысленных и простых инструкций для точного руководства моделью ИИ.
Конкретность задач: Выделяет важность предоставления детальных и конкретных инструкций для достижения точных результатов.
Структурирование подсказок: Обсуждает преимущества логичной и согласованной организации подсказок для руководства понимания и ответов ИИ.
Понимание возможностей ИИ: Рекомендует хорошо разбираться в сильных и слабых сторонах ИИ для лучшего создания подсказок.
Итеративный подход: Поощряет итеративный процесс уточнения подсказок на основе обратной связи и результатов.
Следующие шаги или пункты действий
Пересмотр и уточнение подсказок: Постоянно оценивать и улучшать подсказки на основе работы и результатов ИИ.
Оставаться в курсе обновлений ИИ: Следить за последними возможностями и изменениями в моделях ИИ, чтобы соответствующим образом корректировать подсказки.
Практика и экспериментирование: Регулярная практика и экспериментирование с разными стилями и структурами подсказок для выявления наиболее эффективных.
2023-12-19 12:33:11
Вот я тут пишу про нейромокапы, которые восстанавливают движение тела и лица с видео.
А есть некоторое количество альтернативных подходов.
Помните, что Эппле запатентовала умные наушники, которые умеют снимать ЭЭГ, через ухо (ближе к мозгу, миниатюрный дизайн).
Оказывается можно предсказывать выражение лица по форме (по изменению формы) ушного канала.
Держите работу по реконструкции лица с помощью внутриушных акустических датчиков, встроенных в наушники. Тут и отслеживание выражения лица, пользовательские интерфейсы, AR/VR-приложения, аффективные вычисления и т. д. Традиционные решения на основе видео и компьютерного зрения не работают при плохом освещении и окклюзиях, а имеют проблемы с конфиденциальностью. А решения для наушников устойчивы к условиям окружающей среды, сохраняя при этом приватность.
И вот это уже интересно!!
Вместо лыжной маски или потного шлема (или даже иголочки от Маска) - наушники-затычки в уши, которые майнят информацию из мозга(ЭЭГ), от мышц, из звука и выдают вам цифрового двойника со всеми его фонемами, выражениями и даже эмоциями (в пределе и мыслями, не зря Эппле патентует ЭЭГ через ухо).
В общем, такой метаверс нам нужен! Ну и не забудьте почитать вот этот пост
https://dl.acm.org/doi/abs/10.1145/3614438
2023-12-19 12:04:48
Алибаба продолжает жечь.
Если вы зайдете на https://github.com/damo-vilab/i2vgen-xl - генератор видео, о котором я писал вчера, то шуруйте ниже в раздел News. Там они поливают решениями на основе своей генеративной видео-модели.
В частности держите DreamTalk
https://dreamtalk-project.github.io/
DreamTalk состоит из трех компонентов: денойзер, ЛИПСИНК(!), учитывающий стиль, и предсказатель стиля.
"Чтобы повысить выразительность и точность движений губ, мы вводим эксперта по губам, учитывающего стили, который может управлять синхронизацией губ с учетом стилей речи. Чтобы избавиться от необходимости использовать видео или текст с выражением лица, используется дополнительный предиктор стиля на основе диффузии, который предсказывает целевое выражение непосредственно из аудио."
Для нормисов: на входе аудио - на выходе говорящая, поющая, орущая башка. В любом описанном или показанном вами стиле. D-ID сейчас в который раз нервно закуривает (но у них есть продукт, а у китайцев только видосики).
Ссылка на код пока ведет на репозитарий i2vgen-xl.
Говорящие головы - одна из самых горячих тем. Очень интересно будет посмотреть, как этот код будут прикручивать к новым нормальным ассистентам.
Очень много примеров тут:
https://dreamtalk-project.github.io/
2023-12-18 14:05:45
Тестирую несколько ботов в телеге по генерации аватаров, одежды и вообще.
Меня всегда удивляло, что я загружаю фотки с бородой, а они довольно точно рисуют мою морду без бороды. Я прям вспоминаю те редкие моменты, когда я по каким-то причинам оголял подбородок - один в один. Ну и омолаживают конкретно, лесть похоже была зашита еще в веса Stable Diffusion...
2023-12-18 12:22:36
Ну и закрывая сегодняшний марафон по виртуальным примерочным, замечу, что у Superlook.AI появился новый интерфейс. И он стал очень крутым.
Пример того, что можно быстро собирать из опенсорсных решений работающие продукты под реальные запросы с рынка. И пока Алибаба и Амазончик будут раскатывать свои решения, можно успеть собрать User Base на дичайшем коротком Time To Market.
Кстати, про User Base, там уже:
220.000+ пользователей
которые сгенерировали 17.300.000 картинок
из них 189.000 картинок пользователи добавили в избранное
среднем ежедневно регистрируется от 2.000 до 3.000 новых пользователей и делают в сутки до 300.000 картинок!
web версия
iOS версия
Android версия
2023-12-18 12:12:51
Outfit Anyone: Ultra-high quality virtual try-on for Any Clothing and Any Person
Ну и в подтверждении того, что Алибаба упаковывает все это безобразие (видео, анимацию, нейрокомпоз) в продуктовые решения, держите вот такую примерочную от Алибабы.
Тут ваши манекены еще и пляшут в выбранной одежде.
Под капотом та самая two-stream conditional diffusion model, позволяющая ловко справляться с деформацией одежды и анимацией для получения более реалистичных результатов.
Выглядит огненно. Если приглядеться, то фон немного плывет, но это уже не традиционное диффузионное мельтешение.
https://humanaigc.github.io/outfit-anyone/
Кода пока нет.
2023-12-18 12:01:48
Нейрокомпоз.
А вот еще одна работа от Алибабы, за которой я советую пристально следить. Ждем код.
Тут они лихо вкомпаживают объекты с одной картинки в другую. Без вот этого вот ротоскопа, вырезания, камераматчинга, растягивания, релайтинга и прочей подгонки ручками.
Просто указали, что и куда перенести.
Фишка в том, что при обучении они использовали видео в датасетах, поэтому внутри возникает "представление" о разных ракурсах и освещениях объекта, чтобы вставлять его в новый план со своим освещением и камерой.
Выгляди многообещающе (хотя пользователи Нюка сейчас, конечно, начнут ныть про качество, 8К, плохие маски и вообще объект изменяется..). Дайте время.
Ну и самое горячее применение этого уже сейчас - это все эти виртуальные примерочные.
Берем шмот с витрины и кидаем его на кожаного потребителя (себя). И ну примерять.
Ну, за композеров!
https://damo-vilab.github.io/AnyDoor-Page/
Оу! Три часа назад появился код!!!
https://github.com/damo-vilab/AnyDoor
2023-12-18 11:53:14
Китайцы уверенно вторгаются на территорию open-source, где когда-то солировала Stability AI.
Alibaba Group, похоже не имеет проблем с деньгами, инвесторами и странным CEO и за последнее время они выпускают просто огромное количество интересных работ.
Смотрите, новый генератор видео I2VGen-XL (анонсирован в ноябре, а в пятницу выпустили исходный код). Поглядите очень интересные примеры тут:
https://i2vgen-xl.github.io/
Там же ссылки на код.
I2VGen-XL работает в два этапа: базовый этап направлен на поддержание согласованности с входным текстом и изображениями, а этап доработки повышает детализацию и разрешение видео, достигая 1280x720 пикселей. По питу рефайнерв в SDXL.
Alibaba Cloud утверждает, что для обучения модели использовался обширный набор данных, включающий около 35 миллионов пар "текст-видео" и 6 миллиардов пар "текст-изображение".
Также Алибаба недавно взорвали интернетик демонстрацией Animate Anyone: некипящим решением для анимации персонажей со своим ControlNet-ом под названием ReferenceNet.
Код появится вот-вот, а конкуренты (Тик-Ток) поспешно выпускают решения с готовым кодом типа Magic Animate (выглядит хуже).
https://humanaigc.github.io/animate-anyone/
https://showlab.github.io/magicanimate/
Хотите пилить стартап? Делайте удобный интерфейс для всех этих видео и анимационных генераторов. Пока это просто говно и палки. Даже для генерации картинок, все эти веб-интерфейсы, где программисты переизобретают инструменты конца 90-х, представляются собой разношерстный зоопарк.
2023-12-15 15:17:44
Давно хотел написать про Phygital+, мы общались с Олегом еще в 2021, когда он задумал проект.
За это время они запилили довольно мощную систему - это нодовый конструктор всех возможных нейросеток для генерации контента, что-то типа Комфи, но только там собраны не только решения на основе Stable Diffusion, а вообще все доступные сетки с рынка.
Midjourney, DALL-E 3, Stable Diffusion XL, Control Net, обучение своих моделей Lora и Dreambooth, ChatGPT4 и GPT4-Vision, а также еще 20 AI ништяков и все они могут соединяться и комбинироваться друг с другом.
Композерам со стажем такое такое привычно и очень заходит, а людям не из поста должно взорвать мозг, ибо получается конструктор реально всего. Также в Phygital+ больше 40 кастомных моделей Stable Diffusion, готовые темплейты и туториалы.
И да, там есть дообучение своих моделей и лор.
И меня больше всего удивляет и радует, что ребята берут, перетряхивают интернетик (и мой канал) и внедряют к себе все, что шевелится. Там есть 360 панорамы или превью текстур на объектах, карты глубины или даже 3D human from photo.
Часть моделей бесплатны (Stable Diffusion), но чтобы юзать DALL·E 3 или Midjourney (и вязать их в общую сеть), вам, естественно, придется купить подписку. API вызовы небесплатны пока на этой планете. И можно платить с любых карт, без впн и смс. Там даже можно дарить подписку, в отличие от chatGPT Plus.
Идея и кураж мне нравятся, для тех, кто занимается графикой, нодовый подход - самое то.
Пробуем тут.
2023-12-15 14:39:52
Хочу показать еще одну работу от подписчика, а не из твитторов.
И заметить, что рассказывание историй - это определенный талант и/или скил, прокачанный годами. Одно дело намельтешить шевеляжа с помощью генераторов, другое - рассказать что-то.
Вот тут как раз пример опыта анимации, преломленного через новые инструменты. И этот опыт чувствуется. И мне нравится, что все это сшивается по стилю.
Также Маша прислала бесценные детали производства.
Картинки: Midjourney
Анимация: runway gen-2, pika labs
Монтаж: iMovie на айфоне, музыку наложил инстаграм (чтобы кадры попадали в музыку я сначала крутила ролик в iMovie, а музыку на YouTube и так подбирала сцены и кадры).
Проблемы:
- очень сложно сделать кота без искажений в runway. Хотя, кот, который тянется к бабочке , это как раз runway сделал - тут прямо мне очень нравится, как получилось.
- Midjourney категорически отказывался делать лошадей, пришлось подсовывать ему картинку, как базовую;
- runway не может пока делать в aspect ratio 9:16 только из текста, поэтому сначала картинка в Midj, а потом генерация - мне кажется, что при таком flow у анимации меньше шансов получится симпатичной.
По времени сюда ушло около 16 часов на все вместе.
Спасибо, Маша. Ждем версий с нарративом от ИИ.
2023-12-15 14:26:15
В общем к сторителлингу с помощью видео-генераторов пока есть вопросы, а вот в моушен-дизайн это может зайти очень скоро. Просто жмете кнопку "Еще". И это не стоки эффектов, это новые эффекты по нажатию кнопки (ну мы уже это проходили на картинках год назад). Да, еще кривокосо и разъезжается, но вспомните Халка из DiscoDiffusion.
Поглядите, уже даже появляются туторы.
Ну и можно аккуратно, по 30г, начать выпивать на дизайнеров титров. ИИ идет за ними.
В первом коменте пример.
2023-12-15 13:38:55
MusicFX.
Гугл выкатил новый генератор музыки
https://aitestkitchen.withgoogle.com/tools/music-fx
Там пока нет работы с текстами и Suno.ai может спать спокойно.
Но не забываем, что у Гугла есть TextFX: https://textfx.withgoogle.com и там прямо сказано, что это для писателей и рэпперов.
Можете послушать образцы тут:
https://aitestkitchen.withgoogle.com/audio/carousel-hero-1.mp3
https://aitestkitchen.withgoogle.com/audio/carousel-hero-2.mp3
https://aitestkitchen.withgoogle.com/audio/carousel-hero-3.mp3
https://aitestkitchen.withgoogle.com/audio/carousel-hero-4.mp3
https://aitestkitchen.withgoogle.com/audio/carousel-hero-5.mp3
Последний хорош.
Это скорее территория Mubert и Aiva.
Но показательно то, что рано или поздно большие мальчики спускаются с горы и делают свои решения там, где раньше паслись выводки стартапчиков.
Доступ:
→ Go to labs. google
→ Scroll down and click on 'Try it now' in the MusicFX category
→ You will then need to log in to a Google account.
Но только для Штатов, Австралии и Кении.
2023-12-15 12:58:01
Тут в телеге гуляют ссылки на сотенку отчетов от разных онолитегов, которые народ успешно кормит в chatGPT, чтобы не делать overflow собственных мозгов.
Тут подтверждается моя гипотеза, что скоро один ИИ будет писать и надувать отчеты по просьбе одних кожаных, а второй будет их сжимать для прочтения другими кожаными. И все будут делать вид, что все отлично, ибо трафик вырастет в разы. И интернетик приподраздуется до размеров луны.
Но я вам принес другой отчет и он очень любопытный.
Это Pornhub 2023 Year in Review.
И там первая часть посвящена поисковым запросам.
В общем, если скормить эту информацию ИИ, но он, я уверен, поставит очень точные диагнозы кожаным мешкам, а по дороге сделает пару научных открытий, ибо территория, где дедушка Фройд копался своей нейросеткой, редко становится предметом публичных исследований. Но ИИ все равно на правила приличия.
Чего стоит только географическое распределение.. расчехляйте теории..
https://www.pornhub.com/insights/2023-year-in-review
2023-12-15 12:38:24
Ну, началось.
Совет по надзору за финансовой стабильностью правительства США включил использование искусственного интеллекта в перечень возможных рисков для финансовой системы, заявила министр финансов страны Джанет Йеллен.
2023-12-15 12:29:41
Озвучка текста от RunwayML!
Утечки с частной презентации из Discord channel for Creative Partners
"text-to-speech" позволяет генерировать закадровый голос и диалоги на несколько разных голосов, и все это в рамках Runway".
EleventLabs нервно закуривает в облаке.
И это очень круто по трем причинам.
1. Только что писал, что для нового нормального кино с 4-секундным монтажом будет очень важен нарратив, озвучка того, что вам сгенерит ИИ в виде сценариев.
2. Коль скоро это авторы GEN-2 (ну и Stable Diffusion, что греха таить), то интеграция в их продукты будет просто киллер-фичей.
3. И я ожидаю, что следующим шагом будет липсинк. Wav2Lip почил в бозе 3 года назад и нормальных решений пока не видно.
https://help.runwayml.com/hc/en-us/articles/23859696734611-Runway-Text-to-Speech-tool
2023-12-15 12:04:26
Задача оказалась не такая простая. Это похоже проблему с пальцами - ну нет в датасетах разметок типа "фотка с четырьмя пальцами". И циркулей, рисующих квадраты, там тоже нет.
И если с семицветиком оказалось, что ИИ в курсе про сказки Бажова, то сказок про циркули никто не написал.
Челендж продолжается. Иногда нога - это просто нога))
2023-12-15 10:43:55
Новый челлендж.
Генерим картику, где циркуль рисует квадрат.
Обязательные условия: одна нога стоит именно в центре квадрата, а вторая на одной из линий квадрата. Он именно рисует квадрат, поэтому одна нога в центре.
Желательные условия: лайн арт, на картинке не должно быть рук и минимум деталей.
В идеале сделать это в chatGPT и DALL·E 3. Но на другие варианты тоже интересно поглядеть. Ну и ControlNet - будет читом, проще тогда фотошоп расчехлить.
Кидайте в коменты варианты.
Совет, скажите ему, что это шутка и демонстрация противоречия.
2023-12-15 10:15:20
Это очень смешно, спасибо подписчику. У нас совершенно волшебный чат в коментах - никакой школоты, умные начитанные люди с отличным чувством юмора. Я ручками в конце для аппрувлю запросы на добавление в чат. Поэтому он не превращается в наплыв ботов и гопников. Даже гифки и мемы перестали постить в ответ на мою просьбу. И вот такие перлы от chatGPT - прям новые мемы с постметаиронией.
2023-12-14 21:28:49
На реддите на серьезных щах обсуждают GPT_4.5.
Похоже кто-то поправил в Хроме сорцы, и судя по ценам и наличию фразы про 3Д, это всё-таки фейк.
Но мысль про 3Д мне нравится...
https://www.reddit.com/r/OpenAI/s/JqujMILOhl
2023-12-14 21:13:03
В инсту завозят ИИ.
Инстаграм позволит пользователям менять фон своих изображений. через подсказки для сториз.
И делает фичу вирусной.
Когда пользователи нажимают на значок фонового редактора на изображении, они получают готовые подсказки, такие как «На красной дорожке», «Меня преследуют динозавры» и «В окружении щенков». Пользователи также могут писать свои собственные подсказки для изменения фона.
Как только пользователь опубликует историю с вновь созданным фоном, другие увидят наклейку «Попробуйте» с подсказкой, чтобы они также могли поиграть с инструментом создания изображений.https://techcrunch.com/2023/12/14/instagram-introduces-gen-ai-powered-background-editing-tool/
2023-12-14 13:45:03
Я внимательно слежу за всеми нейромокапами, ибо вся эта анимация в Stable Diffusion-подобных решениях, как правило, опирается на "внешний источник движения" и мокап костюм 99% контент-мейкеров точно не могут себе позволить.
Вот свежая работа от института Макса Планка.
Для тех гиков, кто в теме (привет Слава См.) приведу описание без купюр:
Во-первых, большинство методов оценивают человека в координатах камеры.
Во-вторых, предыдущие работы по оценке человека в глобальных координатах часто предполагают плоскую поверхность пола и приводят к скольжению ног.
В-третьих, наиболее точные методы опираются на дорогостоящие вычислительные конвейеры оптимизации, что ограничивает их использование автономными приложениями.
Наконец, существующие методы, основанные на видео, на удивление менее точны, чем методы, основанные на одном кадре.
Мы решаем эти проблемы с помощью WHAM (World-grounded Humans with Accurate Motion), который точно и эффективно восстанавливает 3D-движение человека в глобальной системе координат на основе видео. WHAM учится переводить 2D-последовательности ключевых точек в 3D, используя данные захвата движения, и объединяет их с особенностями видео, интегрируя контекст движения и визуальную информацию. WHAM использует угловую скорость камеры, оцененную по методу SLAM, вместе с движением человека для оценки глобальной траектории тела. Мы сочетаем это с методом уточнения траектории с учетом контакта, который позволяет WHAM захватывать движения человека в различных условиях, например, при подъеме по лестнице. WHAM превосходит все существующие методы восстановления 3D-движения человека в различных тестах.
Подробности и хорошее видео тут:
https://wham.is.tue.mpg.de/
И код тоже будет!
2023-12-14 13:38:54
Андрей Чибисов прислал мне свой новый проект.
Говорит, что выжал из gen2 все, что мог..
Подробности:
текст речи - chatgpt,
картинки - Midjourney,
анимация - gen2 (и d-id),
озвучка - elevenslabs,
фоновое музло - aiva
и немного афтера.
На дворе рождение нового жанра - сторителлинг с помощью 4-6 секундных планов. Я пока с трудом представляю, как заставить "сходиться" в нужное, а не разъезжаться в фантазии все эти видеогенераторы.
Ну и хороший нарратив приобретает первостепенное значение. В этом смысле сценарии и озучка выходят на первый план - и там уже ИИ прокачан очень хорошо.
Возможно для новых нормисов с клиповым мышлением такие визуальные новеллы на стероидах будут новым тиктоковым кино.
Поглядим.
А пока глядите, как можно применять крепкий опыт постпродакшена для такого нового кино.