Нейролента - подборка новостей о нейронных сетях, ChatGPT

Появилась

Появилась запись 2023 Hawking Fellowship Award. Её ежегодно (с 2017го) присуждают человеку, внесшему исключительный вклад в области STEM (Science, Technology, Engineering, and Mathematics) и социальный дискурс. Впервые награду получила компания — OpenAI, но за всех отдувался её CEO Sam Altman.

Церемония проходит следующим образом: объявляется причина выбора, благодарственные слова, затем награждённый даёт речь, после чего начинается секция вопросов-ответов, в том числе и голосами из зала. Большого количества новой информации у меня для вас нет, большинство топиков были затронуты в канале ранее. Однако ниже приведу поледний вопрос и ответ Sam, так как эта тема в большей степени проходит нитью через разные интервью, но я её не описывал.

Вопрос:
— Я ни в коем случае не являюсь экспертом в ИИ, так что поправьте меня, если я ошибаюсь, но самый большой скачок вперед за последнее десятилетие в плане достижения подобия AGI — это LLM типа ChatGPT. <...> Мне показалось вы сказали, что есть очевидные недостатки, из-за которых кажется, что это не совсем AGI, хоть технология и впечатляет. Мне интересно, думаете ли вы, что шаг по направлению к AGI заключается в том, что мы продолжаем использовать LLM, или нужен ещё один прорыв, который мы пока не обнаружили?

Ответ:
— Я думаю, нам нужен еще один прорыв. Но мы все еще можем выжать из LLM довольно много, и мы сделаем это. Если посмотреть на "холм" технологий, по которому мы продвигаемся, то до вершины все ещё очень далеко. Возможно, если мы зайдём супер-супер далеко с этой технологией, то что-то новое вдруг проявится. Но я не думаю, что это поможет нам достичь чего-то, что я после критического анализа назвал бы AGI.
<Чтобы придерживаться примера, приведённого ранее> Давайте сейчас будем использовать слово "суперинтеллект". Если суперинтеллект не может сделать научное открытие в физике, то я не думаю, что это суперинтеллект. Тренировка на данных с целью клонирования поведения людей — не думаю, что это позволит достичь суперинтеллекта. Поэтому уже давно обсуждается вопрос: а что нам нужно сделать в дополнение к LLM для создания системы, которая сможет свершать открытия? И это будет нашим следующим квестом.

Обратите внимание, что Sam отошёл от своего каноничного определения AGI (высокоавтономные системы, которые превосходят людей в большинстве экономически ценных задач) и говорит про ASI. Ранее Ilya Sutskever говорил, что конкретно до такого определения AGI мы и на LLM дойдём, это "очевидно".

Вот такой фокус на науку нас ждёт в ближайшие годы — будут появляться бенчмарки для оценки моделей по разным направлениям, и, как я говорил в своей лекции, в ближайшее время (~2 года) от OpenAI я больше всего жду статью с названием в духе "Автономный AI агент нашёл/доказал новую теорему/закон".