Нейролента - подборка новостей о нейронных сетях, ChatGPT

🥺 я не успеваю слушать все интересные подкасты, которые хотелось бы послушать. Недавно вот писал про подкасты нашей компании, до этого — про подкаст с руководителем команды SuperAlignment в OpenAI — Jan Leike.

А позавчера вышел ещё один трехчасовой подкаст от "80,000 hours" с ним , в целом — по той же теме.

Ссылки на все плееры, где можно послушать, находятся на главной странице подкаста: тут. Там же есть полный транскрипт (бесплатно) и основные хайлайты. Я упомяну лишь основной.

Jan оценивает так называемую P(Doom), то есть вероятность того, что ИИ в конечном счёте обратится против человечества и начнёт уничтожение, В ДВУЗНАЧНЫХ ЧИСЛАХ — от 10% до 90%.

Ещё раз: руководитель команды, занимающейся разработкой методов контроля ИИ, в одной из самых передовых лабораторий мира (если не самой), человек, руководивший разработкой InstructGPT, родителя ChatGPT, говорит, что на данный момент вероятность того, что AI уничтожит человечество, больше 10%.

В комментарии приглашаются эксперты с PhD, которые объяснят глупому, что он не прав, и вообще нейронки ничего не могут сами по себе.

А вот в комментарии в Твиттере Gary Marcus подстебал Jan'а, спросив, мол, зачем работать на OpenAI, если вы думаете, что p(Doom) исчисляется двузначными числами, а сами исследования лишь ускоряют любые возможные риски?

Ответ убил: Как вы думаете, было бы лучше, если бы в OpenAI было меньше исследователей, занимающихся Alignment?

👇 пишите в комменты как бы вы ответили