Посмотрел
Посмотрел интервью Sam Altman и Greg Brockman 4-летней давности. Оно записано через +-4 месяца после релиза GPT-2 (когда бОльшие версии модели не были доступны публично). Если бы YouTube не показывал дату публикации в описании — я бы подумал, что видео записано вот буквально полгода назад, может, чуть меньше.
Почему? В интервью обсуждается много вопросов, от (тогда ещё) недавних инвестиций Microsoft, релизов LLM, публичности и заканчивая AI Safety и будущими разработками.
1) Уже тогда Sam говорил про сложность разработки без привлечения инвестиций, и что очень важно грамотно выбирать партнёров. Помимо общей выгоды и сонаправленной стратегии, необходимо опираться на выровненность ценностей, иначе невозможно будет развивать компанию без изменений (а главная цель компании что тогда, что сейчас — создать AGI, при этом дойдя до этого по максимально безопасному пути: "We are committed to doing the research required to make AGI safe, and to driving the broad adoption of such research across the AI community."). Если цель компании — заработать денег, то OpenAI с ними не по пути. Sam уклонился от ответа на вопрос "взяли ли бы вы деньги от Google?", отметив, что философия Microsoft им куда ближе, а Satya Nadella разделяет их взгляды. У мелкомягких это сформулировано следующим образом: "to empower every person and every organization on the planet to achieve more."
2) Greg говорит, что "we always knew that not publishing everything would be part of that" (речь о пути к AGI). Не все технологии, результаты и исследования будут доступны, так как это влечёт за собой потенциальные риски. На уровне GPT-2 это было смешно слышать, но с выходом ChatGPT улыбка сменилась вот таким лицом:😐
А вот из интервью Ilya Sutskever, где он говорит, что OpenAI ошиблись с публичностью подхода: “We were wrong. Flat out, we were wrong. If you believe, as we do, that at some point, AI — AGI — is going to be extremely, unbelievably potent, then it just does not make sense to open-source. It is a bad idea... I fully expect that in a few years it’s going to be completely obvious to everyone that open-sourcing AI is just not wise.”
3) Sam уповает, что на данный момент государства и политики не обращают внимания на проблемы AI, поэтому в будущем придётся с этим что-то делать, чтобы начать продуктивную беседу. Altman не упоминает регуляции, но говорит про необходимость ведения общемировой дискуссии касательно будущего развития AI. Как раз после релиза GPT-4 он совершил кругосветное путешествие, пообщавшись с большим количеством лидеров. Пацан к успеху пришёл, люди начали слушать😀
4) Уже в 2019м году у OpenAI была команда, которая тестировала модели перед релизом на предмет безопасности. Насколько легко использовать модель не по назначению? Насколько вероятно, что модель сможет преследовать свои цели? Sam называет это репитициями, когда отлаживается процесс выкатки умных алгоритмов. В целом, подход сохраняется — GPT-4 была анонсирована через 8 месяцев после окончания обучения, а команда Safety/Policy растёт на глазах.
TLDR: позиция OpenAI не меняется, они стоят на тех же столпах, что и раньше, просто для кого-то только сейчас стали заметны их действия.
Почему? В интервью обсуждается много вопросов, от (тогда ещё) недавних инвестиций Microsoft, релизов LLM, публичности и заканчивая AI Safety и будущими разработками.
1) Уже тогда Sam говорил про сложность разработки без привлечения инвестиций, и что очень важно грамотно выбирать партнёров. Помимо общей выгоды и сонаправленной стратегии, необходимо опираться на выровненность ценностей, иначе невозможно будет развивать компанию без изменений (а главная цель компании что тогда, что сейчас — создать AGI, при этом дойдя до этого по максимально безопасному пути: "We are committed to doing the research required to make AGI safe, and to driving the broad adoption of such research across the AI community."). Если цель компании — заработать денег, то OpenAI с ними не по пути. Sam уклонился от ответа на вопрос "взяли ли бы вы деньги от Google?", отметив, что философия Microsoft им куда ближе, а Satya Nadella разделяет их взгляды. У мелкомягких это сформулировано следующим образом: "to empower every person and every organization on the planet to achieve more."
2) Greg говорит, что "we always knew that not publishing everything would be part of that" (речь о пути к AGI). Не все технологии, результаты и исследования будут доступны, так как это влечёт за собой потенциальные риски. На уровне GPT-2 это было смешно слышать, но с выходом ChatGPT улыбка сменилась вот таким лицом:
А вот из интервью Ilya Sutskever, где он говорит, что OpenAI ошиблись с публичностью подхода: “We were wrong. Flat out, we were wrong. If you believe, as we do, that at some point, AI — AGI — is going to be extremely, unbelievably potent, then it just does not make sense to open-source. It is a bad idea... I fully expect that in a few years it’s going to be completely obvious to everyone that open-sourcing AI is just not wise.”
3) Sam уповает, что на данный момент государства и политики не обращают внимания на проблемы AI, поэтому в будущем придётся с этим что-то делать, чтобы начать продуктивную беседу. Altman не упоминает регуляции, но говорит про необходимость ведения общемировой дискуссии касательно будущего развития AI. Как раз после релиза GPT-4 он совершил кругосветное путешествие, пообщавшись с большим количеством лидеров. Пацан к успеху пришёл, люди начали слушать
4) Уже в 2019м году у OpenAI была команда, которая тестировала модели перед релизом на предмет безопасности. Насколько легко использовать модель не по назначению? Насколько вероятно, что модель сможет преследовать свои цели? Sam называет это репитициями, когда отлаживается процесс выкатки умных алгоритмов. В целом, подход сохраняется — GPT-4 была анонсирована через 8 месяцев после окончания обучения, а команда Safety/Policy растёт на глазах.
TLDR: позиция OpenAI не меняется, они стоят на тех же столпах, что и раньше, просто для кого-то только сейчас стали заметны их действия.
Источник: Сиолошная
2023-09-29 15:09:35