Вышло
Я, может, не туда смотрю, но тут деталей что кот наплакал. Начнём с главного:
— компании, разрабатывающие любую foundation model (большая модель общего назначения. Какие точные критерии? а нет их!), которая представляет серьезный риск (как определить? какие критерии?) для национальной безопасности, экономики или здравоохранения, уведомляли правительство при обучении модели (перед обучением? по факту?), а также делились результатами всех тестов безопасности (а если мои “все” тесты — это 3 строчки?).
— National Institute of Standards and Technology будет ответственнен за разработку тестов и стандартов тестрования
— Министерство торговли (что? почему?) разработает руководство по аутентификации контента и нанесению водяных знаков для четкой маркировки контента, созданного искусственным интеллектом.
— Упоминается конкурс DARPA (в партнерстве с OpenAI, кстати), призванный стимулировать создание программу кибербезопасности для разработки инструментов искусственного интеллекта для поиска и устранения уязвимостей в критически важном программном обеспечении (читай “AI будут подсказывать, где могут быть уязвимости”)
Также предлагается расширить возможности высококвалифицированных иммигрантов, обладающих опытом в важнейших областях, и упростить для них процесс попадания на работу путем модернизации и оптимизации визовых критериев, собеседований и проверок (конкретных мер не предлагается).
Плюс, отдельно выделяется необходимость анализа и ускорения интеграции AI в образование и медицину, включая разработку доступных и life-saving лекарств.
Остальные уточннеия будут в отдельном 111-страничном документе, который ещё не опубликован. Ждом.
UPD. мои первые мысли по поводу Указа Белого дома по ИИ: радостно видеть такой сильный акцент на тестировании и оценке систем ИИ — невозможно управлять тем, что не можешь измерить.
Я, может, не туда смотрю, но тут деталей что кот наплакал. Начнём с главного:
— компании, разрабатывающие любую foundation model (большая модель общего назначения. Какие точные критерии? а нет их!), которая представляет серьезный риск (как определить? какие критерии?) для национальной безопасности, экономики или здравоохранения, уведомляли правительство при обучении модели (перед обучением? по факту?), а также делились результатами всех тестов безопасности (а если мои “все” тесты — это 3 строчки?).
— National Institute of Standards and Technology будет ответственнен за разработку тестов и стандартов тестрования
— Министерство торговли (что? почему?) разработает руководство по аутентификации контента и нанесению водяных знаков для четкой маркировки контента, созданного искусственным интеллектом.
— Упоминается конкурс DARPA (в партнерстве с OpenAI, кстати), призванный стимулировать создание программу кибербезопасности для разработки инструментов искусственного интеллекта для поиска и устранения уязвимостей в критически важном программном обеспечении (читай “AI будут подсказывать, где могут быть уязвимости”)
Также предлагается расширить возможности высококвалифицированных иммигрантов, обладающих опытом в важнейших областях, и упростить для них процесс попадания на работу путем модернизации и оптимизации визовых критериев, собеседований и проверок (конкретных мер не предлагается).
Плюс, отдельно выделяется необходимость анализа и ускорения интеграции AI в образование и медицину, включая разработку доступных и life-saving лекарств.
Остальные уточннеия будут в отдельном 111-страничном документе, который ещё не опубликован. Ждом.
UPD. мои первые мысли по поводу Указа Белого дома по ИИ: радостно видеть такой сильный акцент на тестировании и оценке систем ИИ — невозможно управлять тем, что не можешь измерить.
Источник: Сиолошная
2023-10-30 14:06:28