товары

Новое руководство по безопасности ИИ опубликовано NCSC, CISA и другими международными агентствами

Руководство по разработке безопасных систем искусственного интеллекта было написано, чтобы помочь разработчикам обеспечить, чтобы безопасность была встроена в основу новых моделей искусственного интеллекта.

Национальный центр кибербезопасности Великобритании, Агентство кибербезопасности и безопасности инфраструктуры США и международные агентства из 16 других стран опубликовали новое руководство по безопасности систем искусственного интеллекта.

Le рекомендации по безопасной разработке систем искусственного интеллекта они предназначены для того, чтобы помочь разработчикам в процессе проектирования, разработки, внедрения и эксплуатации систем искусственного интеллекта и гарантировать, что безопасность остается важнейшим компонентом на протяжении всего их жизненного цикла. Однако эта информация также может оказаться полезной и для других участников проектов ИИ.

Эти рекомендации были опубликованы вскоре после того, как мировые лидеры взяли на себя обязательство безопасного и ответственного развития искусственного интеллекта на саммите по безопасности ИИ в начале ноября.

Вкратце: рекомендации по разработке безопасных систем искусственного интеллекта

В «Руководстве по разработке безопасных систем искусственного интеллекта» изложены рекомендации по обеспечению того, чтобы модели искусственного интеллекта — независимо от того, созданы ли они с нуля или на основе существующих моделей или API-интерфейсов других компаний — «работали по назначению, были доступны при необходимости и работали без раскрытия конфиденциальных данных неавторизованным лицам». . «

Ключом к этому является подход «безопасность по умолчанию», пропагандируемый NCSC, CISA, Национальным институтом стандартов и технологий и различными другими международными агентствами по кибербезопасности в существующих структурах. Принципы этих рамок включают в себя:

  • Возьмите на себя ответственность за результаты в области безопасности клиентов.
  • Принятие радикальной прозрачности и подотчетности.
  • Постройте организационную структуру и руководство так, чтобы «безопасность по замыслу» стала главным приоритетом бизнеса.

По данным NCSC, в общей сложности 21 агентство и министерство из 18 стран подтвердили, что они утвердят и скрепят новые руководящие принципы. Сюда входят Агентство национальной безопасности и Федеральное бюро расследований в США, а также Канадский центр кибербезопасности, Французское агентство кибербезопасности, Федеральное управление кибербезопасности Германии, Сингапурское агентство кибербезопасности. Агентство кибербезопасности и Национальный центр инцидентов Японии. Подготовка и стратегия кибербезопасности.

Об этом заявила Линди Кэмерон, исполнительный директор NCSC. пресс-релиз : «Мы знаем, что искусственный интеллект развивается феноменальными темпами, и чтобы не отставать от него, необходимы согласованные международные действия между правительствами и промышленностью. ».

Обеспечьте безопасность четырех ключевых этапов жизненного цикла разработки ИИ.

Рекомендации по безопасной разработке систем ИИ разделены на четыре раздела, каждый из которых соответствует различным этапам жизненного цикла разработки системы ИИ: безопасное проектирование, безопасная разработка, безопасная реализация и безопасная эксплуатация и обслуживание.

  • Безопасный дизайн предлагает конкретные рекомендации для этапа проектирования жизненного цикла разработки системы искусственного интеллекта. В нем подчеркивается важность распознавания рисков и проведения моделирования угроз, а также рассмотрения различных тем и компромиссов при разработке систем и моделей.
  • Безопасное развитие охватывает этап разработки жизненного цикла системы ИИ. Рекомендации включают обеспечение безопасности цепочки поставок, ведение тщательной документации и эффективное управление ресурсами и техническим долгом.
  • Безопасная реализация касается этапа внедрения систем искусственного интеллекта. Рекомендации в этом случае касаются защиты инфраструктуры и моделей от компрометации, угроз или потерь. defiвнедрение процессов управления инцидентами и принятие принципов ответственного выпуска.
  • Безопасная эксплуатация и обслуживание содержать указания на этапе эксплуатации и обслуживания после развертывания моделей искусственного интеллекта. Он охватывает такие аспекты, как эффективное ведение журналов и мониторинг, управление обновлениями и ответственный обмен информацией.

Рекомендации для всех систем искусственного интеллекта

Рекомендации применимы ко всем типам систем ИИ, а не только к «передовым» моделям, которые широко обсуждались на саммите по безопасности ИИ, проходившем в Великобритании 1 и 2 ноября 2023 года. Рекомендации Они также применимы ко всем специалистам, работающим в сфере ИИ. и вокруг ИИ, включая разработчиков, специалистов по данным, менеджеров, лиц, принимающих решения, и других «владельцев рисков» ИИ.

«Мы ориентировали рекомендации в первую очередь на поставщиков систем искусственного интеллекта, которые используют модели, размещенные в организации (или используют внешние API), но мы призываем все заинтересованные стороны… прочитать эти рекомендации, чтобы помочь им принимать обоснованные решения по проектированию, разработке, внедрению и эксплуатации своих системы искусственного интеллекта», сказал НКСК.

Итоги AI Safety Summit

В ходе саммита по безопасности искусственного интеллекта, проходившего в историческом месте Блетчли-парка в Бакингемшире, Англия, представители 28 стран подписали соглашение. Заявление Блетчли о безопасности ИИ , что подчеркивает важность проектирования и внедрения систем искусственный интеллект безопасно и ответственно, с упором на сотрудничество. и прозрачность.

Инновационный бюллетень
Не пропустите самые важные новости об инновациях. Зарегистрируйтесь, чтобы получать их по электронной почте.

В заявлении признается необходимость устранения рисков, связанных с передовыми моделями искусственного интеллекта, особенно в таких областях, как компьютерная безопасность и биотехнологии, а также поддерживает более широкое международное сотрудничество для обеспечения безопасного, этичного и полезного использованияIA.

Мишель Донелан, министр науки и технологий Великобритании, заявила, что недавно опубликованные руководящие принципы «поставят кибербезопасность в центр развитияискусственный интеллект» от создания до развертывания.

Реакция представителей индустрии кибербезопасности на эти рекомендации по искусственному интеллекту

Публикация руководящих указаний поискусственный интеллект был встречен экспертами и аналитиками информационной безопасности.

Тоби Льюис, руководитель глобального отдела анализа угроз в Darktrace, defiзакончил руководство "Добро пожаловать проект" для систем искусственный интеллект безопасный и надежный.

Комментируя это по электронной почте, Льюис сказал: «Я рад видеть, что в руководящих принципах подчеркивается необходимость искусственный интеллект защитить свои данные и модели от злоумышленников и обеспечить, чтобы пользователи ИИ применяли правильные интеллект artificiale для правильной задачи. Разработчики ИИ должны пойти дальше и завоевать доверие, проводя пользователей через путь, по которому их ИИ достигает ответов. Обладая уверенностью и доверием, мы реализуем преимущества искусственного интеллекта быстрее и для большего числа людей».

Жорж Аниджар, вице-президент Informatica по Южной Европе, заявил, что публикация руководящих принципов знаменует собой «значительный шаг на пути к решению проблем кибербезопасности, присущих этой быстро развивающейся области».

BlogInnovazione.it

Инновационный бюллетень
Не пропустите самые важные новости об инновациях. Зарегистрируйтесь, чтобы получать их по электронной почте.

АРТИКОЛИ recenti

Преимущества раскрасок для детей — мир волшебства для всех возрастов

Развитие мелкой моторики посредством раскрашивания готовит детей к более сложным навыкам, таким как письмо. Раскрасить…

2 мая 2024

Будущее уже здесь: как судоходная отрасль меняет мировую экономику

Военно-морской сектор является настоящей глобальной экономической державой, которая достигла 150-миллиардного рынка...

1 мая 2024

Издатели и OpenAI подписывают соглашения, регулирующие поток информации, обрабатываемой искусственным интеллектом.

В прошлый понедельник Financial Times объявила о сделке с OpenAI. FT лицензирует свою журналистику мирового уровня…

Апрель 30 2024

Онлайн-платежи: вот как потоковые сервисы заставляют вас платить вечно

Миллионы людей платят за стриминговые сервисы, выплачивая ежемесячную абонентскую плату. Распространено мнение, что вы…

Апрель 29 2024

Читайте «Инновации» на вашем языке

Инновационный бюллетень
Не пропустите самые важные новости об инновациях. Зарегистрируйтесь, чтобы получать их по электронной почте.

Следуйте за нами