Le рекомендации по безопасной разработке систем искусственного интеллекта они предназначены для того, чтобы помочь разработчикам в процессе проектирования, разработки, внедрения и эксплуатации систем искусственного интеллекта и гарантировать, что безопасность остается важнейшим компонентом на протяжении всего их жизненного цикла. Однако эта информация также может оказаться полезной и для других участников проектов ИИ.
Эти рекомендации были опубликованы вскоре после того, как мировые лидеры взяли на себя обязательство безопасного и ответственного развития искусственного интеллекта на саммите по безопасности ИИ в начале ноября.
В «Руководстве по разработке безопасных систем искусственного интеллекта» изложены рекомендации по обеспечению того, чтобы модели искусственного интеллекта — независимо от того, созданы ли они с нуля или на основе существующих моделей или API-интерфейсов других компаний — «работали по назначению, были доступны при необходимости и работали без раскрытия конфиденциальных данных неавторизованным лицам». . «
Ключом к этому является подход «безопасность по умолчанию», пропагандируемый NCSC, CISA, Национальным институтом стандартов и технологий и различными другими международными агентствами по кибербезопасности в существующих структурах. Принципы этих рамок включают в себя:
По данным NCSC, в общей сложности 21 агентство и министерство из 18 стран подтвердили, что они утвердят и скрепят новые руководящие принципы. Сюда входят Агентство национальной безопасности и Федеральное бюро расследований в США, а также Канадский центр кибербезопасности, Французское агентство кибербезопасности, Федеральное управление кибербезопасности Германии, Сингапурское агентство кибербезопасности. Агентство кибербезопасности и Национальный центр инцидентов Японии. Подготовка и стратегия кибербезопасности.
Об этом заявила Линди Кэмерон, исполнительный директор NCSC. пресс-релиз : «Мы знаем, что искусственный интеллект развивается феноменальными темпами, и чтобы не отставать от него, необходимы согласованные международные действия между правительствами и промышленностью. ».
Рекомендации по безопасной разработке систем ИИ разделены на четыре раздела, каждый из которых соответствует различным этапам жизненного цикла разработки системы ИИ: безопасное проектирование, безопасная разработка, безопасная реализация и безопасная эксплуатация и обслуживание.
Рекомендации применимы ко всем типам систем ИИ, а не только к «передовым» моделям, которые широко обсуждались на саммите по безопасности ИИ, проходившем в Великобритании 1 и 2 ноября 2023 года. Рекомендации Они также применимы ко всем специалистам, работающим в сфере ИИ. и вокруг ИИ, включая разработчиков, специалистов по данным, менеджеров, лиц, принимающих решения, и других «владельцев рисков» ИИ.
«Мы ориентировали рекомендации в первую очередь на поставщиков систем искусственного интеллекта, которые используют модели, размещенные в организации (или используют внешние API), но мы призываем все заинтересованные стороны… прочитать эти рекомендации, чтобы помочь им принимать обоснованные решения по проектированию, разработке, внедрению и эксплуатации своих системы искусственного интеллекта», сказал НКСК.
В ходе саммита по безопасности искусственного интеллекта, проходившего в историческом месте Блетчли-парка в Бакингемшире, Англия, представители 28 стран подписали соглашение. Заявление Блетчли о безопасности ИИ , что подчеркивает важность проектирования и внедрения систем искусственный интеллект безопасно и ответственно, с упором на сотрудничество. и прозрачность.
В заявлении признается необходимость устранения рисков, связанных с передовыми моделями искусственного интеллекта, особенно в таких областях, как компьютерная безопасность и биотехнологии, а также поддерживает более широкое международное сотрудничество для обеспечения безопасного, этичного и полезного использованияIA.
Мишель Донелан, министр науки и технологий Великобритании, заявила, что недавно опубликованные руководящие принципы «поставят кибербезопасность в центр развитияискусственный интеллект» от создания до развертывания.
Публикация руководящих указаний поискусственный интеллект был встречен экспертами и аналитиками информационной безопасности.
Тоби Льюис, руководитель глобального отдела анализа угроз в Darktrace, defiзакончил руководство "Добро пожаловать проект" для систем искусственный интеллект безопасный и надежный.
Комментируя это по электронной почте, Льюис сказал: «Я рад видеть, что в руководящих принципах подчеркивается необходимость искусственный интеллект защитить свои данные и модели от злоумышленников и обеспечить, чтобы пользователи ИИ применяли правильные интеллект artificiale для правильной задачи. Разработчики ИИ должны пойти дальше и завоевать доверие, проводя пользователей через путь, по которому их ИИ достигает ответов. Обладая уверенностью и доверием, мы реализуем преимущества искусственного интеллекта быстрее и для большего числа людей».
Жорж Аниджар, вице-президент Informatica по Южной Европе, заявил, что публикация руководящих принципов знаменует собой «значительный шаг на пути к решению проблем кибербезопасности, присущих этой быстро развивающейся области».
BlogInnovazione.it
Развитие мелкой моторики посредством раскрашивания готовит детей к более сложным навыкам, таким как письмо. Раскрасить…
Военно-морской сектор является настоящей глобальной экономической державой, которая достигла 150-миллиардного рынка...
В прошлый понедельник Financial Times объявила о сделке с OpenAI. FT лицензирует свою журналистику мирового уровня…
Миллионы людей платят за стриминговые сервисы, выплачивая ежемесячную абонентскую плату. Распространено мнение, что вы…