Статті

Нові рекомендації щодо безпеки ШІ, опубліковані NCSC, CISA та іншими міжнародними агентствами

Інструкції з розробки безпечних систем штучного інтелекту були написані, щоб допомогти розробникам забезпечити безпеку, вбудовану в серце нових моделей штучного інтелекту.

Національний центр кібербезпеки Великобританії, Агентство з кібербезпеки та безпеки інфраструктури США та міжнародні агентства з 16 інших країн опублікували нові рекомендації щодо безпеки систем штучного інтелекту.

Le керівні принципи безпечної розробки систем штучного інтелекту вони розроблені, щоб направляти розробників конкретно через проектування, розробку, впровадження та експлуатацію систем штучного інтелекту та гарантувати, що безпека залишається критичним компонентом протягом усього життєвого циклу. Однак інші зацікавлені сторони в проектах AI також повинні вважати цю інформацію корисною.

Ці рекомендації були оприлюднені незабаром після того, як світові лідери взяли на себе зобов’язання щодо безпечної та відповідальної розробки штучного інтелекту на саміті з безпеки ШІ на початку листопада.

Коротко: рекомендації щодо розробки безпечних систем ШІ

Керівництво з розробки безпечних систем штучного інтелекту містить рекомендації щодо забезпечення того, щоб моделі штучного інтелекту, створені з нуля або засновані на існуючих моделях чи API інших компаній, «працювали за призначенням, були доступні за потреби та працювали без розкриття конфіденційних даних неавторизованим сторонам». . «

Ключем до цього є підхід «захищено за замовчуванням», який відстоюють NCSC, CISA, Національний інститут стандартів і технологій та інші міжнародні агентства з кібербезпеки в існуючих структурах. Принципи цих структур включають:

  • Візьміть на себе відповідальність за результати безпеки для клієнтів.
  • Запровадження радикальної прозорості та підзвітності.
  • Створіть організаційну структуру та керівництво так, щоб «безпека за проектом» була головним пріоритетом бізнесу.

За даними NCSC, загалом 21 агентство та міністерство із загалом 18 країн підтвердили, що вони схвалять і підпишуть нові рекомендації. Це Агентство національної безпеки та Федеральне бюро розслідувань США, а також Канадський центр кібербезпеки, Французьке агентство кібербезпеки, Федеральне відомство кібербезпеки Німеччини, Сінгапуру Агентство кібербезпеки та Японський національний центр інцидентів. Готовність і стратегія кібербезпеки.

Про це заявила Лінді Кемерон, виконавчий директор NCSC прес-реліз : «Ми знаємо, що штучний інтелект розвивається феноменальною швидкістю, і потрібні узгоджені міжнародні дії між урядами та промисловістю, щоб не відставати від цього. ”.

Захистіть чотири ключові фази життєвого циклу розробки AI

Рекомендації щодо безпечної розробки систем штучного інтелекту структуровано в чотири розділи, кожен з яких відповідає різним фазам життєвого циклу розробки системи штучного інтелекту: безпечне проектування, безпечне розроблення, безпечне впровадження, безпечна експлуатація та обслуговування.

  • Безпечний дизайн пропонує конкретні вказівки для фази проектування життєвого циклу розробки системи AI. Він наголошує на важливості розпізнавання ризиків і моделювання загроз, а також розгляду різних тем і компромісів під час розробки систем і моделей.
  • Безпечний розвиток охоплює фазу розробки життєвого циклу системи AI. Рекомендації включають забезпечення безпеки ланцюга постачання, ведення ретельної документації та ефективне управління ресурсами та технічним боргом.
  • Безпечне впровадження розглядає етап впровадження систем ШІ. Інструкції в цьому випадку стосуються захисту інфраструктури та моделей від компромісів, загроз або втрат, defiвизначення процесів управління інцидентами та прийняття принципів відповідального звільнення.
  • Безпечна експлуатація та обслуговування містити вказівки щодо етапу експлуатації та обслуговування після розгортання моделей штучного інтелекту. Він охоплює такі аспекти, як ефективне ведення журналів і моніторинг, керування оновленнями та відповідальний обмін інформацією.

Інструкції для всіх систем ШІ

Рекомендації застосовуються до всіх типів систем штучного інтелекту, а не лише до «передових» моделей, які широко обговорювалися на саміті з безпеки штучного інтелекту, що відбувся у Великобританії 1 і 2 листопада 2023 року. Рекомендації також застосовуються до всіх професіоналів, які працюють у і навколо штучного інтелекту, включаючи розробників, спеціалістів із обробки даних, менеджерів, осіб, які приймають рішення, та інших «власників ризику» ШІ.

«Ми націлили настанови в першу чергу на постачальників систем штучного інтелекту, які використовують моделі, розміщені в організації (або використовують зовнішні API), але ми заохочуємо всіх зацікавлених сторін… прочитати ці настанови, щоб допомогти їм приймати обґрунтовані рішення щодо проектування, розробки, впровадження та експлуатації своїх системи штучного інтелекту», він заявив NCSC.

Підсумки Саміту з безпеки AI

Під час саміту з безпеки штучного інтелекту, який проходив в історичному місці парку Блетчлі в Бакінгемширі, Англія, представники 28 країн підписали Заява Блетчлі про безпеку ШІ , що підкреслює важливість проектування та впровадження систем штучний інтелект безпечно та відповідально, з наголосом на співпрацю. і прозорість.

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

У заяві визнається необхідність усунути ризики, пов’язані з передовими моделями ШІ, особливо в таких сферах, як ІТ безпека та біотехнології, а також підтримує більшу міжнародну співпрацю для забезпечення безпечного, етичного та корисного використанняIA.

Мішель Донелан, міністр науки і технологій Великобританії, сказала, що нещодавно опубліковані рекомендації «поставлять кібербезпеку в центр розвиткуштучний інтелект” від початку до розгортання.

Реакція індустрії кібербезпеки на ці рекомендації щодо ШІ

Публікація методичних рекомендацій поштучний інтелект була позитивно сприйнята експертами та аналітиками кібербезпека.

Тобі Льюїс, глобальний керівник відділу аналізу загроз у Darktrace, сказав defiзакінчив керівництво "вітальний проект" для систем штучний інтелект безпечний і надійний.

Коментуючи електронною поштою, Льюїс сказав: «Мені приємно бачити, що рекомендації підкреслюють необхідність штучний інтелект захищати свої дані та моделі від зловмисників і щоб користувачі ШІ застосовували правильні інтелект штучні для правильного завдання. Ті, хто розробляє штучний інтелект, повинні йти далі та зміцнювати довіру, проводячи користувачів через шлях до того, як їхній штучний інтелект знаходить відповіді. З упевненістю та довірою ми зрозуміємо переваги ШІ швидше та для більшої кількості людей».

Жорж Аніджар, віце-президент Південної Європи компанії Informatica, сказав, що публікація рекомендацій знаменує собою «значний крок до вирішення проблем кібербезпеки, властивих цій галузі, що швидко розвивається».

BlogInnovazione.it

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Останні статті

Інноваційне втручання в доповнену реальність із програмою перегляду Apple у поліклініці Катанії

У поліклініці Катанії проведено операцію офтальмопластики за допомогою комерційного переглядача Apple Vision Pro…

3 травня 2024

Переваги розмальовок для дітей - чарівний світ для будь-якого віку

Розвиток дрібної моторики за допомогою розфарбовування готує дітей до більш складних навичок, таких як письмо. Розфарбувати…

2 травня 2024

Майбутнє тут: як індустрія судноплавства революціонізує світову економіку

Військово-морський сектор є справжньою глобальною економічною силою, яка просунулася до 150-мільярдного ринку...

1 травня 2024

Видавці та OpenAI підписують угоди щодо регулювання потоку інформації, яка обробляється штучним інтелектом

Минулого понеділка Financial Times оголосила про угоду з OpenAI. FT ліцензує свою журналістику світового рівня…

Квітень 30 2024

Читайте Innovation своєю мовою

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Слідуйте за нами