Le керівні принципи безпечної розробки систем штучного інтелекту вони розроблені, щоб направляти розробників конкретно через проектування, розробку, впровадження та експлуатацію систем штучного інтелекту та гарантувати, що безпека залишається критичним компонентом протягом усього життєвого циклу. Однак інші зацікавлені сторони в проектах AI також повинні вважати цю інформацію корисною.
Ці рекомендації були оприлюднені незабаром після того, як світові лідери взяли на себе зобов’язання щодо безпечної та відповідальної розробки штучного інтелекту на саміті з безпеки ШІ на початку листопада.
Керівництво з розробки безпечних систем штучного інтелекту містить рекомендації щодо забезпечення того, щоб моделі штучного інтелекту, створені з нуля або засновані на існуючих моделях чи API інших компаній, «працювали за призначенням, були доступні за потреби та працювали без розкриття конфіденційних даних неавторизованим сторонам». . «
Ключем до цього є підхід «захищено за замовчуванням», який відстоюють NCSC, CISA, Національний інститут стандартів і технологій та інші міжнародні агентства з кібербезпеки в існуючих структурах. Принципи цих структур включають:
За даними NCSC, загалом 21 агентство та міністерство із загалом 18 країн підтвердили, що вони схвалять і підпишуть нові рекомендації. Це Агентство національної безпеки та Федеральне бюро розслідувань США, а також Канадський центр кібербезпеки, Французьке агентство кібербезпеки, Федеральне відомство кібербезпеки Німеччини, Сінгапуру Агентство кібербезпеки та Японський національний центр інцидентів. Готовність і стратегія кібербезпеки.
Про це заявила Лінді Кемерон, виконавчий директор NCSC прес-реліз : «Ми знаємо, що штучний інтелект розвивається феноменальною швидкістю, і потрібні узгоджені міжнародні дії між урядами та промисловістю, щоб не відставати від цього. ”.
Рекомендації щодо безпечної розробки систем штучного інтелекту структуровано в чотири розділи, кожен з яких відповідає різним фазам життєвого циклу розробки системи штучного інтелекту: безпечне проектування, безпечне розроблення, безпечне впровадження, безпечна експлуатація та обслуговування.
Рекомендації застосовуються до всіх типів систем штучного інтелекту, а не лише до «передових» моделей, які широко обговорювалися на саміті з безпеки штучного інтелекту, що відбувся у Великобританії 1 і 2 листопада 2023 року. Рекомендації також застосовуються до всіх професіоналів, які працюють у і навколо штучного інтелекту, включаючи розробників, спеціалістів із обробки даних, менеджерів, осіб, які приймають рішення, та інших «власників ризику» ШІ.
«Ми націлили настанови в першу чергу на постачальників систем штучного інтелекту, які використовують моделі, розміщені в організації (або використовують зовнішні API), але ми заохочуємо всіх зацікавлених сторін… прочитати ці настанови, щоб допомогти їм приймати обґрунтовані рішення щодо проектування, розробки, впровадження та експлуатації своїх системи штучного інтелекту», він заявив NCSC.
Під час саміту з безпеки штучного інтелекту, який проходив в історичному місці парку Блетчлі в Бакінгемширі, Англія, представники 28 країн підписали Заява Блетчлі про безпеку ШІ , що підкреслює важливість проектування та впровадження систем штучний інтелект безпечно та відповідально, з наголосом на співпрацю. і прозорість.
У заяві визнається необхідність усунути ризики, пов’язані з передовими моделями ШІ, особливо в таких сферах, як ІТ безпека та біотехнології, а також підтримує більшу міжнародну співпрацю для забезпечення безпечного, етичного та корисного використанняIA.
Мішель Донелан, міністр науки і технологій Великобританії, сказала, що нещодавно опубліковані рекомендації «поставлять кібербезпеку в центр розвиткуштучний інтелект” від початку до розгортання.
Публікація методичних рекомендацій поштучний інтелект була позитивно сприйнята експертами та аналітиками кібербезпека.
Тобі Льюїс, глобальний керівник відділу аналізу загроз у Darktrace, сказав defiзакінчив керівництво "вітальний проект" для систем штучний інтелект безпечний і надійний.
Коментуючи електронною поштою, Льюїс сказав: «Мені приємно бачити, що рекомендації підкреслюють необхідність штучний інтелект захищати свої дані та моделі від зловмисників і щоб користувачі ШІ застосовували правильні інтелект штучні для правильного завдання. Ті, хто розробляє штучний інтелект, повинні йти далі та зміцнювати довіру, проводячи користувачів через шлях до того, як їхній штучний інтелект знаходить відповіді. З упевненістю та довірою ми зрозуміємо переваги ШІ швидше та для більшої кількості людей».
Жорж Аніджар, віце-президент Південної Європи компанії Informatica, сказав, що публікація рекомендацій знаменує собою «значний крок до вирішення проблем кібербезпеки, властивих цій галузі, що швидко розвивається».
BlogInnovazione.it
У поліклініці Катанії проведено операцію офтальмопластики за допомогою комерційного переглядача Apple Vision Pro…
Розвиток дрібної моторики за допомогою розфарбовування готує дітей до більш складних навичок, таких як письмо. Розфарбувати…
Військово-морський сектор є справжньою глобальною економічною силою, яка просунулася до 150-мільярдного ринку...
Минулого понеділка Financial Times оголосила про угоду з OpenAI. FT ліцензує свою журналістику світового рівня…