Le насоки за безопасно развитие на системи с изкуствен интелект те са предназначени да напътстват разработчиците конкретно през проектирането, разработването, внедряването и работата на AI системи и гарантират, че сигурността остава критичен компонент през целия им жизнен цикъл. Въпреки това, други заинтересовани страни в проекти за ИИ също трябва да намерят тази информация за полезна.
Тези насоки бяха публикувани скоро след като световните лидери се ангажираха с безопасното и отговорно развитие на изкуствения интелект на срещата на върха за безопасността на AI в началото на ноември.
Указанията за разработване на безопасни системи за изкуствен интелект дават препоръки, за да се гарантира, че моделите на изкуствен интелект – независимо дали са създадени от нулата или базирани на съществуващи модели или API от други компании – „работят по предназначение, налични са, когато е необходимо, и работят, без да разкриват чувствителни данни на неоторизирани страни . “
Ключът към това е подходът „сигурен по подразбиране“, застъпен от NCSC, CISA, Националния институт за стандарти и технологии и различни други международни агенции за киберсигурност в съществуващите рамки. Принципите на тези рамки включват:
Според NCSC общо 21 агенции и министерства от общо 18 държави са потвърдили, че ще одобрят и ще подпечатат съвместно новите насоки. Това включва Агенцията за национална сигурност и Федералното бюро за разследване в Съединените щати, както и Канадския център за киберсигурност, Френската агенция за киберсигурност, Федералната служба за киберсигурност на Германия, Сингапур Агенция за киберсигурност и Японски национален център за инциденти. Подготовка и стратегия за киберсигурност.
Линди Камерън, главен изпълнителен директор на NCSC, каза в съобщение за пресата : „Знаем, че изкуственият интелект се развива с феноменална скорост и трябва да има съгласувани международни действия, между правителствата и индустрията, за да се поддържа темпото. ”.
Насоките за безопасно разработване на AI системи са структурирани в четири раздела, всеки от които съответства на различни фази от жизнения цикъл на разработка на AI система: сигурен дизайн, сигурна разработка, сигурно внедряване и сигурна работа и поддръжка.
Насоките са приложими за всички видове AI системи, а не само за „гранични“ модели, които бяха обстойно обсъдени на срещата на високо равнище за безопасността на AI, организирана в Обединеното кралство на 1 и 2 ноември 2023 г. Насоките Те са приложими и за всички професионалисти, работещи в и около AI, включително разработчици, специалисти по данни, мениджъри, лица, вземащи решения и други AI „притежатели на риск“.
„Ние насочихме насоките основно към доставчици на системи за изкуствен интелект, които използват модели, хоствани от организация (или използват външни API), но насърчаваме всички заинтересовани страни... да прочетат тези насоки, за да им помогнат да вземат информирани дизайнерски решения, разработване, внедряване и експлоатация на техните системи с изкуствен интелект”, - каза той NCSC.
По време на срещата на върха за безопасността на изкуствения интелект, проведена на историческото място в парка Блечли в Бъкингамшър, Англия, представители от 28 държави подписаха Изявление на Bletchley относно безопасността на AI , което подчертава важността на проектирането и внедряването на системи изкуствен интелект безопасно и отговорно, с акцент върху сътрудничеството. и прозрачност.
Изявлението признава необходимостта от справяне с рисковете, свързани с авангардни AI модели, особено в области като ИТ сигурност и биотехнологии и подкрепя по-голямото международно сътрудничество за гарантиране на безопасна, етична и полезна употреба наIA.
Мишел Донелан, министър на науката и технологиите на Великобритания, каза, че новопубликуваните насоки „ще поставят киберсигурността в основата на развитието наизкуствен интелект” от създаването до внедряването.
Публикуването на насоките заизкуствен интелект беше приветствано от експерти и анализатори кибер защита.
Тоби Люис, глобален ръководител на анализ на заплахи в Darktrace, има defiзавърши ръководството "добре дошъл проект" за системи изкуствен интелект безопасно и надеждно.
Коментирайки по имейл, Люис каза: „Радвам се да видя, че насоките подчертават необходимостта от изкуствен интелект защитават своите данни и модели от нападатели и потребителите на AI да прилагат правилните интелигентност изкуствени за правилната задача. Тези, които разработват AI, трябва да отидат по-далеч и да изградят доверие, като преведат потребителите през пътуването на това как техният AI достига до отговорите. С увереност и доверие ще осъзнаем предимствата на AI по-бързо и за повече хора.“
Жорж Аниджар, вицепрезидент за Южна Европа в Informatica, каза, че публикуването на насоките бележи „значителна стъпка към справяне с предизвикателствата пред киберсигурността, присъщи на тази бързо развиваща се област“.
BlogInnovazione.it
Миналия понеделник Financial Times обяви сделка с OpenAI. FT лицензира своята журналистика от световна класа...
Милиони хора плащат за стрийминг услуги, като плащат месечни абонаментни такси. Разпространено е мнението, че вие…
Coveware от Veeam ще продължи да предоставя услуги за реакция при инциденти с кибер изнудване. Coveware ще предлага криминалистика и възможности за възстановяване...
Прогнозната поддръжка революционизира сектора на петрола и газа с иновативен и проактивен подход към управлението на инсталациите.…