Články

Nové pokyny k zabezpečení umělé inteligence zveřejněné NCSC, CISA a dalšími mezinárodními agenturami

Pokyny pro vývoj zabezpečených systémů umělé inteligence byly napsány s cílem pomoci vývojářům zajistit, aby zabezpečení bylo zabudováno do srdce nových modelů umělé inteligence.

Britské Národní centrum pro kybernetickou bezpečnost, Americká agentura pro kybernetickou bezpečnost a bezpečnost infrastruktury a mezinárodní agentury z 16 dalších zemí zveřejnily nové pokyny k zabezpečení systémů umělé inteligence.

Le pokyny pro bezpečný vývoj systémů umělé inteligence jsou navrženy tak, aby vedly vývojáře konkrétně návrhem, vývojem, implementací a provozem systémů umělé inteligence a zajistily, že zabezpečení zůstane kritickou složkou po celou dobu jejich životního cyklu. Tyto informace by však měly být užitečné i pro ostatní zúčastněné strany v projektech AI.

Tyto pokyny byly vydány brzy poté, co se světoví lídři zavázali k bezpečnému a zodpovědnému vývoji umělé inteligence na AI Safety Summit na začátku listopadu.

Stručně řečeno: pokyny pro vývoj bezpečných systémů umělé inteligence

Pokyny pro vývoj bezpečných systémů umělé inteligence obsahují doporučení, která mají zajistit, aby modely umělé inteligence – ať už vytvořené od nuly nebo založené na existujících modelech či rozhraních API od jiných společností – „fungovaly tak, jak bylo zamýšleno, byly dostupné, když je to potřeba, a fungovaly bez odhalení citlivých dat neoprávněným stranám. . “

Klíčem k tomu je přístup „zabezpečený ve výchozím nastavení“, který obhajují NCSC, CISA, Národní institut pro standardy a technologie a různé další mezinárodní agentury pro kybernetickou bezpečnost ve stávajících rámcích. Mezi principy těchto rámců patří:

  • Převezměte odpovědnost za bezpečnostní výsledky pro zákazníky.
  • Přijetí radikální transparentnosti a odpovědnosti.
  • Vybudujte organizační strukturu a vedení tak, aby „bezpečnost již od návrhu“ byla nejvyšší obchodní prioritou.

Podle NCSC celkem 21 agentur a ministerstev z celkem 18 zemí potvrdilo, že nové pokyny schválí a spoluzapečetí. Patří sem Národní bezpečnostní agentura a Federální úřad pro vyšetřování ve Spojených státech, stejně jako Kanadské centrum pro kybernetickou bezpečnost, Francouzská agentura pro kybernetickou bezpečnost, Federální úřad pro kybernetickou bezpečnost Německa, Singapur. Agentura pro kybernetickou bezpečnost a Japonské národní centrum pro incidenty. Příprava a strategie kybernetické bezpečnosti.

Uvedla to Lindy Cameron, generální ředitelka NCSC tisková zpráva : „Víme, že umělá inteligence se vyvíjí fenomenálním tempem a že je třeba koordinované mezinárodní akce mezi vládami a průmyslem, abychom udrželi tempo. “.

Zabezpečte čtyři klíčové fáze životního cyklu vývoje AI

Pokyny pro bezpečný vývoj systémů umělé inteligence jsou strukturovány do čtyř částí, z nichž každá odpovídá různým fázím životního cyklu vývoje systému umělé inteligence: bezpečný návrh, bezpečný vývoj, bezpečná implementace a bezpečný provoz a údržba.

  • Bezpečný design nabízí konkrétní návod pro fázi návrhu životního cyklu vývoje systému AI. Zdůrazňuje důležitost rozpoznávání rizik a provádění modelování hrozeb, stejně jako zvažování různých témat a kompromisů při navrhování systémů a modelů.
  • Bezpečný vývoj pokrývá vývojovou fázi životního cyklu systému AI. Doporučení zahrnují zajištění bezpečnosti dodavatelského řetězce, vedení důkladné dokumentace a efektivní řízení zdrojů a technického dluhu.
  • Bezpečná implementace řeší fázi implementace systémů AI. Pokyny se v tomto případě týkají zabezpečení infrastruktury a modelů před kompromisy, hrozbami nebo ztrátami defivytvoření procesů pro řízení incidentů a přijetí zásad odpovědného uvolňování.
  • Bezpečný provoz a údržba obsahovat údaje o fázi provozu a údržby po nasazení modelů umělé inteligence. Zahrnuje aspekty, jako je efektivní protokolování a monitorování, správa aktualizací a odpovědné sdílení informací.

Pokyny pro všechny systémy umělé inteligence

Pokyny platí pro všechny typy systémů umělé inteligence, nejen pro „hraniční“ modely, které byly široce diskutovány na AI ​​Safety Summit pořádaném ve Spojeném království ve dnech 1. a 2. listopadu 2023. Pokyny Platí také pro všechny profesionály pracující v a kolem AI, včetně vývojářů, datových vědců, manažerů, osob s rozhodovací pravomocí a dalších „vlastníků rizik“ AI.

„Směrnice jsme zaměřovali především na dodavatele systémů umělé inteligence, kteří používají modely hostované organizací (nebo používají externí rozhraní API), ale vyzýváme všechny zainteresované strany, aby si tyto pokyny přečetly, aby jim pomohly přijímat informovaná rozhodnutí o návrhu, vývoji, implementaci a provozu jejich systémy umělé inteligence“, řekl NCSC.

Výsledky bezpečnostního summitu AI

Během AI ​​Safety Summit, který se konal v historickém místě Bletchley Park v Buckinghamshire v Anglii, zástupci 28 zemí podepsali Prohlášení Bletchley o bezpečnosti umělé inteligence , který zdůrazňuje důležitost navrhování a implementace systémů umělá inteligence bezpečně a zodpovědně, s důrazem na spolupráci. a transparentnost.

Inovační zpravodaj
Nenechte si ujít nejdůležitější novinky o inovacích. Přihlaste se k jejich odběru e-mailem.

Prohlášení uznává potřebu řešit rizika spojená se špičkovými modely umělé inteligence, zejména v oblastech, jako je např Zabezpečení IT a biotechnologie a podporuje větší mezinárodní spolupráci s cílem zajistit bezpečné, etické a prospěšné používáníIA.

Michelle Donelan, britská ministryně pro vědu a technologii, uvedla, že nově zveřejněné pokyny „umístí kybernetickou bezpečnost do středu vývojeumělá inteligence“ od počátku až po nasazení.

Reakce odvětví kybernetické bezpečnosti na tyto pokyny pro umělou inteligenci

Zveřejnění pokynů naumělá inteligence byl vítán odborníky a analytiky kybernetická bezpečnost.

Toby Lewis, globální vedoucí analýzy hrozeb ve společnosti Darktrace, ano defidokončil průvodce „vítací projekt“ pro systémy umělá inteligence bezpečné a spolehlivé.

Lewis komentoval e-mailem: „Jsem rád, že pokyny zdůrazňují potřebu umělá inteligence chránit svá data a modely před útočníky a aby uživatelé AI používali ty správné inteligence umělý za správný úkol. Ti, kteří vyvíjejí AI, by měli jít dále a budovat důvěru tím, že uživatele provedou cestou, jak jejich AI dosáhne odpovědí. S jistotou a důvěrou si uvědomíme výhody AI rychleji a pro více lidí.“

Georges Anidjar, viceprezident pro jižní Evropu ve společnosti Informatica, uvedl, že zveřejnění pokynů znamená „významný krok k řešení problémů kybernetické bezpečnosti, které jsou v této rychle se vyvíjející oblasti vlastní“.

BlogInnovazione.it

Inovační zpravodaj
Nenechte si ujít nejdůležitější novinky o inovacích. Přihlaste se k jejich odběru e-mailem.

Nedávné články

Výhody omalovánek pro děti - svět kouzel pro všechny věkové kategorie

Rozvíjení jemné motoriky prostřednictvím vybarvování připravuje děti na složitější dovednosti, jako je psaní. Barvit…

2. května 2024

Budoucnost je tady: Jak lodní průmysl revolucionizuje globální ekonomiku

Námořní sektor je skutečnou globální ekonomickou velmocí, která se dostala na 150miliardový trh...

1. května 2024

Vydavatelé a OpenAI podepisují dohody o regulaci toku informací zpracovávaných umělou inteligencí

Minulé pondělí Financial Times oznámily dohodu s OpenAI. FT licencuje svou prvotřídní žurnalistiku…

30. dubna 2024

Online platby: Zde je návod, jak vám streamovací služby umožňují platit navždy

Miliony lidí platí za streamovací služby a platí měsíční předplatné. Je obecný názor, že jste…

29. dubna 2024