Le pokyny pro bezpečný vývoj systémů umělé inteligence jsou navrženy tak, aby vedly vývojáře konkrétně návrhem, vývojem, implementací a provozem systémů umělé inteligence a zajistily, že zabezpečení zůstane kritickou složkou po celou dobu jejich životního cyklu. Tyto informace by však měly být užitečné i pro ostatní zúčastněné strany v projektech AI.
Tyto pokyny byly vydány brzy poté, co se světoví lídři zavázali k bezpečnému a zodpovědnému vývoji umělé inteligence na AI Safety Summit na začátku listopadu.
Pokyny pro vývoj bezpečných systémů umělé inteligence obsahují doporučení, která mají zajistit, aby modely umělé inteligence – ať už vytvořené od nuly nebo založené na existujících modelech či rozhraních API od jiných společností – „fungovaly tak, jak bylo zamýšleno, byly dostupné, když je to potřeba, a fungovaly bez odhalení citlivých dat neoprávněným stranám. . “
Klíčem k tomu je přístup „zabezpečený ve výchozím nastavení“, který obhajují NCSC, CISA, Národní institut pro standardy a technologie a různé další mezinárodní agentury pro kybernetickou bezpečnost ve stávajících rámcích. Mezi principy těchto rámců patří:
Podle NCSC celkem 21 agentur a ministerstev z celkem 18 zemí potvrdilo, že nové pokyny schválí a spoluzapečetí. Patří sem Národní bezpečnostní agentura a Federální úřad pro vyšetřování ve Spojených státech, stejně jako Kanadské centrum pro kybernetickou bezpečnost, Francouzská agentura pro kybernetickou bezpečnost, Federální úřad pro kybernetickou bezpečnost Německa, Singapur. Agentura pro kybernetickou bezpečnost a Japonské národní centrum pro incidenty. Příprava a strategie kybernetické bezpečnosti.
Uvedla to Lindy Cameron, generální ředitelka NCSC tisková zpráva : „Víme, že umělá inteligence se vyvíjí fenomenálním tempem a že je třeba koordinované mezinárodní akce mezi vládami a průmyslem, abychom udrželi tempo. “.
Pokyny pro bezpečný vývoj systémů umělé inteligence jsou strukturovány do čtyř částí, z nichž každá odpovídá různým fázím životního cyklu vývoje systému umělé inteligence: bezpečný návrh, bezpečný vývoj, bezpečná implementace a bezpečný provoz a údržba.
Pokyny platí pro všechny typy systémů umělé inteligence, nejen pro „hraniční“ modely, které byly široce diskutovány na AI Safety Summit pořádaném ve Spojeném království ve dnech 1. a 2. listopadu 2023. Pokyny Platí také pro všechny profesionály pracující v a kolem AI, včetně vývojářů, datových vědců, manažerů, osob s rozhodovací pravomocí a dalších „vlastníků rizik“ AI.
„Směrnice jsme zaměřovali především na dodavatele systémů umělé inteligence, kteří používají modely hostované organizací (nebo používají externí rozhraní API), ale vyzýváme všechny zainteresované strany, aby si tyto pokyny přečetly, aby jim pomohly přijímat informovaná rozhodnutí o návrhu, vývoji, implementaci a provozu jejich systémy umělé inteligence“, řekl NCSC.
Během AI Safety Summit, který se konal v historickém místě Bletchley Park v Buckinghamshire v Anglii, zástupci 28 zemí podepsali Prohlášení Bletchley o bezpečnosti umělé inteligence , který zdůrazňuje důležitost navrhování a implementace systémů umělá inteligence bezpečně a zodpovědně, s důrazem na spolupráci. a transparentnost.
Prohlášení uznává potřebu řešit rizika spojená se špičkovými modely umělé inteligence, zejména v oblastech, jako je např Zabezpečení IT a biotechnologie a podporuje větší mezinárodní spolupráci s cílem zajistit bezpečné, etické a prospěšné používáníIA.
Michelle Donelan, britská ministryně pro vědu a technologii, uvedla, že nově zveřejněné pokyny „umístí kybernetickou bezpečnost do středu vývojeumělá inteligence“ od počátku až po nasazení.
Zveřejnění pokynů naumělá inteligence byl vítán odborníky a analytiky kybernetická bezpečnost.
Toby Lewis, globální vedoucí analýzy hrozeb ve společnosti Darktrace, ano defidokončil průvodce „vítací projekt“ pro systémy umělá inteligence bezpečné a spolehlivé.
Lewis komentoval e-mailem: „Jsem rád, že pokyny zdůrazňují potřebu umělá inteligence chránit svá data a modely před útočníky a aby uživatelé AI používali ty správné inteligence umělý za správný úkol. Ti, kteří vyvíjejí AI, by měli jít dále a budovat důvěru tím, že uživatele provedou cestou, jak jejich AI dosáhne odpovědí. S jistotou a důvěrou si uvědomíme výhody AI rychleji a pro více lidí.“
Georges Anidjar, viceprezident pro jižní Evropu ve společnosti Informatica, uvedl, že zveřejnění pokynů znamená „významný krok k řešení problémů kybernetické bezpečnosti, které jsou v této rychle se vyvíjející oblasti vlastní“.
BlogInnovazione.it
Rozvíjení jemné motoriky prostřednictvím vybarvování připravuje děti na složitější dovednosti, jako je psaní. Barvit…
Námořní sektor je skutečnou globální ekonomickou velmocí, která se dostala na 150miliardový trh...
Minulé pondělí Financial Times oznámily dohodu s OpenAI. FT licencuje svou prvotřídní žurnalistiku…
Miliony lidí platí za streamovací služby a platí měsíční předplatné. Je obecný názor, že jste…