Le irányelvek a mesterséges intelligencia rendszerek biztonságos fejlesztéséhez célja, hogy a fejlesztőket kifejezetten az AI-rendszerek tervezésén, fejlesztésén, megvalósításán és üzemeltetésén keresztül irányítsa, és biztosítsa, hogy a biztonság kritikus elem maradjon az egész életciklusuk során. Azonban az AI-projektekben más érdekelt feleknek is hasznosnak kell találniuk ezeket az információkat.
Ezeket az irányelveket nem sokkal azután adták ki, hogy a világ vezetői elkötelezték magukat a mesterséges intelligencia biztonságos és felelős fejlesztése mellett a november eleji AI biztonsági csúcstalálkozón.
A biztonságos mesterségesintelligencia-rendszerek fejlesztésére vonatkozó irányelvek ajánlásokat fogalmaznak meg annak biztosítására, hogy az AI-modellek – akár a semmiből építettek, akár meglévő modelleken vagy más cégek API-jain alapulnak – „a rendeltetésszerűen működjenek, szükség esetén rendelkezésre álljanak, és anélkül működjenek, hogy bizalmas adatokat illetéktelen felek elé tárjanak. . "
Ennek kulcsa az „alapértelmezett biztonságos” megközelítés, amelyet az NCSC, a CISA, a National Institute of Standards and Technology és számos más nemzetközi kiberbiztonsági ügynökség szorgalmaz a meglévő keretek között. Ezeknek a kereteknek az alapelvei a következők:
Az NCSC szerint összesen 21 ország összesen 18 ügynöksége és minisztériuma erősítette meg, hogy jóváhagyja és közösen lezárja az új irányelveket. Ide tartozik a Nemzetbiztonsági Ügynökség és az Egyesült Államok Szövetségi Nyomozóirodája, valamint a Kanadai Kiberbiztonsági Központ, a Francia Kiberbiztonsági Ügynökség, a Németországi Szövetségi Kiberbiztonsági Hivatal és a szingapúri Kiberbiztonsági Ügynökség és Japán Nemzeti Incidens Központ. Kiberbiztonsági előkészítés és stratégia.
– mondta Lindy Cameron, az NCSC vezérigazgatója egy sajtóközleményt : „Tudjuk, hogy a mesterséges intelligencia fenomenális ütemben fejlődik, és összehangolt nemzetközi fellépésre van szükség a kormányok és az ipar között, hogy lépést tartsunk. ”.
Az AI-rendszerek biztonságos fejlesztésére vonatkozó irányelvek négy részre tagolódnak, amelyek mindegyike az AI-rendszer fejlesztési életciklusának különböző fázisaihoz tartozik: biztonságos tervezés, biztonságos fejlesztés, biztonságos megvalósítás, valamint biztonságos üzemeltetés és karbantartás.
Az irányelvek az AI-rendszerek minden típusára vonatkoznak, nem csak a „határmodellekre”, amelyeket az Egyesült Királyságban 1. november 2-jén és 2023-án rendezett AI-biztonsági csúcstalálkozón széles körben megvitattak. és a mesterséges intelligencia körül, beleértve a fejlesztőket, adattudósokat, menedzsereket, döntéshozókat és más mesterséges intelligencia „kockázattulajdonosokat”.
„Az irányelveket elsősorban azoknak a mesterséges intelligencia-rendszerszállítóknak céloztuk meg, akik szervezet által üzemeltetett modelleket használnak (vagy külső API-kat használnak), de arra biztatunk minden érdekelt felet, hogy olvassa el ezeket az irányelveket, hogy segítsen nekik tájékozott tervezési döntéseket hozni, kidolgozni, megvalósítani és működtetni. mesterséges intelligencia rendszerek”, kijelentette az NCSC.
Az angliai Buckinghamshire-ben, a Bletchley Park történelmi helyén tartott mesterséges intelligencia-biztonsági csúcstalálkozón 28 ország képviselői írták alá a Bletchley nyilatkozata a mesterséges intelligencia biztonságáról , amely rávilágít a rendszerek tervezésének és megvalósításának fontosságára mesterséges intelligencia biztonságosan és felelősségteljesen, az együttműködésre helyezve a hangsúlyt. és az átláthatóság.
A nyilatkozat elismeri, hogy kezelni kell az élvonalbeli AI-modellekkel kapcsolatos kockázatokat, különösen olyan területeken, mint pl számítógép biztonság és biotechnológiát, és támogatja a nagyobb nemzetközi együttműködést a biztonságos, etikus és jótékony felhasználása érdekébenIA.
Michelle Donelan, Nagy-Britannia tudományos és technológiai minisztere elmondta, hogy az újonnan közzétett iránymutatások „a kiberbiztonságot helyezik a fejlesztés középpontjába.mesterséges intelligencia” a kezdetektől a telepítésig.
Az irányelvek közzététele amesterséges intelligencia szakértők és elemzők üdvözölték kiberbiztonság.
Toby Lewis, a Darktrace fenyegetéselemzésért felelős globális vezetője defibefejezte a rendszerekhez készült "örvendetes projekt" című útmutatót mesterséges intelligencia biztonságos és megbízható.
Lewis e-mailben kommentálta: „Örömmel látom, hogy az irányelvek rávilágítanak a szükségességre mesterséges intelligencia megóvják adataikat és modelljeiket a támadóktól, és hogy az AI-felhasználók a megfelelőeket alkalmazzák intelligencia mesterséges a megfelelő feladathoz. A mesterséges intelligencia fejlesztőinek tovább kell menniük, és bizalmat kell építeniük azáltal, hogy végigvezetik a felhasználókat azon az úton, hogyan jutnak el a válaszokhoz a mesterséges intelligencia. Magabiztossággal és bizalommal gyorsabban és több ember számára fogjuk felismerni az AI előnyeit.”
Georges Anidjar, az Informatica dél-európai alelnöke szerint az irányelvek közzététele „jelentős lépést jelent az e gyorsan fejlődő területen rejlő kiberbiztonsági kihívások kezelése felé”.
BlogInnovazione.it
A finom motoros készségek színezéssel történő fejlesztése felkészíti a gyerekeket olyan összetettebb készségekre, mint az írás. Kiszínezni…
A haditengerészeti szektor igazi világgazdasági hatalom, amely egy 150 milliárdos piac felé navigált...
Múlt hétfőn a Financial Times bejelentette, hogy megállapodást köt az OpenAI-val. Az FT engedélyezi világszínvonalú újságírását…
Emberek milliói fizetnek a streaming szolgáltatásokért, havi előfizetési díjat fizetve. Általános vélemény, hogy Ön…