Artikler

Ny vejledning om AI-sikkerhed udgivet af NCSC, CISA og andre internationale agenturer

Retningslinjerne for udvikling af sikre AI-systemer blev skrevet for at hjælpe udviklere med at sikre, at sikkerhed er indbygget i hjertet af nye AI-modeller.

Storbritanniens National Cyber ​​​​Security Centre, US Cybersecurity and Infrastructure Security Agency og internationale agenturer fra 16 andre lande har offentliggjort ny vejledning om sikkerheden af ​​kunstige intelligenssystemer.

Le retningslinjer for sikker udvikling af kunstige intelligenssystemer de er designet til at guide udviklere specifikt gennem design, udvikling, implementering og drift af AI-systemer og sikre, at sikkerhed forbliver en kritisk komponent gennem deres livscyklus. Andre interessenter i AI-projekter bør dog også finde denne information nyttig.

Disse retningslinjer blev frigivet kort efter, at verdens ledere forpligtede sig til sikker og ansvarlig udvikling af kunstig intelligens på AI-sikkerhedstopmødet i begyndelsen af ​​november.

Sammenfattende: retningslinjer for udvikling af sikre AI-systemer

Retningslinjerne for udvikling af sikre AI-systemer angiver anbefalinger for at sikre, at AI-modeller - uanset om de er bygget fra bunden eller baseret på eksisterende modeller eller API'er fra andre virksomheder - "fungerer efter hensigten, er tilgængelige, når det er nødvendigt, og fungerer uden at afsløre følsomme data til uautoriserede parter . “

Nøglen til dette er den "sikker som standard"-tilgang, som anbefales af NCSC, CISA, National Institute of Standards and Technology og forskellige andre internationale cybersikkerhedsagenturer i eksisterende rammer. Principperne for disse rammer omfatter:

  • Tag ejerskab over sikkerhedsresultater for kunder.
  • Omfavnelse af radikal gennemsigtighed og ansvarlighed.
  • Byg organisationsstruktur og lederskab, så "safety by design" er en topprioritet for virksomheden.

Ifølge NCSC har i alt 21 agenturer og ministerier fra i alt 18 lande bekræftet, at de vil godkende og medforsegle de nye retningslinjer. Dette inkluderer National Security Agency og Federal Bureau of Investigations i USA, samt det canadiske center for cybersikkerhed, det franske cybersikkerhedsagentur, det tyske føderale kontor for cybersikkerhed, Singapore Cyber ​​​​Security Agency og Japan National Incident Center. Cybersikkerhedsforberedelse og strategi.

Lindy Cameron, administrerende direktør for NCSC, sagde i en pressemeddelelse : “Vi ved, at kunstig intelligens udvikler sig med en fænomenal hastighed, og der skal være en samordnet international indsats mellem regeringer og industri for at holde trit. ”.

Sikre de fire nøglefaser i AI-udviklingens livscyklus

Retningslinjerne for sikker udvikling af AI-systemer er struktureret i fire sektioner, der hver svarer til forskellige faser af et AI-systems udviklingslivscyklus: sikkert design, sikker udvikling, sikker implementering og sikker drift og vedligeholdelse.

  • Sikkert design tilbyder specifik vejledning til designfasen af ​​AI-systemudviklingens livscyklus. Det understreger vigtigheden af ​​at erkende risici og udføre trusselsmodellering, samt overveje forskellige emner og afvejninger, når systemer og modeller designes.
  • Sikker udvikling dækker udviklingsfasen af ​​AI-systemets livscyklus. Anbefalinger omfatter sikring af forsyningskædesikkerhed, vedligeholdelse af grundig dokumentation og effektiv styring af ressourcer og teknisk gæld.
  • Sikker implementering omhandler implementeringsfasen af ​​AI-systemer. Retningslinjerne i denne sag omhandler sikring af infrastrukturen og modellerne mod kompromiser, trusler eller tab. definion af processer for hændelseshåndtering og vedtagelse af principper for ansvarlig frigivelse.
  • Sikker drift og vedligeholdelse indeholde indikationer om drifts- og vedligeholdelsesfasen efter indsættelsen af ​​de kunstige intelligensmodeller. Det dækker aspekter som effektiv logning og overvågning, styring af opdateringer og ansvarlig informationsdeling.

Retningslinjer for alle AI-systemer

Retningslinjerne gælder for alle typer AI-systemer og ikke kun "frontier"-modeller, som blev diskuteret indgående på AI-sikkerhedstopmødet i Storbritannien den 1. og 2. november 2023. Retningslinjerne De gælder også for alle fagfolk, der arbejder i og omkring AI, herunder udviklere, dataforskere, ledere, beslutningstagere og andre AI-"risikoejere".

"Vi har primært rettet retningslinjerne mod AI-systemleverandører, der bruger modeller hostet af en organisation (eller bruger eksterne API'er), men vi opfordrer alle interesserede parter... til at læse disse retningslinjer for at hjælpe dem med at træffe informerede designbeslutninger, udvikling, implementering og drift af deres kunstige intelligenssystemer", sagde NCSC.

Resultater af AI-sikkerhedstopmødet

Under AI-sikkerhedstopmødet, der blev afholdt på det historiske sted i Bletchley Park i Buckinghamshire, England, underskrev repræsentanter fra 28 lande Bletchley-erklæring om AI-sikkerhed , som fremhæver vigtigheden af ​​at designe og implementere systemer kunstig intelligens sikkert og ansvarligt med vægt på samarbejde. og gennemsigtighed.

Nyhedsbrev om innovation
Gå ikke glip af de vigtigste nyheder om innovation. Tilmeld dig for at modtage dem via e-mail.

Erklæringen anerkender behovet for at adressere de risici, der er forbundet med banebrydende AI-modeller, især inden for områder som f.eks. IT-sikkerhed og bioteknologi, og støtter et større internationalt samarbejde for at sikre sikker, etisk og gavnlig brug afIA.

Michelle Donelan, Storbritanniens videnskabs- og teknologisekretær, sagde, at de nyligt offentliggjorte retningslinjer "vil sætte cybersikkerhed i hjertet af udviklingen afkunstig intelligens” fra start til implementering.

Reaktioner på disse AI-retningslinjer fra cybersikkerhedsindustrien

Udgivelsen af ​​retningslinjerne vedrkunstig intelligens er blevet hilst velkommen af ​​eksperter og analytikere cybersikkerhed.

Toby Lewis, global leder af trusselsanalyse hos Darktrace, har defifærdig med guiden "et velkomstprojekt" for systemer kunstig intelligens sikker og pålidelig.

I en kommentar via e-mail sagde Lewis: "Jeg er glad for at se, at retningslinjerne fremhæver behovet for kunstig intelligens beskytte deres data og modeller mod angribere, og at AI-brugere anvender de rigtige intelligens kunstig til den rigtige opgave. De, der udvikler AI, bør gå videre og opbygge tillid ved at lede brugerne gennem rejsen for, hvordan deres AI når frem til svarene. Med tillid og tillid vil vi indse fordelene ved AI hurtigere og for flere mennesker."

Georges Anidjar, vicepræsident for Sydeuropa hos Informatica, sagde, at offentliggørelsen af ​​retningslinjerne markerer "et væsentligt skridt i retning af at adressere de cybersikkerhedsudfordringer, der ligger i dette hastigt udviklende felt."

BlogInnovazione.it

Nyhedsbrev om innovation
Gå ikke glip af de vigtigste nyheder om innovation. Tilmeld dig for at modtage dem via e-mail.

Seneste artikler

Veeam har den mest omfattende support til ransomware, fra beskyttelse til respons og gendannelse

Coveware by Veeam vil fortsætte med at levere responstjenester til cyberafpresning. Coveware vil tilbyde kriminaltekniske og afhjælpende funktioner...

23 April 2024

Grøn og digital revolution: Hvordan prædiktiv vedligeholdelse transformerer olie- og gasindustrien

Forudsigende vedligeholdelse revolutionerer olie- og gassektoren med en innovativ og proaktiv tilgang til anlægsstyring...

22 April 2024

Britisk antitrust-tilsynsmyndighed rejser BigTech-alarm over GenAI

Det britiske CMA har udsendt en advarsel om Big Techs adfærd på markedet for kunstig intelligens. Der…

18 April 2024

Casa Green: energirevolution for en bæredygtig fremtid i Italien

Dekretet om "grønne huse", der er formuleret af Den Europæiske Union for at øge bygningers energieffektivitet, har afsluttet sin lovgivningsproces med...

18 April 2024