Le retningslinjer for sikker udvikling af kunstige intelligenssystemer de er designet til at guide udviklere specifikt gennem design, udvikling, implementering og drift af AI-systemer og sikre, at sikkerhed forbliver en kritisk komponent gennem deres livscyklus. Andre interessenter i AI-projekter bør dog også finde denne information nyttig.
Disse retningslinjer blev frigivet kort efter, at verdens ledere forpligtede sig til sikker og ansvarlig udvikling af kunstig intelligens på AI-sikkerhedstopmødet i begyndelsen af november.
Retningslinjerne for udvikling af sikre AI-systemer angiver anbefalinger for at sikre, at AI-modeller - uanset om de er bygget fra bunden eller baseret på eksisterende modeller eller API'er fra andre virksomheder - "fungerer efter hensigten, er tilgængelige, når det er nødvendigt, og fungerer uden at afsløre følsomme data til uautoriserede parter . “
Nøglen til dette er den "sikker som standard"-tilgang, som anbefales af NCSC, CISA, National Institute of Standards and Technology og forskellige andre internationale cybersikkerhedsagenturer i eksisterende rammer. Principperne for disse rammer omfatter:
Ifølge NCSC har i alt 21 agenturer og ministerier fra i alt 18 lande bekræftet, at de vil godkende og medforsegle de nye retningslinjer. Dette inkluderer National Security Agency og Federal Bureau of Investigations i USA, samt det canadiske center for cybersikkerhed, det franske cybersikkerhedsagentur, det tyske føderale kontor for cybersikkerhed, Singapore Cyber Security Agency og Japan National Incident Center. Cybersikkerhedsforberedelse og strategi.
Lindy Cameron, administrerende direktør for NCSC, sagde i en pressemeddelelse : “Vi ved, at kunstig intelligens udvikler sig med en fænomenal hastighed, og der skal være en samordnet international indsats mellem regeringer og industri for at holde trit. ”.
Retningslinjerne for sikker udvikling af AI-systemer er struktureret i fire sektioner, der hver svarer til forskellige faser af et AI-systems udviklingslivscyklus: sikkert design, sikker udvikling, sikker implementering og sikker drift og vedligeholdelse.
Retningslinjerne gælder for alle typer AI-systemer og ikke kun "frontier"-modeller, som blev diskuteret indgående på AI-sikkerhedstopmødet i Storbritannien den 1. og 2. november 2023. Retningslinjerne De gælder også for alle fagfolk, der arbejder i og omkring AI, herunder udviklere, dataforskere, ledere, beslutningstagere og andre AI-"risikoejere".
"Vi har primært rettet retningslinjerne mod AI-systemleverandører, der bruger modeller hostet af en organisation (eller bruger eksterne API'er), men vi opfordrer alle interesserede parter... til at læse disse retningslinjer for at hjælpe dem med at træffe informerede designbeslutninger, udvikling, implementering og drift af deres kunstige intelligenssystemer", sagde NCSC.
Under AI-sikkerhedstopmødet, der blev afholdt på det historiske sted i Bletchley Park i Buckinghamshire, England, underskrev repræsentanter fra 28 lande Bletchley-erklæring om AI-sikkerhed , som fremhæver vigtigheden af at designe og implementere systemer kunstig intelligens sikkert og ansvarligt med vægt på samarbejde. og gennemsigtighed.
Erklæringen anerkender behovet for at adressere de risici, der er forbundet med banebrydende AI-modeller, især inden for områder som f.eks. IT-sikkerhed og bioteknologi, og støtter et større internationalt samarbejde for at sikre sikker, etisk og gavnlig brug afIA.
Michelle Donelan, Storbritanniens videnskabs- og teknologisekretær, sagde, at de nyligt offentliggjorte retningslinjer "vil sætte cybersikkerhed i hjertet af udviklingen afkunstig intelligens” fra start til implementering.
Udgivelsen af retningslinjerne vedrkunstig intelligens er blevet hilst velkommen af eksperter og analytikere cybersikkerhed.
Toby Lewis, global leder af trusselsanalyse hos Darktrace, har defifærdig med guiden "et velkomstprojekt" for systemer kunstig intelligens sikker og pålidelig.
I en kommentar via e-mail sagde Lewis: "Jeg er glad for at se, at retningslinjerne fremhæver behovet for kunstig intelligens beskytte deres data og modeller mod angribere, og at AI-brugere anvender de rigtige intelligens kunstig til den rigtige opgave. De, der udvikler AI, bør gå videre og opbygge tillid ved at lede brugerne gennem rejsen for, hvordan deres AI når frem til svarene. Med tillid og tillid vil vi indse fordelene ved AI hurtigere og for flere mennesker."
Georges Anidjar, vicepræsident for Sydeuropa hos Informatica, sagde, at offentliggørelsen af retningslinjerne markerer "et væsentligt skridt i retning af at adressere de cybersikkerhedsudfordringer, der ligger i dette hastigt udviklende felt."
BlogInnovazione.it
Coveware by Veeam vil fortsætte med at levere responstjenester til cyberafpresning. Coveware vil tilbyde kriminaltekniske og afhjælpende funktioner...
Forudsigende vedligeholdelse revolutionerer olie- og gassektoren med en innovativ og proaktiv tilgang til anlægsstyring...
Det britiske CMA har udsendt en advarsel om Big Techs adfærd på markedet for kunstig intelligens. Der…
Dekretet om "grønne huse", der er formuleret af Den Europæiske Union for at øge bygningers energieffektivitet, har afsluttet sin lovgivningsproces med...