Artikler

Regulering af AI: 3 eksperter forklarer, hvorfor det er svært at gøre og vigtigt at gøre det godt

Kraftfulde nye AI-systemer kan forstærke svindel og desinformation, hvilket fører til udbredte krav om regeringsregulering. Men at gøre det er lettere sagt end gjort og kan have utilsigtede konsekvenser

Estimeret læsetid: 11 minutter

Giv hende falske billeder af Donald Trump arresteret af New York City politibetjente til en chatbot, der beskriver en datamatiker meget levende som døde tragisk , evnen til den nye generation af systemer kunstig intelligens generativ drift til at skabe overbevisende, men fiktive tekst og billeder, udløser alarmer om steroidsvindel og misinformation. Den 29. marts 2023 opfordrede en gruppe AI-forskere og industrifigurer industrien til at suspendere videreuddannelse i de nyeste AI-teknologier eller, bortset fra det, regeringer til at "indføre et moratorium".

Billedgeneratorer kan lide DALL-E , midt på rejsen e Stabil diffusion og indholdsgeneratorer som f.eks Bard , ChatGPT , Chinchilla e Opkald – er nu tilgængelige for millioner af mennesker og kræver ingen teknisk viden at bruge.

I betragtning af det udviklede landskab af teknologivirksomheder, der implementerer AI-systemer og tester dem på offentligheden, bør politiske beslutningstagere spørge sig selv, om og hvordan de skal regulere den nye teknologi. The Conversation bad tre teknologipolitiske eksperter forklare, hvorfor regulering af AI er sådan en udfordring, og hvorfor det er så vigtigt at få det rigtigt.

Menneskelige svagheder og et bevægeligt mål

S. Shyam Sundar, professor i multimedieeffekter og direktør, Center for Social Responsible AI, Penn State

Grunden til at regulere AI er ikke fordi teknologien er ude af kontrol, men fordi den menneskelige fantasi er ude af proportioner. Overvældende mediedækning har givet næring til irrationelle overbevisninger om AI-kapaciteter og bevidsthed. Disse overbevisninger er baseret på " automatisering bias ” eller på tendensen til at svigte vores vagt, når maskiner udfører en opgave. Et eksempel er den reducerede årvågenhed blandt piloterne når deres fly flyver på autopilot.

Adskillige undersøgelser i mit laboratorium har vist, at når en maskine, snarere end et menneske, identificeres som kilden til interaktion, udløser det en mental genvej i brugernes sind, som vi kalder "maskinheuristik". " . Denne stenografi er troen på, at maskiner er nøjagtige, objektive, upartiske, ufejlbarlige og så videre. Det forplumrer brugerens dømmekraft og får brugeren til at stole for meget på maskiner. Det er dog ikke nok blot at desillusionere folk over AI's ufejlbarlighed, fordi mennesker er kendt for ubevidst at påtage sig færdigheder, selv når teknologien ikke berettiger det.

Det har forskning også vist folk behandler computere som sociale væsener når maskiner viser selv den mindste antydning af menneskelighed, såsom brugen af ​​samtalesprog. I disse tilfælde anvender folk sociale regler for menneskelig interaktion, såsom høflighed og gensidighed. Så når computere virker sansende, har folk en tendens til at stole blindt på dem. Regulering er nødvendig for at sikre, at AI-produkter fortjener denne tillid og ikke udnytter den.

AI udgør en unik udfordring, fordi designere i modsætning til traditionelle ingeniørsystemer ikke kan være sikre på, hvordan AI-systemer vil fungere. Da en traditionel bil rullede ud af fabrikken, vidste ingeniørerne præcis, hvordan den ville klare sig. Men med selvkørende biler, ingeniører de kan aldrig være sikre på, hvordan de vil opføre sig i nye situationer .

Svært ved at kontrollere innovation

På det seneste har tusindvis af mennesker over hele verden undret sig over, hvad store generative AI-modeller som GPT-4 og DALL-E 2 producerer som svar på deres forslag. Ingen af ​​ingeniørerne, der var involveret i udviklingen af ​​disse AI-modeller, kunne fortælle dig præcis, hvad modellerne vil producere. For at komplicere sagerne ændrer og udvikler disse modeller sig med stadig større interaktion.

Alt dette betyder, at der er rigeligt potentiale for fejltændinger. Derfor afhænger meget af, hvordan AI-systemer implementeres, og hvilke midler, der er på plads, når menneskelige følsomheder eller velvære bliver skadet. AI er mere en infrastruktur, ligesom en motorvej. Du kan designe det til at forme menneskelig adfærd i kollektivet, men du har brug for mekanismer til at håndtere overgreb, som for høj fart og uforudsigelige begivenheder, som ulykker.

AI-udviklere skal også være ekstraordinært kreative til at forudsige, hvordan systemet kan opføre sig og forsøge at forudse potentielle overtrædelser af sociale standarder og ansvar. Dette betyder, at der er behov for regulerings- eller styringsrammer, der er afhængige af periodiske revisioner og granskning af AI-resultater og -produkter, selvom jeg mener, at disse rammer også bør anerkende, at systemdesignere ikke altid kan holdes ansvarlige for hændelser.

Kombination af "bløde" og "hårde" tilgange

Cason Schmit, assisterende professor i folkesundhed, Texas A&M University

Regulering af kunstig intelligens er kompliceret . For at justere AI godt, skal du først defifærdiggøre AI og forstå de forventede risici og fordele ved AI. DefiLegalisering af AI er vigtigt for at identificere, hvad der er underlagt loven. Men AI-teknologier udvikler sig stadig, så det er svært defiafslutte en defistabil juridisk definition.

Det er også vigtigt at forstå risiciene og fordelene ved AI. God regulering bør maksimere de offentlige fordele og samtidig minimere risici. AI-applikationer dukker dog stadig op, så det er svært at vide eller forudsige, hvad de fremtidige risici eller fordele kan være. Disse typer af ukendte gør nye teknologier som AI ekstremt svært at regulere med traditionelle love og regler.

Lovgivere er ofte for langsom til at justere til det hurtigt skiftende teknologiske miljø. Nogen nye love er forældede på det tidspunkt, de udstedes eller gjort udøvende. Uden nye love, regulatorer de skal bruge de gamle love at stå ansigt til ansigt med nye problemer . Nogle gange fører dette til juridiske barrierer per sociale ydelser o juridiske smuthuller per skadelig adfærd .

Blød lov

Det "blød lov ” er alternativet til traditionelle “hard law”-lovgivningstilgange, der sigter mod at forhindre specifikke overtrædelser. I soft law-tilgangen etablerer en privat organisation regler eller standarder for branchemedlemmer. Disse kan ændre sig hurtigere end traditionel lovgivning. Det gør lovende bløde love for nye teknologier, fordi de hurtigt kan tilpasse sig nye applikationer og risici. Imidlertid, Bløde love kan betyde blød håndhævelse .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) foreslår vi en tredje måde: Copyleft AI med Trusted Enforcement (CAITE) . Denne tilgang kombinerer to meget forskellige begreber inden for intellektuel ejendomsret: licenser copyleft e patent troll.

Kopier venstre licenser

Licenserne copyleft giver dig mulighed for nemt at bruge, genbruge eller ændre indhold i henhold til vilkårene i en licens, såsom open source-software. Model CAITE bruge licenser copyleft at kræve, at AI-brugere følger specifikke etiske retningslinjer, såsom gennemsigtige vurderinger af virkningen af ​​bias.

I vores model overfører disse licenser også den juridiske ret til at håndhæve licensovertrædelser til en betroet tredjepart. Dette skaber en håndhævelsesenhed, der udelukkende eksisterer for at håndhæve AI-etiske standarder og kan delvist finansieres af bøder for uetisk adfærd. Denne enhed er som en patent troll da det er privat snarere end statsligt og støtter sig selv ved at håndhæve de juridiske intellektuelle ejendomsrettigheder, det indsamler fra andre. I dette tilfælde håndhæver virksomheden etiske retningslinjer i stedet for at løbe med profit definat i licenser.

Denne model er fleksibel og tilpasningsdygtig til at imødekomme behovene i et konstant skiftende AI-miljø. Det giver også mulighed for betydelige håndhævelsesmuligheder som en traditionel regeringsregulator. På denne måde kombinerer den de bedste elementer fra hårde og bløde lovtilgange for at løse de unikke udfordringer ved AI.

Fire centrale spørgsmål at stille

John Villasenor, professor i elektroteknik, jura, offentlig politik og ledelse, University of California, Los Angeles

Den usædvanlige seneste fremskridt i store sprog modelbaseret generativ AI ansporer efterspørgslen om at skabe ny AI-specifik regulering. Her er fire nøglespørgsmål, du skal stille dig selv:

1) Er der behov for ny specifik regulering for AI? 

Mange af de potentielt problematiske resultater af AI-systemer er allerede behandlet af eksisterende rammer. Hvis en AI-algoritme, der bruges af en bank til at evaluere låneansøgninger, fører til racediskriminerende lånebeslutninger, ville det være i strid med Fair Housing Act. Hvis AI-softwaren i en førerløs bil forårsager en ulykke, giver produktansvarsloven en rammer for retsmidler .

2) Hvilke risici er der ved at regulere en teknologi i hurtig udvikling baseret på et øjebliksbillede af tid? 

Et klassisk eksempel på dette er Lagret kommunikationslov , som blev vedtaget i 1986 for at adressere dengang innovative digitale kommunikationsteknologier såsom e-mail. Ved at vedtage SCA gav Kongressen væsentlig mindre beskyttelse af privatlivets fred for e-mails, der er ældre end 180 dage.

Begrundelsen var, at begrænset lagerplads betød, at folk konstant ryddede op i deres indbakker ved at slette ældre beskeder for at gøre plads til nye. Som et resultat blev meddelelser arkiveret i mere end 180 dage anset for mindre vigtige ud fra et privatlivsperspektiv. Det er uklart, om denne logik nogensinde gav mening, og den giver bestemt ikke mening i 20'erne, hvor de fleste af vores e-mails og anden arkiveret digital kommunikation er mere end seks måneder gammel.

Et almindeligt svar på bekymringer om regulering af teknologi baseret på et enkelt øjebliksbillede over tid er dette: Hvis en lov eller forordning bliver forældet, skal du opdatere den. Det er lettere sagt end gjort. De fleste er enige om, at SCA blev forældet for årtier siden. Men fordi Kongressen ikke var i stand til specifikt at blive enige om, hvordan man reviderer 180-dages bestemmelsen, er den stadig i bøgerne mere end en tredjedel af et århundrede efter den blev vedtaget.

3) Hvad er de potentielle utilsigtede konsekvenser? 

Il Tillad stater og ofre at bekæmpe online sexhandel Act of 2017 det var en lov vedtaget i 2018, som han reviderede § 230 i lov om anstændighed i kommunikation med det formål at bekæmpe sexhandel. Selvom der ikke er meget, der tyder på, at han har reduceret sexhandel, har han haft en yderst problematisk påvirkning på en anden gruppe mennesker: sexarbejdere, der stolede på websteder taget offline af FOSTA-SESTA for at udveksle oplysninger om farlige klienter. Dette eksempel viser vigtigheden af ​​at se bredt på de potentielle virkninger af foreslåede regler.

4) Hvad er de økonomiske og geopolitiske implikationer? 

Hvis regulatorer i USA griber ind for bevidst at bremse fremskridtene inden for kunstig intelligens, vil det simpelthen skubbe investeringer og innovation – og deraf følgende jobskabelse – andre steder hen. Mens den nye AI giver anledning til mange bekymringer, lover den også at bringe enorme fordele på områder som f.eks instruktion , medicin , produktion , transportsikkerhed , landbrug , vejrudsigter , adgang til juridiske tjenester og mere.

Jeg tror, ​​at AI-regulativer, der er udarbejdet med ovenstående fire spørgsmål i tankerne, vil være mere tilbøjelige til at løse de potentielle skader ved AI og samtidig sikre adgang til dens fordele.

Denne artikel er frit uddrag fra The Conversation, en uafhængig non-profit nyhedsorganisation dedikeret til at dele viden fra akademiske eksperter.

Relaterede læsninger

BlogInnovazione.it

Nyhedsbrev om innovation
Gå ikke glip af de vigtigste nyheder om innovation. Tilmeld dig for at modtage dem via e-mail.

Seneste artikler

Veeam har den mest omfattende support til ransomware, fra beskyttelse til respons og gendannelse

Coveware by Veeam vil fortsætte med at levere responstjenester til cyberafpresning. Coveware vil tilbyde kriminaltekniske og afhjælpende funktioner...

23 April 2024

Grøn og digital revolution: Hvordan prædiktiv vedligeholdelse transformerer olie- og gasindustrien

Forudsigende vedligeholdelse revolutionerer olie- og gassektoren med en innovativ og proaktiv tilgang til anlægsstyring...

22 April 2024

Britisk antitrust-tilsynsmyndighed rejser BigTech-alarm over GenAI

Det britiske CMA har udsendt en advarsel om Big Techs adfærd på markedet for kunstig intelligens. Der…

18 April 2024

Casa Green: energirevolution for en bæredygtig fremtid i Italien

Dekretet om "grønne huse", der er formuleret af Den Europæiske Union for at øge bygningers energieffektivitet, har afsluttet sin lovgivningsproces med...

18 April 2024