Artikler

Regulering av AI: 3 eksperter forklarer hvorfor det er vanskelig å gjøre og viktig å gjøre det bra

Kraftige nye AI-systemer kan forsterke svindel og desinformasjon, noe som fører til omfattende krav om myndighetsregulering. Men å gjøre det er lettere sagt enn gjort og kan få utilsiktede konsekvenser

Beregnet lesetid: 11 minutter

skive falske bilder av Donald Trump arrestert av New York City politifolk til en chatbot som beskriver en informatiker svært levende som døde tragisk , evnen til den nye generasjonen av systemer kunstig intelligens generativ drift for å lage overbevisende, men fiktive tekst og bilder vekker alarmer om steroidsvindel og feilinformasjon. Den 29. mars 2023 oppfordret en gruppe AI-forskere og bransjepersoner industrien til å suspendere videreutdanning i de nyeste AI-teknologiene eller, unntatt det, regjeringer til å "innføre et moratorium".

Bildegeneratorer liker DALL-E , midt på reisen e Stabil diffusjon og innholdsgeneratorer som f.eks Bard , ChatGPT , Chinchilla e Samtaler – er nå tilgjengelig for millioner av mennesker og krever ingen teknisk kunnskap for å bruke.

Gitt det utfoldende landskapet av teknologiselskaper som distribuerer AI-systemer og tester dem på offentligheten, bør beslutningstakere spørre seg selv om og hvordan de skal regulere den fremvoksende teknologien. The Conversation ba tre teknologipolitiske eksperter forklare hvorfor regulering av AI er en slik utfordring og hvorfor det er så viktig å få det riktig.

Menneskelige svakheter og et bevegelig mål

S. Shyam Sundar, professor i multimedieeffekter og direktør, Center for Socially Responsible AI, Penn State

Grunnen til å regulere AI er ikke fordi teknologien er ute av kontroll, men fordi menneskelig fantasi er ute av proporsjoner. Overveldende mediedekning har gitt næring til irrasjonelle oppfatninger om AI-evner og bevissthet. Disse troene er basert på " automatiseringsskjevhet ” eller på tendensen til å svikte vår vakt når maskiner utfører en oppgave. Et eksempel er den reduserte årvåkenheten blant pilotene når flyet deres flyr på autopilot.

Tallrike studier i laboratoriet mitt har vist at når en maskin, snarere enn et menneske, identifiseres som kilden til interaksjon, utløser det en mental snarvei i brukernes sinn som vi kaller "maskinheuristikk". " . Denne stenografien er troen på at maskiner er nøyaktige, objektive, upartiske, ufeilbarlige og så videre. Det skygger for brukerens dømmekraft og får brukeren til å stole overdrevet på maskiner. Det er imidlertid ikke nok å bare desillusjonere folk om ufeilbarligheten til AI, fordi mennesker er kjent for å ubevisst anta ferdigheter selv når teknologien ikke tilsier det.

Forskning har også vist det folk behandler datamaskiner som sosiale vesener når maskiner viser selv det minste snev av menneskelighet, som bruk av samtalespråk. I disse tilfellene bruker folk sosiale regler for menneskelig samhandling, som høflighet og gjensidighet. Så når datamaskiner virker sansende, har folk en tendens til å stole blindt på dem. Regulering er nødvendig for å sikre at AI-produkter fortjener denne tilliten og ikke utnytter den.

AI gir en unik utfordring fordi, i motsetning til tradisjonelle ingeniørsystemer, kan designere ikke være sikre på hvordan AI-systemer vil prestere. Da en tradisjonell bil rullet ut av fabrikken, visste ingeniørene nøyaktig hvordan den kom til å fungere. Men med selvkjørende biler, ingeniører de kan aldri være sikre på hvordan de vil oppføre seg i nye situasjoner .

Vanskeligheter med å kontrollere innovasjon

I det siste har tusenvis av mennesker over hele verden undret seg over hva store generative AI-modeller som GPT-4 og DALL-E 2 produserer som svar på forslagene deres. Ingen av ingeniørene som var involvert i utviklingen av disse AI-modellene kunne fortelle deg nøyaktig hva modellene vil produsere. For å komplisere saken, endrer og utvikler disse modellene seg med stadig større interaksjon.

Alt dette betyr at det er stort potensial for feiltenninger. Derfor avhenger mye av hvordan AI-systemer implementeres og hvilke midler som er på plass når menneskelig følsomhet eller velvære blir skadet. AI er mer en infrastruktur, som en motorvei. Du kan designe den for å forme menneskelig atferd i kollektivet, men du trenger mekanismer for å håndtere overgrep, som for høy hastighet, og uforutsigbare hendelser, som ulykker.

AI-utviklere må også være ekstraordinært kreative i å forutsi hvordan systemet kan oppføre seg og prøve å forutse potensielle brudd på sosiale standarder og ansvar. Dette betyr at det er behov for regulatoriske eller styringsrammeverk som er avhengige av periodiske revisjoner og gransking av AI-resultater og -produkter, selv om jeg mener at disse rammeverkene også bør anerkjenne at systemdesignere ikke alltid kan holdes ansvarlige for hendelser.

Kombinere "myke" og "harde" tilnærminger

Cason Schmit, assisterende professor i folkehelse, Texas A&M University

Regulering av kunstig intelligens er komplisert . For å justere AI godt, må du først defifullføre AI og forstå de forventede risikoene og fordelene ved AI. DefiLovlig arkivering av AI er viktig for å identifisere hva som er underlagt loven. Men AI-teknologier utvikler seg fortsatt, så det er vanskelig defifullfør en defistabil juridisk definisjon.

Å forstå risikoene og fordelene med AI er også viktig. God regulering bør maksimere offentlige fordeler og samtidig minimere risiko. Imidlertid dukker AI-applikasjoner fortsatt opp, så det er vanskelig å vite eller forutsi hva de fremtidige risikoene eller fordelene kan være. Disse typene ukjente gjør nye teknologier som AI ekstremt vanskelig å regulere med tradisjonelle lover og regler.

Lovgivere er ofte for sakte til å justere til det raskt skiftende teknologiske miljøet. Noen nye lover er foreldet på det tidspunkt de utstedes eller gjort utøvende. Uten nye lover, regulatorer de må bruke de gamle lovene å møte nye problemer . Noen ganger fører dette til juridiske barrierer for sosiale fordeler o juridiske smutthull for skadelig atferd .

Myk lov

"myk lov " er alternativet til tradisjonelle "hard law"-lovgivningsmetoder som tar sikte på å forhindre spesifikke brudd. I soft law-tilnærmingen etablerer en privat organisasjon regler eller standarder for industriens medlemmer. Disse kan endres raskere enn tradisjonell lovgivning. Det gjør lovende myke lover for nye teknologier fordi de raskt kan tilpasse seg nye applikasjoner og risikoer. Derimot, Myke lover kan bety myk håndheving .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) foreslår vi en tredje måte: Copyleft AI med Trusted Enforcement (CAITE) . Denne tilnærmingen kombinerer to svært forskjellige konsepter innen åndsverk: lisenser copyleft e patent troll.

Kopier venstre lisenser

Lisensene copyleft lar deg enkelt bruke, gjenbruke eller endre innhold under vilkårene for en lisens, for eksempel programvare med åpen kildekode. Modell CAITE bruke lisenser copyleft å kreve at AI-brukere følger spesifikke etiske retningslinjer, for eksempel transparente vurderinger av virkningen av skjevhet.

I vår modell overfører disse lisensene også den juridiske retten til å håndheve lisensbrudd til en pålitelig tredjepart. Dette skaper en håndhevingsenhet som eksisterer utelukkende for å håndheve AI-etiske standarder og kan delvis finansieres med bøter for uetisk oppførsel. Denne enheten er som en patent troll ettersom den er privat snarere enn statlig og støtter seg selv ved å håndheve de juridiske immaterielle rettighetene den samler inn fra andre. I dette tilfellet, i stedet for å drive for profitt, håndhever enheten etiske retningslinjer definite i lisenser.

Denne modellen er fleksibel og tilpasningsdyktig for å møte behovene til et AI-miljø i stadig endring. Det åpner også for betydelige håndhevingsalternativer som en tradisjonell myndighetsregulator. På denne måten kombinerer den de beste elementene fra hard og myk lov tilnærminger for å møte de unike utfordringene til AI.

Fire sentrale spørsmål å stille

John Villasenor, professor i elektroteknikk, jus, offentlig politikk og ledelse, University of California, Los Angeles

Den ekstraordinær nylig fremgang i store språkmodellbaserte generative AI ansporer behovet for å lage ny AI-spesifikk regulering. Her er fire hovedspørsmål du bør stille deg selv:

1) Er det behov for ny spesifikk regulering for AI? 

Mange av de potensielt problematiske resultatene av AI-systemer er allerede adressert av eksisterende rammeverk. Hvis en AI-algoritme som brukes av en bank for å vurdere lånesøknader fører til rasediskriminerende lånebeslutninger, vil det bryte med Fair Housing Act. Hvis AI-programvaren i en førerløs bil forårsaker en ulykke, gir produktansvarsloven en rammeverk for rettsmidler .

2) Hva er risikoen ved å regulere en teknologi i rask utvikling basert på et øyeblikksbilde av tid? 

Et klassisk eksempel på dette er Lagret kommunikasjonslov , som ble vedtatt i 1986 for å adressere den gang innovative digitale kommunikasjonsteknologier som e-post. Ved å vedta SCA ga Kongressen betydelig mindre personvern for e-post som er eldre enn 180 dager.

Begrunnelsen var at begrenset lagring betydde at folk hele tiden ryddet opp i innboksen ved å slette eldre meldinger for å gi plass til nye. Som et resultat ble meldinger arkivert i mer enn 180 dager ansett som mindre viktige fra et personvernperspektiv. Det er uklart om denne logikken noen gang ga mening, og den gir absolutt ingen mening på 20-tallet, da de fleste av våre e-poster og annen arkivert digital kommunikasjon er mer enn seks måneder gammel.

Et vanlig svar på bekymringer om regulering av teknologi basert på et enkelt øyeblikksbilde over tid er dette: Hvis en lov eller forskrift blir foreldet, oppdater den. Det er lettere sagt enn gjort. De fleste er enige om at SCA ble foreldet for flere tiår siden. Men fordi kongressen ikke var i stand til spesifikt å bli enige om hvordan man skal revidere 180-dagers bestemmelsen, står den fortsatt i bøkene mer enn en tredjedel av et århundre etter at den ble vedtatt.

3) Hva er de potensielle utilsiktede konsekvensene? 

Il Tillat stater og ofre å bekjempe loven om sexhandel på nettet fra 2017 det var en lov vedtatt i 2018 som han reviderte Seksjon 230 kommunikasjonsanstendighetsloven med sikte på å bekjempe sexhandel. Selv om det er lite som tyder på at han har redusert sexhandel, har han hatt en ekstremt problematisk innvirkning på en annen gruppe mennesker: sexarbeidere som stolte på nettsteder tatt offline av FOSTA-SESTA for å utveksle informasjon om farlige klienter. Dette eksemplet viser viktigheten av å se bredt på potensielle virkninger av foreslåtte reguleringer.

4) Hva er de økonomiske og geopolitiske implikasjonene? 

Hvis regulatorer i USA iverksetter tiltak for med hensikt å bremse fremgangen innen AI, vil det ganske enkelt presse investeringer og innovasjon – og resulterende jobbskaping – andre steder. Mens fremvoksende AI vekker mange bekymringer, lover den også å gi enorme fordeler på områder som instruksjon , medicina , produksjon , transportsikkerhet , jordbruk , Værvarsel , tilgang til juridiske tjenester og mer.

Jeg tror at AI-forskrifter som er utarbeidet med de fire spørsmålene ovenfor i tankene, vil ha større sannsynlighet for å løse de potensielle skadene til AI og samtidig sikre tilgang til fordelene.

Denne artikkelen er fritt utdrag fra The Conversation, en uavhengig non-profit nyhetsorganisasjon dedikert til å dele kunnskapen til akademiske eksperter.

Relaterte lesninger

BlogInnovazione.it

Nyhetsbrev for innovasjon
Ikke gå glipp av de viktigste nyhetene om innovasjon. Registrer deg for å motta dem på e-post.

Siste artikler

Fremtiden er her: Hvordan shippingindustrien revolusjonerer den globale økonomien

Marinesektoren er en ekte global økonomisk makt, som har navigert mot et 150 milliarder marked...

1 mai 2024

Utgivere og OpenAI signerer avtaler for å regulere flyten av informasjon som behandles av kunstig intelligens

Sist mandag kunngjorde Financial Times en avtale med OpenAI. FT lisensierer sin journalistikk i verdensklasse...

30 april 2024

Nettbetalinger: Her er hvordan strømmetjenester får deg til å betale for alltid

Millioner av mennesker betaler for strømmetjenester og betaler månedlige abonnementsavgifter. Det er vanlig oppfatning at du...

29 april 2024

Veeam har den mest omfattende støtten for løsepengevare, fra beskyttelse til respons og gjenoppretting

Coveware by Veeam vil fortsette å tilby responstjenester for cyberutpressing. Coveware vil tilby kriminaltekniske og utbedringsmuligheter...

23 april 2024