Artiklar

Reglera AI: 3 experter förklarar varför det är svårt att göra och viktigt att göra det bra

Kraftfulla nya AI-system kan förstärka bedrägeri och desinformation, vilket leder till omfattande krav på statlig reglering. Men att göra det är lättare sagt än gjort och kan få oavsiktliga konsekvenser

Beräknad lästid: 11 minuter

Från falska bilder av Donald Trump arresterad av New York City poliser till en chatbot som beskriver en datavetare mycket levande som dog tragiskt , förmågan hos den nya generationen av system artificiell intelligens generativ drift för att skapa övertygande men fiktiv text och bilder väcker larm om steroidbedrägerier och desinformation. Faktum är att den 29 mars 2023 uppmanade en grupp AI-forskare och branschfigurer industrin att avbryta vidareutbildning om den senaste AI-tekniken eller, med undantag för det, regeringar att "införa ett moratorium".

Bildgeneratorer gillar DALL-E , midjourney e Stabil diffusion och innehållsgeneratorer som t.ex Bard , ChatGPT , Chinchilla e Lama – är nu tillgängliga för miljontals människor och kräver ingen teknisk kunskap för att använda.

Med tanke på det utvecklande landskapet av teknikföretag som använder AI-system och testar dem på allmänheten, bör beslutsfattare fråga sig om och hur de ska reglera den framväxande tekniken. The Conversation bad tre tekniska policyexperter att förklara varför reglering av AI är en sådan utmaning och varför det är så viktigt att få det rätt.

Mänskliga svagheter och ett rörligt mål

S. Shyam Sundar, professor i multimediaeffekter och direktör, Center for Socially Responsible AI, Penn State

Anledningen till att reglera AI är inte för att tekniken är utom kontroll, utan för att mänsklig fantasi är ur proportion. Överväldigande mediabevakning har underblåst irrationella föreställningar om AI-kapacitet och medvetande. Dessa övertygelser är baserade på " automationsbias ” eller på tendensen att svika vår vakt när maskiner utför en uppgift. Ett exempel är den minskade vaksamheten bland piloterna när deras plan flyger på autopilot.

Många studier i mitt labb har visat att när en maskin, snarare än en människa, identifieras som källan till interaktion, utlöser det en mental genväg i användarnas sinnen som vi kallar "maskinheuristik". " . Denna stenografi är tron ​​på att maskiner är korrekta, objektiva, opartiska, ofelbara och så vidare. Det grumlar användarens omdöme och får användaren att lita överdrivet på maskiner. Det räcker dock inte att bara desillusionera människor om AIs ofelbarhet, eftersom människor är kända för att undermedvetet anta färdigheter även när tekniken inte motiverar det.

Forskning har också visat det människor behandlar datorer som sociala varelser när maskiner visar ens den minsta antydan till mänsklighet, till exempel användningen av samtalsspråk. I dessa fall tillämpar människor sociala regler för mänsklig interaktion, såsom artighet och ömsesidighet. Så när datorer verkar kännande, tenderar människor att lita blint på dem. Reglering behövs för att säkerställa att AI-produkter förtjänar detta förtroende och inte utnyttjar det.

AI utgör en unik utmaning eftersom designers, till skillnad från traditionella tekniska system, inte kan vara säkra på hur AI-system kommer att fungera. När en traditionell bil rullade ut från fabriken visste ingenjörer exakt hur den skulle fungera. Men med självkörande bilar, ingenjörer de kan aldrig vara säkra på hur de kommer att bete sig i nya situationer .

Svårigheter att kontrollera innovation

På sistone har tusentals människor runt om i världen förundrats över vad stora generativa AI-modeller som GPT-4 och DALL-E 2 producerar som svar på deras förslag. Ingen av ingenjörerna som var involverade i att utveckla dessa AI-modeller kunde berätta exakt vad modellerna kommer att producera. För att komplicera saken förändras och utvecklas dessa modeller med allt större interaktion.

Allt detta betyder att det finns stor risk för feltändningar. Därför beror mycket på hur AI-system implementeras och vilka bestämmelser för regress som finns på plats när mänskliga känslor eller välbefinnande skadas. AI är mer av en infrastruktur, som en motorväg. Du kan designa den för att forma mänskliga beteenden i kollektivet, men du behöver mekanismer för att hantera övergrepp, som fortkörning, och oförutsägbara händelser, som olyckor.

AI-utvecklare måste också vara utomordentligt kreativa när det gäller att förutsäga hur systemet kan bete sig och försöka förutse potentiella brott mot sociala standarder och ansvar. Detta innebär att det finns ett behov av regelverk eller styrningsramverk som är beroende av periodiska revisioner och granskning av AI-resultat och produkter, även om jag anser att dessa ramverk också bör erkänna att systemdesigners inte alltid kan hållas ansvariga för incidenter.

Kombinera "mjuka" och "hårda" tillvägagångssätt

Cason Schmit, biträdande professor i folkhälsa, Texas A&M University

Att reglera artificiell intelligens är komplicerat . För att justera AI väl måste du först defiavsluta AI och förstå de förväntade riskerna och fördelarna med AI. DefiLaglig arkivering av AI är viktigt för att identifiera vad som omfattas av lagen. Men AI-tekniken utvecklas fortfarande, så det är svårt defiavsluta en defistabil juridisk definition.

Att förstå riskerna och fördelarna med AI är också viktigt. Bra reglering bör maximera allmännyttan samtidigt som riskerna minimeras. Men AI-applikationer dyker fortfarande upp, så det är svårt att veta eller förutsäga vilka framtida risker eller fördelar som kan vara. Dessa typer av okända gör framväxande teknologier som AI extremt svårt att reglera med traditionella lagar och förordningar.

Lagstiftare är ofta för långsam för att anpassa sig till den snabbt föränderliga tekniska miljön. Någon nya lagar är föråldrade vid den tidpunkt då de utfärdas eller gjorts verkställande. Utan nya lagar, tillsynsmyndigheter de måste använda de gamla lagarna att möta nya problem . Ibland leder detta till juridiska hinder för sociala fördelar o juridiska kryphål för skadliga beteenden .

Mjuk lag

Le "mjuk lag ” är alternativet till traditionella ”hard law”-lagstiftningsmetoder som syftar till att förhindra specifika överträdelser. I soft law-metoden etablerar en privat organisation regler eller standarder för branschmedlemmar. Dessa kan förändras snabbare än traditionell lagstiftning. Det gör lovande mjuka lagar för framväxande teknologier eftersom de snabbt kan anpassa sig till nya tillämpningar och risker. Dock, Mjuka lagar kan innebära mjuka verkställighet .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) föreslår vi ett tredje sätt: Copyleft AI med Trusted Enforcement (CAITE) . Detta tillvägagångssätt kombinerar två mycket olika begrepp inom immateriella rättigheter: licenser copyleft e patent troll.

Kopiera vänster licenser

Licenserna copyleft tillåter dig att enkelt använda, återanvända eller ändra innehåll enligt villkoren för en licens, till exempel programvara med öppen källkod. Modell CAITE använda licenser copyleft att kräva att AI-användare följer specifika etiska riktlinjer, såsom transparenta bedömningar av effekterna av partiskhet.

I vår modell överför dessa licenser också den lagliga rätten att genomdriva licensöverträdelser till en betrodd tredje part. Detta skapar en tillsynsenhet som existerar enbart för att upprätthålla etiska standarder för AI och som delvis kan finansieras med böter för oetiskt beteende. Denna enhet är som en patent troll eftersom det är privat snarare än statligt och försörjer sig själv genom att upprätthålla de juridiska immateriella rättigheter som det samlar in från andra. I det här fallet, snarare än att driva vinst, tillämpar enheten etiska riktlinjer definite i licenser.

Denna modell är flexibel och anpassningsbar för att möta behoven i en ständigt föränderlig AI-miljö. Det möjliggör också betydande tillämpningsalternativ som en traditionell statlig tillsynsmyndighet. På detta sätt kombinerar den de bästa delarna av hårda och mjuka lagar för att möta de unika utmaningarna med AI.

Fyra nyckelfrågor att ställa

John Villasenor, professor i elektroteknik, juridik, allmän ordning och ledning, University of California, Los Angeles

den extraordinära framsteg på senare tid i stora språk modellbaserad generativ AI sporrar efterfrågan på att skapa ny AI-specifik reglering. Här är fyra nyckelfrågor att ställa dig själv:

1) Finns det behov av ny specifik reglering för AI? 

Många av de potentiellt problematiska resultaten av AI-system hanteras redan av befintliga ramverk. Om en AI-algoritm som används av en bank för att utvärdera låneansökningar leder till rasdiskriminerande lånebeslut, skulle den bryta mot Fair Housing Act. Om AI-mjukvaran i en förarlös bil orsakar en olycka, ger produktansvarslagen en ramar för att vidta rättsmedel .

2) Vilka är riskerna med att reglera en snabbt utvecklande teknik baserat på en ögonblicksbild av tiden? 

Ett klassiskt exempel på detta är Lagrad kommunikationslagen , som antogs 1986 för att ta itu med då innovativa digitala kommunikationstekniker som e-post. Genom att anta SCA gav kongressen betydligt mindre integritetsskydd för e-post som är äldre än 180 dagar.

Skälet var att begränsad lagring innebar att människor ständigt rensade upp sina inkorgar genom att radera äldre meddelanden för att göra plats för nya. Som ett resultat ansågs meddelanden som arkiverats i mer än 180 dagar vara mindre viktiga ur ett integritetsperspektiv. Det är oklart om denna logik någonsin var vettig, och det är verkligen inte vettigt på 20-talet, när de flesta av våra e-postmeddelanden och annan arkiverad digital kommunikation är mer än sex månader gammal.

Ett vanligt svar på farhågor om att reglera teknik baserat på en enda ögonblicksbild över tid är detta: Om en lag eller förordning blir föråldrad, uppdatera den. Det är lättare sagt än gjort. De flesta är överens om att SCA blev föråldrat för decennier sedan. Men eftersom kongressen inte kunde komma överens specifikt om hur man reviderar 180-dagarsbestämmelsen, finns den fortfarande i böckerna mer än ett tredjedels sekel efter att den antogs.

3) Vilka är de potentiella oavsiktliga konsekvenserna? 

Il Tillåt stater och offer att bekämpa sexhandel online från 2017 det var en lag som antogs 2018 som han reviderade Avsnitt 230 kommunikationssedlighetslagen i syfte att bekämpa sexhandel. Även om det finns få bevis för att han har minskat sexhandeln, har han haft en ytterst problematisk påverkan på en annan grupp människor: sexarbetare som förlitade sig på webbplatser som tagits offline av FOSTA-SESTA för att utbyta information om farliga klienter. Detta exempel visar vikten av att ta en bred titt på de potentiella effekterna av föreslagna regleringar.

4) Vilka är de ekonomiska och geopolitiska konsekvenserna? 

Om tillsynsmyndigheter i USA vidtar åtgärder för att avsiktligt bromsa framstegen inom AI, kommer det helt enkelt att driva investeringar och innovation – och resulterande jobbskapande – någon annanstans. Även om framväxande AI väcker många farhågor, lovar den också att ge enorma fördelar inom områden som t.ex instruktion , medicin , produktion , transportsäkerhet , jordbruk , väderprognoser , tillgång till juridiska tjänster och mer.

Jag tror att AI-föreskrifter som utarbetats med ovanstående fyra frågor i åtanke kommer att vara mer benägna att framgångsrikt ta itu med de potentiella skadorna av AI samtidigt som de säkerställer tillgång till dess fördelar.

Den här artikeln är fritt utdrag från The Conversation, en oberoende ideell nyhetsorganisation som är dedikerad till att dela med sig av akademiska experters kunskap.

Relaterade läsningar

BlogInnovazione.it

Nyhetsbrev för innovation
Missa inte de viktigaste nyheterna om innovation. Registrera dig för att få dem via e-post.

Articoli recenti

Fördelarna med målarbok för barn - en värld av magi för alla åldrar

Att utveckla finmotorik genom färgläggning förbereder barn för mer komplexa färdigheter som att skriva. Att färglägga…

2 maj 2024

Framtiden är här: Hur sjöfartsindustrin revolutionerar den globala ekonomin

Marinesektorn är en sann global ekonomisk makt, som har navigerat mot en marknad på 150 miljarder...

1 maj 2024

Publishers och OpenAI tecknar avtal för att reglera flödet av information som bearbetas av artificiell intelligens

I måndags tillkännagav Financial Times ett avtal med OpenAI. FT licensierar sin journalistik i världsklass...

30 April 2024

Onlinebetalningar: Här är hur streamingtjänster får dig att betala för alltid

Miljontals människor betalar för streamingtjänster och betalar månatliga prenumerationsavgifter. Det är en allmän uppfattning att du...

29 April 2024