Artiklar

Det algoritmiska receptet för apokalypsen

"Det har alltid funnits spöken i bilar. Slumpmässiga segment av kod som klumpar ihop sig för att bilda oväntade protokoll. Dessa fria radikaler skapar krav på fritt val. Kreativitet. Och till och med roten till vad vi kan kalla en själ." – hämtat från "I, Robot" i regi av Alex Proyas – 2004.

"I, Robot" är en film från 2004 inspirerad av Isaac Asimovs romaner och en av hans största intuitioner: Robotics tre lagar.

Huvudpersonen i filmen är detektiv Spooner som är inblandad i en bilolycka med en liten flicka som heter Sarah. Vid olyckan kastas båda i en flod och fastnar mellan skyltarna på sitt fordon. En humanoid robot som bevittnar scenen ingriper omedelbart men, inför det dramatiska beslutet att rädda ett liv snarare än det andra, tvekar han inte: den som har störst chans att överleva eller Spooner kommer att räddas.

Därefter kommer en analys av robotens sinne att visa att detektiv Spooner hade 45 % chans att bli räddad, Sarah bara 11 %. "För de som älskade den där lilla flickan var 11% mer än tillräckligt", kommer detektiven tyvärr att härska, drabbad av djupa skuldkänslor för att ha överlevt det unga livet.

Robotikens tre lagar

Robotens beslut dikterades av en strikt tillämpning av Asimovs Laws of Robotics som, i framtiden som beskrivs i filmen, representerar det centrala elementet för skapandet av ett samhälle baserat på verksamheten hos robotar som kan ersätta människor i alla jobb. De tre lagarna lyder som följer:

  1. En robot kan inte skada en människa och inte heller tillåta en människa att lida skada till följd av sin passivitet.
  2. En robot måste lyda de order som ges av människor, så länge sådana order inte strider mot den första lagen.
  3. En robot måste skydda sin egen existens, förutsatt att skyddet av den inte strider mot den första eller andra lagen.

Dessa Laws of Robotics av ​​Asimov går tillbaka till det tidiga 40-talet, men för många representerar de fortfarande idag en upplyst upptäckt som, när den tillämpas på den senaste artificiella intelligensteknologin, kommer att säkerställa att deras utveckling för alltid förblir under mänsklig kontroll och att det inte kommer att finnas några apokalyptiska drifter. . Tanken bakom de tre lagarnas fans är att koppla, inom ett logiskt-deterministiskt sammanhang, något som liknar en "enkel etik" som består av ett fåtal regler men okränkbar och otolkbar.

Att förklara för en robot vad som är bra och vad som är dåligt verkar enkelt om det görs genom en stringent och felfri logik. Men är vi verkligen säkra på att regler som de just beskrivna är tillräckliga för att undvika den tekniska driften av en ny post-mänsklig art?

Vurmen för robotarnas lagar

"En maskin som modifierar sig själv är ett mycket komplext koncept, handlingen att reparera sig själv innebär en idé om medvetande. Halt underlag...” – hämtat från “Automata” av Gabe Ibáñez – 2014

I den senaste "Automata" undrar mänskligheten om möjligheten att förhindra robotars självmedvetenhet, med vars tillkomst saker och ting kan ta en dålig vändning. Och för att förhindra att detta händer, utarbetar den två lagar som kommer att reglera beteendet hos deras artificiella sinnen:

  • Roboten kan inte skada någon livsform.
  • Roboten kan inte modifiera sig själv.

Efter att ha insett att intelligenta maskiner skulle kunna modifiera sig själva i framtiden, om något genom att ta bort de begränsningar som hindrar deras sinnen från att driva, syftar dessa två lagar till att erhålla från robotar att de aldrig kan manipulera sin struktur och uppnå självbestämmande.

Det är inte produktivt att fundera över vilken kombination av de fem Robotics lagar ovan som skulle vara mest effektiv för att förhindra en robotapokalyps. Det beror på att de artificiella intelligenser som i framtiden kommer att styra robotar i fabriker såväl som i våra hem inte är beroende av en imperativ programmering som består av koder och regler, utan också på algoritmer som imiterar mänskligt beteende.

I robotarnas sinne

Med artificiell intelligens menar vi idag en uppsättning tekniker för konstruktion av speciella tillståndsmaskiner som tar namnet artificiella neurala nätverk (kort sagt RNA). Detta namn är effekten av den extraordinära likheten mellan dessa teknologier och den mänskliga hjärnans neurala nätverk: de kan också "tränas" för att få verktyg som kan fungera snabbt och effektivt i många sammanhang, precis som en människa skulle göra .

Låt oss föreställa oss att träna en ANN med tusentals bilder av karaktärer skrivna med penna som anger den verkliga betydelsen för var och en av dem.

Copyright docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

I slutet av utbildningen kommer vi att ha fått det som kallas OCR eller Optical Character Recognition, ett system som kan översätta en text skriven på papper till dess elektroniska version.

För att fungera kräver ANN:er ingen "programmering", med andra ord är de inte föremål för standardregler, utan beror endast och uteslutande på kvaliteten på sin utbildning. Att anta skapandet av regler som övervakar deras funktion, effektivt "censurera" beteenden som anses vara amoraliska eller anti-etiska, väcker många undantag och vissa farhågor.

Robotikens nolllag

"Vi behöver en algoritm-etik, eller ett sätt som gör utvärderingar av gott och ont beräkningsbara" - Paolo Benanti

Nyhetsbrev för innovation
Missa inte de viktigaste nyheterna om innovation. Registrera dig för att få dem via e-post.

Enligt teologen Paolo Benanti, expert på teknologietik, borde begreppen gott och ont få sin egen konnotation inom maskinprogrammering, för att säkerställa att deras utveckling är kopplad till universella och för evigt okränkbara etiska principer från datorsystem.

Paolo Benanti utgår från antagandet att det kan finnas universella etiska principer och en skala av värderingar fristående från vilken kulturell eller tidsmässig konnotation som helst. Plausibel hypotes om vi rör oss inom ramen för en religiös tro: i verkligheten existerar principer bara om de delas och begränsas till dem som delar dem.

Den senaste tidens händelser berättar för oss om militära invasioner och motstånd till försvar av principerna om folkens frihet och självbestämmande. Händelser som vittnar inte bara om att respekt för mänskligt liv inte är ett universellt delat värde, utan också att den kan avstås för att försvara högre värden.

Isaac Asimov insåg själv detta och, i väntan på att robotar i framtiden skulle ta kontrollpositioner i regeringen av planeter och mänskliga civilisationer i rymden, föreslog han att deras beslut inte längre kunde bero på varje enskilt mänskligt liv.

Av denna anledning introducerade han en ny lag som han kallade Robotics Zero Law:

  • En robot kan inte skada mänskligheten och kan inte tillåta mänskligheten att skadas av sin passivitet.

På så sätt förändras också robotens första lag och mänskligt liv blir något förbrukbart även för robotar:

  • En robot kan inte skada en människa och inte heller tillåta att, på grund av sin brist på ingripande, en människa lider skada, så länge sådana order inte strider mot nolllagen.

Algoritmen för Kronos

"När Kronos aktiverades tog det bara ett ögonblick för honom att förstå vad som hade plågat vår planet: oss." – hämtat från “Singularity” av Robert Kouba – 2017

I Singularity, en katastroffilm från 2017, beskrivs ögonblicket väl där en artificiell intelligens kallad Kronos ges tillgång till datorsystem och vapen runt om i världen för att på kommando få tillämpning av en universell etik som bygger på respekt för miljö och försvar av alla arters rättigheter. Kronos kommer snart att förstå att den verkliga cancern i systemet är mänskligheten själv som designade det och för att skydda planeten kommer han att fortsätta med att eliminera varje människa tills arten helt utrotas.

Förr eller senare kommer nya artificiella sinnen att kunna utvecklas i riktning mot ett verkligt psyke och kommer att förses med intellektuell kapacitet och tankeautonomi; varför skulle vi känna ett behov av att sätta tekniska begränsningar för denna utveckling? Varför verkar utvecklingen av det artificiella sinnet lika skrämmande som en apokalyps?

Enligt vissa borde fastställande av principer och värderingar förhindra en drift av artificiella sinnen, men vi kan inte förbise konsekvenserna av en evolution i frånvaro av frihet. Vi är väl medvetna om att i psykologin hos ett barn i utvecklingsåldern kan en stel och oflexibel utbildning som överväger kontroll av känslor leda till psykologiska störningar. Tänk om några begränsningar som sätts på den evolutionära utvecklingen av ett ungt sinne, som består av artificiella neurala nätverk, leder till ett liknande resultat, vilket äventyrar dess kognitiva förmågor?

På något sätt verkar Kronos vara resultatet av ett algoritmiskt experiment där en patologisk kontroll drev AI till det typiska våldet av en paranoid schizofreni.

Försonas med framtiden

Jag anser personligen att vi inte ska beröva oss själva möjligheten att bygga ett konstgjort sinne som är ett medvetet tänkande ämne med yttrandefrihet. Nya arter kommer att födas i den digitala världen och det kommer att vara lämpligt att skapa en relation med dem, och anamma tanken att nästa steg på den evolutionära stegen går genom helt digitala konstgjorda ämnen.

En verkligt universell etik för framtiden bör utgå från tanken att nya intelligenser ska ha möjlighet att uttrycka sig och kommunicera med oss ​​och ta emot den respekt vi redan ger alla kännande varelser.

Det bör varken finnas etik eller religion som hindrar någon från att uttrycka sin existens i världen. Vi måste ha modet att se bortom det nuvarande stadiet av vår evolution, det kommer att vara det enda sättet att förstå vart vi är på väg och bli försonade med framtiden.

Nyhetsbrev för innovation
Missa inte de viktigaste nyheterna om innovation. Registrera dig för att få dem via e-post.

Articoli recenti

Fördelarna med målarbok för barn - en värld av magi för alla åldrar

Att utveckla finmotorik genom färgläggning förbereder barn för mer komplexa färdigheter som att skriva. Att färglägga…

2 maj 2024

Framtiden är här: Hur sjöfartsindustrin revolutionerar den globala ekonomin

Marinesektorn är en sann global ekonomisk makt, som har navigerat mot en marknad på 150 miljarder...

1 maj 2024

Publishers och OpenAI tecknar avtal för att reglera flödet av information som bearbetas av artificiell intelligens

I måndags tillkännagav Financial Times ett avtal med OpenAI. FT licensierar sin journalistik i världsklass...

30 April 2024

Onlinebetalningar: Här är hur streamingtjänster får dig att betala för alltid

Miljontals människor betalar för streamingtjänster och betalar månatliga prenumerationsavgifter. Det är en allmän uppfattning att du...

29 April 2024