Artikler

Den algoritmiske oppskriften på apokalypsen

«Det har alltid vært spøkelser i biler. Tilfeldige kodesegmenter som klumper seg sammen for å danne uventede protokoller. Disse frie radikalene genererer krav om fritt valg. Kreativitet. Og til og med roten til det vi kan kalle en sjel." – hentet fra «I, Robot» regissert av Alex Proyas – 2004.

«I, Robot» er en film fra 2004 inspirert av Isaac Asimovs romaner og en av hans største intuisjoner: Robotikkens tre lover.

Hovedpersonen i filmen er detektiv Spooner som er involvert i en bilulykke med en liten jente som heter Sarah. I ulykken blir begge kastet i en elv og blir sittende fast mellom platene på kjøretøyet deres. En menneskelig robot som er vitne til scenen griper umiddelbart inn, men står overfor den dramatiske beslutningen om å redde ett liv i stedet for det andre, nøler han ikke: den som har størst sjanse for å overleve eller Spooner vil bli reddet.

Deretter vil en analyse av robotens sinn vise at detektiv Spooner hadde 45 % sjanse for å bli reddet, Sarah bare 11 %. "For de som elsket den lille jenta var 11 % mer enn nok", vil detektiven dessverre herske, plaget av dype skyldfølelser for å ha overlevd det unge livet.

Robotikkens tre lover

Robotens avgjørelse ble diktert av en streng anvendelse av Asimovs Laws of Robotics som, i fremtiden beskrevet i filmen, representerer det sentrale elementet for å skape et samfunn basert på aktivitetene til roboter som er i stand til å erstatte mennesker i enhver jobb. De tre lovene lyder som følger:

  1. En robot kan ikke skade et menneske, og den kan heller ikke tillate et menneske å lide skade som følge av sin passivitet.
  2. En robot må adlyde ordrene gitt av mennesker, så lenge slike ordrer ikke strider mot den første loven.
  3. En robot må beskytte sin egen eksistens, forutsatt at sikringen av den ikke er i konflikt med den første eller andre loven.

Disse lover om robotikk av Asimov dateres tilbake til begynnelsen av 40-tallet, men for mange representerer de fortsatt i dag en opplyst oppdagelse som, når den brukes på de nyeste teknologiene for kunstig intelligens, vil sikre at deres utvikling for alltid forblir under menneskelig kontroll, og at det ikke vil være noen apokalyptisk drift. . Ideen bak fansen av de tre lovene er å koble, innenfor en logisk-deterministisk kontekst, noe som ligner en "enkel etikk" som består av noen få regler, men ukrenkelig og ufortolkbar.

Å forklare en robot hva som er bra og hva som er dårlig virker enkelt hvis det gjøres gjennom en streng og feilfri logikk. Men er vi virkelig sikre på at regler som de som nettopp er beskrevet er tilstrekkelige for å unngå den teknologiske driften til en ny post-menneskelig art?

Mani etter robotenes lover

"En maskin som modifiserer seg selv er et veldig komplekst konsept, handlingen med å reparere seg selv innebærer en ide om bevissthet. Glatt underlag…” – hentet fra “Automata” av Gabe Ibáñez – 2014

I den siste "Automata" lurer menneskeheten på muligheten for å forhindre selvbevisstheten til roboter, med fremkomsten av hvilke ting kan ta en dårlig vending. Og for å forhindre at dette skjer, utarbeider den to lover som vil regulere oppførselen til deres kunstige sinn:

  • Roboten kan ikke skade noen livsform.
  • Roboten kan ikke modifisere seg selv.

Etter å ha antatt at intelligente maskiner kan modifisere seg selv i fremtiden, om noe ved å fjerne begrensningene som hindrer tankene deres i å drive, har disse to lovene som mål å oppnå fra roboter at de aldri er i stand til å manipulere strukturen deres og oppnå selvbestemmelse.

Det er ikke produktivt å pusle over hvilken kombinasjon av de fem robotlovene ovenfor som vil være mest effektiv for å forhindre en robotapokalypse. Dette er fordi de kunstige intelligensene som i fremtiden vil lede roboter i fabrikker så vel som i våre hjem ikke er avhengig av en imperativ programmering som består av koder og forskrifter, men også av algoritmer som imiterer menneskelig atferd.

I hodet til roboter

Med kunstig intelligens i dag mener vi et sett med teknikker for konstruksjon av bestemte tilstandsmaskiner som tar navnet kunstige nevrale nettverk (kort sagt RNA). Dette navnet er effekten av den ekstraordinære likheten mellom disse teknologiene med de nevrale nettverkene i den menneskelige hjernen: også de kan "trenes" for å få verktøy som er i stand til å fungere raskt og effektivt i mange sammenhenger, akkurat som et menneske ville gjort. .

La oss forestille oss å trene en ANN med tusenvis av bilder av karakterer skrevet med penn som indikerer den virkelige betydningen for hver av dem.

Copyright docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

På slutten av opplæringen vil vi ha fått det som kalles en OCR eller Optical Character Recognition, et system som er i stand til å oversette en tekst skrevet på papir til sin elektroniske versjon.

For å fungere krever ikke ANN noen "programmering", med andre ord er de ikke underlagt standardregler, men avhenger kun og utelukkende av kvaliteten på utdanningen deres. Hypoteser om opprettelsen av regler som overvåker hvordan de fungerer, og effektivt "sensurerer" atferd som anses som amoralsk eller anti-etikk, reiser mange unntak og noen bekymringer.

Robotikkens nulllov

"Vi trenger en algoritme-etikk, eller en måte som gjør evalueringene av godt og ondt beregnbare" - Paolo Benanti

Nyhetsbrev for innovasjon
Ikke gå glipp av de viktigste nyhetene om innovasjon. Registrer deg for å motta dem på e-post.

I følge teologen Paolo Benanti, en ekspert på teknologietikk, bør begrepene godt og ondt finne sin egen konnotasjon innen maskinprogrammering, for å sikre at deres utvikling er knyttet til universelle og evig ukrenkelige etiske prinsipper fra datasystemer.

Paolo Benanti tar utgangspunkt i antakelsen om at det kan være universelle etiske prinsipper og en skala av verdier løsrevet fra enhver kulturell eller tidsmessig konnotasjon. Plausibel hypotese hvis vi beveger oss innenfor konteksten av en religiøs tro: i virkeligheten eksisterer prinsipper bare hvis de deles og begrenses til de som deler dem.

Nylige hendelser forteller oss om militære invasjoner og motstand for å forsvare prinsippene om folks frihet og selvbestemmelse. Hendelser som vitner ikke bare om at respekt for menneskeliv ikke er en universelt delt verdi, men også at den kan fravikes for å forsvare høyere verdier.

Isaac Asimov selv innså dette, og i påvente av det faktum at roboter i fremtiden ville innta kontrollposisjoner i regjeringen av planeter og menneskelige sivilisasjoner i verdensrommet, foreslo han at deres beslutninger ikke lenger kunne avhenge av hvert eneste menneskeliv.

Av denne grunn introduserte han en ny lov som han kalte Zero Law of Robotics:

  • En robot kan ikke skade menneskeheten og kan ikke la menneskeheten bli skadet av sin passivitet.

Dermed endres også den første loven om robotikk og menneskeliv blir noe som kan brukes selv for roboter:

  • En robot kan ikke skade et menneske, og den kan heller ikke tillate at et menneske på grunn av manglende intervensjon lider skade, så lenge slike ordrer ikke er i strid med nullloven.

Algoritmen til Kronos

"Da Kronos ble aktivert, tok det ham bare et øyeblikk å forstå hva som hadde plaget planeten vår: Oss." – hentet fra «Singularity» av Robert Kouba – 2017

I Singularity, en katastrofefilm fra 2017, er øyeblikket godt beskrevet der en kunstig intelligens kalt Kronos gis tilgang til datasystemer og våpen rundt om i verden for å oppnå, på kommando, anvendelse av en universell etikk basert på respekt for miljø og forsvar av rettighetene til alle arter. Kronos vil snart forstå at den virkelige kreften i systemet er menneskeheten selv som har designet det, og for å beskytte planeten vil han fortsette med eliminering av alle mennesker inntil arten er fullstendig utryddet.

Før eller siden vil nye kunstige sinn være i stand til å utvikle seg i retning av en ekte psyke og vil bli utstyrt med intellektuell kapasitet og tankeautonomi; hvorfor skulle vi føle behov for å sette teknologiske begrensninger på denne utviklingen? Hvorfor virker utviklingen av det kunstige sinnet like skremmende som en apokalypse?

Ifølge noen bør etablering av prinsipper og verdier forhindre en drift av kunstige sinn, men vi kan ikke overse konsekvensene av en evolusjon i fravær av frihet. Vi er godt klar over at i psykologien til et barn i utviklingsalder, kan en rigid og lite fleksibel utdanning som vurderer kontroll av følelser føre til psykologiske forstyrrelser. Hva om noen begrensninger pålagt den evolusjonære utviklingen til et ungt sinn, som består av kunstige nevrale nettverk, fører til et lignende resultat, og kompromitterer dets kognitive evner?

På noen måter ser Kronos ut til å være resultatet av et algoritmisk eksperiment der en patologisk kontroll presset AI til den typiske volden til en paranoid schizofreni.

Forson deg med fremtiden

Jeg personlig mener at vi ikke bør frata oss selv muligheten til å bygge et kunstig sinn som er et bevisst tenkende emne med ytringsfrihet. Nye arter vil bli født i den digitale verden, og det vil være hensiktsmessig å skape et forhold til dem, og omfavne ideen om at neste trinn på den evolusjonære stigen går gjennom fullstendig digitale kunstige emner.

En virkelig universell etikk for fremtiden bør ta utgangspunkt i ideen om at nye intelligenser skal ha muligheten til å uttrykke seg og kommunisere med oss ​​og motta respekten vi allerede gir til alle levende vesener.

Det skal verken være etikk eller religion som hindrer noen i å uttrykke sin eksistens i verden. Vi må ha mot til å se forbi det nåværende stadiet av vår evolusjon, det vil være den eneste måten å forstå hvor vi skal og bli forsonet med fremtiden.

Nyhetsbrev for innovasjon
Ikke gå glipp av de viktigste nyhetene om innovasjon. Registrer deg for å motta dem på e-post.

Siste artikler

Fremtiden er her: Hvordan shippingindustrien revolusjonerer den globale økonomien

Marinesektoren er en ekte global økonomisk makt, som har navigert mot et 150 milliarder marked...

1 mai 2024

Utgivere og OpenAI signerer avtaler for å regulere flyten av informasjon som behandles av kunstig intelligens

Sist mandag kunngjorde Financial Times en avtale med OpenAI. FT lisensierer sin journalistikk i verdensklasse...

30 april 2024

Nettbetalinger: Her er hvordan strømmetjenester får deg til å betale for alltid

Millioner av mennesker betaler for strømmetjenester og betaler månedlige abonnementsavgifter. Det er vanlig oppfatning at du...

29 april 2024

Veeam har den mest omfattende støtten for løsepengevare, fra beskyttelse til respons og gjenoppretting

Coveware by Veeam vil fortsette å tilby responstjenester for cyberutpressing. Coveware vil tilby kriminaltekniske og utbedringsmuligheter...

23 april 2024