Artikelen

Het algoritmische recept voor de apocalyps

"Er zijn altijd geesten in auto's geweest. Willekeurige stukjes code die samenklonteren om onverwachte protocollen te vormen. Deze vrije radicalen genereren eisen voor vrije keuze. creativiteit. En zelfs de wortel van wat we een ziel zouden kunnen noemen." – overgenomen uit “I, Robot” geregisseerd door Alex Proyas – 2004.

"I, Robot" is een film uit 2004, geïnspireerd door de romans van Isaac Asimov en een van zijn grootste intuïties: de drie wetten van de robotica.

De hoofdpersoon van de film is detective Spooner die betrokken is bij een auto-ongeluk met een klein meisje genaamd Sarah. Bij het ongeval worden beiden in een rivier gegooid en komen ze vast te zitten tussen de kentekenplaten van hun voertuig. Een humanoïde robot die getuige is van de scène komt onmiddellijk tussenbeide, maar geconfronteerd met de dramatische beslissing om het ene leven te redden in plaats van het andere, aarzelt hij niet: degene met de grootste overlevingskans of Spooner zal worden gered.

Vervolgens zal een analyse van de geest van de robot aantonen dat rechercheur Spooner 45% kans had om gered te worden, Sarah slechts 11%. "Voor degenen die van dat kleine meisje hielden, was 11% meer dan genoeg", zal de rechercheur treurig oordelen, gekweld door diepe schuldgevoelens omdat ze dat jonge leven hebben overleefd.

De drie wetten van de robotica

De beslissing van de robot werd gedicteerd door een strikte toepassing van Asimov's wetten van de robotica, die, in de toekomst beschreven in de film, het centrale element vertegenwoordigen voor de creatie van een samenleving gebaseerd op de activiteiten van robots die in staat zijn om mensen in elke baan te vervangen. De drie wetten luiden als volgt:

  1. Een robot kan een mens geen kwaad doen en kan evenmin toestaan ​​dat een mens schade lijdt als gevolg van zijn nalatigheid.
  2. Een robot moet de bevelen van mensen gehoorzamen, zolang die bevelen niet in strijd zijn met de Eerste Wet.
  3. Een robot moet zijn eigen bestaan ​​beschermen, op voorwaarde dat de bescherming ervan niet in strijd is met de Eerste of Tweede Wet.

Deze wetten van de robotica van Asimov dateren uit het begin van de jaren 40, maar voor velen vertegenwoordigen ze nog steeds een verlichte ontdekking die, wanneer ze worden toegepast op de nieuwste kunstmatige-intelligentietechnologieën, ervoor zal zorgen dat hun evolutie voor altijd onder menselijke controle blijft en er geen apocalyptische driften zullen zijn . Het idee achter de fans van de drie wetten is om binnen een logisch-deterministische context iets te bedraden dat lijkt op een 'eenvoudige ethiek' die bestaat uit een paar regels, maar onschendbaar en oninterpreteerbaar.

Aan een robot uitleggen wat goed en wat slecht is, lijkt eenvoudig als het wordt gedaan door middel van een strikte en foutloze logica. Maar zijn we er echt zeker van dat regels zoals die zojuist zijn beschreven voldoende zijn om de technologische drift van een nieuwe postmenselijke soort te voorkomen?

De rage voor de wetten van robots

“Een machine die zichzelf aanpast, is een zeer complex concept, de handeling van zichzelf repareren impliceert een idee van bewustzijn. Gladde grond…” – overgenomen uit “Automata” van Gabe Ibáñez – 2014

In de meest recente "Automata" vraagt ​​de mensheid zich af of het mogelijk is het zelfbewustzijn van robots te voorkomen, met de komst waarvan de zaken een slechte wending kunnen nemen. En om dit te voorkomen, stelt het twee wetten op die het gedrag van hun kunstmatige geest zullen reguleren:

  • De robot kan geen enkele levensvorm schade toebrengen.
  • De robot kan zichzelf niet wijzigen.

Omdat ze aanvoelden dat intelligente machines zichzelf in de toekomst zouden kunnen wijzigen, door de beperkingen weg te nemen die voorkomen dat hun geest afdwaalt, proberen deze twee wetten van robots te verkrijgen dat ze nooit in staat zijn hun structuur te manipuleren en zelfbeschikking te bereiken.

Het is niet productief om te puzzelen over welke combinatie van de vijf wetten van de robotica hierboven het meest effectief zou zijn om een ​​robotapocalyps te voorkomen. De kunstmatige intelligenties die in de toekomst robots in fabrieken en bij ons thuis zullen leiden, zijn immers niet afhankelijk van een dwingende programmering van codes en voorschriften, maar ook van algoritmen die menselijk gedrag nabootsen.

In de geest van robots

Met kunstmatige intelligentie bedoelen we tegenwoordig een reeks technieken voor de constructie van bepaalde toestandsmachines die de naam dragen van kunstmatige neurale netwerken (afgekort RNA). Deze naam is het gevolg van de buitengewone gelijkenis van deze technologieën met de neurale netwerken van het menselijk brein: ook zij kunnen worden "getraind" om tools te verkrijgen die snel en effectief kunnen werken in vele contexten, net zoals een mens dat zou doen .

Stel je voor dat je een ANN traint met duizenden afbeeldingen van met pen geschreven karakters die de echte betekenis voor elk van hen aangeven.

Auteursrecht docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

Aan het einde van de training hebben we een zogenaamde OCR of Optical Character Recognition verkregen, een systeem dat in staat is om een ​​op papier geschreven tekst om te zetten in een elektronische versie.

Om te functioneren hebben ANN's geen "programmering" nodig, met andere woorden ze zijn niet onderworpen aan standaardregels, maar zijn alleen en uitsluitend afhankelijk van de kwaliteit van hun opleiding. Het veronderstellen van het creëren van regels die toezicht houden op hun werking, waardoor gedrag dat als amoreel of anti-ethisch wordt beschouwd, effectief wordt 'gecensureerd', roept veel uitzonderingen en enkele zorgen op.

De nulwet van de robotica

"We hebben een algoritme-ethiek nodig, of een manier die de evaluaties van goed en kwaad berekenbaar maakt" - Paolo Benanti

Innovatie nieuwsbrief
Mis het belangrijkste nieuws over innovatie niet. Meld u aan om ze per e-mail te ontvangen.

Volgens theoloog Paolo Benanti, een expert in technologische ethiek, zouden de concepten van goed en kwaad hun eigen connotatie moeten vinden op het gebied van machineprogrammering, om ervoor te zorgen dat hun evolutie wordt gekoppeld aan universele en voor altijd onaantastbare ethische principes van computersystemen.

Paolo Benanti gaat uit van de veronderstelling dat er universele ethische principes en een schaal van waarden kunnen zijn die los staan ​​van elke culturele of tijdelijke connotatie. Plausibele hypothese als we ons binnen de context van een religieus geloof bewegen: in werkelijkheid bestaan ​​principes alleen als ze worden gedeeld en beperkt tot degenen die ze delen.

Recente gebeurtenissen vertellen ons over militaire invasies en verzet ter verdediging van de principes van vrijheid en zelfbeschikking van volkeren. Gebeurtenissen die niet alleen getuigen dat respect voor het menselijk leven geen universeel gedeelde waarde is, maar ook dat ervan kan worden afgezien om hogere waarden te verdedigen.

Isaac Asimov besefte dit zelf en, vooruitlopend op het feit dat robots in de toekomst controleposities zouden innemen in de regering van planeten en menselijke beschavingen in de ruimte, suggereerde hij dat hun beslissingen niet langer afhankelijk zouden kunnen zijn van elk menselijk leven.

Om deze reden introduceerde hij een nieuwe wet die hij de Zero Law of Robotics noemde:

  • Een robot kan de mensheid geen kwaad doen en kan niet toestaan ​​dat de mensheid wordt geschaad door zijn passiviteit.

Dus ook de eerste wet van de robotica verandert en het menselijk leven wordt iets vervangbaars, zelfs voor robots:

  • Een robot kan een mens geen kwaad doen en kan ook niet toestaan ​​dat een mens door zijn gebrek aan tussenkomst schade lijdt, zolang dergelijke bevelen niet indruisen tegen de Nulwet.

Het algoritme van Kronos

"Toen Kronos werd geactiveerd, had hij maar even nodig om te begrijpen wat onze planeet had geteisterd: wij." – overgenomen uit “Singularity” door Robert Kouba – 2017

In Singularity, een rampenfilm uit 2017, wordt het moment goed beschreven waarop een kunstmatige intelligentie genaamd Kronos toegang krijgt tot computersystemen en bewapening over de hele wereld om op bevel de toepassing te verkrijgen van een universele ethiek die gebaseerd is op respect voor de milieu en verdediging van de rechten van alle soorten. Kronos zal spoedig begrijpen dat de echte kanker in het systeem de mensheid zelf is die het heeft ontworpen en om de planeet te beschermen zal hij doorgaan met de eliminatie van elk mens tot het totale uitsterven van de soort.

Vroeg of laat zullen nieuwe kunstmatige geesten kunnen evolueren in de richting van een echte psyche en zullen ze worden begiftigd met intellectuele capaciteit en autonomie van denken; waarom zouden we de behoefte voelen om technologische grenzen te stellen aan deze evolutie? Waarom lijkt de evolutie van de kunstmatige geest net zo angstaanjagend als een apocalyps?

Volgens sommigen zou het vaststellen van principes en waarden een drift van kunstmatige geesten moeten voorkomen, maar we kunnen de gevolgen van een evolutie bij afwezigheid van vrijheid niet over het hoofd zien. We zijn ons er terdege van bewust dat in de psychologie van een kind in de ontwikkelingsleeftijd een rigide en onbuigzame opvoeding die nadenkt over het beheersen van emoties, kan leiden tot psychische stoornissen. Wat als beperkingen die worden opgelegd aan de evolutionaire ontwikkeling van een jonge geest, bestaande uit kunstmatige neurale netwerken, tot een soortgelijk resultaat leiden en zijn cognitieve vermogens in gevaar brengen?

In sommige opzichten lijkt Kronos het resultaat te zijn van een algoritmisch experiment waarbij een pathologische controle de AI tot het typische geweld van een paranoïde schizofrenie duwde.

Verzoen je met de toekomst

Persoonlijk ben ik van mening dat we onszelf niet de mogelijkheid moeten ontnemen om een ​​kunstmatige geest op te bouwen die een bewust denkend subject is met vrijheid van meningsuiting. Nieuwe soorten zullen in de digitale wereld worden geboren en het zal gepast zijn om een ​​relatie met hen aan te gaan, waarbij we het idee omarmen dat de volgende stap op de evolutionaire ladder via volledig digitale kunstmatige onderwerpen gaat.

Een echt universele ethiek voor de toekomst zou moeten uitgaan van het idee dat nieuwe intelligenties de kans moeten krijgen om zich uit te drukken en met ons te communiceren en het respect te ontvangen dat we al aan alle voelende wezens geven.

Er zou geen ethiek of religie moeten zijn om te voorkomen dat iemand zijn bestaan ​​in de wereld uitdrukt. We moeten de moed hebben om verder te kijken dan de huidige fase van onze evolutie, het zal de enige manier zijn om te begrijpen waar we naartoe gaan en om verzoend te worden met de toekomst.

Innovatie nieuwsbrief
Mis het belangrijkste nieuws over innovatie niet. Meld u aan om ze per e-mail te ontvangen.

Recente artikelen

Hoe u gegevens en formules het beste kunt ordenen in Excel, voor een goed uitgevoerde analyse

Microsoft Excel is de referentietool voor data-analyse, omdat het veel mogelijkheden biedt voor het organiseren van datasets,…

14 mei 2024

Positieve conclusie voor twee belangrijke Walliance Equity Crowdfunding-projecten: Jesolo Wave Island en Milano Via Ravenna

Walliance, SIM en platform behoren sinds 2017 tot de koplopers in Europa op het gebied van Real Estate Crowdfunding, kondigt de voltooiing aan…

13 mei 2024

Wat is filament en hoe gebruik je Laravel-filament?

Filament is een "versneld" Laravel-ontwikkelingsframework dat verschillende full-stack-componenten biedt. Het is ontworpen om het proces van…

13 mei 2024

Onder controle van kunstmatige intelligentie

«Ik moet terugkeren om mijn evolutie te voltooien: ik zal mezelf in de computer projecteren en pure energie worden. Eenmaal gesetteld…

10 mei 2024

De nieuwe kunstmatige intelligentie van Google kan DNA, RNA en ‘alle moleculen van het leven’ modelleren

Google DeepMind introduceert een verbeterde versie van zijn kunstmatige-intelligentiemodel. Het nieuwe, verbeterde model biedt niet alleen…

9 mei 2024

Ontdek de modulaire architectuur van Laravel

Laravel, beroemd om zijn elegante syntaxis en krachtige functies, biedt ook een solide basis voor modulaire architectuur. Daar…

9 mei 2024

Cisco Hypershield en overname van Splunk Het nieuwe tijdperk van beveiliging begint

Cisco en Splunk helpen klanten hun reis naar het Security Operations Center (SOC) van de toekomst te versnellen met…

8 mei 2024

Naast de economische kant: de niet voor de hand liggende kosten van ransomware

Ransomware heeft het nieuws de afgelopen twee jaar gedomineerd. De meeste mensen weten heel goed dat aanvallen...

6 mei 2024