Articole

Rețeta algoritmică pentru apocalipsă

„Întotdeauna au existat fantome în mașini. Segmente aleatorii de cod care se adună pentru a forma protocoale neașteptate. Acești radicali liberi generează cerințe de alegere liberă. Creativitate. Și chiar rădăcina a ceea ce am putea numi suflet”. – preluat din „I, Robot” regizat de Alex Proyas – 2004.

„I, Robot” este un film din 2004 inspirat din romanele lui Isaac Asimov și una dintre cele mai mari intuiții ale sale: cele trei legi ale roboticii.

Protagonistul filmului este detectivul Spooner care este implicat într-un accident de mașină cu o fetiță pe nume Sarah. În accident, ambii sunt aruncați într-un râu și rămân blocați între plăcuțele vehiculului lor. Un robot umanoid care este martor la scenă intervine imediat, dar, confruntat cu decizia dramatică de a salva o viață mai degrabă decât cealaltă, nu ezită: cel care are cele mai mari șanse de supraviețuire sau Spooner va fi salvat.

Ulterior, o analiză a minții robotului va arăta că detectivul Spooner avea 45% șanse de a fi salvat, Sarah doar 11%. „Pentru cei care au iubit-o pe fetița aceea, 11% a fost mai mult decât suficient”, va spune cu tristețe detectivul, afectat de sentimente profunde de vinovăție pentru că a supraviețuit acelei tinere vieți.

Cele trei legi ale roboticii

Decizia robotului a fost dictată de o aplicare strictă a Legilor Roboticii lui Asimov care, în viitor descrise în film, reprezintă elementul central pentru crearea unei societăți bazată pe activitățile roboților capabili să înlocuiască oamenii în orice loc de muncă. Cele trei legi sună după cum urmează:

  1. Un robot nu poate face rău unei ființe umane și nici nu poate permite unei ființe umane să sufere un rău ca urmare a inacțiunii sale.
  2. Un robot trebuie să se supună ordinelor date de oameni, atâta timp cât astfel de ordine nu contravin primei Legi.
  3. Un robot trebuie să-și protejeze propria existență, cu condiția ca protejarea acestuia să nu fie în conflict cu Prima sau A doua Lege.

Aceste legi ale roboticii de Asimov datează de la începutul anilor 40, dar pentru mulți și astăzi reprezintă o descoperire iluminată care, atunci când este aplicată la cele mai recente tehnologii de inteligență artificială, va asigura că evoluția lor rămâne pentru totdeauna sub controlul uman și nu vor exista derive apocaliptice. . Ideea din spatele fanilor celor trei Legi este de a conecta, într-un context logico-determinist, ceva ce seamănă cu o „etică simplă” alcătuită din câteva reguli, dar inviolabil și ininterpretabil.

A explica unui robot ce este bine și ce este rău pare simplu dacă se face printr-o logică strictă și fără cusur. Dar suntem cu adevărat siguri că reguli precum cele descrise tocmai sunt suficiente pentru a evita deriva tehnologică a unei noi specii post-umane?

Nebunia pentru legile roboților

„O mașină care se modifică este un concept foarte complex, actul de a se repara în sine implică o idee despre conștiință. Pământ alunecos…” – preluat din „Automata” de Gabe Ibáñez – 2014

În cel mai recent „Automate” omenirea se întreabă despre posibilitatea de a preveni conștientizarea de sine a roboților, odată cu apariția cărora lucrurile ar putea lua o întorsătură proastă. Și pentru a preveni acest lucru, ea elaborează două legi care vor reglementa comportamentul minții lor artificiale:

  • Robotul nu poate dăuna nici unei forme de viață.
  • Robotul nu se poate modifica singur.

După ce au intuit că mașinile inteligente s-ar putea modifica în viitor, dacă este ceva prin înlăturarea constrângerilor care le împiedică mintea să se deplaseze, aceste două legi își propun să obțină de la roboți că nu sunt niciodată capabili să-și manipuleze structura și să obțină autodeterminare.

Nu este productiv să ne gândim care combinație dintre cele cinci legi ale roboticii de mai sus ar fi cea mai eficientă în prevenirea apocalipsei robotilor. Asta pentru că Inteligența Artificială care în viitor va ghida roboții în fabrici, precum și în casele noastre nu depind de o programare imperativă alcătuită din coduri și reglementări, ci și de algoritmi care imită comportamentul uman.

În mintea roboților

Prin Inteligența Artificială ne referim astăzi la un set de tehnici pentru construirea unor mașini de stare particulare care iau numele de Rețele Neurale Artificiale (pe scurt ARN). Acest nume este efectul asemănării extraordinare a acestor tehnologii cu rețelele neuronale ale creierului uman: și ele pot fi „antrenate” pentru a obține instrumente capabile să funcționeze rapid și eficient în multe contexte, la fel cum ar face o ființă umană. .

Să ne imaginăm antrenarea unui ANN cu mii de imagini cu personaje scrise cu stiloul care indică semnificația reală pentru fiecare dintre ele.

Drepturi de autor docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

La finalul instruirii vom fi obținut ceea ce se numește OCR sau Optical Character Recognition, un sistem capabil să traducă un text scris pe hârtie în versiunea sa electronică.

Pentru a funcționa, ANN-urile nu necesită nicio „programare”, cu alte cuvinte nu sunt supuse unor reguli standard, ci depind doar și exclusiv de calitatea educației lor. Emiterea ipotezei creării unor reguli care supraveghează funcționarea acestora, „cenzurând” efectiv comportamentele considerate amorale sau anti-etice, ridică multe excepții și unele preocupări.

Legea zero a roboticii

„Avem nevoie de un algoritm-etică sau de o modalitate care să facă calculabile evaluările binelui și răului” – Paolo Benanti

Buletin informativ de inovare
Nu rata cele mai importante știri despre inovație. Înscrieți-vă pentru a le primi pe e-mail.

Potrivit teologului Paolo Benanti, expert în etica tehnologiei, conceptele de bine și rău ar trebui să-și găsească propria conotație în domeniul programării mașinilor, pentru a se asigura că evoluția lor este legată de principiile etice universale și inviolabile din sistemele informatice.

Paolo Benanti pleacă de la presupunerea că pot exista principii etice universale și o scară de valori desprinsă de orice conotație culturală sau temporală. Ipoteza plauzibilă dacă ne mișcăm în contextul unei credințe religioase: în realitate, principiile există doar dacă sunt împărtășite și limitate la cei care le împărtășesc.

Evenimentele recente ne vorbesc despre invazii militare și rezistență în apărarea principiilor libertății și autodeterminarii popoarelor. Evenimente care mărturisesc nu numai că respectul pentru viața umană nu este o valoare comună universal, ci și că se poate renunța pentru a apăra valorile superioare.

Isaac Asimov însuși și-a dat seama de acest lucru și, anticipând faptul că roboții vor prelua în viitor poziții de control în guvernarea planetelor și civilizațiilor umane din spațiu, el a sugerat că deciziile lor nu mai pot depinde de fiecare viață umană.

Din acest motiv, a introdus o nouă lege pe care a numit-o Legea zero a roboticii:

  • Un robot nu poate dăuna umanității și nu poate permite ca umanitatea să fie rănită prin inacțiunea sa.

Astfel, de asemenea, prima Lege a roboticii se schimbă și viața umană devine ceva ce nu poate fi consumat chiar și pentru roboți:

  • Un robot nu poate face rău unei ființe umane și nici nu poate permite ca, din lipsa ei de intervenție, o ființă umană să sufere un rău, atâta timp cât astfel de ordine nu contravin Legii Zero.

Algoritmul lui Kronos

„Când Kronos a fost activat, i-a luat doar o clipă să înțeleagă ce ne-a afectat planeta: noi.” – preluat din „Singularity” de Robert Kouba – 2017

În Singularity, un film dezastru din 2017, este bine descris momentul în care unei inteligențe artificiale numită Kronos i se dă acces la sisteme informatice și la armament din întreaga lume pentru a obține, prin comandă, aplicarea unei etici universale făcute din respect pentru mediu şi apărarea drepturilor tuturor speciilor. Kronos va înțelege în curând că adevăratul cancer din sistem este însăși umanitatea care l-a conceput și pentru a proteja planeta va proceda la eliminarea fiecărei ființe umane până la dispariția totală a speciei.

Mai devreme sau mai târziu noile minți artificiale vor putea evolua în direcția unui psihic real și vor fi înzestrate cu capacitate intelectuală și autonomie de gândire; de ce ar trebui să simțim nevoia să punem limite tehnologice acestei evoluții? De ce evoluția minții artificiale pare la fel de înfricoșătoare ca o apocalipsă?

Potrivit unora, stabilirea de principii și valori ar trebui să prevină o deriva minților artificiale, dar nu putem trece cu vederea consecințele unei evoluții în absența libertății. Suntem bine conștienți că în psihologia unui copil în curs de dezvoltare, o educație rigidă și inflexibilă care are în vedere controlul emoțiilor poate duce la tulburări psihologice. Ce se întâmplă dacă orice limite impuse dezvoltării evolutive a unei minți tinere, formată din rețele neuronale artificiale, ar duce la un rezultat similar, compromițându-i abilitățile cognitive?

În anumite privințe, Kronos pare să fie rezultatul unui experiment algoritmic în care un control patologic a împins IA la violența tipică a unei schizofrenie paranoide.

Reconciliază-te cu viitorul

Eu personal cred că nu ar trebui să ne lipsim de oportunitatea de a construi o minte artificială care este un subiect de gândire conștientă cu libertate de exprimare. În lumea digitală se vor naște specii noi și va fi oportun să creăm o relație cu ele, îmbrățișând ideea că următorul pas pe scara evolutivă trece prin subiecți artificiali complet digitali.

O etică cu adevărat universală pentru viitor ar trebui să plece de la ideea că noile inteligențe ar trebui să aibă ocazia să se exprime și să comunice cu noi și să primească respectul pe care deja îl acordăm tuturor ființelor simțitoare.

Nu ar trebui să existe nici etică, nici religie care să împiedice pe cineva să-și exprime existența în lume. Trebuie să avem curajul să privim dincolo de stadiul actual al evoluției noastre, va fi singura modalitate de a înțelege încotro ne îndreptăm și de a ne împăca cu viitorul.

Buletin informativ de inovare
Nu rata cele mai importante știri despre inovație. Înscrieți-vă pentru a le primi pe e-mail.

Articole recente

Editorii și OpenAI semnează acorduri pentru a reglementa fluxul de informații procesate de Inteligența Artificială

Luni trecută, Financial Times a anunțat un acord cu OpenAI. FT își licențiază jurnalismul de clasă mondială...

Aprilie 30 2024

Plăți online: Iată cum serviciile de streaming vă fac să plătiți pentru totdeauna

Milioane de oameni plătesc pentru serviciile de streaming, plătind taxe lunare de abonament. Este o părere comună că tu...

Aprilie 29 2024

Veeam oferă cel mai complet suport pentru ransomware, de la protecție la răspuns și recuperare

Coveware de la Veeam va continua să ofere servicii de răspuns la incidente de extorcare cibernetică. Coveware va oferi capacități criminalistice și de remediere...

Aprilie 23 2024

Revoluția verde și digitală: cum întreținerea predictivă transformă industria petrolului și gazelor

Întreținerea predictivă revoluționează sectorul petrolului și gazelor, cu o abordare inovatoare și proactivă a managementului uzinelor...

Aprilie 22 2024