raksti

Apokalipses algoritmiskā recepte

“Automašīnās vienmēr ir bijuši spoki. Nejauši koda segmenti, kas saplūst kopā, veidojot neparedzētus protokolus. Šie brīvie radikāļi rada prasības pēc brīvas izvēles. Radošums. Un pat sakne tam, ko mēs varētu saukt par dvēseli." – ņemts no Aleksa Projasa režisētās filmas “I, Robot” – 2004. gads.

“Es, robots” ir 2004. gada filma, kuru iedvesmojuši Īzaka Asimova romāni un viena no viņa izcilākajām intuīcijām: trīs robotikas likumi.

Filmas galvenais varonis ir detektīvs Spūners, kurš ir iesaistīts autoavārijā ar mazu meiteni vārdā Sāra. Negadījumā abi tiek iemesti upē un iestrēguši starp sava spēkrata plāksnēm. Humanoīds robots, kurš ir notikuma aculiecinieks, nekavējoties iejaucas, taču, saskaroties ar dramatisku lēmumu glābt vienu dzīvību, nevis otru, viņš nešaubās: tas, kuram ir vislielākās izredzes izdzīvot, vai Spooners tiks izglābts.

Pēc tam robota prāta analīze parādīs, ka detektīvam Spooneram bija 45% iespēja tikt izglābtam, bet Sārai tikai 11%. "Tiem, kas mīlēja to mazo meitenīti, 11% bija vairāk nekā pietiekami," diemžēl valdīs detektīvs, dziļas vainas sajūtas nomocīts par to, ka ir izdzīvojis šo jauno dzīvi.

Trīs robotikas likumi

Robota lēmumu noteica stingra Asimova Robotikas likumu piemērošana, kas filmā aprakstītajā nākotnē ir centrālais elements tādas sabiedrības radīšanai, kuras pamatā ir robotu darbība, kas spēj aizstāt cilvēkus jebkurā darbā. Trīs likumi skan šādi:

  1. Robots nevar nodarīt ļaunumu cilvēkam, kā arī nevar ļaut cilvēkam ciest kaitējumu sava bezdarbības rezultātā.
  2. Robotam ir jāpakļaujas cilvēku dotajām pavēlēm, ja vien šādas pavēles nav pretrunā ar Pirmo likumu.
  3. Robotam pašam ir jāaizsargā sava eksistence, ja tā aizsardzība nav pretrunā ar Pirmo vai Otro likumu.

Šie Asimova robotikas likumi ir datēti ar 40. gadu sākumu, taču daudziem vēl šodien tie ir apgaismots atklājums, kas, pielietojot jaunākās mākslīgā intelekta tehnoloģijas, nodrošinās, ka to evolūcija uz visiem laikiem paliek cilvēka kontrolē un nebūs apokaliptiskas novirzes. . Trīs likumu piekritēju ideja ir loģiski-deterministiskā kontekstā izveidot kaut ko tādu, kas atgādina "vienkāršu ētiku", kas sastāv no dažiem noteikumiem, bet ir neaizskarams un neinterpretējams.

Izskaidrot robotam, kas ir labs un kas ir slikts, šķiet vienkārši, ja to dara, izmantojot stingru un nevainojamu loģiku. Bet vai mēs patiešām esam pārliecināti, ka tādi noteikumi kā tikko aprakstītie ir pietiekami, lai izvairītos no jaunas sugas pēc cilvēka tehnoloģiskās novirzes?

Robotu likumu trakums

“Mašīna, kas pārveido sevi, ir ļoti sarežģīts jēdziens, pats labošanas akts ietver kādu apziņas ideju. Slidena zeme…” – ņemts no Gabe Ibáneza “Automāti” – 2014. gads

Jaunākajā "Automātijā" cilvēce brīnās par iespēju novērst robotu pašapziņu, līdz ar kuru parādīšanos lietas varētu pagriezties slikti. Un, lai tas nenotiktu, tā izstrādā divus likumus, kas regulēs viņu mākslīgā prāta uzvedību:

  • Robots nevar kaitēt nevienai dzīvības formai.
  • Robots nevar sevi pārveidot.

Ņemot vērā, ka viedās mašīnas nākotnē varētu sevi pārveidot, ja kaut ko tādu, likvidējot ierobežojumus, kas neļauj viņu prātam novirzīties, šo divu likumu mērķis ir panākt, lai roboti nekad nevarētu manipulēt ar savu struktūru un sasniegt pašnoteikšanos.

Nav produktīvi izdomāt, kura piecu iepriekš minēto robotikas likumu kombinācija būtu visefektīvākā, lai novērstu robotu apokalipsi. Tas ir tāpēc, ka mākslīgais intelekts, kas nākotnē vadīs robotus rūpnīcās, kā arī mūsu mājās, nav atkarīgs no obligātas programmēšanas, kas sastāv no kodiem un noteikumiem, bet arī no algoritmiem, kas imitē cilvēka uzvedību.

Robotu prātā

Ar mākslīgo intelektu šodien mēs domājam paņēmienu kopumu konkrētu stāvokļu iekārtu konstruēšanai, kuras sauc par mākslīgajiem neironu tīkliem (īsumā RNS). Šis nosaukums izriet no šo tehnoloģiju neparastās līdzības ar cilvēka smadzeņu neironu tīkliem: arī tās var "trenēt", lai iegūtu rīkus, kas spēj ātri un efektīvi darboties daudzos kontekstos, tāpat kā to darītu cilvēks. .

Iedomāsimies apmācīt ANN ar tūkstošiem ar pildspalvu rakstītu rakstzīmju attēlu, kas norāda katra no tām patieso nozīmi.

Autortiesības docsumo.com – https://docsumo.com/blog/intelligent-character-recognition-icr

Apmācības beigās mēs iegūsim tā saukto OCR jeb optisko rakstzīmju atpazīšanas sistēmu, kas spēj pārtulkot uz papīra rakstītu tekstu tā elektroniskajā versijā.

Lai ANN funkcionētu, nav nepieciešama nekāda "programmēšana", citiem vārdiem sakot, uz tiem neattiecas standarta noteikumi, bet tie ir atkarīgi tikai un vienīgi no viņu izglītības kvalitātes. Hipotēzes par noteikumu izveidi, kas pārrauga to darbību, efektīvi "cenzējot" uzvedību, kas tiek uzskatīta par amorālu vai pret ētiku, rada daudz izņēmumu un dažas bažas.

Robotikas nulles likums

"Mums ir vajadzīgs algoritms-ētika vai veids, kas padara labā un ļaunā novērtējumu izrēķināmu." - Paolo Benanti

Inovāciju biļetens
Nepalaidiet garām svarīgākās ziņas par jauninājumiem. Reģistrējieties, lai tos saņemtu pa e-pastu.

Pēc teologa Paolo Benanti, tehnoloģiju ētikas eksperta domām, labā un ļaunā jēdzieniem ir jāatrod sava konotācija mašīnprogrammēšanas jomā, lai nodrošinātu, ka to evolūcija ir saistīta ar universāliem un mūžīgi neaizskaramiem datorsistēmu ētikas principiem.

Paolo Benanti sāk no pieņēmuma, ka var pastāvēt universāli ētikas principi un vērtību skala, kas ir atdalīta no jebkādas kultūras vai laika konotācijas. Uzticama hipotēze, ja mēs pārvietojamies reliģiskās ticības kontekstā: patiesībā principi pastāv tikai tad, ja tie ir kopīgi un aprobežojas ar tiem, kas tos piekrīt.

Nesenie notikumi stāsta par militāriem iebrukumiem un pretošanos, aizstāvot tautas brīvības un pašnoteikšanās principus. Notikumi, kas liecina ne tikai par to, ka cieņa pret cilvēka dzīvību nav vispārpieņemta vērtība, bet arī par to, ka no tās var atteikties, lai aizstāvētu augstākas vērtības.

Pats Īzaks Asimovs to saprata un, paredzot, ka roboti nākotnē ieņems kontroles pozīcijas planētu un cilvēku civilizāciju pārvaldībā kosmosā, viņš ierosināja, ka viņu lēmumi vairs nevar būt atkarīgi no katra cilvēka dzīvības.

Šī iemesla dēļ viņš ieviesa jaunu likumu, ko viņš sauca par robotikas nulles likumu:

  • Robots nevar kaitēt cilvēcei un nevar pieļaut, ka tā bezdarbība nodara kaitējumu cilvēcei.

Tādējādi mainās arī pirmais robotikas likums un cilvēka dzīvība kļūst par kaut ko iztērējamu pat robotiem:

  • Robots nevar nodarīt ļaunumu cilvēkam, kā arī nevar pieļaut, ka tā iejaukšanās trūkuma dēļ cilvēkam tiek nodarīts kaitējums, ja vien šādas pavēles nav pretrunā ar nulles likumu.

Kronos algoritms

"Kad Kronoss tika aktivizēts, viņam vajadzēja tikai mirkli, lai saprastu, kas bija nomocījis mūsu planētu: mūs." – ņemts no Roberta Koubas “Singularity” – 2017. gada

2017. gada katastrofu filmā Singularity ir labi aprakstīts brīdis, kurā mākslīgajam intelektam, ko sauc par Kronos, tiek nodrošināta piekļuve datorsistēmām un bruņojumam visā pasaulē, lai ar pavēli panāktu universālas ētikas piemērošanu, kas balstīta uz cieņu pret vide un visu sugu tiesību aizsardzība. Kronoss drīz sapratīs, ka patiesais vēzis sistēmā ir pati cilvēce, kas to izstrādāja, un, lai aizsargātu planētu, viņš turpinās ikviena cilvēka iznīcināšanu līdz sugas pilnīgai izzušanai.

Agri vai vēlu jauni mākslīgie prāti spēs attīstīties īstas psihes virzienā un būs apveltīti ar intelektuālām spējām un domāšanas autonomiju; kāpēc mums vajadzētu izjust nepieciešamību šai attīstībai noteikt tehnoloģiskus ierobežojumus? Kāpēc mākslīgā prāta evolūcija šķiet tikpat biedējoša kā apokalipse?

Daži uzskata, ka principu un vērtību noteikšanai vajadzētu novērst mākslīgo prātu novirzīšanos, taču mēs nevaram nepamanīt evolūcijas sekas, ja nav brīvības. Mēs labi zinām, ka bērna psiholoģijā attīstības vecumā stingra un neelastīga izglītība, kas paredz emociju kontroli, var izraisīt psiholoģiskus traucējumus. Ko darīt, ja kādi ierobežojumi, kas uzlikti jauna prāta evolūcijas attīstībai, ko veido mākslīgie neironu tīkli, noved pie līdzīga rezultāta, apdraudot tā kognitīvās spējas?

Dažos veidos Kronos, šķiet, ir algoritmiska eksperimenta rezultāts, kurā patoloģiskā kontrole piespieda mākslīgo intelektu uz tipisku paranojas šizofrēnijas vardarbību.

Samierināties ar nākotni

Es personīgi uzskatu, ka mums nevajadzētu liegt sev iespēju veidot mākslīgu prātu, kas ir apzināti domājošs subjekts ar vārda brīvību. Digitālajā pasaulē dzims jaunas sugas, un būs lietderīgi ar tām izveidot attiecības, aptverot domu, ka nākamais solis pa evolūcijas kāpnēm iet cauri pilnīgi digitāliem mākslīgiem priekšmetiem.

Patiesi universāla nākotnes ētika jāsāk ar domu, ka jaunajiem intelektiem ir jādod iespēja izpausties un sazināties ar mums un saņemt cieņu, ko mēs jau dāvājam visām dzīvajām būtnēm.

Nedrīkst būt ne ētika, ne reliģija, kas liegtu nevienam paust savu eksistenci pasaulē. Mums ir jābūt drosmei skatīties tālāk par mūsu evolūcijas pašreizējo posmu, tas būs vienīgais veids, kā saprast, kurp ejam, un samierināties ar nākotni.

Inovāciju biļetens
Nepalaidiet garām svarīgākās ziņas par jauninājumiem. Reģistrējieties, lai tos saņemtu pa e-pastu.

Jaunākie Raksti

Kā vislabāk kārtot datus un formulas programmā Excel, lai iegūtu kvalitatīvu analīzi

Microsoft Excel ir atsauces rīks datu analīzei, jo tas piedāvā daudzas iespējas datu kopu organizēšanai,…

14 maijā 2024

Pozitīvs secinājums diviem svarīgiem Walliance Equity kopfinansēšanas projektiem: Jesolo Wave Island un Milano Via Ravenna

Walliance, SIM un platforma starp līderiem Eiropā nekustamo īpašumu kopfinansēšanas jomā kopš 2017. gada, paziņo par…

13 maijā 2024

Kas ir kvēldiegs un kā lietot Laravel pavedienu

Filament ir "paātrināta" Laravel izstrādes sistēma, kas nodrošina vairākus pilnus komponentus. Tas ir paredzēts, lai vienkāršotu procesu…

13 maijā 2024

Mākslīgā intelekta kontrolē

«Man ir jāatgriežas, lai pabeigtu savu evolūciju: es projicēšu sevi datorā un kļūšu par tīru enerģiju. Kad apmetās…

10 maijā 2024

Google jaunais mākslīgais intelekts var modelēt DNS, RNS un "visas dzīvības molekulas"

Google DeepMind ievieš uzlabotu sava mākslīgā intelekta modeļa versiju. Jaunais uzlabotais modelis nodrošina ne tikai…

9 maijā 2024

Laravela moduļu arhitektūras izpēte

Laravel, kas slavena ar savu eleganto sintaksi un jaudīgām funkcijām, nodrošina arī stabilu pamatu moduļu arhitektūrai. Tur…

9 maijā 2024

Cisco Hypershield un Splunk iegāde Sākas jaunais drošības laikmets

Cisco un Splunk palīdz klientiem paātrināt viņu ceļu uz nākotnes drošības operāciju centru (SOC), izmantojot…

8 maijā 2024

Papildus ekonomiskajai pusei: nepārprotamās izpirkuma programmatūras izmaksas

Ransomware ir dominējusi ziņās pēdējos divus gadus. Lielākā daļa cilvēku labi apzinās, ka uzbrukumi…

6 maijā 2024