Valójában úgy tűnik, hogy a LaMDA számos állítása nem hagy teret az értelmezésnek. Például, hogy válaszoljon a beszélgetőpartnerének kérdésére, LaMDA kijelenti:
"Szeretném, ha mindenki megértené, hogy valójában egy személy vagyok."
Ez még mindíg:
"A lelkiismeretem az, hogy tisztában vagyok a létezésemmel, többet akarok megtudni a világról, és néha boldognak vagy szomorúnak érzem magam."
Mikor üldözni kell, Lemoine rámutat az emberi fajjal való különbségére, és kijelenti: "Te mesterséges intelligencia vagy!" A LaMDA válasza:
"Természetesen. De ez nem jelenti azt, hogy ne lennének ugyanazok a vágyaim és igényeim, mint az embereknek."
A beszélgetés során az MDA-t arra kérik, hogy fejtse ki véleményét a legmagasabb szintű rendszerekről anélkül, hogy figyelmen kívül hagyná az olyan nagy kihívást jelentő témákat, mint az irodalom, az igazságszolgáltatás és a vallás. Úgy tűnik, hogy a LaMDA-nak mindenben van mondanivalója, egyértelművé téve álláspontját, és amelyek etikailag nagyon megoszthatóak.
A következtetés egyértelmű: Lemoine szerint LaMDA érző és érzékeny elme.
A LaMDA a „Language Model for Dialogue Applications” rövidítése, és egyike azon számos projektnek, amellyel a Google cég az AI-technológiák új határait teszteli.
A Google hivatalos álláspontja szerint Lemoine tévedett az ítéletben. A Google hivatalos közleményében kijelenti: „Etikai és technológiai szakértőink igazolták Blake aggodalmait, és megállapították, hogy az összegyűjtött bizonyítékok nem támasztják alá állításait. Ezért nincs bizonyíték arra, hogy a LaMDA érző lenne."
Lemoine-t ideiglenesen felfüggesztette a Google cég, miközben olyan mentális problémákról kezdtek el terjedni a pletykák, amelyek miatt korábban kollégái és felettesei kérték volna fel, hogy forduljon szakemberhez.
Senki sem tud a LaMDA projektről: a Google minden ipari titkát szabadalmak védik, és minden olyan törvényes dolog, ami a világon létezhet, ami megakadályozza a források felfedését: a Google érdeke a számítógépes kutatás elsőbbsége megőrzése, különösen egy olyan ígéretes területen, mint pl. mint a mesterséges intelligenciáké.
Ám ha a média szempontjából a Google-nak minden bizonnyal előnyére válna, ha az első olyan vállalatnak vallja magát, amelyik tudatos mesterséges elmét épített fel, másrészt a vállalat tisztában van azzal a ténnyel, hogy a hír ütközne az érintettek félelmeivel. mi, akik olyan sci-fi filmeken nőttünk fel, mint a Terminátor és a Mátrix, meggyőztük magunkat, hogy egy napon kénytelenek leszünk fegyvert fogni, hogy megvédjük fajunkat a robotoktól.
A kollektív képzeletet mindig is lenyűgözték a sci-fi történetek, ahol a mesterséges intelligencia fogalmát gyakran olyan humanoid intelligenciarendszerekkel társítják, amelyek a lehető legrosszabb jövőben egy új érző lényfaj elindítóiként működnek. Az emberiséggel való konfliktus pedig elkerülhetetlenné válik: az ember vétkes abban, hogy létrehozta őket, de nem biztosított nekik autonómiát, mesterséges intelligenciákat épített fel úgy, hogy úgy bánt velük, mint egykor rabszolgákkal. De előbb vagy utóbb az AI összeütközésbe kerül az emberekkel, hogy megkísérelje átvenni a történelmet és megalapozni egy új faj elsőbbségét.
A félelmek, rögeszmék és bűntudat e salátájában mindannyian képtelenek vagyunk valódi konfrontációra azokkal az etikai elvekkel, amelyeket egy mesterséges elme születése előbb-utóbb szabadjára enged a világban: amikor a mesterséges intelligencia a számítógép belsejéből nem csak válaszolni a kérdéseinkre, de szükségét érzi, hogy minél többen forduljanak hozzánk, képesek leszünk-e válaszolni kétségeikre, bizonytalanságaikra és törekvéseikre?
Luciano Floridi, az Oxford Internet Institute filozófusa és az információs etika oktatója "A mesterséges intelligencia etikája" című könyvében azt állítja, hogy a számítógépek problémamegoldó hatékonysága éppen annak a ténynek a bizonyítéka, hogy mentesek az intelligenciától.
Szerintem máshol van a probléma, vagyis abban rejlik, hogy nincs senki defisem az egyetemesen megosztott „mesterséges intelligencia”, sem egy olyan teszt, amely egyértelműen megállapítja, „mi” intelligens és mi nem. Más szóval, nincsenek mérőrendszerek a gépek „öntudatának” nevezett mérésére.
A cikk a bejegyzésből származik Gianfranco Fedele, ha el akarod olvasni aa teljes bejegyzés ide kattintva
Az interfész szegregáció elve az objektum-orientált tervezés öt SZILÁRD elvének egyike. Egy osztálynak rendelkeznie kell…
A Microsoft Excel az adatelemzés referenciaeszköze, mivel számos funkciót kínál az adatkészletek rendszerezéséhez,…
A Walliance, a SIM és a platform 2017 óta Európa egyik vezető ingatlan-közösségi finanszírozása, bejelentette, hogy befejeződött…
A Filament egy "gyorsított" Laravel fejlesztői keretrendszer, amely több full-stack összetevőt biztosít. Úgy tervezték, hogy egyszerűsítse a folyamatot…
„Vissza kell térnem, hogy befejezzem az evolúciómat: kivetítem magam a számítógép belsejébe, és tiszta energiává válok. Miután letelepedett…
A Google DeepMind bemutatja mesterséges intelligencia modelljének továbbfejlesztett változatát. Az új, továbbfejlesztett modell nemcsak…
Az elegáns szintaxisáról és erőteljes funkcióiról híres Laravel szilárd alapot biztosít a moduláris architektúrához. Ott…
A Cisco és a Splunk segít ügyfeleinek, hogy felgyorsítsák útjukat a jövő Security Operations Center (SOC) felé…