2016. november 30., szerda

A technológiai szingularitás

Technológiai szingularitásnak nevezzük a mesterséges intelligencia esetleges megalkotása után létrejövő technikai fejlődésnek azt a véges időn belül bekövetkező szinguláris pontját, amikor az emberi intelligencia és technika felfoghatatlan mértékben válna túlhaladottá. Ez a feltételezett intelligenciarobbanás azon alapszik, hogy egy biológiai korlátoktól mentes emberi szintű mesterséges intelligencia, amely önmagát szabadon tudja fejleszteni, a visszacsatolás miatt véges idő alatt tudna magának lényegében akármilyen nagy számítási teljesítményt fejleszteni.

Gondoljunk végig, hogy mi történne akkor, ha a kutatást emberek helyett már az emberi gondolkodást teljes mértékben helyettesíteni képes intelligens gépek végeznék, amik egyúttal maguk is kutatások és fejlesztések tárgyai, azaz elviekben memóriájuk tovább bővíthető, algoritmusaik hatékonysága és sebessége növelhető, számuk sokszorozható, energiafelhasználásuk csökkenthető, és így tovább. Ha korábban az embereknek a technikai fejlődés által például két évente sikerült a számítási teljesítményt megduplázniuk, akkor az őket helyettesítő gépeknek is ennyire lesz szükségük kezdetben. A második év után azonban a megnövelt számítási teljesítménnyel rendelkező gépeknek fele ennyi idő is elég lesz az újabb duplázáshoz, a rákövetkező gépgenerációnak pedig ennek a fele, és így tovább.

Az ultraintelligens gépek tehát hamar maguk mögött hagynák az ember intelligenciáját, emiatt az ultraintelligens gép lenne az utolsó találmány, amit az embernek létre kéne hoznia. Így fogalmazott I. J. Good már 1965-ben. Raymond Kurzweil közismert jövőkutató, feltaláló és mesterséges intelligencia kutató A spirituális gépek kora és A szingularitás küszöbén című könyvek szerzője a szingularitás elérését 2045-re jósolja. A dátum relatíve közelinek tűnik, de Kurzweil szerint ez a fejlődés érzékelésének lineáris ütemű illúziója miatt van, miközben a valóságos fejlődés exponenciális ütemű. Ennek megfelelően a 21. században nem 100 évnyi, hanem a jelenlegi ütemben mérve, 20000 évnyi fejlődést fogunk megtapasztalni.

Kurzweil jóslatának alapja az exponenciális ütemű fejlődés, ez vezethet viszonylag rövid időn belül a mesterséges intelligencia és a szingularitás eléréséhez. Ilyen exponenciális fejlődést tapasztalunk a technika számos területén. A legismertebb a Moore-törvény, amely szerint az integrált áramkörök összetettsége 18 hónaponként megduplázódik. De hasonló exponenciális ütemű fejlődés érvényes a számítási sebességre, vagy a chipek méretére is. Nagyjából évtizedenként minden lineáris méret a negyedére csökken. Az exponenciális javulás továbbá érvényes egységnyi költségre vonatkoztatva is, vagyis mindent egybevéve exponenciálisan nő az egy dollárra jutó számítási kapacitás.

Egyesek ellenvetése lehet, hogy a fejlődésnek fizikai korlátai vannak, de Kurzweil rámutat arra, hogy ettől nagyon távol vagyunk. Egy adott technikai megoldásra persze mindig érvényesek a fizikai korlátok, de a fejlődés során újabb és újabb technikai megoldások kerülnek elő. A fenti exponenciális ütemű fejlődés különféle technológiákon és paradigmákon kersztül érvényes, lásd ábra. Sőt Kurzweil amellett érvel, hogy igazából még az exponenciális kitevője is exponenciálisan növekszik, tehát a fejlődés még ennél is gyorsabb lesz, lásd a felfele görbülő trendet a logaritmikus ábrán. Személy szerint egyébként abból, hogy nincsenek olyan technológiai ugrások, amik nem illeszkednek a trendbe, azt a következtetést vonom le, hogy amíg nincsenek fizikai korlátok, addig a trend hajtórugója valójábana a gazdasági fejlődés, ami mindig ki fogja termelni az újabb megoldásokat.

Mások ellenvetése az lehet, hogy bár nő a számtási kapacitás, az intelligencia megjelenése minőségi változást feltételez. Mi van akkor, ha a hardver exponenciálisan fejlődik, de ezt a szoftverről nem mondhatjuk el? Ez utóbbi fejlődését valóban nehéz kvantifikálni, de ugyancsak Kurzweil becsli a szoftverfejlesztés produktivitásának megkettőződési idejét, mégpedig körülbelül hat évre. Ugyanakkor azt is mondhatjuk, hogy nincs is szükség ultraokos szoftvert kitalálni. Ha az emberi agy által végzett algoritmusoknál tudunk majd jobbat alkotni, az persze előnyös, de abban az esetben, ha csak lemásoljuk szolgaian az emberi agyat, vagyis szimuláljuk a működését neuronális szinten, az is elegendő. Lényegében ebből a célból indították mostanában a hatalmas költségvetésű amerikai és európai agykutatási projekteket.

Az exponenciális fejlődés pedig az agykutatásra is elmondható. A képalkotó eszközök tér- és időbeli felbontása évente megduplázódik nem invazív és invazív eljárásokra egyaránt. A képalkotás sávszélessége, az ár-teljesítmény arány és a képrekonstrukció sebessége szintén exponenciálisan javul az idővel. Az agyból szerzett információk adatbázisának nagysága szintén duplázódik évente, a tudományterületen dolgozó tudósok számáról már nem is beszélve.

A szingularitáskritikák három csoportra oszthatók. Egyesek megkérdőjelezik az exponenciális trendek jövőre való kivetíthetőségét. Erről már beszéltünk, de ha nem is lenne pontos az exponenciális becslés, véleményem szerint legfeljebb pár évtized tévedést okozhat. Mások az emberivel egyenértékű mesterséges intelligencia létrehozásának lehetőségében kételkednek, ők valószínűleg azt feltételezik, hogy az agy több, mint a fizikai törvények által leírható objektum. Szintén mások, bár úgy hiszik, hogy a szingularitás lehetséges, azt veszélyesnek és elkerülendőnek tartják, bár én azt gondolom a technikai fejlődést mesterségesen megakadályozni nem lehet. Kurtzweil azonban amellett is érvel, hogy a mesterséges intelligencia eljövetele, nem egy szeparáltan alkotott gép formájában jön el, hanem mi magunk fogunk fokozatosan átalakulni, a nanotechnológia és biotechnológia segítségével. Ilyen forgatókönyv mellett pedig csak az a kérdés, hogy kell-e majd magunktól félnünk.

Azt gondolom azonban, hogy végeredményben a legfőbb akadály egyáltalán nem technikai jellegű. Az a kérdés, hogy ez az egész bekövetkezik-e azelőtt, mint hogy az egész emberiség jelentős válságba kerülne, amely jelentősen visszaveti a technikai civilizációt és akár túlélésünket is veszélyezteti. Gondolhatunk itt például globális klíma katasztrófára, világháborúra, gazdasági válságokra, vagy világméretű járványokra, melyek mindegyikének reális veszélye van.

2 megjegyzés:

  1. Vagy az amerikai elnokvalasztasra... Amugy en jobban felnek a kiborgoktol, mint az intelligens szamitogepektol, de szerintem szerencsere az utobbiak eselyesebbek. Amire kivancsi vagyok, hogy milyen tarsadalmi berendezkedest tartanak majd igazsagosnak. Szerintem komcsik lesznek.

    VálaszTörlés
  2. Szerintem a Liska-modellhez hasonló felé fognak tartani.

    VálaszTörlés