Madeline volt az első
1959-ben történt mikor Madaline, az értelmi képességét felhasználva megoldott egy korábban leküzdhetetlen problémát: a telefonvonalak visszhangzását. Akkoriban ugyanis a távolsági telefonbeszélgetéseket gyakran tönkretette, hogy a hívó fél a saját hangját hallotta vissza minden egyes alkalommal, amikor beszélt.
Megoldotta a kérdést azáltal, hogy felismerte, mikor volt a bejövő jelzés ugyanolyan, mint a kimenő, majd pedig elektronikusan törölte azt. A megoldás olyan nagyszerű volt, hogy még ma is ezt használják. Természetesen Madaline nem ember volt, hanem amiről végül a rövidített nevét kapta: Multiple Adaptive LINear Elements (többfunkciós neurális processzáló elem). Ez volt az első eset, hogy mesterséges intelligenciát használtak fel valamilyen munkahelyen.
Manapság már széles körben elfogadott, hogy az eszes kis computerek a munkánk részei. Mielőtt befejezné az ember a reggeli pirítósát, ők már végeztek is az egész heti munkánkkal – s nincs szükségük se kávészünetre, se nyugdíjalapra, de még alvásra sem. S bár sokféle munkát a jövőben automatizálni fognak, a gépek ezen új fajtája inkább velünk együtt fog dolgozni, legalábbis rövidtávon.
Annak ellenére, hogy számos területen hihetetlen bravúrokat hajt végre, mint például a csalás megakadályozása annak megtörténte előtt, vagy a rák orvosoknál hamarabban történő felismerése, ennek ellenére még a legfejlettebb mesterséges intelligenciák sem közelítik meg az emberi intelligenciát.
Egy 2017-es jelentés szerint, a jelenlegi technológiával a szakmáknak csak az 5%-át lehetne teljesen automatizálni, míg 60%-ukban a feladatok durván egyharmadát vehetnék át a robotok. S azt is fontos szem előtt tartani, hogy nem mindegyik robot használ mesterséges intelligenciát – néhányuk igen, sokuk nem. A baj az, hogy maga az a korlát, amely meggátolja azt, hogy azok a robotok, melyek mesterséges intelligenciát használnak, átvegyék a világ irányítását, borzasztóan frusztrált kollégákká is teszi őket egyben. Emellett képtelenek arra, hogy meghatározzák a saját céljaikat, problémákat megoldjanak, vagy hogy a józan paraszti eszüket használják. A munkaerő ezen új generációjából hiányoznak tehát ezek a képességek, amiket még a leggyengébb képességű emberek is könnyen alkalmaznak.
Így hát álljon itt néhány szempont, amit majd tudnunk kell arról, hogy mire számíthatunk a robotkollégákkal végzett munka során:
Első szabály: A robotok nem ember módjára gondolkoznak
Akkoriban, mikor Madaline forradalmasította a távolsági hívásokat, a magyar-angol filozófus Michael Polányi maximális erőbedobással kutatta az emberi intelligenciát. Polányi felismerte, hogy míg néhány képesség, mint például a pontos nyelvtan használata, könnyen szabályokra bontható és másoknak elmagyarázható, addig sok dolog nem így működik.
Az emberek az ún. hallgatólagos képességeket anélkül teszik, hogy tudatában lennének velük. Polányi szavaival „többet tudunk, mint amennyit el tudunk mondani“. Ez magába foglalhat olyan gyakorlati képességeket, mint a biciklizés, tésztagyúrás, éppúgy, mint magasabb szintű feladatvégzéseket is. Azonban ha nem tudjuk a szabályait, nem tudjuk azokat egy computernek megtanítani sem. Ez a Polányi-féle paradoxon.
Ahelyett, hogy megpróbálnánk az emberi gondolkodást modellezni, a számítástechnika-tudósok inkább abba az irányba indultak, hogy a mesterséges intelligencia egy teljesen más módon működjön – adatok irányítják és befolyásolják a gondolatokat.
Madalinehoz hasonlóan, sok mesterséges intelligencia egy „neurális hálózat“, ami azt jelenti, hogy matematikai modelleket használnak fel arra, hogy nagy mennyiségű adat elemzésével tanuljanak. Például a Facebook a DeepFace arcfelismerő szoftverét egy négymillió fényképes mintavétel sorozatán alapulva fejlesztette ki. Azáltal, hogy hasonlósági mintákat keresett olyan képeken, amikre azt mondták, hogy ugyanaz az ember, végülis 97% körüli pontossággal megtanult arcokat összepárosítani.
A DeepFacehez hasonló mesterséges intelligenciák a Szilícium-völgy új sztárjai, amik már lepipálják alkotóikat autóvezetésben, hang-felismerésben, szövegek egyik nyelvről a másikra fordításában és fotók felcímkézésében. A jövőben számos területen várható, hogy egyre inkább alkalmazásra kerülnek, az egészségügytől kezdve a pénzügyekig.
Második szabály: A mi új robot-barátaink sem csalhatatlanok. Ők is hibáznak
Az adatok által vezérelt megközelítés azt jelenti, hogy látványos melléfogásaik lehetnek. Mint amikor egy ilyen típusú intelligencia egy 3D-s teknős nyomtatásakor azt a következtetést vonta le, hogy az egy puska. A programok nem tudnak életszerűen gondolkodni, olyan sorok mentén, mint pl. „héja van és páncélja, így hát lehet az egy teknős is“. Helyette minták formájában gondolkodnak – s ebben az esetben vizuális mintákban, pixelekben. Következésképp egy kép egyetlen pixelének megváltoztatása nagyon furcsa dolgokat eredményezhet.
Ez azt is jelenti, hogy nincs praktikus intelligenciájuk, ami pedig döntő egy munkahelyen, s megköveteli, hogy a létező tudásunkat „elővegyük“ s felhasználjuk az egyes új szituációkban.
Egy klasszikus példa erre a DeepMind mesterséges intelligencia; még 2015-ben azt mondták, hogy amíg jól megy, játsszuk a klasszikus Arcade Pong ütögetős játékot. Ahogy remélték, csak órák kérdése volt, hogy megverte az embereket, sőt még teljesen új nyerési módszereket is kifejlesztett. De ahhoz, hogy jól szerepeljen a gyakorlatilag ugyanilyen Breakout játékban, a mesterséges intelligenciának gyakorlatilag a nulláról kellett építkeznie.
Harmadik szabály: A robotok nem tudják megmagyarázni, hogy miért hoztak meg egy döntést
A MI-val a harmadik probléma a modern Polányi paradoxon. Mivel mi sem teljesen értjük, hogy a saját agyunk hogyan is tanul, helyette úgy hoztuk létre a mesterséges intelligenciát, hogy statisztikusok módjára gondolkodjon. Ebben az az ironikus, hogy nagyon kevés elképzelésünk van arról, hogy egyáltalán mi történik belül a MI agyában. Így hát két csoportja van az ismeretlennek.
Általában ezt hívják a „fekete doboz problémának“, mert bár tudja az ember, hogy milyen adatot táplált be, s látja a kijövő eredményt, mégsem tudja, hogy az előtte lévő egység hogyan jutott erre a következtetésre. „Most aztán kétféle típusú intelligenciával van dolgunk, amit nem igazán értünk“ – mondja Caruana.
A neurális hálózatoknak nincsenek nyelvi képességeik, így tehát nem tudják elmagyarázni nekünk, hogy épp mit tesznek, s miért. S mint az összes mesterséges intelligenciának, nincsenek gyakorlati megoldási módjaik.
Néhány évtizeddel ezelőtt Caruana egy neurális hálózatot használt fel néhány egészségügyi adathoz. Ez olyan dolgokat foglalt magában, mint különféle tünetek és következményeik, s az volt a szándéka, hogy kikalkulálhassa bármely adott napon minden egyes beteg halálozási rizikóját, hogy az orvosok megelőzési intézkedéseket tehessenek. Úgy tűnt, hogy mindez jól működik, míg egy éjjel a Pittsburgh-i Egyetem egyik végzős hallgatója valami furcsa dolgot nem észlelt. Ugyanazokat az adatokat hasonlította össze egy egyszerűbb algoritmussal, s így láthatta a döntéshozó logikát sorról sorra. Ezek közül az egyikben az volt olvasható, hogy „jót tesz önnek az asztma, ha ön tüdőgyulladásban szenved.“
Az asztma a tüdőgyulladás kialakulásának egy súlyos rizikófaktora, mivel mindkettő a tüdőre hat. Viszont valószínűleg sohasem fogjuk megtudni, hogy miért tanulta a gép ezt a szabályt, de egy elmélet szerint, ha a betegek asztmatikus előélettel valamikor tüdőgyulladást kapnak vagy olyan jellegű tünetekben szenvednek, hamarabb elmennek az orvoshoz. S ez esetleg mesterségesen feltornázza a túlélési rátájukat.
„Mostanság jelentős fejlesztések folynak annak megállapítására, hogy milyen pontosak lehetnek ezek a rendszerek” – mondja David Gunning, aki a Darpa-beli projektet felügyeli.
Negyedik szabály: A robotok elfogultak lehetnek
Növekvő aggodalom, hogy néhány algoritmus esetleg leplezi a véletlenszerű elfogultságot, mint amilyen a diszkrimináció vagy a rasszizmus. Például nemrég egy szoftverprogram esetében – melyet azzal a feladattal láttak el, hogy állapítsa meg, egy elítélt bűnöző valószínűsíthetőleg újra megszegi-e a törvényt – azt figyelték meg, hogy az kétszer olyan szigorúan járt el a feketékkel szemben.
Ez mind azon múlik, hogy hogyan tanítják nekik az algoritmusokat. Ha a beléjük táplált adatok helytállóak, akkor a döntéseik is nagy valószínűséggel helyesek lesznek. De gyakran vannak már beágyazott emberi részrehajlások. Egy szembeötlő példa, ami meglátható a Google fordítóban. Amint egy kutató tudós tavaly a Medium magazinban rámutatott, ha angolról magyarra fordítjuk a „He is a nurse. She is a doctor. Ő(hímnem) egy ápoló. Ő(nőnem) egy orvos.“ mondatokat, aztán vissza angolra, az algoritmus az ellentétes mondatot fogja kiadni: „She is a nurse. He is a doctor. Ő(nőnem) egy ápolónő. Ő(hímnem) egy orvos.“
Az algoritmust kb. 1 billió weboldalról való szöveggel képezték. De mindaz, amit tenni tud, csak az, hogy keresi a mintázatokat mint pl. hogy az orvosok nagy valószínűséggel férfiak, az ápolónők nagy valószínűséggel nőneműek.
Összegzés
A robotok már itt vannak, és örökre meg fogják változtatni a munka világát. De amíg ők egy kicsit emberszerűbbé nem válnak, szükségük van ránk maguk mellett. S hihetetlen, de úgy tűnik, az új robot kollégáink mellett még jól is nézünk ki.
Fordította: Laczó Beatrix Forrás: bbc.com