A gépek háborújának etikai kérdései
(WSJ, Glóbusz) 2010.01.23. 11:40
Tanulmányok
A modern hadseregek egyre inkább igyekeznek robotokkal helyettesíteni a hús-vér katonákat. Az automaták számos feladatot hatékonyabban végeznek el az embereknél, ráadásul könnyen pótolhatók. Bevetésük azonban súlyos etikai kérdéseket is felvet - figyelmeztet Charles Levinson a Wall Street Journalban.
A világ fejlett haderői az elmúlt években jelentősen növelték a katonákat segítő vagy helyettesítő robotikus harci eszközök számát. Az automatizálásban azon országok járnak az élen, amelyek rendszeresen háborúznak, és van elég pénzük a modern technológiai vívmányok felhasználásra. Jelenleg a világ 40 országa rendszeresített valamilyen robotot. Az Egyesült Államok már több mint 7000 robotrepülőgépet és 12 000 földi robotjárművet állított hadrendbe. 2009-ben az amerikai légierő több robotrepülőgép-irányítót képzett ki, mint pilótát.
A hadsereg robotizálása terén Izrael jár a legelőrébb. Szakértők szerint 10-15 év múlva az izraeli fegyveres erők harmadát tehetik ki a robotok. A hadsereg vezetése szorgalmazza a gépesítést az emberi veszteségek csökkentése érdekében.
Amióta megszaporodtak a katonák elleni merényletek és a túszejtések, a gázai és a libanoni határőrizetben is részt vesz a Guardium elnevezésű páncélozott robot. A teherhordásra kialakított intelligens gépeket már a 2006-os libanoni háborúban is bevetették, Gázában pedig távirányítással működő buldózerekkel rombolták le a házakat. Izrael azt tervezi, hogy jövőre hadrendbe állhat a hanggal irányítható, kerekeken guruló Rex robot.
Katonai szakértők szerint a robotok elterjedésének komoly stratégiai következményei lesznek: a gépek bevetése megnehezíti a rajtaütésekkel és merényletekkel operáló gerillák dolgát.
A robotok hadrendbe állítása azonban etikai kérdéseket is felvet. Ha a hadsereg vezetésének nem kell az esetleges emberi áldozatokkal számolnia, akkor minden bizonnyal könnyebben indítanak támadást - figyelmeztet Levinson.
A mesterséges intelligencia további fejlődésével még ennél is komolyabb erkölcsi dilemmákra kell választ találni. A katonák a háborúban indulataiknak engedve, és az idő szorítása miatt gyakran etikai szempontból kifogásolható tettekre ragadtatják magukat. Vajon a rideg számítás alapján működő robot katonák humánusabbak lennének?
A mesterséges intelligenciát nem befolyásolják indulatok, ezért egyes tudósok úgy vélik, robotok hadrendbe állításával meg lehetne könnyíteni az erkölcsi szempontból nehéz döntéseket. Ezt vallja egyebek között Ronald Arkin, a Georgiai Műszaki Egyetem informatikusa, aki az amerikai hadsereg támogatásával olyan szoftver kidolgozásába kezdett, amely segíthet a katonáknak az erkölcsi szempontból problematikus döntések meghozatalában.
A robotok - érvel Arkin - nem félnek, és nem éreznek bosszúvágyat. Ha például a harci repülőgépekbe etikai döntésekre programozott robotokat építenek, akkor elkerülhető lehet a polgári lakosság elleni támadás. A számítógép feldolgozza az összes rendelkezésre álló információt, és ha úgy ítéli meg, hogy túl sok civil áldozattal jár a támadás, akkor megvétózhatja a pilóta döntését. Ha civilek tartózkodnak egy tank közelében, a robot nem engedélyezi a bombázást. A lakóház közelében tartózkodó terroristavezér elleni rakétatámadást viszont engedélyezi, feltéve, hogy nem túl magas a várható civil áldozatok száma.
A szkeptikusok szerint azonban a robotok - bármilyen gyorsan dolgozzák is fel az információkat - a közeljövőben aligha lesznek képesek kifinomult ítéletet hozni. Még akkor sem, ha az erkölcsfilozófusok és a katonák egyetértésre jutnának a háborúban alkalmazandó etikai elvekről.
Egy katona sokkal könnyebben megkülönbözteti az ellenséges fegyvereseket a civilektől, biztosabban ismeri fel a sérülteket és a magukat megadni kívánó ellenséges katonákat. A számítógép nem képes erre. Ráadásul az emberi érzelmek nem mindegyike sarkall erőszakra. Az empátia, a sajnálat, a könyörület, az önfeláldozás szintén emberi indulatok - a hideg számítás alapján döntő robotok az ilyen érzelmeket sem tudnák tekintetbe venni. Ezért etikai szempontból kétséges, hogy robotokra bízhatjuk-e az erkölcsi felelősséggel járó döntést.
|