Robo-etika i obavještajna zajednica

Autor: dr. Patrick Lin

Preveo: Jimbo

Prošli mjesec filozof Patrick Lin je ponio izvještaj o etici robota na skupu koji je organizirao In-Q-Tel, tvrtka pod CIA-om. Izvještaj je temeljit i potresan za obavještajne službe koje se odluče za razvijanje različitih vrsta robota.

 

Roboti zamjenjuju ljude na bojišnici – ali mogu li oni također biti podvrgnuti ispitivanju i mučenju?  U tom slučaju zaobišao bi se ozbiljni etički konflikt između liječnikove dužnosti da nikome ne našteti i njihove upitne uloge pri nadzoru životnih znakova i zdravlja ispitanika. S druge strane, Hipokratova zakletva se ne bi odnosila na robota, iako sama njegova egzistencija postavlja nove dileme.

Etika vojnih robota se brzo razvija, ako je suditi po vijestima i akademskim istraživanjima. Ipak, malo se raspravlja o robotima u službi nacionale sigurnosti i špijunaže, sveprisutnim aktivnostima u pozadini. Iznenađujuće, ako se uzme u obzir da se većina vojnih robota koristi za nadzor i izviđanje, a trag njihovih najkontroverznijih aktivnosti vodi do Središnje Obavještajne Agencije (CIA) – kada su korišteni u ciljanim udarima protiv osumnjičenih terorista. Ovaj mjesec se letjelica CIA-e – RQ-170 Sentinel – srušila i netaknuta dopala u ruke Iranca čime je otkriven dio američkog špijunskog programa u nestabilnoj regiji.

Američka obavještajna zajednica je zasigurno jako zainteresirana za etiku robota. U najmanju ruku, ne žele biti podvrgnuti javnoj kritici budući da bi to moglo otežati razvoj programa, rasipati sredstva i otežati međunarodnu potporu. Mnogi u vladi i politici se također istinski brinu oko „činjenja ispravne stvari“ i utjecaja vojne tehnologije na društvo. Shodno tome, In-Q-Tel – tvrtka CIA-e („Q“ je ‘hommage’ geniju za tehnološke naprave iz James Bond filmova) – me je pozvala da podnesem izvještaj obavještajnoj zajednici o etičkim iznenađenjima u njihovom djelokrugu koji premašuju poznate brige oko narušavanja privatnosti i ilegalnih atentata. Ovaj članak se temelji na tom izvještaju, i iako se pozivam uglavnom na američku obavještajnu zajednicu, ova rasprava se također može odnositi i na programe u inozemstvu.

Pozadina

Robotika je područje koje mijenja pravila igre u nacionalnoj sigurnosti. Danas nalazimo vojne robote u gotovo svakom okružju: zemlji, moru, zraku, čak i u svemiru. Oni su u svim formama – od sićušnih robota koji podsjećaju na insekte do letjelica s rasponom krila većim od Boeinga 737. Neki su učvršćeni na bojne brodove, dok drugi patroliraju granice u Izraelu i Južnoj Koreji; ovi su u potpunosti u samostalni i mogu donositi vlastite odluke vezane za ciljanje i napad. Zanimljiv razvoj događa se s mikro robotima, robotima u rojevima, humanoidima, kemijskim robotima i biološko-mehaničkim integracija. Kao što očekujete, vojni roboti imaju bijesna imena poput: TALON SWORDS (Kandža-mačevi), Crusher (drobilica), BEAR (medvjed), Big Dog (veliki pas), Predator, Reaper (žetelac), Harpy (grabljivac), Raven (gavran), Global Hawk (globalni orao), Vulture (lešinar), Switchblade (skakavac [nož]), itd. Ali nisu svi oružja – npr., BEAR je konstruiran da izvlači ranjene vojnike s bojišnice.

Uobičajeni razlog zbog kojeg želimo koristiti robote u službi nacionalne sigurnosti i obavještajnog rada je taj što oni mogu obavljati poslove koji se označavaju kao 3 „D“: Glupi (Dull) poslovi, poput dugotrajnih izviđanja ili patroliranja koja nadilaze ljudsku izdržljivost i stajaćih straža na rubovima obrane; prljavi (dirty) poslovi, poput rada s opasnim materijalima i rada poslije nuklearnih i biokemijskih napada, i u okolini neprikladnoj za ljude, poput podmorja i svemira; i opasni (dangerous) poslovi, poput prokopavanja tunela u špiljama terorista, ili kontroliranja neprijateljski nastrojene svjetine, ili čišćenja improviziranih eksplozivnih uređaja (IED).

Ali sada postoji novo, četvrto „D“, koje treba uzeti u obzir, a to je mogućnost da se djeluje nepristrano (ovo je motivirano radom profesora Ronalda Arkina s Georiga Techa, dok su neki drugi skeptični poput prof. Noela Sharkeya s Sveučilišta Sheffield u Ujedinjenom Kraljevstvu). Roboti ne bi djelovali zlonamjerno ili iz mržnje ili iz bilo koje emocije koja bi mogla dovesti do počinjenja ratnog zločina i drugih zlostavljanja, poput silovanja. Na njih ne djeluju ni emocije, ni adrenalin, niti glad. Imuni su na nedostatak sna, nizak moral, umor i druge stvari koje bi pomutile našu prosudbu. Oni mogu vidjeti kroz „maglu rata“ i smanjiti nezakonita i slučajna ubojstva. I oni mogu biti objektivni, „hladni“ promatrači koji osiguravaju etičko ponašanje u ratu. Stoga roboti mogu raditi mnoge naše poslove bolje nego mi, a možda se mogu ponašati i moralnije, barem u vrlo stresnom okružju rata.

Scenarij

S ovom pozadinom pogledajmo trenutne i buduće scenarije. Oni nadilaze očiti obavještajni rad, nadzor i izviđanje (ISR), napad i stražarske upotrebe, kako se danas većina robota upotrebljava. Ograničiti ću ove scenarije u raspon do 10-15 godina od sada.

Vojna upotreba u nadzoru je poznata, ali također postoji i važna upotreba u civilnom sektoru, poput robota koji patroliraju igrališta zbog pedofila (npr., u Južnoj Koreji) i velike sportske događaje zbog mogućih sumnjivih aktivnosti (poput Svjetskog Prvenstva 2006. u Seolu i Olimpijskih Igara 2008. u Pekingu). Trenutne i buduće biometrijske mogućnosti mogu robotima omogućiti da prepoznaju lica, droge i oružja na udaljenostima i ispod odjeće. U budućnosti bi se za ovog mogli koristi rojevi robota i „pametna prašina“ (koja se ponekad naziva nanosenzori).

Roboti se također mogu koristi u cilju uzbunjivanja, poput humanoidnog policijskog robota u Kini koji daje informacije i ruskog policijskog robota koji recitira zakone i izdaje upozorenja. Stoga postoji potencijal za edukacijske i komunikacijske uloge za direktan rad na terenu, povezan s prikupljanjem obavještajnih podataka.

U dostavljačkoj upotrebi, SWAT policijski timovi već sada koriste robote koji su u interakciji s otmičarima ili u drugim opasnim situacijama. Tako se roboti mogu koristi da dostave druge predmete ili da postave nadzorne uređaje na nedostupna mjesta. Slično tome, mogu se također koristi i za izvlačenje. Kao što je ranije spomenuto, BEAR robot može izvući ranjenog vojnika s bojišnice, kao što može rukovati s opasnim ili teškim materijalima. U budućnosti autonomni automobil ili helikopter mogao bi se koristiti da izvuče ili preveze osumnjičenike, čime bi se smanjilo američko osoblje unutar neprijateljskih ili stranih područja.

U zatvorskoj upotrebi, roboti bi se mogli koristi ne samo da čuvaju zgrade nego i ljude. Neke od mogućnosti ovdje bile bi eliminacije zatvorskih zloupotreba poput onih koje smo vidjeli u Guantanamu na Kubi ili Abu Ghraibu u Iraku. Ovo pokazuje nepristrani način na koji roboti mogu djelovati. Vezano uz to – a time ne zagovaram niti jedan od ovih scenarija, samo nagađam o mogućim upotrebama – roboti mogu riješiti dilemu upotrebe liječnika u ispitivanjima i mučenjima. Ove aktivnosti narušavaju njihovu dužnost da skrbe i Hipokratovu zakletvu da ne škode. Roboti mogu pratiti znakove života ispitivanih subjekta poput ‘ljudskog’ liječnika. Oni također mogu davati injekcije ili čak nanositi bol kontroliranije, bez zloupotrebe i predrasuda koje mogu prevršiti vjeru (ili još više ako je već prevršena).

Također roboti mogu djelovati poput Trojanskog konja – poklona sa skrivenim iznenađenjem. Govorit ću o ovim scenarijima, kao i drugim nakon što raspravim moguća etička iznenađenja.

Iznenađenja u primjeni i etici

1.      Ograničenja

Dok se roboti mogu smatrati kao zamjena za ljude, u većini situacija ljudi će i dalje biti u petlji, ili u najmanju ruku na početku petlje – ili u značajnoj kontroli robota, ili u izmjeni aktivnosti robota. Također će roboti najvjerojatnije biti u interakciji s ljudima. Ovo ukazuje na moguću slabu kariku u primjeni – ljudski faktor.

Npr.,  bespilotne letjelice (UAV – unmanned aerial vehicles), poput Predatora i Global Hawka su možda u mogućnosti da lete duže nego što bi mogao čovjek izdržati, ali i dalje postoje ljudski operatori koji moraju biti na oprezu da prate njihove aktivnosti. Moguće je da operatori UAV-a budu premoreni što može dovesti do pogreške u prosudbi. Čak i bez umora ljudi i dalje mogu donositi loše odluke, a takve pogreške i štete uvijek mogu dovesti do kolateralne štete (smrti od prijateljske vatre) i do sudara.

Neki kritičari su zabrinuti da bi UAV operatori – koji kontroliraju robote s drugog kraja svijeta – mogli postati otuđeni i time manje mariti o ubojstvima, upravo zbog udaljenosti, a to onda može voditi ka neopravdanim udarima i kolateralnoj šteti. Ali drugi izvještaji naznačuju upravo suprotan efekt: ovi operateri imaju prisan pogled na svoje mete preko video streaminga, prateći ih satima i danima, a također mogu i vidjeti posljedice udara, koji mogu uključivati i dijelove tijela djece u blizini. Stoga postoji realan rizik od posttraumatskog stresnog poremećaja (PTSP) za ove operatore.

Druga stvar u pitanju odgovornosti je to kako ćemo predstaviti upotrebu robota javnosti i međunarodnoj zajednici. U nedavnom intervjuu, jedan američki vojni dužnosnik je govorio o pitanju lakšeg vođenja rata robotima, ako se uzme u obzir da možemo lakše izvršavati udare sa većih razdaljina. On je usporedio jednog našeg robota sa slikom iz biblije – Davidova pračka protiv Golijata: i jedno i drugo vezano je uz korištenje projektila ili dalekometnih oružja, kao i pretpostavka da je pravednost na njihovoj strani. Bilo da ste kršćanin ili ne, jasno je da naši neprijatelji možda nisu. Takva retorika stoga može biti zapaljiva ili može podići napetosti, a to se negativno odražava na našu tehnologiju.

Još jedna ljudska slaba karika je ta da roboti najvjerojatnije imaju bolju percepciju situacije, ako su opremljeni senzorima koji im omogućuju da vide u mraku, kroz zidove, umreženi s drugim računalima, itd. Ovo postavlja slijedeće pitanje: Može li robot ikada odbiti čovjekovu naredbu, ako zna bolje? Npr., ako čovjek izda robotu naredbu da puca u metu ili da uništi sigurnu kuću, a ispostavi se da je robot identificirao mete kao djecu ili sigurnu kuću punu civila, da li bi on mogao odbiti naredbu? Da li nas tehnička mogućnost da prikupljamo bolje obavještajne podatke prije izvršenja udara obvezuje da učinimo sve što je moguće da dođemo do tih podataka? Tj., da li bi smo bili odgovorni za ono što ne znamo a mogli smo znati da smo koristili robote za prikupljanje obavještajnih informacija? Slično tome, uzimajući u obzir da UAV-i mogu izvršavati preciznije napade, da li smo obvezni koristi ih da minimaliziramo kolateralnu štetu?

S druge strane, sami roboti bi mogli biti slaba karika. I dok nas mogu zamijeniti u fizičkim poslovima poput podizanja teškog tereta ili rada s opasnim materijalima, ne čini se vjerojatnim da mogu preuzeti psihološke poslove poput pridobivanja povjerenja agenta, koje u sebi uključuje humor, zrcaljenje i ostale socijalne trikove. Stoga ljudski obavještajni faktor ili HUMINT (human inteligence) će biti i dalje potreban u doglednoj budućnosti.

Vezano uz to, već sada čujemo kritike vezane za upotrebu tehnologije u ratu ili mirovnim misijama koje govore da nam tehnologija ne pomaže da pridobijemo povjerenje lokalne strane populacije. Npr., slanje robotske patrole u Bagdad da održava red može poslati lošu poruku vezanu za našu spremnost da se povežemo s građanima; za to još uvijek trebamo ljudsku diplomaciju. U ratu ovo se može okrenuti protiv nas, tako što nas neprijatelji mogu proglasiti nečasnim i kukavicima jer ne želimo stupiti s njima u borbu prsa o prsa. Njima to može poslužiti da budu odlučniji u svojoj borbi protiv nas; rasplamsava njihovu propagandu i unovačuje nove vojnike što posljedično vodi do novog soja odlučnih terorista.

Također je moguće da se roboti ne shvaćaju ozbiljno u interakciji s ljudima. Mi imamo tendenciju da omalovažavamo strojeve više nego ljude, često ih zlostavljajući, npr., kada udaramo printere i računala kada nas iznerviraju. Stoga bi mogli biti nestrpljivi i s robotima, a i nepovjerljivi – a to onda smanjuje njihovu učinkovitost.

Bez obrane, robote bi se lako moglo zarobiti, time više što mogu sadržavati ključne tehnologije i tajne podatke za koje ne bi željeli da padnu u krive ruke. Robotske mjere za samo-uništenje bi se mogle aktivirati u krivo vrijeme na krivom mjestu što može dovesti do ozljeda ljudi i time do međunarodne krize. Trebamo li im stoga dati obrambene mogućnosti, poput odstupajućih manevara ili možda nesmrtonosna oružja poput odbijajućih sprayeva, elektro-šokera ili gumenih metaka? Ipak, bilo koja od tih „nesmrtonosnih“ mjera mogli bi biti smrtonosna. Prilikom bijega robot bi mogao pokositi malo dijete ili neprijatelja, što bi moglo dovesti do eskalacije krize. Također danas vidimo preveliki broj izvještaja o nenamjernim usmrćenjima koja su počinjena šokerima ili drugim navodno nesmrtonosnim oružjima.

2. Međunarodno humanitarno pravo (MHP)

Što ako konstruiramo robote sa smrtonosnom obranom ili obrambenim mogućnostima? To već sada imamo na nekim robotima, poput Predatora, Repaera, CIWS-a i drugih. I ovdje opet ulazimo u poznatu problematiku, a to je da roboti nisu u skladu s međunarodnim humanitarnim pravom, tj., zakonu rata. Npr., kritičari su primijetili da ne bi trebali dozvoliti robotima da donose samostalne odluke (kao što neki danas rade), zato što nemaju tehničke mogućnosti razlikovanja boraca od civila, tj., da zadovolje princip razlikovanja koji se može naći na raznim mjestima poput Ženevske Konvencije i osnovne tradicije pravednog ratovanja. Ovo pravilo zahtjeva da nikada ne ciljamo civile. Ali robot već sada teško može razlikovati teroristu koji je u njega uperio oružje od, recimo, djevojčice koja je u njega uperila sladoled. Danas se čak i ljudi teško nose s ovim pravilom budući da terorist može izgledati jednako poput afganistanskog pastira s kalašnjikovom koji samo čuva svoje stado koza.

Drugi problem je u tome da li upotreba smrtonosnih robota predstavlja neproporcionalnu upotrebu sile u odnosu na vojni zadatak. Ovo se odnosi na kolateralnu štetu ili nenamjerne smrti nedužnih civila u blizini koje može izazvati, npr., Hellfire raketa lansirana s Reaper UAV-a. Koji je prihvatljivi omjer za svakog nedužnog ubijenog u odnosu na ubijenog zločinca: 2:1, 10:1, 50:1? Ovaj broj nikad nije bio utvrđen i još uvijek je izvor kritika. Zamislivo je da bi mogao postojati tako visok cilj u kojem bi omjer kolateralne štete bio 1,000:1 , ili veći i da bi to bilo prihvatljivo za nas.

Čak i ako bi mogli riješiti ove probleme, postoje drugi koji bi nas trebali zabrinjavati. Pretpostavimo da smo u mogućnosti napraviti robota koji cilja samo borce i koji ne pravi nikakvu kolateralnu štetu – naoružani robot sa savršeno preciznim ciljničkim sustavom.  Ipak, koliko god bilo čudno, ovo bi moglo narušiti pravilo Međunarodnog odbora Crvenog križa (ICRC), koje brani oružja koja uzrokuju više od 25% smrtnosti na terenu i 5% smrtnosti u bolnicama. ICRC je jedina institucija koja ima kontrolirajući autoritet u MHP-u, stoga se podvrgavamo njihovim pravilima. Robot koji ubija gotovo sve što nacilja bi mogao imati razinu usmrćenja do 100% što je višestruko iznad ICRC-ovog praga od 25%.  A to je moguće ako se uzme u obzir mogućnost nadljudske preciznosti strojeva, opet uzimajući u obzir da bi mogli eventualno riješiti problem prepoznavanja. Takav robot bi bilo neustrašiv, nehuman i razoran da bi ugrozio vrijednost poštene borbe, čak i u ratu. Npr., otrov je uvijek zabranjen zato što je nehuman i suviše efektan. Pojam pravedne borbe proizlazi iz teorije pravednog ratovanja, koja je temelj MHP-a. Nadalje, takva vrsta robota bi dovela do pitanja o etici kreiranja strojeva koji samostalno ubijaju.

Druge konvencije u MHP-u se također mogu odnositi na robotiku. Dok razvijamo poboljšanja za vojnike, bilo da se radi o farmaceutskim ili robotskim integracijama, nejasno je da li smo upravo razvili biološko oružje. Konvencija o biološkom oružju (KBO) ne određuje da li su biološka oružja mikrobiološka ili patogena. Stoga, teoretski, i bez dodatnog razjašnjenja, kiborg sa super-snagom ili super-izdržljivošću bi se mogao smatrati biološkim oružjem. Naravno, namjera KBO-a je zabrana različitih oružja za masovno uništenje (opet, u vezi s humanim oružjima). Ali nejasni jezik KBO-a otvara vrata za ovu kritiku.

Kada govorimo o kiborzima, postoje mnoga pitanja vezna za ove poboljšane ratnike, npr.: Ako vojnik može izdržati bol preko robotike ili genetskog inženjeringa ili droga, da li nam je i dalje zabranjeno da ga mučimo?  Da li bi se uništavanje robotiziranog zgloba smatralo mučenjem? Vojnici se ne odriču svih svojih prava kada su unovačeni: kakav je potreban pristanak, ako ikakav, da se provode biomedicinski pokusi na vojnicima, poput kibernetičkih istraživanja. (Slično poput prošlih kontroverzi vezanih za obvezno cijepljenje protiv bedrednice, ili čak i sadašnjih poput obaveznog korištenja amfetamina za neke vojne pilote). Da li poboljšanja opravdavaju različit tretman prema vojnicima u odnosu prema obvezama, napredovanjima ili trajanju službe? Kako se to odnosi na zajedništvo jedinice ako unaprijeđeni vojnici, koji se izlažu većem riziku, rade zajedno s normalnim vojnicima? Da se vratimo više na robotiku: Kako se to odnosi na zajedništvo jedinice ako ljudi rade zajedno s robotima opremljeni kamerama da zabilježe svaku njihovu akciju?

Ili da se vratimo još više na obavještajnu zajednicu, linija između rata i špijunaže je sve nejasnija. Povijesno gledano, špijunaža se nije smatrala casus belli, odnosno dobar razlog ulaska u rat. Rat se tradicionalno definira kao oružani, fizički konflikt između političkih zajednica.  Ali budući da je mnoga naša aktiva digitalno ili informacijski bazirana, mi možemo napasti i biti napadnuti ne-kinetičkim sredstvima sada, najviše kiber-oružjima koja mogu srušiti naše računalne sustave ili ukrasti informacije. Zaista, ranije ove godine, SAD je proglasio kao dio svoje kiber-politike da možemo kintetički uzvratiti na ne-kinetičke napade. Ili kao što je rekao jedan dužnosnik američkog ministarstva obrane: „Ako nam srušite električnu mrežu, mi ćemo vam možda spustiti projektil niz dimnjak.“

Kao što se odnosi na naš fokus ovdje: ako linija između špijunaže i rata postaje sve mutnija, a roboti se koriste za špijunažu, pod kojim okolnostima se to može smatrati ratnim činom? Što ako špijunski robot, dok pokušava izbjeći zarobljavanje slučajno povrijedi stranog državljanina: može li to biti povod za oružani sukob? (Što da je CIA-in robot koji se nedavno srušio u Iranu pao na kuću ili vojnu bazu i da je ubio djecu ili vojnike?)

3. Zakon i odgovornost

Nesreće su u potpunosti moguće i događale su se posvuda: u rujnu 2011., RQ-Shadow UAV se zabio u vojni transportni zrakoplov u Afganistanu zbog čega se ovaj morao prinudno spustiti. Prošlo ljeto, testni operatori MQ-8B Fire Scout helikopterskog UAV-a su izgubili kontrolu nad letjelicom na otprilike pola sata koja je za to vrijeme letjela 20 milja prema zaštićenom zračnom prostoru iznad Washingtona DC. Prije nekoliko godina u Južnoj Africi robotski top se poremetio zbog čega je poginulo 9 prijateljskih vojnika dok je 14 ranjeno.

Pogreške i nesreće se događaju stalno s našim tehnologijama, stoga bi bilo naivno misliti da bi bilo što kompleksno poput robota bilo imuno na ove probleme. Nadalje, robot sa određenim stupnjem autonomije postavlja pitanje tko (ili što) je odgovoran za štetu koju on može počiniti, bilo namjerno ili nenamjerno: dali bi to bio sam robot, operator ili programer? Hoće li proizvođači zahtijevati na izdavanju dokumenata o dogovornosti, poput EULA-e ili licencnog ugovora za krajnjeg korisnika s kojim se uvijek slažemo kada koristimo softver – ili bi trebali zahtijevati da ovi proizvodi budu temeljito testirani dok se ne pokažu sigurnima? (Zamislite da kupujte automobil koji zahtjeva potpisivanje EULA-e kojom se pokriva nedostatka na mehanici ili digitalnim komponentama automobila.)

Danas vidimo sve više robotike u društvu, od Roombasa u domaćinstvima do robotike u tvornicama.  U Japanu, 1 od 25 radnika je robot zbog nedostatka radnika. Stoga je moguće da bi roboti u službi nacionalnog obavještajnog rada mogli biti u interakciji s društvom na većoj razini, poput autonomnih automobila ili nadzornih robota za domaćinstva ili robota za spašavanje. Ako je tako, onda se oni također moraju uskladiti s društvenim zakonima, poput zakona o sigurnosti na cestama ili sudjelovanja u zračnom i morskom prometu.

Ali, u opsezima u kojima roboti mogu zamijeniti ljude, što je sa usklađivanjem s nečim poput zakonskih obveza da se pomogne drugima u potrebi, kao što je potrebno po zakonu Dobrog Samarijanca ili osnovnom međunarodnom zakonu koji zahtjeva da brodovi pomognu drugim plovilima u nevolji. Da li bi bespilotno vozilo, ili robotski brod bio dužan stati i pomoći posadi broda koji tone? Ovo je bilo dugo pobijano pitanje u Drugom svjetskom ratu – incident Laconia – kada je zapovjednik podmornice odbio spasiti mornare na otvorenom moru, kako su zahtijevali vladajući ratni zakoni tog vremena. Nije nerazumno reći da se ta obveza ne odnosi na podmornice, budući da izranjanje zbog spašavanja znači odavanje pozicije, a prikrivanje je primarna prednost podmornice. Da li bi smo stoga mogli iz istih razloga osloboditi ove obveze bespilotna podmorska vozila (UUV) i bespilotna zemaljska vozila (USV)?

Također trebamo na umu imati i pitanja vezana uz okoliš, zdravlje i sigurnost. Mikroboti i jednokratni roboti se mogu razviti u rojevima, ali moramo imati na umu kraj njihovog životnog vijeka. Kako počistiti za njima? Ako ne počistimo, a oni su sićušni – npr., nanosenzori – tada bi ih mogli udahnuti ili probaviti ljudi ili životinje. (Pomislite samo na broj prirodnih alergena koji utječu na naše zdravlje, a da ne spominjemo projektirane stvari). Oni bi mogli sadržavati štetne materijale, poput žive ili drugih kemikalija u svojim baterijama koje bi mogle iscuriti u okoliš. Ne samo na kopnu, moramo također misliti na podmorski pa čak i svemirski okoliš, ako ništa drugo barem u smislu svemirskog smeća.

Zbog potpunosti izvještaja, također ću spomenuti i problematiku vezanu uz privatnost iako je ona poznata iz trenutnih rasprava. Briga nije samo vezana za mikrobotove, koji mogu izgledati kao bezopasni insekti i ptice, koji mogu viriti kroz naše prozore i uvući se u našu kuću, već i uz biometrijske mogućnosti s kojima roboti mogu biti opremljeni. Mogućnost da se prepoznaju lica s daljine kao i to da se prepoznaju oružje ili droga ispod odjeće ili unutar kuće izvana zamagljuje razlikovanje između nadzora i premetačine. Razlika je u tome što premetačina zahtjeva sudski nalog. Dok tehnologija omogućuje da prikupljanje informacija bude što nametljivije, svakako ćemo čuti još takvih kritika.

Na kraju, trebamo biti svjesni iskušenja da koristimo tehnologiju u slučajevima kada je inače ne bi koristili, pogotovo u aktivnostima koje su pravno upitne – za što ćemo uvijek biti prozivani. Npr., ovakva optužba je već usmjerena protiv naših UAV-ova koji traže teroriste. Neki to nazivaju „ciljana ubijanja“, dok drugi to smatraju „atentatima“. Ovo je još uvijek prilično otvoreno pitanje, zato što „atentat“ nije jasno definiran ni u međunarodnom ni u domaćem zakonu, npr. Izvršna Naredba 12333. Problem se pogoršava u asimetričnom ratovanju, gdje neprijateljski borci ne nose uniforme: izdvajati ih poimence bi bilo dopušteno kada inače ne bi bilo; ali drugi smatraju da to povećava označene mete terorista bez daljnjeg procesa, pogotovo ako se ne radi o jasno vojnoj akciji (a CIA nije službeno vojna agencija).

Osim ovog poznatog problema, i dalje postoji rizik od drugih pravno upitnih postupaka. Npr., mogli bi biti dovedeni u iskušenje da koristimo robote u ekstradikcijama, mučenjima, pravim atentatima, prijevozu oružja i narkotika, itd, kao u nekim slučajevima ranije predstavljenim. Ako ne i ilegalne, postoje neke stvari koje nije mudro činiti, poput nedavne operacije lažnog cijepljenja u Pakistanu u cilju da se dobiju DNA uzroci koji bi pomogli u nalaženju Osame bin Ladena. U ovom slučaju možda su trebali biti pušteni robotski komarci koji bi izbjegli sumnju i zazor s kojim su se na kraju morali nositi humanitarni radnici.

4. Obmana

Da je program lažnog cijepljenja bio napravljen u kontekstu pravog vojnog konflikta, tada bi bio ilegalan po Ženevskoj i Haškoj Konvenciji koje zabranjuju podmukle obmane. Predstavljajući se kao humanitarac ili radnik Crvenog Križa da bi se osigurao pristup iza neprijateljskih linija je primjer podmuklosti: ono kida ono malo uzajamnog povjerenja koje imamo s protivnikom, a ovo je i kontraproduktivno u održavanju dugotrajnog mira. Ali, ako ne i ilegalno, mi možemo djelovati u nepovjerenju i moramo taj rizik imati na pameti.

Isti problem podmuklosti može se pojaviti vezano za robotske insekte i životinje, npr. životinje i insekti se uglavnom ne smatraju borcima i ne brinu naše neprijatelje, poput npr. radnika Crvenog Križa. Ipak mi bi morali računati na vjeru u to da bi dobili pristup u pozadinu našeg neprijatelja. Uzgred rečeno, takav program bi mogao ući u fokus aktivista za zaštitu životinja ukoliko bi on uključivao pokuse na životinjama.

Šire gledano, javnost bi mogla biti zabrinuta time da razvijamo strojeve koji namjerno obmanjuju, manipuliraju ili prinuđuju ljude. To je uznemirujuće za mnoge i to bi izazvalo etička pitanja. Jedan bi primjer mogao biti ovo: Zamislite da smo afganistanske plemenske zapovjednike isplaćivali u Viagri, što je manje očiti mito nego novac. Seks je jedan od najosnovnijih poticaja za ljude, stoga je moguće da bi neki doušnik htio seks-robot, kakvi danas postoje. Bez ulaženja u etiku seks-robota, ukažimo samo na to da bi takvi roboti mogli imati mogućnosti tajnog nadzora ili napadanja – u nekom smislu femme fatale.

Ista vrsta obmane bi se mogla koristiti i s drugim robotima, ne samo s onima, takoreći, namijenjenima za užitak. Mogli bi smo ih promatrati kao trojanske konje. Zamislite da zarobimo neprijateljski robot, hakiramo ga, ugradimo u njega uređaj za nadzor i pošaljemo ga kući: Kako je ovo drukčije od maskiranja u neprijatelja u njihovim uniformama, što je još jedno podmuklo lukavstvo? Drugi upitni scenariji uključuju zapovijedanje robotskim automobilima ili zrakoplovima dok su u vlasništvu drugih, i kreiranje robota s tajnim pristupima koji bi nam omogućili da otmemo stroj dok je u vlasništvu drugog.

5. Šire posljedice

Ova točka vezana za obmanu i nepovjerenje povezana je s kritikom vezanu za vojne robote o kojima čujemo, a koje sam ranije spomenuo: da se SAD ne usudi slati ljude da bore svoje bitke; da smo preplašeni da susretnemo neprijatelja licem u lice, i to nas čini nečasnim i kukavicama. Teroristi također koriste ovu ozlojeđenost da bi unovačili još pristaša i terorista.

Ali što je s našom stranom: trebamo li misliti na to kakav utjecaj ima korištenje robotike u našim naporima da unovačimo ljude u našoj obavještajnoj zajednici? Ako se budemo sve više i više oslanjali na robote u nacionalnom obavještajnom radu – kao što se Ratno zrakoplovstvo SAD-a oslanja na UAV-e – to bi moglo našteti ili omesti napore da dovedemo dobre ljude. Uostalom, robotski špijun nema istu čar kao James Bond.

A ako se oslanjamo više na robote u obavještajnoj zajednici postoji briga o ovisnosti o tehnologiji što na kraju rezultira gubljenjem ljudskih vještina. Npr., čak i izumi koje volimo imaju taj efekt: ne pamtimo više dobro zbog izuma tiskarskog stroja, koji naše priče čini besmrtnima na papiru; ne znamo matematiku zbog kalkulatora; ne možemo dobro prepoznati greške u pisanju zbog programa za obradu teksta s ispravljačima grešaka,; ne pamtimo telefonske brojeve zato što su pohranjeni na našim mobilnim telefonima. Kada se govori o medicinskim robotima, neki su zabrinuti da bi ljudski kirurzi mogli izgubiti svoje vještine izvršavanja kompliciranih postupaka, ukoliko bi te poslove prepustili robotima. Što se događa ako nemamo pristup robotima, bilo na udaljenim lokacijama ili u slučaju nedostatka struje? Stoga je moguće da bi roboti u službi naše obavještajne zajednice, kakav god da bude scenarij, također imali sličan efekt.

Čak ako bi se ovi scenariji pokazali nemogućima, sama mogućnost da postoje mogla bi ponukati naše neprijatelje da svoje planove bolje zaštite. Nije ludo da ljudi koji žive u pećinama i kolibama misle da smo toliko tehnološki napredni da imamo robotske špijunske bube na terenu. (Možda i imamo, ali ja nemam tu povlasticu da to znam). U svakom slučaju, ovo može voditi obavještajnu utrku u naoružanju – evoluciju lovca i lovine, kao što su špijunski sateliti natjerali naše protivnike da izgrađuju podzemne bunkere, čak i za nuklearna testiranja. A što je s nama? Kako da obrađujemo i analiziramo sve dodatne informacije koje dobivamo od naših robota i digitalnih mreža? Ako ne možemo kontrolirati poplavu podataka, a tu se nađe nešto što bi spriječilo katastrofu, tada bi se krivila obavještajna zajednica, s pravom ili ne.

Vezano uz to je i zaista stvarna briga oko proliferacije, da će naši neprijatelji razviti ili doći u posjed iste tehnologije i potom je koristiti protiv nas. To se dogodilo sa svakom vojnom tehnologijom koju imamo, od tenkova preko nuklearnih bombi do stealth tehnologije. Već sada, preko 50 nacija ima ili razvija vojne robote poput naših, uključujući Kinu, Iran, Libijske pobunjenike i druge.

ZAKLJUČAK

Gore iznesena pitanja – od nerazdvojnih ograničenja, specifičnih zakona ili etičkih principa, do sagledavanja široke perspektive – daju nam mnogo toga za razmatranje, što i moramo. Ona nisu ključna samo za naš interes, poput izbjegavanja međunarodnih kontroverzi, nego su i pitanje prave i pravedne politike. Iz bilo kojeg razloga, ohrabrujuće je to da obavještajna i obrambena zajednica potiču etička pitanja u robotici i drugim novim tehnologijama. Integracija etike može biti opreznija i manje agilnija od „prvo radi, misli kasnije“ (ili još gore „prvo radi, ispričavaj se kasnije“) pristupa, ali nam pomaže da osvjimo moralnu uzvisinu – možda najviše stratešku bojišnicu.

Comments are closed.

Sharing Buttons by Linksku