Robert Newman
Philosophy Now
Mund të programohen makinat pa shofer që po zhvillohen nga Apple, Goggle dhe Daimler të hipin në trotuar për të shmangur një përplasje kokë më kokë? Mund të programohen që të zgjedhin të godasin një person me qëllim që të shmangin goditjen e dy personave? Dy në vend të katër? Katër në vend të një maune me lëndë kimike të rrezikshme? Makina pa shofer të programuara të zgjedhin mes dy opsioneve do të jenë vetëm një shembull nga ajo që revista shkencore Nature ka vendosur t’i quajë “robotë me etikë”. Shembull tjetër është gjenerata e ardhshme e armëve. Nëse dronët nuk ishin aq të dëmshëm sa mendohej, Departamenti i Mbrojtjes i SHBA po zhvillon Sistemin e Armëve Autonome Vdekjeprurëse (LAWS). Ata përgatitin listën e tyre të vrasjeve duke përdorur një set algoritmesh, pa nevojën e ndihmës së njeriut, pavarësisht largësisë. Dronët autonomë përfshijnë rotocraft-ë [lloj droni] të vegjël sa një top pingpongu, të cilët do të jenë në gjendje të pluskojnë mes shtëpive, dyqaneve dhe zyrave për të kryer operacionin e tyre.
Në korrik 2015, Nature botoi një artikull, “Dilema e robotit”, që pretendonte se shkencëtarët e kompjuterëve “kanë shkruar një program logjik që mund të marrë vendime me sukses… i cili merr parasysh, nëse dëmi i shkaktuar ishte rezultati i synuar i sulmit apo thjesht i nevojshëm.” (Fjala “me sukses” më duket rrëqethëse, por jo aq sa “thjesht i nevojshëm”.) Një nga shkencëtarët pas programit të “suksesshëm” mbron idenë që zgjedhjet etike njerëzore bëhen në të njëjtën mënyrë: “Logjika është mënyra si ne bëjmë zgjedhjet tona etike.
Të thuash që logjika është mënyra sesi ne marrim vendimet tona etike do të thotë të mbrosh atë që filozofi amerikan Hilary Putnam e përshkruan si “supozimi i rehatshëm i shekullit të 18-të se gjithë njerëzit e mirëinformuar dhe inteligjentë, që kanë ushtruar artin e meditimit mbi veprimet dhe problemet njerëzore në mënyrë të paanshme do të përjetonin të njëjtat “ndjenja” aprovimi apo mohimi në rrethana të njëjta, nëse nuk kishte ndonjë defekt në formimin e tyre personal.” Megjithatë, për mirë a për keq, zgjedhjet etike bien ndesh me logjikën. Ato mund të burojnë nga emocionet, kokëfortësia natyrale, ide të mjegullta, instinkti i brendshëm, apo dhe imagjinata. Për shembull, unë po marshoj përmes Karolinës së Veriut me Union Army (Ushtria e Unionit, shembulli ka në sfond luftën civile amerikane], logjikisht krejtësisht i bindur se fitorja ushtarake mbi Konfederatën do të abrogonte institucionin e mallkuar të skllavërisë. Por kur shikoj fytyrën e armikut – një 17-vjeçar i drobitur, këmbëzbathur – unë flak armën dhe largohem nga fushëbeteja duke qarë. Ky është një vendim etik, që kthehet në veprim përcaktues: vetëm se nuk është marrë me gjakftohtësi, dhe është në kundërshtim me logjikën e pozicionit tim.
Duke mos qenë në gjendje të bëjë punën e njeriut duke punuar me ide të kundërta, programi i një roboti etik thjesht i përjashton ato. Nëse, për shembull, Departamenti i Mbrojtjes i SHBA do të jetë një sistem arme i “suksesshëm”, ata bëjnë mirë ta fshijnë nga të dhënat etike hyrëse Konventën Ndërkombëtare për të Drejtat Politike dhe Civile (1966), me nenet e saj mbi sigurinë e personit, procedurat e drejta, dhe të drejtat e të akuzuarit – përndryshe droni mund të kthejë bishtin dhe ta drejtojë zjarrin e tij nga ta që i dhanë krahë për misionin e tij të përjetshëm për të kryer vrasje pakufi pa ndëshkim.
Biseda për drejtësinë procedurale na çon te një filozof puna e të cilit, sipas meje, hedh dritë mbi problemet e lidhura me “robotët me etikë”. Si një oficer i shërbimeve inteligjente gjatë Luftës së Dytë Botërore, hetimet që Stuart Hampshire u bëri nazistëve e çuan atë theksonte si kryesore drejtësinë procedurale mbi gjithë konceptet e tjera të drejtësisë. Nuk mund të ketë drejtësi në kuptimin e gjerë pa drejtësi në kuptimin e ngushtë, kuptimi procedural, tha ai. Edhe nëse rezultati i një gjyqi me juri është i njëjtë me rezultatin e një gjykate kangurësh, procesi i rregullt e bën njërin vendim të drejtë dhe tjetrin të padrejtë.
E njëjta gjë është dhe me ligjin e automatizuar. Gjithë gigabytes në botë nuk do të bëjnë një set algoritmesh për një gjyq të drejtë. Drejtësia më tepër nënkupton gjykim nga qytetarë prej mishi e gjaku në një proces të drejtë – sepse viktimat gjithnjë e më shumë kërkojnë që gjykata të marrë në konsideratë vuajtjet e tyre emocionale dhe psikologjike. Nga vetë natyra e saj, drejtësia nuk mund të jetë e asnjanëse dhe të jetë e drejtë.
Delegimi i etikës te robotët është jo etike, jo vetëm pse robotët merren me kode shifrore, e jo etikë, por edhe pse asnjë program, kurrë, nuk do të përpunojë të papriturat e pallogaritshme, stërhollimet në ndryshim, dhe ndërlikimet që gjenden qoftë dhe në çështjen më të thjeshtë që mund të dalë para një gjykatësi apo jurie. E megjithatë jurisprudenca është një fushë tjetër që do t’i shkurtohen vendet e punës nga juristët robotë “etikë”. Vitin e kaluar, gjatë një emisioni në radio BBC 4 mbi çudirat e robotëve, një zyrtar i lartë i IBM shpjegoi se robotët nuk mund të bëjnë punë manuale si kopshtar apo pastrues, por ata mund ta bëjnë me lehtës atë që bëjnë avokatët, dhe shpejt do t’i lënë pa punë avokatët njerëz. Megjithatëë, kur zv/presidenti i IBM Bob Moffat doli në gjyq, i akuzuar për mashtrime financiare, ai i vari gjithë shpresat e tij te një nga zyrat ligjore njerëzore të modelit të vjetër. Një avokat robot mund ta kishte shpëtuar atë nga dy akuza ajo e konspiracionit dhe ajo e mashtrimit, por kur i erdhi rasti, zv/presidenti i IBM e dinte po aq mirë sa gjithë ne të tjerët që fraza “robotë me tikë” është një kontradiktë termash.