Eksperti tikās Ženēvā, taču vienošanos nevarēja panākt: ASV un Krievija bloķēja visu darbu. Varbūt šī ir vienīgā reize, kad hegemoni darbojas tik harmoniski.
Ženēvā noslēdzās ekspertu tikšanās Konvencijas par necilvēcīgiem ieročiem formā, lai izlemtu tā dēvēto kaujas robotu likteni - autonomus ieročus, kas mērķa uzvarēšanai izmanto mākslīgo intelektu. Tomēr nekādas vienošanās nevarēja panākt. Amerikas Savienotās Valstis, Krievija, Dienvidkoreja, Izraēla un Austrālija bija tās minoritāšu valstis, kurām izdevās bloķēt noskaņojumu pilnīgam robotu slepkavu aizliegumam.
Tātad, kaut arī pasaulē joprojām nav darba autonomā ieroča, tehnoloģija joprojām ir, tā sakot, humāna - to var attīstīt un izpētīt. Interesanti, ka Amerikas Savienotās Valstis un Krievija, pēc Stokholmas Miera izpētes institūta (SIPRI) datiem, ir lielāko ieroču eksportētāju saraksta augšgalā. Šajā rangā neatpaliek arī Dienvidkoreja, Izraēla un Austrālija - tās ir starp 20 labākajiem tirgus spēlētājiem.
Kaut arī Ķīna (piektā ieroču eksportētāja pasaulē, ANO Drošības padomes pastāvīgā locekle iestājas par kaujas robotu aizliegšanu, tai sanāksmju laikā tai neizdevās pielāgot svarus. Pašlaik 26 valstis atklāti atbalsta mākslīgā intelekta izmantošanas aizliegums karā. Citi izvairās no skaidras nostājas) Francija un Vācija (trešā un ceturtā ieroču eksportētāja) piedāvā parakstīt dokumentu, kas nostiprinātu cilvēka virsroku pār mākslīgo intelektu, taču tie, visticamāk, to pusē, kuri vēlas izstrādāt autonomus kaujas transportlīdzekļus.
"Tas noteikti ir neapmierinoši, ka neliela militāro milžu grupa var atturēt vairākuma gribu," Ženēvas sanāksmju rezultātus komentēja Mērija Verhēma, kampaņas Killer to Robers Stop, koordinatore.
Patiešām, situācija izskatās kā bruņotu monopola magnātu sazvērestība, ņemot vērā, ka Amerikas Savienotās Valstis un Krievija parasti nevar panākt vismaz kaut kādu kompromisu svarīgos jautājumos. Pieņemsim Sīrijas: Vašingtona un Maskava savstarpēji bloķēja viena otras rezolūcijas pēc ķīmisko ieroču izmantošanas Sīrijā šopavasar. Nomācošas gāzes un citas toksiskas vielas militāriem mērķiem, starp citu, iepriekš bija aizliegtas ar Konvenciju par necilvēcīgiem ieročiem.
Nākamā tikšanās ar robotu-slepkavu likteni notiks Ženēvā novembrī.
Kāpēc viņi vēlas aizliegt autonomos ieročus
Robotu kara aizlieguma atbalstītāji uzstāj, ka kaujas lauks nav mākslīgā intelekta vieta. Pēc viņu domām, šādas tehnoloģijas rada milzīgus draudus. Vismaz šodien nav skaidrs, kā mašīna nošķir kaujas dalībniekus (tos, kuri ir tieši iesaistīti karadarbībā) no kaujiniekiem (armijas dienesta darbiniekiem, kuri ieročus var izmantot tikai pašaizsardzībai) un civiliedzīvotājiem kopumā. Pastāv iespēja, ka darbs nogalinās ievainotos un tos, kas padodas, kas ir aizliegts ar pašreizējiem kara noteikumiem.
Kas traucē darbam pārtraukt visas konfliktā iesaistītās puses, pat šādu ieroču īpašniekus? Mākslīgā intelekta elementi jau tiek veiksmīgi izmantoti militārajā aprīkojumā, raķetēs; roboti tiek piesaistīti izlūkošanai, taču galavārds joprojām paliek cilvēkiem. Autonomie ieroči nepakļausies komandieru pavēlēm - tāpēc viņi ir autonomi. Tāpēc dažādu valstu militārie ģenerāļi ir skeptiski par mašīnu ieviešanu personāla rindās.
Un vēl viens atklāts jautājums ir starptautiskais terorisms. Autonomā ieroču tehnoloģija var nonākt nepareizās rokās, un galu galā to var uzlauzt. Pirms gada Krievijas prezidents Vladimirs Putins teica, ka pasaules valdnieks būs tas, kurš kļūs par mākslīgā intelekta attīstības līderi. Autonomo ieroču gadījumā tas, kurš iegūs piekļuvi šādām tehnoloģijām, kļūs par pasaules valdnieku. Un patiesībā tam jums ir nepieciešams tikai dators un viltnieks, kurš izies cauri drošības sistēmām. Starp citu, Pentagons ir uzlauzts vairāk nekā vienu reizi. Līdz ar to neviens nevar sniegt garantijas, ka autonomie ieroči paliks neaizskarami.
Nav arī skaidrs, kurš būs juridiski atbildīgs, ja autonomas ieroču sistēmas darbības rezultātā tiks izdarīts kara noziegums. “Inženieris, programmētājs, ražotājs vai komandieris, kurš izmantoja ieroci? Ja atbildību nevar definēt, kā to prasa starptautiskās humanitārās tiesības, vai šādu sistēmu izvietošanu var atzīt par likumīgu vai ētiski pamatotu?”Atzīmē Starptautiskā Sarkanā Krusta komiteja.
Interesanti, ka zinātnieki arī aizstāvēja kaujas robotu aizliegumu. Šī gada jūlijā vairāk nekā divi tūkstoši zinātnieku, it īpaši Tesla un SpaceX radītājs Elons Musks un DeepMind līdzdibinātāji, parakstīja dokumentu, ka viņi neizstrādās letālus autonomus ieročus. Google rīkojās tāpat. Tehnoloģiju gigants ir atmetis darbu pie Pentagona Maven projekta. Un 2017. gadā vairāki zinātnieki jau ir aicinājuši ANO aizliegt robotu slepkavu izveidi.
Starp citu, jautājums par mākslīgo intelektu karā ANO darba kārtībā parādījās 2013. gada beigās, taču kopš tā laika praktiski nekas nav mainījies. Tikai šogad ekspertu sanāksmes sākās Konvencijas par necilvēcīgiem ieročiem formā. Tas nozīmē, ka vajadzēja vairāk nekā četrus gadus, lai nonāktu kādā vairāk vai mazāk praktiskā plānā.
Kāpēc viņi nevēlas aizliegt autonomos ieročus
Neatkarīgi no tā, cik tas varētu izklausīties, bruņošanās sacensība ir galvenais iemesls, kāpēc viņi nevēlas aizliegt slepkavas robotus. Putinam ir taisnība: kurš vispirms iegūs autonomus ieročus, tas dominēs pasaulē. Oficiāli šis iemesls tiek izteikts.
Galvenais aizlieguma pretinieku arguments ir neiespējamība nodalīt civilo mākslīgo intelektu no militārā. Tāpat mēs neaizliedzam virtuves nažus tikai tāpēc, ka teroristi tos var izmantot. Patiešām, praktiski nav iespējams nodalīt mākslīgā intelekta civilo attīstību no militārā. Bet tagad mēs runājam par šī ieroča aizliegumu, kas spēs patstāvīgi noteikt mērķus un uzbrukt tiem. Tas varētu būt Mavenas projekts, pie kura ASV Aizsardzības departaments strādā kopā ar Boozu Alenu Hamiltonu (Google atteicās no līguma).
Maven izstrādātāji vēlas iemācīt droniem analizēt attēlus, īpaši no satelītiem, un, iespējams, identificēt uzbrukuma mērķus. Pentagons sāka strādāt pie projekta vēl 2017. gada aprīlī un cerēja līdz gada beigām iegūt pirmos darba algoritmus. Bet, izmantojot Google darbinieku demaršu, attīstība tika aizkavēta. Sākot ar šī gada jūniju, pēc Gizmodo domām, sistēma varēja atšķirt elementārus objektus - automašīnas, cilvēkus, taču sarežģītās situācijās tas izrādījās pilnīgi nenozīmīgs. Ja ANO līmenī tomēr tiks pieņemts autonomo ieroču aizliegums, projekts būs jāiznīcina, savukārt Pentagons apgalvo, ka to izstrāde var glābt dzīvības, jo to var ieprogrammēt darboties precīzāk un uzticamāk, salīdzinot ar cilvēkiem.
"Jums jāsaprot, ka mēs runājam par tehnoloģijām, ka tām nav paraugu, kas darbotos. Ideja par šādām sistēmām joprojām ir ļoti virspusēja," atzīmēja tikšanās priekšvakarā Ženēvā Krievijas Ārlietu ministrijā. - Mūsuprāt, starptautiskos tiesību aktus, jo īpaši humanitāro nozari, var piemērot autonomiem ieročiem. Viņiem nav nepieciešama modernizācija vai pielāgošana sistēmām, kas vēl nepastāv.”
Nu, un vēl viens reāls, bet neizsakāms iemesls ir nauda. Mūsdienās militārā mākslīgā intelekta tehnoloģiju tirgus tiek lēsts vairāk nekā sešu miljardu dolāru vērtībā. Bet līdz 2025. gadam šis skaitlis trīskāršosies - līdz gandrīz 19 miljardiem, norāda amerikāņu kompānijas MarketsandMarkets analītiķi. Lielākajiem ieroču eksportētājiem tā ir laba motivācija, lai bloķētu jebkādus ierobežojumus killer robotu izstrādē.
Progresu nevar apturēt
Autonomo ieroču aizlieguma atbalstītāji atzīmē, ka tehnoloģija attīstās ļoti ātri un mākslīgais intelekts galu galā kļūs par ieroci - laika jautājums. Viņu vārdos ir loģika. Mākslīgais intelekts ir neatņemama ceturtās zinātniskās un tehnoloģiskās revolūcijas sastāvdaļa, kas turpinās arī tagad. Jāpatur prātā, ka tehniskais progress vienā vai otrā veidā ir saistīts ar militārām operācijām. Trešā zinātniskā un tehnoloģiskā revolūcija ilga līdz XX gadsimta 50. gadu vidum, tas ir, tās maksimums krita uz Otrā pasaules kara periodu.
1949. gadā Ženēva pieņēma Konvenciju par civiliedzīvotāju aizsardzību kara laikā. Pēckara periodā viņi arī papildināja 1907. gada IV Hāgas konvenciju, kas noteica kara veikšanas noteikumus. Tas ir, Otrā pasaules kara šausmas kļuva par šī procesa katalizatoru. Tātad cilvēktiesību aizstāvji nevēlas gaidīt Trešo pasaules karu, lai pasargātu cilvēci no autonomiem ieročiem. Tāpēc tagad ir nepieciešams izlemt par slepkavu robotu likteni, viņi uzstāj.
Pēc Human Rights Watch ekspertu domām, kaujas robotu izmantošana ir pretrunā ar Martensa deklarāciju - 1899. gada Hāgas konvencijas par kara likumiem un paražām preambulu. Citiem vārdiem sakot, slepkavas roboti pārkāpj cilvēces likumus un sabiedrības apziņas prasības (nostāja tika apstiprināta IV Hāgas konvencijā).
"Mums ir jāsadarbojas, lai šādām ieroču sistēmām piemērotu preventīvu aizliegumu, pirms tās izplatās visā pasaulē," sacīja Bonijs Dohertijs, Human Rights Watch ieroču nodaļas vecākais pētnieks.
Nu, šoreiz nedarbojās, lai aizliegtu slepkavas robotus. Paredzams, ka arī novembra sanāksmes būs neauglīgas. Tiesa, gandrīz visas valstis ir vienisprātis - tehnoloģijai nevar ļaut plūst ar gravitāciju, un kaujas robotiem ir nepieciešams šāds pieturas celtnis. Bet joprojām nav skaidrs, vai cilvēcei būs laiks to izvilkt, kad radīsies vajadzība.