Autonomā bruņojuma latentie draudi — mīts vai patiesība?

Autonomie ieroči ar mākslīgo intelektu rada nopietnus draudus cilvēcei, un tāpēc šādi ieroči būtu jāaizliedz. Šāds brīdinājums ir ietverts organizācijas «Future of Life Institute» atklātajā vēstulē, kuru parakstījuši vairāk nekā 1000 dažādu tehnoloģisko jomu speciālistu, to vidū robotizētās tehnikas un astrofizikas eksperti. Šī vēstule tika prezentēta starptautiskajā mākslīgā intelekta tematikai veltītajā konferencē, kas šogad norisinājās Buenosairesā.

Robots — kaujinieks (datorgrafika).
Robots — kaujinieks (datorgrafika).

Vēstulē uzsvērts, ka mākslīgā intelekta tehnoloģiju attīstība neizbēgami novedīs pie plaša mēroga bruņošanās sacensības, turklāt šajās sacīkstēs varēs piedalīties bez milzīgu resursu ieguldīšanas, jo intelektuālo tehnoloģiju izstrādei nav nepieciešams iegādāties dārgus materiālus. Tiklīdz ar mākslīgo intelektu aprīkotie ieroči kļūs lētāki, nekavējoties notikšot to noplūde melnajā tirgū un tie kļūs pieejami noziedzniekiem, teroristiem, diktatoriem vai algotņiem.

Vēstules autori brīdina, ka tehnoloģiju attīstības temps mūsdienās ir tik liels, ka jau tuvākajā nākotnē varētu tikt izstrādāti pirmie gudro un patstāvīgo ieroču prototipi. Pašlaik arī Apvienoto Nāciju Organizācijas līmenī notiek diskusijas par iespējām aizliegt noteiktu tipu un konfigurācijas «robotus slepkavas», ja tie darbojas bez cilvēka augstākās virsvadības. Vairāki zinātnieki pat apgalvo, ka mākslīgā intelekta izmantošanā bruņojuma jomā būtu jāievieš līdzīgi aizliegumi kā ķīmiskajiem un bioloģiska­- jiem ieročiem. Proti, šādi ieroči ir starptautiski aizliegti, un ne ķīmiķi, ne biologi necenšas tērēt savu izgudrotāja potenciālu aizliegtā virzienā. Pēc šo zinātnieku domām, līdzīgi starptautiskā līmenī būtu jāaizliedz arī gudrais bruņojums, lai nevienai kompānijai vai zinātnieku grupai nebūtu jēgas strādāt pie aizliegta produkta izgudrošanas. Viens no vēstules autoriem — pazīstamais astrofizikas profesors Stīvens Hokings — pat paudis pārliecību, ka mākslīgais intelekts ar laiku var novest pie visas cilvēces iznīcības, jo cilvēkus ierobežos lēna bioloģiskā evolūcija, kas neļaus konkurēt ar strauji progresējošo mākslīgo intelektu.

Tomēr mākslīgā intelekta progresam ir savi aizstāvji gan zinātnieku un ražotāju vidū, gan valstiskā līmenī. Piemēram, kompānijas «Microsoft» pētnieciskās laboratorijas vadītājs Ēriks Horvics  aicina neieciklēties uz gudrā bruņojuma potenciālo briesmu iztirzāšanu, bet pievērst lielāku uzmanību mākslīgā intelekta milzīgajam ieguldījumam sociāli ekonomiskajā, medicīnas un citās jomās. Ē. Horvics mudina neļauties spekulācijām, ka militārie roboti nākotnē varētu kļūt tik gudri un jaudīgi, ka tos neviens vairs nevarēs izslēgt un tie apmuļķos savus operatorus un zinātniekus. Plašsaziņas līdzekļos arī citi zinātnieki skeptiski izsakās par atsevišķu zinātnieku mēģinājumiem iesaldēt tehnoloģiju progresu un «iesprostot mākslīgā intelekta džinu atpakaļ pudelē».

Lai nepieļautu mākslīgā intelekta haotisku un nekontrolētu attīstību, Ē. Horvics ir nodibinājis un pats piedalās īpašā zinātniskās pētniecības ilgtermiņa darbības grupā AI100 (The One Hundred Year Study on Artificial Intelligence), kas tuvākos 100 gadus pētīs un prognozēs ar mākslīgo intelektu saistītā progresa virzību, cēloņsakarības un iespējamās sekas visdažādākajās dzīves jomās. Zinātnieku grupa AI100 ir inovatīva un tālredzīga «agrās brīdināšanas sistēma», kas detalizēti analizēs iespējamo mākslīgā intelekta ietekmi uz nacionālās drošības jautājumiem, psiholoģijas, ētikas un likumdošanas jomām, personiskās dzīves neaizskaramību, demokrātiskajām vērtībām utt. Visi AI100 pētījumi tiks rūpīgi dokumentēti atbilstošos formātos, lai tie būtu pieejami visām nākamajām zinātnieku paaudzēm, kas turpinās izpēti AI100, ņemot vērā priekšgājēju darba rezultātus, idejas un rekomendācijas.

Robots, kas spēj evakuēt ievainoto no kaujas lauka ļoti šķēršļotā apvidū.
Robots, kas spēj evakuēt ievainoto no kaujas lauka ļoti šķēršļotā apvidū.

Komentējot organizācijas «Future of Life Institute» atklāto vēstuli par mākslīgā intelekta ieroču potenciāli radītajiem draudiem, Lielbritānijas militārā resora oficiālajā paziņojumā teikts, ka karalistes rīcībā esošās bruņojuma sistēmas tiek ekspluatētas saskaņā ar visām starptautiskajām tiesību normām, kuras regulē karadarbības jomu. Pašlaik neviena Lielbritānijas Karalisko bruņoto spēku ieroču sistēma — neatkarīgi no tās robotizācijas pakāpes — nedarbojas bez cilvēka kontroles un virsvadības. Šī kontrole tiks saglabāta arī nākotnē, uzsvērts ministrijas paziņojumā.

Gudro ieroču lielākais ražotājs Lielbritānijā — kompānija «BAE Systems» — savā preses paziņojumā norāda, ka pilnība atbalsta Lielbritānijas Aizsardzības ministrijas pausto oficiālo nostāju. «BAE Systems» uzsver, ka vienmēr ir izstrādājusi un ražojusi tikai tādas ieroču sistēmas, kas atbilst visu attiecīgo normatīvo dokumentu prasībām, turklāt arī nākotnē nav plānots pāriet uz pilnībā autonomu ieroču ražošanu, neparedzot cilvēku virsvadību.

Pēc ārvalstu preses materiāliem sagatavojusi
majore Vizma Kaļčeva.
Foto — http://img.myconfinedspace.com; http://1.bp.blogspot.com.