Vai autonomie ieroči saka „nē” nelegāliem pasūtījumiem?

$config[ads_kvadrat] not found

En quête d'un habitat durable #3 - L'autonomie électrique - Low Tech Lab

En quête d'un habitat durable #3 - L'autonomie électrique - Low Tech Lab
Anonim

Baynazar Mohammad Nazar bija bezsamaņā uz darbības galda, kad griesti sāka sabrukt. Četru tēvs iepriekšējā dienā pēc tam, kad bija nošauts kājā, slimnīcā bija pārbaudījis, un pēc divām dienām viņš veica otro operāciju, lai noteiktu savainojumu. Kad amerikāņi sāka iznīcināt ēku, ārstiem, kas strādā pie viņa, nebija citas izvēles, kā vien glābties pēc iespējas ātrāk.

Andrew Quilty at Ārpolitika stāsta par Baynazar dzīvi un nāvi rakstā, kurā ir iekļauta fotogrāfija no viņa ķermeņa, kas uz galda ir klāta ar gruvešiem. Baynazar bija viens no 31 cilvēkiem, kurus ASV nogalināja, kad 2. oktobrī Kunduzā, Afganistānā, skāra slimnīcas, ko vada ārsti bez robežām (saukti arī par MSF).

Pēc augsta līmeņa, augsta civiliedzīvotāju negadījumu streiki, politiķi un pundits jautā, kā varētu notikt šāda lieta, un ko var darīt, lai nodrošinātu, ka tas nenotiek atkārtoti. Starp autonomo ieroču sistēmu atbalstītājiem, ko dažreiz sauc par „slepkavu robotiem”, viens populārs arguments ir tāds, ka cilvēka kļūda (vai ļaunprātība) ir atbildīga par lielu kara laikā izdarīto noziegumu apjomu. Teorētiski ir iespējams, ka roboti var būt precīzāki mērķauditorijas atlasei un mazāk pakļauti kļūdām nekā cilvēki.

„Patiesībā cilvēka spriedums var izrādīties mazāk ticams, tad tehniskie rādītāji kaujas siltumā,” raksta ASV Naval kara koledžas profesors Michael N. Schmitt. „Tie, kas domā citādi, nav piedzīvojuši kara miglu.”

ASV gaisa streiks uz MSF slimnīcu Afganistānā ", ko izraisa galvenokārt cilvēku kļūdas" http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

- Telegraph News (@TelegraphNews) 2015. gada 25. novembrī

Tātad jautājums ir šāds: vai jūs varat plānot kara rīkus, lai ierobežotu cilvēka uzvedību, lai padarītu streikus kā Kunduzas slimnīcas bombardēšanu neiespējamu vai vismaz mazāk ticamu?

Iespējams, ne - vismaz tuvākajā nākotnē. Bet daži mākslīgā intelekta programmētāji ir izstrādājuši robotu, kas cilvēkiem nevar teikt. Eksperimenta dizains ir vienkāršs: cilvēks stāsta robotam iet uz priekšu pie galda, ko robots sākotnēji atsakās darīt. Kad cilvēks stāsta robotam, viņš to pieņems.

Tas ir garš ceļš no daļēji autonomas uzbrukuma helikoptera, kas stāsta, ka tas nevar veikt airstrike pret slimnīcu, jo tas būtu kara noziegums, bet pamatā esošais priekšnoteikums lielā mērā ir vienāds. Kā citi norādīja, cilvēka trauksme par šo ļoti attīstību robotos ir izplatīta zinātniskajā fantastikā - domāju, ka HAL-9000 saka: „Es to nevaru darīt, Dave”, kad tas bloķē cilvēku ārpus kosmosa stacijas 2001: Kosmosa Odissija.

Attiecībā uz Kunduza streika specifiku daudzi uzbrukuma fakti joprojām tiek apstrīdēti. MSF ir pieprasījusi neatkarīgu izmeklēšanu, kuru ASV valdība iebilst, bet sola veikt savus pārskatus.

Dažas vienas ASV izmeklēšanas daļas tika publiskotas šā mēneša sākumā, un tika konstatētas cilvēka un mehāniskas kļūdas, kas atbild par streiku. Bet agrāk šonedēļ divi servisa dalībnieki iebilda pret ziņojuma konstatējumiem. Viņi saka, ka streiks nebija kļūda. Savā grāmatvedībā pirmo reizi ziņoja AP ASV īpašās operācijas spēki steidzās streikot, jo, lai gan slimnīca tika izmantota kā Taliban vadības un kontroles centrs.

Oficiālajā versijā mehāniskās kļūmes dēļ AC-130 ieroču apkalpe sākotnēji ieguva koordinātas tukšam laukam. Pēc tam ekipāža meklēja ēku apgabalā, kas atbilstu fiziskajam aprakstam, ko viņi deva, un atvēra uguni. Kad to instrumenti tika pārkalibrēti, viņi ekipāžai norādīja pareizos koordinātus, bet apkalpe tomēr turpināja aizdegties slimnīcā.

Ja šis konts ir taisnība - ka dators galu galā bija precīzs un cilvēki to ignorēja, tas dod zināmu uzticību atbalstītājiem par lielāku autonomiju ieroču sistēmās. Tas nozīmē, ka ASV karš pret terorismu ir piepildīts ar piemēriem, ka militārie vai CIP ir nokļuvuši “pareizajā” mērķī un joprojām nonāca pie milzīga civiliedzīvotāju skaita. Automātika neatrisinās slikto inteliģenci, un mēģinājumi ieplānot morāles tuvināšanu nebeidzas kara noziegumus.

Amerikas Savienotajās Valstīs ir spēcīgs kārdinājums sterilizēt karu un automatizāciju, likvidējot amerikāņus no kaitējuma veida, kas ir paredzēts, lai mainītu pašu kara definīciju. Obamas priekšroka drone nogalināšanai un ar to saistītie apliecinājumi, ka drones ir visprecīzākie ieroči, ir skaidrākais šo mērķu izpausme. "Tie ir precīzi, precīzi streiki pret al Qaeda un viņu filiālēm," Obama teica 2012. gada Google Hangout sesijā.

Tomēr valdības 2013. gada pētījums ir pretrunā šiem apgalvojumiem. Tika konstatēts, ka Afganistānas drones izraisīja 10 reizes vairāk civiliedzīvotāju nāves gadījumu nekā bezpilota transportlīdzekļiem. „Droni nav maģiski labāk, lai izvairītos no civiliedzīvotājiem, nevis kaujas sprauslām,” stāstīja pētījuma līdzautors Sarah Holewinski. The Guardian. „Kad pilotu lidmašīnām tika dotas skaidras direktīvas un apmācība par civilo aizsardzību, viņi varēja samazināt civilo negadījumu skaitu.”

Militārais tērē miljoniem cilvēku un robotu apvienošanas sistēmu, turpinot izjaukt līnijas starp misijām, ko veic mehāniķi vai bezpilota ieroči. „Tas, ko mēs vēlamies darīt cilvēka un mašīnas cīņai, ir nākt uz nākamo līmeni, lai aplūkotu tādas lietas kā mocīšanas taktika,” oficiālajā DoD zinātnes emuārā pastāstīja aizsardzības sekretāra vietnieks Bobs. "Vai F-35 var cīnīties ar četriem bezpilota spārniem?"

Vai šie spārniņi saka nē, ja cilvēka pilots dod viņiem rīkojumu, kas ir līdzīgs kājām pie galda? Kā ar rīkojumu iznīcināt slimnīcu vai skolu? Katrā gadījumā tiks piemērots kara migla. Un, ja mēs nolemsim ignorēt mašīnas, frāze „cilvēka kļūda” būs viens no biedējošākajiem noteikumiem nākotnes konfliktos.

$config[ads_kvadrat] not found