Ieroču iznīcināšanas mašīnu mācīšanās pret ISIS apgrūtinās militāro komandu ķēdi

$config[ads_kvadrat] not found

Live Transit Updates in Google Maps

Live Transit Updates in Google Maps
Anonim

Ikvienam internetā bija lielisks laiks ar Tay, Microsoft Twitter robotu, kas pēc dažām stundām kļuva par rasistisku holokausta denieri (pēc tam atgriezās un darīja to vēlreiz). Uzņēmums bija izveidojis sabiedrisko attiecību vāciņu - vairāk incidentu nekā katastrofa -, vienlaikus sniedzot sabiedrībai priekšstatu par mašīnmācības priekšrocībām un mīnusiem: automatizācija var izmantot modeļus ar aizraujošu efektu ātrumā, bet rezultāti būs prognozējami grūti prognozējami.

Kā tas bieži notiek, militārpersona ir agrīnā automatizācijas tehnoloģiju izmantotāja. Vienlaikus tā ir maksa par mašīnu mācīšanos, kā arī cenšas izmisīgi sekot līdzi. Viena no galvenajām Pentagona uzmanības jomām ir autonomi roboti un, kā viņi, piemēram, kopā ar cilvēkiem - R2D2 stila robots. Taču šonedēļ aizsardzības sekretāra vietnieks Roberts Darbs izklāstīja vēl vienu uzdevumu A.I.: atklātā pirmkoda datu kropļošana.

„Mēs esam pilnīgi pārliecināti, ka dziļās mācīšanās mašīnu izmantošana ļaus mums labāk izprast ISIL kā tīklu un labāku izpratni par to, kā to precīzi mērķēt un novest pie tā sakāves,” sacīja sekretārs. DoD tīmekļa vietne. Saskaņā ar šo kontu, Darbs, kurš runāja pasākumā, ko organizēja Washington Post, bija viņa epiphany skatoties Silicon Valley tehnoloģiju uzņēmums pierāda "mašīna, kas bija datus no čivināt, Instagram un daudziem citiem publiskiem avotiem, lai parādītu 2014.gada jūlijā Malaysia Airlines lidojuma 17 shoot-down reālajā laikā."

Privātie uzņēmumi un tiesībaizsardzība jau sen ir mēģinājuši saprast „lielos datus”. Bet militārajam ir priekšrocība: resurss. Turklāt viņiem ir pieejami klasificētie materiāli.

ASV valdība, šķiet, ir gatava likt likt, ka programmatūras algoritmi var sakārtot masveida datu apjomu, lai identificētu ISIS mērķus, kas citādi būtu tos iztukšojuši, un atklāt un traucēt zemes gabalus, pirms plānotāji tos var veikt. Valdība jau mēģina pētīt sociālos medijus, lai prognozētu tiešsaistes protestu lielumu. Nav šaubu, ka mašīnapmācība sniegs izlūkošanas analītiķiem lielāku varu, lai saprastu pasaulē pieejamo informāciju. Bet, kad šī inteliģence kļūst par pamatu, uz kura tiek pieņemts letāls streiks, ētikas jautājumi kļūst sarežģītāki, pat ja tie šķiet vienkārši.

Lai gan darbs bija ātri paziņojis, ka Pentagons nebūtu „deleģējis nāvējošu autoritāti mašīnai”, kas paliek gala spēle. Pa to laiku cilvēki paliks „cilpā”, jo žargons iet. Bet, tā kā ikviens, kurš iPhone skatās uz laika ziņojumu, stāvot blakus logam, zina, ka attiecības ar mūsu ierīcēm un programmatūru nav vienkāršas. Mēs esam problemātiski uzticami un viegli novirzīti no UI jautājumiem.

„Automātiska aizspriedumi”, tendence cilvēkiem atlikt uz mašīnām, rada skaidru un arvien lielāku apdraudējumu. Piemērs, kas ilustrē šo parādību, ir tas, kad tālrunis jums paziņo, ka jums ir vajadzīgs ceļojuma maršruts, ko jūs zināt, ir nepareizi, bet jūs to darāt jebkurā gadījumā, pieņemot, ka tālrunim ir jāzina kaut kas jums nav. Tā ir izplatīta problēma ne-militārajos kontekstos. Pentagons, šķiet, ir arī tuvāks, tomēr ir apdraudējuma ziņojumi, ko veido mākslīgais intelekts. Mēs neko nezinām par šīs programmas iespējamo efektivitāti, izņemot to, ka cilvēkiem būs grūti to īstenot.

2001. gada pētījumā, kurā aplūkoti studentu un profesionālo pilotu un automatizācijas aizspriedumi, pētnieki atklāja, ka “scenārijos, kuros bija pieejama pareiza informācija, lai pārbaudītu un atklātu automatizācijas anomālijas, kļūdu īpatsvars, kas atbilst aptuveni 55%, tika dokumentēts abās populācijās.” ka papildu cilvēka komandas biedra pievienošana nav mazinājusi problēmu.

Tāpat MIT pētījums no pagājušā gada nedaudz satraucoši konstatēja, ka datoru un videospēļu spēlētājiem bija "lielāka tendence pārspīlēt automatizāciju." Tas varētu nozīmēt, ka vairāk laika mēs pavadām skatīties uz mūsu ekrāniem, jo ​​vairāk mēs ticam, ko mēs redzam. Atkal, problēma nav saistīta ar mūsu izmantotajām sistēmām, bet ar to, kā mēs tos izmantojam. Kļūda nav mūsu zvaigznēs, bet sevī.

Lieli dati joprojām ir daudzsološi. Mašīnmācība joprojām ir daudzsološa. Bet, ja mašīnas iesaka cilvēkiem, rezultāti ir paredzami neparedzami. Vai Tay pārveidošanās par neonacistu misognistu nozīmē, ka čivināt ienīst ebrejus un sievietes? Ir grūti zināt, bet diezgan maz ticams. Kad mēs nesaprotam procesu, kā izejmateriāli kļūst par rezultātiem, mēs cenšamies racionāli risināt rezultātus. Kas liek Pentagonu interesantai pozīcijai. Vai cilvēki, kas plāno militārpersonas mašīnmācības programmatūru, būs tie, kas pasūtīs airstrikes? Tas nav veids, kā darbojas ķēžu ķēde, bet komandu ķēdes sajaucas, kad iesaistās tehnoloģija.

$config[ads_kvadrat] not found