Human Rights Watch: Ķīna izmanto lielus datus mērķa mazākumtautību grupām

$config[ads_kvadrat] not found

End Military Use of Schools

End Military Use of Schools
Anonim

Ķīnas valdība izmanto prediktīvos policijas algoritmus, lai mērķētu etniskās minoritātes Xinjiang provincē, saskaņā ar pirmdien paziņoto Human Rights Watch ziņojumu.

Ķīnas ziemeļrietumu provincē dzīvo 11 miljoni uiguru, turku musulmaņu etniskā grupa, kuru Ķīnas valdība pēdējos gados ir diskriminējusi.

Tagad tiek ziņots, ka iestādes izmanto lielus datus, lai sistemātiski vērstos pret ikvienu, kas tiek turēts aizdomās par politisko neuzticību. Šis solis ir daļa no „Strike Hard” kampaņas, kuras mērķis ir apturēt potenciālo teroristu darbību Ķīnā. Praksē tas ir novedis pie nesamērīgas policijas policijas Uiguriem, saka Human Rights Watch.

Prognozējošā policijas sistēma, kas pazīstama kā IJOP - Integrētā kopīgo operāciju platforma, tiek iegūta no dažādiem uzraudzības līdzekļiem. Tie ietver videonovērošanas kameras, numura zīmes un pilsoņu identifikācijas kartes numurus, kas iegūti no drošības kontrolpunktiem, un personiskās informācijas, tostarp veselības, banku un juridisko ierakstu, ieguvi.

Papildus automatizētai uzraudzībai valsts amatpersonas veic mājas apmeklējumus, lai vāktu datus par iedzīvotājiem. Ķīniešu uzņēmējs koplietoja formu, ko viņš aizpildīja ar IJOP ierakstiem ar Human Rights Watch, cita starpā, anketā tika jautāts, vai uzņēmējs bija Uigurs, cik bieži viņš lūdza, un kur viņš dodas uz reliģiskiem pakalpojumiem.

Visi šie datu ievadi IJOP izmanto, lai atzīmētu cilvēkus kā potenciālus draudus. Ja kāds ir karodziņš, policija atver turpmāku izmeklēšanu un ņem tos apcietinājumā, ja tie tiek uzskatīti par aizdomīgiem.

“Pirmo reizi mēs varam pierādīt, ka Ķīnas valdības lielo datu izmantošana un prognozēšanas policija ne tikai acīmredzami pārkāpj privātuma tiesības, bet arī ļauj ierēdņiem patvaļīgi aizturēt cilvēkus,” sacīja Human Rights Watch vecākais Ķīnas pētnieks Maya Wang.

Saskaņā ar ziņojumu daži no atzīmētajiem cilvēkiem ir nosūtīti uz politiskās izglītības centriem, kur viņi tiek turēti bezgalīgi bez tiesas.

„Kopš 2016. gada aprīļa Human Rights Watch lēš, ka Xinjiang varas iestādes ir nosūtījušas desmitiem tūkstošu uiguru un citu etnisko minoritāšu“ politiskās izglītības centros, ”teikts ziņojumā. IJOP nodrošina šo aizturēšanas uzticamību, piemērojot objektīvu, algoritmisku analīzi ar diskriminācijas arestiem.

Vēl sliktāk, IJOP iekšējās darbības ir noslēptas.

„Cilvēki Xinjiangā nevar pretoties vai izaicināt arvien lielākas viņu ikdienas dzīves pārbaudes, jo lielākā daļa pat nezina par šo„ melnās kastes ”programmu vai to, kā tā darbojas,” sacīja Wang.

Tā ir tāda pati problēma, kas apgrūtina vismodernākās mašīnmācības sistēmas: to izmantotās lēmumu pieņemšanas procedūras ir neskaidras pat algoritma veidotājiem.

Ir vērts pievērst uzmanību tam, ka Ķīna izmanto IJOP, jo, uzlabojoties tehnoloģijai, iespējams, ka paredzama policijas darbība palielināsies. Kā norādīja Jon Christian Kontūra prognozējošās policijas sistēmas jau ir izmantotas dažās ASV vietās. Losandželosas policijas nodaļa izmanto programmatūru, kas paredz, kur un kad noziegumi var notikt, lai amatpersonas varētu viņus izslēgt.

No otras puses, krimināltiesību sistēma, tiesas zālēs dažreiz tiek izmantoti algoritmi, kas dod potenciālu vērtējumu “riska novērtējums”, lai palīdzētu tiesnešiem pieņemt apzinātākus lēmumus. Diemžēl šie šķietami objektīvi algoritmi faktiski diskriminē pēc rases.

Ķīnas uzbrukums prognozējošai policijas darbībai uzsver atbildīgās algoritma ieviešanas nozīmi, jo mašīnas mācīšanās turpina iekļūt publiskajā sektorā. Varbūt ir pienācis laiks, lai tehniski gudras valdības pieņemtu jaunu mantru: dažreiz mākslīgais intelekts rada vairāk problēmu nekā tas atrisina.

$config[ads_kvadrat] not found