A.I. Pētniecības institūts rāda, kā izveidot atbildīgus algoritmus

$config[ads_kvadrat] not found

Jak vyzrát na YouTube algoritmus

Jak vyzrát na YouTube algoritmus
Anonim

Pētniecības institūts AI Trešdien publicēja jaunus ieteikumus algoritmu atbildīgai īstenošanai publiskajā sfērā.Viņu padomi ir vērsti uz darba grupu, kuru janvārī izveidoja Ņujorkas dome, kas mācās valdības mākslīgā intelekta izmantošanu.

AI Now ziņojums, Algoritmiskie ietekmes novērtējumi: virzība uz atbildīgu automatizāciju valsts aģentūrās, izklāsta vajadzību pēc pārredzamības, kad runa ir par algoritmu ieviešanu. Algoritmiem ir milzīga ietekme uz mūsu ikdienas dzīvi, taču to ietekme dažkārt paliek nepamanīta. Tā kā, piemēram, tie tiek cepti sociālo mediju un video platformu infrastruktūrā, ir viegli aizmirst, ka programmas bieži nosaka to, ko saturs tiek piespiests interneta lietotājiem. Tas ir tikai tad, ja kaut kas noiet greizi, tāpat kā sazvērestības teorijas video, kas sasniedz YouTube augšupejošo sarakstu, mēs pārbaudām automatizētās lēmumu pieņemšanas procedūras, kas veido tiešsaistes pieredzi.

Un algoritmi neaprobežojas tikai ar interneta platformām. Valdības iestādes arvien vairāk ir atkarīgas no algoritmiem, sākot no izglītības līdz krimināltiesībām. Ideālā pasaulē algoritmi noņemtu cilvēka neobjektivitāti no grūtiem lēmumiem, piemēram, nosakot, vai ieslodzītajam ir jāpiešķir vienlīdzība. Tomēr praksē algoritmi ir tikai tikpat efektīvi kā cilvēki, kas tos izstrādā.

Piemēram, izmeklēšana ProPublica pierādīja, ka tiesu zālēs izmantotie riska novērtēšanas algoritmi bija rasistiski neobjektīvi. Vēl ļaunāk, daudzi no publiskajā sektorā izmantotajiem algoritmiem ir privāti, un daži uzņēmumi atsakās dalīties ar savu programmatūru. Tas neļauj saprast, kāpēc šie tā sauktie „melnās kastes” algoritmi atgriež noteiktus rezultātus.

Viens no potenciālajiem risinājumiem, ko piedāvā AI Now? Algoritmiskie ietekmes novērtējumi. Šajos novērtējumos ir noteikta pilnīgas pārredzamības norma, kas nozīmē, ka valsts aģentūrām, kas izmanto algoritmus, ir jāpublisko, kad un kā tās izmanto. „Šī prasība pati par sevi būtu tālu no tā, lai izskaidrotu, kuras tehnoloģijas tiek izmantotas, lai kalpotu sabiedrībai, un kur jākoncentrē atbildības pētījumi,” teikts ziņojumā.

Atklātības politika, kas saistīta ar algoritmiem, arī ļautu pilsoņiem pārbaudīt un protestēt to izmantošanu. Vai jūs vēlaties, lai algoritms sniegtu jums riska novērtējuma punktu, pamatojoties uz faktoriem, kas nav atkarīgi no jūsu kontroles, jo īpaši, ja šis rezultāts varētu palīdzēt noteikt, vai jūs dodaties uz cietumu? Varbūt jā varbūt nē. Katrā ziņā ir svarīgi precīzi zināt, kādi mainīgie tiek analizēti ar algoritmu.

Turklāt AI Now iesaka noteikt juridisku standartu, lai cilvēki varētu vērsties pret negodīgiem algoritmiem.

Piemēram, ja aģentūra neizpauž sistēmas, kas saprātīgi ietilpst to personu lokā, kuras pieņem automatizētus lēmumus, vai ja tas ļauj pārdevējiem veikt komercnoslēpuma prasības un tādējādi bloķēt nozīmīgu piekļuvi sistēmai, sabiedrībai vajadzētu būt iespējai izteikt bažas ar Aģentūras pārraudzības iestāde vai tieši tiesā, ja aģentūra atteicās novērst šīs problēmas pēc publiskā komentāru perioda.

Ieteikumi būtībā sakrīt ar vienu visaptverošu mandātu: ja izmantojat algoritmus, neaizmirstiet par to.

Lasiet pilnu ziņojumu šeit.

$config[ads_kvadrat] not found