Mūsu A.I. Politika ir iestrēdzusi pagātnē

$config[ads_kvadrat] not found

Artificial intelligence & algorithms: pros & cons | DW Documentary (AI documentary)

Artificial intelligence & algorithms: pros & cons | DW Documentary (AI documentary)
Anonim

Baltā nama Zinātnes un tehnoloģiju politikas biroja galvenā tehnoloģiju virsnieka vietnieks Eds Feltens saka, ka cilvēkam ir divi galvenie pienākumi attiecībā uz mākslīgā intelekta attīstību un attīstību.

Pirmais, viņš saka, ir „sniegt A.I. Otrais: „lai risinātu A.I.

Feltens runāja ar cilvēkiem, kas atrodas Ņujorkas Universitātes Skirbola Izpildītājmākslas centrā A.I. Tagad - Vasaras lekciju sērija, kuru līdzfinansē Baltā nama, kuras mērķis bija izpētīt un apspriest galvenos jautājumus, kas saistīti ar A.I. tehnoloģijas.

A.I. atrodas krustcelēs, A.I. Tagad norādīja līdzpriekšsēdētāji Kate Crawford (pētnieks Microsoft Research) un Meredith Whittaker (Google Open Research dibinātājs un vadītājs). Privātajam un publiskajam sektoram ir jāstrādā kopā, lai radītu kādu iespējamu A.I. politiku. Bet problēma ir tāda, ka, kamēr tehnoloģiju uzņēmumi veic milzīgus soļus virzībā uz faktisko kodu un arhitektūru, kas iegūst A.I. vissvarīgākais spēks, mūsu pašreizējās politikas struktūras ir novecojušas vai, vēl ļaunāk, neeksistē.

Pārāk ilgi, A.I. ir novirzīts kā futūristisks jēdziens, kas nav piemērojams mūsdienu laikmetam. Bet A.I. ir mierīgi izrādījies pilsētvides politikā, izsijājot caur datiem un sniedzot pakalpojumus cilvēkiem tādā veidā, ka cilvēka spēks nav spējīgs jebkad sasniegt. Felten minēja piemērus, kā algoritmi var izmantot datus, lai sasaistītu cilvēkus ar mājokli par pieņemamu cenu vai nodrošinātu pārredzamību, lai sabiedrība varētu piekļūt vērtīgai informācijai.

Tas nenozīmē, ka A.I. ir perfekts; tas ir ļoti daudz ne. Vakara galvenā paneļa laikā - A.I.Sweeney, A.I. Hārvardas universitātes pētnieks apsprieda stāstu, ko viņa sauca: „Diena mans dators bija rasistisks”.

Žurnālists, kurš intervēja Sweeney, meklēja savu vārdu, izmantojot Google, un atklāja, ka viņas vārds ir parādījies zem reklāmām, kas paredzētas vietnēm, kas piedāvā savākt un dalīt kriminālās arestēšanas datus. Sweeney nekad nav bijis arestēts, un viņas vārds netika iekļauts tīmekļa vietnes datubāzē - tomēr viņas vārds tika izsvītrots reklāmā. Tāpat kā ikviens labs zinātnieks, Sweeney paņēma savu personīgo pieredzi un veica pētījumu un konstatēja, ka šīs reklāmas ir ievērojami biežāk uzskaitījušas melnā indivīda vārdus nekā baltās personas. Iemesls? Šo reklāmu Google piegāde ir rezultāts algoritmam, kas dod lielāku nozīmi tam, ko cilvēki noklikšķināja, kad parādījās reklāmas. Kad melnais nosaukums bija Googled, vairāk cilvēku noklikšķināja uz šīm reklāmām. Sistēma iemācījās šo modeli un sāka sniegt šīs reklāmas biežāk.

Tā ir vērtīga mācība, lai pamatotu A.I. Solījumu - cilvēki galu galā - enerģijas tehnoloģija, un rasistiskas darbības no cilvēka puses var ietekmēt dizainu un algoritmus, un jā, pat A.I.

Google varētu viegli atklāt šīs reklāmas pakalpojumus un strādāt, lai tos labotu. "Viņi izvēlējās ne," Sweeney apgalvoja.

Vai modernāks politikas ietvars liek Google novērst šo problēmu? Varbūt. Nicole Wong, kas bija Feltenas priekšgājējs no 2013. līdz 2014. gadam, uzsvēra, ka daudzi cilvēki, tostarp A.I. pašiem pētniekiem - bija nopietnas bažas par „pieaugošo asimetriju” starp cilvēkiem, kas izmanto lielus datus, un cilvēkiem, kurus galu galā skar tie, kas svārstījās no datu subjektiem vai tiem, kurus ietekmēja šādu datu paziņojumi.

Šīs bažas neaprobežojas tikai ar privāto sektoru. Baltā nama iekšējās politikas padomes priekšsēdētāja vietniece Roy Austin runāja par to, kā A.I. - vai radīt milzīgu varas pārvarēšanu un ļaunprātīgu izmantošanu, kad runa ir par civiliedzīvotāju privātumu. „Jautājums kļūst par“ Ko mēs darām ar šiem datiem? ”, Viņš teica. Ir viena lieta, lai iegūtu datus, bet kam tas ir pieejams? Cik ilgi? Kam tas būs pieejams? Atkal, mums nav politisku atbilžu vai risinājumu šiem jautājumiem un neskaidrībām - un tas ir satraucoši, jo mēs barelējam uz nākotni, kuru arvien vairāk kontrolē A.I.

Trešais bažas pīlārs bija mazāk saistīts ar nežēlīgu A.I. izmantošanu, un vairāk ar to, kā A.I. un autonomās sistēmas pārvieto cilvēkus no darba. Henry Siu, A.I. pētnieks Britu Kolumbijas universitātē apsprieda „rutīnas” profesijas (kur darbinieki veic ļoti specifiskus uzdevumus, kas gandrīz nekad neatšķiras no noteiktās rutīnas), un kā šie zaudējumi ir visneaizsargātākie pret tehnoloģiju traucējumiem. Automatizācija ir radījusi šajās darbavietās samazinošu samazinājumu - un tie nenāk atpakaļ.

Līdzīgi kā tas pats vecais industrializācijas stāsts, bet tas nav gluži. Kamēr „šī revolūcija jau var būt šeit… tā var būt mazāk eksotiska, nekā mēs domājām,” brīdināja David Edelman, ekonomikas un tehnoloģiju politikas prezidenta īpašais palīgs. Darba zaudējums „nenotiks uzreiz.” Gan viņš, gan Siu uzsvēra, ka risinājums ir radīt tādu izglītības vidi, kurā cilvēki nepārtrauc mācības skolā, viņi pastāvīgi apgūst jaunas prasmes un specializācijas, kas ļauj viņiem pielāgoties ar tehnoloģijas.

Politikas veidotājiem varētu būt patīkami saprast, ka Amerikas Savienotās Valstis nav vienīgā, lai risinātu šos jautājumus. Bet, ja Amerika plāno turpināt vadīt A.I., tai ir jāpastiprina politika.

Mustafa Suleyman, Google DeepMind dibinātājs, apsprieda A.I. palīdzēt veselības aprūpes sistēmām un ļaut ārstiem par mašīnu algoritmiem noteikt noteiktas slimības un slimības - atbrīvot laiku cilvēkiem izstrādāt ārstēšanas metodes. Suleimānam, kurš ir britu, tas nešķita kā tālredzīgs priekšstats par tādas sistēmas izveidi, kas izveidota slimnīcās. Tomēr Sweeney norādīja, ka „ASV jums nav kontroles pār saviem datiem” - nav regulējošu pasākumu, lai nodrošinātu, ka informācija netiek ļaunprātīgi izmantota. Un tas ir milzīgs problēma.

„Es vēlos visu, ko es varu izspiest no visiem tehnoloģiju panākumiem,” sacīja Sweeney. „Problēma nav tehnoloģiskā puse; problēma ir tā, ka mēs esam nesaskaņoti ar sabiedrisko kārtību. ”

$config[ads_kvadrat] not found