Gruzijas Tech Stereotyping Robot ir AI, nevis rasisma nākotne

$config[ads_kvadrat] not found

EU seeks to protect human rights by regulating AI

EU seeks to protect human rights by regulating AI
Anonim

Uz ausīm, kas jutīgas pēc skolas specialitātes un daudzveidības semināriem, tas izklausīsies slikti, bet mēs vēlamies, lai roboti spētu ātri pieņemt spriedumus, pamatojoties uz izskatu. Aizspriedumu pārvarēšana ir laba, bet nespēja stereotipam mazina izlūkošanu - mākslīgu un citādi. Džordžs Tech robots, Alan Wagner, Ph.D., ir galvenais stereotipu tehnoloģijas atbalstītājs. Viņš apgalvo, ka šāda veida loģika nav jāpiemēro rasei vai dzimumam, tikai situācijām un uzvedībai.

Savā stereotipu algoritma agrīnā pārbaudē Vāgners apmācīja naivi robotu, lai izdarītu secinājumus no tā, ko tā redzēja. Robots iemācījās un kļuva uztverošs, kas ļāva Vāgneram kritiski domāt par robota pieņēmumu ētiku, īpaši iepriekš ieprogrammētajiem. Viņš runāja Apgrieztā par viņa darbu un tā sekām.

Pastaigājiet mani caur eksperimentu.

Robots mijiedarbojas ar dažādiem indivīdu veidiem - ugunsdzēsēju, EMT vai neko - bet tam nav iepriekšējas pieredzes ar kādu no šīm personu kategorijām. Būtībā tā ir pieredzes mācīšanās.

Ideja bija parādīt, ka robots varētu izmantot indivīda uztveres iezīmes, lai prognozētu viņu vajadzības attiecībā uz rīku izmantošanu. Veids, kādā algoritms strādāja, robota kamera uztvēra dažādus aspektus, ko indivīds izskatījās - piemēram, viendabīgu krāsu, neatkarīgi no tā, vai viņiem bija bārda, un to matu krāsu.

Tas arī uzdotu viņiem jautājumus par to, kā viņi izskatās. Protams, jautājumu uzdošana nav tā, ko jūs vēlaties darīt šajā jomā, bet robota uztvere tagad ir tik ierobežota. Mums vajadzēja veidu, kā uzsākt procesu, lai uzzinātu par personu. Persona izvēlētos rīku, un tad robots izvēlētos rīku, un laika gaitā robots uzzinātu, kāds rīks ir katram vēlamajam cilvēkam.

Vai jūs gaidījāt, ka robots uzzinās, ka žetons nozīmē, ka policists vai smags atstarojošs mētelis nozīmē ugunsdzēsēju?

Mēs to gaidījām. Bet bija arī pārsteidzošas lietas.Piemēram, robots kļūdaini atzina, ka ar ugunsdzēsēju tiek prognozēts bārda - tas bija dīvaini, bet, aplūkojot datus, tas nebija pārsteidzoši. Pirmie vairāki cilvēki, kas mijiedarbojās ar to, bija ugunsdzēsēji, kuriem bija bārdas. Tāpēc mēs uzskatām, ka nepieciešama uztveres daudzveidība, ideja, ka, ja robots varētu redzēt lielus, plaši dažāda veida cilvēkus kategorijā, tas labāk attīstītu un saprastu šo kategoriju.

Vai jūs teiktu, ka autonomie roboti būtu jāapmāca, lai izlīdzinātu šos viltus, tāpēc robots nedomā, vai šai personai ir bārdas, viņš ir ugunsdzēsējs?

Absolūti. Tas ir kritiski, ka mēs izlīdzinām šīs lietas. Ir ļoti svarīgi, lai mums būtu šie roboti, kas strādā no dažādiem cilvēkiem.

Kāda varētu būt šāda mācīšanās?

Tas ļautu robotam koncentrēties uz lietām, kas labāk raksturo ugunsdzēsējus. Piemēram, ugunsdzēsējs var pat nēsāt apvalku. Robots pamanīs citus ugunsdzēsības aspektus, iespējams, zābakus, iespējams, cimdus, iespējams, ķiveres. Tas varētu teikt: „Labi šī persona patiešām ir ugunsdzēsēju šajā vidē. ”

Ja jums būtu pietiekami daudz cilvēku, tas varētu atpazīt ugunsdzēsēju ugunsgrēka vietā pret ugunsdzēsēju Halloween ballītē. Tā ir smalka uztveres informācija, piemēram, atšķirība starp formas tērpu kvalitāti vai kontekstuālo vidi.

Cik veiksmīgi bija algoritms, ne tikai apvienojot bārdas ar ugunsdzēsējiem?

Mums bija divas lietas, ko mēs patiešām gribējām apskatīt: Viens, ko jūs varat darīt ar to? Ja roboti var atpazīt ugunsdzēsējus, vai tas tiešām palīdz? Pētījums parādīja, ka tas ļāva jums sašaurināt meklēšanu. Tā vietā, lai aplūkotu bārdas matu krāsai, meklētu acu krāsu vai kāds cits, ko jūs varētu meklēt, jūs varētu koncentrēties uz īpatnībām. Vai persona valkā ugunsdzēsēju mēteli? Tas varētu paātrināt procesu.

Vēl viena patiešām kritiska lieta, ko mēs skatījāmies, ir, ja kategorija, ko robots prognozē, ir nepareizi? Kā tas ietekmē jūs? Jūs varat iedomāties, ka meklēšanas un glābšanas vide var būt haotiska: varbūt jūs strādājat ar dūmiem piepildītiem apstākļiem, robots var nespēt visu uztvert ļoti labi, tas var radīt kļūdas. Jūs varētu iedomāties sliktāku gadījumu, kad robots domā, ka persona ir cietušais, kad viņi ir ugunsdzēsēji. Tātad tas mēģina glābt ugunsdzēsēju. Tas būtu briesmīgi. Mēs vēlējāmies redzēt, kur tas saplīst, kā tas saplīst, kādas iezīmes tas visvairāk ietekmē un kādas ir dažādu veidu kļūdas.

Šo pieeju var izmantot dažādos veidos - ja viņi vispār nevar redzēt personu, bet var redzēt darbības, ko viņi dara. Ja es redzu personu, kura izvēlas cirvi, tad es varu paredzēt, ka viņiem ir ķivere.

Kā jūs domājat, kā robotu novērtēt kontekstu un veikt prognozi?

Mēs esam mēģinājuši aplūkot pāris dažādu veidu vidi - restorānu, skolu un pansionātu. Mēs centāmies uztvert ar vidi saistītās iezīmes un kādus objektus vidē, kādas darbības cilvēks izvēlas, un to, kā cilvēki izskatās apkārtējā vidē, un mēģināt to izmantot, lai veiktu daudzas sociālās prognozes. Piemēram, skolas vidē cilvēki, pirms viņi runā, paaugstina savas rokas. Tātad, ja es redzu rīcību, ko cilvēki paaugstina ar roku, kādus priekšmetus es ceru redzēt vidē? Vai es sagaidu, ka redzēšu tāfeles; es ceru redzēt galdu? Es ceru redzēt bērnus.

Cerība izmantot šo informāciju. Ja robots veic evakuācijas procedūru, tas redzēs, kādi cilvēki ir tur un kur viņi varētu būt.

Pieņemsim, ka ir robots, kas nāk pie jūsu durvīm un saka: „Lūdzu, sekojiet man līdz izejai.” Kaut kas tik šķietami vienkārši, kā tas tiešām ir ļoti sarežģīts. Ja robots uzbrauc uz durvīm daudzdzīvokļu mājā, jums nav ne jausmas, kas jūs mijiedarbosies. Tas varētu būt četru gadu vecs bērns, tas varētu būt 95 gadus vecs cilvēks. Mēs vēlamies, lai robots pielāgotu savu interaktīvo uzvedību tādai personai, kādu tā redz, lai glābtu tos. Mēs izmantojam dažas no šīm kontekstuālajām stundām un cenšamies izstrādāt šo lietojumprogrammu.

Vai jūs izmantojat līdzīgu „stereotipu” definīciju robotiem un cilvēkiem, vai ir kaut kas cits?

Terminam stereotipi ir negatīvs konteksts. Tas, kā mēs to izmantojam, ir vienkārši cilvēku kategoriju izstrāde un kategoriska informācija, lai prognozētu personas īpašības. Psiholoģijā es zinu, daudz darba koncentrējas uz sejas stereotipiem un dzimumu stereotipiem. Mēs to nedarām. Vai process ir tāds pats? Es nezinu. Nav ne jausmas.

Vai esat noraizējies, ka cilvēkiem varētu būt maldīgi priekšstati par jūsu darbu?

Pirms pāris gadiem mēs izstrādājām šo ideju par robotiem, kas varētu maldināt cilvēkus. Plašsaziņas līdzekļos bija mazliet nepareizs priekšstats, ka tas novestu pie robotu nozagšanas cilvēku maku.

Es vēlos izmantot avārijas evakuācijas situāciju: jūs ne vienmēr vēlaties būt pilnīgi godīgi pret evakuācijas personu, vai ne? Piemēram, ja kāds jums jautāja: „Vai mana ģimene ir labi?” Tas varētu būt briesmīgi, ja robots teica: „Nē, viņi visi nomira. Lūdzu, sekojiet man izejai. ”Ir dažas situācijas, kad robotam faktiski ir jābūt īsi negodīgam. Bet mana pieredze bija tāda, ka cilvēki jutās kā mēs cenšamies novest pie pasaules beigām.

Mēs vienmēr esam ieinteresēti šo cilvēka-robota tehnikas pro-sociālajiem aspektiem. Mēs cenšamies palīdzēt cilvēkiem, nevis kaut ko sliktu.

$config[ads_kvadrat] not found