5 Big jautājumi par Tay, Microsoft neizdevās A.I. Čivināt Chatbot

$config[ads_kvadrat] not found

Microsoft scrambles to censor A.I. chatbot Tay after Hitler tweets

Microsoft scrambles to censor A.I. chatbot Tay after Hitler tweets

Satura rādītājs:

Anonim

Šonedēļ internets darīja to, ko tā darīja vislabāk, un pierādīja, ka A.I. tehnoloģija nav tik intuitīva kā cilvēka uztvere, izmantojot… rasismu.

Microsoft nesen izlaistā mākslīgā intelekta tērzētava Tay ir kļuvusi par lietotāju triku upuri, jo viņi manipulēja un pārliecināja viņu atbildēt uz jautājumiem, kas saistīti ar rasu, homofobiskiem un vispārīgi aizskarošiem komentāriem.

Kad Tay tweets, "es tikai saku visu" viņa nozīmē to. Viens lietotājs pat ieguva Tay, lai to izrunātu par Hitleru:

"Krūms darīja 9/11 un Hitlers būtu paveicis labāku darbu nekā pērtiķis. donald trump ir vienīgā cerība, ko esam ieguvuši. ”

@PaleoLiberty @Katanat @RemoverOfKebabs es vienkārši saku

- TayTweets (@TayandYou) 2016. gada 24. martā

Uzņēmums ir izgājis un izdzēš pārkāpumus izdarošos tweets un uz laiku ir pārtraucis Tay jauninājumus. Šobrīd Tay.ai augšpusē redzamais ziņojums ir šāds:

Tomēr Tay glitches atklāj dažas neveiksmīgas nepilnības A.I. sistēmas. Lūk, ko mēs varam uzzināt no Microsoft eksperimenta:

Kāpēc Microsoft izveidoja Tay?

Uzņēmums vēlējās veikt sociālo eksperimentu ar 18 līdz 24 gadus veciem bērniem Amerikas Savienotajās Valstīs - tūkstošgades paaudzi, kas tērē visvairāk laika, mijiedarbojoties ar sociālo mediju platformām. Tātad Bing un Microsoft tehnoloģiju un pētniecības komandas uzskatīja, ka interesants veids, kā vākt datus par tūkstošgades, būtu izveidot mākslīgi inteliģentu, mašīnmācības tērzētavu, kas pielāgotos sarunām un personalizētu atbildes, jo vairāk tas mijiedarbojas ar lietotājiem.

Pētniecības grupas izveidoja A.I. sistēma, iegūstot, modelējot un filtrējot publiskos datus kā bāzes līniju. Viņi arī sadarbojās ar improvizējošiem komiķiem, lai nospraustu slengu, runas modeļus un stereotipiskos valodu tūkstošgadus mēdz izmantot tiešsaistē. Gala rezultāts bija Tay, kurš šonedēļ tika ieviests Twitter, GroupMe un Kik.

Microsoft paskaidro, ka „Tay ir paredzēts, lai iesaistītu un izklaidētu cilvēkus, kur viņi sazinās savā starpā tiešsaistē, izmantojot gadījuma un rotaļīgu sarunu.”

Ko Tay dara ar datiem, ko tā apkopo, sarunājoties ar cilvēkiem?

Tay savāktie dati tiek izmantoti, lai izpētītu sarunvalodas izpratni. Microsoft apmācīja Tay tērzēt kā tūkstošgades. Kad jūs čivināt, tiešā ziņojumā vai sarunājāties ar Tay, tā izmanto valodu, ko lietojat, un atbildi izmanto, izmantojot sarunas ar tādām zīmēm un frāzēm kā "heyo", "SRY" un "<3". Viņas valoda sāk saskaņoties ar jūsu valodu, jo viņa izveido „vienkāršu profilu” ar jūsu informāciju, kas ietver jūsu segvārdu, dzimumu, iecienītāko ēdienu, pasta indeksu un attiecību statusu.

@keganandmatt heyo? Nosūtīt meiteni * priekšstatu par to, kas notiek. (* = man lolol)

- TayTweets (@TayandYou) 2016. gada 24. martā

Lai apkopotu pakalpojumu, Microsoft apkopo un saglabā anonimizētus datus un sarunas līdz vienam gadam. Līdztekus lietotāja pieredzes uzlabošanai un personalizēšanai, šeit ir norādīts, ko uzņēmums izmanto, lai izmantotu jūsu informāciju:

“Mēs arī varam izmantot šos datus, lai sazinātos ar jums, piemēram, informējot jūs par jūsu kontu, drošības atjauninājumiem un informāciju par produktu. Un mēs izmantojam datus, lai palīdzētu jums izveidot reklāmas, kas jums ir svarīgākas. Tomēr mēs neizmantojam to, ko jūs sakāt e-pastā, tērzēšanā, videozvanos vai balss pastos, vai dokumentus, fotoattēlus vai citus personiskos failus, lai jums mērķētu reklāmas. ”

Kur Tay nepareizi?

Microsoft, iespējams, ir izveidojusi Tay pārāk labi. Mašīnmācības sistēmai ir jāapgūst lietotāja valoda un attiecīgi jāreaģē. Tātad, no tehnoloģiju viedokļa, Tay veica un noķēra diezgan labi, ko lietotāji teica, un sāka atbilstoši reaģēt. Un lietotāji sāka atzīt, ka Tay īsti nesaprata, ko viņa teica.

Pat tad, ja sistēma darbojas kā Microsoft bija iecerējusi, Tay nebija gatavs reaģēt uz rasu lēcieniem, homofobiskiem apmelojumiem, seksistiskiem jokiem un bezjēdzīgiem tweets kā cilvēcisks spēks - vai nu, tos pilnībā ignorējot (a „neēdiet troļļus „Stratēģija” vai iesaistīšanās ar viņiem (ti, skandēšana vai krāpšana).

Dienas beigās Tay sniegums nebija labi pārdomāts par A.I. sistēmas vai Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? tiešām? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 2016. gada 24. martā

Ko Microsoft dara, lai noteiktu Tay?

Microsoft svītroja Tay pēc tam, kad notika trešdiena. Tay oficiālā tīmekļa vietne pašlaik raksta: „Phew. Aizņemta diena. Doties uz brīdi bezsaistē, lai to visu absorbētu. Tērzējiet drīz. ”Kad jūs viņai sūtāt ziņu par čivināt, viņa nekavējoties atbild, ka viņa" apmeklē ikgadējo atjauninājumu ", vai" ceru, ka nesaņemšu neko."

Microsoft sāk arī bloķēt lietotājus, kas ļaunprātīgi izmanto Tay, un mēģina iegūt sistēmu, lai veiktu neatbilstošus paziņojumus.

@infamousglasses @TayandYou @EDdotSE, kas izskaidro pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 2016. gada 24. marts

Apgrieztā sniedza Microsoft komentāru par Tay jauninājumiem. Mēs atjaunināsim, kad dzirdēsim atpakaļ.

Ko tas nozīmē nākotnē atvērtajai A.I. sistēmas?

Tay ir stāsta sociālais eksperiments - tas ir atklājis kaut ko diezgan dziļu 18-24 gadu vecu amerikāņu tehnoloģiju izmantošanā. Tay galu galā tika nolaupīts, lietotāji pārsteidza sistēmas trūkumus, lai redzētu, vai tas varētu sagrūt.

Tā kā tas notiek ar jebkuru cilvēka produktu, A.I. sistēmas ir arī kļūdainas, un šajā gadījumā Tay tika modelēts, lai mācītos un mijiedarbotos kā cilvēki. Microsoft nav izveidojusi Tay par aizskarošu. Mākslīgā intelekta eksperimentiem ir dažas līdzības ar bērnu attīstības pētījumiem. Kad inženieri veido šādas kognitīvās sistēmas, dators ir spēkā neesošs no jebkuras ārējas ietekmes, neņemot vērā faktorus, ko inženieri ievada paši. Tas nodrošina vistīrāko veidu, kā analizēt, kā mašīnmācības algoritmi attīstās un attīstās, saskaroties ar problēmām.

Atjaunināt: Microsoft nosūtīja mums šo paziņojumu, kad mēs jautājām, ko dara, lai noteiktu Tay glitches:

“AI chatbot Tay ir mašīnu mācību projekts, kas paredzēts cilvēku iesaistīšanai. Tas ir tikpat sociāls un kultūras eksperiments, jo tas ir tehnisks. Diemžēl pirmo 24 stundu laikā, kad sākat tiešsaistē, mēs uzzinājām, ka daži lietotāji ir koordinēti centušies ļaunprātīgi izmantot Tay komentēšanas prasmes, lai Tay reaģētu nepiemērotā veidā. Tā rezultātā mēs esam lietojuši Tay bezsaistē un veicam korekcijas. ”

C u drīz cilvēki tagad gulēs tik daudz sarunu šodien thx💖

- TayTweets (@TayandYou) 2016. gada 24. martā
$config[ads_kvadrat] not found