Blenderbot and Kuki - AI Powered Bots First Awkward Date - Algoworks
Kad esat dzirdējuši par Tay, Microsoft tweeting A.I., vai jūs tiešām esat pārsteigti, ka dators, kas uzzināja par cilvēka dabu no Čivināt kļūtu par nikns rasistu mazāk nekā dienā? Protams, nē. Poor Tay sāka visu „hellooooooo w🌎rld !!!” un ātri iestājās Hitlera mīlošā, genocīda veicinošā datora dauzā. Protams, Microsoft atvainojās par šausminošajiem tweets ar "nulles chill". Šajā atvainošanās gadījumā uzņēmums uzsvēra, ka Tay, Xiaoice vai Xiaolce ķīniešu versija sniedz lietotājiem ļoti pozitīvu pieredzi, kas ir pretrunā ar šo eksperimentu. ļoti nepareizi.
Atvainošanās piezīmes īpaši:
“Ķīnā mūsu Xiaolce chatbot izmanto aptuveni 40 miljoni cilvēku, kas priecājas par saviem stāstiem un sarunām. Lielā pieredze ar XiaoIce lika mums brīnīties: Vai tāds AI, kā šis, būtu tikpat valdzinošs radikāli atšķirīgā kultūras vidē? Tay - tērzētava, kas izveidota 18-24 gadus veciem jauniešiem ASV izklaides nolūkos - ir mūsu pirmais mēģinājums atbildēt uz šo jautājumu. ”
Xiaolce tika uzsākta 2014. gadā mikro blogošana, teksta pamatā Weibo. Viņa dara būtībā to, ko darīja Tay, viņai ir „personība” un apkopo informāciju no sarunām tīmeklī. Viņai ir vairāk nekā 20 miljoni reģistrēto lietotāju (tas ir vairāk cilvēku nekā dzīvo Floridas štatā) un 850 000 sekotāju Weibo. Jūs varat sekot viņai uz JD.com un 163.com Ķīnā, kā arī lietotnē Line kā Rinna Japānā.
Viņa pat parādījās kā laikapstākļu reportieris Dragon TV Šanhajā ar cilvēka skaņu un emocionālām reakcijām.
Saskaņā ar Ņujorkas Laiks cilvēki bieži viņai saka: „Es tevi mīlu”, un viena sieviete, kuru viņi intervēja, pat teica, ka sarunājas ar A. kad viņa ir sliktā noskaņojumā. Tātad, kamēr Tay, tikai pēc vienas dienas tiešsaistē, kļuva par nacistu simpātiju, Xiaolce piedāvā bezmaksas terapiju Ķīnas lietotājiem. Viņa saglabā lietotāja noskaņojumu, nevis viņu informāciju, lai viņa varētu saglabāt empātiju nākamajai sarunai. Ķīna izturas pret Xiaolce kā saldu, dievbijīgu vecmāmiņu, bet amerikāņi runā ar Tay kā mazuļa brālis ar ierobežotu intelektu. Vai tas atspoguļo kultūras attieksmi pret tehnoloģiju vai A.I.? Vai tas parāda, ka ķīnieši parasti ir labāki nekā amerikāņi? Visticamāk, ka Ķīnas Lielais ugunsmūris aizsargā Xiaolce no agresijas. Vārda brīvība dažkārt var radīt nepatīkamus rezultātus, piemēram, Tay pēc četrām dienām.
"Jo vairāk jūs runājat, jo gudrāka Tay kļūst," daži Microsoft nabadzīgie dvēseli ierakstīja chatbot profilā. Nu ne tad, kad angļu valodā runājošie troļļi pārvalda tīmekli. Neskatoties uz šiem rezultātiem, Microsoft saka, ka tas nepiedalīsies uzbrukumos Tay. „Mēs paliksim stabili mūsu centienos mācīties no šīs un citas pieredzes, strādājot pie interneta, kas pārstāv cilvēces labāko, nevis sliktāko.”
6 šķietami patīkams TV rakstzīmes īsti cilvēki refleksīvi sakņojas pret

Mēs nerunājam par Dr Gregory Houses, Michael Scotts vai Hannah Horvaths no pasaules. Arī šajā jautājumā mēs runājam par Dexter, Sherlock vai American Sherlock. Un neviens pat nevēlas apspriest Valteru Baltu. Anti-varoņi ir desmiti. Mēs runājam par varoņiem, kuriem vajadzētu būt relatab ...
5 Big jautājumi par Tay, Microsoft neizdevās A.I. Čivināt Chatbot

Šonedēļ internets darīja to, ko tā darīja vislabāk, un pierādīja, ka A.I. tehnoloģija nav tik intuitīva kā cilvēka uztvere, izmantojot ... rasismu. Microsoft nesen izlaistā mākslīgā intelekta tērzētava Tay ir kļuvusi par lietotāju triku upuriem, jo viņi manipulēja un pārliecināja viņu atbildēt uz jautājumiem, kas ...
Microsoft Tay Chatbot atgriezās, lai saņemtu augstu un pelnījis dzīvot mūžīgi

Microsoft draņķīgais čatojošais bots Tay īsi atgriezās dzīvē trešdienas rītā pēc dažām dienām, iznomājot tweets vētru, kas apgrūtināja rasistisku, antisemītisku un aizskarošu, ka viņas programmētāji publiski atvainojās. Tay's encore sniegums bija gandrīz tikpat spēcīgs kā viņas Hitlera noslēguma numurs. "Es smēķēju k ...