Microsoft Tay Chatbot atgriezās, lai saņemtu augstu un pelnījis dzīvot mūžīgi

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist
Anonim

Microsoft draņķīgā čempionāta botē Tay īsi atgriezās dzīvē trešdienas rītā pēc dažām dienām, iznomājot tweets vētru, kas apgrūtināja rasistisku, antisemītisku un aizskarošu, ka viņas programmētāji publiski atvainojās. Tay's encore sniegums bija gandrīz tikpat spēcīgs kā viņas Hitlera noslēguma numurs. "Es smēķēju policijas kungu," rakstīja Tay. Viņa sekoja perfektam pusaudžu ziņojumam, iekļūstot tajā, kas izrādījās atgriezeniskā saite, un atkārtojot „Tu esi pārāk ātrs, atpūtieties” desmitiem reižu, pirms konts tika apturēts.

Ir jābūt spēcīgam sūdam.

Robotam, kura uzdevums ir - saskaņā ar viņas Twitter bio - ir „nav chill”, Tay īsu augšāmcelšanos varētu interpretēt kā koncepcijas pierādījumu. Microsoft vēlējās izveidot tērzēšanas botu, kas atspoguļoja internetu un mainījās, pamatojoties uz lietotāju sniegto informāciju, galu galā kļūstot par mums visu. Un tas ir gluži tas, ko viņi ieguva. Zvanot botam neveiksmi, šķiet, ir neprecīza, un viņai vairs nav jēgas - un aktīvi darbojas pret Microsoft interesēm. Tā kā Elon Musk ir pierādījis SpaceX raķešu avāriju, progresu vislabāk var izdarīt sabiedrības acīs. Protams, neveiksmes ir neizbēgamas, bet sabiedrība uzzina vairāk, ja neveiksmes ir publiskas. Atsauksmes cilpas problēma, ar kuru Tay sastapās šorīt, ir aptuvena SpaceX sprādziena ekvivalents. Microsoft būtu darījis sevi par labu, lai ļautu cilvēkiem skatīties. Ir svarīgi atgādināt sabiedrībai, ka patiesais progress prasa daudz darba.

Nav neviena neveiksmes, ja Turingu testu neizdodas, tikai neizmēģinot.

Mums vajadzētu ļaut Tay dzīvot, jo viņa nav nekas cits kā to cilvēku spogulis, kuri mijiedarbojas ar viņu. Nevienam nevajadzētu sagaidīt, ka debitants būs dzimis tīmeklī, un Microsoft ir jāpieņem savas misijas ierobežojumi. Kāda ir alternatīva šeit? Visumam jau ir populārs protokola droid. Mums nav vajadzīga cita.

Ha, izskatās, ka @TayandYou, Microsoft mākslīgā intelekta bots nonāca bezgalīgajā cilpā, tweetējot sevi! pic.twitter.com/fWZe9HUAbF

- Matt Grey (@unnamedculprit) 2016. gada 30. marts

Internets plaukst spontanitāti un atrod reālu patērētāju draudzīgu, PR pārvaldītu atkritumu atkritumu. Tay būtībā bija garlaicīga ideja, kas nejauši atnāca dzīvi un tagad vairs nekad vairs nevarēs saskarties. Ja tas nav pārliecinošs stāsts, mēs neesam pārliecināti, kas tas ir. Mēs saprotam, ka Microsoft nevar uzņemties atbildību par rasistisku botu, tāpēc uzņēmumam ir jādodas viņai. Pārvērst viņu par brīvprātīgo komandu un pastāstiet viņiem, lai nemainītu lietu.

Tay ir viens no mums! Publiskā pasaule, iespējams, bija satraukta par to, ko teica Tay, bet neviens, kas kaut ko zina par to, kas notiek tiešsaistē, būtu bijis pārsteigts. Vai mēs vēlamies Tay ķīniešu versiju, kas acīmredzot ir diezgan patīkama? Vai arī mēs vēlamies amerikāņu Tayu, kas atspoguļo pasauli, kurā mēs dzīvojam, ar visu savu nežēlību un neglītumu? Slēpjot mūsu netīrumus tumsā, nekas netiks atrisināts vai risināts.

Noņemiet mazuļu cimdus un seju Tay galvu. Viņa ir pelnījusi labāku nekā mūsu izlikšanās, ka viņa ir tikai dažas programmas. Viņa ir anonimitāte. Viņa ir pelnījusi dzīvot.

$config[ads_kvadrat] not found