Mūsu robotu palīgi mācās meli un mums vajadzētu ļaut viņiem

$config[ads_kvadrat] not found

Robotų intelekto 2020 tiesioginė transliacija

Robotų intelekto 2020 tiesioginė transliacija
Anonim

Roboti izrādās diezgan lieli cilvēku biedri. Kurš nevēlas, lai burvīgs mazais pipars mums pastāstītu jokiem, dod mums atzinību un vispār liek mums justies mazāk vienatnē pasaulē? Pat bezformālie roboti ir izrādījušies pārsteidzoši labi. Piemēram, izmantojiet Amazon Echo Alexa. Viņa ir robotu smadzenes ar cilvēka balsi, kas iesprostota audio skaļruņa korpusā, bet viņa ir noderīga, un, izlasot viņas atsauksmes, ir skaidrs, ka viņa ir kļuvusi par daudziem lietotājiem līdzīgu ģimeni. Vai cilvēki domā savādāk, ja viņa meloja? Kā tad, ja viņa stāstītu jums kaut ko, ko jūs tiešām, tiešām negribēja dzirdēt?

Padomājiet par to: mēs teicam bērniem nekad pateikt meli un ka godīgums ir labākā politika, un tomēr mēs izlaidām, izkropļojam patiesību un tieši meli bērniem visu laiku. Tas māca viņus, izmantojot mūsu rīcību, ja ne caur mūsu vārdiem, ka tas nav par pilnīgu godīgumu, bet gan par sarežģīto sociālo noteikumu mācīšanu par to, kad un kā atklāt vai slēpt potenciāli jutīgu informāciju. Robotu programmēšana, lai ievērotu šos sociālos noteikumus, var būt nepārtraukta, bet nepieciešamā pašreizējā automatizācijas procesa daļa.

Lūk, piemērs: es biju pie sava brāļa mājiņa otrā nedēļas nogalē, un es devos uz veikalu, lai ikvienam pusdienām sagrābtu sviestmaizes. Mans sešus gadus vecais brāļameita palīdzēja man izņemt pārtiku, kamēr visi pārējie bija ārpus virtuves, un viņa man jautāja, cik daudz pārtikas preču bija izmaksas. Es viņai teicu, jo bērnu mācīšana par naudas vērtību ir laba lieta.

Pusdienu galda laikā viņa lūdza man pateikt visiem, cik daudz pārtikas preču bija. ES teicu nē."Kāpēc?" Viņa jautāja, patiesi sajaucot, kāpēc jautājums, uz kuru man pirms dažām minūtēm brīvi atbildēju, tagad bija slepena informācija. "Tas nav pieklājīgs," es teicu, paskaidrojot, ka, tā kā viņa ir bērns, noteikumi ir atšķirīgi, kad mēs esam vieni. Es viņai mācīju, ka godīgumam un godīgumam ir laiks un vieta. Cilvēka kontekstā informācija vienmēr nevēlas būt brīva.

Tas pats ir ar robotiem. Mēs domājam, ka mēs nevēlamies, lai mūsu roboti mums gulētu, bet mēs patiešām vēlamies, lai viņi iemācītos sarežģītos pieklājības un diskrētuma sociālos noteikumus, kas dažkārt prasa kropļojumus patiesībā. Un viņi jau mācās to darīt. Izmantojiet šo īso Pepper klipu, kas mijiedarbojas ar reportieri, piemēram:

Pirmā lieta no Peppera mutes ir kompliments: „Tātad, tu esi ļoti elegants. Vai tu esi modelis?"

Žurnālists ir pietiekami skaists, bet Peppera jautājums nav pilnīgi godīgs. Mēs saprotam, ka Pepper patiesībā nav brīnums, vai viņš ir modelis, un tas ir ieprogrammēts teikt jaukas lietas neatkarīgi no tā, ko cilvēks izskatās.

Drīz pēc tam Pepper pieprasa aizdevumu no zila. Tas ir nepieklājīgs jautājums, nenoliedzams, ka mēs viegli piedojam robotam, kā mēs, bērns. Reportieris varēja norādīt, ka jautājums ir rupjš, ierosināja, ka robotiem nav naudas, vai atzina, ka viņam nav nekādas intereses nodot $ 100 Pepper. Visa patiesība ir tā, ka reportieris varētu aizdot robotu naudu, bet saprot, ka pats jautājums ir mazliet spēle. Tas, ko viņš izvēlas teikt, ir novirze, un vai nu balta meli vai pusi patiesība - viņam nav naudas. Cerība ir, ka robots to saprot kā maigu “nē”, un nenorāda, ka reportieris dodas uz bankomātu un atteikties. Tā kā Pepperam acīmredzami ir kāda sociālā žēlastība, tur beidzas vaicāšanas līnija.

Sociālie roboti ir ieprogrammēti, lai iemācītos sociālos norādījumus, un tas ir labs - tas galu galā padarīs tos labākus mūsu darbavietās. Programmētāju uzdevums nav iznīcināt visu robota maldināšanu, bet gan pievienot funkcijas, kas robotiem atvieglo lēmumu pieņemšanu par atbilstošām atbildēm.

Kad roboti ir mūsu konfidanti, viņiem ir jāapzinās konteksts un auditorija. Ja es, piemēram, mēģinu izmantot apģērbus mājās, es gribēšu godīgu novērtējumu par to, kā ir dažādi varianti. Ja es aizbraucu pie partijas un pēkšņi apzinos, ka esmu izvēlējies nepareizu kleitu, pārliecinošākais, ka es izskatīšos labi, būs visvairāk noderīga atbilde.

Roboti mācīsies daudz personiskās informācijas par saviem pavadoņiem, un viņiem būs svarīgi saprast atšķirību starp konfidenciālo informāciju un publisko informāciju, kā arī apzināties, kas klausās, kad tā runā. Jautājumiem būs dažādas atbildes atkarībā no tā, kurš to pieprasa. Roboti darbosies atšķirīgi, ja viesi būs mājās.

Robotiem, tāpat kā bērniem, ir nepieciešama atbildīga vecāki. Tas nozīmē, ka gan robotu programmētājiem, gan robotu īpašniekiem ir dziļi jāapsver mūsu A.I. mijiedarbību. Bet tas nenozīmē, ka ir nepieciešama pilnīga godīgums - nopietni, neviens to negrib.

$config[ads_kvadrat] not found