Robotų intelekto 2020 tiesioginė transliacija
Roboti izrādās diezgan lieli cilvēku biedri. Kurš nevēlas, lai burvīgs mazais pipars mums pastāstītu jokiem, dod mums atzinību un vispār liek mums justies mazāk vienatnē pasaulē? Pat bezformālie roboti ir izrādījušies pārsteidzoši labi. Piemēram, izmantojiet Amazon Echo Alexa. Viņa ir robotu smadzenes ar cilvēka balsi, kas iesprostota audio skaļruņa korpusā, bet viņa ir noderīga, un, izlasot viņas atsauksmes, ir skaidrs, ka viņa ir kļuvusi par daudziem lietotājiem līdzīgu ģimeni. Vai cilvēki domā savādāk, ja viņa meloja? Kā tad, ja viņa stāstītu jums kaut ko, ko jūs tiešām, tiešām negribēja dzirdēt?
Padomājiet par to: mēs teicam bērniem nekad pateikt meli un ka godīgums ir labākā politika, un tomēr mēs izlaidām, izkropļojam patiesību un tieši meli bērniem visu laiku. Tas māca viņus, izmantojot mūsu rīcību, ja ne caur mūsu vārdiem, ka tas nav par pilnīgu godīgumu, bet gan par sarežģīto sociālo noteikumu mācīšanu par to, kad un kā atklāt vai slēpt potenciāli jutīgu informāciju. Robotu programmēšana, lai ievērotu šos sociālos noteikumus, var būt nepārtraukta, bet nepieciešamā pašreizējā automatizācijas procesa daļa.
Lūk, piemērs: es biju pie sava brāļa mājiņa otrā nedēļas nogalē, un es devos uz veikalu, lai ikvienam pusdienām sagrābtu sviestmaizes. Mans sešus gadus vecais brāļameita palīdzēja man izņemt pārtiku, kamēr visi pārējie bija ārpus virtuves, un viņa man jautāja, cik daudz pārtikas preču bija izmaksas. Es viņai teicu, jo bērnu mācīšana par naudas vērtību ir laba lieta.
Pusdienu galda laikā viņa lūdza man pateikt visiem, cik daudz pārtikas preču bija. ES teicu nē."Kāpēc?" Viņa jautāja, patiesi sajaucot, kāpēc jautājums, uz kuru man pirms dažām minūtēm brīvi atbildēju, tagad bija slepena informācija. "Tas nav pieklājīgs," es teicu, paskaidrojot, ka, tā kā viņa ir bērns, noteikumi ir atšķirīgi, kad mēs esam vieni. Es viņai mācīju, ka godīgumam un godīgumam ir laiks un vieta. Cilvēka kontekstā informācija vienmēr nevēlas būt brīva.
Tas pats ir ar robotiem. Mēs domājam, ka mēs nevēlamies, lai mūsu roboti mums gulētu, bet mēs patiešām vēlamies, lai viņi iemācītos sarežģītos pieklājības un diskrētuma sociālos noteikumus, kas dažkārt prasa kropļojumus patiesībā. Un viņi jau mācās to darīt. Izmantojiet šo īso Pepper klipu, kas mijiedarbojas ar reportieri, piemēram:
Pirmā lieta no Peppera mutes ir kompliments: „Tātad, tu esi ļoti elegants. Vai tu esi modelis?"
Žurnālists ir pietiekami skaists, bet Peppera jautājums nav pilnīgi godīgs. Mēs saprotam, ka Pepper patiesībā nav brīnums, vai viņš ir modelis, un tas ir ieprogrammēts teikt jaukas lietas neatkarīgi no tā, ko cilvēks izskatās.
Drīz pēc tam Pepper pieprasa aizdevumu no zila. Tas ir nepieklājīgs jautājums, nenoliedzams, ka mēs viegli piedojam robotam, kā mēs, bērns. Reportieris varēja norādīt, ka jautājums ir rupjš, ierosināja, ka robotiem nav naudas, vai atzina, ka viņam nav nekādas intereses nodot $ 100 Pepper. Visa patiesība ir tā, ka reportieris varētu aizdot robotu naudu, bet saprot, ka pats jautājums ir mazliet spēle. Tas, ko viņš izvēlas teikt, ir novirze, un vai nu balta meli vai pusi patiesība - viņam nav naudas. Cerība ir, ka robots to saprot kā maigu “nē”, un nenorāda, ka reportieris dodas uz bankomātu un atteikties. Tā kā Pepperam acīmredzami ir kāda sociālā žēlastība, tur beidzas vaicāšanas līnija.
Sociālie roboti ir ieprogrammēti, lai iemācītos sociālos norādījumus, un tas ir labs - tas galu galā padarīs tos labākus mūsu darbavietās. Programmētāju uzdevums nav iznīcināt visu robota maldināšanu, bet gan pievienot funkcijas, kas robotiem atvieglo lēmumu pieņemšanu par atbilstošām atbildēm.
Kad roboti ir mūsu konfidanti, viņiem ir jāapzinās konteksts un auditorija. Ja es, piemēram, mēģinu izmantot apģērbus mājās, es gribēšu godīgu novērtējumu par to, kā ir dažādi varianti. Ja es aizbraucu pie partijas un pēkšņi apzinos, ka esmu izvēlējies nepareizu kleitu, pārliecinošākais, ka es izskatīšos labi, būs visvairāk noderīga atbilde.
Roboti mācīsies daudz personiskās informācijas par saviem pavadoņiem, un viņiem būs svarīgi saprast atšķirību starp konfidenciālo informāciju un publisko informāciju, kā arī apzināties, kas klausās, kad tā runā. Jautājumiem būs dažādas atbildes atkarībā no tā, kurš to pieprasa. Roboti darbosies atšķirīgi, ja viesi būs mājās.
Robotiem, tāpat kā bērniem, ir nepieciešama atbildīga vecāki. Tas nozīmē, ka gan robotu programmētājiem, gan robotu īpašniekiem ir dziļi jāapsver mūsu A.I. mijiedarbību. Bet tas nenozīmē, ka ir nepieciešama pilnīga godīgums - nopietni, neviens to negrib.
R5s tiek nosūtītas divās grupās, kas iepriekšējās vasaras laikā sacentās DARPA robotu izaicinājumā, kur vairākām komandām tika uzdots izstrādāt robotu, kas varētu veikt virkni uzdevumu saistībā ar katastrofu seku scenārijiem. NASA pati rīko savu robotu konkursu Space Robotics Challenge, kurā komandas sacenšas gan virtuālos, gan fiziskos konkursos, izmantojot modernizētus R5.

Ir jēga, ka NASA vēlas izmantot robotus, lai aizstātu cilvēkus daudzos uzdevumos kosmosā. Robotiem nebūtu vajadzīgs skābeklis vai kāda no dzīvības atbalsta sistēmām, kuras cilvēkiem vajag; tie ir tērējami, tāpēc mēs varam tos nosūtīt situācijās, kad tie var tikt pazaudēti vai bojāti; tie pat varētu būt labāki, nekā cilvēki, piemēram, palielinot svaru vai izmantojot uzlabotus instrumentus, lai savāktu labākus datus.
Jauni "Nākotnes leģendas" piekabe: vai viņiem vajadzētu nogalināt bērnu vandāles savage?

Tas nenotiks līdz janvārim, kad pirmizrādes notiks DC Legends of Tomorrow, bet jauna piekabe tikko nokrita, un tā ir pilna trīs minūšu jauna videomateriāla, kas dod labāku ieskatu tās laika ceļojuma telpā un negodīgajā nākotnes diktatorā, Vandal Savage . Mini sērijas crossover ar sekundārajiem varoņiem (...
Robota pilsonība: Kāpēc mūsu mākslīgie palīgi var būt nepieciešami pasēm

Malta sadarbojas ar SingularityNET, lai izpētītu mākslīgā intelekta un robotu pilsonības piešķiršanu. Šis solis seko pilsonības piešķiršanai Sophia, humāno robotu attīstītājam Hanson Robotics. Vai esat gatavs piešķirt Siri vai Amazon Alexa likumīgās tiesības?