Šis robots ir iemācījies, kā pateikt „nē” cilvēka prasībām

$config[ads_kvadrat] not found

Doraemon-Nobita | episode 18 | robots ki duniya

Doraemon-Nobita | episode 18 | robots ki duniya
Anonim

Robotiem, tāpat kā cilvēkiem, ir jāiemācās, kad pateikt „nē”. Ja pieprasījums ir neiespējams, tas nodarītu kaitējumu vai novirzītu tos no attiecīgā uzdevuma, tad tas ir labākais “bota un viņa cilvēka interesēs diplomātisko Nē paldies piedalīties sarunā.

Bet kad mašīnai vajadzētu runāt atpakaļ? Un ar kādiem nosacījumiem? Inženieri cenšas noskaidrot, kā uzstādīt šo sajūtu par to, kā un kad aizstāvēt humanoīdu pasūtījumus.

Skatieties, kā šis Nao robots atsakās iet uz priekšu, zinot, ka tas varētu izraisīt, lai viņš nokristu no galda malas:

Vienkāršas lietas, bet noteikti ir būtiskas, lai pārbaudītu cilvēka kļūdas. Tufta universitātes pētnieki Gordons Briggs un Matthias Scheutz izstrādāja kompleksu algoritmu, kas ļauj robotam novērtēt, ko cilvēks ir lūdzis viņam darīt, izlemt, vai viņam tas jādara, un atbilstoši reaģēt. Pētījums tika prezentēts nesenā mākslīgā intelekta attīstības asociācijas sanāksmē.

Robots sev uzdod virkni jautājumu, kas saistīti ar to, vai uzdevums ir spējīgs. Vai es zinu, kā to izdarīt? Vai es esmu fiziski spējīgs to darīt tagad? Vai es parasti fiziski varu to darīt? Vai es varu to darīt tieši tagad? Vai man ir pienākums, pamatojoties uz savu sociālo lomu, to darīt? Vai tas pārkāpj kādu normatīvu principu?

Rezultāts ir robots, kas, šķiet, ir ne tikai saprātīgs, bet vienu dienu pat gudrs.

Ievērojiet, kā Nao maina savu prātu par staigāšanu uz priekšu pēc tam, kad cilvēks sola viņu noķert. Būtu viegli iedomāties citu scenāriju, kur robots saka: „Nē, kāpēc jums vajadzētu uzticēties?”

Bet Nao ir sociāla būtne pēc dizaina. Lai cilvēkus iepriecinātu, tas ir viņa DNS, tāpēc, ņemot vērā informāciju, ko cilvēks vēlas viņu noķert, viņš akli virzās uz priekšu bezdibenī. Protams, ja cilvēks būtu maldinājis savu uzticību, tad viņš tik un tā uzticas. Tas ir Nao ceļš.

Tā kā robotu pavadoņi kļūst sarežģītāki, robotu inženieriem būs jārisina šie jautājumi. Robotiem būs jāpieņem lēmumi ne tikai par savas drošības saglabāšanu, bet arī uz lielākiem ētikas jautājumiem. Ko darīt, ja cilvēks lūdz robotu nogalināt? Lai veiktu krāpšanu? Lai iznīcinātu citu robotu?

Mašīnu ētikas ideju nevar atdalīt no mākslīgā intelekta - pat mūsu nākotnes bezbraucamās automašīnas būs jāveido tā, lai mūsu vārdā padarītu izvēli par dzīvību vai nāvi. Šī saruna noteikti būs daudz sarežģītāka, nekā tikai gājienu pasūtījumu sniegšana.

$config[ads_kvadrat] not found