A.I. Ātrā virzība ir jābaidās, ja jūs pievēršat uzmanību

$config[ads_kvadrat] not found

Программа двух дипломов НИУ ВШЭ и Лондонского университета «Международные отношения»

Программа двух дипломов НИУ ВШЭ и Лондонского университета «Международные отношения»
Anonim

Kad runa ir par eksistenciālo draudu noteikšanu, ko rada tehnoloģiskās inovācijas, tautas iztēles aicina uz vīzijām Terminators, Matrica, un Es, robots - dystopijas, ko vada robotu virsnieki, kas izmanto un iznīcina cilvēkus masveidā. Šajos spekulatīvos nākotnes līgumos kombinācija ar super-inteliģenci un ļauniem nodomiem noved pie datora, lai iznīcinātu vai iznīcinātu cilvēci.

Tomēr jaunais pētījums liecina, ka tas būs A.I. kas radīs nopietnas sociālās sekas tuvāko gadu laikā. Ziņojumā - „Mākslīgā intelekta ļaunprātīga izmantošana”, ko rakstījuši 26 pētnieki un zinātnieki no elites universitātēm un tehnoloģiski orientētām ideju laboratorijām, ir aprakstīti veidi, kā pašreizējā A.I. tehnoloģijas apdraud mūsu fizisko, digitālo un politisko drošību. Lai pievērstu uzmanību pētījumam, pētniecības grupa aplūkoja tikai tehnoloģijas, kas jau pastāv vai ticami būs nākamo piecu gadu laikā.

Ko pētījums atklāja: A.I. sistēmas, iespējams, paplašinās esošos draudus, ieviesīs jaunus un mainīs to raksturu. Ziņojuma tēze ir tāda, ka tehnoloģiskie sasniegumi padarīs noteiktus pārkāpumus vieglākus un lietderīgākus. Pētnieki apgalvo, ka uzlabojumi A.I. samazinās resursu un pieredzes apjomu, kas vajadzīgs, lai veiktu dažus kiberuzbrukumus, efektīvi samazinot noziedzības šķēršļus:

Uzbrukumu izmaksas var samazināt AI sistēmu mērogojama izmantošana, lai pabeigtu uzdevumus, kas parasti prasa cilvēku darbu, izlūkdatus un zināšanas. Dabisks efekts būtu paplašināt dalībnieku kopumu, kas var veikt konkrētus uzbrukumus, ātrumu, kādā viņi var veikt šos uzbrukumus, un potenciālo mērķu kopumu.

Ziņojumā ir četri ieteikumi:

1 - Politikas veidotājiem cieši jāsadarbojas ar tehniskajiem pētniekiem, lai izmeklētu, novērstu un mazinātu AI ļaunprātīgu izmantošanu.

2 - Mākslīgā intelekta pētniekiem un inženieriem būtu nopietni jāņem vērā sava darba divējāda lietojuma raksturs, ļaujot nepareizi pielietotiem apsvērumiem ietekmēt pētniecības prioritātes un normas, kā arī aktīvi iesaistīties attiecīgajos dalībniekos, ja paredzami kaitīgi pieteikumi.

3 - Pētniecības jomās būtu jānosaka labākās prakses metodes, kurās izmantotas labāk izstrādātas metodes, lai risinātu divējāda lietojuma problēmas, piemēram, datoru drošību, un, ja vajadzīgs, importētas AI gadījumā.

4 - Aktīvi censties paplašināt ieinteresēto personu un domēnu ekspertu loku, kas iesaistīti šo problēmu apspriešanā

Kā A.I. var padarīt pašreizējos izkrāpumus gudrākus: piemēram, šķēpu pikšķerēšanas uzbrukumi, kuros mākslinieki kā mērķa draugs, ģimenes loceklis vai kolēģis, lai iegūtu uzticību un iegūtu informāciju un naudu, jau ir draudi. Bet šodien viņiem ir vajadzīgi ievērojami laika, enerģijas un pieredzes izdevumi. Kā A.I. Sistēmas palielinās izsmalcinātība, daļa no darbībām, kas nepieciešamas šķēpu pikšķerēšanas uzbrukumam, piemēram, informācijas vākšana par mērķi, var būt automatizētas. Pēc tam phisher varētu ieguldīt ievērojami mazāk enerģijas katrā griftā un mērķēt vairāk cilvēku.

Un, ja scammers sāk integrēt A.I. to tiešsaistes griftos, var kļūt neiespējami atšķirt realitāti no simulācijas. “Tā kā AI attīstās tālāk, pārliecinoši tērzēšanas punkti var izraisīt cilvēka uzticību, iesaistot cilvēkus garākos dialogos, un varbūt galu galā vizuāli maskēsies kā cita persona video tērzēšanā,” teikts ziņojumā.

Mēs jau esam redzējuši mašīnas radīto video sekas Deepfakes veidā. Tā kā šīs tehnoloģijas kļūst pieejamākas un lietotājam draudzīgākas, pētnieki uztrauc, ka slikti dalībnieki izplatīs gatavus fotoattēlus, videoklipus un audio failus. Tas var izraisīt ļoti veiksmīgas neslavas celšanas kampaņas ar politiskām sekām.

Ārpus tastatūras: Un iespējamais pārkāpums neaprobežojas tikai ar internetu. Kad mēs virzāmies uz autonomu transportlīdzekļu pieņemšanu, hakeri var izvietot pretrunīgus piemērus, lai nerunātu pašaizbraukšanas automobiļus nepareizi uztverot apkārtni. “Atsevišķu veidu mainīts attēls ar pieturas zīmi ar dažiem pikseļiem, ko cilvēki varētu viegli atpazīt kā pieturas zīmes attēlu, tomēr AI sistēma tomēr var tikt nepareizi klasificēta kā kaut kas cits,” teikts ziņojumā.

Citi draudi ietver autonomus drones ar integrētu sejas atpazīšanas programmatūru mērķa nolūkos, koordinētus DOS uzbrukumus, kas atdarina cilvēka uzvedību, un automatizētas, hiper-personalizētas dezinformācijas kampaņas.

Ziņojumā ir ieteikts pētniekiem apsvērt iespējamos A.I. izstrādājot šīs tehnoloģijas. Ja netiek ieviesti atbilstoši aizsardzības pasākumi, tad mums jau var būt tehnoloģija, lai iznīcinātu cilvēci, nav vajadzīgi slepkavas roboti.

$config[ads_kvadrat] not found