WHY BLURRED FACES?
Trīs pētnieki Kornela Techā Ņujorkā ir atklājuši, ka neskaidri un pikelēti attēli nesaskan ar mākslīgo intelektu. Lai gan aizēnotie attēli cilvēkiem acīm paliek nesaprotami, un tāpēc, šķiet, tie aizsargā viņu jutīgo saturu, neironu tīkli bieži var precīzi pateikt, kas ir sākotnējā attēlā.
Citiem vārdiem sakot, cilvēki vairs nav lakmusa tests. Mēs vairs nevaram jautāt, vai kaut kas uzvar cilvēka smadzenes. A.I.s - pat vienkāršas A.I.s - var pārspēt cilvēkus, tāpēc arī viņu uzvarēšanai vienmēr jābūt vienādojumam.
Cornell Tech pētnieku pētījumā galvenā uzmanība tika pievērsta privātuma saglabāšanas algoritmu testēšanai, kas izplūda vai attēlo noteiktu informāciju vai attēlu daļas. Agrāk mēs neticami uzticējāmies konfidencialitātes saglabāšanas programmatūrai vai algoritmiem, norādot, ka informācija, ko viņi aizklāja, bija droša, jo nē cilvēks varētu pateikt, kas bija aiz digitālā plīvura. Pētījums rāda, ka šis laikmets ir beidzies, un saistītās anonimizācijas metodes arī ilgs. Neironu tīkli, kas atbilst šiem konfidencialitātes pasākumiem, nav atrisināti.
Richard McPherson ir Ph.D. kandidāts datorzinātnēs Teksasas Universitātē, Austin, kurš sekoja viņa profesoram Vitalij Šmatikovam Kornela Techā. Kopā kopā ar Reza Šokri viņi parādīja, ka vienkāršie neironu tīkli var atklāt kopīgu tēlu apkaunošanas paņēmienus. Šī metode ir salīdzinoši neskaidra, kas padara atklāšanu vairāk satraucošu: tās ir kopīgas, pieejamas metodes, un tās varēja pārvarēt nozares normas par aizvainojumu.
Neironu tīkli ir lielas, slāņainas mezglu struktūras vai mākslīgie neironi, kas atdarina smadzeņu pamata struktūru. Viņi ir „balstīti uz vienkāršotu izpratni par neironu darbību”, stāsta McPherson Apgrieztā. “Dodiet tai kādu ieeju, un neirons vai nu ugunsgrēks vai neuzliesmo.”
Viņi spēj arī „mācīties” ar jēdziena aptuvenu definīciju. Ja parādīsiet savvaļas (pilnīgi neizglītotu) cilvēka kaut ko “sarkanu”, un pastāstiet viņiem, ka viņi izvēlas visas “sarkanās” lietas no spaiņa, viņi sākumā cīnīsies, bet laika gaitā uzlabosies. Tā arī ar neironu tīkliem. Mašīnmācība nozīmē tikai datora mācīšanu, lai izvēlētos “sarkanās” lietas, piemēram, no virtuālas daudzveidīgu vāku.
Tādā veidā McPherson un uzņēmums apmācīja neironu tīklu. „Mūsu sistēmā mēs izveidojam modeli - neironu tīklu arhitektūru, strukturētu šo mākslīgo neironu kopu - un tad mēs viņiem piešķiram lielu daudzumu aizmirstu attēlu,” viņš saka. "Piemēram, mēs varētu dot viņiem simts dažādu attēlu no Carol, kas ir pikelēti, pēc tam simts dažādi bobu attēli, kas ir pikelēti."
Pēc tam pētnieki iezīmē šos pikseļu attēlus, un to darot, pastāstiet modelim, kurš atrodas katrā attēlā. Pēc datu kopas apstrādes tīkla tīkls funkcionāli zina, kā izskatās Pixelated Bob un Pixelated Carol. "Pēc tam mēs varam dot tai citu pikseļu attēlu no Bobas vai Karola, bez etiķetes," skaidro McPherson, "un tas var uzminēt un teikt:" Es domāju, ka tas ir Bobs ar 95% precizitāti. ""
Šis modelis neatjauno aizēnoto tēlu, bet fakts, ka tas spēj uzvarēt visizplatītākās un agrāk uzticamās anonimizācijas metodes, ir neērtas un pats par sevi. „Viņi spēj izdomāt, kas tiek aizmirsts, bet viņi nezina, ko tas sākotnēji izskatījās,” saka McPherson.
Bet neironu tīkli joprojām spēj darīt daudz labāk nekā cilvēki. Kad attēli tika visvairāk apvainoti, izmantojot vienu nozares standarta tehniku, sistēma joprojām bija 50% precīza. Mazliet mazāk apgrūtinātiem attēliem sistēma izrādījās ievērojama, aptuveni 70% precizitāte. YouTube norma par izplūdušām sejām pilnīgi neizdevās; pat visskaidrākos attēlus traucēja neironu tīkls, kas izrādījās 96% precīzs.
Arī citi iepriekš nepaziņoti dati, teksts un attēlu anonimizācijas paņēmieni ir neuzticami. „Vasarā bija darbs, kas aplūkoja anonimizējošu tekstu, izmantojot pikseļu un neskaidru attēlu, un parādīja, ka arī viņi varēja tikt sadalīti,” saka McPherson. Un arī citas vienreizējas uzticības metodes var iziet no durvīm. Lai gan viņš nezina balss traucējumu paņēmienus, piemēram, anonīmās TV intervijās, viņš „nebūtu pārsteigts”, ja neironu tīkli varētu pārtraukt anonimizāciju.
Tātad McPhersona atklājums pierāda, ka „privātuma saglabāšanas metodes, kas mums bija pagātnē, nav īsti pakļautas šņaucam, it īpaši ar mūsdienīgām mašīnmācības metodēm.” Citiem vārdiem sakot, mēs kodējam sevi neatbilstības, apmācības mašīnās līdz pārspēt mūs visās sfērās.
„Tā kā mašīnu mācīšanās spēks pieaug, šis kompromiss mainīsies pretiniekiem,” rakstīja pētnieki.
Ian McKellen ir Hillary Clinton iespaids, kas ir piemērots sejas atpazīšanai
Vašingtonas Universitātes pētnieki ir pierādījuši, ka programmatūra, kas ļauj viņiem (cita starpā) ņemt bijušā prezidenta Džordža Buša vārdus un izteicienus, kā arī prezentēt prezidenta Baraka Obamas 3D modeli. Programmatūra izmanto vecos fotoattēlus (daudzus no tiem) un videoklipu, lai kartētu sejas, bet kas ir ļoti i ...
Kā Uber izmanto sejas atpazīšanu, lai pārliecinātos, ka jūsu vadītājs nav netraucēts
Uber izvērsa funkciju, kas prasītu autovadītājiem sevi identificēt ar sevi pirms došanās uz pakalpojumu un periodiski pārbaudīt.
Kas ir mīlestība? 12 zīmes patiesas mīlestības atpazīšanai, kad to jūtat
Iespējams, ka jūs iepazīstāties ar kādu, un kādu dienu viņi saka, ka mīl jūs. Tie ir diezgan nozīmīgi vārdi, bet vai jūs tos mīlat? Kas īsti ir mīlestība?