contador gratis Skip to content

Deepfake: saate aru, mida, kuidas tuvastada ja milliseid riske see pakub

Deepfake: saate aru, mida, kuidas tuvastada ja milliseid riske see pakub

SĂŒgavkĂŒlm tehnikale antud nimi, mis vĂ”imaldab tehisintellekti abil inimese esinemisi vĂ”i helisid uuesti luua. Tehnoloogia abil on vĂ”imalik simuleerida inimesi rÀÀkimas vĂ”i kĂ€itumas viisil, mida nad kunagi ei teeks.

Sellest sĂ”nast saab mĂ”iste ristmik sĂŒgav Ă”ppimine (filiaal masinĂ”pe vĂ”i masinĂ”pe portugali keeles) ja vĂ”lts (valesti). Kontseptsioon ilmub 2017. aastal, viidates Redditi kasutajatele hĂŒĂŒdnimede jĂ€rgi sĂŒgavmĂ”tted.

Ta kasutab tehnoloogiat sĂŒgav Ă”ppimine panna pornofilmides kuulsuste nĂ€gusid inimeste nĂ€gu. PĂ€rast seda on see meetod muutunud realistlikumaks ja hĂ”lpsasti juurdepÀÀsetavaks.

AppGeek on koostanud juhendi paremaks mÔistmiseks, mis ja kuidas redigeerimise funktsioonid Interneti töös domineerivad. Samuti kontrollige, milliseid riske pakutakse ja kuidas end kaitsta.

Kuidas saab sĂŒgav vĂ”lts?

Deepfake "height =" 300 "src =" https://matchstix.io/in/wp-content/uploads/2020/02/Deepfake- mÔistke-mida-kuidas- tuvastada- ja - mis riske - mida see pakub. gif "laius =" 470 "/></span>NÀitleja Michelle Adams asendab oma nÀo nÀitleja Nicolas Cage'iga (Reproduob / Wikipedia)</figure>
<p>Video tegemiseks <em>sĂŒgav vĂ”lts</em> kaks konkureerivat tehisintellekti algoritmi, nn <em>generaator</em> ja <em>diferentseerija</em>. Whatis.com andmetel on esimene funktsioon vĂ”ltsvideote tegemine ja teiseks nende tuvastamine reaalsetena vĂ”i mitte.</p>
<p>Kui diskrimineerija leiab vale sisu, Ôpib generaator, mida mitte teha. Ja sellisena teeb jÀrgmise video tÀiustatud viisil. Koos tegutsedes helistavad generaatorid ja diskrimineerijad <em>generatiivne vÔistlev vÔrk </em>(GAN) ehk generatiivne opositsioonivÔrk vabatÔlkes.</p><div class='code-block code-block-5' style='margin: 8px auto; text-align: center; display: block; clear: both;'>
<div data-ad=

Kuidas videot teha? sĂŒgav vĂ”lts?

Selle ĆŸanri filmide kokkupanemiseks peab olema videoallikas, see peaks olema vĂ”imalikult lihtne. Sel pĂ”hjusel kasutatakse sageli poliitilisi kĂ”nesid, kus taust on neutraalne ja tehakse pĂ”himĂ”tteliselt pead.

Niisiis, ma pean ĂŒhendama kaks andmekogumit. Kui videotegelane pöörab pead vasakule ja avab suu, on vaja omada pilti, kes teda samas asendis asendab. See vĂ”ib vajada suurt pildipanka.

Siis sĂ”ltub programmist, kas töö lĂ”petatakse tehisintellektil. PĂ€rast mitmeid katseid ja vigu ning Ă”nnestumisi generatiivne vĂ”istlev vĂ”rk sisestab ĂŒhe nĂ€o teise nii tĂ€pselt kui vĂ”imalik.

Ülalolev video on ĂŒks kuulsamaid Indoneesias sĂŒgav vĂ”lts. Selles on USA endisel presidendil Barack Obamal liikumine ja hÀÀl, mille on katnud koomik Jordan Peele.

Millised on riskid? sĂŒgav vĂ”lts?

Kuigi see tundub kahjutu sĂŒgav vĂ”lts on poleemiline olnud alates selle ilmumisest 2017. aastal Redditil. Seda tehnikat kasutatakse laialdaselt pornofilmides nĂ€itlejate nĂ€gude katmiseks.

Selle tehnika arenedes muutub see tehnika realistlikumaks ja sisu muutub viiruslikuks, nagu see oleks tĂ”eline. See on ressursside ĂŒks suur oht: vĂ”ltssisu levik autentsena.

2018. aastal leidis Facebook end seotud skandaaliga pÀrast kasutajaandmete leket kolmandate osapoolte rakenduste tootjate poolt. Varsti pÀrast seda lÀks Mark Zuckerbergi video viiruslikuks ja muretses paljusid inimesi.

LĂŒhifilmis teatas Facebooki tegevjuht, et kontrollib tulevikku, kuna tema valduses on miljardeid andmeid. Sisu pole midagi muud kui toode sĂŒgav vĂ”lts teinud Bill Poster Specterile.

Teine probleem ennustas igat tĂŒĂŒpi Internetis avaldatud materjali usaldusvÀÀrsuse kaotust. Tehnoloogia muudab ĂŒha raskemaks uudiste tuvastamise ja filtreerimise selle kohta, mis tegelikult vĂ”i ainult arvuti tehtud on. See, mida teie silmad ja kĂ”rvad nĂ€evad ja kuulevad, ei pruugi olla midagi muud kui tarkvaratoode.

Populariseerides programme, mis vĂ”imaldavad tavainimestel ĆŸanrivideoid teha, on vĂ”imalik, et seda tĂŒĂŒpi montaaĆŸ on ĂŒha enam suunatud ka tavainimeste poole.

Tulemused vÔivad ulatuda tÀiskasvanute filmides osalemise simuleerimisest kuni kellegi vastu valeandmete esitamiseni.

Viimase aja nĂ€htusena ei ole valitsusel veel konkreetseid seadusi seotud kuritegude vastu vĂ”itlemiseks sĂŒgav vĂ”lts. Suurbritannias vĂ”ib sellise sisu tootjatele sĂŒĂŒdistada ahistamist.

Ameerika Ühendriikides vĂ”ivad kulud ulatuda identiteedivargustest, kĂŒberruumi jĂ€litajatest ja pornograafilisest kĂ€ttemaksust. Brasiilias ei ole selles kĂŒsimuses endiselt konkreetseid eeskirju.

Kuidas seda tuvastada sĂŒgav vĂ”lts?

Peale tehnika arengu, enamasti sĂŒgavmĂ”tted amatööre saab ikka palja silmaga tuvastada. Sellistel juhtudel on vĂ”imalik tuvastada ebaloomulikke silmapilgutusi, huulte liikumist vĂ”i varjude olemasolu vales kohas.

Siiski on mures tegeliku tuleviku pĂ€rast. Ameerika Ühendriikides on Advanced Defense Research Projects Agency (DARPA) investeerinud videote paremaks tuvastamiseks.

Praegu on parim samm olla alati teadlik sellest, mida saate, ja olla teadlik ressursside jagamisest.

Mis on ZAO?

Kuulutati vĂ€lja 2019. aasta septembris Hiina rakenduste poes, rakendus ZAO see tegi kogu maailmas uudiseid. Programm muutub viiruslikuks, tuues nutitelefonid loomingusse sĂŒgavmĂ”tted fotodest vaid 8 sekundiga.

Tulemused on suurepÀrased ja neid jagavad Twitteris @AllanXia kasutajad. NÀitleja Leonardo DiCaprio nÀgu on tema vastu mitmes stseenis asendatud ja tema vÀljendusviis on vÀga muljetavaldav.

Kui te pole veel kuulnud, on #ZAO Hiina rakendus, mis on alates reedest tĂ”esti plahvatuslikult kasvanud. Parim rakendus nĂ€o asendamiseks AI 'Deepfake' stiilis, mida ma kunagi nĂ€inud olen. Siin on minu nĂ€ide DiCaprio-na (ĂŒhe pildi pisipildil loodud vĂ€hem kui 8 sekundiga) pic.twitter.com/1RpnJJ3wgT

Allan Xia (@ AllanXia) 1. september 2019

Rakenduse kĂ€ivitamine avab uuesti arutelu tehnoloogia ja privaatsuse ĂŒle. Esiteks, vastavalt programmi kasutustingimustele annate selle kasutamisega ettevĂ”ttele Ă”iguse kasutada teie andmeid ja nĂ€gu Ă€riliseks kasutamiseks tasuta ja tagasivĂ”tmatu viisil.

PĂ€rast palju kaebusi muutis vastutav ettevĂ”te tingimusi. NĂŒĂŒd nendib ta, et sisu hakkavad arendajad kasutama ainult kasutatavate rakenduste ja tehnoloogiate tĂ€iustamiseks.

Veel muret valmistav on asjaolu, et rakendus hĂ”lbustab kellegi kuvandiga ĂŒlekatete tegemist. Ja suurema realismiga. See vĂ”ib hĂ”lbustada vĂ”ltsvideote ohvrite tĂ”elistena ilmumist.

Muud taotlused sĂŒgav vĂ”lts

Kuid see pole esimene kord sĂŒgav vĂ”lts mine viiruslikuks. Esimene on FakeApp, mis vabastati 2018. aasta jaanuaris töölaua jaoks. See vĂ”imaldab luua ja jagada videoid nĂ€gudega, mis on suhteliselt hĂ”lpsalt asendatud.

Peamine raskus on kaasatava inimese suures koguses visuaalse materjali kogumine, nii et tulemused vastavad rahule. Sel ajal pole programm enam saadaval.

sĂŒgav vĂ”lts

A aastal 2019, tarkvara vabastati Deepnude, Windowsi ja Linuxi jaoks. See rakendus saab kasutada riietatud naise fotot ja jÀtta see mÔne hiireklÔpsuga alasti.

Valepiltidega on kaasas vesimÀrgid, kuid piltide redigeerimise kohta, mida ei tohiks kustutada, on vÀhe teadmisi. Sama aasta juunis teatas ettevÔte, et programm lÔpetatakse.

Kas olete huvitatud rakendustest, mis vÔimaldavad teil vÀlimust muuta? SeejÀrel tutvuge Snapchatiga. Kuulus rakendus vÔimaldab teil sÔpradega nÀgusid vahetada ja reaalajas fotodele ja videotele nÀole filtreid rakendada.

Vaadake ka 7 rakendust oma fotode hÔlpsaks muutmiseks piltideks ja 8 vÀga lÔbusat rakendust oma hÀÀle muutmiseks.