contador gratis Saltar al contenido

Süvafake tehnoloogia viis mõju järgmiseks aastaks Muutke ja tehke

96% sügavalt võltsitud videotest on pornograafilise sisuga; vaata seitse fakti Heli ja video

Deepfake-tehnoloogia abil luuakse võltsvideosid, mis näevad tehisintellekti (AI) järgi reaalsed. Üldiselt näitavad see sisu kuulsusi ja poliitikuid, kes teevad või ütlevad midagi, mida ei juhtunud. Mõiste tuli siis, kui Redditi sellenimeline kasutaja postitas pornograafilise video, millel olid kuulsuste näod. Pärast seda on montaaživideod tootnud satiirilist sisu ja isegi kurjategijaid, kui need sisaldavad võltsitud identiteete ja valet teavet. Sellised avaliku elu tegelased nagu USA endine president Barack Obama, Facebooki üks asutajatest Mark Zuckerberg ja praegune USA president Donald Trump on sügava võltsimise sihtmärgid. Lisaks on näitlejanna Gal Gadot ja laulja Taylor Swift oma nägu seotud selle tehnoloogia abil toodetud pornograafiliste videotega.

LUGEGE: kaheksa piinlikku kuulsust Internetis 2019. aastal; vaata seda

Selle video tootmiseks kasutab tarkvara algoritmi, mille lõppnägus on inimeste näod ja tegelikud hääled. Seetõttu on seda sisu lihtsam avaliku elu tegelaste piltidega toota. Kuid ka tavaliste inimeste kokkupuude sotsiaalmeediaga teeb lihtsaks igaühe süvafake tehnoloogia ohvriks langemise. Järgmisena valib TechTudo viis mõju – positiivset või negatiivset -, mida lähiaastatel võib põhjustada sügav võlts.

Gal Gadot on üks kunstnikke, kes langes sügava võltsi ohvriks Foto: Pond5Gal Gadot on üks kunstnikke, kes langes sügava võltsi ohvriks Foto: Pond5

Gal Gadot on üks kunstnikke, kes langes sügava võltsi ohvriks Foto: Pond5

Kas soovite osta mobiiltelefone, telereid ja muid sooduskaupu? Tutvuge TechTudo võrdlusega

Nagu võltsuudised, võib ka deepfake tehnoloogia veenda rahvahulka, et sisu kuvatakse päris videotes. Ehkki päris videote ja selle funktsiooni põhjal tehtud videote vahel on selged erinevused (näiteks vahataoline nahk, heli ja suu liigutuste vahelise sünkroonimise puudumine ning harv aeg, kui tähemärgid vilguvad), usuvad mõned inimesed sisu tõesuses.

Siiani pole AI tootnud 3D-sisu ja venitanud tegelaste nägusid, et nende liigutusi varjata. Seetõttu võib inimsilm tunda, et näo servad on üsna silmatorkavad. Vale teabe vastu võitlemisele mõeldes peab faktide kontroll tulevikus kontrollima selle video tõesust.

Tegelikult loodetakse selle tehnoloogia kasutamist avaliku arvamuse kujundamiseks Ameerika Ühendriikides 2020. aasta valimistel. Selle sisu leviku vältimiseks hakkas USA kongress nõudma, et videod liigitataks õigesti sügavkülmikuteks koos vesimärkidega, mis neid identifitseerivad.

Barack Obama kõnega video näeb välja tõeline, kuid režissöör Jordan Peele sõnad Foto: Reproduction / BuzzFeedBarack Obama kõnega video näeb välja tõeline, kuid režissöör Jordan Peele sõnad Foto: Reproduction / BuzzFeed

Barack Obama kõnega video näeb välja tõeline, kuid režissöör Jordan Peele sõnad Foto: Reproduction / BuzzFeed

2. Ligipääsetavam tehnoloogia

Ehkki mõni tarkvara sisaldab rikutud videotest vesimärkide eemaldamist, on sügavate failide tootmiseks kasutatud tasuta programme. Siiski on endiselt vaja head videokaarti, nii et sisu töödeldakse kiiremini, mis pole kõigile kättesaadav. Lähiaastatel tehtava intelligentsuse uuendamisega on selle tarkvara kasutamine lihtsam ja kättesaadavam, mis võimaldab kõigil seda sisu toota.

Deep Trace'i uuringu kohaselt on veebis rohkem kui 14 000 pornograafilise sisuga süvenemist. 96% -l juhtudest kasutatakse tootes naise nägu. Sel moel saab seda võltsvideot kasutada pornograafilise kättemaksu edendamiseks ja nende naiste linastamiseks.

Praegu kasutatakse videote tootmiseks kahte tehnikat. Esimene kasutab päris pornograafilisi pilte ja muudab näitlejanna nägu ainult tuntud inimese näoga. Teine, tuntud kui Deepnude, kasutab tavalise inimese fotot, võtab ära tema riided ja loob pornograafilisi pilte.

4. Pühendumine näotuvastustehnoloogiale

Igaühe poolt sügavkülmutuse tehnoloogia abil tehtud näo puhkamine pole liiga keeruline. Siit katkeb ka näotuvastus, mida kasutatakse seadme avamiseks ja rakenduse sisenemiseks. Mida realistlikum pilt kuvatakse, seda paremini töötleb seade äratundmist ja avab arvuti ja mobiiltelefoni. Sellisena peavad ettevõtted investeerima tehnoloogiasse, mis neid pilte blokeerib.

5. Depressiooni ravi

Ehkki süvafakeri algoritmi kasutatakse laialdaselt kuritegevuse edendamiseks Internetis, saab seda tehnoloogiat kasutada ka selliste haiguste nagu depressioon raviks. Teiste inimeste pilte kasutades saavad patsiendid, kellel on ebamugav probleemi paljastada, sellest teada anda psühholoogile või psühhiaatrile, ilma et nad peaksid ennast tuvastama. Lisaks võib AI ära tunda depressiooni inimese kõnetoonilt.

YouTube ei lae videoid üles: miks? Vaadake näpunäiteid TechTudo foorumist

Kuidas salvestada videole Androidi telefoni ekraan

Kuidas salvestada videole Androidi telefoni ekraan