contador gratis Skip to content

Deepfakes: seitse lÔbusat fakti vastuolulise vÔltsvideo kohta

Deepfakes: seitse lÔbusat fakti vastuolulise vÔltsvideo kohta

Deepfakes-videod on vĂ”ltsproduktsioonid, milles kasutatakse masinĂ”pet ja tehisintellekti, et muuta inimeste nĂ€gusid ja panna neid olukordadesse, mida nad pole elus kunagi kogenud. Selle tehnika realistlikkus, mida on hakatud kasutama kuulsuste montaaĆŸide valmistamiseks pornograafilistes videotes ja mis on aidanud vĂ€lja mĂ”elda mĂ”jukate poliitikute, murettekitavate ekspertide ja selliste ĂŒksuste nagu Pentagon ja Ameerika Ühendriikide kongress kĂ”nesid. JĂ€rgnevas loendis uurige seitset kurioosumit vastuoluliste sĂŒgavate vĂ”ltsingute kohta, mida peetakse vĂ”ltsuudiste arenguks.

LOE: vÔltsitud pornovideod kasutavad kuulsusi ja tekitavad poleemikat; vaata

1 viiest Deepfake videost koos Mark Zuckerbergiga pĂ”hjustas Ameerika Ühendriikides poleemikat – Foto: Reproduction / Instagram

Mark Zuckerbergiga tehtud video Deepfake tekitas USA-s poleemikat – Foto: Reproduction / Instagram

Kas soovite osta mobiiltelefone, telereid ja muid soodushinnaga tooteid? Leidke TechTudo vÔrdlus

1. PĂ€ritolu pornovideotes

MĂ”iste deepfake ilmus esmakordselt 2017. aasta detsembris, kui selle nimega Redditi foorumi kasutaja hakkas pornovideotes kuulsuste nĂ€gusid ĂŒle vĂ”tma. Samal kuul avaldas Revista Vice oma veebisaidil artikli, milles mĂ”isteti hukka manipuleeritud video, kus film Wonder Woman filmi staar nĂ€itlejanna Gal Gadot seksis pereliikmetega. Selle vĂ”ltsingu viis lĂ€bi deepfake, kes kasutas masinĂ”ppe tarkvara abil ka Taylor Swifti ja Scarlett Johanssoni nĂ€gusid olemasolevatele klippidele.

2 of 5 NĂ€itleja Gal Gadot’i nĂ€gu kantakse vĂ”ltsitud pornovideos teise naise kehale – Foto: Reproduction / Vice

NĂ€itlejanna Gal Gadoti nĂ€gu kantakse vĂ”lts pornovideos teise naise kehale – Foto: Reproduction / Vice

Tuleb mĂ€rkida, et video tegi ĂŒks inimene, kes suutis hĂ”lpsalt ja kiiresti vĂ”ltsinguid teha, veenvaid ja kvaliteetseid. Selle abil kasutatakse koheselt deepfake vĂ€ljendeid, et nĂ€idata erinevaid masinĂ”ppe ja muude tehisintellekti vĂ”imalustega redigeeritud videoid.

2. EttevÔte pakub teenust

2018. aastal kasutas pornotööstuse ettevĂ”te Ă€ra sĂŒgavate vĂ”ltsingute populariseerimist, et pakkuda oma klientidele uusi teenuseid. Produtsendi Naughty America ettepanek on aidata neil oma seksuaalfantaasiaid teostada, asetades oma nĂ€gu pornonĂ€itlejate kohale ja vastupidi. Tarbijad saavad skripte, mis suunavad neid teatud vĂ€ljenditega ennast filmima, et tagada lĂ”pptoodangu realistlikkus.

3 viiest DeepNude töötab ainult naiste fotodega; rakendus lĂ”petati pĂ€rast poleemikat – Foto: avalikustamine / DeepNude

DeepNude töötab ainult naiste fotodega; rakendus lĂ”petati pĂ€rast poleemikat – Foto: avalikustamine / DeepNude

JĂ€rjekordne vĂ”ltsitud monetiseerimise juhtum hĂ”lmab rakendust DeepNude, mis loob tehisintellektist fotosid alasti naistest. MĂ”ne klĂ”psuga vahetab see rakendus pluusi rinnaosa ja pĂŒksid hĂ€beme vastu, tekitades uskumatult realistlikke alastipilte. TĂ€navu juunis pĂ€rast rahvusvahelises ajakirjanduses avaldatud negatiivseid reaktsioone taotlus peatati. Sellegipoolest levivad DeepNude’i alternatiivsed versioonid Internetis edasi.

3. Facebook on keeldunud sĂŒgavatest vĂ”ltsingutest Ă”hust vĂ”tmast

Eelmisel kuul ilmus Mark Zuckerberg Instagrami videole, kus ta vĂ€itis, et ta kontrollib miljarditelt inimestelt varastatud andmeid. CBSNi uudistekanali logo kandev vĂ”ltsproduktsioon kasutab deepfake tehnikaid ja selle lĂ”id kaks kunstnikku koos reklaamibĂŒrooga Canny. Kuigi CBSN vĂ€idab, et kasutab kaubamĂ€rki, keeldub Facebook videot eemaldamast, öeldes, et see eemaldab materjali ainult siis, kui selle on vĂ”ltsinud mĂ”ni kolmas osapool.

See pole esimene kord, kui Zuckerbergi ettevĂ”te keeldub vĂ”ltsvideote eemaldamisest. 2019. aasta mais otsustas Facebook luua manipuleeritud video, milles USA demokraatide juht Nancy Pelosi ilmus purjus. Miljonite reproduktsioonide korral pole klipp deepfake, kuid kiirust vĂ€hendatakse kuni 75%, mistĂ”ttu Pelosi rÀÀgib ebaselgelt. Toona ĂŒtles Facebook, et lavastus ei riku platvormi kasutustingimusi.

4. Deepfakes Ameerika Kongressi vaatamisvÀÀrsuste juures

SĂŒgava vĂ”ltsingu vĂ”imalik mĂ”ju USA 2020. aasta presidendivalimistel ajendas USA kongressi tegutsema. 2018. aasta detsembris koostati esimene föderaalne tehnoloogiaaruanne. „Pahatahtliku alkoholijookide keelu keelamine” (Ohtlikud vale keelud(inglise keeles) muudab föderaalseks kuriteoks sĂŒgavate vĂ”ltsingute tekitamise vĂ”i levitamise juhtudel, kui see hĂ”lbustab ebaseaduslikku kĂ€itumist.

Selle aasta juunis vastu vĂ”etud tegevus Deepfakes Liability nĂ”uab kohustuslikku vesimĂ€rki ja selget silti kĂ”igil sĂŒgavatel vĂ”ltsingutel – reeglit ignoreerib reegel, mida huvitab vĂ”ltsvideote poliitiliseks relvaks muutmine. Kongress uurib ka vĂ”itlust sĂŒgavate vĂ”ltsingute vastu sotsiaalsete vĂ”rgustike reguleerimise kaudu.

5. VÔÔrad kasutajad saavad teha vÔltsinguid

FakeAppi tarkvara vĂ€ljaandmine 2018. aasta jaanuaris muutis sĂŒgavat vĂ”ltsitud videote loomist tavakasutajatele kĂ€ttesaadavaks. Interneti-foorumitest leiate Ă”petusi, kuidas seda tööriista kasutada.

4 of 5 VĂ”ltsvideos ĆŸeste ja kĂ”net ning Obamat kontrollib nĂ€itleja Jordan Peele – Foto: Reproduction / BuzzFeed

VĂ”ltsvideos kontrollib ĆŸeste ja kĂ”net ning Obamat kontrollib nĂ€itleja Jordan Peele – Foto: Reproduction / BuzzFeed

Mitu kuud hiljem, aprillis, avaldas BuzzFeed video, kus endine USA president Barack Obama ĂŒtles tehnoloogiaga seotud ohtude eest hoiatamiseks sĂ”nu, mis polnud tema enda omad. Algselt pettuseks vĂ€idetud klipi lĂ”i ĂŒks inimene, kasutades FakeAppi. See programm vĂ”ttis algmaterjali töötlemiseks aega 56 tundi.

6. Deepfake tehnoloogia ei saa 3D-nÀgusid renderdada

PĂ€ris videod nĂ€itavad, kuidas inimesed liigutavad oma nĂ€gu kolmes mÔÔtmes, kuid deepfake algoritm ei ole veel vĂ”imeline 3D-nĂ€gusid looma. See, mida nad teevad, on nĂ€o kahemÔÔtmelise kujutise loomine ja seejĂ€rel proovimine seda pöörata, suurust muuta ja moonutada, et see sobiks suunaga, kuhu inimene peaks vaatama. See seletab nĂ€iteks seda, miks kipuvad tegelaste nĂ€gudel sĂŒgavatel klippidel olema mĂ”ned valesti joondatud tunnused ja jooned.

7. Kas on vÔimalik tuvastada vÔltsinguid

Ehkki keerukad, on deepfakes ebatĂ€iuslikud ja neid saab tuvastada mitut aspekti vaadates. Esimene ja kĂ”ige silmatorkavam on see, et ĂŒldiselt vilguvad deepfake’i tegelased mĂ€rksa vĂ€hem kui tavalised inimesed. Selle pĂ”hjuseks on asjaolu, et sageli ei sisalda vĂ€relus treeningalgoritmi andmekogumis.

5 viiest teadlasest, kes tegelevad sĂŒgavate vĂ”ltsingutega vĂ”itlemisega – Foto: reprodutseerimine / ajakiri Discover

Teadlased, kes vĂ”itlevad sĂŒgavate vĂ”ltsingute vastu – Foto: Reproduction / Discover Magazine

Teine punkt, mida juba mainiti, on nĂ€ojoonte joondamine, mis kujutab endast “vaha” tekstuuri vĂ€hem veenvas vĂ”ltsproduktsioonis. Lisaks tasub mainida, et deepfake videod koosnevad ainult nĂ€o muutustest, see tĂ€hendab, et kui asjaosaliste kehad tunduvad palju Ă”hemad, raskemad, pikemad vĂ”i lĂŒhemad kui reaalses elus, on suur vĂ”imalus vĂ”ltsida.

Selles mĂ”ttes on lavastuse vale mĂ€rkide hulgas heli puudumine vĂ”i a huulte sĂŒnkroniseerimine kunstlik, milles öeldud sĂ”nad ei ĂŒhti huulte liikumisega vĂ”i liiguvad huuled kummalisel viisil.

LĂ”puks on oluline mĂ€rkida, et sĂŒgavalt vĂ”ltsitud videote pikkus ei ĂŒleta tavaliselt minutit, kuna mĂ”ne sekundi töötlemine vĂ”tab tunde ja nĂ”uab tarkvara opereerivalt masinalt palju.