raskrikavanje
PROJEKAT PORTALA KRIK
  Rizični mediji
  Istraživanja
  Vesti
  Najnovije
  Analiza
Ilon Mask zamenio Teslu za Golfa 2: Kako da prepoznate dipfejk snimke
05.12.2023.    Marija Vučić    Foto: TikTok Screenshot
„Rakija menja život, čoveče. Tri dana u Modriči i već sam alkoholičar. Loza, šljiva, kajsija, nije bitno. Takođe sam zamenio Teslu za Golfa dvojku. U taj auto može stati pet kubika drva, sedam ljudi i raketa za Mars. Ludilo“, izgovara milijarder Ilon Mask u jednom viralnom videu. U drugom priznaje da je iz Republike Srpske, a u trećem da voli Srbe i da se nada da će vratiti Kosovo. Snimci poput ovih poslednjih dana se mogu naći na TikToku, Jutjubu, Tviteru, a reč je o tzv. dipfejk tehnologiji - oni nisu stvarni, već ih je generisala veštačka inteligencija. Kako je prepoznati?
Portal Fejknjuz Tragač prošle nedelje je zabeležio slučaj najviralnijeg od ovih videa - Ilona Maska koji govori koliko voli Srbiju:

„Da li bih ikada posetio Srbiju? (...) Volim Srbiju i Srbe. I nadam se da mogu da vrate Kosovo, zato što je njihovo i oduvek je bilo. Posetiću ih kroz nekoliko nedelja.“
@fntragac Mask o Srbiji i Srbima #mask #srbija #srbi #kosovo #ilonmask #tviter #twitter #tedtalks ♬ original sound - FakeNews Tragač

Ovaj snimak, originalno sa TikToka, pojavio se i na Jutjubu prošle sedmice gde je sakupio stotine hiljada pregleda. Ljudi uglavnom nisu naseli, ali ima i onih koji jesu, sudeći po komentarima:

„Bravo za Maska, pravi normalan i inteligentan čovek! Živela Srbija!“, piše jedan komentator, a drugi se pita: „Kako da verujem da je ovo istina da nije veštačka inteligencija za koju i on kaže da je vrlo opasna?“

Osim ovog videa, postali su viralni još neki koji potiču sa istog mesta - plasirani su tokom prošle nedelje na TikTok nalogu „Nijesedesilo“ (korisničko ime „mindsetmajstor“). U jednom od snimaka sa ovog kanala, Ilon Mask „priznaje“ da je iz Republike Srpske, a u drugom govori o tome kako rakija menja život i kako je zamenio Teslu za Golfa dvojku. Ovaj snimak je dospeo i na Tviter, a u svim tim verzijama jedino što se razlikuje je tekst - u pitanju je potpuno isti insert iz istog Maskovog gostovanja.

U opisu pomenutog TikTok naloga stoji da su svi videi delo veštačke inteligencije (artificial intelligence - AI), a dat je i link ka Try Parrot AI, aplikaciji uz pomoć koje svako može napraviti svoj dipfejk - ili, prevedeno na srpski jezik, „duboko lažni video“.
   


Ova aplikacija nudi brojne poznate ličnosti i influensere koje možete da iskoristite - klikom na bilo koga od njih, dobijete prozor u koji treba da ukucate željeni tekst, i veštačka inteligencija će vam generisati video u kome osoba izgovara to što ste zadali.

Dobra vest je da je iz ovih videa uglavnom jasno da je reč o šali: teško da će iko poverovati da se Mask opija u Modriči. Međutim, ova tehnologija može biti zloupotrebljena za mnogo ozbiljnije stvari koje mogu da izazovu stvarne posledice.

Tako je na primer Rojters u maju pisao kako se u Sjedinjenim Američkim Državama dipfejk snimci i sadržaj koji generiše veštačka inteligencija već koriste kao oružje u kampanji za izbore 2024. godine, odnosno kao sredstvo za obračun sa političkim protivnicima i pridobijanje glasača. Pritisak na kompanije poput Gugla, Mete i X (bivši Tviter), sve je veći - deo javnosti traži da se pojača regulacija ovakvih sadržaja jer imaju ogromni potencijal da utiču na ishod izbora.

I ne samo u Americi - slični slučajevi zloupotreba zabeleženi su i prilikom izbora u Indiji, ali i u Slovačkoj. Tamo je, uoči nedavnih izbora, objavljen dipfejk audio snimak u kome opozicioni kandidat i novinarka navodno dogovaraju krađu glasova.

Osim u političkim procesima, dipfejk materijal može biti zloupotrebljen i na druge načine. Recimo, Fejknjuz tragač je pisao o fenomenu dipfejk pornografije: bez mnogo tehničkog znanja i veština, manje više svako može da napravi lažni porno snimak bilo koje osobe na svetu, samo ukoliko ima neke njene fotografije i snimke. Sajtovi na kojima se objavljuju ovakvi sadržaji uglavnom jasno navode da je reč o dipfejku, da je cilj zabava i da se koriste isključivo poznate ličnosti, na primer holivudske glumice (uglavnom su „meta“ žene, ali ima i muškaraca). Ipak, usled nedostatka bilo kakve regulative u ovoj oblasti, nije neočekivano da se na internetu nađu i veštački generisani porno snimci „običnih“ ljudi (na primer, u slučajevima osvetničke pornografije).

Kako se pravi dipfejk snimak?

Dipfejk snimak nije isto što i video-montaža - reč je o tehnologiji novije generacije koja počiva na tzv. mašinskom učenju. U tom procesu kreator dipfejk snimka „filuje“ veštačku inteligenciju (aplikaciju, program, softver) informacijama. Ishod treba da bude realističan snimak osobe koja izgovara ili radi ono što nikada nije izgovorila i uradila.

Zamislite da želite da napravite video u kome ruski predsednik Vladimir Putin pravi tortu i peva „Makarenu“. Možete to da uradite, recimo, tako što ćete naći snimak osobe koja pravi tortu i koji će biti „baza“ vašeg dipfejk videa (osoba po konstituciji tela treba da podseća na Putina). Da bi lice ruskog predsednika u tom lažnom snimku izgledalo što uverljivije, u softver ćete morati da ubacite što više njegovih fotografija i snimaka iz različitih prilika, uglova i različitih facijalnih ekspresija. Što veći korpus informacija softver ima na raspolaganju, bolje će „naučiti“ kako izgleda Putinovo lice u 3D realnosti, kakva mu je mimika, kako mu se pomeraju usta, kako trepće, kako izgleda kada se smeje, kako kada je ozbiljan i slično. Samim tim će i video na kraju biti realističniji.

Recimo, jedan od najuverljivijih dipfejk kanala na koje smo dosad naišli je TikTok nalog DeepTomCruise koji zasad ima više od pet miliona pratilaca.
@deeptomcruise When I dance, I dance with my hands#wednesday #DeepTomCruise #wednesdayadams original sound -


Da u opisu samog naloga ne piše da je reč o parodiji, jedino po čemu bi eventualno bilo moguće posumnjati da ovo nije Tom Kruz, jeste sadržaj kanala. Kao što se može videti, lažni Kruz radi neke neobične ili neočekivane stvari - radi trbušnjake tokom intervjua, doručkuje žitarice sa Paris Hilton i pleše viralne TikTok plesove.

Čovek koji „glumi“ Toma Kruza, i koji se zapravo nalazi u svim ovim situacijama kao „baza“ videa jeste glumac Majls Fišer. On i fizički podseća na Kruza i ima slično telo i frizuru - još jedan od razloga što su videi ovako realistični.



Kako da ne nasednemo?

Na sreću, kvalitet većine dipfejk snimaka koji su trenutno u opticaju nije na ovom nivou - još uvek. Uglavnom je, uz malo opreza i pažnje, i dalje moguće odmah posumnjati (ako ne i biti siguran) da se radi o manipulaciji.

Evo nekoliko smernica:

1. Kao i u priči o lažnim vestima na internetu i u medijima, i ovde je važno imati na umu da dipfejk postoji i da je sve napredniji: ako dosad niste smeli da verujete svemu što pročitate, sada više ne možete da verujete ni svemu što vidite. Prvi korak je uvek - biti oprezan i ostaviti prostora za sumnju.

2. S naročitom pažnjom gledajte usta osobe koja govori - ona su na dipfejk snimku često „zamagljenija“ u odnosu na ostatak lica, a često će pažljiviji pogled otkriti i da se pokreti usana ni ne poklapaju skroz precizno sa onim što osoba zgovara. Ako treba, odgledajte snimak pažljivo više puta - često ćete videti da se usta jedva uopšte i pomeraju.

3. Motrite i na ostatak lica: na primer da li osoba trepće? Da li je njena pojava „čudna“, da li deluje ukočeno ili neprirodno? Na primer, možda je gestikulacija usporenija nego što bi bilo realno pa se generalno stiče utisak da je osoba na snimku poput robota.



4. Rezolucija - generalno je najveći broj ovakvih snimaka i dalje na niskom nivou produkcije tako da će se često raditi o lošijoj rezoluciji - obratite pažnju da li su neki delovi snimka pikselizovani i zamagljeni, odnosno da li su ivice (lica, kosa) „zamrljane“. Realistični snimci će često biti oštriji, a linije jasnije vidljive.

5. Pažljivo slušajte i zvuk - ponekad i on može zvučati distorzirano i „robotizovano“, sa jednoličnom i neubedljivom intonacijom.



6. Senke i osvetljenje - posebno u dipfejk snimcima lošije produkcije lice će biti drugačije osvetljeno od ostatka tela. Možda će delovati da je telo više u senci od lica koje je možda pod suncem ili reflektorom, svetlije je i sjajnije. To je zato što se dešava da kreatori dipfejka „napune“ softver snimcima i fotografijama lica nastalim na, na primer, dnevnom svetlu, pa ga onda „nalepe“ na telo snimano u zatvorenom prostoru.

7. Pazite na kontekst, ponašanje i reči osobe na snimku - pitajte se koliko je verovatno da bi ova osoba zaista ovo rekla (na primer, Zelenski na snimku iznad koji poziva ukrajinsku vojsku da se preda). Koliko je verovatno da će multimilijarder Ilon Mask govoriti o tome da se nada da će Srbi vratiti Kosovo? Koliko je verovatno da će Vladimir Putin pozvati ljude da na Svetskom prvenstvu u fudbalu navijaju za Srbiju? Koliko je verovatno da će nekadašnji predsednik SAD Barak Obama reći da je Tramp „complete dipshit“?



Kao i kod lažnih vesti, i ovde naročito treba biti oprezan kada se radi o kontroverznim i zapaljivim temama (npr. izbori, ili Kosovo) budući da takvi sadržaji najviše angažuju emocije pa je lakše okliznuti se i poverovati u određeni sadržaj.

Uvek možete da proguglate po ključnim rečima da li je neko od kredibilnih medija već preneo tu izjavu, ili da li taj video već negde postoji na internetu (recimo, obrnutom pretragom kadrova iz snimaka, a kako se to radi pisali smo ovde). Na primer, u slučaju dipfejk videa Ilona Maska, novinari Fejknjuz tragača su utvrdili da je originalno nastao tokom njegovog intervjua za TED 2022. godine i da se može naći na Jutjubu. Ako ga poslušate, videćete da nigde nije spomenuo ni Srbe ni Golfa dvojku.

Koliko ste dobri u prepoznavanju lažnih vesti i dipfejka, testirajte na sajtu Instituta za tehnologiju iz Masačusetsa (MIT).
  Lažna vest
Mejl dr Faučiju kao „dokaz” da je Kovid-19 biološko oružje
U Viber grupama u Srbiji opet su podgrejane teorije zavera o Kovidu-19 kao biološkom oružju. Ovog ...
  Lažna vest
Ministarstvo zdravlja Kanade za Raskrikavanje: Osoba pod stresom ne može na eutanaziju
Eutanazija, odnosno medicinska pomoć pri umiranju (MAID) uvedena je u kanadski sistem 2016. godine,...
  Manipulisanje činjenicama
Simpsonovi kao večiti proroci – predvideli tehnologiju koja je već postojala
Teoretičari zavere godinama seriju Simpsonovi smatraju proročanskom, gde scene iz ove kultne animi...
Dipfejk
Ilon Mask
O nama
raskrikavanje@krik.rs
011/420-43-04
Raskrikavanje na društvenim mrežama: