«NB SCITECH IT BLOG»

Razgovor u emisiji na TV Hram na temu Deepfake tehnologija
i digitalna manipulacija

Sve češće se na internetu pojavljuju video snimci koji izgledaju potpuno stvarno, a zapravo su generisani alatima veštačke inteligencije. U ovom tekstu, glavna urednica TV Hram, Sanja Lubardić i ja razgovaramo na temu primera ovakvih manipulacija.
LinkedIn: Nenad Badovinac
Februar, 2026.
Gostovanje u jutarnjem programu televizije Hram otvorilo je veoma važnu i aktuelnu temu savremenog digitalnog društva a to je uticaj veštačke inteligencije na svakodnevni život ljudi, ali i potencijalne opasnosti koje donosi njena zloupotreba. Povod za razgovor glavne urednice TV Hram Sanje Lubardić sa Nenadom Badovincem bio je konkretan primer video sadržaja sa interneta u kojem se pojavljuje navodni pravoslavni sveštenik, za kojeg su mnogi gledaoci poverovali da je stvarna osoba. Tokom emisije analizirali smo kako nastaju ovakvi sadržaji, na koji način veštačka inteligencija može generisati lice, glas i pokrete koji izgledaju potpuno autentično, ali i zašto prosečan korisnik interneta vrlo lako može biti prevaren. Razgovor je obuhvatio tehnološke, psihološke i društvene aspekte fenomena deepfake sadržaja, kao i praktične savete kako prepoznati manipulaciju i razvijati kritičko razmišljanje u digitalnom okruženju. Tokom razgovora posebno smo naglasili važnost edukacije za odgovornom upotrebom tehnologije. U nastavku je skraćeni transkrpt razgovora.

Razgovor je počeo Sanjinim komentarom: Ovo je strašno. Od mnogo gledalaca smo dobili prijave za video snimke generisane AI alatima. Ljudi se osećaju prevareni i poverovali su da je reč o živom svešteniku. Neki su nas pitali: „Ko je ovaj otac?". Mene to ispunjava dubokim užasom, jer je zaista lako biti prevaren. Šta ti, kao stručnjak, kažeš na ovo?

Nenad: Došli smo u fazu gde se tehnologija koristi, ali i zloupotrebljava u negativne svrhe. Bilo je samo pitanje vremena kada će se ljudi dosetiti da veštačku inteligenciju iskoriste na pogrešan način. Pre nekoliko meseci bila je i tribina u organizaciji Misionarskog odeljenja AME, gde smo govorili o crvenim linijama, granicama veštačke inteligencije: kako postaviti granice da je koristimo u pozitivne svrhe, a da ne prelazimo u negativnu upotrebu. Međutim, bilo je samo pitanje vremena kada će ta granica biti prevaziđena i to se upravo dogodilo. Ipak, nije sve toliko crno. Postoje mehanizmi zaštite. Danas se može relativno lako ustanoviti. Postoje alati koji generišu AI materijal, ali postoje i alati koji analiziraju video-sadržaj i daju relativno visoku procenu tačnosti na pitanje: da li je materijal generisan alatima veštačke inteligencije? Međutim, prosečan korisnik YouTube kanala uopšte se neće obazirati na to. On će slušati sadržaj i gledati materijal da bi došao do poruke koju taj video nosi.

Sanja: Samo oprosti na sekund. Vizuelno, taj video prolazi kao da je živ čovek. Svaka bora, svaka dlaka, svetlo, način na koji govori, mimika… Mogli bismo ruku u vatru da stavimo da je to neki prota. Mene ovo mnogo plaši.

Nenad: Razumem, ali nema razloga da te plaši. Ako će se i ovaj video usavršiti do mere da više nećeš moći da prepoznaš nijanse u glasu, možda ni nijanse na licu i u konturama biće sve teže prepoznati. Sada su se neke greške videle u snimku, ali naravno, vremenom može postati „savršenije“. Ipak, moguće je na više nivoa to razaznati. Na primer, postoji pravni nivo zaštite: u Evropskoj Uniji od avgusta 2026. donosi se regulativa da će morati da postoji neki vid žiga ili obeležja da je video generisan veštačkom inteligencijom. Takav žig će biti deo kompletnog video i biće jasno naznačen i transparentan gledaocu.

Sanja: U opisu tog profila piše da je sve generisano AI tehnologijom, odnosno veštačkom inteligencijom, ali ko danas čita opis kanala? Ono što mi gledamo jeste sadržaj, odnosno reči. Sadržaj ovog kanala je takav da kod ljudi budi one najprimitivnije, ali u isto vreme i vrlo „ljudske“ mehanizme.

Nenad: Sledeći nivo koji se nadovezuje na to što si rekla jeste kritičko razmišljanje o svemu što danas vidimo na internetu. Bez obzira na to da li će sutra-postojati oznaka da je nešto generisano veštačkom inteligencijom, mi opet moramo kritički da razmišljamo: ko je postavio taj video, koji je cilj tog videa, kako on utiče na mene da bih imao jasnu sliku kako želim da se odnosim prema tom sadržaju. Isto je i kada slušamo muziku ili gledamo filmove: svaki sadržaj ima neki uticaj na nas, ali mi biramo i razmišljamo: neću gledati baš svaki film ili seriju koja mi se nudi, niti slušati svaku vrstu muzike. Dakle, moramo kritički razmišljati o sadržaju. Tako je i sa veštačkom inteligencijom: koliko god da ima prednosti, sve više će biti i zloupotreba. Moramo biti svesni da je mnogo toga do nas i do našeg kritičkog razmišljanja.

Sanja: Pa dobro… ja imam svog parohijskog sveštenika, imam duhovnika… Zašto ne bih slušala njega, a ne nekog nepoznatog? Ovo drugo „radi na dugme“. Ti moraš da uložiš trud da bi došao do svog parohijskog sveštenika: da znaš raspored kada je tu, kada je na dežurstvu, kada je ispovest, kada možeš da razgovaraš. A ovo ti samo „izlazi“ i tačno te pogađa tamo gde si najtanji i gde ti je potreba najveća. Nije ta Evropska unija toliko loša, da vam odmah kažemo Nenad i ja, što se tiče ove regulative. Oni će, dakle, imati obeležja. Mi nismo u Evropskoj uniji — pa možda i nećemo…

Nenad: Zasad ne, mada mi imamo zakonodavstvo koje se u određenoj meri prilagođava standardima Evropske unije, ali YouTube kao sistem već ima određene smernice koje upozoravaju na manipulativni sadržaj. Kada se takav sadržaj prijavi, taj video može biti skinut sa YouTube-a. Takav sadržaj želi da manipuliše, da prevari. Da bismo se zaštitili, postoje alati za zaštitu i detekciju AI generisanog sadržaja

Sanja: Ovaj sadržaj upravo može da podstakne sve nas da kažemo: sada je vreme da se postavimo u neku vrstu odbrane od deepfake sadržaja. Ali igra se na mnogo različitih nivoa da budemo prevareni. Jer profil se zove „Svetosavski put“ i ti bi, kao prosečan (pa i nadprosečno obavešten) vernik, kada vidiš ime Svetog Save, odmah „poleteo“ da vidiš o čemu se radi. Dakle, ovo nije samo tehnološka — ovo je i psihološka manipulacija. Svi smo slabi na emocije. Kada vidimo „svetosavsko“, „pravoslavno“, odmah pomislimo da je to stvarno taj sadržaj. I tu dolazimo do poente: već i sama oznaka deepfake govori da je to nešto lažno čak i naziv je manipulativan. Ako se slučajno povedemo za ovakvim videima, ako ne postavimo granice na vreme, biće sve više takvih sadržaja. A sutra više nećemo moći jasno da povučemo granicu, jer se razlika između AI-kreiranog i prirodnog sadržaja neće prepoznavati.

Nenad: Zato treba na vreme voditi brigu, možda čak i o crkvenim sadržajima: da YouTube kanale, Facebook stranice i Instagram profile prijavimo u neki registar naših referentnih, zvaničnih profila. Takvo vreme dolazi. Jeste sve novo, ali moramo praviti „zid“ i zaštitu vernika, posebno starijih ljudi.

Sanja: Kad kažeš „mi“, misliš Crkva? Misionarsko odeljenje Arhiepiskopije? Ko smo „mi“?

Nenad: Mediji. Ti sa jedne strane, Misionarsko odeljenje, ja sa druge strane, za početak. Mislim da će se vremenom uključivati sve više organizacija u ovakav sklop razmišljanja: da se sadržaji registruju i dobiju neku vrstu potvrde, verifikaciju od strane Crkve. Jer ovo je isto kao na primer prevera ako bi neki lopov došao do bankomata i da se predstavlja da je osoba koja zapravo nije i želi da podigne novac (da prevari bankomat). To je ista vrsta prevare. Bankomat će ti zabraniti ulaz. Zašto ne bismo napravili da se i ovde zabrani sadržaj koji nije tačno verifikovan?

Sanja: Kako se ovo pravi tačno? Postoje gotovi programi, je l’ tako? Možeš da tražiš i od onih najosnovnijih — koje imamo svi na telefonu, kroz chatove — da ti napravi sliku „sveštenika“, i on će nešto uraditi. Ovde su, naravno, kvalitetniji…

Nenad: Recimo, izrada jednog minuta može koštati, zavisno od pretplate. Ako želiš da skineš vodeni žig, cena može da naraste, može biti i 200–300 evra za minut–dva–tri. A ovde ima više sadržaja od dve–tri minute. Na tim profilima ima više video klipova. Kad se uzme broj videa puta minuta puta evro, dolazi se do ozbiljne cifre koju je neko uložio da to napravi.

Sanja: Zašto bi neko uložio hiljadu evra?

Nenad: Zaradiće od pregleda. Uvek je novac.

Sanja: Ali uvek je novac, zaista. E sad, kako običan čovek da zna šta da gleda i kako da prepozna da je sadržaj lažan, kad je slika skoro savršena? Kako prepoznajemo veštačku inteligenciju? Daj nam neke praktične savete.

Nenad: Kod ovog primera, u par minuta se videlo da u glasu postoje nejasnoće, ali već za nekoliko meseci ne možemo garantovati da ćemo moći da prepoznamo AI generisan materijal. Ipak, danas postoje neki znaci: ton glasa može biti izmenjen; vide se nijanse u govoru; nekad su nijanse lica previše simetrične; kod izgovora određenih reči primeti se „šablon“, kao da je uvek isto; mimika može delovati ponavljajuće.
U prethodnom poglavlju je deo transkripta iz emisije, a u nastavku zaključak. Deepfake video-sadržaji mogu biti toliko uverljivi da kod posmatrača stvaraju osećaj autentičnosti, iako iza njih ne postoji stvarna osoba. Upravo zato najveći izazov je da čoveka kritički proceni ono što vidi i čuje. Kako tehnologija napreduje, razlika između stvarnog i AI generisanog sadržaja biće sve manja, zbog čega odgovornost za bezbedno korišćenje digitalnog prostora postaje i pojedinca, institucije i društva.

Tipovi zaštite od AI manipulacija:
Pravna zaštita
  • Uvođenje obaveznog označavanja (žiga) AI generisanog sadržaja
  • Regulativa platformi i odgovornost autora sadržaja
  • Mogućnost prijave manipulativnih i lažnih sadržaja
Tehnološka zaštita
  • Alati za detekciju AI videa i deepfake sadržaja
  • Analiza metapodataka i digitalnih tragova sadržaja
  • Razvoj sistema verifikacije autentičnosti digitalnih medija
Lična zaštita (kritičko razmišljanje)
  • Provera izvora i identiteta autora sadržaja
  • Ne reagovati impulsivno na emocionalno snažne poruke
  • Uporediti informacije sa pouzdanim izvorima
  • Postavljati pitanja: ko je autor, koji je cilj poruke, da li postoji manipulacija
Reference:
  1. https://artificialintelligenceact.eu/article/50/
  2. https://www.youtube.com/watch?v=ScB6Q2sPIk0
LinkedIn: Nenad Badovinac
Februar, 2026.