Tokom 2025. godine, tehnologija deepfake sadržaja napredovala je dramatičnije nego što su i stručnjaci očekivali. Veštački generisana lica, glasovi i kompletni nastupi koji oponašaju stvarne ljude dostigli su nivo realizma koji u svakodnevnim situacijama, naročito na društvenim mrežama i u video-pozivima slabijeg kvaliteta, bez problema obmanjuje većinu korisnika. U praksi, sintetički snimci postali su gotovo neprepoznatljivi u odnosu na autentične, pa čak i za pojedine institucije.
Rast nije zabeležen samo u kvalitetu, već i u količini. Prema procenama sajber-bezbednosne kompanije DeepStrike, broj deepfake sadržaja na internetu porastao je sa oko 500.000 u 2023. godini na približno osam miliona u 2025, što predstavlja godišnji rast od gotovo 900 odsto.
Stručnjaci upozoravaju da će se situacija dodatno pogoršati tokom 2026, kada deepfake tehnologija pređe u fazu realnog vremena. Umesto unapred renderovanih snimaka, pojaviće se sintetički „izvođači“ sposobni da reaguju na sagovornike uživo, čime će zaobići postojeće sisteme detekcije.
Tri pomaka za deepfake sadržaj
Tri ključna tehnološka pomaka stoje iza ovog skoka. Prvo, novi modeli za generisanje videa obezbeđuju vremensku konzistentnost, stabilne pokrete i dosledan identitet osoba u kadru, bez ranijih vizuelnih grešaka poput titranja ili deformacija lica.
Drugo, kloniranje glasa prešlo je prag neprepoznatljivosti. Svega nekoliko sekundi audio-zapisa danas je dovoljno za verodostojnu imitaciju govora, emocija i intonacije. To je već dovelo do talasa prevara, pri čemu veliki trgovinski lanci prijavljuju i do hiljadu AI-generisanih prevarantskih poziva dnevno.
Treće, potrošački alati učinili su ovu tehnologiju dostupnom gotovo svima. I to uz pomoć alata poput OpenAI-jevog Sora ili Google-ovog Veo, kompletni video-sadržaji mogu se proizvesti za nekoliko minuta, piše The Conversation.
Izazov za društvo
Kombinacija masovne proizvodnje i gotovo savršene imitacije predstavlja ozbiljan izazov za društvo. Deepfake sadržaji već su korišćeni za širenje dezinformacija, ciljani uznemiravanje i finansijske prevare, često pre nego što žrtve shvate šta se dešava.
U budućnosti, odbrana se više neće oslanjati na ljudsko oko. Ključ će biti sistemska rešenja. Kriptografsko potpisivanje medija, standardi za proveru porekla sadržaja i napredni forenzički alati. Samo posmatranje piksela više neće biti dovoljno.

