Sve bi to bilo savršeno dobro i u redu, da veštačka inteligencija nije umešala prste pri kreiranju ovog, uistinu neverovatnog snimka.
Primera grešaka AI alata kojim je snimak kreiran ima dosta, a apsurdna scena je tek prvi znak da nešto nije u redu.
Na wc šolji vidi se kako izviruje trup ruskog vojnika, potpuno pogrešno orijentisanog od ostalih.
Bela tehnika koju voze ima ugrađene točkove, što obično nije slučaj. Takođe, visoki Rus sa partizanskom kapom naizgled gura belu tehniku, ali kada ona dođe do kamere, niko je ni ne dodiruje već - ide sama.
Medvedi koji idu pored kolone vojnika su očigledno naknadno ubačeni i ne uklapaju se u (ne)prirodno osvetljenje ostatka videa.
Obe slike koje vojnici nose stoje neprirodno u njihovim rukama. Deluje kao da je najveća poteškoća trenutno kombinacija ljudi i objekata.
Na kraju snimka, čuje se glas - "mi idemo na Mirnograd, ura". Video je pogledalo preko 50.000 ljudi na društvenoj mreži X u trenutku objavljivanja vesti.
Snimci nastali uz pomoć veštačke inteligencije sve se češće koriste kao sredstvo ratne propagande, jer omogućavaju brzo i masovno kreiranje uverljivog sadržaja koji može da utiče na javno mnjenje.
Uz AI tehnologiju lako je proizvesti lažne video zapise, fotografije i audio snimke koji prikazuju nepostojeće zločine, vojne uspehe ili izjave političara, što može da podstakne strah, mržnju ili paniku. Takav sadržaj se brzo širi putem društvenih mreža, često brže nego što se može proveriti njegova autentičnost.
Zbog toga AI propaganda otežava rad novinara i analitičara, pojačava dezinformacije i produbljuje podele između sukobljenih strana. Iako postoje alati za otkrivanje manipulisanih snimaka, njihova efikasnost je ograničena jer AI tehnologija napreduje sve brže.
Upravo zato međunarodne institucije i tehnološke kompanije sve više pozivaju na regulaciju i razvoj standarda za obeležavanje autentičnog i generisanog sadržaja.
Komentari (0)