Foto: fra åbne kilder
Brugerne har allerede lært at fjerne Sora-vandmærket, så det bliver sværere og sværere for AI at genkende det.
Med lanceringen af OpenAI’s nye Sora-videogenerator er antallet af falske videoer, der er svære at skelne fra de rigtige, steget dramatisk på internettet. TikTok- og YouTube-brugere joker med, at det nu er blevet næsten umuligt at tro på videoer på internettet.
Jeremy Carasco, forfatter til YouTube-kanalen Showtools.ai, forklarede, hvad man skal holde øje med for at opdage AI. Ifølge ham skal man kigge efter uoverensstemmelser, f.eks. læber, der ikke stemmer overens med tale, objekter, der forsvinder, og optagelser fra påståede overvågningskameraer, som AI er særlig god til at generere.
OpenAI tilføjede Sora-vandmærker og skjulte metadata for at markere klippene som AI-genererede, men inden for en uge dukkede der guides til at fjerne dem op online. Carasco råder til at kigge efter slørede pletter i videoen, hvor vandmærket kan være.
Som eksempel nævner Carasco en video af en bjørn, der hopper på en trampolin i baghaven til et hus. Alle skabelonerne for moderne AI-videoer er tydelige her: natlige CCTV-optagelser, mærkelig fysik og en bjørn, der går ud af billedet og ingen steder hen. Alligevel har denne video fået mere end 13 millioner visninger alene på YouTube.
Det er vigtigt at huske, at de fleste AI-modeller skaber korte klip på op til 10 sekunder. Men Karasko understreger, at efterhånden som kvaliteten af AI-videoer stiger, vil genkendelsesmetoderne blive mere komplekse, og det vil ikke længere være muligt udelukkende at stole på sine øjne.