Een nieuw algoritme kan ‘deep fakes’ (nepvideo’s) maken op basis van één foto.
Dit artikel is gepubliceerd in NRC Handelsblad van zaterdag 25 mei
Hoe zou een pratende Mona Lisa eruit zien? Of je pratende overgrootmoeder waarvan je alleen maar een portretfoto hebt? Dankzij een nieuwe stukje kunstmatige intelligentie (AI) kunnen we dat voor het eerst op een realistische manier zien.
Russische onderzoekers van het Samsung AI Center en het Skolkovo Institute of Science and Technology in Moskou zijn er in geslaagd om, uitgaande van slechts een enkele portretfoto of een enkel geschilderd portret, een realistisch pratend hoofd te maken. Geluid zit er trouwens niet bij, we zien alleen het beeld van pratende hoofden met realistische mimiek. Zo creëerden ze onder andere video’s van een pratende Mona Lisa, Marilyn Monroe, Salvador Dali en Albert Einstein uitgaande van slechts één enkele afbeelding. De onderzoekers publiceerden hun resultaten op 20 mei als wetenschappelijke vooruitgave op de website ArXiv.org.
Russische onderzoekers van het Samsung AI Center en het Skolkovo Institute of Science and Technology in Moskou zijn er in geslaagd om, uitgaande van slechts een enkele portretfoto of een enkel geschilderd portret, een realistisch pratend hoofd te maken. Geluid zit er trouwens niet bij, we zien alleen het beeld van pratende hoofden met realistische mimiek. Zo creëerden ze onder andere video’s van een pratende Mona Lisa, Marilyn Monroe, Salvador Dali en Albert Einstein uitgaande van slechts één enkele afbeelding. De onderzoekers publiceerden hun resultaten op 20 mei als wetenschappelijke vooruitgave op de website ArXiv.org.