Echte foto’s, greenscreens, deepfake…
Al jaren wordt er met filters van alles weggevaagd van foto’s. En met alle technieken kunnen we meer en meer. Ik zie het positieve van de vooruitgang, maar vraag me ook af waar de grenzen liggen.
Op mijn social media tijdlijn zie ik foto’s langskomen van vrouwen met ontblote schouder en een bepaalde look. Allemaal gemaakt met een specifieke prompt voor AI.
Ieder zijn ding uiteraard, maar ik heb daar zo mijn vragen bij.
Allereerst: is dit vanuit het verlangen naar hoe we willen zijn?
Aantrekkelijk, verfijnd.
Zonder storende pukkeltjes en rimpeltjes?
Maar daarna ging er wat anders door mijn hoofd…
Op X zag ik namelijk een video over een nieuwe optie van grok: selecteer een aantal foto’s en beschrijf de video die gemaakt moet worden. Zulke beelden worden vaak gemaakt met technieken die we kennen uit film en AI, zoals greenscreens en deepfake.
En nu zijn ze dus ook beschikbaar voor ons. Dus even selecteren, op de knop klikken en voilà!
Ik kan koffiedrinken in bewegende beelden met wie dan ook waar ik een foto van heb…
Waar worden onze foto’s en video’s voor gebruikt?
Alles lijkt tegenwoordig mogelijk…
Maar beseffen we ook waar al ons beeldmateriaal voor gebruikt kan worden?
En hebben we nog enig idee hoeveel van de beelden, die we op tv en social media zien, waar zijn?
Niet alleen de beelden voor entertainment, maar ook beelden vanuit de media?
Want met een foto van bijvoorbeeld een setting, een wereldleider en een aantal mensen…
Wat voor video’s kun je daarmee maken?
Dus tja, hoe hilarisch al deze mogelijkheden ook kunnen zijn, het geeft mij inmiddels al jaren een raar onderbuikgevoel. Het heeft er ook voor gezorgd dat ik alerter kijk naar de dingen die ik te zien krijg. Daarnaast overweeg ik bewuster van welke tools ik wel of geen gebruik wil maken.
Want waar het vroeger leuk was dat je een boekje kon bestellen met de naam van jouw kind in de hoofdrol, maak je nu in een handomdraai video’s met gebeurtenissen waarin jij óf je kind voorkomt zonder dat het echt gebeurd is…
En dat kan super grappig zijn, maar het kan ook makkelijk heel erg eng worden!
Hoe kan het eigenlijk dat dit allemaal mogelijk is?
Dat heeft te maken met technieken die al langer bestaan, zoals greenscreens en de nieuwere techniek: deepfake.
Wat is een greenscreen?
Het is inmiddels al een paar jaar geleden dat ik te horen kreeg wat een greenscreen was. Onze jongens konden het me haarfijn uitleggen en ik dacht: ‘ehm… hoe dan? Waar zit ik dan altijd naar te kijken?’
Een greenscreen (of chrom keying) is een groen scherm dat achter een persoon of voorwerp geplaatst wordt. Wanneer er op die manier een filmopname wordt gemaakt kun je, door de groene kleur digitaal te verwijderen, de persoon in een virtuele omgeving plaatsen. Zo kun je dus een achtergrond plaatsen die je zelf kiest.
De reden dat er voor groen gekozen wordt is dat deze kleur niet voorkomt in huidtinten. Hierdoor kun je een persoon makkelijk los maken van de achtergrond.
Wat is deepfake?
Deepfake gaat nog een stap verder. Daarmee worden nepvideo’s of -afbeeldingen bedoeld die gemaakt worden met kunstmatige intelligentie (AI).
Door zogenaamde deep learning leert een computerprogramma gezichten en stemmen na te bootsen. Dit gebeurt op basis van grote hoeveelheden beeld- en geluidsmateriaal. (Let op! Bij sommige online tools kunnen ook de foto’s die gebruikers uploaden worden gebruikt om die systemen verder te trainen.)
Door het trainen van AI kunnen ze het gezicht, maar óók de stem, van personen nabootsen.
Soorten deepfake
Deepfakes kunnen op verschillende manieren worden gemaakt. Vaak wordt daarbij een combinatie gebruikt van beeld en geluid. Grofweg zijn er drie vormen te onderscheiden:
Gezicht vervangen (face deepfake)
Het gezicht van een persoon wordt digitaal vervangen door dat van iemand anders, zodat het lijkt alsof die persoon in de video voorkomt.
Stem nabootsen (voice cloning)
Met behulp van AI kan ook een stem worden nagebootst. Op basis van bestaande geluidsopnames kan een computer nieuwe zinnen laten uitspreken in de stem van die persoon.
Combinatie van beeld en stem
Beide technieken kunnen ook gecombineerd worden. Dan lijkt het alsof iemand in beeld iets zegt, terwijl zowel het gezicht als de stem digitaal zijn nagebootst.
Waar ligt de grens als het gaat om beeldmanipulatie?
En hoewel het enorm grappig kan zijn om zulke video’s zelf te maken, gaat het tegenwoordig zover dat het ook voor schadelijke doeleinden gebruikt kan worden. Met alle gevolgen van dien, want wat als ze foto’s gaan gebruiken voor nepnieuws, identiteitsfraude en ongeoorloofde beelden?
En het zette me de afgelopen jaren aan het denken.
In hoeverre worden dit soort technieken tegenwoordig gebruikt bij beelden die we zien? Wat kunnen ze ons tegenwoordig allemaal voorschotelen?
En waar het voorheen regelmatig gebeurde dat een deepfake te herkennen was aan een vinger te veel, zijn de beelden inmiddels eigenlijk niet meer van echt te onderscheiden. Dus hoe weten we nog wat echt is?
En nu de techniek aan het publiek getoond wordt, ga ik ervan uit dat het al veel langer beschikbaar is. Dus sinds wanneer krijgen we al beelden te zien, die wellicht handig gemanipuleerd zijn?
Niets is wat het lijkt nestelt zich zo steeds dieper in ons hele leven en ik vraag me af:
wordt fake het nieuwe normaal?
NB. Ik zie overigens ook positieve kanten van AI, daar schreef ik al over in de blog over hoe ik AI-bots gebruik in mijn dagelijks leven.

