In een wereld die steeds meer door kunstmatige intelligentie wordt doordrongen, rijst een onheilspellende vraag: is wat wij waarnemen nog werkelijk, of slechts een overtuigende imitatie? De verwarring tussen echt en onecht, oorspronkelijk en gesimuleerd, behoort tot de oudste filosofische angsten — van Plato’s grot tot Descartes’ demon. Maar met de opkomst van generatieve AI, synthetische media en hyperrealistische avatars lijkt deze verwarring niet langer hypothetisch of metafysisch, maar existentieel geworden.
In de jaren negentig verschenen twee films die deze problematiek indringend verbeeldden: The Truman Show (1998) en The Matrix (1999). In beide gevallen leeft de hoofdrolspeler in een zorgvuldig geconstrueerde schijnwereld. Truman is zonder het te weten de ster van een levenslang reality-programma; Neo leeft in een digitale simulatie die de fysieke werkelijkheid volledig heeft vervangen. Beide films stellen impliciet dezelfde vraag: wat gebeurt er met de mens als de grens tussen werkelijkheid en fictie niet langer betrouwbaar is?
Het zijn geen sciencefictionfilms in de traditionele zin, maar filosofische fabels. Ze verbeelden wat Jean Baudrillard beschreef als het tijdperk van het simulacrum: een wereld waarin kopieën circuleren zonder origineel, waarin de werkelijkheid wordt vervangen door haar representatie, en die representatie uiteindelijk als “echter dan echt” wordt ervaren. In The Matrix is dit letterlijk het geval: de echte wereld is een ruïne, het simulacrum is comfortabeler, mooier — en gevangener.
Vandaag bevinden we ons op de drempel van een nieuwe fase. AI genereert beelden, teksten, stemmen en zelfs persoonlijkheden die niet slechts representaties zijn van de werkelijkheid, maar steeds meer ervaringen zelf vormen. Wanneer een AI een nieuwsbericht schrijft dat niet van een menselijke bron te onderscheiden is, wanneer een deepfake je geliefde nabootst of een synthetische stem namens jou een telefoongesprek voert, dan wordt de vraag naar het onderscheid tussen echt en onecht niet langer esthetisch, maar existentieel.
De filosoof Paul Virilio waarschuwde dat elke nieuwe technologie een nieuw soort ongeluk met zich meebrengt. Met AI is dat niet de crash, maar de implosie van betekenis. We worden overspoeld door tekens, beelden en data, maar verliezen het vermogen om daarin nog waarheid, oorsprong of betrouwbaarheid te onderscheiden. Waar Virilio sprak van de “onzichtbare oorlog” van snelheid, spreekt Byung-Chul Han van de “transparante hel”: een wereld waarin alles zichtbaar, deelbaar en reproduceerbaar is — maar niets meer blijft.
AI is geen instrument dat ons vervangt, maar een spiegelpaleis dat ons desoriënteert. De mens die zichzelf via data, profielen en simulaties spiegelt, raakt verdwaald in een echo van zichzelf. De wereld wordt niet langer ervaren als gegeven, maar als gegenereerd. In plaats van te leven in een gedeelde werkelijkheid, leven we in gepersonaliseerde werkelijkheden — algoritmisch gefilterd, voorspellend aangepast, oneindig nabootsbaar.
Het gevaar is niet dat AI ons bedriegt, maar dat we geen toegang meer hebben tot iets wat niet een simulatie is. De werkelijkheid wordt een vorm van fictie — of erger: wordt als irrelevant ervaren. In de terminologie van Han: de wereld verliest haar aura. Er is geen afstand meer, geen onkenbaarheid, geen geheim. Alles is instant, geproduceerd, beschikbaar
In dit digitale tijdperk van representatieverzadiging is de vraag niet slechts filosofisch, maar existentiëler dan ooit: hoe kunnen we nog vertrouwen op wat echt is? Of preciezer: hoe kunnen we nog leren ervaren wat niet geproduceerd is, maar werkelijk? Het antwoord ligt niet in technologie, maar in een herstel van onze sensus realitatis — een gevoel voor de werkelijkheid dat geworteld is in lichaam, zintuiglijkheid, ontmoeting, en het onzegbare. Alleen via wat ontsnapt aan representatie — de blik van een ander, de weerstand van een rots, de stilte van een bos — kunnen we ons onttrekken aan het spiegelpaleis van het simulacrum.
De toekomst van de waarheid ligt misschien niet in meer transparantie of betere verificatie, maar in een radicale herwaardering van het oncontroleerbare, het anonieme, het echte dat zich onttrekt aan het beeld. Zolang dat nog bestaat — of herkend wordt — is de mens geen gevangene van de simulatie, maar een getuige van iets wat haar overstijgt.
Een van de meest onrustbarende verschijningsvormen van AI-gegenereerde simulaties is de opkomst van deepfakes — synthetische video’s waarin publieke figuren dingen lijken te zeggen of doen die nooit hebben plaatsgevonden. Wat begon als technologische curiositeit is inmiddels een geopolitiek instrument geworden. Deepfakes brengen niet enkel individuen in diskrediet; ze ondermijnen het publieke vertrouwen in het bestaan van een gedeelde werkelijkheid.
In de klassieke opvatting van de democratie is het politieke domein gestoeld op een zekere gedeeldheid: we kunnen het oneens zijn over de interpretatie van feiten, maar niet over de feiten zelf. Deepfakes veranderen dat spel. Ze brengen de mogelijkheid binnen om de feiten zelf te saboteren. Niet alleen door leugenachtige beelden te verspreiden, maar door een algemene sfeer van epistemologische twijfel te cultiveren: is dit wel echt? Heeft hij dat werkelijk gezegd?
Deze twijfel is corrosief. Ze leidt tot wat Hannah Arendt ooit het verlies van de gemeenschappelijkheid van de wereld noemde. Als we het niet meer eens kunnen zijn over wat zich heeft afgespeeld, rest alleen nog macht, opinie en affect. De waarheid wordt dan niet meer gevonden, maar gekozen — of geproduceerd. In dit klimaat gedijen niet alleen autocratische regimes, maar ook algoritmisch gevoede complottheorieën.
Jean Baudrillard had dit vooruitgezien in zijn idee van de “precessie van het simulacrum”: de vervalsing komt vóór het origineel. Het deepfake-beeld is de realiteit in de publieke beleving, ongeacht of het echt is. De authenticiteit van het beeld doet er minder toe dan de snelheid en overtuigingskracht waarmee het circuleert. En precies daarin ligt het gevaar: niet alleen de waarheid verdwijnt, maar ook de mogelijkheid om haar te herstellen.
In dit kader zijn ook de recente waarschuwingen van Byung-Chul Han relevant. Voor hem is waarheid niet langer iets dat ontdekt wordt, maar iets dat bevalt. In een tijd waarin clicks, likes en algoritmes bepalen wat zichtbaar wordt, is de grens tussen propaganda en werkelijkheid niet langer gebaseerd op feiten, maar op aandachtseconomie. De deepfake is dan geen uitzondering, maar de regel: de meest efficiënte vorm van zichtbaarheid.
Zo wordt de politiek niet alleen een strijd om ideeën, maar een strijd om representatie. Wie het narratief beheerst, beheerst de werkelijkheid. En met AI als gereedschap zijn die narratieven eindeloos aanpasbaar. De vraag die overblijft, is dan: wat gebeurt er met democratie als het fundament onder onze gedeelde ervaring — de realiteit zelf — systematisch wordt ondermijnd?
De oorlog in Oekraïne is niet alleen een strijd om territorium, maar ook — en misschien wel even fundamenteel — een strijd om de werkelijkheid zelf. Van de eerste dag af aan is deze oorlog ook gevoerd op het digitale front: in beelden, memes, video’s, sociale media en deepfakes. Wie de representatie beheerst, beïnvloedt niet alleen de publieke opinie, maar de perceptie van wat er gebeurt — of zelfs of het überhaupt gebeurt.
In maart 2022 dook er een deepfakevideo op waarin de Oekraïense president Volodymyr Zelensky leek op te roepen tot overgave aan Rusland. De video was technisch nog onvolkomen, maar markeerde een grensverlegging: de poging om door synthetisch gegenereerde beelden de intentie van een leider te herschrijven. Hier was geen sprake van satire of commentaar — het was een aanval op het semantische hart van politieke werkelijkheid.
Hoewel deze specifieke deepfake snel werd ontmaskerd, is het bredere gevaar structureler. In een conflict waar desinformatie als strategisch wapen wordt ingezet, verliezen beelden hun bewijskracht. Foto’s van bombardementen, video’s van slachtoffers, uitspraken van militairen: elk beeld roept direct het vermoeden van manipulatie op. De kijker wordt murw van de twijfel.
Baudrillard schreef tijdens de Golfoorlog al: “De Golfoorlog heeft niet plaatsgevonden”, waarmee hij bedoelde dat de oorlog volledig gefilterd werd door mediale representaties en zodanig werd geënsceneerd dat het echte lijden en de politieke complexiteit verdwenen achter het spektakel. De oorlog in Oekraïne lijkt dit in overtreffende trap te herhalen: dronebeelden, heroïsche filmpjes, virtuele tours van het front, en AI-geoptimaliseerde propagandastromen vermengen zich tot een oorlog die evenzeer in de hoofden gevoerd wordt als op het slagveld.
Wat als de werkelijkheid van de oorlog uiteindelijk minder bepalend wordt dan de geloofwaardigheid van haar representatie? De Russische staat heeft dit als geen ander begrepen. Door te investeren in alternatieve narratieven, in visueel overtuigende desinformatie, in een systematische productie van twijfel, wordt de cognitieve ruimte van het Westen zelf ondermijnd. Wie niet meer weet wat waar is, verliest niet alleen inzicht — maar ook moreel en politiek kompas.
In deze situatie raakt het woord van Byung-Chul Han opnieuw aan de kern: de waarheid als zodanig verdwijnt niet, ze wordt onverschillig. De mens wordt consument van indrukken, algoritmisch gevoede simulaties, waarin elke morele positie onmiddellijk opgaat in de ruis van alternatieven. De oorlog is dan geen tragedie meer, maar een contentstream.