In de workshop ‘Factchecking in tijden van AI’ legden Lotte Lambrecht en Rien Emmery, allebei journalisten en factcheckers, uit welke impact AI heeft op feiten en hoe je daar als journalist mee omgaat. AI or not, that’s the question …
Het wereldwijde web wordt tegenwoordig overspoeld met nepteksten, fake beelden en phony audio’s en video’s. Bij de VRT, zo vertelt Rien Emmery, is er zelfs een speciale redactie die onder andere de echtheid van virale foto’s nagaat voordat ze in berichtgeving gebruikt worden. Want met AI is het nog gemakkelijker geworden om fake news te maken dat gretig geconsumeerd wordt. Een dansende Volodymyr Zelensky, een Big Macs verorberende Donald Trump, een onder water gelopen Disney World, Gert Verhulst die je rijk gaat maken met cryptomunten, het overlijdensbericht van een BV … We hebben allemaal weleens iets gelezen of gezien waarvan we dachten dat het echt was maar wat achteraf niet zo bleek te zijn.
Lambrecht en Emmery stellen zeven courante vormen van mis- of desinformatie voor:
1 satire
Bv. Op sociale media circuleerde een foto van een verkeersbord in Brussel met daarop een Franse tekst en een Arabische tekst. Een politicus klaagde dat aan. Maar uiteindelijk bleek het om humor te gaan, want de Arabische tekst betekende ‘veel succes’.
2 valse connectie: clickbait content
Bv. Wetenschappelijke studies die verkeerd geïnterpreteerd worden. Heel vaak gaat dat om gezondheidsnieuws. Oplossing: check de originele studie en vraag aan een wetenschapper of de conclusies kloppen.
3 misleidende inhoud
Bv. Een echt beeld gaat een eigen leven leiden, zoals die foto van het verkeersbord in Brussel uit puntje 1.
4 valse context
Bv. Een echte foto wordt gedeeld in een verkeerde context. Zo postte Jackson Hinkle, een Amerikaanse influencer en politiek commentator, een foto van een vrouw in een ingestort huis, met de boodschap: “Je krijgt de Palestijnse spirit niet kapot.” Alleen: de foto bleek in Syrië genomen te zijn.
5 bedrieglijke inhoud door imitatie
Bv. Russische propaganda bouwt westerse nieuwssites na met 1 lettertje verschil in de URL en verspreidt op die manier artikels. Dat gebeurde onder meer met The Guardian. Zo krijgen de artikels meer geloofwaardigheid omdat ze zogezegd van The Guardian komen.
6 gemanipuleerde inhoud
Bv. Twee dagen na de dood van de vrouw van Aleksei Navalny circuleerde een foto van haar dansend met een andere man. De foto was echt, maar het gezicht van Navalny was vervangen door dat van iemand anders, een zogeheten face swap.
7 gefabriceerde inhoud
Bv. AI-beeld van een Palestijnse vader die met zijn kinderen door brokstukken van Gaza wandelt. Je kan zien dat de foto fake is omdat er te veel armen rond de vader bungelen. Het probleem hier is dat je niet kan teruggrijpen naar de échte foto om te bewijzen dat dit een fake foto is.
AI or not?
Om de echtheid van een tekst, audio, foto of video na te gaan, heb je een aantal tools, zoals AI or not (aiornot.com). Het probleem met die tools is dat ze nooit met 100 procent zekerheid kunnen zeggen of iets fake is of niet en dat ze soms achter de feiten aanlopen. Je kan je daar dus niet op baseren om conclusies te trekken, je moet verder op onderzoek gaan.
Als factchecker/journalist kan je niet anders dan daarbij terugvallen op zoekmachines. “Het probleem is dat die zoekmachines ook door AI vervuild kunnen raken”, zegt Emmery. “Als je bijvoorbeeld een afbeelding van een babypauw zoekt in Google Images, blijkt dat de helft van de resultaten AI-gegenereerde foto’s zijn.” Lambrecht vult aan: “En die AI-gegenereerde foto’s zijn dan nog vaak de mooiste en schattigste.”
Hetzelfde probleem stelt zich met chatbots zoals ChatGPT, Gemini en co. Ondanks de pogingen om hallucinaties in te dammen, bevatten ze nog steeds heel veel fouten. Die tools zijn eigenlijk ‘onaf’ op de wereld losgelaten. Een mooi voorbeeld daarvan is een onderzoek van de universiteit van Leiden. Men wilde nagaan of een chatbot een factcheck zou kunnen schrijven over een eventueel verband tussen depressie en een tekort aan vitamine D. Toen men vroeg naar bronnen om de tekst die de chatbot had gegenereerd te staven, gaf ChatGPT die ook, maar ze bleken gehallucineerd en dus onbestaande. Een chatbot gebruiken voor research is tricky. “Je moet de resultaten altijd checken”, zegt Lambrecht. Een chatbot kan ook gebruikt worden om fake news te genereren, want de teksten zijn zeer overtuigend geschreven en soms zelfs beter dan wat een journalist uit zijn klavier schudt.
Een gelijkaardig fenomeen: de opmars van volledig door AI geschreven boeken. Soms staan ze zelfs in de bestsellerlijsten van websites als Amazon en bol.com. Die boeken bevatten fouten en dat is problematisch, zeker als het over reisgidsen, zelfhulpboeken, wetenschappelijke werken … gaat. Maar voor gewiekste ondernemers is het een snelle manier om geld te verdienen. Ook op sociale media speelt het verdienmodel achter virale posts mee aan de verspreiding van AI-beelden. Op Facebook worden zulke posts gepusht. Dat werkt fake news alleen maar in de hand.
“In bepaalde Afrikaanse en Aziatische landen zijn mensen constant bezig met het aanmaken van AI-beelden die de wereld ingestuurd worden met de bedoeling om heel veel likes te genereren”, zegt Emmery. Na de aardbeving in Turkije circuleerde een foto van een Griekse brandweerman die een Turks kindje redde. Op de helm van de man stond de Griekse vlag en op de trui van het kind de Turkse vlag. Onder meer daaraan zag je dit een door AI gemanipuleerd beeld was en dus niet echt, maar veel mensen trapten erin. AI-foto’s worden ook vaak gebruikt voor propaganda - bv. Trump samen op de foto met zwarte kiezers - of om mensen te belasteren. “Uiterst rechtse partijen zijn zeer bekwaam geworden in het verdacht maken van bepaalde bevolkingsgroepen”, zegt Lambrecht. Kijk bijvoorbeeld naar Facebookpagina’s aangemaakt door de Nederlandse PVV, waar racistische nepfoto’s gecombineerd worden met PVV-slogans.
Mensen kunnen misleid worden door een tsunami van dit soort fake beelden en weten niet meer wat echt is. Zo ontstaan er op sociale media discussies over échte foto’s die voor nep worden aangezien – en omgekeerd. Dat werkt voor sommigen demotiverend: ze geloven niets meer en geven hun streven naar waarheid gewoon op. Dat is ook het ultieme opzet van de verspreiders van desinformatie: ze overspoelen je met fake news zodat je er op den duur de brui aan geeft.
De SIFT-techniek
Door AI gegenereerde teksten, foto’s, video’s en co. kunnen nog het best geverifieerd worden met traditionele factchecktechnieken zoals de SIFT-techniek, stellen Lambrecht en Emmery.
Stop
Fake news speelt heel vaak in op emotie omdat dat goed scoort; stop met te delen is de allerbelangrijkste reflex, ook als journalist.
Investigate the source
Onderzoek wie de bron is. Als het bijvoorbeeld om een anonieme account op X gaat, gaat de alarmbel al af.
Find better coverage
Zoek andere/betere bronnen: een nieuwsfeit of een beeld wordt altijd hernomen in verschillende media. Betere bronnen zoeken levert soms ook scherpere beelden op, waardoor je beter naar de details kan kijken.
Trace claims, quotes and media to the original context
Waar staat de originele tekst, foto of video? Ga op zoek naar de vroegste versie. Vaak staat daar bij of het AI-gegenereerd is.
“Heel vaak komen we zo te weten of iets AI-gegenereerd is of niet”, besluit Emmery. Veel zaken zijn ook al eerder gecheckt. Het volstaat dan om in je zoekopdracht ‘factcheck’ op het einde toe te voegen.
Steve Van Herpe