Overslaan en naar de inhoud gaan

AI op redacties: van analfabetisme tot blinde vlekken

Tijdens de workshop ‘Hoe regelen we AI op redacties?’ kwam Hannes Cools, onderzoeker aan de universiteit van Amsterdam, uitleggen welke impact AI heeft op je dagelijkse werk en hoe je het implementeert op de redactie. Voor de duidelijkheid: dit artikel is niet gemaakt met AI.

Steve Van Herpe 

In Everything, everywhere, all at once, een film uit 2022, runt het hoofdpersonage Evelyn een wasserette ergens in de Verenigde Staten. Ze leidt een rustig leven met de gebruikelijke problemen. Maar tijdens een belastingcontrole wordt Evelyn plotseling in een multiversum gekatapulteerd en leert ze dat ze zich kan aanpassen en de vermogens van verschillende universa aan elkaar kan koppelen. 

Dat is een beetje het gevoel van de redacteur die het AI-universum betreedt, aldus Hannes Cools. De Belgische communicatiewetenschapper en onderzoeker aan de universiteit van Amsterdam doctoreerde op het onderwerp ‘AI in de journalistiek’ en was ook een tijdje journalist bij De Morgen

In hoeverre AI op redacties gebruikt wordt, is heel moeilijk in kaart te brengen, zegt hij. Dat er ook enorm veel AI-tools op de markt zijn, helpt daarbij niet. Veel redacties worstelen met het gebruik van AI en met de richtlijnen daaromtrent.

Creëren van content

“Wie van jullie kent een journalist die graag de transcriptie doet van een interview?” Het blijft stil in de zaal, hier en daar komt een glimlach op de lippen. Transcriptie is maar een van de automatiseringsprocessen waarbij AI ten dienste kan staan van de redactie, aldus Hannes Cools. 

AI kan nog op twee andere manieren een impact hebben op het werk van journalisten. Het is een hulp bij het optimaliseren van teksten: samenvattingen maken, dossiers analyseren … Een tool als Smartocto bijvoorbeeld helpt je om data te optimaliseren zodat je er makkelijker een analyse op kan doen. 

Bovendien kan AI ook een rol spelen bij de transformatie van teksten om ze geschikter te maken voor een bepaald doelpubliek. Zo experimenteert de BBC met AI om teksten en beelden aantrekkelijker te maken voor jongeren. Het taalgebruik in podcasts wordt met AI ook eenvoudiger gemaakt om de toegankelijkheid te verhogen.

Onlangs voerde de universiteit van Amsterdam een survey uit in samenwerking met Associated Press in New York over het gebruik van AI op redacties. Daaraan namen driehonderd respondenten deel vanuit de hele wereld. Een frappant resultaat uit die enquête is dat bijna 70% van de respondenten AI gebruikt voor het creëren van content. “Dat is toch nog vrij veel”, vindt Hannes Cools. 21,5% maakt gebruik van AI om informatie te verzamelen en 20,4% voor het aanmaken van multimedia-content. Verder komen ook onder meer vertalen (8,8%) en transcriptie (7,2%) naar voren. Opvallend is ook dat AI nog steeds vrij weinig toegepast wordt voor het automatisch genereren van tags op artikels (0,6%).

Drie uitdagingen

Met de intrede van AI gaan uitdagingen gepaard: 

(1) AI-analfabetisme: mensen hebben nog steeds niet goed door wat AI kan en niet kan. “Dat zorgt voor misverstanden”, aldus Cools. “Mensen denken al snel dat er door AI veel jobs gaan sneuvelen, maar het zijn vooral de processen die gaan veranderen.” 

(2) authenticiteit: wat is echt en wat niet? “De media kunnen een belangrijke rol spelen in het aantonen van wat echte content is, maar dat wordt steeds moeilijker omdat je in een handomdraai beelden en teksten kan genereren met AI.” 

(3) content paradox: het concurreren met een oneindigheid aan content. “Het is niet omdat je teksten kan genereren dat dat een meerwaarde heeft”, zegt Cools. “Want de logica is niet: hoe meer artikels je produceert, hoe meer lezers je aantrekt. Het gaat om het aanleveren van de juiste informatie.” 

Het dubbelzinnige artikel 52

Meer dan achthonderd pagina’s. Dat is de AI Act van de EU, het allereerste uitgebreide juridische kader voor AI wereldwijd. Het doel van die wetgeving is om ervoor te zorgen dat Europeanen de AI die ze gebruiken ook kunnen vertrouwen. De AI Act deelt het gebruik in op basis van het risico dat ermee gepaard gaat. De media vallen onder ‘limited risk’ en moeten bijgevolg voldoen aan artikel 52.

Dat artikel is ietwat dubbelzinnig. Het stelt dat het verplicht is om te melden dat beeld-, audio- of video-inhoud kunstmatig gegenereerd of gemanipuleerd is, behalve wanneer die inhoud vooraf een menselijk beoordelingsproces heeft ondergaan en dus valt onder de redactionele verantwoordelijkheid. 

Met andere woorden: zolang er ergens een mens in het proces betrokken is, ben je niet verplicht om transparant te zijn over het gebruik van AI. Op die manier komt de nadruk te liggen op zelfregulering. De BBC, bijvoorbeeld, lijst op welke AI-tools er bij een artikel gebruikt zijn. De Britse openbare omroep maakt daarbij het onderscheid tussen direct disclosure (rechtstreeks onder bv. een foto) en indirect disclosure (een soort algemeen statement op de website).

Maar aangezien het geen verplichting is, doen niet alle media dat. Nochtans blijkt uit onderzoek dat 60,3% van de lezers zich gemanipuleerd voelen als ze niet geïnformeerd worden over de inbreng van AI in een artikel. 

Privacy & co

Onderzoek leert dat vooral redacties in Europa, de Verenigde Staten en Canada gebruikmaken van richtlijnen rond AI. Een vaak terugkerend principe is dat van de ‘human in the loop’. Bij het Algemeen Nederlands Persbureau (ANP) houden ze in het schrijfproces bijvoorbeeld vast aan de lijn mens-machine-mens, waarbij denken en beslissen begint en eindigt bij mensen. 

Wat veel redacties ook doen is eerst een experimentele fase inbouwen. Zo hebben ze bij de NOS heel veel AI-tools uitgetest alvorens te beslissen welke ze gaan gebruiken en daar richtlijnen rond te maken. Aangezien AI constant evolueert, zijn die richtlijnen levende materie en moeten ze regelmatig herbekeken worden.

Qua transparantie naar de lezer zijn er wel wat verschillen. Sommige media communiceren nauwelijks rond het gebruik van AI, andere zijn daar heel duidelijk over. Cools en co legden de richtlijnen van 21 redacties onder de loep en stelden vast dat er nog een aantal blinde vlekken zijn. Zo kwam slechts in drie van de onderzochte richtlijnen naar voren dat AI bias kan bevatten. 

Ook privacy komt weinig aan bod. Nochtans kunnen teksten die je in ChatGPT kopieert ook door andere mensen geraadpleegd worden. Zo wordt vertrouwelijke informatie (bv. interne nota’s) vaak in ChatGPT gezet zonder dat men beseft dat die teksten daarna ook door derden gelezen kunnen worden. Ontbreekt ook vaak in richtlijnen: de vraag om feedback van de lezers. Vermeld dus waar lezers terecht kunnen als ze een vraag hebben over het gebruik AI in artikels. 

Voorbeelden en analyses van richtlijnen vind je makkelijk online, net als procurement checklists van waar je op moet letten als je AI-tools aankoopt. Op onze site journalist.be vind je onder het luik van de VVJ Academy ook een leidraad voor het gebruik van AI op redacties.

Onze partners