AI-Mediajournaal Onderzoekt Menselijke en Machinale Redactionele Keuzes

AI-Mediajournaal Onderzoekt Menselijke en Machinale Redactionele Keuzes

2025-02-10 journalistiek

Amsterdam, maandag, 10 februari 2025.
Nele Goutier belicht in het AI-Mediajournaal van Villamedia de complexe rol van AI in journalistieke besluitvorming. In een wereld waar transparantie cruciaal is, blijkt het lastig om helder te communiceren over de impact van AI zonder public trust te verliezen. Goutier bespreekt de noodzaak van een hybride model waarin menselijke en machinale inputs helder onderscheiden worden. Katharina Schell biedt met haar onderzoek praktische aanbevelingen voor AI-transparantie aan, zoals het gebruik van gedetailleerdere verklaringen in plaats van vage labels als ‘deepfake.’ Ze onderscheidt applicaties zoals text-to-speech, met minimale AI-impact, van meer autonome systemen zoals conversational interfaces. Dit alles illustreert hoe journalistieke autonomie evolueert. Het artikel moedigt lezers aan om verder te denken over AI’s rol in de media en dient als brug naar een bredere discussie, ondersteund door Villamedia’s AI-substack.

De Transparantieparadox in AI-Journalistiek

Het transparant maken van AI-gebruik in de journalistiek blijkt een complex vraagstuk. Onderzoek van de universiteiten van Oxford en Minnesota wijst op een opmerkelijke paradox: hoe meer media transparant zijn over hun AI-gebruik, hoe minder geloofwaardig het publiek hen vindt [1]. Dit fenomeen stelt nieuwsorganisaties voor een uitdaging bij het implementeren van AI-technologieën in hun werkprocessen.

Een Nieuwe Benadering van AI-Transparantie

Katharina Schell van het Austria Press Agentur heeft tijdens haar fellowship bij het Reuters Institute een vernieuwend systeem ontwikkeld. In plaats van algemene labels als ‘gemanipuleerd’ of ‘deepfake’, stelt ze voor om specifiek te communiceren over de rol van AI in het journalistieke proces [1]. Deze aanpak baseert zich op twee kernvragen: wie neemt de redactionele beslissingen en wat is de impact op de redactionele autonomie? Dit systeem maakt het mogelijk om genuanceerder te communiceren over AI-toepassingen.

Praktische Toepassingen en Impact

De impact van AI verschilt sterk per toepassing. Bij text-to-speech technologie, waarbij AI een geschreven artikel voorleest, blijft de redactionele controle grotendeels bij mensen en is de impact op de redactionele autonomie beperkt [1]. Daarentegen hebben conversational interfaces, waar AI direct met gebruikers communiceert, een veel grotere impact op de redactionele autonomie omdat niet elk antwoord door mensen wordt gecontroleerd [1].

Bronnen


redactionele beslissingen hybride model