De Invloed van AI op Internet Betrouwbaarheid: Een Verkennende Blik

De Invloed van AI op Internet Betrouwbaarheid: Een Verkennende Blik

2025-05-02 nepnieuws

Rotterdam, vrijdag, 2 mei 2025.
De toenemende hoeveelheid AI-gegenereerde content online leidt tot zorgwekkende vervuiling van het internet, waarschuwen experts. Recent ontstond er ophef op Reddit toen onderzoekers van de Universiteit van Zürich AI-gegenereerde berichten zonder medeweten van gebruikers deelden, wat illegaal is onder de Europese Digital Services Act. Deze ongebreidelde groei van AI-inhoud maakt het steeds lastiger om feitelijk correcte informatie te onderscheiden van onjuiste of misleidende content. Volgens Claes de Vreese, professor aan de Universiteit van Amsterdam, zou deze informatievervuiling minder problematisch zijn als AI-inhoud consistent accuraat was. Echter, voorbeelden zoals Google-zoekopdrachten tonen aan dat AI vaak onnauwkeurige oplossingen biedt, met potentieel schadelijke gevolgen voor gebruikers. Bovendien kan deze trend hoogwaardig menselijke content naar de achtergrond dringen, wat de noodzaak voor bewuste regulering en educatie omtrent AI-gebruik in de digitale wereld onderstreept.

De Exponentiële Groei van AI-Content

De situatie wordt steeds zorgwekkender met de opkomst van geautomatiseerde content-generatie op ongekende schaal. Een recent voorbeeld hiervan is de ontwikkeling waarbij één AI-agent 1.200 video’s per maand kan produceren, wat bij duizend agents kan oplopen tot 1,2 miljoen video’s [2]. Frank Falcone, President bij Guru Studio, waarschuwt dat deze ‘micro-plastic content’ het internet vergiftigt: ‘Dit is als een kanker die zich exponentieel verspreidt en het internet permanent zal beschadigen.’ [2]

De Recursieve Vervuiling

Een bijzonder zorgwekkend aspect is wat experts het ‘recursie-effect’ noemen. Mark Deuze legt uit dat AI-systemen worden getraind op content die ze zelf hebben geproduceerd, wat leidt tot een neerwaartse spiraal in kwaliteit [1]. Dit probleem wordt verergerd door de manier waarop grote technologiebedrijven zoals Google AI-gegenereerde samenvattingen implementeren, die vervolgens weer als bronmateriaal dienen voor nieuwe AI-modellen [1].

Technologische Tegenmaatregelen

In reactie op deze uitdagingen ontwikkelen bedrijven als Flower AI en Vana nieuwe benaderingen voor AI-ontwikkeling. Hun gedistribueerde trainingsmethode, gebruikt in het Collective-1 model met 7 miljard parameters, zou kunnen helpen bij het democratiseren van AI-ontwikkeling [4]. Nic Lane, medeoprichter van Flower AI, werkt aan een nog geavanceerder model met 100 miljard parameters dat later dit jaar wordt verwacht [4].

Bronnen


AI-content informatieoverbelasting