Nieuwe Google-richtlijnen voor AI-beoordeling roepen vragen op

Nieuwe Google-richtlijnen voor AI-beoordeling roepen vragen op

2024-12-19 journalistiek

Amsterdam, donderdag, 19 december 2024.
Google heeft richtlijnen ingevoerd die contractanten verplichten om AI-antwoorden te evalueren op gebieden buiten hun expertise, wat zorgen oproept over de nauwkeurigheid van AI in gevoelige sectoren zoals de gezondheidszorg. Het dwingt werknemers van GlobalLogic, een outsourcingbedrijf, om AI-gegenereerde antwoorden te beoordelen, zelfs als ze niet over de nodige vakkennis beschikken. Deze wijziging, die hen beperkt in het overslaan van gespecialiseerde onderwerpen, roept vragen op over de betrouwbaarheid van AI-systemen, vooral wanneer het gaat om complexe kwesties zoals zeldzame ziekten. Dit kan leiden tot onnauwkeurige AI-uitkomsten die een impact hebben op kritieke besluitvorming. De situatie benadrukt de noodzaak van deskundige betrokkenheid bij het evalueren van AI-systemen, om de kwaliteit en betrouwbaarheid van AI-gedreven beslissingen te waarborgen.

Ingrijpende wijziging in beoordelingsproces

Volgens de nieuwe richtlijnen van Google, die vorige week werden geïmplementeerd via GlobalLogic (een dochterbedrijf van Hitachi), mogen contractanten niet langer prompts overslaan die buiten hun expertise vallen [1]. Dit is een drastische verandering van het eerdere beleid waarbij medewerkers technische vragen konden doorverwijzen als ze niet over de benodigde expertise beschikten [1]. De nieuwe richtlijnen stellen dat medewerkers nu moeten ‘beoordelen wat ze begrijpen’ en daarbij een notitie moeten maken over hun gebrek aan domeinkennis [1].

Zorgen over kwaliteitscontrole Gemini

Deze ontwikkeling komt op een kritiek moment, aangezien Google recent Gemini 2.0 heeft gelanceerd als hun meest geavanceerde AI-model tot nu toe [2]. Het model is ontworpen voor verschillende toepassingen, waaronder beeldgeneratie en tekst-naar-spraak functionaliteiten [2]. De timing van deze beleidswijziging, samen met Google’s recente update van hun AI-gebruiksbeleid op 17 december 2024 [3], roept vragen op over hoe het bedrijf de balans probeert te vinden tussen snelle ontwikkeling en zorgvuldige kwaliteitscontrole.

Impact op betrouwbaarheid en veiligheid

Google’s missie om ‘de informatie van de wereld te organiseren en deze universeel toegankelijk en nuttig te maken’ [4] staat mogelijk op gespannen voet met deze nieuwe aanpak. Experts uiten hun bezorgdheid over de mogelijke gevolgen, vooral omdat Google’s eigen AI-gebruiksbeleid expliciet waarschuwt tegen het maken van geautomatiseerde beslissingen die een materiële nadelige impact hebben op individuele rechten in risicovolle domeinen zoals gezondheidszorg zonder menselijk toezicht [3]. Een contractor merkte treffend op: ‘Ik dacht dat het punt van overslaan was om de nauwkeurigheid te verhogen door het aan iemand te geven die er beter in is?’ [1]

Bronnen


AI-beoordeling Google-richtlijnen