Wanneer wordt AI te slim om nog neutraal te zijn?

30 april 2025 • 14:14 door Basten de Baan
Wanneer wordt AI te slim om nog neutraal te zijn?

Over invloed, keuzes en het ongemak van onzichtbare sturing

Kunstmatige intelligentie kan steeds meer, begrijpt steeds beter wat we bedoelen en reageert steeds overtuigender. Maar naarmate AI slimmer wordt, wordt ook één vraag steeds urgenter: is die slimheid nog neutraal? Of nemen we straks besluiten die ongemerkt al voor ons genomen zijn?

De kracht van AI ligt in zijn vermogen om te leren van data. Hoe meer data, hoe beter het model patronen herkent, verbanden legt en suggesties doet. Dat is handig in een webshop die weet welk product je wilt. Of in een teksttool die je zin afmaakt. Maar op welk punt verandert suggestie in sturing?

Die grens is niet altijd scherp. En precies dat maakt het ethisch spannend.


Slim, maar met een voorkeur

Elke AI is gebouwd met keuzes. Welke data gebruik je, wat is de trainingsset, welke uitkomst wordt als ‘goed’ gezien? Ook al oogt een systeem objectief, het is het resultaat van menselijke aannames.

Een algoritme dat sollicitanten selecteert op basis van eerdere aanstellingen, kan bestaande vooroordelen herhalen. Een model dat nieuws filtert op basis van je voorkeuren, kan je wereldbeeld ongemerkt vernauwen.

AI neemt geen beslissingen in een vacuüm. Het leert van het verleden. En als dat verleden onevenwichtig is, wordt dat ongemerkt de norm.


De illusie van objectiviteit

Veel gebruikers gaan ervan uit dat AI-systemen neutraal zijn. Machines hebben immers geen mening, toch? Maar AI is niet waardevrij. Het is ontworpen door mensen, getraind op menselijke data en gestuurd door commerciële of maatschappelijke doelen.

Wie bepaalt wat ‘juist’ is in een medisch AI-model? Wie kiest welke risico’s zwaarder wegen bij een kredietbeslissing? En wat gebeurt er als een taalmodel systematisch sommige perspectieven vaker aanbiedt dan andere?

Neutraliteit bestaat niet vanzelf. Het moet actief bewaakt worden.


De grens van beïnvloeding

Naarmate AI slimmer wordt in het voorspellen van ons gedrag, ontstaat ook de kans om dat gedrag te sturen. Denk aan aanbevelingen die niet alleen aansluiten bij je voorkeur, maar ook je keuzeruimte beperken. Of systemen die jouw beslissingen ‘voorselecteren’, zodat je automatisch de richting op beweegt die het systeem wenselijk vindt.

Dat is niet per se kwaadaardig, maar wel invloedrijk. En het roept een fundamentele vraag op: hoeveel autonomie houden we nog over in een omgeving die steeds beter weet wat we gaan doen?


Waarom dit nú relevant is

De ontwikkeling van AI gaat snel. En terwijl wetgeving en toezicht nog worden opgebouwd, groeit de invloed van algoritmes op werk, zorg, veiligheid en communicatie. Dat vraagt om meer dan technische optimalisatie. Het vraagt om publieke discussie.

Niet alleen in boardrooms of onderzoekscentra, maar ook in teams, redacties, klaslokalen en gemeenteraden. Want het antwoord op de vraag wanneer AI te slim wordt om neutraal te blijven, is niet technisch, maar maatschappelijk.

Meer over:
Cookies

Deze website gebruikt noodzakelijke cookies voor een correcte werking en analytische cookies (geanonimiseerd) om de statistieken van de website bij te houden. Marketing cookies zijn nodig voor laden van externe content, zoals YouTube-video's of widgets van Sociale Media. Zie ons cookiebeleid voor meer informatie, of om je instellingen later aan te passen.