Kunnen we AI nog stoppen? Internationale discussies over veiligheid en controle

05 mei 2025 • 09:30 door Basten de Baan
Kunnen we AI nog stoppen? Internationale discussies over veiligheid en controle
Discussie over controle en veiligheid van AI-technologie

Steeds meer mensen gebruiken AI dagelijks, vaak zonder dat ze het weten. AI bepaalt welke berichten je ziet op Instagram, geeft suggesties voor series op Netflix en ondersteunt zelfs medische beslissingen. Hoewel dit voordelen biedt, groeit wereldwijd ook de discussie over de controle en veiligheid van kunstmatige intelligentie. Kunnen we de opmars van AI nog wel sturen, of is het inmiddels te laat?


Hoe machtig is AI al?

Er zijn inmiddels algoritmes ontwikkeld die zelfstandig teksten schrijven, afbeeldingen creëren en autonoom beslissingen nemen. Bedrijven als Google, Microsoft en OpenAI investeren miljarden om AI-modellen verder te trainen en in te zetten. Daardoor krijgen deze bedrijven steeds meer macht, vaak zonder duidelijke regulering.

Voorbeelden zoals ChatGPT laten zien hoe snel AI zich ontwikkelt. Binnen enkele maanden gebruikte een groot deel van de wereld deze technologie dagelijks. Maar niemand weet precies hoe deze systemen precies tot hun antwoorden komen. Dit gebrek aan transparantie roept vragen op over verantwoordelijkheid en veiligheid.


De race om controle

Internationaal zien we een soort wapenwedloop ontstaan rond AI. De Verenigde Staten en China concurreren intensief om wie de meest geavanceerde systemen kan ontwikkelen. Beide landen zien AI als een sleuteltechnologie om economische en politieke macht te vergroten.

De Europese Unie probeert deze strijd niet alleen vanaf de zijlijn te bekijken. Met de Europese AI Act wil Europa als eerste duidelijke regels stellen aan AI-gebruik. De vraag is echter of deze regelgeving krachtig genoeg zal zijn om grote spelers zoals de VS en China te beïnvloeden. Europa loopt namelijk achter in ontwikkeling en bezit van grootschalige AI-infrastructuur.


Wanneer wordt AI gevaarlijk?

De grootste angst rondom AI is niet direct dat het zelfstandig de wereld overneemt, maar eerder dat we de controle verliezen over wat het precies doet. Grote taalmodellen genereren soms onverwachte of schadelijke inhoud. Er bestaat ook het risico dat systemen onbedoelde gevolgen veroorzaken die zelfs de makers niet kunnen voorspellen.

Experts, waaronder Elon Musk en de Nederlandse onderzoeker Max Welling (Universiteit van Amsterdam), waarschuwden al meerdere keren voor deze gevaren. Ze pleiten voor een pauze of vertraging in de ontwikkeling, om eerst betere controlemechanismen en ethische richtlijnen te ontwikkelen.

Daarnaast is er een groot risico op misbruik van AI-technologie door criminele organisaties of statelijke actoren. Denk hierbij aan nepnieuws via overtuigende deepfakes, geautomatiseerde cyberaanvallen of zelfs autonome wapensystemen. Deze ontwikkelingen zorgen wereldwijd voor steeds meer bezorgdheid.


Controle of innovatie beperken?

Tegelijkertijd is het niet eenvoudig om AI te reguleren zonder de innovatie te remmen. Hoe maak je regels die krachtig genoeg zijn om veiligheid te garanderen, zonder dat je bedrijven en onderzoekers beperkt in hun vrijheid en creativiteit?

Juist hier loopt de discussie vaak vast. Sommige deskundigen pleiten voor strenge internationale verdragen en regelgeving, vergelijkbaar met nucleaire wapenbeheersing. Andere deskundigen benadrukken dat te veel regulering innovatie vertraagt en juist ervoor kan zorgen dat AI zich in minder gereguleerde gebieden verder ontwikkelt, buiten toezicht.


Nederlandse context: geen afwachtende houding

Ook Nederland neemt deel aan de internationale discussie over AI-controle. In Den Haag is het Rathenau Instituut actief betrokken bij onderzoeken en adviezen over de gevolgen van AI voor samenleving en politiek. Hun onderzoek wijst uit dat Nederland nog steeds te afwachtend is en dringend behoefte heeft aan duidelijkere kaders en investeringen om een serieuze speler te worden in deze internationale discussie.


Wie bepaalt straks de regels?

Uiteindelijk draait de discussie niet alleen om de vraag of we AI kunnen stoppen, maar vooral wie de macht krijgt om te bepalen hoe we ermee omgaan. Als we niet actief meedoen aan die discussie, bepalen grote techbedrijven of sterke landen straks de spelregels, en niet burgers, overheden of onafhankelijke organisaties.

Het is daarom essentieel dat ook landen zoals Nederland zich duidelijker uitspreken, investeren in AI-onderzoek en actief deelnemen aan internationale onderhandelingen. Alleen dan blijft er enige controle mogelijk.


De keuze is aan ons

AI volledig stoppen is waarschijnlijk geen optie meer. De ontwikkeling is te ver gevorderd en biedt te veel kansen. Maar of we AI ook veilig en verantwoord kunnen inzetten, hangt sterk af van de keuzes die we vandaag maken. Meer internationale samenwerking, transparantie en duidelijke regels zijn noodzakelijk om ervoor te zorgen dat AI ons niet ontglipt, maar juist bijdraagt aan een betere toekomst.


Meer over:
Cookies

Deze website gebruikt noodzakelijke cookies voor een correcte werking en analytische cookies (geanonimiseerd) om de statistieken van de website bij te houden. Marketing cookies zijn nodig voor laden van externe content, zoals YouTube-video's of widgets van Sociale Media. Zie ons cookiebeleid voor meer informatie, of om je instellingen later aan te passen.