Hoe veilig zijn Europese AI-systemen tegen cyberaanvallen?

05 mei 2025 • 15:55 door Basten de Baan
Hoe veilig zijn Europese AI-systemen tegen cyberaanvallen?
Beveiligde AI-chip met cybersecuritysymbool

Kunstmatige intelligentie wordt steeds vaker ingezet in sectoren waar veiligheid van groot belang is, zoals de zorg, energievoorziening, mobiliteit en de overheid. Tegelijkertijd neemt de dreiging van cyberaanvallen toe. Hoe kwetsbaar zijn Europese AI-systemen eigenlijk, en wat wordt er gedaan om deze systemen beter te beschermen?


Toenemende dreiging in een digitaal landschap

AI-systemen verwerken enorme hoeveelheden data en nemen zelfstandig beslissingen. Daardoor vormen ze een aantrekkelijk doelwit voor cybercriminelen, statelijke hackers en actiegroepen. In 2023 waarschuwde het Europees Agentschap voor Cyberveiligheid (ENISA) voor de opkomst van "adversarial attacks". Hierbij wordt AI misleid met gemanipuleerde input waardoor het foute beslissingen neemt.

Een voorbeeld hiervan is het bewust verstoren van verkeersherkenning bij zelfrijdende voertuigen. Kleine wijzigingen in een verkeersbord kunnen al voldoende zijn om een AI-systeem op het verkeerde been te zetten. Ook systemen die fraude detecteren in banken of sociale diensten kunnen door verkeerde input worden misleid.


Wat doet Europa aan bescherming van AI-systemen?

De Europese Unie erkent dat AI-systemen een nieuwe categorie kritieke infrastructuur vormen. In de AI Act en de NIS2-richtlijn worden aanvullende eisen gesteld aan cybersecurity, vooral voor hoog-risico toepassingen. Organisaties die AI gebruiken in gevoelige sectoren moeten aantonen dat hun systemen bestand zijn tegen aanvallen van buitenaf.

Daarnaast stimuleert Europa onderzoek naar AI die zelf cyberdreigingen kan herkennen. Onder andere het EU-project SPARTA en samenwerkingen met het Europees Defensieagentschap richten zich op het ontwikkelen van verdedigende AI-systemen die aanvallen automatisch kunnen opsporen en afweren.


Hoe zit het met de praktijk in Nederland?

Ook in Nederland groeit de aandacht voor de cyberveiligheid van AI. Het Nationaal Cyber Security Centrum (NCSC) werkt samen met bedrijven en kennisinstellingen aan richtlijnen voor veilige AI-toepassingen. Onderzoeksinstituten zoals TNO ontwikkelen methodes om AI robuuster te maken tegen misbruik, bijvoorbeeld door algoritmes te trainen met gesimuleerde aanvallen.

Toch blijkt in de praktijk dat veel AI-projecten in Nederland nog onvoldoende voorbereid zijn op cyberdreigingen. Vooral in de publieke sector, waar AI vaak wordt ingezet zonder volledig inzicht in de risico’s, is er werk aan de winkel.


Wat kun je zelf doen als organisatie?

Organisaties die AI inzetten doen er goed aan hun systemen vanaf het begin te ontwerpen met veiligheid in gedachten. Dat betekent onder andere:

  • Regelmatige tests op kwetsbaarheden

  • Beveiligde datasets gebruiken

  • Toegang tot gevoelige AI-processen beperken

Daarnaast is het belangrijk om medewerkers te trainen in de risico’s van AI en cybersecurity. Menselijke fouten blijven namelijk een van de grootste oorzaken van digitale incidenten.


AI en cyberveiligheid vragen om gezamenlijke aanpak

De kwetsbaarheid van AI voor cyberaanvallen is geen technisch probleem alleen. Het vraagt om samenwerking tussen ontwikkelaars, beleidsmakers, gebruikers en toezichthouders. Europa zet hierin belangrijke stappen, maar blijvende aandacht, kennisdeling en investeringen blijven noodzakelijk om AI-systemen toekomstbestendig te maken.



Meer over:
Cookies

Deze website gebruikt noodzakelijke cookies voor een correcte werking en analytische cookies (geanonimiseerd) om de statistieken van de website bij te houden. Marketing cookies zijn nodig voor laden van externe content, zoals YouTube-video's of widgets van Sociale Media. Zie ons cookiebeleid voor meer informatie, of om je instellingen later aan te passen.