AI Governance


“Verantwoordelijkheid dragen begint met beleid .”

Kerncijfers AI Governance:

%
%

Bron: MIT, The GenAI Divide (2025)

Verantwoord omgaan met AI-toepassingen

We denken graag mee over beleid, toetsingskaders en uw governance. Bouw verantwoord aan innovatie.

ai, robot, artificial intelligence, computer science, digital, future, chatgpt, technology, cybot, ai generated, artificial intelligence, artificial intelligence, artificial intelligence, artificial intelligence, artificial intelligence

Risicoclassificatie volgens de AI Act

Wij helpen u classificeren of uw AI-toepassing valt onder verboden, hoog-risico, generatieve AI en of transparantieplicht aan de orde is.

FRIA & fundamentele rechten

Organisaties die publieke diensten leveren, kredietbeoordeling of AI bij vergelijkbare toepassingen inzetten, is een FRIA (Fundamental Right Impact Assessment) verplicht.

Afstemming van uw governance (AI Act)

astlegging van rollen, besluitvorming, monitoring en review, afgestemd op de wettelijke verplichtingen. Geen organisatiebrede herstructurering.

Interne compliance review

Wij toetsen AI-toepassingen op naleving van wetgeving en interne afspraken. Daarbij bereiden we organisaties voor op toezicht en audits.

Risico bij niet-naleving AI Act: tot €35 mln boete

De EU AI Act kent sancties tot 7% van uw wereldwijde omzet. Niet-naleving raakt direct uw bestuurlijke en financiële continuïteit.

mln
Of tot 1% van uw wereldwijde omzet in geval van misleiding richting relevante autoriteiten.
mln
Of tot 3% van uw wereldwijde omzet bij overtredingen in geval van hoog-risico AI.
mln
Of tot 7% van uw wereldwijde omzet bij inzet van verboden AI-praktijken, zoals social scoring.

bron: EU AI Act, Artikel 99

Plan een vrijblijvend gesprek


Scroll naar boven