De wereld van regelgeving is notoir lastig, vooral op terreinen als gezondheidszorg en financiën, waar regels voortdurend evolueren. Deze complexiteit zorgt er vaak voor dat organisaties vertrouwen op gespecialiseerde advocatenkantoren voor het overwinnen van compliance-hindernissen. Tegenwoordig is de uitdaging exponentieel groter geworden door de snelle opkomst van kunstmatige intelligentie (AI). Regeringen over de hele wereld proberen te definiëren hoe deze krachtige technologie moet worden ontwikkeld en gebruikt, wat resulteert in een stortvloed aan nieuwe wet- en regelgeving waar bedrijven eenvoudigweg niet aan kunnen voldoen.
Deze golf is niet alleen maar lawaai; het betekent een fundamentele verandering in de manier waarop we AI binnen onze wettelijke kaders begrijpen. De Human Centered AI (HAI)-groep van Stanford University observeerde tussen 2022 en 2023 een bijna verdubbeling van het aantal AI-vermeldingen in wetgevingsprocedures, wat de toenemende mondiale focus op het reguleren van deze technologie benadrukt. Maar hoewel er talloze discussies en voorgestelde regelgeving bestaan, ontbreekt het de Verenigde Staten aan alomvattende federale wetgeving die specifiek de ontwikkeling of het gebruik van AI regelt.
In plaats daarvan stappen individuele staten in dit regelgevende vacuüm. In 2025 had bijna de helft van de Amerikaanse staten hun eigen AI-gerelateerde wetsvoorstellen ingediend, waardoor een lappendeken van vaak overlappende en soms tegenstrijdige regels ontstond. Deze gedecentraliseerde aanpak zorgt ervoor dat organisaties moeite hebben om het doolhof van vereisten te ontcijferen en volledige naleving te garanderen. In de gezondheidszorg is de situatie bijzonder acuut. Uit een Manatt-rapport bleek dat er sinds oktober 2023 meer dan 250 AI-gerelateerde wetsvoorstellen zijn geïntroduceerd in 47 staten, waarvan bijna tweederde wet is geworden. Deze overvloed aan staatsspecifieke regelgeving maakt het toch al uitdagende landschap nog ingewikkelder.
Geconfronteerd met deze ongekende complexiteit maken advocatenkantoren als DLA Piper gebruik van AI om cliënten te helpen navigeren op het verraderlijke terrein van compliance. In hun whitepaper ‘SAGE: A Systematic Approach to Data-Driven AI Governance’ schetst DLA Piper een nieuw raamwerk dat is ontworpen om de ‘overvloed’ aan AI-vereisten te temmen. SAGE combineert menselijke expertise met geavanceerde algoritmen om complexe wetgeving op te splitsen in haar fundamentele componenten, waarbij potentiële overlappingen en conflicten tussen regelgeving worden geïdentificeerd.
Naast deze analytische aanpak biedt DLA Piper nog een geavanceerde service: “proactive compliance as a service” (PCaaS). Dit platform maakt gebruik van machine learning en eigen kleine taalmodellen – getraind door domeinspecifieke advocaten – om klantgegevens, beleid en sectorspecifieke behoeften te analyseren. Door ongestructureerde informatie zoals documenten en communicatie te ontleden, signaleert PCaaS proactief potentiële compliancerisico’s die anders door de mazen van het net zouden kunnen glippen. Deze proactieve strategie is van onschatbare waarde, omdat reactieve onderzoeken vaak resulteren in hoge boetes en gerechtelijke schikkingen. In de gezondheidszorg, waar de privacy van patiënten van het grootste belang is, kan PCaaS datalekken helpen voorkomen en gevoelige gezondheidsinformatie beschermen voordat problemen escaleren.
“De echte waarde hier,” legt Dr. Danny Tobey, M.D., J.D., partner en hoofd van de AI & Data Analytics-praktijk van DLA Piper uit, “is om organisaties uit te rusten om effectief door dit nieuwe, complexe ecosysteem te navigeren.” Hij benadrukt dat PCaaS aanpasbaar blijft aan diverse risicodomeinen, terwijl SAGE zich richt op het bouwen van robuuste AI-governanceprogramma’s en het aanpakken van de uitdagingen die voortkomen uit inconsistente regelgeving.
Dit snelgroeiende veld trekt hevige concurrentie aan van spelers als Harvey, een door AI aangedreven juridische tool die is ontworpen om workflows en due diligence voor bestaande juridische teams te stroomlijnen. Traditionele accountantskantoren zoals BakerTilly begeven zich ook in de strijd en bieden naast hun risicoadviespraktijken ook gespecialiseerde AI-adviesdiensten aan. Zelfs grotere adviesbureaus zoals EY hebben speciale afdelingen die zich richten op het opbouwen van vertrouwen in AI en het helpen van organisaties om het potentieel ervan op verantwoorde wijze te ontsluiten.
Ondanks dit groeiende ecosysteem van oplossingen evolueert het regelgevingslandschap rond AI in een verbazingwekkend tempo. Er staat veel op het spel: uit een recent onderzoek van het HIPAA Journal is gebleken dat er de afgelopen tien jaar sprake is van een zorgwekkende opwaartse trend in datalekken binnen de gezondheidszorg. Tegelijkertijd zijn de ransomware-aanvallen in de gezondheidszorg alleen al in 2025 met 30% gestegen, wat de kwetsbaarheid van deze systemen voor cyberdreigingen onderstreept.
Investeren in robuuste AI-compliancestrategieën is van cruciaal belang voor organisaties in alle sectoren. Door ervoor te zorgen dat interne processen waterdicht zijn, kunnen bedrijven zichzelf niet alleen beschermen tegen wettelijke boetes, maar ook gevoelige gegevens beschermen en uiteindelijk een hoger niveau van service en beveiliging bieden aan hun klanten en patiënten. De toekomst hangt af van het vinden van de juiste balans tussen innovatie en verantwoord bestuur in dit snel veranderende technologische landschap.




















