Recent publiceerde Computable een artikel over de grote afhankelijkheid van Amerikaanse cloud-infrastructuur voor gemeentelijke webapplicaties. Dit onderwerp is onderdeel van een veel bredere discussie die we ook in onze gesprekken met gemeenten over ROIBOT Anaconda steeds vaker tegenkomen: databescherming, AI-gebruik en de vraag wie uiteindelijk de controle heeft over gevoelige informatie.
In een tijd waarin gemeenten werken aan digitalisering, rechtmatigheidsverantwoording en datagedreven auditing, is de vraag "waar blijft onze data?" relevanter dan ooit.
Bij gesprekken met controllers, auditors en financieel specialisten bij gemeenten komt deze vraag met regelmaat terug. En dat is volkomen terecht. We leven in een tijd waarin data steeds waardevoller wordt, regelgeving strenger wordt (AVG, BIO, NIS2), en AI steeds meer wordt ingezet. Gemeenten hebben niet alleen het recht, maar ook de plicht om te weten: welke data wordt verwerkt, waar gaat het naartoe, en wie heeft er toegang toe?
Bij de ontwikkeling van ROIBOT Anaconda hebben we bewust keuzes gemaakt om gemeenten maximale controle en transparantie te bieden.
Het belangrijkste uitgangspunt: AI is altijd een keuze, nooit een verplichting. Bij ROIBOT werkt AI niet op de achtergrond zonder dat de gebruiker het weet. Elke keer dat een AI-functie beschikbaar is, moet de gebruiker bewust kiezen om deze in te zetten. Dit betekent dat geen data automatisch naar AI-services wordt gestuurd, de gebruiker altijd weet wanneer AI wordt gebruikt, en controle bij de professional blijft.
AI zit momenteel in drie specifieke modules van ROIBOT Anaconda:
1. Query-module - Natuurlijke taal naar SQL-vertaling
2. Factuurcontrole - AI-ondersteunde validatie van factuurvereisten
3. WKR-controle - AI-ondersteunde classificatie van WKR-transacties
Buiten deze modules wordt nog geen AI ingezet. Dit is een bewuste keuze: we gebruiken AI alleen daar waar het echte meerwaarde biedt en waar de risico's beheersbaar zijn.
Dit is misschien wel het belangrijkste punt: wat gebeurt er precies met je data wanneer je AI gebruikt?
Dit onderscheid is cruciaal. De AI krijgt context over de structuur van je data, maar niet de inhoud van die data.
De Query-module lost een concreet probleem op: veel controllers hebben geen SQL-kennis, maar willen wel specifieke data-analyses uitvoeren.
Je stelt je vraag in gewone Nederlandse taal: - "Toon alle facturen van leveranciers die in 2024 meer dan €50.000 hebben ontvangen" - "Geef een overzicht van alle memoriaalboekingen in Q4"
De Query-module begrijpt deze vraag, analyseert de structuur van je data, en schrijft automatisch de correcte SQL-query. Deze query wordt vervolgens op jouw eigen database uitgevoerd.
Waarom dit veilig is:
Alleen de structuur van je data wordt geanalyseerd, de query wordt uitgevoerd, alle gegenereerde queries worden gelogd en kunnen worden gecontroleerd, en je kunt de query altijd eerst inzien voordat je hem uitvoert.
De nadruk ligt op eenvoud, niet op techniek. Focus op resultaat, niet op complexiteit.
Bij ROIBOT kun je AI niet "aan" of "uit" zetten als algemene instelling. In plaats daarvan maak je per actie de keuze of je AI wilt gebruiken.
Praktisch voorbeeld: bij een spendanalyse kies je wel voor AI-ondersteuning (grote dataset, niet-gevoelig), maar bij controle van bijstandsuitkeringen werk je handmatig (gevoelige persoonsgegevens). Per situatie, per dataset, per controle: jij beslist.
Alle AI-ondersteunde analyses in ROIBOT worden volledig gelogd: wanneer werd AI gebruikt, door wie, welke vraag werd gesteld, welke query werd gegenereerd, en wat was het resultaat?
Deze logging is essentieel bij accountantscontrole, rechtmatigheidsverantwoording, fiscale controles en interne audit. Volledige traceerbaarheid is geen luxe, maar een vereiste.
AI biedt enorme kansen: efficiency (analyses die uren kostten zijn nu in minuten klaar), kwaliteit (consistente controlemethodieken), toegankelijkheid (complexe analyses zonder technische kennis) en schaalbaarheid.
Maar deze kansen mogen nooit ten koste gaan van databeveiliging, privacy, controle en transparantie.
Bij ROIBOT kiezen we bewust voor een voorzichtige, transparante aanpak. Liever stapje voor stapje met volledige controle, dan grote sprongen met verborgen risico's.
De discussie over AI, databescherming en cloud-afhankelijkheid is complex. Er zijn geen simpele antwoorden, maar wel belangrijke keuzes te maken.
Bij ROIBOT geloven we in transparantie over wat er met data gebeurt, controle bij de gebruiker, doelgericht gebruik van AI, en volledige documentatie voor verantwoording.
Maar vooral: we blijven in gesprek. Technologie ontwikkelt zich snel, regelgeving verandert, en de behoeften van gemeenten evolueren.
Neem contact op
Wil je meer weten over hoe ROIBOT omgaat met AI en databeveiliging? Of wil je in gesprek over jullie specifieke situatie en eisen?
📧 info@juyst.nl
🌐 www.roibot.cloud
👉 Volg onze linkedin pagina: https://lnkd.in/erraKrfx
Want transparantie begint met het gesprek.
Dennis Verhaert is co-founder van ROIBOT en heeft 20 jaar ervaring in data-analyse en controle bij gemeenten en (non-profit) organisaties.