AI IN HET INFORMATIEDOMEIN  (23 #2)      SIMON BEEN

Artikelenserie over
kunstmatige intelligentie (23 #2)

Jouw nieuwe rollen:
naar strateeg
van beheerder

 (23 #1)..|..(23 #2)

Simon Been
Trainer en klankbord voor AI in het informatiedomein en directeur van het Papieren Tijger Netwerk

Wat is de impact van AI op het informatiedomein? Deze 23ste aflevering van de artikelenreeks richt zich op kennismanagers, intranetredacteuren, functioneel beheerders, privacy- en gegevensbeschermingsfunctionarissen en security officers. Zij bouwen en bewaken het informatiekundig fundament waarop het werk van de organisatie rust, en precies dat fundament staat onder druk. Deel #1 gaat over wat er gebeurt en waarom, dit vervolg (deel #2) over wat jij eraan kunt doen.

Artikel 20 in deze serie schetste acht rollen die voor informatieprofessionals relevant zijn in het AI-tijdperk:
> Waarheidsbewaker: de grote validator
> Stroomregisseur: kennis in beweging houden
> Ontsluiter: zorger voor toegankelijkheid
> Toekomstbewaker: waarborger van verantwoording
> Voeder: leverancier van goede input en tuning
> Inrichtingsadviseur: strateeg van de informatiehuishouding
> Gids: begeleider en stimulator van vaardigheden
> Risicobeheerder: governancebewaker

VIER ROLLEN SPRINGEN ERUIT
Niet alle acht zijn even zwaar voor jouw context. Vier springen eruit, waarbij het niveau waarop je opereert van invloed is. De rol van Toekomstbewaker is hier ook relevant maar wordt stevig uitgewerkt in artikel 21. Bovendien speelt de rol van Risicobeheerder hier meer.

ROL

KERNVRAAG

BELANGRIJKSTE ACTIE

Stroomregisseur

Hoe blijft kennis circuleren?

AI-inzichten terugbrengen naar het collectief

Risicobeheerder

Welke AI-risico’s ontstaan?

Inventariseren en governance organiseren

Voeder

Welke informatie voedt AI?

Bronkwaliteit bewaken

Inrichtingsadviseur

Hoe worden AI-systemen ingericht?

Vroegtijdig betrokken zijn bij implementaties

De Stroomregisseur:
kennis in beweging houden

Aan de frontlinie gaat het om bereikbaarheid. Medewerkers gebruiken AI individueel en dat stopt niet. De vraag is hoe je ervoor zorgt dat bruikbare kennis die in individuele AI-sessies ontstaat, terugkomt naar het collectief. Niet door AI te verbieden, maar door de drempel voor kennisdeling te verlagen. Een gedeeld format voor het samenvatten van AI-sessies die tot een besluit leiden. Een vaste plek om werkende werkwijzen te delen. Kleine interventies met potentieel groot effect.

Op afdelingsniveau gaat het om structuur. Welke AI-tools worden gebruikt, en wat weten we als team over de betrouwbaarheid? Maandelijks een uur cases bespreken – wat werkte, wat faalde, wat hebben we geleerd – maakt impliciete kennis expliciet. Interessant genoeg kun je hierbij ook AI inzetten.

Op organisatieniveau gaat het om beleid. Wie bepaalt hoe AI-output zijn weg vindt naar de kennisbank, het intranet, de gedeelde documentomgeving? In de meeste organisaties is het antwoord: niemand. De Stroomregisseur vult dat gat door het vraagstuk te agenderen en kaders voor te stellen.

Het dilemma: kennisdeling is niet af te dwingen. Je kunt formats aanreiken, overleggen inplannen en structuren bouwen, maar als medewerkers hun AI-sessies niet willen delen, of er gewoon niet aan denken, gebeurt het niet. De Stroomregisseur is voor een steeds urgentere taak afhankelijk van vrijwillige medewerking.

De Risicobeheerder:
van technisch naar informatiekundig

Voor FG/DPO’s en security officers is dit de meest herkenbare rol, maar de invulling vraagt meer breedte dan gebruikelijk. Risicobeheer rond AI wordt in veel organisaties technisch ingevuld: welke tools zijn goedgekeurd, welke data mogen waarheen, welke certificeringen heeft de leverancier. Dat is nodig, maar niet voldoende. De informatiekundige laag ontbreekt regelmatig. Welke bronnen raadpleegt het systeem? Welke verwerkingen vinden impliciet plaats? Wat betekent het dat Copilot automatisch documenten selecteert waarvan de status niet is vastgelegd?

Aan de frontlinie betekent dat: risico’s zichtbaar maken in taal die medewerkers begrijpen. Niet de AVG-tekst voorlezen, maar laten zien wat er concreet misgaat als gevoelige informatie in een externe AI-tool belandt. Dat vraagt een andere communicatie dan de FG of security officer meestal gewend is.

Op afdelingsniveau gaat het om inventarisatie. Welke AI-verwerkingen vinden er al plaats? En dan bedoel ik ook de ongemelde. In overheidsorganisaties gelden daarvoor extra strikte kaders: de BIO, aanvullende DPIA-verplichtingen, en specifieke richtlijnen voor cloudgebruik. Dat maakt de inventarisatie complexer, maar ook urgenter.

Op organisatieniveau is het wettelijke mandaat de hefboom. De FG heeft een wettelijk verankerde onafhankelijkheid en directe toegang tot de hoogste leiding. Gebruik die positie proactief: als adviseur die tijdig aangeeft wat de risico’s zijn van implementaties die buiten het zicht van de governance plaatsvinden. Onder de in Nederland bijna geïmplementeerde Cybersecuritywet NIS2 geldt bovendien dat de directie aansprakelijk is bij beveiligingsincidenten. Dat kan leiden tot interessante gesprekken.

Het dilemma: het mandaat groeit terwijl de zichtbaarheid afneemt. De FG kan geen DPIA uitvoeren op een systeem dat buiten haar zicht is uitgerold. De security officer kan geen risico beheersen dat hij niet kent. De wet verplicht tot toezicht; de praktijk maakt dat toezicht steeds moeilijker uitvoerbaar.

De Voeder:
kwaliteit van input als strategische taak

De betrouwbaarheid van AI-systemen is sterk afhankelijk van de informatie waarop ze draaien. Dat heeft consequenties. Of ... zou die moeten hebben. Bij RAG-systemen en organisatie-eigen chatbots gaat het letterlijk om bepalen wat er ingaat: welke documenten worden toegelaten, op basis van welke criteria. Bij Copilot ligt dat anders – Microsoft Graph maakt zijn eigen selecties – maar ook daar is beïnvloeding mogelijk via metadata, sensitivity labels en de inrichting van SharePoint.

Aan de frontlinie gaat het om concrete kwaliteitsbeoordeling. Is dit document rijp om als bron voor een AI-systeem te dienen? Heeft het de juiste status, de juiste metadata, de juiste versieaanduiding? Vragen die kennismanagers en intranetredacteuren al stelden vóór het AI-tijdperk en nu strategisch kritisch worden.

Op afdelingsniveau gaat het om standaarden. Welke minimale eisen stel je aan documenten voordat ze als AI-bron mogen dienen? In overheidsorganisaties bestaan daarvoor doorgaans al kaders, gekoppeld aan de Archiefwet of de informatiehuishouding.

Op organisatieniveau gaat het om betrokkenheid vooraf. Niet achteraf constateren dat het RAG-systeem op onbetrouwbare data draait, maar aan het begin van elk AI-project aan tafel zitten en de vraag stellen: op welke bronnen gaat dit systeem draaien en wie bewaakt de kwaliteit daarvan?

Het dilemma: je brengt de kennisbank op orde, maar als het AI-systeem er ook concepten en verouderde documenten bij pakt die buiten jouw beheer vallen, is je werk deels voor niets. Wat is kwaliteitsbeheer zonder poortwachterfunctie?

De Inrichtingsadviseur:
meedenken voordat het te laat is

Dit is de rol die voor functioneel beheerders bijzonder relevant is. Zij beheren de systemen waar AI in wordt gebouwd, ook als ze daar niet bij betrokken zijn. Dat heeft een bekende oorzaak: AI verschijnt als feature in bestaande software, niet als formeel project. Bij reguliere systeemimplementaties is de functioneel beheerder er vroeg bij; bij AI-features die stilletjes worden toegevoegd niet.

Aan de frontlinie gaat het om snel begrijpen wat een nieuwe AI-feature doet, wat de configuratiemogelijkheden zijn en welke risico’s eraan kleven. Niet pas handelen als gebruikers problemen melden.

Op afdelingsniveau gaat het om een gezamenlijk beeld: welke AI-functionaliteit is actief in welke systemen? In veel organisaties weet niemand dat volledig. Dat overzicht is al winst.

Op organisatieniveau gaat het om positie claimen. De Inrichtingsadviseur hoort betrokken te zijn bij AI-implementaties, niet als controleur achteraf maar als medeontwerper vooraf. Dat vraagt om een actieve claim op die rol, en om de taal om dat te onderbouwen in termen die bestuur en ICT begrijpen.

Het dilemma: je moet betrokkenheid claimen bij implementaties waarvoor je niet wordt uitgenodigd. Dat vraagt om zichtbaar worden op het moment dat besluiten vallen, maar dat moment bestaat vaak niet formeel.

ACCENTEN PER FUNCTIE

Kennismanager en contentmanager. Jullie kerntaak is ervoor zorgen dat kennis beschikbaar komt waar die nodig is. AI individualiseert kenniswerk en fragmenteert wat jullie hebben opgebouwd. De centrale verschuiving: niet alleen borgen wat er al is, maar actief sturen dat AI-gebruik terugvloeit naar het collectief. In grotere organisaties speelt bovendien de vraag hoe kennismanagement zich verhoudt tot datastewards, informatiearchitecten en CDO’s die elk vanuit hun eigen logica met vergelijkbare vraagstukken bezig zijn.

Intranetredacteur. Jouw intranet wordt steeds vaker via AI geraadpleegd in plaats van direct bezocht. Dat klinkt als verlies van relevantie, maar het is omgekeerd: de kwaliteit van jouw content bepaalt mede de kwaliteit van de AI-antwoorden die medewerkers krijgen. Verouderde pagina’s, ontbrekende statusaanduidingen en slechte metadata worden extra problematisch. Jouw redactionele oordeel is relevanter dan ooit, maar het moment waarop je het uitoefent verschuift: niet alleen bij publicatie, maar ook bij het inrichten en bewaken van wat als AI-bron mag dienen.

Functioneel beheerder. Jij beheert de systemen waar AI in wordt gebouwd, maar wordt daarbij lang niet altijd betrokken, zeker niet als AI feature voor feature jouw systemen binnendruppelt. Dat is de kern van jouw uitdaging: actief zicht houden op welke AI-functionaliteit er in jouw systemen actief is, en positie claimen bij implementaties voordat ze plaatsvinden. Juist bij die druppel-AI.

Privacy- en gegevensbeschermingsfunctionaris (FG/DPO). Jouw mandaat groeit. De AVG was er al; de AI Act voegt daar nu expliciet AI-governance aan toe. Tegelijk neemt de uitvoerbaarheid van dat mandaat af naarmate meer AI-gebruik buiten jouw zicht plaatsvindt. Het wettelijke kader is jouw hefboom. Gebruik het proactief. In overheidsorganisaties gelden aanvullende kaders en specifieke richtlijnen. De beoordelingen (DPIA’s) die worden uitgevoerd over systemen als Copilot laten zien hoe snel het regelkader verandert. Het zij zo: bijblijven is onderdeel van de functie.

Data en information security officer. De Cyberbeveiligingswet (NIS2) verankert jouw positie met een zwaar mandaat. Maar datzelfde mandaat wordt moeilijker uitvoerbaar door onbeheerd AI-gebruik en datastromen buiten de organisatie. De verschuiving die nodig is: van technische beveiliging naar informatiekundige governance. Niet alleen welke tools zijn toegestaan, maar welke informatiestromen er feitelijk plaatsvinden, ook (of met name) de onzichtbare.

WAT NU CONCREET TE DOEN
De details hangen sterk af van de organisatie, de systemen en de positie. Wat hier volgt zijn wat suggesties.

Morgen: zichtbaar maken wat er al gebeurt
Begin met inventariseren: welke AI-tools zijn er actief – officieel en onofficieel – en welke verwerkingen vinden er al plaats zonder dat ze formeel zijn gemeld?

Voor kennismanager en intranetredacteur: beoordeel welke van jullie content door Copilot of een intern AI-systeem wordt gebruikt, en of die content de kwaliteit heeft die dat vraagt.

Voor de FG en security officer: stel vast welke AI-gerelateerde verwerkingen en beveiligingsrisico’s al bestaan. Niet om direct in te grijpen, maar om een betrouwbaar vertrekpunt te hebben. Zonder inventarisatie is elke governance een luchtkasteel.

De weerstand: niemand wacht op een inventarisatie die ongemakkelijke vragen oplevert. Zeker niet als de uitkomst is dat er al maanden AI-gebruik plaatsvindt dat niet is gemeld. Starten met een gesprek – ‘we willen begrijpen wat er speelt zodat we kunnen helpen’ – werkt waarschijnlijk beter dan met een formeel rapport.

Komende maand: afspraken maken binnen het team
Hoe gaat de afdeling zelf om met AI? In de meeste teams is dat onbesproken. Wie heeft welke tools uitgeprobeerd? Wat werkt, wat niet? En wanneer is gebruik laag-risico, wanneer hoog-risico?

Een maandelijks caseoverleg van een uur, waarbij iedereen één ervaring inbrengt, maakt impliciete kennis expliciet en voorkomt dat de afdeling opereert als verzameling individuen die toevallig hetzelfde werk doen. Spreek ook af wie welke vragen beantwoordt als collega’s uit de organisatie aankloppen over privacy, beveiliging, of wat er mag en wat niet. Want die vragen komen.

De weerstand: tijd. Iedereen heeft het druk en een maandelijks caseoverleg voelt al snel als overhead. Het helpt om het klein te houden – één uur, één case per persoon – en om de eerste keer zelf een goed voorbeeld in te brengen. Niet vragen om openheid, maar die openheid zelf als eerste tonen.

Komend kwartaal: positie claimen
Zorg dat je betrokken wordt bij AI-implementaties voordat ze plaatsvinden, bij voorkeur als meedenkend adviseur (al schuurt dat soms met de pet die je draagt). De ingang verschilt immers per cluster. Voor de FG en security officer is het wettelijke mandaat de hefboom: er bestaan verplichtingen rond DPIA’s en risicobeoordelingen, en die gelden ongeacht of jullie zijn uitgenodigd. Maak dat helder, constructief maar duidelijk. In overheidsorganisaties geldt dat des te meer, omdat de kaders strikter zijn en de aansprakelijkheid directer.

Voor kennismanagers, intranetredacteuren en functioneel beheerders ligt de hefboom op twee niveaus. Het praktische niveau: jullie beheren de systemen en kennisbronnen waarop AI draait. Zonder jullie betrokkenheid draaien die systemen op ongecontroleerde input. Eén concreet voorbeeld van fouten door slechte brondocumenten kan meer overtuigen dan tien rapporten.

Het strategische niveau is minstens zo belangrijk. Veel organisaties staan al onder druk om de informatiehuishouding te versterken via digitaliseringsagenda’s en audits. AI grijpt in op diezelfde punten. Jullie betrokkenheid is simpelweg de logische uitbreiding van verantwoordelijkheden die al bestaan. Maak die verbinding expliciet.

Zoek ook bondgenoten. De archivarissen uit artikel 21 worstelen met vergelijkbare vragen over verantwoording en bewaring. De informatiespecialisten uit artikel 22 zien dezelfde problemen met bronkwaliteit en verificatie. Samen sta je sterker dan als geïsoleerde afdeling die een beleidsprobleem probeert te agenderen.

De weerstand: de organisatie ziet dit waarschijnlijk als IT-vraagstuk en nodigt je niet uit. Ook hier geldt: één concreet voorbeeld van wat er misging doordat jullie expertise ontbrak overtuigt meer dan tig notities. Verzamel die voorbeelden. Maak de schade zichtbaar voordat je om een stoel aan tafel vraagt.

VAN BEHEERDER NAAR STRATEEG
Jouw werk is van nature onzichtbaar. Een goed werkende kennisbank valt niemand op. Een intranet dat klopt ook niet. Een FG die tijdig risico’s signaleert evenmin. Onzichtbaarheid is het lot van goede infrastructuur. Tot het misgaat. AI wordt ingevoerd op een manier waardoor jullie systemen, informatiestromen en risicobeoordeling buiten beeld blijven. Dat vraagt om een actieve positie: niet wachten tot je wordt gevraagd, maar zichtbaar worden door te laten zien wat er misgaat als jouw expertise ontbreekt.

De volgende aflevering richt zich op communicatieprofessionals en internetredacteuren – de mensen die externe informatiestromen bewaken. Samen met de doelgroepen van artikelen 21 en 22 vormen jullie de informatieprofessie.

Begin morgen met één vraag aan je leidinggevende: welke AI-implementaties lopen er op dit moment, en zijn wij daarbij betrokken? Het antwoord zegt alles.

De vorige 22 afleveringen in deze serie lezen? Je vindt ze in het archief op informatieprofessional.nl (trefwoord ‘AI informatiedomein’). <

‘Begin met inventariseren: welke AI-tools zijn er actief en welke verwerkingen vinden er al plaats zonder dat ze formeel zijn gemeld?’

‘Een maandelijks caseoverleg voorkomt dat de afdeling opereert als verzameling individuen die toevallig hetzelfde werk doen’

‘Eén concreet voorbeeld van fouten door slechte brondocumenten kan meer overtuigen dan tien rapporten’

‘Zonder betrokkenheid van kennismanagers, intranetredacteuren en functioneel beheerders draaien systemen op ongecontroleerde input’

‘Zorg dat je betrokken wordt bij AI-implementaties voordat ze plaatsvinden, bij voorkeur als meedenkend adviseur’

‘Zoek bondgenoten; archivarissen en informatiespecialisten uit de vorige artikelen worstelen met vergelijkbare problemen’

‘Wacht niet tot je wordt gevraagd, maar word zichtbaar door te laten zien wat er misgaat als jouw expertise ontbreekt’

IP | vakblad voor informatieprofessionals | 03 / 2026

 (23 #1)..|..(23 #2)

SIMON BEEN

AI IN HET INFORMATIEDOMEIN  (23 #2)      

Artikelenserie over
kunstmatige intelligentie (23 #2)

Jouw nieuwe rollen:
naar strateeg
van beheerder

Simon Been
Trainer en klankbord voor AI in het informatiedomein en directeur van het Papieren Tijger Netwerk

Wat is de impact van AI op het informatiedomein? Deze 23ste aflevering van de artikelenreeks richt zich op kennismanagers, intranetredacteuren, functioneel beheerders, privacy- en gegevensbeschermingsfunctionarissen en security officers. Zij bouwen en bewaken het informatiekundig fundament waarop het werk van de organisatie rust, en precies dat fundament staat onder druk. Deel #1 gaat over wat er gebeurt en waarom, dit vervolg (deel #2) over wat jij eraan kunt doen.

De Stroomregisseur:
kennis in beweging houden

Aan de frontlinie gaat het om bereikbaarheid. Medewerkers gebruiken AI individueel en dat stopt niet. De vraag is hoe je ervoor zorgt dat bruikbare kennis die in individuele AI-sessies ontstaat, terugkomt naar het collectief. Niet door AI te verbieden, maar door de drempel voor kennisdeling te verlagen. Een gedeeld format voor het samenvatten van AI-sessies die tot een besluit leiden. Een vaste plek om werkende werkwijzen te delen. Kleine interventies met potentieel groot effect.

Op afdelingsniveau gaat het om structuur. Welke AI-tools worden gebruikt, en wat weten we als team over de betrouwbaarheid? Maandelijks een uur cases bespreken – wat werkte, wat faalde, wat hebben we geleerd – maakt impliciete kennis expliciet. Interessant genoeg kun je hierbij ook AI inzetten.

Op organisatieniveau gaat het om beleid. Wie bepaalt hoe AI-output zijn weg vindt naar de kennisbank, het intranet, de gedeelde documentomgeving? In de meeste organisaties is het antwoord: niemand. De Stroomregisseur vult dat gat door het vraagstuk te agenderen en kaders voor te stellen.

Het dilemma: kennisdeling is niet af te dwingen. Je kunt formats aanreiken, overleggen inplannen en structuren bouwen, maar als medewerkers hun AI-sessies niet willen delen, of er gewoon niet aan denken, gebeurt het niet. De Stroomregisseur is voor een steeds urgentere taak afhankelijk van vrijwillige medewerking.

Artikel 20 in deze serie schetste acht rollen die voor informatieprofessionals relevant zijn in het AI-tijdperk:
> Waarheidsbewaker: de grote validator
> Stroomregisseur: kennis in beweging houden
> Ontsluiter: zorger voor toegankelijkheid
> Toekomstbewaker: waarborger van verantwoording
> Voeder: leverancier van goede input en tuning
> Inrichtingsadviseur: strateeg van de informatiehuishouding
> Gids: begeleider en stimulator van vaardigheden
> Risicobeheerder: governancebewaker

VIER ROLLEN SPRINGEN ERUIT
Niet alle acht zijn even zwaar voor jouw context. Vier springen eruit, waarbij het niveau waarop je opereert van invloed is. De rol van Toekomstbewaker is hier ook relevant maar wordt stevig uitgewerkt in artikel 21. Bovendien speelt de rol van Risicobeheerder hier meer.

ROL

KERNVRAAG

BELANGRIJKSTE ACTIE

Stroomregisseur

Hoe blijft kennis circuleren?

AI-inzichten terugbrengen naar het collectief

Risicobeheerder

Welke AI-risico’s ontstaan?

Inventariseren en governance organiseren

Voeder

Welke informatie voedt AI?

Bronkwaliteit bewaken

Inrichtingsadviseur

Hoe worden AI-systemen ingericht?

Vroegtijdig betrokken zijn bij implementaties

De Risicobeheerder:
van technisch naar informatiekundig

Voor FG/DPO’s en security officers is dit de meest herkenbare rol, maar de invulling vraagt meer breedte dan gebruikelijk. Risicobeheer rond AI wordt in veel organisaties technisch ingevuld: welke tools zijn goedgekeurd, welke data mogen waarheen, welke certificeringen heeft de leverancier. Dat is nodig, maar niet voldoende. De informatiekundige laag ontbreekt regelmatig. Welke bronnen raadpleegt het systeem? Welke verwerkingen vinden impliciet plaats? Wat betekent het dat Copilot automatisch documenten selecteert waarvan de status niet is vastgelegd?

Aan de frontlinie betekent dat: risico’s zichtbaar maken in taal die medewerkers begrijpen. Niet de AVG-tekst voorlezen, maar laten zien wat er concreet misgaat als gevoelige informatie in een externe AI-tool belandt. Dat vraagt een andere communicatie dan de FG of security officer meestal gewend is.

Op afdelingsniveau gaat het om inventarisatie. Welke AI-verwerkingen vinden er al plaats? En dan bedoel ik ook de ongemelde. In overheidsorganisaties gelden daarvoor extra strikte kaders: de BIO, aanvullende DPIA-verplichtingen, en specifieke richtlijnen voor cloudgebruik. Dat maakt de inventarisatie complexer, maar ook urgenter.

Op organisatieniveau is het wettelijke mandaat de hefboom. De FG heeft een wettelijk verankerde onafhankelijkheid en directe toegang tot de hoogste leiding. Gebruik die positie proactief: als adviseur die tijdig aangeeft wat de risico’s zijn van implementaties die buiten het zicht van de governance plaatsvinden. Onder de in Nederland bijna geïmplementeerde Cybersecuritywet NIS2 geldt bovendien dat de directie aansprakelijk is bij beveiligingsincidenten. Dat kan leiden tot interessante gesprekken.

Het dilemma: het mandaat groeit terwijl de zichtbaarheid afneemt. De FG kan geen DPIA uitvoeren op een systeem dat buiten haar zicht is uitgerold. De security officer kan geen risico beheersen dat hij niet kent. De wet verplicht tot toezicht; de praktijk maakt dat toezicht steeds moeilijker uitvoerbaar.

De Voeder:
kwaliteit van input als strategische taak

De betrouwbaarheid van AI-systemen is sterk afhankelijk van de informatie waarop ze draaien. Dat heeft consequenties. Of ... zou die moeten hebben. Bij RAG-systemen en organisatie-eigen chatbots gaat het letterlijk om bepalen wat er ingaat: welke documenten worden toegelaten, op basis van welke criteria. Bij Copilot ligt dat anders – Microsoft Graph maakt zijn eigen selecties – maar ook daar is beïnvloeding mogelijk via metadata, sensitivity labels en de inrichting van SharePoint.

Aan de frontlinie gaat het om concrete kwaliteitsbeoordeling. Is dit document rijp om als bron voor een AI-systeem te dienen? Heeft het de juiste status, de juiste metadata, de juiste versieaanduiding? Vragen die kennismanagers en intranetredacteuren al stelden vóór het AI-tijdperk en nu strategisch kritisch worden.

Op afdelingsniveau gaat het om standaarden. Welke minimale eisen stel je aan documenten voordat ze als AI-bron mogen dienen? In overheidsorganisaties bestaan daarvoor doorgaans al kaders, gekoppeld aan de Archiefwet of de informatiehuishouding.

Op organisatieniveau gaat het om betrokkenheid vooraf. Niet achteraf constateren dat het RAG-systeem op onbetrouwbare data draait, maar aan het begin van elk AI-project aan tafel zitten en de vraag stellen: op welke bronnen gaat dit systeem draaien en wie bewaakt de kwaliteit daarvan?

Het dilemma: je brengt de kennisbank op orde, maar als het AI-systeem er ook concepten en verouderde documenten bij pakt die buiten jouw beheer vallen, is je werk deels voor niets. Wat is kwaliteitsbeheer zonder poortwachterfunctie?

De Inrichtingsadviseur:
meedenken voordat het te laat is

Dit is de rol die voor functioneel beheerders bijzonder relevant is. Zij beheren de systemen waar AI in wordt gebouwd, ook als ze daar niet bij betrokken zijn. Dat heeft een bekende oorzaak: AI verschijnt als feature in bestaande software, niet als formeel project. Bij reguliere systeemimplementaties is de functioneel beheerder er vroeg bij; bij AI-features die stilletjes worden toegevoegd niet.

Aan de frontlinie gaat het om snel begrijpen wat een nieuwe AI-feature doet, wat de configuratiemogelijkheden zijn en welke risico’s eraan kleven. Niet pas handelen als gebruikers problemen melden.

Op afdelingsniveau gaat het om een gezamenlijk beeld: welke AI-functionaliteit is actief in welke systemen? In veel organisaties weet niemand dat volledig. Dat overzicht is al winst.

Op organisatieniveau gaat het om positie claimen. De Inrichtingsadviseur hoort betrokken te zijn bij AI-implementaties, niet als controleur achteraf maar als medeontwerper vooraf. Dat vraagt om een actieve claim op die rol, en om de taal om dat te onderbouwen in termen die bestuur en ICT begrijpen.

Het dilemma: je moet betrokkenheid claimen bij implementaties waarvoor je niet wordt uitgenodigd. Dat vraagt om zichtbaar worden op het moment dat besluiten vallen, maar dat moment bestaat vaak niet formeel.

ACCENTEN PER FUNCTIE

Kennismanager en contentmanager. Jullie kerntaak is ervoor zorgen dat kennis beschikbaar komt waar die nodig is. AI individualiseert kenniswerk en fragmenteert wat jullie hebben opgebouwd. De centrale verschuiving: niet alleen borgen wat er al is, maar actief sturen dat AI-gebruik terugvloeit naar het collectief. In grotere organisaties speelt bovendien de vraag hoe kennismanagement zich verhoudt tot datastewards, informatiearchitecten en CDO’s die elk vanuit hun eigen logica met vergelijkbare vraagstukken bezig zijn.

Intranetredacteur. Jouw intranet wordt steeds vaker via AI geraadpleegd in plaats van direct bezocht. Dat klinkt als verlies van relevantie, maar het is omgekeerd: de kwaliteit van jouw content bepaalt mede de kwaliteit van de AI-antwoorden die medewerkers krijgen. Verouderde pagina’s, ontbrekende statusaanduidingen en slechte metadata worden extra problematisch. Jouw redactionele oordeel is relevanter dan ooit, maar het moment waarop je het uitoefent verschuift: niet alleen bij publicatie, maar ook bij het inrichten en bewaken van wat als AI-bron mag dienen.

Functioneel beheerder. Jij beheert de systemen waar AI in wordt gebouwd, maar wordt daarbij lang niet altijd betrokken, zeker niet als AI feature voor feature jouw systemen binnendruppelt. Dat is de kern van jouw uitdaging: actief zicht houden op welke AI-functionaliteit er in jouw systemen actief is, en positie claimen bij implementaties voordat ze plaatsvinden. Juist bij die druppel-AI.

Privacy- en gegevensbeschermingsfunctionaris (FG/DPO). Jouw mandaat groeit. De AVG was er al; de AI Act voegt daar nu expliciet AI-governance aan toe. Tegelijk neemt de uitvoerbaarheid van dat mandaat af naarmate meer AI-gebruik buiten jouw zicht plaatsvindt. Het wettelijke kader is jouw hefboom. Gebruik het proactief. In overheidsorganisaties gelden aanvullende kaders en specifieke richtlijnen. De beoordelingen (DPIA’s) die worden uitgevoerd over systemen als Copilot laten zien hoe snel het regelkader verandert. Het zij zo: bijblijven is onderdeel van de functie.

Data en information security officer. De Cyberbeveiligingswet (NIS2) verankert jouw positie met een zwaar mandaat. Maar datzelfde mandaat wordt moeilijker uitvoerbaar door onbeheerd AI-gebruik en datastromen buiten de organisatie. De verschuiving die nodig is: van technische beveiliging naar informatiekundige governance. Niet alleen welke tools zijn toegestaan, maar welke informatiestromen er feitelijk plaatsvinden, ook (of met name) de onzichtbare.

WAT NU CONCREET TE DOEN
De details hangen sterk af van de organisatie, de systemen en de positie. Wat hier volgt zijn wat suggesties.

Morgen: zichtbaar maken wat er al gebeurt
Begin met inventariseren: welke AI-tools zijn er actief – officieel en onofficieel – en welke verwerkingen vinden er al plaats zonder dat ze formeel zijn gemeld?

Voor kennismanager en intranetredacteur: beoordeel welke van jullie content door Copilot of een intern AI-systeem wordt gebruikt, en of die content de kwaliteit heeft die dat vraagt.

Voor de FG en security officer: stel vast welke AI-gerelateerde verwerkingen en beveiligingsrisico’s al bestaan. Niet om direct in te grijpen, maar om een betrouwbaar vertrekpunt te hebben. Zonder inventarisatie is elke governance een luchtkasteel.

De weerstand: niemand wacht op een inventarisatie die ongemakkelijke vragen oplevert. Zeker niet als de uitkomst is dat er al maanden AI-gebruik plaatsvindt dat niet is gemeld. Starten met een gesprek – ‘we willen begrijpen wat er speelt zodat we kunnen helpen’ – werkt waarschijnlijk beter dan met een formeel rapport.

Komende maand: afspraken maken binnen het team
Hoe gaat de afdeling zelf om met AI? In de meeste teams is dat onbesproken. Wie heeft welke tools uitgeprobeerd? Wat werkt, wat niet? En wanneer is gebruik laag-risico, wanneer hoog-risico?

Een maandelijks caseoverleg van een uur, waarbij iedereen één ervaring inbrengt, maakt impliciete kennis expliciet en voorkomt dat de afdeling opereert als verzameling individuen die toevallig hetzelfde werk doen. Spreek ook af wie welke vragen beantwoordt als collega’s uit de organisatie aankloppen over privacy, beveiliging, of wat er mag en wat niet. Want die vragen komen.

De weerstand: tijd. Iedereen heeft het druk en een maandelijks caseoverleg voelt al snel als overhead. Het helpt om het klein te houden – één uur, één case per persoon – en om de eerste keer zelf een goed voorbeeld in te brengen. Niet vragen om openheid, maar die openheid zelf als eerste tonen.

Komend kwartaal: positie claimen
Zorg dat je betrokken wordt bij AI-implementaties voordat ze plaatsvinden, bij voorkeur als meedenkend adviseur (al schuurt dat soms met de pet die je draagt). De ingang verschilt immers per cluster. Voor de FG en security officer is het wettelijke mandaat de hefboom: er bestaan verplichtingen rond DPIA’s en risicobeoordelingen, en die gelden ongeacht of jullie zijn uitgenodigd. Maak dat helder, constructief maar duidelijk. In overheidsorganisaties geldt dat des te meer, omdat de kaders strikter zijn en de aansprakelijkheid directer.

Voor kennismanagers, intranetredacteuren en functioneel beheerders ligt de hefboom op twee niveaus. Het praktische niveau: jullie beheren de systemen en kennisbronnen waarop AI draait. Zonder jullie betrokkenheid draaien die systemen op ongecontroleerde input. Eén concreet voorbeeld van fouten door slechte brondocumenten kan meer overtuigen dan tien rapporten.

Het strategische niveau is minstens zo belangrijk. Veel organisaties staan al onder druk om de informatiehuishouding te versterken via digitaliseringsagenda’s en audits. AI grijpt in op diezelfde punten. Jullie betrokkenheid is simpelweg de logische uitbreiding van verantwoordelijkheden die al bestaan. Maak die verbinding expliciet.

Zoek ook bondgenoten. De archivarissen uit artikel 21 worstelen met vergelijkbare vragen over verantwoording en bewaring. De informatiespecialisten uit artikel 22 zien dezelfde problemen met bronkwaliteit en verificatie. Samen sta je sterker dan als geïsoleerde afdeling die een beleidsprobleem probeert te agenderen.

De weerstand: de organisatie ziet dit waarschijnlijk als IT-vraagstuk en nodigt je niet uit. Ook hier geldt: één concreet voorbeeld van wat er misging doordat jullie expertise ontbrak overtuigt meer dan tig notities. Verzamel die voorbeelden. Maak de schade zichtbaar voordat je om een stoel aan tafel vraagt.

VAN BEHEERDER NAAR STRATEEG
Jouw werk is van nature onzichtbaar. Een goed werkende kennisbank valt niemand op. Een intranet dat klopt ook niet. Een FG die tijdig risico’s signaleert evenmin. Onzichtbaarheid is het lot van goede infrastructuur. Tot het misgaat. AI wordt ingevoerd op een manier waardoor jullie systemen, informatiestromen en risicobeoordeling buiten beeld blijven. Dat vraagt om een actieve positie: niet wachten tot je wordt gevraagd, maar zichtbaar worden door te laten zien wat er misgaat als jouw expertise ontbreekt.

De volgende aflevering richt zich op communicatieprofessionals en internetredacteuren – de mensen die externe informatiestromen bewaken. Samen met de doelgroepen van artikelen 21 en 22 vormen jullie de informatieprofessie.

Begin morgen met één vraag aan je leidinggevende: welke AI-implementaties lopen er op dit moment, en zijn wij daarbij betrokken? Het antwoord zegt alles.

De vorige 22 afleveringen in deze serie lezen? Je vindt ze in het archief op informatieprofessional.nl (trefwoord ‘AI informatiedomein’). <

IP | vakblad voor informatieprofessionals | 03 / 2026