AI IN HET INFORMATIEDOMEIN (21 #1) SIMON BEEN
Artikelenserie over kunstmatige intelligentie (21 #1)
(21 #1)..|..(21 #2)
Simon Been
Trainer en klankbord voor AI in het informatiedomein en directeur van het Papieren Tijger Netwerk
Wat is de impact van AI op het informatiedomein? Deze eenentwintigste aflevering van de artikelenreeks richt zich op DIV’ers, archivarissen, recordmanagers en datastewards en de existentiële bedreigingen die kunstmatige intelligentie met zich meebrengt voor hun kerntaak: het bewaken van het dynamische en statische organisatiegeheugen. Dit deel #1 gaat over wat er gebeurt en waarom, het vervolg (deel #2) op de pagina hierna over wat jij eraan kunt doen.
Generatieve AI biedt natuurlijk prachtige kansen en ondersteunt denken en handelen van mens en organisatie, maar heeft ook de nodige onbedoelde consequenties. Het artikel in de vorige IP (aflevering 20) beschreef al de fundamentele uitdagingen voor de organisatie ten gevolge van AI en de oorzaken daarvan. Ook focuste het op het effect op de informatieprofessie en wat basisrollen rond AI voor informatieprofessionals zijn. We constateerden dat ‘de’ informatieprofessional niet bestaat. De verantwoordelijkheid voor ‘informatie’ binnen organisaties is enorm versnipperd. Ik dikte dat in tot vier categorieën:
1. Organisatiegeheugen & Verantwoording
2. Kennisorganisatie & Informatiestromen
3. Informatieverstrekking & Ondersteuning
4. Communicatie & Externe Informatie
Dit artikel focust op de eerste categorie. De hoofdrolspelers zijn archivarissen, DIV’ers, recordmanagers, metadata- en taxonomiespecialisten en (meta)datastewards. Zij delen de zorg voor verantwoording en het organisatiegeheugen, statisch en/of dynamisch, maar elk met een eigen accent. De archivaris draagt de meest directe juridische verantwoordelijkheid vanuit de Archiefwet; voor de andere disciplines liggen de accenten anders. In dit artikel spreek ik de groep als geheel aan, met de archivaris als meest betrokkene vanuit juridisch perspectief. In het grote kader op de volgende pagina [>] vind je specifieke accenten per discipline. Volgende artikelen in de serie zullen zich richten op de andere categorieën.
KERNTAAK VERDAMPT
In artikel 20 werden vier kernrisico’s geschetst die de informatiehuishouding bedreigen: rond kwaliteit, transparantie, fragmentatie en verantwoording. Voor jou als de bewaker van het organisatiegeheugen spelen ze alle vier, maar zijn het verantwoordingsrisico en het kwaliteitsrisico existentieel. Dit gaat niet over efficiency of nieuwe werkwijzen. Dit gaat over jouw bestaansrecht.
De informatiehuishouding verplaatst zich. Terwijl jij de bestaande documenten, data en archieven beheert, ontstaat elders in de organisatie een nieuwe laag van besluitvorming en kennisvorming: in AI-tools, in chatconversaties, in retrieval-augmented generation (RAG)-systemen. Zonder jou. Paper trails lossen op in digitale dialogen. Besluitvorming verdwijnt in black boxes. Context raakt zoek.
De Archiefwet spreekt over ‘goede, geordende en toegankelijke staat’. Over beheersregels voor de informatiehuishouding. De nieuwe Archiefwet geeft regels voor chatberichten en een normatief kader voor verantwoordingsketens die in digitale werkprocessen snel kunnen verdampen. Maar hoe borg je dat als besluitvorming in AI-conversaties verdwijnt? Hoe reconstrueer je over tien jaar waarom een bepaald besluit is genomen als alle afwegingen in ChatGPT zijn gevoerd en niemand ze juist heeft vastgelegd?
VAN FEITEN
NAAR VERWACHTINGEN
AI (huidige golf)
‘Denkt’
‘Mens’
Verwachting
Context
Dialoog
Niet transparant
→
→
→
→
→→
Computer (vorige golf)
Rekent
Machine
Feiten
Structuur
Autonoom
Transparant
DRIE PIJLERS ONDER JE WERK ONDERMIJND
De overgang van de ‘ouderwetse’ computer naar AI is geen geleidelijke verbetering. Het is een kwalitatieve sprong die alles verandert aan hoe organisaties met informatie omgaan. En die sprong raakt precies de drie pijlers waar jouw werk op rust.
Bij standaard computerwerk kon je archiveren wat er was: output, logfiles, bestanden, databases. Alles had een concrete vorm, was vast te leggen, te bewaren en te raadplegen. Het werk van een machine. Bij AI is er geen concrete output, alleen dialoog, als met een mens. Wat archiveer je dan? De vraag? Het antwoord? De hele conversatie? En hoe borg je de context die stilzwijgend aanwezig was maar niet expliciet werd gemaakt?
Bij de computer werkten we met feiten en structuur. Een database geeft je de data die erin zitten, niet meer en niet minder. Een berekening geeft altijd hetzelfde resultaat. Dat kun je verifiëren, reproduceren, verantwoorden. Bij AI werk je met verwachtingen en context. Het systeem ‘verwacht’ wat je bedoelt, ‘schat in’ wat relevant is, ‘combineert’ informatie op basis van waarschijnlijkheidsberekeningen. Fundamenteel anders. En fundamenteel moeilijker te verantwoorden.
Het meest cruciale verschil: transparant versus niet transparant. De computer is transparant. Je ziet wat erin gaat, wat eruit komt, en hoe het proces verloopt. Bij AI is het een black box. Jij ziet de vraag en het antwoord, maar wat ertussenin gebeurt …? Welke documenten zijn geraadpleegd, waarom die en niet andere, hoe zijn ze gewogen? Onzichtbaar. En dat raakt de kern van je werk. Verantwoording vereist transparantie, maar AI is niet transparant. Organisatiegeheugen vereist feiten, maar AI werkt met waarschijnlijkheden. Bewaarplicht vereist concrete artefacten, maar AI produceert dialogen die nergens worden bewaard.
Pijler 1: Paper trails verdampen
Een beleidsmedewerker gebruikt Copilot om scenario’s door te rekenen voor mobiliteitsbeleid. Hij stelt vragen, krijgt analyses, laat alternatieven uitwerken. Na een paar dagen sparren heeft hij zijn conclusie: optie B is de beste keuze. Die conclusie gaat in een memo aan het college en zij besluit: we gaan voor optie B. Maar welke afwegingen zijn werkelijk gemaakt? Die informatie zit in de AI-conversaties. Die de beleidsmedewerker niet heeft bewaard. Die al zijn overschreven. Verdwenen.
Over vijf jaar komt er een Woo-verzoek: waarom is destijds voor optie B gekozen? Of een evaluatie: waren de verwachte effecten juist ingeschat? Of een audit: op welke grondslag is dit besluit genomen? Dan blijkt: niet te reconstrueren. De paper trail is verdampt. Dit gebeurt nu duizenden keren per dag in organisaties.
Pijler 2: Inputkwaliteit ontbreekt
AI-systemen worden gevoed met documenten uit jouw organisatie. Copilot heeft toegang tot SharePoint, Teams en OneDrive. Interne chatbots werken met jullie kennisbank. En daar gaat het mis. De digitale informatiehuishouding is een chaos. Conceptversies staan tussen definitieve versies. Verouderde beleidsplannen zijn niet opgeruimd. Metadata? Meestal incompleet, vaak afwezig. Voor mensen is dat lastig maar werkbaar. Een professional ziet meestal wel het verschil tussen een concept en een definitief document, maar AI ziet dat niet. AI ziet tekst, en dat is de basis voor de antwoorden die het geeft.
Pijler 3: Geheugen fragmenteert
Medewerkers gebruiken vaak twee of drie AI’s uit de reeks ChatGPT, Copilot, Claude, Perplexity, Gemini, NotebookLM en wat er volgende maand weer bijkomt. Elk systeem heeft zijn eigen historie, en geen enkel integreert met de andere. Jouw taak is het organisatiegeheugen te beheren. Maar als dat geheugen over zoveel tools is gefragmenteerd, over duizenden individuele accounts is verspreid, zonder centrale toegang, hoe doe je dat dan? Als dat al geldt voor het dynamische geheugen, hoe komt het dan ooit goed in het statische?
De volgende vraag is: wat moet eigenlijk worden bewaard van al die conversaties? Niet alles. Dat leidt tot onbruikbare overload. Maar ook niet niets. Dat maakt verantwoording onmogelijk. Waar ligt de grens? Moet een brainstormsessie in ChatGPT worden bewaard? Een vraag om uitleg van een wetsartikel? Een analyse die tot een strategisch besluit leidt? Wie bepaalt dat? Dat beleid bestaat niet. Niemand heeft het opgesteld.
Dan zijn er nog de audit trails. Technisch zijn die vast compleet. De systemen loggen alles: wanneer, door wie, welke documenten geopend, welke vragen gesteld. Dat voelt verantwoordelijk, maar het is informatiekundig waardeloos. Want die logs vertellen je niet hoe informatie is geïnterpreteerd, hoe bronnen zijn gecombineerd en waarom bepaalde conclusies zijn getrokken.
DIT IS JOUW PROBLEEM
Waarom is dit jouw probleem? Drie redenen:
> Juridische verantwoordelijkheid. De Archiefwet is helder. Artikel 3: ‘archiefbescheiden in goede, geordende en toegankelijke staat’. Het Archiefbesluit: ‘de zorgdrager stelt beheersregels voor de informatiehuishouding’. Jij bent verantwoordelijk voor de uitvoering. Niet het bestuur. Niet ICT. Als over vijf jaar blijkt dat verantwoording onmogelijk is, dat besluitvorming niet te reconstrueren valt, en jij hebt er niets aan gedaan, wat zegt dat dan?
> Professionele verantwoordelijkheid. Dit is jouw vak en bestaansrecht: organisatiegeheugen bewaren, verantwoording mogelijk maken, context borgen. En jij bent de enige die het ziet. Want het bestuur begrijpt informatie niet als domein, ICT focust op techniek en gebruikers genieten van AI’s gemak. Als jij er niets over zegt, wie dan wel?
> Strategische noodzaak. Tot nu toe werd jij eigenlijk gezien als administratief ondersteunend. AI verandert dat. Jouw expertise wordt strategisch kritisch. Dat betekent: er is nu een momentum. Een kans om je positie te claimen, om aan tafel te komen. Maar dan moet je wel actie ondernemen.
TWEE KERNRISICO’S VOOR JE WERK
Artikel 20 schetste vier risico’s: kwaliteit, transparantie, fragmentatie en verantwoording. Voor jou zijn ze alle vier relevant, maar twee springen eruit: verantwoording en kwaliteit van de input.
1: VERANTWOORDINGSRISICO
Jouw organisatie moet waarschijnlijk voortdurend verantwoorden waarom bepaalde besluiten zijn genomen – denk aan Woo-verzoeken, audits en rechtszaken. Tot nu toe kon je die beantwoorden: de paper trail was er, de documenten waren vindbaar en de besluitvorming was te reconstrueren. Maar wat als dat straks gewoon niet kan? Wat als de onderbouwing is verdwenen in AI-conversaties die niemand heeft bewaard?
HOE AI-MODELLEN AAN INFORMATIE KOMEN
Om te begrijpen waar het misgaat, moet je begrijpen hoe AI-modellen werken. Ze combineren drie componenten:
> Trainingsdata. Elk model is getraind op miljarden pagina’s. Uit die training heeft het model twee dingen geleerd, en het onderscheid is cruciaal. Het eerste is denken: hoe je redeneert, samenvat, verbanden legt en formuleert. Het tweede is weten: de concrete feiten uit al die pagina’s. Maar die feitenkennis is verwerkt tot statistische patronen en niet meer als bron terug te halen. Vraag je waar een antwoord vandaan komt, dan kan het model hooguit gissen. Het denkt, maar écht weten doet het eigenlijk niets.
> Zoekfunctie. Het model kan actief zoeken naar informatie die het niet uit de training kan halen. Extern: op internet, zoals Perplexity of ChatGPT met websearch. Intern: in eigen documenten, zoals Copilot dat via Microsoft Graph zoekt in SharePoint, Teams en Outlook. Of een combinatie.
> RAG-systeem. Dit gebruiken steeds meer organisaties. Retrieval-augmented generation benut precies dat onderscheid tussen denken en weten. Een bestaand AI-model – meestal ChatGPT, Claude of het model achter Copilot – levert het denkvermogen: interpreteren, combineren en formuleren. De documentenbank van de organisatie levert de kennis. RAG koppelt die twee. Vraag je iets, dan zoekt het systeem eerst relevante documenten, en het AI-model formuleert vervolgens een antwoord op basis van wat het heeft gevonden. De intelligentie komt uit de training, de inhoud komt uit jouw documenten. Maar let op: het AI-model kan niet beoordelen of een document actueel is, of het een concept is of definitief. Het denkt met wat het krijgt.
De cruciale vraag: wie bepaalt wat erin zit en doorzoekbaar is? Wie bewaakt de kwaliteit? Wie zorgt dat metadata aanwezig zijn?
WAAR HET MISGAAT
Drie scenario’s zijn cruciaal:
> Intern zoeken zonder grip. Dit is wat Copilot doet. Het model doorzoekt volgens de marketing alles waar de gebruiker toegang toe heeft. Maar ... Microsoft Graph – de centrale verbindingslaag die zorgt dat de data uit de Microsoft-apps onderling kunnen worden gedeeld – bepaalt wat relevant is op basis van technische criteria: recent geopend, vaak bekeken. Niet op basis van status, geldigheid of versie. Een concept van vorig jaar kan even zwaar wegen als het definitieve beleid van vorige maand. En niemand ziet wat het model níet heeft gevonden.
> RAG zonder kwaliteitsbewaking. Bij een RAG-systeem bepaalt de organisatie zelf welke documenten het model kan raadplegen. Maar wie selecteert die documenten? Wie zorgt dat alleen definitieve versies erin zitten? In de praktijk wordt een RAG-systeem vaak gevuld zonder betrokkenheid van jou.
> Hybride intern en extern. Copilot met websearch aan. Dit is nog een hele graad erger. Het model mengt interne informatie met externe bronnen, zonder te markeren wat wat is. Een intern beleidsconcept gecombineerd met een nieuwsartikel van twee jaar geleden, gepresenteerd als coherent geheel.
En dan is er het schaduwgebruik: medewerkers die Perplexity of ChatGPT gebruiken voor werkgerelateerde vragen, buiten het zicht van de organisatie. De output belandt in memo’s en besluiten, maar de oorsprong is nergens gedocumenteerd.
2: KWALITEITSRISICO (INPUT)
Het tweede risico ligt een slag eerder: de kwaliteit van wat erin gaat. Hier verschuift het belang van jouw expertise van administratief naar strategisch kritisch. AI kan context niet afleiden zoals een mens dat kan. Een mens ziet ‘CONCEPT’ bovenaan en denkt: niet definitief. AI ziet tekst en gebruikt het alsof het definitief is. Tenzij de metadata expliciet aangeven: ‘status = concept’, maar die metadata zijn er vaak niet.
Zonder goede metadata kan AI geen betrouwbare antwoorden geven. Dat is de kern.
JOUW EXPERTISE WORDT GEMIST
Dit alles gebeurt zonder jou. Copilot wordt uitgerold door ICT. RAG-systemen worden gebouwd door de afdeling die het nodig heeft. Chatbots worden ingericht door externe leveranciers. En niemand stelt de vragen die jij zou stellen. Welke documenten mogen erin? Hoe borgen we dat alleen definitieve versies worden gebruikt? Waar blijft de verantwoording? Hoe integreren we dit met de bestaande informatiehuishouding?
Jouw expertise is precies wat ontbreekt. Omdat niemand eraan denkt die in te roepen. Voor het bestuur is AI een strategisch thema. Voor ICT een technisch vraagstuk. Dat het in de kern een informatievraagstuk is, ziet niemand. Behalve jij.
HUMAN IN THE LOOP
En dit: iedereen roemt de ‘human in the loop’. De mens die de eindverantwoordelijkheid draagt, die het AI-advies beoordeelt, die de knoop doorhakt. Maar diezelfde mens is daar helemaal niet op voorbereid. Hoe beoordeel je AI-output? Wanneer moet je verifiëren en wanneer kun je vertrouwen? Wat leg je vast en wat niet? Niemand heeft het ze geleerd. Houvast ontbreekt. Leidinggevenden worstelen ermee, medewerkers ook. De organisatie heeft richting nodig; heldere kaders, praktische adviezen en werkbare protocollen. Die moeten ergens vandaan komen. Als het gaat om informatie kan bij uitstek jij die rol pakken. <
Terwijl jij de bestaande documenten en data beheert, ontstaat elders een nieuwe laag van kennisvorming: in AI-tools en chatconversaties
Paper trails lossen op in digitale dialogen, besluitvorming verdwijnt in black boxes, context raakt zoek
Hoe reconstrueer je waarom een bepaald besluit is genomen als alle afwegingen in ChatGPT zijn gevoerd en niemand ze juist heeft vastgelegd?
Jouw expertise wordt strategisch kritisch. Dat betekent: er is nu een momentum, een kans om je positie te claimen en aan tafel te komen
Zonder goede metadata kan generatieve AI geen betrouwbare antwoorden geven, dat is de kern
Voor het bestuur is AI een strategisch thema, voor ICT technisch, dat het in de kern een informatievraagstuk is, ziet niemand behalve jij
IP | vakblad voor informatieprofessionals | 01 / 2026
(21 #1)..|..(21 #2)
SIMON BEEN
AI IN HET INFORMATIEDOMEIN (21 #1)
Artikelenserie over kunstmatige intelligentie (21 #1)
Simon Been
Trainer en klankbord voor AI in het informatiedomein en directeur van het Papieren Tijger Netwerk
Wat is de impact van AI op het informatiedomein? Deze eenentwintigste aflevering van de artikelenreeks richt zich op DIV’ers, archivarissen, recordmanagers en datastewards en de existentiële bedreigingen die kunstmatige intelligentie met zich meebrengt voor hun kerntaak: het bewaken van het dynamische en statische organisatiegeheugen. Dit deel #1 gaat over wat er gebeurt en waarom, het vervolg (deel #2) op de pagina hierna over wat jij eraan kunt doen.
VAN FEITEN
NAAR VERWACHTINGEN
AI (huidige golf)
‘Denkt’
‘Mens’
Verwachting
Context
Dialoog
Niet transparant
→
→
→
→
→→
Computer (vorige golf)
Rekent
Machine
Feiten
Structuur
Autonoom
Transparant
Generatieve AI biedt natuurlijk prachtige kansen en ondersteunt denken en handelen van mens en organisatie, maar heeft ook de nodige onbedoelde consequenties. Het artikel in de vorige IP (aflevering 20) beschreef al de fundamentele uitdagingen voor de organisatie ten gevolge van AI en de oorzaken daarvan. Ook focuste het op het effect op de informatieprofessie en wat basisrollen rond AI voor informatieprofessionals zijn. We constateerden dat ‘de’ informatieprofessional niet bestaat. De verantwoordelijkheid voor ‘informatie’ binnen organisaties is enorm versnipperd. Ik dikte dat in tot vier categorieën:
1. Organisatiegeheugen & Verantwoording
2. Kennisorganisatie & Informatiestromen
3. Informatieverstrekking & Ondersteuning
4. Communicatie & Externe Informatie
Dit artikel focust op de eerste categorie. De hoofdrolspelers zijn archivarissen, DIV’ers, recordmanagers, metadata- en taxonomiespecialisten en (meta)datastewards. Zij delen de zorg voor verantwoording en het organisatiegeheugen, statisch en/of dynamisch, maar elk met een eigen accent. De archivaris draagt de meest directe juridische verantwoordelijkheid vanuit de Archiefwet; voor de andere disciplines liggen de accenten anders. In dit artikel spreek ik de groep als geheel aan, met de archivaris als meest betrokkene vanuit juridisch perspectief. In het grote kader op de volgende pagina [>] vind je specifieke accenten per discipline. Volgende artikelen in de serie zullen zich richten op de andere categorieën.
KERNTAAK VERDAMPT
In artikel 20 werden vier kernrisico’s geschetst die de informatiehuishouding bedreigen: rond kwaliteit, transparantie, fragmentatie en verantwoording. Voor jou als de bewaker van het organisatiegeheugen spelen ze alle vier, maar zijn het verantwoordingsrisico en het kwaliteitsrisico existentieel. Dit gaat niet over efficiency of nieuwe werkwijzen. Dit gaat over jouw bestaansrecht.
De informatiehuishouding verplaatst zich. Terwijl jij de bestaande documenten, data en archieven beheert, ontstaat elders in de organisatie een nieuwe laag van besluitvorming en kennisvorming: in AI-tools, in chatconversaties, in retrieval-augmented generation (RAG)-systemen. Zonder jou. Paper trails lossen op in digitale dialogen. Besluitvorming verdwijnt in black boxes. Context raakt zoek.
De Archiefwet spreekt over ‘goede, geordende en toegankelijke staat’. Over beheersregels voor de informatiehuishouding. De nieuwe Archiefwet geeft regels voor chatberichten en een normatief kader voor verantwoordingsketens die in digitale werkprocessen snel kunnen verdampen. Maar hoe borg je dat als besluitvorming in AI-conversaties verdwijnt? Hoe reconstrueer je over tien jaar waarom een bepaald besluit is genomen als alle afwegingen in ChatGPT zijn gevoerd en niemand ze juist heeft vastgelegd?
DRIE PIJLERS ONDER JE WERK ONDERMIJND
De overgang van de ‘ouderwetse’ computer naar AI is geen geleidelijke verbetering. Het is een kwalitatieve sprong die alles verandert aan hoe organisaties met informatie omgaan. En die sprong raakt precies de drie pijlers waar jouw werk op rust.
Bij standaard computerwerk kon je archiveren wat er was: output, logfiles, bestanden, databases. Alles had een concrete vorm, was vast te leggen, te bewaren en te raadplegen. Het werk van een machine. Bij AI is er geen concrete output, alleen dialoog, als met een mens. Wat archiveer je dan? De vraag? Het antwoord? De hele conversatie? En hoe borg je de context die stilzwijgend aanwezig was maar niet expliciet werd gemaakt?
Bij de computer werkten we met feiten en structuur. Een database geeft je de data die erin zitten, niet meer en niet minder. Een berekening geeft altijd hetzelfde resultaat. Dat kun je verifiëren, reproduceren, verantwoorden. Bij AI werk je met verwachtingen en context. Het systeem ‘verwacht’ wat je bedoelt, ‘schat in’ wat relevant is, ‘combineert’ informatie op basis van waarschijnlijkheidsberekeningen. Fundamenteel anders. En fundamenteel moeilijker te verantwoorden.
Het meest cruciale verschil: transparant versus niet transparant. De computer is transparant. Je ziet wat erin gaat, wat eruit komt, en hoe het proces verloopt. Bij AI is het een black box. Jij ziet de vraag en het antwoord, maar wat ertussenin gebeurt …? Welke documenten zijn geraadpleegd, waarom die en niet andere, hoe zijn ze gewogen? Onzichtbaar. En dat raakt de kern van je werk. Verantwoording vereist transparantie, maar AI is niet transparant. Organisatiegeheugen vereist feiten, maar AI werkt met waarschijnlijkheden. Bewaarplicht vereist concrete artefacten, maar AI produceert dialogen die nergens worden bewaard.
Pijler 1: Paper trails verdampen
Een beleidsmedewerker gebruikt Copilot om scenario’s door te rekenen voor mobiliteitsbeleid. Hij stelt vragen, krijgt analyses, laat alternatieven uitwerken. Na een paar dagen sparren heeft hij zijn conclusie: optie B is de beste keuze. Die conclusie gaat in een memo aan het college en zij besluit: we gaan voor optie B. Maar welke afwegingen zijn werkelijk gemaakt? Die informatie zit in de AI-conversaties. Die de beleidsmedewerker niet heeft bewaard. Die al zijn overschreven. Verdwenen.
Over vijf jaar komt er een Woo-verzoek: waarom is destijds voor optie B gekozen? Of een evaluatie: waren de verwachte effecten juist ingeschat? Of een audit: op welke grondslag is dit besluit genomen? Dan blijkt: niet te reconstrueren. De paper trail is verdampt. Dit gebeurt nu duizenden keren per dag in organisaties.
Pijler 2: Inputkwaliteit ontbreekt
AI-systemen worden gevoed met documenten uit jouw organisatie. Copilot heeft toegang tot SharePoint, Teams en OneDrive. Interne chatbots werken met jullie kennisbank. En daar gaat het mis. De digitale informatiehuishouding is een chaos. Conceptversies staan tussen definitieve versies. Verouderde beleidsplannen zijn niet opgeruimd. Metadata? Meestal incompleet, vaak afwezig. Voor mensen is dat lastig maar werkbaar. Een professional ziet meestal wel het verschil tussen een concept en een definitief document, maar AI ziet dat niet. AI ziet tekst, en dat is de basis voor de antwoorden die het geeft.
Pijler 3: Geheugen fragmenteert
Medewerkers gebruiken vaak twee of drie AI’s uit de reeks ChatGPT, Copilot, Claude, Perplexity, Gemini, NotebookLM en wat er volgende maand weer bijkomt. Elk systeem heeft zijn eigen historie, en geen enkel integreert met de andere. Jouw taak is het organisatiegeheugen te beheren. Maar als dat geheugen over zoveel tools is gefragmenteerd, over duizenden individuele accounts is verspreid, zonder centrale toegang, hoe doe je dat dan? Als dat al geldt voor het dynamische geheugen, hoe komt het dan ooit goed in het statische?
De volgende vraag is: wat moet eigenlijk worden bewaard van al die conversaties? Niet alles. Dat leidt tot onbruikbare overload. Maar ook niet niets. Dat maakt verantwoording onmogelijk. Waar ligt de grens? Moet een brainstormsessie in ChatGPT worden bewaard? Een vraag om uitleg van een wetsartikel? Een analyse die tot een strategisch besluit leidt? Wie bepaalt dat? Dat beleid bestaat niet. Niemand heeft het opgesteld.
Dan zijn er nog de audit trails. Technisch zijn die vast compleet. De systemen loggen alles: wanneer, door wie, welke documenten geopend, welke vragen gesteld. Dat voelt verantwoordelijk, maar het is informatiekundig waardeloos. Want die logs vertellen je niet hoe informatie is geïnterpreteerd, hoe bronnen zijn gecombineerd en waarom bepaalde conclusies zijn getrokken.
DIT IS JOUW PROBLEEM
Waarom is dit jouw probleem? Drie redenen:
> Juridische verantwoordelijkheid. De Archiefwet is helder. Artikel 3: ‘archiefbescheiden in goede, geordende en toegankelijke staat’. Het Archiefbesluit: ‘de zorgdrager stelt beheersregels voor de informatiehuishouding’. Jij bent verantwoordelijk voor de uitvoering. Niet het bestuur. Niet ICT. Als over vijf jaar blijkt dat verantwoording onmogelijk is, dat besluitvorming niet te reconstrueren valt, en jij hebt er niets aan gedaan, wat zegt dat dan?
> Professionele verantwoordelijkheid. Dit is jouw vak en bestaansrecht: organisatiegeheugen bewaren, verantwoording mogelijk maken, context borgen. En jij bent de enige die het ziet. Want het bestuur begrijpt informatie niet als domein, ICT focust op techniek en gebruikers genieten van AI’s gemak. Als jij er niets over zegt, wie dan wel?
> Strategische noodzaak. Tot nu toe werd jij eigenlijk gezien als administratief ondersteunend. AI verandert dat. Jouw expertise wordt strategisch kritisch. Dat betekent: er is nu een momentum. Een kans om je positie te claimen, om aan tafel te komen. Maar dan moet je wel actie ondernemen.
TWEE KERNRISICO’S VOOR JE WERK
Artikel 20 schetste vier risico’s: kwaliteit, transparantie, fragmentatie en verantwoording. Voor jou zijn ze alle vier relevant, maar twee springen eruit: verantwoording en kwaliteit van de input.
Voor meer beeld
1: VERANTWOORDINGSRISICO
Jouw organisatie moet waarschijnlijk voortdurend verantwoorden waarom bepaalde besluiten zijn genomen – denk aan Woo-verzoeken, audits en rechtszaken. Tot nu toe kon je die beantwoorden: de paper trail was er, de documenten waren vindbaar en de besluitvorming was te reconstrueren. Maar wat als dat straks gewoon niet kan? Wat als de onderbouwing is verdwenen in AI-conversaties die niemand heeft bewaard?
HOE AI-MODELLEN AAN INFORMATIE KOMEN
Om te begrijpen waar het misgaat, moet je begrijpen hoe AI-modellen werken. Ze combineren drie componenten:
> Trainingsdata. Elk model is getraind op miljarden pagina’s. Uit die training heeft het model twee dingen geleerd, en het onderscheid is cruciaal. Het eerste is denken: hoe je redeneert, samenvat, verbanden legt en formuleert. Het tweede is weten: de concrete feiten uit al die pagina’s. Maar die feitenkennis is verwerkt tot statistische patronen en niet meer als bron terug te halen. Vraag je waar een antwoord vandaan komt, dan kan het model hooguit gissen. Het denkt, maar écht weten doet het eigenlijk niets.
> Zoekfunctie. Het model kan actief zoeken naar informatie die het niet uit de training kan halen. Extern: op internet, zoals Perplexity of ChatGPT met websearch. Intern: in eigen documenten, zoals Copilot dat via Microsoft Graph zoekt in SharePoint, Teams en Outlook. Of een combinatie.
> RAG-systeem. Dit gebruiken steeds meer organisaties. Retrieval-augmented generation benut precies dat onderscheid tussen denken en weten. Een bestaand AI-model – meestal ChatGPT, Claude of het model achter Copilot – levert het denkvermogen: interpreteren, combineren en formuleren. De documentenbank van de organisatie levert de kennis. RAG koppelt die twee. Vraag je iets, dan zoekt het systeem eerst relevante documenten, en het AI-model formuleert vervolgens een antwoord op basis van wat het heeft gevonden. De intelligentie komt uit de training, de inhoud komt uit jouw documenten. Maar let op: het AI-model kan niet beoordelen of een document actueel is, of het een concept is of definitief. Het denkt met wat het krijgt.
De cruciale vraag: wie bepaalt wat erin zit en doorzoekbaar is? Wie bewaakt de kwaliteit? Wie zorgt dat metadata aanwezig zijn?
WAAR HET MISGAAT
Drie scenario’s zijn cruciaal:
> Intern zoeken zonder grip. Dit is wat Copilot doet. Het model doorzoekt volgens de marketing alles waar de gebruiker toegang toe heeft. Maar ... Microsoft Graph – de centrale verbindingslaag die zorgt dat de data uit de Microsoft-apps onderling kunnen worden gedeeld – bepaalt wat relevant is op basis van technische criteria: recent geopend, vaak bekeken. Niet op basis van status, geldigheid of versie. Een concept van vorig jaar kan even zwaar wegen als het definitieve beleid van vorige maand. En niemand ziet wat het model níet heeft gevonden.
> RAG zonder kwaliteitsbewaking. Bij een RAG-systeem bepaalt de organisatie zelf welke documenten het model kan raadplegen. Maar wie selecteert die documenten? Wie zorgt dat alleen definitieve versies erin zitten? In de praktijk wordt een RAG-systeem vaak gevuld zonder betrokkenheid van jou.
> Hybride intern en extern. Copilot met websearch aan. Dit is nog een hele graad erger. Het model mengt interne informatie met externe bronnen, zonder te markeren wat wat is. Een intern beleidsconcept gecombineerd met een nieuwsartikel van twee jaar geleden, gepresenteerd als coherent geheel.
En dan is er het schaduwgebruik: medewerkers die Perplexity of ChatGPT gebruiken voor werkgerelateerde vragen, buiten het zicht van de organisatie. De output belandt in memo’s en besluiten, maar de oorsprong is nergens gedocumenteerd.
Het tweede risico ligt een slag eerder: de kwaliteit van wat erin gaat. Hier verschuift het belang van jouw expertise van administratief naar strategisch kritisch. AI kan context niet afleiden zoals een mens dat kan. Een mens ziet ‘CONCEPT’ bovenaan en denkt: niet definitief. AI ziet tekst en gebruikt het alsof het definitief is. Tenzij de metadata expliciet aangeven: ‘status = concept’, maar die metadata zijn er vaak niet.
Zonder goede metadata kan AI geen betrouwbare antwoorden geven. Dat is de kern.
JOUW EXPERTISE WORDT GEMIST
Dit alles gebeurt zonder jou. Copilot wordt uitgerold door ICT. RAG-systemen worden gebouwd door de afdeling die het nodig heeft. Chatbots worden ingericht door externe leveranciers. En niemand stelt de vragen die jij zou stellen. Welke documenten mogen erin? Hoe borgen we dat alleen definitieve versies worden gebruikt? Waar blijft de verantwoording? Hoe integreren we dit met de bestaande informatiehuishouding?
Jouw expertise is precies wat ontbreekt. Omdat niemand eraan denkt die in te roepen. Voor het bestuur is AI een strategisch thema. Voor ICT een technisch vraagstuk. Dat het in de kern een informatievraagstuk is, ziet niemand. Behalve jij.
HUMAN IN THE LOOP
En dit: iedereen roemt de ‘human in the loop’. De mens die de eindverantwoordelijkheid draagt, die het AI-advies beoordeelt, die de knoop doorhakt. Maar diezelfde mens is daar helemaal niet op voorbereid. Hoe beoordeel je AI-output? Wanneer moet je verifiëren en wanneer kun je vertrouwen? Wat leg je vast en wat niet? Niemand heeft het ze geleerd. Houvast ontbreekt. Leidinggevenden worstelen ermee, medewerkers ook. De organisatie heeft richting nodig; heldere kaders, praktische adviezen en werkbare protocollen. Die moeten ergens vandaan komen. Als het gaat om informatie kan bij uitstek jij die rol pakken. <
2: KWALITEITSRISICO (INPUT)
IP | vakblad voor informatieprofessionals | 01 / 2026