AI IN HET INFORMATIEDOMEIN (16): THEORIE       SIMON BEEN

Deel 16
artikelenserie over kunstmatige intelligentie

Intieme AI
– kent jou beter
dan jijzelf

Simon Been
Directeur van het Papieren Tijger Netwerk en spreker/trainer/auteur over AI in het informatiedomein

Wat is de impact van AI op het informatiedomein? In deze artikelenreeks wordt ingegaan op veranderingen in de organisatieprocessen, de informatieprofessie en het persoonlijke informatiewerk ten gevolge van kunstmatige intelligentie. Aflevering 16 bestaat uit twee delen – theorie en praktijk – die beide draaien om intieme AI: systemen die actief meeluisteren, meedenken en voorspellen zonder dat je daar altijd zicht op hebt. In dit deel de theorie, inclusief schaduwzijdes en gevolgen voor de klassieke informatiedienstverlening.

PRIVACYPARADOX: DE VOORDEUR MOET OPEN

De Digital Markets Act (DMA) verplicht big tech om hun gesloten ecosystemen open te stellen. Apple moet in Europa toestaan dat andere assistenten – zoals die van Google, Meta of OpenAI – dezelfde toegang krijgen tot hardware, systeeminstellingen en persoonlijke data als Siri. Op 3 juni 2025 bracht de NOS dit scherp in beeld: ‘Facebook en Instagram gebruiken een spionagetrucje op Android-telefoons.’ Onderzoekers ontdekten dat Meta via verborgen code gebruikers alsnog blijft volgen, ook na expliciete weigering. Het zoveelste Meta-schandaal. En juist dit bedrijf mag straks, ‘dankzij’ de DMA-regelgeving, integreren met jouw mobiel. Apple mag dat niet blokkeren, al is het hun toestel, is het hun OS en zijn het jouw data.

De iPhone-maker heeft hiertegen bezwaar aangetekend bij de Europese Commissie, onder verwijzing naar structurele risico’s voor gebruikersprivacy (bron: Reuters, 2 juni 2025). Meta heeft intussen al meer interoperabiliteitsverzoeken ingediend bij Apple dan enig ander bedrijf, waarbij toegang wordt gevraagd tot diepgaande functies van iPhones en iPads, inclusief gebruikersberichten, e-mails, telefoongesprekken, appgebruik, foto’s, bestanden, agenda-evenementen en zelfs opgeslagen wachtwoorden. De strijd om intieme AI is al in volle hevigheid gaande. Vanwege dit soort ontwikkelingen besloot Apple al eerder om diverse AI-functionaliteiten niet in Europa uit te brengen. Is openheid echt belangrijker dan gebruiksgemak en privacy?

Stel je dit eens voor (en ja, dit gebeurt echt): je interne klant zat vorige week in een meeting over project Kwaliteit en probeert nu een saillant detail terug te vinden dat besproken is en wie de spreker was. Ze herinnert zich nog vaag het onderwerp, maar meer ook niet. Gaat ze de vergadernotulen doorspitten? Vindt ze het daarin?

Overbodig. Haar AI weet het al. De microfoon stond aan, zoals altijd. De bijeenkomst werd automatisch getranscribeerd, de stem herkend, het tijdstip gelogd en alles gekoppeld aan haar agenda en het juiste projectdossier. Ze vraagt gewoon: ‘Wie sprak vorige week over project Kwaliteit?’ en krijgt meteen antwoord. Geen handmatig zoeken, geen menselijke tussenkomst nodig. En het verrassende? Dit gesprek was niet tijdens, maar ná de vergadering. In de officiële notulen had ze het nooit gevonden.

Dit voorbeeld laat zien dat er meer aan de hand is dan alleen een technologische ontwikkeling. Het toont een fundamentele verschuiving in hoe informatie ons bereikt. Waar we vroeger actief moesten zoeken, catalogiseren en structureren, neemt AI nu zelf initiatief: ze observeert, begrijpt en anticipeert. De rol van informatie verschuift van iets dat we zoeken naar iets dat ons vindt en bedient.

BEGIN VAN EEN TIJDPERK
Dat AI ogen en oren krijgt is natuurlijk niet nieuw. Wat wel opvalt is hoe snel het nu gaat en hoe dichtbij het komt. Ook privé. Misschien herken je het: tijdens een wandeling luister je muziek via je oortjes. Plots hoor je de vraag of je bezig bent met een wandelwork-out. Je hoeft niets aan te raken, niets te zeggen, geen mobiel uit je zak te halen of je smartwatch uit je mouw te schudden, alleen even met je hoofd te knikken. De work-out start vanzelf.

Ook dit laatste is geen sciencefiction. Dit gebeurt nu al, bij mij bijna dagelijks. De combinatie van AI, sensoren in je oortjes en bewegingsdetectie via smartphone of smartwatch maakt het mogelijk. Jouw apparaat snapt je intentie zonder dat je die expliciet hoeft uit te spreken. Dit is wat intieme AI onderscheidt: contextgevoelige, proactieve technologie die met jou meeleeft in het moment.

Deze voorbeelden – professioneel én persoonlijk – laten zien hoe AI steeds meer verweven raakt met dagelijkse routines, lichamelijke signalen en beslissingen. We bedienen deze technologie niet alleen; zij bedient óns. Ze anticipeert, adviseert en voelt intuïtief aan wat we nodig hebben. We staan aan het begin van het tijdperk van intieme AI. En dat heeft consequenties.

HARDWARE EN WETGEVING
Waarom nu? Ineens wordt de infrastructuur van intieme AI rijp in 2025. Een paar voorbeelden:

> Apple introduceerde in 2024 Apple Intelligence, waarbij de AI met toestemming toegang krijgt tot agenda, foto’s, bestanden, berichten en meer. Siri wordt gaandeweg vervangen door een contextgevoelige AI die documenten samenvat, apps aanstuurt en content herschrijft; met optionele toegang tot ChatGPT (alleen buiten de EU, zie kader). En op 9 juni dit jaar ging het nog een stap verder met AI én intieme AI.

> Google Gemini op Android 15 biedt contextgevoelige AI-functies, inclusief spraakgestuurde app-aansturing en samenvattingen van je scherm of e-mails.

> Meta AI breidt zich uit naar slimme brillen die gesprekken opnemen, interpreteren en combineren met visuele input. De AI-functionaliteit is oppervlakkig.

> OpenAI & Jony Ive werken aan een fysiek AI-device dat bedoeld is als natuurlijke interface op basis van zintuiglijke input: audio, visueel, omgevingsdata.

Deze trend wordt versterkt door nieuwe Europese wetgeving, met name de Digital Markets Act (DMA), die sinds maart 2024 van kracht is. DMA verplicht zogeheten ‘gatekeepers’ zoals Apple, Google en Meta om hun ecosystemen open te stellen. Dat betekent onder meer:

> API’s en hardwarefuncties (zoals locatie, sensoren) moeten op gelijke voet worden gedeeld.

> Een bedrijf als Apple mag geen voorkeursbehandeling meer geven aan eigen apps.

> Andere assistenten dan Siri mogen op je iPhone worden ingesteld als standaard.

Op het eerste gezicht geweldig: stel je voor dat ChatGPT Siri zou kunnen vervangen! Aan de andere kant krijgen ook onbetrouwbare of minder transparante partijen, zoals Meta, toegang tot hardware die ontworpen was met privacy als kernwaarde. Ongeacht de intenties daarvan en de resulterende privacyconsequenties. Apple kan dit wettelijk niet blokkeren. De voortekenen zijn niet gunstig (zie kader).

DIEPERE DUIK IN INTIEME AI
Terug naar het voorbeeld van het werk: AI registreert, begrijpt en reflecteert. De recente lancering van Record Mode in ChatGPT Team (juni 2025) maakt dit heel concreet en toegankelijk voor iedere professional. Gesprekken van maximaal 120 minuten – vergaderingen, brainstormsessies, persoonlijke notities – worden automatisch getranscribeerd, samengevat (inclusief actiepunten en tijdstempels) en bewerkbaar opgeslagen.

De eerste reacties? Privacybezwaren. Logisch. Geruststellende garanties van OpenAI worden kritisch bekeken, vooral omdat meteen ook zogeheten ‘connectors’ beschikbaar kwamen. Deze koppelingen met clouddiensten als Google Drive en Box vergroten het risico op datalekken en maken het moeilijker om controle te houden over wie precies toegang heeft tot je gegevens.

ACTIEVE INTERPRETATIE
De verleiding is echter groot. Praktische voordelen zijn direct merkbaar en fundamenteel anders dan traditionele opnamemethoden. Zelf gebruik ik een draagbaar apparaatje, de Pendant van Limitless, dat in essentie hetzelfde doet. Ik neem er Teams-overleggen mee op, maar ook ideeën of spontane gedachten tijdens wandelingen of andere momenten waarop typen lastig is. De kracht zit hem niet alleen in de opname, maar vooral in wat daarna gebeurt: je kunt daadwerkelijk overleggen met de AI over je opnames. Je vraagt bijvoorbeeld:

> Hoe heette de tweede spreker, vorige week?
> Heb ik net mijn punt helder gemaakt of moet dat anders?
> Welke taken staan er nog open?
> Welke argumenten werden tegen mijn voorstel ingebracht?
> Hoe was de stemming tijdens het bespreken van het budget?
> Welke vragen bleven onbeantwoord?

Dit gaat verder dan slimme transcriptie. Dit is AI die luistert, onthoudt, samenvat en zelfs terugpraat. Ze begrijpt niet alleen wat er wordt gezegd, maar registreert ook hoe, door wie en in welke context. En dat inclusief nuances van stemming en toon. De manier waarop we informatie verwerken verandert hiermee radicaal. We gaan van passieve registratie naar actieve interpretatie. AI wordt deelnemer in het informatieproces, niet alleen hulpmiddel. Zij analyseert, contextualiseert en genereert inzichten die verder gaan dan wat expliciet is uitgesproken.

DE BASIS: DATA EN VERTROUWEN
De opkomst van intieme AI kent in mijn ogen twee elkaar versterkende sporen die traditioneel informatiewerk veranderen en bovendien nieuwe vragen oproepen over privacy, autonomie en technologie in ons professionele én privéleven. Het eerste spoor zagen we al in voorbeelden: verwerking van persoonlijke, contextuele data zoals locatie, spraak, hartslag, agenda en apps. AI leert je gedrag kennen en anticipeert op je behoeften, stemming en routines. Ze bouwt zo geleidelijk een steeds gedetailleerder profiel op van wie je bent, hoe je werkt, wat je beweegt en wanneer je het meest productief bent. Creepy? Ja. Nieuw? Niet echt. Het is een combi van Netflix, Amazon, Facebook en de Ring-videobel van je buren, en dan ‘on steroids’. Niet voor niets dat al die dataschrapers ook in AI duiken.

Het tweede spoor: AI als vertrouwenspersoon. We weten al dat AI steeds vaker wordt gebruikt als gesprekspartner, sparringpartner en psychologische steun. Onderzoek toont aan dat gebruikers zich emotioneel verbonden voelen met AI en haar gebruiken voor reflectie en persoonlijke groei. Mensen delen gedachten, zorgen, ambities en persoonlijke struggles met AI-systemen op een manier die eerder voorbehouden was aan vrienden, familie of therapeuten. Die interpersoonlijke contacten nemen dan ook af.

HYPERPERSOONLIJKE INFORMATIEVOORZIENING
Deze ontwikkeling gaat zoveel verder dan de traditionele superfeitelijke interactie met informatiesystemen. AI wordt niet alleen geraadpleegd voor ‘data’, maar ook voor advies en steun bij complexe emotionele kwesties. Gebruikers ervaren AI als empathisch, beschikbaar en oordeelvrij, eigenschappen die traditionele informatiesystemen niet kunnen bieden. En dit fenomeen is groter dan je misschien denkt. Ik zie het ook in mijn eigen relatiekring: de AI wordt een jas die precies om je heen sluit en – als je zelf persoonlijk ertegen wordt – de juiste woorden spreekt om je gezien te laten voelen.

Beide sporen leiden naar hyperpersoonlijke informatievoorziening, vervaging van grenzen tussen professioneel en persoonlijk gebruik, en nieuwe uitdagingen rond privacy, autonomie en informatieveiligheid.

LICHT OP DE SCHADUWZIJDES
Deze uitdagingen en risico’s vragen om nieuwe skills én scherpe alertheid. Immers, keerzijdes en beperkingen genoeg: niet alles wordt goed geïnterpreteerd, context ontbreekt soms, en misbruik of lekken liggen altijd op de loer. Kijk maar:

> INTERPRETATIEFOUTEN
De technologie is prachtig, maar absoluut niet feilloos. AI-systemen zoals ChatGPT en Copilot maken regelmatig interpretatiefouten, missen cruciale nuances en pakken context soms compleet verkeerd. Ik maak het elke dag mee. Sarcasme wordt letterlijk genomen, een stilte betekent plots instemming, stemmen raken verward of woorden worden verkeerd gehoord. Je herkent dit vast. Beperkingen als deze kunnen leiden tot verkeerde conclusies en adviezen die totaal niet passen bij de echte situatie.

> BEVEILIGINGSRISICO’S
Er ontstaan nieuwe kwetsbaarheden die verder gaan dan traditionele cybersecurity. Wat gebeurt er met al die persoonlijke data als systemen worden gehackt? Wie heeft binnen organisaties toegang? Hoe beveiligen we deze systemen tegen cyberaanvallen of misbruik door kwaadwillenden? Het risico op identiteitsdiefstal, chantage of manipulatie neemt exponentieel toe nu AI-systemen toegang krijgen tot zowel professionele als diep persoonlijke informatie. En dat al helemaal als je dat koppelt aan fake video en audio.

> COMPETENTIEVERLIES
Er ontstaat een nieuwe afhankelijkheid, bekend als ‘automation bias’. Als gebruikers eraan gewend raken dat AI op hun informatiebehoeften anticipeert, kunnen kritische denkvaardigheden en het zelfstandig zoeken, beoordelen en combineren van informatie flink verminderen. Juist nu deze vaardigheden belangrijker worden, dreigt er een achteruitgang in informatiegeletterdheid. Iedereen moet daar alert op zijn. Het is een mix van verslaving en gemakzucht. Ja, ook ik strijd daar soms dagelijks mee.

> AUTONOMIEVERLIES
Dit gaat nog een stapje verder: de voortdurende monitoring en analyse door intieme AI kan leiden tot een sluipende erosie van niet alleen privacy maar ook autonomie. Als systemen continu je gedrag observeren, voorkeuren voorspellen en keuzes beïnvloeden, rijst de vraag hoe vrij je beslissingen nog werkelijk zijn. Word je gestuurd door algoritmes die zeggen jouw belangen te dienen?

> FILTER BUBBLES EN INFORMATIEMANIPULATIE
Ik had het al over een heerlijk sluitende jas die je aantrekt: de hyperpersonalisatie van intieme AI kan filterbubbels en echo chambers versterken. AI-systemen presenteren informatie op basis van wat ze denken dat jij wilt horen of wat aansluit bij bestaande overtuigingen. En dat leidt weer tot vernauwing van perspectieven en minder blootstelling aan afwijkende standpunten. Dachten we dat sociale media tot vervreemding leidden …

REGELGEVING ALS COMPLICERENDE FACTOR
Hoog tijd voor duidelijke spelregels dus! En die zijn er ook al, maar de huidige regelgeving maakt het alleen maar ingewikkelder, vooral doordat juridische en ethische kaders rond intieme AI hopeloos achterlopen op de technologische realiteit. Of ze zijn te streng en ontmoedigend of juist te laks of onduidelijk. Organisaties en professionals opereren dan ook in een omgeving zonder heldere, passende richtlijnen of voorbeelden.

Regelgeving zoals de GDPR biedt wel enige bescherming, maar is niet ontworpen voor de complexiteit van AI-systemen die continu leren van persoonlijke data en patronen herkennen waarvan zelfs gebruikers zich niet bewust zijn. Hoe krijg je zinvolle toestemming voor systemen waarvan zelfs ontwikkelaars niet weten hoe data precies zullen worden gebruikt?

Informed consent (weten waar je ‘ja’ tegen zegt) wordt problematisch. AI-systemen combineren informatie uit verschillende bronnen en contexten. Hoe kun je bewust ‘oké’ klikken als je niet kunt overzien hoe data worden gebruikt, welke conclusies eruit worden getrokken of hoe die informatie toekomstige ervaringen beïnvloedt? Traditionele privacyverklaringen en toestemmingsformulieren schieten tekort bij moderne AI-systemen.

En hoe garandeer je transparantie bij AI-logica die zo complex is dat zelfs makers soms niet kunnen uitleggen waarom bepaalde beslissingen worden genomen? Het recht op uitleg uit privacywetgeving botst met de ‘black box’-realiteit van AI. Dit creëert spanning tussen wettelijke vereisten en technologische mogelijkheden.

ONZEKERHEID EN AARZELING
Een ander punt is grensoverschrijdende complexiteit: veel AI-diensten zijn globaal, wat de situatie verder compliceert. Als jouw data worden verwerkt op servers in verschillende landen, welke wet geldt dan? Hoe handhaaf je Europese privacyrechten bij Amerikaanse techbedrijven? Deze juridische puzzels maken compliance lastig. Oud nieuws. We hebben het al jaren aan de stok met Microsoft & Co over dit soort dingen, en nog steeds kunnen we niet zeker zijn dat ze zich aan de regels houden.

Daarnaast ontstaat in bepaalde sectoren spanning tussen voordelen van AI en privacybescherming. In de zorg kan AI levens redden, maar vereist dat zeer persoonlijke gegevens. In het onderwijs optimaliseert AI leerprocessen, maar creëert ze ook gedetailleerde profielen van kinderen. Dit vraagt een genuanceerde aanpak die huidige regelgeving vaak mist.

Onzekerheid alom. Niet voor niets zie je de aarzeling bij directies en managers als het om AI gaat. Wat is wijs? In het diepe springen of toch eerst voorzichtig één teen in het water? Niet voor niets blijft generieke AI bij zoveel organisaties onder de radar plaatsvinden, wachtend op beleid en training. <

‘Waar we vroeger actief moesten zoeken, catalogiseren en structureren, neemt AI nu zelf initiatief: ze observeert, begrijpt en anticipeert’

‘Dit is wat intieme AI onderscheidt: contextgevoelige, proactieve technologie die met jou meeleeft in het moment’

‘De rol van informatie verschuift van iets dat we zoeken naar iets dat ons vindt en bedient’

Onderzoek toont aan dat gebruikers zich emotioneel verbonden voelen met AI en haar gebruiken voor reflectie en persoonlijke groei’

‘Keerzijdes genoeg, want: niet alles wordt goed geïnterpreteerd, context ontbreekt soms, en misbruik of lekken liggen altijd op de loer’

‘Gebruikers ervaren AI als empathisch, beschikbaar en oordeelvrij, eigenschappen die traditionele informatiesystemen niet kunnen bieden’

‘Er dreigt een achteruitgang in informatiegeletterdheid. Iedereen moet daar alert op zijn. Het is een mix van verslaving en gemakzucht’

‘De huidige regelgeving maakt het alleen maar ingewikkelder, doordat juridische en ethische kaders rond intieme AI achterlopen op de realiteit’

IP | vakblad voor informatieprofessionals | 05 / 2025

SIMON BEEN

AI IN HET INFORMATIEDOMEIN (16): THEORIE       

Deel 16
artikelenserie over kunstmatige intelligentie

Intieme AI
– kent jou beter
dan jijzelf

Simon Been
Directeur van het Papieren Tijger Netwerk en spreker/trainer/auteur over AI in het informatiedomein

Wat is de impact van AI op het informatiedomein? In deze artikelenreeks wordt ingegaan op veranderingen in de organisatieprocessen, de informatieprofessie en het persoonlijke informatiewerk ten gevolge van kunstmatige intelligentie. Aflevering 16 bestaat uit twee delen – theorie en praktijk – die beide draaien om intieme AI: systemen die actief meeluisteren, meedenken en voorspellen zonder dat je daar altijd zicht op hebt. In dit deel de theorie, inclusief schaduwzijdes en gevolgen voor de klassieke informatiedienstverlening.

Stel je dit eens voor (en ja, dit gebeurt echt): je interne klant zat vorige week in een meeting over project Kwaliteit en probeert nu een saillant detail terug te vinden dat besproken is en wie de spreker was. Ze herinnert zich nog vaag het onderwerp, maar meer ook niet. Gaat ze de vergadernotulen doorspitten? Vindt ze het daarin?

Overbodig. Haar AI weet het al. De microfoon stond aan, zoals altijd. De bijeenkomst werd automatisch getranscribeerd, de stem herkend, het tijdstip gelogd en alles gekoppeld aan haar agenda en het juiste projectdossier. Ze vraagt gewoon: ‘Wie sprak vorige week over project Kwaliteit?’ en krijgt meteen antwoord. Geen handmatig zoeken, geen menselijke tussenkomst nodig. En het verrassende? Dit gesprek was niet tijdens, maar ná de vergadering. In de officiële notulen had ze het nooit gevonden.

Dit voorbeeld laat zien dat er meer aan de hand is dan alleen een technologische ontwikkeling. Het toont een fundamentele verschuiving in hoe informatie ons bereikt. Waar we vroeger actief moesten zoeken, catalogiseren en structureren, neemt AI nu zelf initiatief: ze observeert, begrijpt en anticipeert. De rol van informatie verschuift van iets dat we zoeken naar iets dat ons vindt en bedient.

BEGIN VAN EEN TIJDPERK
Dat AI ogen en oren krijgt is natuurlijk niet nieuw. Wat wel opvalt is hoe snel het nu gaat en hoe dichtbij het komt. Ook privé. Misschien herken je het: tijdens een wandeling luister je muziek via je oortjes. Plots hoor je de vraag of je bezig bent met een wandelwork-out. Je hoeft niets aan te raken, niets te zeggen, geen mobiel uit je zak te halen of je smartwatch uit je mouw te schudden, alleen even met je hoofd te knikken. De work-out start vanzelf.

Ook dit laatste is geen sciencefiction. Dit gebeurt nu al, bij mij bijna dagelijks. De combinatie van AI, sensoren in je oortjes en bewegingsdetectie via smartphone of smartwatch maakt het mogelijk. Jouw apparaat snapt je intentie zonder dat je die expliciet hoeft uit te spreken. Dit is wat intieme AI onderscheidt: contextgevoelige, proactieve technologie die met jou meeleeft in het moment.

Deze voorbeelden – professioneel én persoonlijk – laten zien hoe AI steeds meer verweven raakt met dagelijkse routines, lichamelijke signalen en beslissingen. We bedienen deze technologie niet alleen; zij bedient óns. Ze anticipeert, adviseert en voelt intuïtief aan wat we nodig hebben. We staan aan het begin van het tijdperk van intieme AI. En dat heeft consequenties.

HARDWARE EN WETGEVING
Waarom nu? Ineens wordt de infrastructuur van intieme AI rijp in 2025. Een paar voorbeelden:

> Apple introduceerde in 2024 Apple Intelligence, waarbij de AI met toestemming toegang krijgt tot agenda, foto’s, bestanden, berichten en meer. Siri wordt gaandeweg vervangen door een contextgevoelige AI die documenten samenvat, apps aanstuurt en content herschrijft; met optionele toegang tot ChatGPT (alleen buiten de EU, zie kader). En op 9 juni dit jaar ging het nog een stap verder met AI én intieme AI.

> Google Gemini op Android 15 biedt contextgevoelige AI-functies, inclusief spraakgestuurde app-aansturing en samenvattingen van je scherm of e-mails.

> Meta AI breidt zich uit naar slimme brillen die gesprekken opnemen, interpreteren en combineren met visuele input. De AI-functionaliteit is oppervlakkig.

> OpenAI & Jony Ive werken aan een fysiek AI-device dat bedoeld is als natuurlijke interface op basis van zintuiglijke input: audio, visueel, omgevingsdata.

Deze trend wordt versterkt door nieuwe Europese wetgeving, met name de Digital Markets Act (DMA), die sinds maart 2024 van kracht is. DMA verplicht zogeheten ‘gatekeepers’ zoals Apple, Google en Meta om hun ecosystemen open te stellen. Dat betekent onder meer:

> API’s en hardwarefuncties (zoals locatie, sensoren) moeten op gelijke voet worden gedeeld.

> Een bedrijf als Apple mag geen voorkeursbehandeling meer geven aan eigen apps.

> Andere assistenten dan Siri mogen op je iPhone worden ingesteld als standaard.

Op het eerste gezicht geweldig: stel je voor dat ChatGPT Siri zou kunnen vervangen! Aan de andere kant krijgen ook onbetrouwbare of minder transparante partijen, zoals Meta, toegang tot hardware die ontworpen was met privacy als kernwaarde. Ongeacht de intenties daarvan en de resulterende privacyconsequenties. Apple kan dit wettelijk niet blokkeren. De voortekenen zijn niet gunstig (zie kader).

DIEPERE DUIK IN INTIEME AI
Terug naar het voorbeeld van het werk: AI registreert, begrijpt en reflecteert. De recente lancering van Record Mode in ChatGPT Team (juni 2025) maakt dit heel concreet en toegankelijk voor iedere professional. Gesprekken van maximaal 120 minuten – vergaderingen, brainstormsessies, persoonlijke notities – worden automatisch getranscribeerd, samengevat (inclusief actiepunten en tijdstempels) en bewerkbaar opgeslagen.

De eerste reacties? Privacybezwaren. Logisch. Geruststellende garanties van OpenAI worden kritisch bekeken, vooral omdat meteen ook zogeheten ‘connectors’ beschikbaar kwamen. Deze koppelingen met clouddiensten als Google Drive en Box vergroten het risico op datalekken en maken het moeilijker om controle te houden over wie precies toegang heeft tot je gegevens.

ACTIEVE INTERPRETATIE
De verleiding is echter groot. Praktische voordelen zijn direct merkbaar en fundamenteel anders dan traditionele opnamemethoden. Zelf gebruik ik een draagbaar apparaatje, de Pendant van Limitless, dat in essentie hetzelfde doet. Ik neem er Teams-overleggen mee op, maar ook ideeën of spontane gedachten tijdens wandelingen of andere momenten waarop typen lastig is. De kracht zit hem niet alleen in de opname, maar vooral in wat daarna gebeurt: je kunt daadwerkelijk overleggen met de AI over je opnames. Je vraagt bijvoorbeeld:

> Hoe heette de tweede spreker, vorige week?
> Heb ik net mijn punt helder gemaakt of moet dat anders?
> Welke taken staan er nog open?
> Welke argumenten werden tegen mijn voorstel ingebracht?
> Hoe was de stemming tijdens het bespreken van het budget?
> Welke vragen bleven onbeantwoord?

Dit gaat verder dan slimme transcriptie. Dit is AI die luistert, onthoudt, samenvat en zelfs terugpraat. Ze begrijpt niet alleen wat er wordt gezegd, maar registreert ook hoe, door wie en in welke context. En dat inclusief nuances van stemming en toon. De manier waarop we informatie verwerken verandert hiermee radicaal. We gaan van passieve registratie naar actieve interpretatie. AI wordt deelnemer in het informatieproces, niet alleen hulpmiddel. Zij analyseert, contextualiseert en genereert inzichten die verder gaan dan wat expliciet is uitgesproken.

DE BASIS: DATA EN VERTROUWEN
De opkomst van intieme AI kent in mijn ogen twee elkaar versterkende sporen die traditioneel informatiewerk veranderen en bovendien nieuwe vragen oproepen over privacy, autonomie en technologie in ons professionele én privéleven. Het eerste spoor zagen we al in voorbeelden: verwerking van persoonlijke, contextuele data zoals locatie, spraak, hartslag, agenda en apps. AI leert je gedrag kennen en anticipeert op je behoeften, stemming en routines. Ze bouwt zo geleidelijk een steeds gedetailleerder profiel op van wie je bent, hoe je werkt, wat je beweegt en wanneer je het meest productief bent. Creepy? Ja. Nieuw? Niet echt. Het is een combi van Netflix, Amazon, Facebook en de Ring-videobel van je buren, en dan ‘on steroids’. Niet voor niets dat al die dataschrapers ook in AI duiken.

Het tweede spoor: AI als vertrouwenspersoon. We weten al dat AI steeds vaker wordt gebruikt als gesprekspartner, sparringpartner en psychologische steun. Onderzoek toont aan dat gebruikers zich emotioneel verbonden voelen met AI en haar gebruiken voor reflectie en persoonlijke groei. Mensen delen gedachten, zorgen, ambities en persoonlijke struggles met AI-systemen op een manier die eerder voorbehouden was aan vrienden, familie of therapeuten. Die interpersoonlijke contacten nemen dan ook af.

HYPERPERSOONLIJKE INFORMATIEVOORZIENING
Deze ontwikkeling gaat zoveel verder dan de traditionele superfeitelijke interactie met informatiesystemen. AI wordt niet alleen geraadpleegd voor ‘data’, maar ook voor advies en steun bij complexe emotionele kwesties. Gebruikers ervaren AI als empathisch, beschikbaar en oordeelvrij, eigenschappen die traditionele informatiesystemen niet kunnen bieden. En dit fenomeen is groter dan je misschien denkt. Ik zie het ook in mijn eigen relatiekring: de AI wordt een jas die precies om je heen sluit en – als je zelf persoonlijk ertegen wordt – de juiste woorden spreekt om je gezien te laten voelen.

Beide sporen leiden naar hyperpersoonlijke informatievoorziening, vervaging van grenzen tussen professioneel en persoonlijk gebruik, en nieuwe uitdagingen rond privacy, autonomie en informatieveiligheid.

LICHT OP DE SCHADUWZIJDES
Deze uitdagingen en risico’s vragen om nieuwe skills én scherpe alertheid. Immers, keerzijdes en beperkingen genoeg: niet alles wordt goed geïnterpreteerd, context ontbreekt soms, en misbruik of lekken liggen altijd op de loer. Kijk maar:

> INTERPRETATIEFOUTEN
De technologie is prachtig, maar absoluut niet feilloos. AI-systemen zoals ChatGPT en Copilot maken regelmatig interpretatiefouten, missen cruciale nuances en pakken context soms compleet verkeerd. Ik maak het elke dag mee. Sarcasme wordt letterlijk genomen, een stilte betekent plots instemming, stemmen raken verward of woorden worden verkeerd gehoord. Je herkent dit vast. Beperkingen als deze kunnen leiden tot verkeerde conclusies en adviezen die totaal niet passen bij de echte situatie.

> BEVEILIGINGSRISICO’S
Er ontstaan nieuwe kwetsbaarheden die verder gaan dan traditionele cybersecurity. Wat gebeurt er met al die persoonlijke data als systemen worden gehackt? Wie heeft binnen organisaties toegang? Hoe beveiligen we deze systemen tegen cyberaanvallen of misbruik door kwaadwillenden? Het risico op identiteitsdiefstal, chantage of manipulatie neemt exponentieel toe nu AI-systemen toegang krijgen tot zowel professionele als diep persoonlijke informatie. En dat al helemaal als je dat koppelt aan fake video en audio.

> COMPETENTIEVERLIES
Er ontstaat een nieuwe afhankelijkheid, bekend als ‘automation bias’. Als gebruikers eraan gewend raken dat AI op hun informatiebehoeften anticipeert, kunnen kritische denkvaardigheden en het zelfstandig zoeken, beoordelen en combineren van informatie flink verminderen. Juist nu deze vaardigheden belangrijker worden, dreigt er een achteruitgang in informatiegeletterdheid. Iedereen moet daar alert op zijn. Het is een mix van verslaving en gemakzucht. Ja, ook ik strijd daar soms dagelijks mee.

> AUTONOMIEVERLIES
Dit gaat nog een stapje verder: de voortdurende monitoring en analyse door intieme AI kan leiden tot een sluipende erosie van niet alleen privacy maar ook autonomie. Als systemen continu je gedrag observeren, voorkeuren voorspellen en keuzes beïnvloeden, rijst de vraag hoe vrij je beslissingen nog werkelijk zijn. Word je gestuurd door algoritmes die zeggen jouw belangen te dienen?

> FILTER BUBBLES EN INFORMATIEMANIPULATIE
Ik had het al over een heerlijk sluitende jas die je aantrekt: de hyperpersonalisatie van intieme AI kan filterbubbels en echo chambers versterken. AI-systemen presenteren informatie op basis van wat ze denken dat jij wilt horen of wat aansluit bij bestaande overtuigingen. En dat leidt weer tot vernauwing van perspectieven en minder blootstelling aan afwijkende standpunten. Dachten we dat sociale media tot vervreemding leidden …

REGELGEVING ALS COMPLICERENDE FACTOR
Hoog tijd voor duidelijke spelregels dus! En die zijn er ook al, maar de huidige regelgeving maakt het alleen maar ingewikkelder, vooral doordat juridische en ethische kaders rond intieme AI hopeloos achterlopen op de technologische realiteit. Of ze zijn te streng en ontmoedigend of juist te laks of onduidelijk. Organisaties en professionals opereren dan ook in een omgeving zonder heldere, passende richtlijnen of voorbeelden.

Regelgeving zoals de GDPR biedt wel enige bescherming, maar is niet ontworpen voor de complexiteit van AI-systemen die continu leren van persoonlijke data en patronen herkennen waarvan zelfs gebruikers zich niet bewust zijn. Hoe krijg je zinvolle toestemming voor systemen waarvan zelfs ontwikkelaars niet weten hoe data precies zullen worden gebruikt?

Informed consent (weten waar je ‘ja’ tegen zegt) wordt problematisch. AI-systemen combineren informatie uit verschillende bronnen en contexten. Hoe kun je bewust ‘oké’ klikken als je niet kunt overzien hoe data worden gebruikt, welke conclusies eruit worden getrokken of hoe die informatie toekomstige ervaringen beïnvloedt? Traditionele privacyverklaringen en toestemmingsformulieren schieten tekort bij moderne AI-systemen.

En hoe garandeer je transparantie bij AI-logica die zo complex is dat zelfs makers soms niet kunnen uitleggen waarom bepaalde beslissingen worden genomen? Het recht op uitleg uit privacywetgeving botst met de ‘black box’-realiteit van AI. Dit creëert spanning tussen wettelijke vereisten en technologische mogelijkheden.

ONZEKERHEID EN AARZELING
Een ander punt is grensoverschrijdende complexiteit: veel AI-diensten zijn globaal, wat de situatie verder compliceert. Als jouw data worden verwerkt op servers in verschillende landen, welke wet geldt dan? Hoe handhaaf je Europese privacyrechten bij Amerikaanse techbedrijven? Deze juridische puzzels maken compliance lastig. Oud nieuws. We hebben het al jaren aan de stok met Microsoft & Co over dit soort dingen, en nog steeds kunnen we niet zeker zijn dat ze zich aan de regels houden.

Daarnaast ontstaat in bepaalde sectoren spanning tussen voordelen van AI en privacybescherming. In de zorg kan AI levens redden, maar vereist dat zeer persoonlijke gegevens. In het onderwijs optimaliseert AI leerprocessen, maar creëert ze ook gedetailleerde profielen van kinderen. Dit vraagt een genuanceerde aanpak die huidige regelgeving vaak mist.

Onzekerheid alom. Niet voor niets zie je de aarzeling bij directies en managers als het om AI gaat. Wat is wijs? In het diepe springen of toch eerst voorzichtig één teen in het water? Niet voor niets blijft generieke AI bij zoveel organisaties onder de radar plaatsvinden, wachtend op beleid en training. <

PRIVACYPARADOX: DE VOORDEUR MOET OPEN

De Digital Markets Act (DMA) verplicht big tech om hun gesloten ecosystemen open te stellen. Apple moet in Europa toestaan dat andere assistenten – zoals die van Google, Meta of OpenAI – dezelfde toegang krijgen tot hardware, systeeminstellingen en persoonlijke data als Siri. Op 3 juni 2025 bracht de NOS dit scherp in beeld: ‘Facebook en Instagram gebruiken een spionagetrucje op Android-telefoons.’ Onderzoekers ontdekten dat Meta via verborgen code gebruikers alsnog blijft volgen, ook na expliciete weigering. Het zoveelste Meta-schandaal. En juist dit bedrijf mag straks, ‘dankzij’ de DMA-regelgeving, integreren met jouw mobiel. Apple mag dat niet blokkeren, al is het hun toestel, is het hun OS en zijn het jouw data.

De iPhone-maker heeft hiertegen bezwaar aangetekend bij de Europese Commissie, onder verwijzing naar structurele risico’s voor gebruikersprivacy (bron: Reuters, 2 juni 2025). Meta heeft intussen al meer interoperabiliteitsverzoeken ingediend bij Apple dan enig ander bedrijf, waarbij toegang wordt gevraagd tot diepgaande functies van iPhones en iPads, inclusief gebruikersberichten, e-mails, telefoongesprekken, appgebruik, foto’s, bestanden, agenda-evenementen en zelfs opgeslagen wachtwoorden. De strijd om intieme AI is al in volle hevigheid gaande. Vanwege dit soort ontwikkelingen besloot Apple al eerder om diverse AI-functionaliteiten niet in Europa uit te brengen. Is openheid echt belangrijker dan gebruiksgemak en privacy?

IP | vakblad voor informatieprofessionals | 05 / 2025