AI IN HET INFORMATIEDOMEIN (10)       SIMON BEEN

Deel 10
artikelenserie over kunstmatige intelligentie

Waarom AI zo 
controversieel is

Simon Been
Directeur van het Papieren Tijger Netwerk en spreker/trainer/auteur over AI in het informatiedomein

Wat is de impact van AI op het informatiedomein? In een reeks artikelen wordt ingegaan op veranderingen in de organisatieprocessen, de informatieprofessie en het persoonlijke informatiewerk ten gevolge van kunstmatige intelligentie. Dit is het tiende deel met focus op de keerzijdes van AI en raakvlakken daarvan met de informatieprofessie.

AI is een controversieel onderwerp. Dat is wel duidelijk. De roep om wetgeving, normen, een soort huishoudelijk reglement is sterk en luid. Zowel op het niveau van landen als binnen organisaties, gezinnen en zelfs je eigen geweten. Het is lastig om vergelijkingen te maken met andere ontwikkelingen die zo snel, invloedrijk en controversieel zijn. 

Deze reeks over AI focust doorgaans op alle mogelijkheden en voordelen, maar laten we nu eens kijken wat de verschillende kanttekeningen zijn. Erg moeilijk is het niet om materiaal hiervoor te verzamelen. Er zijn genoeg studies en sites die compleet gewijd zijn aan dit onderwerp. Wetenschappelijk onderbouwde informatie is beschikbaar én wordt gaandeweg ook bijgesteld, want elke ontwikkeling van AI leidt weer tot nieuwe inzichten. Daarmee raken we al een van de problematische kanten van dit onderwerp. Je kunt over AI een mening vormen, een wet instellen of reglementen afspreken, en een paar maanden of zelfs dagen later blijkt dat de werkelijkheid toch weer is veranderd. Technologie kun je niet vatten in harde hokjes zonder lachwekkende en serieuze consequenties. Er zijn dus de nodige kanttekeningen te plaatsen bij de kanttekeningen.

Niettemin is het de moeite waard de nu geopperde risico’s en valkuilen eens goed in het licht te zetten en misschien hier en daar wat te nuanceren. Elk van deze keerzijdes raakt namelijk aan de informatieprofessie. Informatieprofessionals fungeren tenslotte als essentiële poortwachters die de integriteit, vertrouwelijkheid en beschikbaarheid van informatie binnen de organisatie waarborgen.

WAAR HEEFT AI IMPACT?
Generatieve AI uit zich op verschillende gebieden. We hebben de ongestructureerde informatie, de harde data, beeldmateriaal, film, geluid, en dan zijn er nog beweging, denk aan robots, en een relatief nieuwe variant: agents.

De eerstgenoemde ‘ongestructureerde informatie’ is geen gebruikelijke term in alle populaire AI-verhalen. Toch zit in mijn ogen de belangrijkste – in ieder geval voor het vakgebied – potentie van AI in het gebruik voor ‘informatie uit informatie’. Dan hebben we het over al die verschillende toepassingen die zijn langsgekomen in deze reeks artikelen. Van het maken van samenvattingen tot het gebruiken van AI als sparringpartner, researchassistent, inspirator en schrijfassistent. En businesscases zoals AI voor tekstherkenning en extractie, metadatering, vernietiging, zoeken en ontsluiten, en government.

INFORMATIE UIT INFORMATIE
Informatie uit informatie halen is al spannend, het feit dat AI een virtuele mond en oren krijgt, biedt een extra dimensie. Als je AI als sparringpartner wilt gebruiken en je hoeft niet eens meer te tikken en zelfs te lezen, maar je kunt ‘gewoon’ met een intelligente, virtuele collega of vriend in gesprek gaan, dan verandert de manier waarop wij werken en al helemaal de manier waarop wij met informatie omgaan fundamenteel. Ik roep het al een jaar: we gaan van ‘zoek en vind’ naar ‘vraag en antwoord’, en eigenlijk gaan we al een stukje verder dan dat. Het is nu al te voorzien dat er een moment komt waarop we zo kunnen vertrouwen op dat antwoord dat het niet meer nodig is om de onderliggende vastgestelde documenten erbij te krijgen. Creepy? Zeker!

Het kan nog wel een tijdje duren, maar helder is wel dat de technologische ontwikkeling die kant opgaat. Of die mate van foutloosheid te realiseren is en, belangrijker nog, of dat op zo’n veilige manier mogelijk is dat het systeem niet kan worden gecorrumpeerd, is natuurlijk nog maar de vraag. Net zoals de vraag is wie dat alomvattende systeem kan en mag beheren.

BEWEGEND BEELD
Laten we kijken naar de opmerkelijkste en populairste toepassingen van AI en de kanttekeningen daarbij. Sommige risico’s en gevaren zijn overkoepelend, zoals betrouwbaarheid, ethiek en milieu (vooral het enorme gebruik van water en elektriciteit), en andere meer specifiek van aard.

Eerst bewegend beeld. We kennen allemaal de filmpjes die worden getoond tijdens late night shows of op sociale media. Denk aan de prachtige, supergedetailleerde scifi-beelden van futuristische ruimteschepen die door het luchtledige glijden (zie video). Kunstmatige intelligentie kan ongelooflijk veel met beeldgeneratie, maar op dit moment weet het vaak niet wat het doet. Het is als de baby die haar knuffel achter een pilaar ziet verdwijnen en nog niet weet dat die enkele seconden later aan de andere kant van de pilaar weer tevoorschijn komt. De diepere logica ontbreekt hier, en dat is een grote kanttekening, maar het is ook een kwestie van tijd dat ze het wel weet. Als je naar de nieuwste versie van ChatGPT kijkt, werkt die logica wat betreft teksten al opmerkelijk goed.

Wat zijn de belangrijkste kanttekeningen bij beeldgeneratie door AI?
> Kosten: beeld- en 3D-verwerking en met name videoprocessing vereisen veel rekenkracht en gespecialiseerde hardware, wat leidt tot hoge operationele kosten en energieverbruik.
> Bias: trainingsdatasets die onvoldoende divers zijn, kunnen leiden tot bevooroordeelde AI-systemen, met name voor bepaalde demografische groepen.
> Misinformatie en deepfakes: AI kan worden misbruikt om overtuigende maar valse beelden te creëren, wat kan leiden tot reputatieschade en verspreiding van misinformatie.
> Auteursrecht en ethiek: gebruik van beschermde of private afbeeldingen en modellen zonder toestemming kan juridische implicaties hebben en/of gewetensbezwaren oproepen.

STILSTAAND BEELD
Voor het stilstaande beeld geldt ongeveer hetzelfde. Van dichtbij weet ik dat het maken van overtuigende creaties via AI soms ongelooflijk makkelijk is. Maar ik weet ook dat het échte werk op dit moment nog behoorlijk arbeidsintensief is, omdat het prompten van kunstzinnig beeldmateriaal een vak op zich is geworden, waarbij de nodige kennis van verschillende modellen, stijlen en termen en de vaardigheid van het werken daarmee belangrijke factoren zijn. Toch geldt ook hier: het is opmerkelijk hoe snel en goed de mainstream AI’s hierin worden, zonder strikte promptstructuren. 

Waarom is dit onderwerp zo belangrijk? Omdat we niet meer weten wanneer het echt is: een authentieke vastlegging van een foto of een authentiek kunstwerk van die ene kunstenaar. En het wordt al helemaal spannend nu het mogelijk is om gewoon op je mobieltje foto’s die wél authentiek zijn aan te passen. Er is het laatste decennium al heel wat geknutseld met Photoshop, maar deze mate van gebruiksgemak, snelheid en professionaliteit is een totaal nieuwe dimensie. Denk alleen al aan al het historische beeldmateriaal en met name nieuw materiaal inclusief persfoto’s dat geacquireerd en ontsloten gaat worden. Interessant genoeg gaat zo de rol van metadata toenemen, maar ook kunnen nieuwe standaarden en schema’s nodig worden voor indexeren en catalogiseren, en nieuwe tools om authenticiteit te verifiëren. Daarnaast neemt het belang toe van bescherming van opgeslagen beelden tegen manipulatie.

DATA EN CODE
Dan hebben we natuurlijk de data. Welke toegevoegde waarde heeft AI daar? Dat is indrukwekkend. Het wordt een stuk makkelijker om je Excel-sheet of je database in een AI te ‘gooien’ en die te bevragen over conclusies en grafieken. Hetzelfde geldt voor programmeren. AI’s zijn in staat op basis van jouw (gesproken) woord zelfstandig programma’s – code – te schrijven, ook complexe, en die zelfstandig of na wat aanmoediging te tunen, inclusief het ontwikkelen van een gebruikersinterface. Gevestigde softwarebedrijven voorspellen dat over drie jaar het meeste programmeerwerk door AI gebeurt.
De keerzijdes?
> Context: Excel-sheets en databases missen vaak de context die nodig is voor diepgaand begrip, wat kan leiden tot misleidende conclusies.
> Kwaliteit: fouten in harde data kunnen worden versterkt door AI, en gegenereerde code kan onvoldoende gedocumenteerd en daardoor lastig te onderhouden zijn.
> Overschatting: focus op harde data kan belangrijke kwalitatieve aspecten over het hoofd zien.
> Privacy: gestructureerde data kunnen gevoelige informatie bevatten die goed moet worden beschermd.
> Regelgeving en compliance: veranderingen in wetgeving kunnen invloed hebben op hoe harde data mogen worden verzameld, opgeslagen en geanalyseerd. En gegenereerde code kan plagiaat lijken of zijn.
> Fouten en aansprakelijkheid: door AI gegenereerde code kan fouten en inefficiënties bevatten die moeilijk te detecteren zijn of die zelfs beveiliging kunnen compromitteren. Wie is dan aansprakelijk?
Daarnaast kunnen bij coding de bekende problemen van bias en ethiek een rol spelen, plus de verwachting dat automatische codegeneratie leidt tot vermindering van de vraag naar menselijke programmeurs – met alle sociale implicaties van dien. Aan de andere kant kunnen gewone stervelingen zoals informatieprofessionals nu ook complexe data-analyses en scripts laten uitvoeren.

SPRAAK
Spraak en geluid zijn al een paar keer aan de orde geweest, vooral als het gaat om de persoonlijke interactie voor je persoonlijke vragen, maar het gaat veel verder. AI’s kruipen steeds meer in de richting van het overnemen van het callcenter, van de digitale (of zelfs persoonlijke) vraagbaak, van het interne intranet en, ja, ook het telefonische salesteam komt meer en meer onder druk.

De opkomst van sociale media was al een hele uitdaging voor informatiebeheer – wat doe je met al die sms’jes en appjes? – maar nu zal spraak een nieuwe factor worden. Medewerkers gaan hun AI bevragen en ermee sparren, en al die informatie en gedachtenprocessen kunnen terechtkomen in beleidsvoorstellen en andere documenten. Moet dat worden geregistreerd en beheerd, en hoe? Dat is al een vraagstuk op zich, maar wat als er sprake is van gesproken conversaties met de AI? Hoe dan om te gaan met beheer en ontsluiting?

Wat zijn belangrijke kanttekeningen bij spraak en communicatie door AI?
> Nauwkeurigheid: AI-systemen kunnen moeite hebben met verschillende accenten, dialecten en talen en met omgevingsgeluid en slechte opnamekwaliteit.
> Privacy en ethiek: opnemen en analyseren van audio zonder toestemming schenden privacywetten en ethische normen, en emotieherkenning uit stemgeluid kan worden ervaren als inbreuk op de persoonlijke ruimte.
> Misbruik: AI kan worden gebruikt om stemmen te synthetiseren, wat kan leiden tot fraude en identiteitsdiefstal.
Wat doe je als informatieprofessional als je zowel de spraakopname als het transcript krijgt en weet dat er fouten in dat transcript (kunnen) zitten? De hoeveelheid van dit soort bestanden kan exponentieel gaan toenemen. Is dat ongestructureerde informatie of data? En zoals steeds: hoe verifieer en bescherm je die?

BEWEGING (ZOALS ROBOTS)
We kennen de filmpjes van Boston Dynamics: de soms vervaarlijk ogende robots die acrobatische kunsten uithalen, maar ook de vooral Chinese robots die niet van mensen te onderscheiden zijn, of de autonome Israëlische attack drones. De belangrijkste factor in deze doorbraken is AI. Dit punt gaat echter verder: surveillancecamera’s en zelfrijdende voertuigen maar ook protheses en chirurgische scalpels kunnen met grote precisie worden bewogen en gericht en intelligent hun kunsten vertonen. En vergeet niet de logistieke systemen (bijvoorbeeld in magazijnen) en hun mogelijke toepassingen binnen grote bibliotheken en archieven. 

Ook hier zijn er de nodige risico’s en kanttekeningen:
> Veiligheid: fouten in AI die beweging aansturen kunnen leiden tot fysieke schade of letsel, vooral in dynamische omgevingen omdat die uitdagend zijn voor AI.
> Privacy: robots (eigenlijk alles met sensoren) kunnen data verzamelen zonder medeweten of toestemming.
> Datagovernance: beheer van grote hoeveelheden data die door deze systemen worden gegenereerd.
De vraag is welke rol de informatieprofessie hierin heeft. Wie gaat incidenten documenteren en archiveren of protocollen daarvoor ontwikkelen en waarborgen dat de opgeslagen data voldoen aan de AVG?

AGENTS
Er komt steeds meer aandacht voor AI-agenten, of butlers. Een voorproefje: stel je voor dat je een project wilt uitvoeren. Normaal heb je daarvoor een aantal teams die aan de slag gaan met een eigen taakstelling. Dat kun je ook je AI vragen om te doen door hem verschillende petten te laten opzetten: hij zet dan enkele teams (een soort mini-AI-personas) aan het werk met deelvragen, en als elk team eenmaal resultaten heeft, laat hij deze door de AI-stuurgroep tot een geheel smeden. Zo’n aanpak leidt bij complexe vraagstukken normaliter tot betere resultaten.

In bovenstaand voorbeeld zijn al die personas aan de gang binnen die ene AI, maar dat kan ook buiten de AI. Een lonkend voorbeeld: vraag Siri of Alexa om een reis te boeken of een taxi te bellen via internet of via een app op je mobiel. Dat is nog vrij eenvoudig, maar het kunnen ook complexere taken zijn. Want als je op reis wilt, wil je misschien ook ergens overnachten et cetera, activiteiten die qua agenda op elkaar afgestemd moeten zijn. Het idee is: alles wat je online of telefonisch kunt regelen, kan in beginsel een AI voor je uitvoeren door vertegenwoordigers voor jou op pad te sturen het internet in. Dat is de nieuwste rage in AI-land: agents. Het idee leeft al tientallen jaren, maar de eerste praktische voorbeelden zijn er inmiddels, zij het met de nodige hiccups.

Wat zijn belangrijke kanttekeningen bij agents?
> Autonomie: autonome agents kunnen beslissingen nemen zonder menselijke tussenkomst. Hoe controleer je dat?
> Aansprakelijkheid en misbruik: wie is verantwoordelijk? Agents kunnen worden ingezet om misleidende informatie te verspreiden.
> Beveiligingsrisico’s: agents kunnen kwetsbaar zijn voor hacking en manipulatie.
> Transparantie: gebrek aan inzicht in gedrag van agents kan leiden tot wantrouwen.
Dit is niet iets waar je morgen al intern mee te maken krijgt, maar het interessante is dat deze agents ongetwijfeld door de buitenwereld gaan worden gebruikt, dus gaan communiceren met jouw organisatie. Dat is al helemaal van belang als zo’n agent zich voordoet als iemand anders. Sowieso geldt natuurlijk: wat gebeurt er met de informatie uit en over deze conversaties en interacties?

ONGESTRUCTUREERDE INFORMATIE
Dan komen we bij de ongestructureerde informatie zelf. Niet voor niets is dit het laatste onderwerp, want laten we eerlijk zijn: informatie is de moeder van al deze mogelijke toepassingen. Er zijn ruwweg twee soorten informatie: informatie die wordt gebruikt om de intelligentie van de AI op te kweken – hem te leren denken – waardoor het de mogelijkheid krijgt om allerlei verbanden te leggen, te weten wat voor soort parameters van belang zijn, hoe logica werkt, et cetera. En informatie waaruit tijdens een chat daadwerkelijk inhoudelijk wordt geput – de kennis.

Misschien is het goed om voor ‘denken’ en ‘kennis’ dezelfde informatie te gebruiken, maar misschien ook nadrukkelijk niet. Als je een overheidsorganisatie bent en je moet sec gebruikmaken van documenten die zijn vastgesteld, dan zijn het die documenten waaruit moet worden geput als er een antwoord komt, en niet alle informatie van het internet. Gelukkig kan dat zoeken in die betrouwbare interne informatie en dat geven van een antwoord ook gebeuren met een generiek AI-model. 

Kanttekeningen bij AI voor ongestructureerde informatie:
> Complexiteit van interpretatie: de geavanceerde AI-algoritmes kunnen leiden tot fouten en misinterpretaties.
> > Bias en vooringenomenheid: ook kunnen impliciete biases in de ongestructureerde informatie door AI worden versterkt.
> Privacyrisico’s: verwerking kan onbedoeld gevoelige informatie blootleggen, met risico’s voor privacy en naleving van regelgeving zoals de AVG.
> Schaalbaarheid en opslag: grote hoeveelheden informatie vergen veel opslagruimte en rekenkracht, wat kosten en milieubelasting verhoogt.
> Datakwaliteit en consistentie: variërende kwaliteit en inconsistenties in ongestructureerde data kunnen de prestaties van AI negatief beïnvloeden.
Hier wordt het echt menens. De rol van informatieprofessionals blijft niet beperkt tot ethische en juridische richtlijnen die moeten worden geïmplementeerd of grote opmerkzaamheid en betrokkenheid bij de kwaliteit van de informatie. Informatieprofessionals zijn de gatekeepers voor de informatie van en voor de organisatie die de integriteit, vertrouwelijkheid en beschikbaarheid van die informatie waarborgen. Het is dus essentieel om niet blind te vertrouwen op de AI en ICT en goed te weten wat de mogelijkheden en beperkingen zijn, en vooral ook om daarover de eigen stem binnen de organisatie te laten horen. Hoe? Dat is een onderwerp voor een apart artikel.

TOT SLOT: MOET DIT ECHT ALLEMAAL?
Nu komen we op een nog dieper (volstrekt hypothetisch) vraagstuk. Stel je nou voor dat wij als Europese samenleving zeggen: ‘Dit willen we gewoon niet. Kunstmatige intelligentie mag ons helpen met bepaalde dingen, binnen bepaalde grenzen, maar meer niet.’ Hoe zou het dan gaan? En wat als wij die stappen niet nemen, en Amerika en China bijvoorbeeld wel, en dat onze brains op dit gebied liever naar het buitenland gaan. Wat zou dat doen met onze concurrentiepositie, en met onze kwetsbaarheid?

Het is dus niet de vraag of AI stoppen of knevelen wel of niet moet. De vraag is: hoe gaan we op een verstandelijke, maar ook flexibele manier om met dit vraagstuk? Het is onze verantwoordelijkheid om op ons vakgebied daarover onze stem te laten horen. <

Gemaakt met Runway, muziek via Udio, bron Stevie Mac

Dansende robots van Boston Dynamics

De lijst is vele malen langer. Wil je weten hoeveel AI-tools er intussen zijn en wat die kunnen, check dan There’s An AI For That (TAAFT) voor een overzicht. Of kijk op AI Search.

OVERZICHT(JE) VAN CHATBOTS

> ChatGPT
> 
Google Gemini
> 
Meta AI
> 
HuggingChat (open source)
> 
Zapier AI Chatbot
> 
Microsoft Copilot (met Bing)
> 
Perplexity
> 
YouChat
> 
KoalaChat
> 
Jasper Chat
> 
MetaGPT
> 
Claude
> 
Ernie Bot
> 
Bloom
> 
Character.ai

‘Het is de moeite waard om de keerzijdes eens goed in het licht te zetten. Ze raken namelijk aan de informatieprofessie’

‘Informatieprofessionals fungeren als essentiële poortwachters van de integriteit, vertrouwelijkheid en beschikbaarheid van informatie’

‘Informatie uit informatie halen is al spannend, het feit dat AI een virtuele mond en oren krijgt, biedt een extra dimensie’

‘Het prompten van kunstzinnig beeldmateriaal is een vak op zich geworden, waarbij de nodige kennis van modellen, stijlen en termen is vereist’

‘Gewone stervelingen zoals informatieprofessionals kunnen nu ook complexe data-analyses en scripts laten uitvoeren’

‘Wat als er sprake is van gesproken conversaties met de AI? Hoe ga je dan om met beheer en ontsluiting van informatie?’

‘Alles wat je online of telefonisch kunt regelen, kan een AI uitvoeren door vertegenwoordigers voor jou op pad te sturen het internet in’

‘Het is essentieel om niet blind te vertrouwen op de AI en ICT en goed te weten wat de mogelijkheden en beperkingen zijn’

IP | vakblad voor informatieprofessionals | 07 / 2024

AI IN HET INFORMATIEDOMEIN (10)       SIMON BEEN

Deel 10
artikelenserie over kunstmatige intelligentie

Waarom AI zo 
controversieel is

Simon Been
Directeur van het Papieren Tijger Netwerk en spreker/trainer/auteur over AI in het informatiedomein

Wat is de impact van AI op het informatiedomein? In een reeks artikelen wordt ingegaan op veranderingen in de organisatieprocessen, de informatieprofessie en het persoonlijke informatiewerk ten gevolge van kunstmatige intelligentie. Dit is het tiende deel met focus op de keerzijdes van AI en raakvlakken daarvan met de informatieprofessie.

Dansende robots van Boston Dynamics

De lijst is vele malen langer. Wil je weten hoeveel AI-tools er intussen zijn en wat die kunnen, check dan There’s An AI For That (TAAFT) voor een overzicht. Of kijk op AI Search.

OVERZICHT(JE) VAN CHATBOTS

> ChatGPT
> 
Google Gemini
> 
Meta AI
> 
HuggingChat (open source)
> 
Zapier AI Chatbot
> 
Microsoft Copilot (met Bing)
> 
Perplexity
> 
YouChat
> 
KoalaChat
> 
Jasper Chat
> 
MetaGPT
> 
Claude
> 
Ernie Bot
> 
Bloom
> 
Character.ai

AI is een controversieel onderwerp. Dat is wel duidelijk. De roep om wetgeving, normen, een soort huishoudelijk reglement is sterk en luid. Zowel op het niveau van landen als binnen organisaties, gezinnen en zelfs je eigen geweten. Het is lastig om vergelijkingen te maken met andere ontwikkelingen die zo snel, invloedrijk en controversieel zijn. 

Deze reeks over AI focust doorgaans op alle mogelijkheden en voordelen, maar laten we nu eens kijken wat de verschillende kanttekeningen zijn. Erg moeilijk is het niet om materiaal hiervoor te verzamelen. Er zijn genoeg studies en sites die compleet gewijd zijn aan dit onderwerp. Wetenschappelijk onderbouwde informatie is beschikbaar én wordt gaandeweg ook bijgesteld, want elke ontwikkeling van AI leidt weer tot nieuwe inzichten. Daarmee raken we al een van de problematische kanten van dit onderwerp. Je kunt over AI een mening vormen, een wet instellen of reglementen afspreken, en een paar maanden of zelfs dagen later blijkt dat de werkelijkheid toch weer is veranderd. Technologie kun je niet vatten in harde hokjes zonder lachwekkende en serieuze consequenties. Er zijn dus de nodige kanttekeningen te plaatsen bij de kanttekeningen.

Niettemin is het de moeite waard de nu geopperde risico’s en valkuilen eens goed in het licht te zetten en misschien hier en daar wat te nuanceren. Elk van deze keerzijdes raakt namelijk aan de informatieprofessie. Informatieprofessionals fungeren tenslotte als essentiële poortwachters die de integriteit, vertrouwelijkheid en beschikbaarheid van informatie binnen de organisatie waarborgen.

WAAR HEEFT AI IMPACT?
Generatieve AI uit zich op verschillende gebieden. We hebben de ongestructureerde informatie, de harde data, beeldmateriaal, film, geluid, en dan zijn er nog beweging, denk aan robots, en een relatief nieuwe variant: agents.

De eerstgenoemde ‘ongestructureerde informatie’ is geen gebruikelijke term in alle populaire AI-verhalen. Toch zit in mijn ogen de belangrijkste – in ieder geval voor het vakgebied – potentie van AI in het gebruik voor ‘informatie uit informatie’. Dan hebben we het over al die verschillende toepassingen die zijn langsgekomen in deze reeks artikelen. Van het maken van samenvattingen tot het gebruiken van AI als sparringpartner, researchassistent, inspirator en schrijfassistent. En businesscases zoals AI voor tekstherkenning en extractie, metadatering, vernietiging, zoeken en ontsluiten, en government.

INFORMATIE UIT INFORMATIE
Informatie uit informatie halen is al spannend, het feit dat AI een virtuele mond en oren krijgt, biedt een extra dimensie. Als je AI als sparringpartner wilt gebruiken en je hoeft niet eens meer te tikken en zelfs te lezen, maar je kunt ‘gewoon’ met een intelligente, virtuele collega of vriend in gesprek gaan, dan verandert de manier waarop wij werken en al helemaal de manier waarop wij met informatie omgaan fundamenteel. Ik roep het al een jaar: we gaan van ‘zoek en vind’ naar ‘vraag en antwoord’, en eigenlijk gaan we al een stukje verder dan dat. Het is nu al te voorzien dat er een moment komt waarop we zo kunnen vertrouwen op dat antwoord dat het niet meer nodig is om de onderliggende vastgestelde documenten erbij te krijgen. Creepy? Zeker!

Het kan nog wel een tijdje duren, maar helder is wel dat de technologische ontwikkeling die kant opgaat. Of die mate van foutloosheid te realiseren is en, belangrijker nog, of dat op zo’n veilige manier mogelijk is dat het systeem niet kan worden gecorrumpeerd, is natuurlijk nog maar de vraag. Net zoals de vraag is wie dat alomvattende systeem kan en mag beheren.

BEWEGEND BEELD
Laten we kijken naar de opmerkelijkste en populairste toepassingen van AI en de kanttekeningen daarbij. Sommige risico’s en gevaren zijn overkoepelend, zoals betrouwbaarheid, ethiek en milieu (vooral het enorme gebruik van water en elektriciteit), en andere meer specifiek van aard.

Eerst bewegend beeld. We kennen allemaal de filmpjes die worden getoond tijdens late night shows of op sociale media. Denk aan de prachtige, supergedetailleerde scifi-beelden van futuristische ruimteschepen die door het luchtledige glijden (zie video). Kunstmatige intelligentie kan ongelooflijk veel met beeldgeneratie, maar op dit moment weet het vaak niet wat het doet. Het is als de baby die haar knuffel achter een pilaar ziet verdwijnen en nog niet weet dat die enkele seconden later aan de andere kant van de pilaar weer tevoorschijn komt. De diepere logica ontbreekt hier, en dat is een grote kanttekening, maar het is ook een kwestie van tijd dat ze het wel weet. Als je naar de nieuwste versie van ChatGPT kijkt, werkt die logica wat betreft teksten al opmerkelijk goed.

Wat zijn de belangrijkste kanttekeningen bij beeldgeneratie door AI?
> Kosten: beeld- en 3D-verwerking en met name videoprocessing vereisen veel rekenkracht en gespecialiseerde hardware, wat leidt tot hoge operationele kosten en energieverbruik.
> Bias: trainingsdatasets die onvoldoende divers zijn, kunnen leiden tot bevooroordeelde AI-systemen, met name voor bepaalde demografische groepen.
> Misinformatie en deepfakes: AI kan worden misbruikt om overtuigende maar valse beelden te creëren, wat kan leiden tot reputatieschade en verspreiding van misinformatie.
> Auteursrecht en ethiek: gebruik van beschermde of private afbeeldingen en modellen zonder toestemming kan juridische implicaties hebben en/of gewetensbezwaren oproepen.

STILSTAAND BEELD
Voor het stilstaande beeld geldt ongeveer hetzelfde. Van dichtbij weet ik dat het maken van overtuigende creaties via AI soms ongelooflijk makkelijk is. Maar ik weet ook dat het échte werk op dit moment nog behoorlijk arbeidsintensief is, omdat het prompten van kunstzinnig beeldmateriaal een vak op zich is geworden, waarbij de nodige kennis van verschillende modellen, stijlen en termen en de vaardigheid van het werken daarmee belangrijke factoren zijn. Toch geldt ook hier: het is opmerkelijk hoe snel en goed de mainstream AI’s hierin worden, zonder strikte promptstructuren. 

Waarom is dit onderwerp zo belangrijk? Omdat we niet meer weten wanneer het echt is: een authentieke vastlegging van een foto of een authentiek kunstwerk van die ene kunstenaar. En het wordt al helemaal spannend nu het mogelijk is om gewoon op je mobieltje foto’s die wél authentiek zijn aan te passen. Er is het laatste decennium al heel wat geknutseld met Photoshop, maar deze mate van gebruiksgemak, snelheid en professionaliteit is een totaal nieuwe dimensie. Denk alleen al aan al het historische beeldmateriaal en met name nieuw materiaal inclusief persfoto’s dat geacquireerd en ontsloten gaat worden. Interessant genoeg gaat zo de rol van metadata toenemen, maar ook kunnen nieuwe standaarden en schema’s nodig worden voor indexeren en catalogiseren, en nieuwe tools om authenticiteit te verifiëren. Daarnaast neemt het belang toe van bescherming van opgeslagen beelden tegen manipulatie.

DATA EN CODE
Dan hebben we natuurlijk de data. Welke toegevoegde waarde heeft AI daar? Dat is indrukwekkend. Het wordt een stuk makkelijker om je Excel-sheet of je database in een AI te ‘gooien’ en die te bevragen over conclusies en grafieken. Hetzelfde geldt voor programmeren. AI’s zijn in staat op basis van jouw (gesproken) woord zelfstandig programma’s – code – te schrijven, ook complexe, en die zelfstandig of na wat aanmoediging te tunen, inclusief het ontwikkelen van een gebruikersinterface. Gevestigde softwarebedrijven voorspellen dat over drie jaar het meeste programmeerwerk door AI gebeurt.
De keerzijdes?
> Context: Excel-sheets en databases missen vaak de context die nodig is voor diepgaand begrip, wat kan leiden tot misleidende conclusies.
> Kwaliteit: fouten in harde data kunnen worden versterkt door AI, en gegenereerde code kan onvoldoende gedocumenteerd en daardoor lastig te onderhouden zijn.
> Overschatting: focus op harde data kan belangrijke kwalitatieve aspecten over het hoofd zien.
> Privacy: gestructureerde data kunnen gevoelige informatie bevatten die goed moet worden beschermd.
> Regelgeving en compliance: veranderingen in wetgeving kunnen invloed hebben op hoe harde data mogen worden verzameld, opgeslagen en geanalyseerd. En gegenereerde code kan plagiaat lijken of zijn.
> Fouten en aansprakelijkheid: door AI gegenereerde code kan fouten en inefficiënties bevatten die moeilijk te detecteren zijn of die zelfs beveiliging kunnen compromitteren. Wie is dan aansprakelijk?
Daarnaast kunnen bij coding de bekende problemen van bias en ethiek een rol spelen, plus de verwachting dat automatische codegeneratie leidt tot vermindering van de vraag naar menselijke programmeurs – met alle sociale implicaties van dien. Aan de andere kant kunnen gewone stervelingen zoals informatieprofessionals nu ook complexe data-analyses en scripts laten uitvoeren.

SPRAAK
Spraak en geluid zijn al een paar keer aan de orde geweest, vooral als het gaat om de persoonlijke interactie voor je persoonlijke vragen, maar het gaat veel verder. AI’s kruipen steeds meer in de richting van het overnemen van het callcenter, van de digitale (of zelfs persoonlijke) vraagbaak, van het interne intranet en, ja, ook het telefonische salesteam komt meer en meer onder druk.

De opkomst van sociale media was al een hele uitdaging voor informatiebeheer – wat doe je met al die sms’jes en appjes? – maar nu zal spraak een nieuwe factor worden. Medewerkers gaan hun AI bevragen en ermee sparren, en al die informatie en gedachtenprocessen kunnen terechtkomen in beleidsvoorstellen en andere documenten. Moet dat worden geregistreerd en beheerd, en hoe? Dat is al een vraagstuk op zich, maar wat als er sprake is van gesproken conversaties met de AI? Hoe dan om te gaan met beheer en ontsluiting?

Wat zijn belangrijke kanttekeningen bij spraak en communicatie door AI?
> Nauwkeurigheid: AI-systemen kunnen moeite hebben met verschillende accenten, dialecten en talen en met omgevingsgeluid en slechte opnamekwaliteit.
> Privacy en ethiek: opnemen en analyseren van audio zonder toestemming schenden privacywetten en ethische normen, en emotieherkenning uit stemgeluid kan worden ervaren als inbreuk op de persoonlijke ruimte.
> Misbruik: AI kan worden gebruikt om stemmen te synthetiseren, wat kan leiden tot fraude en identiteitsdiefstal.
Wat doe je als informatieprofessional als je zowel de spraakopname als het transcript krijgt en weet dat er fouten in dat transcript (kunnen) zitten? De hoeveelheid van dit soort bestanden kan exponentieel gaan toenemen. Is dat ongestructureerde informatie of data? En zoals steeds: hoe verifieer en bescherm je die?

BEWEGING (ZOALS ROBOTS)
We kennen de filmpjes van Boston Dynamics: de soms vervaarlijk ogende robots die acrobatische kunsten uithalen, maar ook de vooral Chinese robots die niet van mensen te onderscheiden zijn, of de autonome Israëlische attack drones. De belangrijkste factor in deze doorbraken is AI. Dit punt gaat echter verder: surveillancecamera’s en zelfrijdende voertuigen maar ook protheses en chirurgische scalpels kunnen met grote precisie worden bewogen en gericht en intelligent hun kunsten vertonen. En vergeet niet de logistieke systemen (bijvoorbeeld in magazijnen) en hun mogelijke toepassingen binnen grote bibliotheken en archieven. 

Ook hier zijn er de nodige risico’s en kanttekeningen:
> Veiligheid: fouten in AI die beweging aansturen kunnen leiden tot fysieke schade of letsel, vooral in dynamische omgevingen omdat die uitdagend zijn voor AI.
> Privacy: robots (eigenlijk alles met sensoren) kunnen data verzamelen zonder medeweten of toestemming.
> Datagovernance: beheer van grote hoeveelheden data die door deze systemen worden gegenereerd.
De vraag is welke rol de informatieprofessie hierin heeft. Wie gaat incidenten documenteren en archiveren of protocollen daarvoor ontwikkelen en waarborgen dat de opgeslagen data voldoen aan de AVG?

AGENTS
Er komt steeds meer aandacht voor AI-agenten, of butlers. Een voorproefje: stel je voor dat je een project wilt uitvoeren. Normaal heb je daarvoor een aantal teams die aan de slag gaan met een eigen taakstelling. Dat kun je ook je AI vragen om te doen door hem verschillende petten te laten opzetten: hij zet dan enkele teams (een soort mini-AI-personas) aan het werk met deelvragen, en als elk team eenmaal resultaten heeft, laat hij deze door de AI-stuurgroep tot een geheel smeden. Zo’n aanpak leidt bij complexe vraagstukken normaliter tot betere resultaten.

In bovenstaand voorbeeld zijn al die personas aan de gang binnen die ene AI, maar dat kan ook buiten de AI. Een lonkend voorbeeld: vraag Siri of Alexa om een reis te boeken of een taxi te bellen via internet of via een app op je mobiel. Dat is nog vrij eenvoudig, maar het kunnen ook complexere taken zijn. Want als je op reis wilt, wil je misschien ook ergens overnachten et cetera, activiteiten die qua agenda op elkaar afgestemd moeten zijn. Het idee is: alles wat je online of telefonisch kunt regelen, kan in beginsel een AI voor je uitvoeren door vertegenwoordigers voor jou op pad te sturen het internet in. Dat is de nieuwste rage in AI-land: agents. Het idee leeft al tientallen jaren, maar de eerste praktische voorbeelden zijn er inmiddels, zij het met de nodige hiccups.

Wat zijn belangrijke kanttekeningen bij agents?
> Autonomie: autonome agents kunnen beslissingen nemen zonder menselijke tussenkomst. Hoe controleer je dat?
> Aansprakelijkheid en misbruik: wie is verantwoordelijk? Agents kunnen worden ingezet om misleidende informatie te verspreiden.
> Beveiligingsrisico’s: agents kunnen kwetsbaar zijn voor hacking en manipulatie.
> Transparantie: gebrek aan inzicht in gedrag van agents kan leiden tot wantrouwen.
Dit is niet iets waar je morgen al intern mee te maken krijgt, maar het interessante is dat deze agents ongetwijfeld door de buitenwereld gaan worden gebruikt, dus gaan communiceren met jouw organisatie. Dat is al helemaal van belang als zo’n agent zich voordoet als iemand anders. Sowieso geldt natuurlijk: wat gebeurt er met de informatie uit en over deze conversaties en interacties?

ONGESTRUCTUREERDE INFORMATIE
Dan komen we bij de ongestructureerde informatie zelf. Niet voor niets is dit het laatste onderwerp, want laten we eerlijk zijn: informatie is de moeder van al deze mogelijke toepassingen. Er zijn ruwweg twee soorten informatie: informatie die wordt gebruikt om de intelligentie van de AI op te kweken – hem te leren denken – waardoor het de mogelijkheid krijgt om allerlei verbanden te leggen, te weten wat voor soort parameters van belang zijn, hoe logica werkt, et cetera. En informatie waaruit tijdens een chat daadwerkelijk inhoudelijk wordt geput – de kennis.

Misschien is het goed om voor ‘denken’ en ‘kennis’ dezelfde informatie te gebruiken, maar misschien ook nadrukkelijk niet. Als je een overheidsorganisatie bent en je moet sec gebruikmaken van documenten die zijn vastgesteld, dan zijn het die documenten waaruit moet worden geput als er een antwoord komt, en niet alle informatie van het internet. Gelukkig kan dat zoeken in die betrouwbare interne informatie en dat geven van een antwoord ook gebeuren met een generiek AI-model. 

Kanttekeningen bij AI voor ongestructureerde informatie:
> Complexiteit van interpretatie: de geavanceerde AI-algoritmes kunnen leiden tot fouten en misinterpretaties.
> > Bias en vooringenomenheid: ook kunnen impliciete biases in de ongestructureerde informatie door AI worden versterkt.
> Privacyrisico’s: verwerking kan onbedoeld gevoelige informatie blootleggen, met risico’s voor privacy en naleving van regelgeving zoals de AVG.
> Schaalbaarheid en opslag: grote hoeveelheden informatie vergen veel opslagruimte en rekenkracht, wat kosten en milieubelasting verhoogt.
> Datakwaliteit en consistentie: variërende kwaliteit en inconsistenties in ongestructureerde data kunnen de prestaties van AI negatief beïnvloeden.
Hier wordt het echt menens. De rol van informatieprofessionals blijft niet beperkt tot ethische en juridische richtlijnen die moeten worden geïmplementeerd of grote opmerkzaamheid en betrokkenheid bij de kwaliteit van de informatie. Informatieprofessionals zijn de gatekeepers voor de informatie van en voor de organisatie die de integriteit, vertrouwelijkheid en beschikbaarheid van die informatie waarborgen. Het is dus essentieel om niet blind te vertrouwen op de AI en ICT en goed te weten wat de mogelijkheden en beperkingen zijn, en vooral ook om daarover de eigen stem binnen de organisatie te laten horen. Hoe? Dat is een onderwerp voor een apart artikel.

TOT SLOT: MOET DIT ECHT ALLEMAAL?
Nu komen we op een nog dieper (volstrekt hypothetisch) vraagstuk. Stel je nou voor dat wij als Europese samenleving zeggen: ‘Dit willen we gewoon niet. Kunstmatige intelligentie mag ons helpen met bepaalde dingen, binnen bepaalde grenzen, maar meer niet.’ Hoe zou het dan gaan? En wat als wij die stappen niet nemen, en Amerika en China bijvoorbeeld wel, en dat onze brains op dit gebied liever naar het buitenland gaan. Wat zou dat doen met onze concurrentiepositie, en met onze kwetsbaarheid?

Het is dus niet de vraag of AI stoppen of knevelen wel of niet moet. De vraag is: hoe gaan we op een verstandelijke, maar ook flexibele manier om met dit vraagstuk? Het is onze verantwoordelijkheid om op ons vakgebied daarover onze stem te laten horen. <

IP | vakblad voor informatieprofessionals | 07 / 2024

Gemaakt met Runway, muziek via Udio, bron Stevie Mac