Hoe AI PRISM mij dwong om Minder Slim te zijn.

Nadat OpenAI gisteren PRISM introduceerde, begon ik vanochtend met PRISM zoals ik aan de meeste AI-tools begin: nieuwsgierig, licht sceptisch en vooral benieuwd wat het mij zou opleveren. Sneller denken, scherper formuleren, complexiteit beter beheersen. Zeker bij een onderwerp als de impact van AI op arbeid en organisaties leek een omgeving waarin alles meeleest en meedenkt bijna te mooi om waar te zijn.

PRISM: een AI-workspace waarin je wetenschappelijke papers schrijft, reviseert, structureert én onderbouwt met één model dat de volledige context van je werk begrijpt.

Maar gaandeweg gebeurde er iets onverwachts. Hoe verder ik kwam, hoe minder PRISM mij hielp om slimmer te worden. In plaats daarvan dwong het me om voorzichtiger te zijn. Minder soepel. Minder creatief zelfs. En juist daardoor werd mijn werk beter.

Wat mij het meest verraste, was dat de grootste winst niet zat in het bedenken van nieuwe inzichten, maar in het voorkomen van verkeerde conclusies.

De verleiding van overtuigende verhalen

Wie werkt met data, beleid of strategie herkent dit mechanisme. Je begint met een idee, een hypothese, een richting. Vervolgens verzamel je informatie en langzaam maar zeker begint alles logisch te lijken. Signalen passen. Afwijkingen krijgen een verklaring. Het verhaal sluit zich.

Dat voelt als voortgang. Maar vaak is het vooral het brein dat doet waar het goed in is: betekenis geven, patronen zien, ruis wegpoetsen. Achteraf ziet het er altijd ordelijker uit dan het in werkelijkheid was.

AI maakt dit risico groter, niet kleiner. Hoe beter een systeem verbanden kan leggen en teksten kan structureren, hoe makkelijker het wordt om achteraf een coherent verhaal te construeren. Niet omdat het onwaar is, maar omdat niemand nog precies kan aanwijzen waar interpretatie begon en bewijs ophield.

Centrale vraag
Wat is in 2026, binnen (i) administratief en beleidsmatig kenniswerk in de publieke sector, (ii) zakelijke dienstverlening en financiële functies in de private sector, en (iii) instroom- en juniorfuncties met een hoge tekst- en analysecomponent, het effect van structurele AI-adoptie (herhaalbare inzet in kernprocessen met aantoonbaar taakherontwerp en gewijzigde outputverwachtingen) op de signaalwaarde van arbeid: de mate waarin functies, taken en diploma’s nog betrouwbaar functioneren als signaal van productiviteit en inzetbaarheid?

Werkhypothese (H1–H3a als keten)
In 2026 is binnen de drie afgebakende clusters structurele AI-adoptie observeerbaar en ongelijk verdeeld tussen teams/organisaties (H1). Waar structurele AI-adoptie aanwezig is, gaat dit samen met aantoonbaar taakherontwerp en gewijzigde outputverwachtingen binnen het betreffende kernproces (H2). In diezelfde adopter-contexten verschuift vervolgens de signaalpraktijk in werving en selectie: klassieke signalen zoals diploma-eisen, functietitels en lineaire ervaringspaden verliezen relatief gewicht ten opzichte van vaardigheids- en outputgerichte criteria (H3a).*

Het gevaarlijke moment na de framing

In mijn onderzoek merkte ik dat het spannendste moment niet lag bij het formuleren van de vraag, maar bij wat daarna kwam. Zodra de hoofdlijn stond en de dataverzameling begon, ontstond er ruimte. Ruimte om mee te bewegen. Ruimte om twijfel glad te strijken. Ruimte om te denken: dit lijkt genoeg.

Precies daar zette PRISM onverwacht de rem erop.

Ik werd gedwongen om vooraf vast te leggen wat ik normaal gesproken impliciet laat. Wat telt als bewijs? Wat niet? Wanneer mag ik een hypothese niet bevestigen, hoe aantrekkelijk het verhaal ook wordt? Wanneer moet ik expliciet stoppen?

Het voelde alsof ik mezelf aan banden legde. Alsof ik vrijheid inruilde voor regels. Maar achteraf gezien was dat precies wat nodig was.

Kan Prism dienen als basis voor Master- en PhD-onderzoek?

Ja, mits het wordt ingezet als onderzoeksdiscipline, niet als denkvervanger.

Mijn eerste ervaring met PRISM laat zien dat AI-ondersteuning in academisch onderzoek waardevol kan zijn, maar alleen wanneer de rol van AI expliciet wordt begrensd. De kracht zit niet in het genereren van ideeën of conclusies, maar in het afdwingen van methodologische scherpte op het moment dat interpretatiedrang het grootst is.

Kansen

PRISM kan Masterstudenten helpen om explicieter te worden over wat zij normaal impliciet laten: wat telt als bewijs, wanneer mag een hypothese niet bevestigd worden, en waar liggen de grenzen van hun claims. Voor promovendi biedt het een manier om pre-commitment te organiseren in langlopende, complexe onderzoeken en om post hoc redeneren zichtbaar te voorkomen.

Daarnaast kan AI administratieve en structurele lasten verminderen, waardoor tijd vrijkomt voor theoretische verdieping, reflectie en interpretatie precies het werk dat niet te automatiseren is.

Risico’s

Het grootste risico is dat AI ongemerkt wordt ingezet als inhoudelijke meedenker. Wanneer hypothesen, interpretaties of conclusies door het systeem worden voorgesteld, verschuift eigenaarschap van onderzoeker naar technologie. Dat ondermijnt academische vorming.

Een tweede risico is schijnzekerheid: strak ingevulde matrices en beslisregels kunnen de indruk wekken van objectiviteit, terwijl ook deze keuzes normatief en theoretisch gekleurd zijn. Zonder reflectie kan structuur worden verward met waarheid.

Conclusie

PRISM is geen shortcut naar academische kwaliteit. Het is een hulpmiddel voor onderzoekers die bereid zijn hun eigen interpretatieruimte actief te begrenzen. In die zin kan het bijdragen aan eerlijker, transparanter en methodologisch robuuster onderzoek maar alleen onder strikte voorwaarden

AI als waakhond, niet als meedenker

De rol van AI kantelde volledig. PRISM hielp mij niet om betere verklaringen te verzinnen, maar om slechtere verklaringen uit te sluiten. Het stelde geen creatieve vragen, maar methodologische. Niet: wat zou dit kunnen betekenen? Maar: mag je dit eigenlijk wel zeggen?

Dat is een ongemakkelijke rol. Het haalt de glans van elegant redeneren weg. Het dwingt tot zinnen als: dit kan ik hier niet concluderen. Dit blijft onbeslist. Dit is plausibel, maar niet aangetoond.

Toch is dat precies waar de kwaliteit zit.

Waarom dit geen academische luxe is

Deze ervaring raakte me omdat ik hetzelfde patroon dagelijks zie in organisaties. In strategietrajecten, beleidsanalyses, dashboards. We gebruiken steeds slimmere tools om inzichten te genereren, maar besteden nauwelijks aandacht aan het vastleggen van onze grenzen. Wat zou ons van mening doen veranderen? Wanneer is een experiment mislukt? Wanneer is een patroon betekenisloos?

AI versnelt het denken, maar zonder discipline versnelt het vooral het zelfbedrog.

De vraag is dus niet of AI ons slimmer maakt. De vraag is of we bereid zijn om haar te gebruiken om onszelf te begrenzen.

Minder slim, meer eerlijk

Wat PRISM mij leerde, is dat volwassen werken met AI niet vraagt om meer creativiteit of meer scenario’s, maar om bescheidenheid. Om vooraf accepteren dat sommige vragen geen antwoord krijgen. Om technologie in te zetten niet als versterker van ons gelijk, maar als bewaker van onze twijfel.

Misschien is dat wel de belangrijkste managementvaardigheid in een tijdperk waarin alles steeds sneller en overtuigender lijkt: weten wanneer je jezelf niet mag vertrouwen, en systemen bouwen die je daaraan houden.

Mijn eerste ervaring met PRISM maakte me niet slimmer. Maar wel eerlijker.

Willem E.A.J. Scheepers, AI Implementer

Wil je organisatie ook sparren over scenario's? Bezoek DAMIES voor mijn diensten. Of mail: willem@willemscheepers.eu  

Mijn Yamala.ai Profile; daarin kun je met mijn AI-Twin praten.

*Voor wie verder wil lezen, heb ik op mijn andere blog een aanvullende verdieping geschreven waarin ik expliciet laat zien hoe het uiteindelijke scenario-beeld en het AI-Barbell-kader tot stand zijn gekomen.

Die bijdrage maakt de onderliggende onderzoeksvraag, hypothesen en methodologische keuzes zichtbaar, en verbindt de micro-scenario’s binnen organisaties met de bredere versnelling op de Nederlandse arbeidsmarkt tot en met 2028.

👉 Lees hier de aanvullende analyse en reflectie: Een essay over AI, arbeid en het nut van vertraging mmv PRISM |

Aanbevelingen voor opleidingen en universiteiten

Gebruik AI niet om studenten slimmer te maken, maar om hen methodologisch eerlijker te laten werken.

Als universiteiten en hogescholen AI-omgevingen zoals Prism willen inzetten in Master- en PhD-trajecten, vraagt dat om expliciete keuzes. Vrijlaten is geen neutraliteit; het is uitbesteden van normen.

Aanbevelingen

1. Leg de rol van AI expliciet vast
Vraag studenten en promovendi om in hun onderzoeksvoorstel te beschrijven waar AI wordt gebruikt (structuur, ordening, controle) en waar niet (hypothesevorming, interpretatie, conclusies).

2. Maak pre-commitment onderdeel van de methodesectie
Stimuleer het vooraf vastleggen van beslisregels, stop-criteria en non-claims. Niet als administratieve last, maar als academische vaardigheid.

3. Toets processen, niet alleen producten
Laat begeleiders meekijken naar hoe beslissingen tot stand komen, niet alleen naar het eindresultaat. AI maakt het mogelijk om denkstappen explicieter te documenteren — benut dat.

4. Leer studenten waar AI moet stoppen
AI-geletterdheid gaat niet alleen over wat technologie kan, maar over waar menselijke oordeelsvorming onmisbaar blijft. Dat vraagt expliciete didactiek.

5. Bewaak gelijke toegang en begeleiding
Zonder duidelijke kaders en ondersteuning kan AI ongelijkheid vergroten. Zorg dat gebruik transparant is en begeleid wordt, niet impliciet en individueel.

Slotgedachte

De centrale onderwijsvraag is niet of AI mag worden gebruikt in academisch onderzoek, maar hoe instellingen borgen dat studenten eigenaar blijven van hun denken. AI kan daarbij helpen juist door grenzen af te dwingen in plaats van ze te vervagen.

Deel uw  ervaringen op ManagementSite

Wij zijn altijd op zoek naar ervaringen uit de praktijk, wat werkt wel, wat niet.

SCHRIJF MEE  >>

Als u 3 of meer artikelen per jaar schrijft, ontvangt u een gratis pro-abonnement twv €200,--

Meer over Artificial Intelligence