Psychologische Veiligheid in een tijdperk van AI.

In eerdere bijdragen op ManagementPro heb ik psychologische veiligheid steeds benaderd als méér dan een prettig klimaat of een HR-thema. Voor mij is het een structureel mechanisme: het bepaalt of mensen fouten durven benoemen, spanning bespreekbaar maken en professioneel oordeel inzetten.

Wat steeds opnieuw zichtbaar werd, is dat organisaties zelden vastlopen door wat ze niet weten, maar door wat niet meer wordt uitgesproken door direct betrokkenen.

Met de opkomst van AI krijgt die observatie een nieuwe, urgente lading.

Van teamdynamiek naar technologie die meebeslist

Waar mijn eerdere ManagementPro-bijdragen vooral gingen over teams, leiderschap en professionele ruimte, verschoof mijn aandacht de afgelopen tijd naar een nieuwe context: AI-implementatie in organisaties.

AI adviseert, voorspelt, beoordeelt en monitort. Daarmee verandert niet alleen het werk, maar ook:

  • waar autoriteit wordt gelegd,

  • wat als ‘objectief’ geldt,

  • en wanneer tegenspraak sociaal riskant wordt.

De vraag naar psychologische veiligheid is daarmee geen zachte randvoorwaarde meer, maar een strategische kernvraag.

Psychologische veiligheid als verklarend mechanisme

In mijn recente onderzoek heb ik psychologische veiligheid expliciet benaderd als verklarend mechanisme: een contextconditie die bepaalt of AI leidt tot leren of tot stilstand in dynamiek.

Niet de technologie zelf blijkt doorslaggevend, maar het antwoord op één fundamentele vraag:

Durven mensen te zeggen dat ze het systeem niet begrijpen, niet vertrouwen of onjuist vinden?

Wanneer psychologische veiligheid aanwezig is:

  • spreken medewerkers zich uit over onzekerheid in AI-uitkomsten,

  • worden fouten en bijna-fouten gedeeld,

  • ontstaan gezamenlijke gebruiksnormen,

  • en functioneren leerloops waarin incidenten leiden tot verbetering.

Wanneer die veiligheid ontbreekt:

  • ontstaat stilzwijgende aanpassing,

  • verschuift argumentatie van inhoud naar “het systeem zegt”,

  • en verdwijnt leren achter compliance.

Dat sluit direct aan bij wat ik in eerdere bijdragen al schreef: zwijgen is zelden onverschilligheid, maar vaak rationeel gedrag in een onveilige context.

Twee vormen van AI, twee sociale werkelijkheden

In het onderzoek maak ik een expliciet onderscheid tussen twee vormen van AI-gebruik:

  1. AI als decision support
    AI ondersteunt beslissingen en taakuitvoering.

  2. AI in beoordeling en monitoring
    AI evalueert prestaties, gedrag of output.

Dat onderscheid is cruciaal. Twijfelen aan een advies voelt fundamenteel anders dan twijfelen aan een systeem dat je beoordeelt. Precies hier wordt zichtbaar hoe inzichten over psychologische veiligheid uit team- en leiderschapscontexten één op één doorwerken in een technologische setting.

Vier scenario’s als synthese

Door psychologische veiligheid te combineren met deze twee AI-vormen, ontstaan vier analytische scenario’s die mijn eerdere ManagementPro-thema’s verdiepen:

  • Collectief leren
    AI als hulpmiddel in een veilige context. Twijfel mag bestaan, fouten worden gedeeld, leren is collectief.

  • Pragmatische optimalisatie
    AI wordt gebruikt maar nauwelijks besproken. Zichtbare efficiëntie, beperkt leervermogen.

  • Voorwaardelijke legitimiteit
    AI mag beoordelen, zolang ruimte bestaat voor context, tegenspraak en correctie.

  • Stille disciplinering
    AI-scores worden waarheid. Twijfel verdwijnt, gedrag past zich aan het systeem aan.

Deze scenario’s zijn geen voorspellingen, maar helpen om patronen te herkennen die ik ook in eerdere bijdragen al beschreef, nu in een AI-context.

 

De vier scenario’s: geen toekomstbeelden, maar herkenbare organisatiepatronen

De vier scenario’s die ik onderscheid, zijn geen voorspellingen en ook geen ideaalbeelden. Ze zijn bedoeld als analytische lenzen: manieren om te begrijpen wat er in organisaties gebeurt wanneer AI wordt ingevoerd in combinatie met meer of minder psychologische veiligheid.

Wat mij opviel tijdens het onderzoek, is dat organisaties zelden “volledig” in één scenario zitten. Vaak bestaan meerdere scenario’s naast elkaar, per team, per functie of per toepassing van AI. Juist dat maakt ze bruikbaar als reflectiekader.

1. Collectief leren

Hoge psychologische veiligheid × AI als decision support

In dit scenario fungeert AI als hulpmiddel binnen een volwassen professionele dialoog. Medewerkers durven te zeggen dat ze AI-uitkomsten niet begrijpen, dat iets niet klopt of dat het advies schuurt met hun ervaring. Fouten en near misses worden niet gezien als falen, maar als leerinformatie.

Wat hier opvalt:

  • AI-adviezen worden besproken, niet automatisch gevolgd

  • teams ontwikkelen gezamenlijke vuistregels voor gebruik

  • incidenten leiden tot aanpassing van werkwijzen of instructies

AI versterkt hier het leervermogen van de organisatie, juist omdat twijfel zichtbaar mag zijn. Dit scenario sluit sterk aan bij wat ik in eerdere ManagementPro-bijdragen beschreef als teams waarin professioneel oordeel ruimte krijgt.

2. Pragmatische optimalisatie

Lage psychologische veiligheid × AI als decision support

Hier wordt AI veel gebruikt, maar weinig besproken. Medewerkers volgen het systeem omdat dat verwacht wordt, niet omdat ze het volledig begrijpen of vertrouwen. Twijfel blijft impliciet of individueel. Er is sprake van wat ik surface compliance noem: zichtbaar meedoen, beperkt leren.

Kenmerkend in dit scenario:

  • AI verhoogt efficiëntie, maar niet per se kwaliteit

  • fouten worden gecorrigeerd, maar zelden geanalyseerd

  • leren blijft fragmentarisch en persoonsafhankelijk

Dit is een herkenbaar scenario in organisaties die resultaatgericht zijn, maar waar spreekruimte onder druk staat. Het lijkt goed te gaan, tot blijkt dat dezelfde fouten zich blijven herhalen.

3. Voorwaardelijke legitimiteit

Hoge psychologische veiligheid × AI in beoordeling/monitoring

AI wordt hier ingezet in beoordeling of monitoring, maar binnen duidelijk besproken grenzen. Medewerkers ervaren ruimte om context toe te voegen, scores te bevragen en uitzonderingen te bespreken. De legitimiteit van AI is niet vanzelfsprekend, maar voorwaardelijk.

In dit scenario zie je:

  • AI-scores als startpunt voor gesprek, niet als eindpunt

  • expliciete procedures voor bezwaar of herijking

  • aandacht voor fairness en neveneffecten

Dit scenario laat zien dat AI in beoordeling niet per definitie onveilig hoeft te zijn, maar alleen werkt wanneer psychologische veiligheid actief wordt onderhouden. Dat vraagt leiderschap en expliciete afspraken.

4. Stille disciplinering

Lage psychologische veiligheid × AI in beoordeling/monitoring

Dit is het meest risicovolle scenario. AI-scores worden hier de dominante waarheid. Twijfel wordt niet uitgesproken, maar verplaatst zich naar informele gesprekken of verdwijnt helemaal. Medewerkers passen hun gedrag aan het systeem aan, soms defensief, soms strategisch.

Typische patronen:

  • weinig open discussie over scores of meetlogica

  • sterke focus op compliance en “goed scoren”

  • afname van experimenteren en professionele ruimte

AI stuurt hier niet alleen gedrag, maar ook zwijgen. Dit is de technologische variant van organisaties die ik eerder beschreef als plekken waar mensen vooral leren wat ze beter niet kunnen zeggen.

Waarom deze scenario’s helpen

Wat deze scenario’s zichtbaar maken, is dat dezelfde AI-technologie tot totaal verschillende dynamieken kan leiden, afhankelijk van psychologische veiligheid en de manier waarop AI wordt ingezet.

Ze helpen om:

  • verschillen tussen teams te begrijpen

  • spanningen rond AI bespreekbaar te maken

  • te zien waar leren vastloopt, zonder direct te moraliseren

De vraag is daarmee niet: “Welk scenario is goed of fout?”
Maar: Welk scenario herkennen we, en wat zegt dat over onze spreekruimte?

Tot slot

Voor mij vormen deze scenario’s een logisch vervolg op mijn eerdere ManagementPro-bijdragen over psychologische veiligheid. De context is veranderd, de technologie is krachtiger, maar de onderliggende vraag blijft dezelfde:

Kunnen mensen zeggen wat gezegd moet worden, ook als het systeem mee gaat spreken?

AI maakt die vraag niet nieuw. Maar wel onontkoombaar.

Wat dit betekent voor leiders

De kernvraag voor leiders blijft dezelfde als in mijn eerdere ManagementPro-bijdragen, maar krijgt een scherpere vorm:

Wat gebeurt er met het gesprek zodra het systeem mee gaat spreken?

AI test leiderschap niet op technische keuzes, maar op hoe ruimte wordt gemaakt voor twijfel, tegenspraak en leren. Zonder psychologische veiligheid wordt AI niet slimmer ingezet, maar een stille autoriteit.

Deze bijdrage is geen breuk met mijn eerdere ManagementPro-artikelen over psychologische veiligheid, maar hun logische voortzetting. De technologie is krachtiger geworden. De inzet groter. Maar de kern blijft dezelfde:

Organisaties verliezen niet hun intelligentie door gebrek aan data, maar door het verdwijnen van moedige stemmen.

AI maakt dat risico niet kleiner. Het maakt het zichtbaarder.

Danique Scheepers, Adviseur Diversiteit & Inclusie - AI & Ethiek - Psychologische Veiligheid

Je kan intussen chatten met mijn Psychologische Veiligheid op de Werkplek chatbot

Voetnoot

Bij het uitwerken van dit onderzoek heb ik gebruikgemaakt van PRISM als analytische sparringpartner. PRISM is een AI-ondersteunde onderzoeksomgeving die helpt bij het expliciteren van aannames, het structureren van mechanismen en het methodologisch aanscherpen van verkennend onderzoek. PRISM genereert geen inhoudelijke conclusies, maar ondersteunt het denk- en analyseproces.

 

Deel uw  ervaringen op ManagementSite

Wij zijn altijd op zoek naar ervaringen uit de praktijk, wat werkt wel, wat niet.

SCHRIJF MEE  >>

Als u 3 of meer artikelen per jaar schrijft, ontvangt u een gratis pro-abonnement twv €200,--

Meer over Organisatiecultuur