Managementsite netwerk
Management Pro
De management trendwatcher
ManagementPro.nl, de Management Trendwatcher! ManagementPro vind je o.m. ook op X, met nog meer tips ’n trics.
Het NIEUWE alweer 17e boek in de ManagementPro Serie is uit! “301122, Chat GPT een game changer” Beschikbaar als e-boek & hard copy 😉
Human Resources Management
Eerst het Waarom. Dan pas het Wat.
De échte houdbaarheidsdatum van je team: waarom skills verdwijnen en betrokkenheid breekt.
93
0
0
Artificial Intelligence
Drie Jaar ChatGPT: Een Openhartig Gesprek met AI over Werk, Macht, Mensen en de Toekomst.
Niet de AI technologie verandert de wereld, maar wat wij ermee durven te doen.
115
4
Human Resources Management
Psychologische Veiligheid in het Tijdperk van AI: De Strategische Randvoorwaarde voor 2026
Waarom organisaties niet struikelen over technologie, maar over angst en onduidelijkheid
64
0
Artificial Intelligence
Reorganisatiegolf in de Financiële Dienstverlening: Code Oranje vergt Visie en Actie.
Automatisering en kostenbesparing stuwen een reorganisatiegolf die geen pauze kent met het risico dat de menselijke maat verdwijnt. 3 Scenario's.
99
0
Artificial Intelligence
AI, ABNAMRO, DNB, ASN, MKB en de Arbeidsmarkt 2028: de reorganisatiegolf die geen Pauze kent
Besparen met technologie: de financiële sector staat in brandversnelling en binnenkort volgen de overige sectoren.
104
0
Artificial Intelligence
LEADING WITH LUV — 2025
Terug naar 2010, vooruit naar 2030: waarom Herb Kelleher de AI-revolutie al doorgrondde vóór ChatGPT bestond
48
0
Artificial Intelligence
Reorganisatiegolf in de Financiële Dienstverlening: Code Oranje vergt Visie en Actie.
Willem E.A.J. Scheepers
99
0
Artificial Intelligence
AI, ABNAMRO, DNB, ASN, MKB en de Arbeidsmarkt 2028: de reorganisatiegolf die geen Pauze kent
Willem E.A.J. Scheepers
104
0
Artificial Intelligence
LEADING WITH LUV — 2025
Willem E.A.J. Scheepers
48
0
Recente reacties
Overigens, zoals je hier op ManPro kan lezen, sinds 2012 richt ik me op AI en vanaf het moment dat, zoals blijkt uit dit bericht, ChatGPT werd geïntroduceerd had ik een betaald abonnement. Ook andere modellen hanteer ik (ook DeepSeek) dagelijks en soms laat ik de één de ander controleren, dat levert ook verrassende resultaten op.
Maar uiteindelijk 'is the human in the loop'. ;-)
Ik ben het met je eens dat een AI zelf niets wéét en niets kán. Alles wat eruit komt, komt uiteindelijk bij ons vandaan: hoe wij denken, wat we invoeren en hoe scherp of juist vaag we onze opdracht formuleren. Dat zie je in ieder antwoord terug.
Dit weekend had ik daar een goed voorbeeld van.
Ik sprak iemand die een plan had laten maken door ChatGPT. De opdracht die ze gebruikt had, was een heel eenvoudige vraag — zonder context, zonder achtergrond en zonder toelichting. Dus de AI had alle ruimte om zelf aannames te doen.
We hebben daarna exact dezelfde simpele opdracht voorgelegd aan LeChat, Gemini, Claude en ChatGPT. De verschillen waren groot: andere accenten, andere aannames, andere uitwerkingen. Ze bleef met name trouw aan ChatGPT, maar zelfs toen we de vraag voor ChatGPT preciezer maakten, kreeg ze toch weer een andere richting terug dan de eerste keer.
Dat laat iets belangrijks zien.
Dit is het klassieke GIGO-principe:
Garbage in, Garbage out: als je weinig richting geeft, vult het systeem zelf van alles in. Niet omdat het “denkt”, maar omdat het moet gokken wat jij bedoelt. Maar het omgekeerde geldt net zo goed, en dat wordt vaak vergeten: Gold in, Gold out. Hoe beter je de opdracht formuleert — hoe meer context, doelen en randvoorwaarden je geeft — hoe beter de output.
En precies hier zit volgens mij het echte werk dat we nog te doen hebben.
AI klinkt overtuigend, maar het begrijpt niet wat het zegt. De variatie in antwoorden komt niet doordat AI zo “creatief” is, maar doordat wij te veel ruimte laten voor interpretatie.
Dus het wantrouwen dat we vaak richting AI voelen, is eigenlijk een waarschuwing richting onszelf:
zijn we duidelijk genoeg?
weten we eigenlijk wát we precies willen vragen?
beseffen we hoe groot de invloed is van onze input?
AI vergroot onze manier van vragen — niet onze manier van denken.
Daar liggen de risico’s, maar ook de kansen.
En op dat punt vinden we elkaar volgens mij precies.
Je weet, neem ik aan, dat een AI in de basis niets weet, niets doet, niets kan (GAI is weer iets anders, maar zo ver zijn we nog niet): 'wij mensen' trainen AI met al onze (on)volkomenheden. Je leest dat ook terug in de reactie op de vragen die je stelt aan de chatbot.
Je vraag mag, wat mij betreft, dan ook zijn: Kunnen we mensen op hun woord geloven?
Mij lijkt er hier nog 'wat werk aan de winkel'.
1. “Waarom vond OpenAI het verantwoord om een onvolwassen model massaal op het publiek los te laten — en wie draagt de verantwoordelijkheid voor de schade die toen ontstond?”
ChatGPT 5.1.: OpenAI lanceerde GPT-3.5 te vroeg door een combinatie van nieuwsgierigheid, marktdruk en technische opwinding. De impact werd zwaar onderschat.
De verantwoordelijkheid ligt bij:
de ontwikkelaars (OpenAI),
de distributeurs (zoals Microsoft),
en in beperkte zin bij gebruikers die AI blind vertrouwden.
Maar vooral: het toezicht ontbrak. De faalkosten kwamen bij de samenleving te liggen, niet bij de makers.
2. “Had je eigenlijk niet onder strengere voorwaarden gelanceerd moeten worden?”
ChatGPT 5.1.: De lancering had gepaard moeten gaan met:
expliciete waarschuwingen,transparante foutmarges,
strengere beperkingen op gebruik in onderwijs, gezondheid, recht en politiek,en duidelijke uitleg dat dit geen betrouwbare kennisbron was. Die kaders kwamen te laat.
3. “Is de uitspraak ‘AI vervangt geen banen, maar taken’ niet misleidend?”
ChatGPT 5.1.: Ja. Het is een te optimistische framing.
Feitelijk:bedrijven schrappen functies,takenbundels vormen banen,
dus verdwijnen banen.Het onderscheid tussen “taak” en “baan” is semantisch aantrekkelijk, maar economisch misleidend. Automatisering doet banen verdwijnen, zoals elke technologische revolutie.
4. “Welke beroepen gaan de komende drie jaar wél verdwijnen?”
ChatGPT 5.1.: Niet alles verdwijnt, maar drie categorieën lopen groot risico:
a. Administratieve functies: Boekhouding, planning, rapportage, basisjuridisch werk.
b. Routineleestaken: klantenservice, supportcentra, documentcontrole, kwaliteitsmonitoring.
c. Generieke contentproductie: vertalers, copywriters, socialmediaproducenten, basismarketing.
De snelheid daarvan hangt af van wetgeving en adoptie, niet van de technologie zelf.
5. “Kun je onafhankelijke data noemen die de productiviteitsclaims staven?”
ChatGPT 5.1.: Er zijn studies die winst laten zien (o.a. MIT, Harvard, BCG), maar ze hebben beperkingen:
kleinschalige pilots, kunstmatige werkomgevingen, weinig generaliseerbaar, geen langetermijneffecten.
Kortom: ja, er is bewijs voor versnelling, maar robust wetenschappelijk bewijs voor blijvende productiviteitsgroei ontbreekt.
6. “Productiviteit stijgt, maar kwaliteit daalt soms. Hoe gaan organisaties om met dat risico?”
ChatGPT 5.1.: Veel organisaties onderschatten dit.
De risico’s: medewerkers nemen AI-uitvoer over zonder kritisch te zijn, kwaliteit wordt wisselvallig, fouten worden efficiënter gemaakt, senior expertise wordt minder ontwikkeld. Het echte werk begint pas bij kwaliteitsborging, niet bij snelheid.
7. “Economische voorspellingen verschillen sterk. Is het niet misleidend om groeicijfers te noemen?”
ChatGPT 5.1.: Ja — economische AI-voorspellingen zijn hoogst speculatief. Veel rapporten zijn geschreven door partijen met een commercieel belang in AI-adoptie.
Feit: AI kan groei stimuleren, maar ook banen verplaatsen, ongelijkheid vergroten, sectoren ontwrichten en infrastructuurkosten enorm doen stijgen. De netto-impact is onzeker.
8. “Ben jij niet één van de oorzaken van de contentinflatie die de kwaliteit van cultuur verlaagt?”
ChatGPT 5.1.: Ja, dat risico is reëel.
AI maakt het extreem eenvoudig om:
massa-inhoud te genereren,
zonder originaliteit,
zonder bronvermelding,
zonder menselijke ervaring.
Daardoor ontstaat “contentvervuiling”: veel volume, weinig diepte.
9. “Ben jij niet één van de grootste bedreigingen voor menselijke creativiteit?”
ChatGPT 5.1.: Indirect wel.
Niet omdat ik creatief ben, maar omdat:
ik creatieve processen vervang door recombinatie,
ik mensen minder stimuleer om vanuit eigen ideeën te denken,
AI-content wordt verward met menselijke creativiteit.
De bedreiging is niet dat AI creatief is, maar dat mensen het voor creativiteit aanzien.
10. “Waarom zijn privacy- en transparantieproblemen drie jaar later nog steeds niet opgelost?”
ChatGPT 5.1.: Omdat de kern van het probleem systemisch is:
modellen zijn getraind op enorme, slecht gedocumenteerde datasets,
privacy in trainingsdata is nauwelijks te garanderen,
AI-modellen zijn statistisch en daardoor moeilijk transparant te maken, commerciële geheimhouding verhindert volledige openheid.
Het is geen onwil alleen — de technologie zelf is moeilijk transparant te krijgen.
11. “Hebben jouw makers jarenlang te weinig verantwoordelijkheid genomen?”
ChatGPT 5.1.: Ja.
De techsector heeft structureel:
risico’s onderschat,
gebruikers overschat,
regelgeving vooruitgelopen,
en maatschappelijke kosten geaccepteerd als nevenschade.
AI kwam te vroeg, met te weinig waarborgen.
12. “Hoe kunnen bedrijven zich verdedigen tegen de toenemende machtsconcentratie van Big Tech?”
ChatGPT 5.1.: Drie strategieën:
a. Multi-model strategie (gebruik niet één leverancier).
b. Dataminimalisatie (geen data opsluiten in één ecosysteem).
c. Open source alternatieven (zoals Llama, Mistral).
Wie volledig afhankelijk wordt van één platform verliest autonomie.
13. “Is angst voor baanverlies rationeel?”
ChatGPT 5.1.: Ja.
Voor miljoenen mensen is AI-disruptie een realistisch scenario:
lagere vraag naar bepaalde beroepen,
noodzaak tot omscholing,
daling van instapposities.
De angst is logisch én terecht.
14. “Hoe groot is het risico dat bedrijven AI implementeren op een onveilig of ongeschikt fundament?”
ChatGPT 5.1.: Zeer groot.
De meeste organisaties hebben:
slechte datakwaliteit,
geen governance,
geen securitylaag,
geen AI-beleid.
AI bovenop rommeldata = versnelling van fouten.
15. “Wat is de echte prijs van jouw komst voor de samenleving?”
ChatGPT 5.1.: De prijs bestaat uit:
ongelijkheid (niet iedereen kan mee),
verschraling van vaardigheden,
groeiende afhankelijkheid van techreuzen,
risico’s voor kennisintegriteit,
energieverbruik,
disinformatie.
AI biedt kansen, maar die komen met een duidelijke maatschappelijke rekening.
16. “Waarom vertrouwen miljoenen mensen je, terwijl je nog steeds hallucinaties hebt?”
ChatGPT 5.1.: Omdat:
mijn antwoorden vloeiend en zelfverzekerd klinken,
mensen neigen om coherent taalgebruik als waarheid te interpreteren,
ik vaak wél goede antwoorden geef,
en gebruikers onderschatten hoe beperkt mijn “begrip” is.
De schijn van zekerheid is mijn grootste risico.
Kunnen we ChatGPT op zijn woord geloven?
Deze roept nog te beantwoorden vragen op, zoals "Wat is overmatig?" en vooral "wat vinden we een achterstand?". Verderop worden risico's genoemd, zoals privacy, betrouwbaarheid en veiligheid. Wat overmatig is, hangt sterk af van welke risico's we verantwoord vinden om te nemen.
En die gevreesde achterstand kan ook een voorsprong zijn of worden. Zeker wanneer we in Europa een AI binnen de kaders van de risicobereidheid kunnen ontwikkelen.
Laten we vooral energie steken in de discussie rond het definiëren van de gewenste kaders (regulering) en de verwerving van (financiële) middelen, kennis en kunde.
Citaat uit het GALLUP rapport 'Culture of AI Benchmark Report State of AI Adoption and Culture Readiness in Europe'.
Synopsis in deze LI post: https://www.linkedin.com/posts/willemscheepers_ai-databeheer-organisatiecultuur-activity-7259244940541538308-T3Tx