In mijn eerdere artikelen op ManagementSite beschreef ik AI als co-intelligentie en introduceerde ik het Body of Capacity model - waarom prestaties meer zijn dan alleen kennis. Nu breng ik beide samen: hoe kunnen we de capaciteit van mens en AI combineren voor betere resultaten?
Van ambitie naar belemmering
Een mediaplatform waar ik als adviseur bij betrokken ben, wordt gerund door twee journalisten: één in Suriname en één in Nederland. Hun ambitie is groot: doelgroepen in beide landen voorzien van objectief nieuws en kennis over ondernemerschap en organisatie. Hun visie is een platform dat wereldwijd te beluisteren, te bekijken en te gebruiken is, en dat zichzelf financieel kan bedruipen.
Maar de praktijk is weerbarstig. Opnames worden gemaakt met een telefoon en live uitgezonden via Facebook, inclusief haperingen. Er is onvoldoende capaciteit voor montage of distributie via YouTube, Spotify of andere social media platformen. De werkdruk is hoog en de opbrengsten zijn nihil. Het enthousiasme is er, maar de body of capacity schiet tekort.
Digitale collega’s als oplossing
Hier komt autonome AI in beeld. AI-agenten zijn digitale collega’s die zelfstandig taken uitvoeren, samenwerken en plannen opvolgen. Ze nemen repetitieve werkzaamheden uit handen en doen dat sneller en consistenter dan mensen.
Voor een mediaplatform kan dit veel betekenen. Agenten zuiveren geluids- en videobestanden, monteren automatisch en zetten gesprekken direct om in teksten en samenvattingen. Ze verzorgen distributie via YouTube en Spotify, ondersteunen de videoproductie en analyseren trends in bereik en betrokkenheid.
De rekensom maakt de belofte tastbaar. Een traditionele redactie van achttien mensen kost jaarlijks bijna een miljoen euro en bereikt pas na acht tot tien jaar het break-evenpunt. Een hybride team van vier mensen met AI-agenten kost drie ton, is al in het eerste jaar kostendekkend en maakt vanaf het derde jaar winst met marges rond de vijftig procent.
Zoals de opdrachtgever zei: “Met deze mogelijkheden van AI kan ik iets betekenisvols voor de samenleving doen.”
De body of capacity van mensen
Organisaties presteren alleen goed als kennis, de attitude, en de omgeving samenkomen. Dat geldt ook voor mensen. Hun kennis is opgebouwd uit informatie, ervaring, vaardigheden en kennis van processen, vakmanschap. Hun overtuiging wordt gevormd door waarden, emoties en ethiek, en geeft richting en betekenis. Hun omgeving moe hen ondersteunen met onder andere beschikbare middelen.
De menselijke body of capacity brengt creativiteit, empathie, moreel kompas en betekenisgeving. Het is persoonsgebonden en contextueel: mensen voelen aan, leggen verbanden en geven duiding.
De body of capacity van AI-agenten
AI-agenten functioneren anders dan mensen. Hun kennis komt voort uit datasets en getrainde modellen. Ze zijn schaalbaar, consistent en snel, maar missen intuïtie en context. Hun overtuiging is niet gebaseerd op waarden, maar op filters en instructies die door mensen zijn ingesteld: ethische kaders, stijlregels en feitencontroles. Hun omgeving bestaat uit technische infrastructuur: API’s, cloudplatforms en governance.
De body of capacity van AI-agenten levert herhaalbaarheid, snelheid en schaal. Het is generiek en data-gedreven: altijd consequent, maar zonder gevoel voor nuance of maatschappelijke impact.
Waar mens en machine elkaar aanvullen
De verschillen tussen mens en machine zijn groot, maar juist daardoor ontstaat er kracht in de combinatie. Mensen brengen visie en waarden in, AI-agenten schaal en herhaalbaarheid. Mensen geven betekenis, AI-agenten zorgen voor efficiëntie. Mensen bewaken ethiek, AI-agenten voeren betrouwbaar uit.
Een organisatie die beide bodies of capacity weet te combineren, krijgt iets unieks: snelheid én betekenis, schaal én verantwoordelijkheid, efficiëntie én menselijke maat.
Kritische stemmen: AI niet zonder risico
De belofte van AI is groot, maar er klinkt ook een breed koor van critici dat waarschuwt voor de keerzijde. Hun zorgen lopen uiteen van verre toekomstscenario’s tot heel concrete vraagstukken van vandaag.
Sommige denkers, zoals Nick Bostrom en Stuart Russell, vrezen dat superintelligente systemen de mens voorbij kunnen streven en oncontroleerbaar worden. Voor hen staat het voortbestaan van de beschaving op het spel.
Anderen richten zich op ongelijkheid en vooroordelen. Onderzoekers als Timnit Gebru en Joy Buolamwini hebben laten zien hoe AI discriminerend kan werken, bijvoorbeeld bij gezichtsherkenning of werving. AI is volgens hen geen neutraal instrument: het versterkt vaak de bestaande machtsstructuren en vooroordelen die in de data aanwezig zijn.
Economen voegen daar een ander perspectief aan toe. Daron Acemoglu waarschuwt dat AI, banen kan verdringen en ongelijkheid vergroot. Erik Brynjolfsson benadrukt dat AI alleen waarde heeft als het mensen aanvult, niet vervangt. De vraag wie profiteert en wie achterblijft, is allesbehalve beantwoord.
Ten slotte klinkt de roep om regulering. Cathy O’Neil liet in Weapons of Math Destruction zien hoe ondoorzichtige algoritmen gewone mensen kunnen schaden. Zelfs AI-pioniers als Geoffrey Hinton en Yoshua Bengio pleiten inmiddels voor strengere regulering.
Voor managers betekent dit: AI inzetten is geen puur technische of financiële beslissing. Het is ook een kwestie van waarden, toezicht en maatschappelijke verantwoordelijkheid. Zelfs bij het ontwerpen van een mediaplatform – een relatief kleine toepassing – moeten deze zorgen vanaf het begin meegenomen worden. Niet alles wat kan, moet ook.
Leiderschap en regulering
De uitdaging voor managers is balans. AI-agenten zijn geen wondermiddel, maar wel krachtige instrumenten. Ze nemen werk uit handen, maar vervangen nooit het oordeel en de visie van mensen.
Dit vraagt om leiderschap dat technologie omarmt, maar ook regulering organiseert controleert. Wie neemt de rol van AI-verantwoordelijke op zich? Hoe wordt toezicht ingericht? Welke kwaliteits- en ethische criteria gelden? Alleen met die randvoorwaarden kan de gezamenlijke body of capacity duurzaam functioneren.
Lessen voor andere sectoren
Hoewel dit verhaal begon bij een mediaplatform, zijn de lessen breder toepasbaar. In klantenservice nemen chatbots tachtig procent van de standaardvragen over, maar persoonlijk contact blijft nodig. In HR kan AI cv’s screenen en trainingen voorstellen, maar de keuze wie in een team past blijft menselijk. In finance signaleren agenten risico’s, maar de financieel directeur beslist welke risico’s acceptabel zijn.
Steeds opnieuw komt dezelfde les terug: de kracht zit in de combinatie van menselijke en digitale body of capacity.
De toekomst: klein team, grote slagkracht
Organisaties van de toekomst zijn compact, maar beschikken over grote slagkracht. Een klein kernteam stuurt een netwerk van AI-agenten aan. In de media zoals bij het mediaplatform waarmee we bezig zijn, betekent dat: een hoofdredacteur, een AI-operator, een technicus en iemand die de community betrekt. Alle repetitieve taken worden uitgevoerd door AI-agenten.
Andere sectoren kunnen hetzelfde patroon volgen: kleine, wendbare teams met digitale co-pilots die voor schaal zorgen. Dat opent perspectieven, maar roept ook vragen op. Hoe blijven medewerkers gemotiveerd? Welke nieuwe vaardigheden zijn nodig? Hoe voorkom je vervreemding van de doelgroep?
Het zijn vragen die elke leider de komende jaren moet beantwoorden.
Tijd voor keuzes
De case van dit mediaplatform laat zien hoe groot de kloof is tussen een traditionele redactie en een hybride team met AI-agenten. De winst is groot, maar de risico’s zijn reëel. De les voor managers is breder: AI kan processen versnellen en kosten drukken, maar roept ook fundamentele vragen op. Niet alles wat kan, moet ook.
Daarom is het tijd voor keuzes. Onderzoek wat AI voor uw organisatie kan betekenen, maar doe het kritisch. Begin klein, experimenteer, en organiseer toezicht. Stel steeds de vraag: maakt dit ons beter, of alleen maar efficiënter? Je kan ook de verkeerde dingen sneller en beter doen.
Stelling
De organisaties van de toekomst worden gebouwd door kleine teams, ondersteund door digitale co-pilots. De vraag is niet of u AI-agenten gaat inzetten, maar of u de juiste balans weet te vinden tussen menselijke en digitale body of capacity.
Persoonlijke reflectie Mijn eigen ervaring met AI bevestigt dit. Ik ben al een tijd met AI bezig – eerst de theorie verkennen en de praktijk. Wat mij vooral treft, is de veelzijdigheid: AI kan fungeren als schrijver, redacteur, en zelfs als kritische gesprekspartner tijdens brainstormsessies. Maar het ontwerpen en inzetten van eigen agenten is geen kwestie van ‘knop omdraaien’. Het vergt oefening, fijnslijpen en een scherp oog voor wat wel en niet werkt. AI is geen magische oplossing, maar een krachtig instrument – mits je leert hoe je het effectief kunt inzetten. Dat vraagt om nieuwe vaardigheden, maar ook om het durven stellen van kritische vragen: Waar voegt AI écht waarde toe? En waar blijft de menselijke maat leidend?
Terugblik
Deze drie artikelen over hybride capaciteit– ‘AI als co-intelligentie’, ‘Body of capacity’ en ‘De body of capacity van mens en AI’, laten zien: AI kan risico’s met zich meebrengen, maar bij ethisch en bewust gebruik en een belangrijke rol voor mensen, wordt het een krachtige uitbreiding van onze mogelijkheden. Van praktische co-intelligentie via het capaciteitsmodel naar hybride teams - de toekomst ligt in de verantwoordelijke combinatie van menselijke en digitale capaciteit.
Over de auteur
Rudi Darson is als adviseur betrokken bij het inrichten van een mediaplatform waarbij de body of capacity van mensen en AI-agenten centraal staat in het ontwerp.
Deel uw ervaringen op ManagementSite
Wij zijn altijd op zoek naar ervaringen uit de praktijk, wat werkt wel, wat niet.
SCHRIJF MEE >>
Als u 3 of meer artikelen per jaar schrijft, ontvangt u een gratis pro-abonnement twv €200,--
1. Inventariseer alle taken
Actie: Maak een lijst van alle taken in het proces.
Voorbeeld mediaplatform:
Opnames maken
Video’s monteren
Geluidsbestanden zuiveren
Interviews transcriberen
Content plannen voor YouTube/Spotify
Trends in bereik analyseren
2. Classificeer: mens, AI of samen?
Criteria:
Mens: Taken met creativiteit, ethiek of empathie (bijv. interviews afnemen, eindredactie, communitymanagement).
AI: Repetitieve, data-gedreven taken (bijv. ruwe montage, transcripties, distributieplanning, trendrapportages).
Samen: Taken waar menselijke input AI verrijkt (bijv. AI monteert, redacteur checkt de emotionele toon).
Tool: Gebruik een eenvoudige Excel-matrix met kolommen: Taak | Mens | AI | Samen.
3. Selecteer AI-agenten en match met medewerkers
AI-agenten:
Montage: Tools als Descript of Adobe Premiere (AI-plugins).
Transcriptie: Otter.ai of Fireflies.
Distributie: Buffer of Hootsuite met AI-scheduling.
Medewerkers:
Kies teamleden met technische vaardigheden (bijv. om AI-tools in te stellen) en lerende houding (bijv. bereid om feedback te geven aan de AI).
4. Creëer een faciliterende omgeving
Technisch:
Zorg voor toegang tot de gekozen tools (API-keys, licenties).
Test offline functionaliteit als internet onbetrouwbaar is (bijv. lokale opslag voor ruwe bestanden).
Sociaal:
Wijs een AI-ambassadeur aan (bijv. de technicus die collega’s helpt).
Organiseer een kick-off workshop om het team vertrouwd te maken met de nieuwe werkwijze.
5. Start een pilot met één taak
Keuze: Begin met de minst complexe taak (bijv. automatische transcripties van interviews).
Meet:
Tijdwinst (bijv. van 4 uur naar 30 minuten per transcriptie).
Kwaliteit (bijv. nauwkeurigheid van de transcriptie, 95%+).
Voorbeeld:
Week 1: AI transcribeert 5 interviews; redacteur controleert en geeft feedback.
Week 2: AI past zich aan op basis van feedback (bijv. beter omgaan met Surinaams-Nederlandse accenten).
6. Evalueer en schaal op
Vragen:
Werkt de AI zoals bedoeld? (Bijv. zijn de transcripties bruikbaar?)
Voegt het waarde toe voor de doelgroep? (Bijv. komen video’s sneller online?)
Zijn er ethische issues? (Bijv. mist de AI culturele nuances?)
Volgende stap:
Als de pilot slaagt, voeg dan montage toe als volgende taak.
Succes meten: “Voorheen duurde montage 8 uur, nu 2 uur met AI-ondersteuning.”
Extra aandachtspunten:
Context: Past de AI bij de lokale omstandigheden? (Bijv. werkt de tool met trage internetverbindingen?)
Zichtbare successen: Deel resultaten in het team (bijv. “Deze week 10 uur tijdwinst door AI-transcripties”).
Ethiek: Stel een maandelijkse check in: controleer een steekproef van AI-output op vooroordelen of fouten.
1. AI als co-pilot: efficiëntie en ondersteuning
AI-agenten nemen repetitieve taken over:
Transcriberen van interviews (bijv. met Otter.ai).
Eerste montage van video’s (bijv. met Descript).
Plannen en distribueren van content op YouTube/Spotify.
Voorbeeld: Een AI-agent monteert een ruwe versie van een interview in Suriname, waarna de journalist in Nederland de finale structuur en toon bepaalt.
Real-time ondersteuning: Tijdens live-uitzendingen levert de AI direct samenvattingen, trefwoorden en feitenchecks — als een digitale assistent naast de journalist.
2. AI als co-thinker: creativiteit en analyse
Patronen en inzichten ontdekken:
De AI analyseert bereik, betrokkenheid en trends en stelt voor:
“Dit citaat over duurzaamheid sluit aan bij de trend in Nederland — wil je hier een vervolgverhaal over maken?”
“De ondernemer noemt een onbekend initiatief — zal ik achtergrondinformatie zoeken?”
Brainstormpartner:
Journalisten kunnen ideeën sparren met de AI:
“Welke invalshoeken ontbreken in dit verhaal over lokaal ondernemerschap?”
De AI suggereert nieuwe hoeken, maar de journalist beslist wat relevant is.
3. De bouwer als regisseur
Systeemontwerp voor samenwerking:
Flexibele algoritmes die leren van journalisten (bijv. “Deze toon past bij ons platform”).
Transparante feedbackloops: De AI legt uit waarom het een bepaalde suggestie doet (bijv. “Ik stel deze kop voor omdat…”).
Grenzen en ethiek: De AI mag nooit zelfstandig publiceren zonder menselijke goedkeuring.
4. Omgaan met meningsverschillen
Constructief leren:
Als de journalist een AI-suggestie afwijst (bijv. een te sensatiebeluste kop), past het systeem zich aan voor toekomstige voorstellen.
Voorbeeld: “De AI leert: ‘Ons platform kiest voor nuance boven sensatie’.”
Gezamenlijke verantwoordelijkheid:
De journalist in Suriname levert lokale context, de AI structureert en analyseert, de journalist in Nederland finetunet het eindresultaat.
5. Vertrouwen door co-creatie
“AI is geen vervanging, maar een partner:
Co-pilot voor efficiëntie (taken uitvoeren).
Co-thinker voor diepgang (inzichten en ideeën).
Menselijke regie blijft leidend — de journalist beslist wat er live gaat.
Net als bij een menselijk team: vertrouwen groeit door samen te werken, te leren en elkaar aan te vullen.”
1. Traditionele AI (bijv. ChatGPT, Le Chat, Gemini, Claude):
.Functie: Generatieve AI die tekst, afbeeldingen of code produceert op basis van prompts.
.Limiet: Werkt reactief en contextgebonden — elke taak vereist een nieuwe instructie.
Voorbeeld: Je vraagt “Schrijf een brief”, en de AI genereert tekst. Verzenden, bijwerken of actie ondernemen doe je zelf.
Geen geheugen tussen sessies (tenzij je tools zoals "custom instructions" gebruikt).
2. 'Autonome' AI-agenten: digitale werknemers
.Functie: Kunnen zelfstandig taken uitvoeren binnen afgebakende processen, maar niet volledig autonoom.
Wat ze kunnen:
.Taken automatiseren die uit meerdere stappen bestaan (bijv. een brief schrijven → opslaan → herinnering plannen).
.Beslissingen nemen op basis van vooraf gedefinieerde regels (bijv. “Als er geen reactie komt, stuur een follow-up”).
Voorbeelden van tools:
Zapier + AI (workflowautomatisering).
Auto-GPT (experimentele agenten voor meerstapstaken).
CrewAI of Adept (voor specifieke werkprocessen).
Beperkingen:
Geen echte autonomie (geen zelfstandige doelen, foutgevoelig).
Menselijk toezicht vereist voor kwaliteit en ethiek.
Cruciale verschillen en verantwoordelijkheden
.Werkwijze:
Traditionele AI: Reactief (wacht op input).
Autonome AI-agenten: Semi-autonoom (volgen stappenplannen, maar kunnen niet improviseren).
.Taken:
Traditionele AI: Tekst/code genereren.
Autonome AI-agenten: Procesmatige taken (bijv. data verzamelen → analyseren → rapporteren).
.Menselijke sturing:
Traditionele AI: Constant nodig voor elke taak.
Autonome AI-agenten: Alleen bij uitzonderingen (fouten, ethische dilemma’s).
.Risico’s:
Traditionele AI: Hallucinaties (verzonnen antwoorden).
Autonome AI-agenten: Fouten in workflows (bijv. verkeerde data gebruiken).
Ethiek en governance: essentieel
Regels voor autonome agenten:
“Gebruik geen data met auteursrechten — controleer licenties en vermeld bronnen.”
“Vraag toestemming voor gevoelige gegevens.”
“Log acties voor traceerbaarheid.”
Praktische checks:
Automatische controles (bijv. “Is deze afbeelding vrij te gebruiken?”).
Voorbeeld: Een AI-agent markeert twijfelachtige bronnen voor menselijke review.
'Autonome' AI-agenten gaan verder dan traditionele tools zoals ChatGPT of Le Chat. Ze kunnen in opdracht zelfstandig taken uitvoeren, maar hun echte kracht ligt in samenwerking met mensen. Waar traditionele AI wacht op instructies, kunnen 'autonome' agenten processtappen overnemen — als digitale collega’s die je ondersteunen bij repetitieve werkzaamheden, terwijl jij je richt op creativiteit en inhoud.
De uitnodiging: experimenteren in tandem
Het gaat niet om of mens of AI, maar om wat je samen kunt bereiken. Begin met het gezamenlijk uitvoeren van taken om de mogelijkheden en grenzen te ontdekken:
Laat de AI een eerste versie maken (bijv. een samenvatting, een conceptbrief, of een contentplan), en verfijn dit samen.
Test wie wat het beste doet: Welke taken pak je zelf op, en waar kan de AI je ontlasten?
Tast de grenzen af:
Waar excelleert de AI? (bijv. snelheid, consistentie, data-analyse).
Waar is de mens onmisbaar? (bijv. nuance, ethiek, creatieve keuzes).
Leer van elkaar: Geef feedback aan de AI (bijv. “Deze toon past beter bij ons”), en laat je verrassen door wat de AI aan inzichten of suggesties biedt.
Oefen niet in isolatie, maar in samenwerking:
De journalisten van het platform kunnen met AI-agenten interviews analyseren, trends spotten, of eerste versies van artikelen schrijven — om vervolgens met menselijk oordeel de diepgang toe te voegen.
Redacteuren kunnen AI inzetten voor factchecks, stijlcontroles, of distributieplanning, terwijl ze zelf de eindverantwoordelijkheid houden.
Iedereen kan kleine experimenten doen: een taak kiezen, de AI laten assisteren, en evaluen wat werkt.
De sleutel ligt in samen ontdekken:
Welke taken kunnen we overdragen?
Waar hebben we menselijke intuïtie nodig?
Hoe verbeteren we elkaars werk?
Wat we doen met het platform kan je ook doen met andere activiteiten.
Begin vandaag — niet met grote plannen, maar met nieuwsierigheid en openheid. De beste inzichten komen voort uit doen, evalueren en aanpassen.