AI-agent in 6 weken voor je MKB-bedrijf: het stappenplan
Een AI-agent in 6 weken productie-klaar krijgen is haalbaar voor 80% van de MKB-use cases. In dit artikel deel ik het complete stappenplan: stack-keuzes, weken-planning, kosten, en wanneer een agent juist niet de juiste oplossing is.
Een AI-agent in 6 weken productie-klaar krijgen is realistisch voor 80% van de MKB use cases die ik tegenkom. De andere 20% kan beter een ander hebben. In dit artikel deel ik wat een AI-agent precies is (en waarom het meer is dan een chatbot), welke stack ik aanraad voor MKB-bedrijven van 5 tot 50 medewerkers, en het concrete weken-plan dat we zelf bij Next Day Online hanteren.
Wat is een AI-agent en wat doet hij anders dan een chatbot?
Een chatbot beantwoordt vragen. Een AI-agent voert werk uit.
Het verschil zit in drie dingen: tools, context en autonomie. Een chatbot kent alleen zijn eigen kennisbank. Een AI-agent kan databases bevragen, APIs aanroepen, bestanden lezen, e-mails sturen, en op basis daarvan een keten van acties uitvoeren zonder dat een mens elke stap goedkeurt.
Een praktisch voorbeeld dat ik vorige maand bij een groothandel implementeerde: nieuwe inkoopfacturen worden gescand, automatisch vergeleken met de bijbehorende inkooporder in het ERP, en alleen de afwijkingen (bedrag wijkt meer dan 5% af, regel ontbreekt, leverancier onbekend) worden aan de boekhouder voorgelegd in Slack. De rest wordt rechtstreeks geboekt. Resultaat: 22 medewerkers, 5 weken implementatietijd, eerste 100 uur tijdwinst gemeten in week 8.
Dat kan een chatbot niet. Dit is autonoom werk, met fall-back naar de mens alleen als het lastig wordt.
De stack: waarom deze keuzes voor MKB
Ik werk standaard met vier bouwstenen. Geen toevallige combinatie, maar een set die elkaar versterkt en die geen DevOps-team vereist.
Slack als interface. MKB-medewerkers werken al in Slack, Teams of WhatsApp. Een aparte UI bouwen kost weken en niemand opent hem na twee maanden. In een bestaand kanaal landen vraagt geen training en werkt vanaf dag 1.
Supabase als database. Postgres met een dashboard erop, klaar in een uurtje. Schaalt naar honderdduizenden records voordat je er over hoeft na te denken. Auth en row-level-security zitten erin als je later toegang wilt beperken.
Vercel als hosting. Edge functions, deploys in 30 seconden, env-vars in de UI. Geen servers beheren, geen patches draaien. Voor iedere agent een eigen route, samen onder een budget-guard.
Anthropic Managed Agents als brein. Het LLM-werk gebeurt aan Anthropic-zijde, met sessies die langer dan een chat-window leven, eigen geheugen-stores en custom tools die ik aan mijn eigen Hub-code koppel.
Eerlijk: deze stack past niet overal. Heb je on-premise data die je systeem niet uit mag, dan moet je een gehoste LLM-router naar bijvoorbeeld een Azure OpenAI Private Link bouwen, wat de timeline verdubbelt. Doe je real-time trading of safety-critical werk, dan is een LLM-agent geen optie.
De 6 weken in detail
Week 1, use case definitie en scope. We shortlisten maximaal drie use cases en kiezen er één. Selectiecriteria: structureel werk dat minstens 4 uur per week kost, een meetbare uitkomst (factuur geboekt, lead gekwalificeerd, mail beantwoord), en een procesverantwoordelijke die mee wil helpen. Geen eigenaar, geen pilot.
Week 2, technisch fundament. Database-schema in Supabase, eerste agent-skelet in de Anthropic Console, basis-tools (web search, web fetch, schrijf-naar-database). Slack-bot ingericht en gekoppeld aan de Vercel hub. End-to-end Slack-bericht in, agent antwoordt terug, in week 2 al werkend.
Week 3, custom tools. Hier zit het echte werk. De koppeling met jullie systeem (boekhouding, CRM, ERP) wordt een custom tool die de agent kan aanroepen. Inputs en outputs worden strak gedefinieerd, fouten worden opgevangen, gevoelige velden gemaskeerd voordat ze naar het LLM gaan.
Week 4, eerste end-to-end flow. De agent doorloopt de volledige use case: input ontvangen, data ophalen, beslissing nemen, actie uitvoeren of voorleggen. We meten output-kwaliteit op een vaste set van 20 testcases.
Week 5, edge cases en error-handling. Wat als de API down is? Wat als data ontbreekt? Wat als de agent twijfelt? We bouwen retries met exponential backoff, een human-in-the-loop fallback, en logging die rijk genoeg is om twee weken later nog te begrijpen wat er gebeurde.
Week 6, productie en observability. Dashboard met run-statistieken, kosten per dag, foutpercentage. Eerste echte gebruikers krijgen toegang. We monitoren elke run de eerste twee weken en vangen wat we missen.
Na week 6 is de agent niet af. Hij is in productie. De eerste maand erna komt 30% nieuw werk uit observatie, dat hadden we vooraf niet kunnen bedenken.
Wat het kost
Eenmalig: implementatie-budget tussen 8.000 en 35.000 euro, afhankelijk van scope en aantal koppelingen. Onderkant geldt voor één duidelijke use case met één bestaande API. Bovenkant voor complexere flows met meerdere systemen en strenge data-eisen.
Maandelijks: hosting Vercel Pro circa 20 euro, Supabase Pro circa 25 dollar, Anthropic API verbruik tussen 10 en 200 dollar afhankelijk van volume. Reken voor een redelijk actieve agent op 80 tot 100 euro per maand totaal in vaste lasten plus verbruik.
Tijdsinvestering klant: 4 tot 8 uur per week tijdens de bouw, voor use case input, review-momenten en eind-acceptatie. Na go-live: 1 uur per week voor monitoring en feedback.
Tijdshorizon ROI: bij een goed gekozen use case is de eerste tijdwinst meetbaar in maand 1. Volledig terugverdiend tussen maand 2 en maand 4 voor een implementatie van 15.000 euro die 10 uur per week bespaart aan een medewerker van 50 euro per uur.
Wanneer een AI-agent NIET de juiste oplossing is
Ik raad een AI-agent expliciet af in vijf situaties.
Repeterend werk met vaste regels. Een RPA-tool of een goed scriptje is goedkoper en betrouwbaarder. Geen LLM nodig.
Strikte regelgeving zonder fouttolerantie. Medisch advies, financieel advies waar regelgevers per fout een boete uitdelen, juridische claims. LLMs maken fouten. Punt.
Data die niet uit je systeem mag. On-premise vereisten betekenen dat je geen managed LLM kunt gebruiken. Mogelijk wel met een lokale of private deployment, maar dan loopt de timeline op naar 4 tot 6 maanden en de kosten naar 60.000 plus.
Geen interne procesverantwoordelijke. Zonder eigenaar mislukt elke implementatie, of het nu een ERP-uitrol is of een AI-agent. De grootste indicator van succes is niet de techniek, maar of er iemand iedere week tijd vrijmaakt om de agent te verbeteren.
Verwachting van 100% accuracy zonder fall-back naar een mens. Een AI-agent zal soms fout zitten. Bouw je geen mens-in-de-loop voor de twijfelgevallen, dan boek je verkeerde facturen of verstuur je verkeerde mails. Dat kost meer dan de tijdwinst.
Hoe meet je of het werkt: vier KPIs
Adoptie: hoeveel mensen gebruiken hem actief per week. Onder de 30% van het beoogde team na maand 2 is een teken dat het use case verkeerd gekozen is of dat het traject onderweg gewijzigd had moeten worden.
Tijdwinst: hoeveel uur bespaart hij ten opzichte van de baseline-meting voor de pilot. Meet baseline twee weken voordat de agent live gaat, anders weet je niets.
Foutpercentage: percentage keer dat een mens moest corrigeren. Streefcijfer in een typische administratie-context: onder 5% na maand 2.
Maandelijkse runkosten versus bespaarde uren omgerekend in euro. Als de agent 80 euro per maand kost en 40 uur bespaart aan een medewerker van 50 euro per uur, is de ratio 1 op 25. Onder de 1 op 5 zou ik me afvragen of de agent het waard is.
Veelgestelde vragen
Heb ik een eigen developer nodig om dit te onderhouden? Niet voor de basis. Een goed gebouwde agent draait maanden zonder ingreep. Voor uitbreidingen of nieuwe use cases is technische kennis welkom, maar ik bouw klanten meestal zo dat ze een nieuwe tool of skill kunnen toevoegen via configuratie, niet via code.
Wat als Anthropic morgen failliet gaat, ben ik dan vendor-locked? De stack zit zo in elkaar dat het LLM een vervangbaar onderdeel is. Custom tools, database, Slack-bot en business-logica blijven van jou. Switchen naar OpenAI of een ander model kost typisch een paar dagen werk, geen volledige herbouw.
Werkt dit ook met onze on-premise data? Niet zonder aanpassingen. Wel met een private LLM-deployment via Azure of AWS Bedrock met VPC-peering. Dat verdubbelt de timeline en de kosten, maar het kan.
Hoe voorkom je dat de agent gevoelige info naar buiten lekt? Drie lagen: gevoelige velden worden gemaskeerd voordat ze naar het LLM gaan, ik gebruik een service-role key die alleen specifieke tabellen mag lezen, en alle agent-output wordt gelogd zodat je achteraf kunt zien wat hij wist en deed.
Kan ik dit zelf bouwen als ik een technische achtergrond heb? Ja, mits je 6 tot 10 weken vol kunt vrijmaken. De Anthropic-documentatie is uitstekend, Supabase en Vercel hebben starter-templates. Wat je betaalt aan een externe partij is voornamelijk de versnelling en de scope-discipline. De techniek zelf is niet exotisch.
Klaar om de eerste use case voor jouw bedrijf te bepalen?
Plan een gesprek van 30 minuten waarin we samen jouw drie beste use cases shortlisten en de eerste pilot scopen. Geen verkooppraatje, wel concrete vragen en een eerlijk antwoord op of een AI-agent voor jullie context het juiste antwoord is.
Plan een gesprek via nextdayonline.nl/contact
Geschreven door Peter Davelaar met AI-assistance.