Wil je je eigen AI-assistent bouwen? een die op je computer blijft, je privacy respecteert en daadwerkelijk dingen voor je kan doen?

In deze praktische handleiding laat ik je zien hoe je een eenvoudige maar krachtige AI-assistent bouwt met behulp van een lokaal Large Language Model (LLM) en het Model Context Protocol (MCP).

Geen cloud-afhankelijkheden. Alleen je eigen machine, je eigen tools en een beetje Python.

Waarom een locale LLM?

De meeste AI-tools zijn tegenwoordig afhankelijk van de cloud, je berichten worden via het netwerk verzonden en je gegevens verlaten je apparaat.

Met een lokale LLM vindt alle verwerking plaats op je computer. Dit betekent:

  • Je gegevens verlaten je apparaat nooit
  • Geen internetverbinding nodig
  • Volledige controle over wat de AI ziet en doet

Dit werkt perfect met open-sourcemodellen en kan als je wil ook worden gebruikt met betaalde AI-API’s. Maar voor privacy en onafhankelijkheid kiezen we voor lokaal.

Stap 1: Installeer LM Studio

Ga naar https://lmstudio.ai en download LMStudio. Het is gratis en gebruiksvriendelijk.

Met LMStudio kun je lokale LLM’s downloaden en direct op je computer uitvoeren. Je hoeft geen complexe frameworks te installeren of servers te draaien.

Stap 2: Kies een model die bij je setup past

LMStudio biedt honderden open-sourcemodellen. Je vindt ze hier: https://lmstudio.ai/models

Een zeer populair model is openai/gpt-oss-20b, een model met 20 miljard parameters dat is getraind op redeneren en tools. Het is slim, capabel en geweldig voor complexe taken.

Maar het probleem is: het heeft minimaal 12 GB RAM nodig.

Als je niet zoveel geheugen hebt, geen zorgen! Probeer in plaats daarvan Qwen3-4b, een kleiner, efficiënt model. Het heeft slechts 2 GB RAM nodig en levert nog steeds goede prestaties. Dat is precies wat ik in dit artikel zal doen.

Zoek Qwen3-4b in de lijst en klik op “Use Model in LM Studio” om het direct te downloaden.

Na het downloaden open je LMStudio en selecteer je je model in de bovenste balk (of druk je op Ctrl + L om snel te wisselen).

Wacht tot het geladen is en klik vervolgens op “Create a new Chat” (of gebruik Ctrl + N) en stel een eenvoudige vraag:

“Waarom is de lucht blauw?”

Als het antwoord correct is, heb je je lokale AI-assistent succesvol ingesteld en heb je nu volledige controle over je gegevens.

Maar wat kunnen deze AI modellen eigenlijk doen?

Zelfs het slimste model weet bijvoorbeeld niet:

  • Welke tools je in je fabriek gebruikt
  • Hoe je toegang krijgt tot je productieplanning
  • Wat de urgente bestellingen van je klanten zijn

Zonder context is de AI slechts een chatbot, een slimme vriend die alles weet, maar eigenlijk niets kan doen.

Daarvoor hebben we tools.

Het Model Contect Protocol (MCP)

MCP staat voor Model Context Protocol, een eenvoudige, gestandaardiseerde manier voor AI-modellen om echte tools (zoals bestanden, API’s of interne software) aan te roepen.

Jarenlang konden AI-systemen alleen reageren op vragen. Dankzij MCP kunnen ze nu handelen als een echte medewerker die taken uitvoert, bestanden controleert en systemen bijwerkt.

Bijvoorbeeld:

  • Google Drive MCP laat AI bestanden aanmaken of spreadsheets bijwerken.
  • Slack MCP laat AI berichten versturen of reageren op discussies.

Op je werkplek heb je waarschijnlijk tools die iets doen, van planning tot voorraadbeheer. Waarom zou je AI die tools niet _laten gebruiken?

Stap 3: Bouw je eigen MCP Server (in Python)

Je hoeft geen volledig AI-platform te bouwen. Slechts één eenvoudig Python-script en je kunt aan de slag. Ik ga er nu wel vanuit dat je weet hoe je Python installeert en hoe je bibliotheken kan installeren met pip. We gebruiken de FastMCP-bibliotheek, waarmee je eenvoudig en snel MCP-servers kunt bouwen. Hier is een eenvoudig voorbeeld:

from fastmcp import FastMCP

app = FastMCP("manufacturing_mcp")

@app.tool()
def optimize_schedule(order_id: str, priority: str):
    return f"Geoptimaliseerde planning voor order {order_id} met prioriteit: {priority}."

if __name__ == "__main__":
    app.run(transport="streamable-http", host="0.0.0.0", port=8000)

Dat is het!

Wat gebeurt hier?

  • We maken een nieuwe MCP-app genaamd manufacturing_mcp
  • De decorator @app.tool() vertelt de AI: “Deze functie is een tool die ik kan aanroepen.”
  • We definiëren invoerparameters (order_id, priority) en wat deze retourneert.
  • We starten de server op http://localhost:8000/mcp

Voer dit script uit en houd het draaiende. Je server is nu live!

Stap 4: Connect de MCP Server aan LMStudio

Nu moeten we LMStudio over deze tool vertellen.

  1. Klik in LMStudio op het moersleutelpictogram (🔧) in de rechterbovenhoek.
  2. Selecteer ‘Programma’.
  3. Klik op ‘Installeren’ en kies vervolgens ‘mcp.json bewerken’.

Je ziet een standaard JSON-bestand:

{
  "mcpServers": {}
}

Werk het nu bij met je nieuwe MCP-server:

{
  "mcpServers": {
    "ManufacturingMCP": {
      "url": "http://localhost:8000/mcp"
    }
  }
}

Dit vertelt LMStudio: “Ik heb een tool genaamd ManufacturingMCP die op mijn lokale server draait.”

Stap 5: Gebruik je AI Agent

Klik in de chat op het socket-icoontje (een klein stekkertje) en activeer de tool ManufacturingMCP.

Vraag nu:

“We hebben zojuist een spoedorder X2345 ontvangen. Wilt je deze opnieuw inplannen met prioriteit SPOED?”

Wat gebeurt er?

  • De AI vraagt: “Do you allow me to run this tool?”

  • Je klikt op “Proceed”

  • Vink eventueel het vakje aan: “Always allow any tool from mcp/manufacturing-mcp” (Dit geeft volledige controle, handig als je erop vertrouwt dat je AI actie onderneemt)

De AI voert vervolgens de functie optimize_schedule uit en reageert met een bericht als:

“Geoptimaliseerde planning voor order X2345 met prioriteit: SPOED.”

Je AI handelt nu en praat niet alleen.

Wat nu?

Je kunt deze configuratie uitbreiden met nog meer tools:

  • Lees inkomende e-mails
  • Haal realtime bestellijsten op
  • Stuur meldingen naar teamleden
  • Controleer voorraadniveaus
  • Activeer waarschuwingen voor vertragingen

De AI gebruikt deze tools nu om echte gegevens te verzamelen en te reageren met nauwkeurige, bruikbare inzichten, net als een echte medewerker.

Laatste gedachten

Dit is geen magie. Het is eenvoudige software + duidelijke logica + een beetje Python. Je hebt geen toegang nodig tot dure AI-diensten.

Met een lokale LLM en één MCP-server kun je:

  • Je gegevens privé houden
  • Dagelijkse taken automatiseren
  • Een AI-assistent bouwen die werkt en niet alleen praat

En het beste? Je kunt dit in je eigen tijd bouwen en aanpassen aan je bedrijf.

Dus ga je gang, probeer het uit. Begin klein. Voeg één voor één tools toe. En zie je AI uitgroeien van een chatbot tot een echte helper.


Als jij problemen hebt die opgelost moeten worden, neem dan gerust contact met mij op via hookprograms@outlook.com om mogelijke oplossingen te bespreken.

Bronnen