AI prompting: hoe je taalmodellen betrouwbaarder maakt met de juiste context

Eni Duka, Senior Developer

Large Language Models (LLM’s) werken als statistische tekstmachines. Laat je ze ongeleid, dan produceren ze tekst in de stijl van hun trainingsdata, inclusief onvoorspelbaarheid. Die onvoorspelbaarheid kunnen we nooit volledig wegnemen, maar wel in goede banen leiden. Een 'system prompt' helpt daarbij. Zo’n kader vertelt het model wat zijn rol is, welke beperkingen gelden en welke waarden leidend zijn. Zo vormt de prompt de spelregels voor de interactie met de gebruiker. Duidelijkheid hierin is de sleutel tot een LLM die menselijk en betrouwbaar aanvoelt. In dit artikel delen we onze inzichten over hoe LLM-antwoorden betrouwbaarder en human centered worden.

Maak je LLM-antwoorden betrouwbaar door context engineering in AI

LLM’s zijn krachtige tekstgenerators, maar hun kracht is tegelijk hun beperking: zonder context vallen ze terug op trainingsdata, en dat levert wisselende en soms onnauwkeurige resultaten op. Wil je een LLM inzetten op een manier die waarde toevoegt, dan moet je die context zorgvuldig vormgeven. 

Door relevante passages, tabellen of documenten eerst op te halen en die vervolgens via de prompt te structureren, ontstaan antwoorden die aansluiten bij de intentie van de gebruiker. Retrieval-Augmented Generation (RAG) is hier een veelgebruikte aanpak: feiten ophalen, ordenen en via een LLM vertalen naar een bruikbaar antwoord, daarbij steeds de betrouwbaarheid van de informatie bewakend. Dat principe, ook wel epistemische hygiëne genoemd, helpt om transparantie en vertrouwen in LLM-antwoorden te vergroten. 

Schrijf voor mensen, niet voor machines 

Context engineering bepaalt wat een LLM weet en gebruikt, maar minstens zo belangrijk is hoe die kennis vervolgens wordt overgebracht. Daar komt prompting in beeld. Waar context zorgt voor inhoud, stuurt prompting de manier van communiceren. Het draait niet alleen om technologie, maar net zo goed om psychologie, sociologie en communicatie. En dat menselijk communiceren is geen trucje, maar een ontwerpkeuze:  

Duidelijke taal: Instructies zoals “Schrijf op B1-niveau” maken AI-output toegankelijker. 

Empathie en consistentie: Geef je AI agent een vaste rol of persona, zodat gebruikers steeds het gevoel hebben met dezelfde ‘collega’ te praten. 

Co-creatie: Betrek de mensen die de AI agent daadwerkelijk gaan gebruiken bij het ontwerpen van prompts. Hun feedback zorgt ervoor dat de AI agent dezelfde taal spreekt, aansluit bij hun verwachtingen en past binnen hun werkprocessen. 

Van LLM-richtlijnen naar LLM in de praktijk 

In ons eigen werk merken we dat een simpel template helpt om abstracte principes om te zetten naar duidelijke, herhaalbare prompts. Elke regel fungeert als een bouwsteen: 

Rol en missie: “Je bent een toegankelijke assistent die concreet advies geeft op basis van … data.” 

Toon en taal: “Schrijf op B1-niveau. Gebruik technische taal alleen bij expliciet vragen.” 

Empathie: “Erken het gevoel van de gebruiker in één korte zin. Vermijd oordelen.” 

Bronnen: “Gebruik alleen de documenten die onder het ### SOURCES-gedeelte staan.” 

Databeleid: “Baseer je antwoord uitsluitend op de documenten in de system prompt.” 

Data-attributie: “Gebruik tags zoals <doc1>…</doc1>. Plaats de tag direct om de geciteerde tekst.” 

Veiligheid: “Weiger verzoeken die discriminerend, illegaal, schadelijk of irrelevant zijn.” 

Op zichzelf lijken deze regels eenvoudig, maar samen vormen ze een krachtig raamwerk: de AI agent weet wat zijn rol is, waar de grenzen liggen en welke waarden deze moet uitdragen. In de praktijk zien we hierdoor minder hallucinaties (door AI verzonnen feiten of overtuigingen), meer vertrouwen en een veel menselijkere interactie. 

Ook kleine gewoontes helpen: houd prompts gestructureerd (met witregels of genummerde lijsten), zet bronnen altijd ná de gedragsregels zodat ze die niet overschrijven, en sla versies op terwijl je test. Zelfs kleine wijzigingen kunnen de stijl van de AI agent beïnvloeden, dus versiebeheer en testen met echte gebruikers zijn essentieel. 

Prompting als hoeksteen van LLM’s 

Prompting is geen detail, maar een hoeksteen van human-centered AI. Het bepaalt hoe een AI agent zich gedraagt, welke informatie deze gebruikt en hoe een agent met mensen omgaat. 

Uiteindelijk help je een taalmodel het best door duidelijk te maken wie het moet zijn, welke bronnen het mag gebruiken en hoe het de mens aan de andere kant van het scherm moet benaderen. 

De toekomst van prompting en LLM's draait niet om technologie alleen, maar om de waarde die het creëert voor mensen. Wil je sparren over hoe je dit vertaalt naar jouw organisatie? Onze experts gaan graag met je in gesprek hierover.  

Zet de volgende stapin jouw digitale reis