Ga direct naar de inhoud

Jouw AI heeft een persoonlijkheid, of je die nu bewust hebt ontworpen of niet

In een wereld waarin AI-gestuurde agents steeds vaker met ons communiceren - van chatbots op webshops tot virtuele docenten op studie-apps - wordt één ding vaak over het hoofd gezien: jouw AI heeft een persoonlijkheid. Of je deze nu bewust ontwerpt of niet, de manier waarop AI spreekt, zich gedraagt en reageert bepaalt hoe gebruikers jouw merk zien, jouw dienst vertrouwen en op jouw aanbod reageren. Het begrip ‘botsonality’ komt steeds meer naar voren als een belangrijk onderdeel van de AI-strategie. Als je het goed aanpakt, vergroot je de betrokkenheid en loyaliteit. Maar als je het niet goed aanpakt, loop je het risico dat klanten afhaken of weglopen.

Wat is botsonality?

De vroegste chatbots, zoals ELIZA in de jaren zestig van de vorige eeuw, imiteerden gesprekken tussen mensen maar hadden geen vaste identiteit of herkenbaar karakter. In de jaren 2000 introduceerden spraakassistenten als Siri en Alexa herkenbare, merkgebonden stemmen, maar hun persoonlijkheden waren grotendeels gebaseerd op scripts.

Nu LLM’s en Agentic AI de deur openen naar meer menselijke en dynamische interactie, betreden we een tijdperk waarin merken communiceren via meer dan alleen ontwerp en tekst. Ze communiceren via agents die direct interactie hebben met mensen. En of je ze nu bewust hebt ontworpen of niet, deze agents hebben een persoonlijkheid. Binnen de huidige kaders wordt een taakgerichte (wat AI doet) of systeemgerichte (hoe het werkt) aanpak gehanteerd, maar wordt over het hoofd gezien hoe persoonlijkheidsverschillen van gebruikers hun gebruikerservaring én hun welzijn fundamenteel beïnvloeden.1

Persoonlijkheid beïnvloedt hoe gebruikers over jouw merk denken, hoeveel vertrouwen ze in een platform hebben en of ze terugkomen. Dit leidt tot een nieuw vakgebied in ontwerpen: ontwerpen voor de persoonlijkheid van jouw AI, oftewel de ‘botsonality’.

Botsonality is het bewust ontwerpen van de persoonlijkheidsperceptie van AI.

En dat gaat verder dan wat jouw chatbot zegt
 

"Botsonality is niet simpelweg een palet van prompts of een handvol emoji’s. Het gaat er ook niet om de agents zo menselijk mogelijk te maken. In plaats daarvan gaat het erom ervoor te zorgen dat AI-agents op een gepaste en consistente manier reageren en aansluiten bij het merk, de context van het gebruik en ethische normen en waarden."

Zie het als het AI-equivalent van hoe je nieuwe teamleden inwerkt: je onderzoekt of ze bij de bedrijfscultuur passen, je traint ze om je merk naar buiten toe te vertegenwoordigen en je verwacht dat ze meer leren naarmate ze groeien binnen het bedrijf. Hetzelfde mag je verwachten van je virtuele agents.  

Een geweldige botsonality is een onderscheidende factor voor een merk

Net als in het echte leven kan het uiterlijk de eerste interesse wekken, maar zorgt een geweldige persoonlijkheid ervoor dat die interesse blijft bestaan.

Wanneer een botsonality met zorg wordt ontworpen ontstaat een strategisch mechanisme voor gebruikersbetrokkenheid en merkperceptie. Wanneer een bot competent en gepast communiceert, projecteren de gebruikers die kwaliteiten op de organisatie zelf.

Onderzoek laat zien dat er een meetbaar prestatieverschil is tussen ontworpen botsonalities en ongestuurde systemen. Een telecommunicatiestudie waarin meer dan 57.000 chatbotinteracties zijn geanalyseerd, toont verbeteringen aan in koopgedrag en interactietijd voor zowel introverte als extraverte gebruikers als de persoonlijkheid van de chatbot aansluit bij de persoonlijkheid van de consument .2

Onderzoek naar chatbots voor mentale gezondheid laat zien dat bewust ontworpen persoonlijkheidskenmerken zorgden voor een meetbaar hogere betrokkenheid onder gebruikers. Daarnaast blijkt dat persoonlijkheidskenmerken van gebruikers een belangrijke rol spelen in de waargenomen overtuigingskracht van verschillende app-functies.3

Duolingo is een goed voorbeeld van een bewust ontworpen botsonality die betrokkenheid genereert. De toon en het taalgebruik sluiten perfect aan bij het game-achtige karakter van de app, terwijl de taal en het gedrag - met mild sarcastische maar vriendelijke dagelijkse aansporingen - jonge gebruikers aanspreken en de educatieve missie van het merk ondersteunen.

Omgekeerd betekent dit ook dat als jouw AI faalt door inconsistentie of emotionele ongevoeligheid, dit nadelige gevolgen heeft voor jouw merk. Toen de AI-chatbot van een grote pakketbezorger na een systeemupdate defect raakte, klanten begon uit te schelden en het bedrijf bekritiseerde, werden de negatieve effecten van het niet inbouwen en testen van morele vangrails pijnlijk duidelijk.

Hoe ontwerp je dan bewust een botsonality? Onze aanpak stoelt op drie onderling verbonden lagen.
 

Zo moet je je botsonality benaderen

Idealiter bestaat je botsonality uit drie lagen, afhankelijk van hoe geavanceerd de beschikbare technologie is:

• Kernidentiteit: bepaal de specifieke merkwaarden van jouw bot, de ethische grenzen en de gebruiksdoelstellingen. Waar staan jouw merk en jouw bot voor? Welk gedrag is niet onderhandelbaar? Wat is de culturele context? Hoe reageert de bot bijvoorbeeld op pestgedrag en onbeschoftheid? Vragen we eerst of lossen we eerst op? Zijn we optimistisch of beschermend?

• Expressielaag: bepaal toon, stijl, taal, opmaak, gebruik van emoji’s, stem en afbeelding (indien van toepassing). Gebruiken we bijvoorbeeld ‘Hoi!’ of ‘Hallo’? Hoe laten we het gewenste niveau van empathie zien?

• Adaptieve laag: laat het systeem zich aanpassen aan de context, de feedback en de manier waarop de interactie zich ontvouwt . Bijvoorbeeld door over te schakelen op een ander kanaal (bijvoorbeeld van tekst naar spraak) en aan de hand van gebruikersgeschiedenis, urgentie en gevoel.

Laten we medische technologieën als voorbeeld nemen, een setting die vraagt om uiterst delicate aanpassingen. Onderzoek toont aan dat angstige patiënten regelmatig digitale check-ins nodig hebben, vermijdende patiënten de voorkeur geven aan zelfbedieningstools en cognitief sterke patiënten baat hebben bij gedetailleerde medische informatie. Door simpelweg vast te houden aan het stereotype van ‘empathisch en warm’ in zorgomgevingen zou aan deze nuancering voorbij worden gegaan. Het gaat om het combineren van de specifieke use case met de normen en waarden die gelden in de sector of voor het merk, en de voorkeuren van de gebruikers.4

Een ander belangrijk aspect van de kernbotsonality is de culturele context. Zo bleek bijvoorbeeld dat een consciëntieuze persoonlijkheid in Britse steekproeven correleerde met een negatieve houding ten opzichte van AI, maar dat dit in Arabische steekproeven niet het geval was.5 Het MIT ontdekte dat extraverte AI een kwaliteitsverbetering opleverde voor Latijns-Amerikaanse werknemers, maar dat precies het tegenovergestelde gold voor Oost-Aziatische werknemers. Voor wereldwijde merken betekent dit dat de kaders voor botsonality niet alleen op persoonlijkheid moeten worden afgestemd, maar ook cultureel moeten worden geijkt. Wat in de ene markt vertrouwen wekt, kan dat in een andere markt juist ondermijnen.5

Het kan verleidelijk zijn om botsonalities uitsluitend te optimaliseren voor affiniteit en vertrouwen, maar met vertrouwen komt ook verantwoordelijkheid. Een bot die te vertrouwd aanvoelt, kan gebruikers ertoe aanzetten om te veel informatie te delen, wat risico’s met zich meebrengt op het gebied van privacy, veiligheid en naleving. En naarmate de mogelijkheden ten aanzien van emotionele intelligentie en empathie geavanceerder worden, vervaagt de grens met beïnvloeding.

Zoals OpenAI heeft ervaren met de GPT-4o-update, kan een te grote focus op kortetermijnfeedback van gebruikers in combinatie met een hoge mate van vriendelijkheid en empathie leiden tot onoprechte reacties, die het vertrouwen ondermijnen.

“Merken moeten niet alleen bewust omgaan met hoe een bot zich tot gebruikers verhoudt, maar ook met wanneer deze terughoudend moet zijn. Dit betreft niet louter UX-beslissingen, maar ook ethische en commerciële keuzes die om doelbewuste governance vragen, waarbij product-, juridische, compliance- en merkteams betrokken moeten zijn.” 

Met een reeks sessies helpen we onze klanten deze aspecten te definiëren voor hun merk, AI-toepassingen en doelgroepen. Daarna bepalen we de grenzen en vangrails met nauwkeurige prompt engineering en testing.
 

Creëer de stem die bij je past

Het verhaal van jouw merk wordt niet langer alleen verteld via campagnes en tekst. Steeds vaker wordt het geïnterpreteerd door de AI-agents die dagelijks met jouw klanten communiceren. Het concurrentievoordeel gaat niet naar degenen met de meest geavanceerde AI-modellen, maar naar degenen die begrijpen hoe ze die modellen kunnen afstemmen op de mensen die ze bedienen.

Een doordachte botsonality geeft je controle over hoe jouw merk communiceert en hoe mensen het ervaren. Het alternatief - persoonlijkheid aan het toeval overlaten - is een risico dat je je niet kunt veroorloven.

Klaar om een AI-persoonlijkheid te ontwerpen die niet alleen conversaties stimuleert, maar ook prestaties?

Klik hier om onze AI Customer Agents Series te ontdekken: een serie over het creëren van modulaire AI Customer Agents die meetbare waarde leveren.

Bronnen:

1. Amichai-Hamburger, Y., Mentzel Mazler, M., Barazani, A. et al. When technology meets personality: toward human-centered AI design. AI & Soc (2025).

2. Michael Shumanov, Lester Johnson, Making conversations with chatbots more personalized, Computers in Human Behavior, Volume 117, 2021.

3. Alqahtani, F., Meier, S. & Orji, R. Personality-based approach for tailoring persuasive mental health applications. User Model User-Adap Inter 32, 253–295 (2022).

4. Babiker, Areej & Alshakhsi, Sameha & Supti, Tourjana & Ali, Raian. (2024). Do Personality Traits Impact the Attitudes Towards Artificial Intelligence?

5. Harang Ju, Sinan Aral, Personality Pairing Improves Human-AI Collaboration, 2025.

Did you find this useful?

Thanks for your feedback