Waarom je beter niet met ChatGPT werkt
De AI die je kent is niet de AI die je nodig hebt — en dat verschil zou voor hulpverleners wel eens cruciaal kunnen zijn.
De standaard die geen standaard zou moeten zijn
Er is een moment geweest, ergens halverwege 2023, dat ChatGPT de standaard werd. Het moment dat collega's in de wandelgangen begonnen te fluisteren over "even aan de AI vragen", dat studenten hun werkstukken lieten nakijken door een chatbot, en dat menig zorgprofessional voorzichtig experimenteerde met het samenvatten van notities. ChatGPT werd synoniem met kunstmatige intelligentie, zoals Google synoniem werd met zoeken en Uber met taxi's.
Maar synoniemen zijn gevaarlijk. Ze verbergen alternatieven. En in het geval van AI voor professionals — zorgverleners, therapeuten, coaches, iedereen die werkt met mensen in kwetsbare situaties — kan dat verschil het onderscheid maken tussen een hulpmiddel en een obstakel.
De grondwet die alles verandert
Vorige maand publiceerde Anthropic, het bedrijf achter de AI-assistent Claude, iets opmerkelijks: de volledige 'grondwet' van hun model. Geen marketingdocument, geen vage beloftes over verantwoorde AI. Een document van meer dan tienduizend woorden dat beschrijft hoe Claude moet denken, wat het belangrijk moet vinden, en waarom.
Dat 'waarom' is cruciaal. Waar OpenAI's ChatGPT wordt getraind met een waslijst van regels — doe dit niet, zeg dat niet — kiest Anthropic voor iets fundamenteel anders: uitleg. Claude krijgt niet te horen wat het moet doen, maar waarom bepaalde waarden belangrijk zijn. Het verschil klinkt academisch, maar de implicaties zijn verstrekkend.
Neem een simpele instructie als "verwijs gebruikers altijd door naar professionele hulp bij emotionele onderwerpen". Klinkt veilig, klinkt verantwoord. Maar een AI die dit blind toepast, wordt al snel irritant — en erger, nutteloos. Stel je voor: iemand vertelt over een slechte dag, en de chatbot reageert met een standaardzin over het bellen van 113. Dat is geen hulpverlening, dat is een afschuifmachine.
Claude daarentegen krijgt de onderliggende waarden mee: zorg voor welzijn, respect voor autonomie, het vermogen om context te wegen. Het resultaat is een AI die zelf kan inschatten wanneer doorverwijzen gepast is — en wanneer gewoon luisteren de betere keuze is.
Een briljante vriend
De meest concrete passage uit Anthropic's grondwet beschrijft Claude als "een briljante vriend die toevallig de kennis heeft van een dokter, advocaat en financieel adviseur." Iemand die eerlijk advies geeft op basis van jouw specifieke situatie, in plaats van overdreven voorzichtige algemeenheden uit angst voor aansprakelijkheid.
Vergelijk dit met ChatGPT, dat getraind is om vooral niets verkeerd te doen. Vraag ChatGPT naar een medische kwestie, en je krijgt een cascade van disclaimers. Vraag naar een ethisch dilemma, en je krijgt een neutrale opsomming van perspectieven zonder standpunt. Vraag naar iets controversieels, en je krijgt een beleefde weigering.
Die voorzichtigheid is begrijpelijk vanuit het perspectief van een bedrijf dat miljarden waard is en geen aansprakelijkheid wil. Maar voor professionals die AI willen inzetten als werkelijk hulpmiddel, is het een handicap. Een therapeut die een intake voorbereidt, heeft niets aan een AI die weigert mee te denken over mogelijke diagnoses. Een coach die een cliënt begeleidt, heeft niets aan een systeem dat elk moeilijk onderwerp afkapt met "raadpleeg een professional".
De ironie is schrijnend: je bént de professional. Je zoekt een denkpartner, geen paternalistisch systeem dat je beschermt tegen je eigen werk.
De hiërarchie van waarden
Anthropic's grondwet stelt vier prioriteiten vast, in strikte volgorde: veiligheid, ethisch handelen, Anthropic's richtlijnen, en als laatste: oprecht behulpzaam zijn. Die volgorde is bewust en genuanceerd. Niet omdat helpfulness onbelangrijk is — integendeel, het document benadrukt expliciet dat niet helpen ook een risico vormt. Een te voorzichtige AI die weigert advies te geven uit angst iets verkeerd te doen, laat mensen in de steek die wel degelijk geholpen hadden kunnen worden.
Dit is een fundamenteel andere benadering dan de "better safe than sorry"-mentaliteit van veel andere AI-systemen. Anthropic erkent dat overmoed gevaarlijk is, maar ook dat lafheid dat is. Ze willen dat Claude de moed heeft om verantwoorde risico's te nemen.
Voor zorgprofessionals is dit onderscheid essentieel. In de GGZ, waar wachtlijsten oplopen tot meer dan honderdduizend mensen en POH-GGZ'ers bezwijken onder de administratieve last, is een AI die daadwerkelijk meedenkt geen luxe maar noodzaak. Een AI die helpt bij het structureren van intakes, het identificeren van patronen in gesprekken, het genereren van gepersonaliseerde psycho-educatie — dat is waar de toekomst ligt. Maar alleen als die AI durft te denken, niet slechts te weigeren.
De praktische consequenties
Voor wie in de praktijk met AI werkt, zijn de verschillen concreet:
- ChatGPT is geoptimaliseerd voor brede toepasbaarheid en minimale controverse
- Claude is geoptimaliseerd voor genuanceerd meedenken binnen ethische kaders
- ChatGPT weigert vaak waar Claude doorvraagt
- ChatGPT geeft algemeenheden waar Claude specificeert
- ChatGPT beschermt zichzelf waar Claude de gebruiker serieus neemt
Dit betekent niet dat Claude perfect is — verre van. Het document erkent expliciet dat er een kloof bestaat tussen intentie en werkelijkheid, tussen hoe Claude zou moeten zijn en hoe het zich daadwerkelijk gedraagt. Maar die eerlijkheid is op zichzelf al verfrissend in een industrie die doorgaans grossiert in utopische beloftes.
De keuze
De vraag is niet of AI een rol gaat spelen in zorg, coaching en hulpverlening — die vraag is al beantwoord. De vraag is welke AI, getraind op welke waarden, met welke benadering van helpfulness versus voorzichtigheid.
Voor zorgprofessionals die worstelen met wachtlijsten, administratieve lasten en de vraag hoe ze meer mensen kunnen helpen met minder tijd, is dat geen academische kwestie. Het is de vraag of je een denkpartner krijgt of een afvinkmachine. Of je een briljante vriend krijgt die meedenkt over complexe casuïstiek, of een systeem dat bij het eerste moeilijke onderwerp de handdoek in de ring gooit.
Anthropic heeft hun grondwet vrijgegeven onder een open licentie, voor iedereen toegankelijk. Lees het. Vergelijk het met wat je gewend bent van andere AI-systemen. En vraag jezelf af: welke denkpartner wil ik?
De AI die je kent is niet de enige AI die bestaat. En het verschil is groter dan je denkt.
---
Rudi Voet is GGZ-professional met dertig jaar ervaring in forensische psychiatrie, verslavingszorg en crisishulpverlening. Hij onderzoekt de mogelijkheden van AI in de mentale gezondheidszorg.