Beer advocaten

ChatGPT in je letselschadezaak: handig, maar niet zonder gevaar

12 januari 2026 | Linde Mayer

Inleiding

De afgelopen tijd merk ik het steeds vaker in mijn praktijk als letselschadeadvocaat: cliënten die met ChatGPT (of een andere tool) hebben ‘gesproken’ voordat ze contact met mij opnemen. Cliënten die hun antwoord op mijn vragen door ChatGPT laten schrijven. Cliënten die mijn advies ter controle voorleggen aan een chatbot. Of cliënten die schadevergoeding door een AI-tool laten doorrekenen.

Laat ik voorop stellen: ik begrijp het volkomen. Je bevindt je in een crisis, een zeer onzekere situatie, en zit vol vragen. Via je laptop heb je toegang tot een tool die binnen enkele seconden antwoord geeft op alle vragen waar je al lange tijd mee rondloopt. Waarom zou je daar geen gebruik van maken?

Een begrijpelijke gedachte, maar ik wil je met deze blog ook waarschuwen: kunstmatige intelligentie kan helpen om wat inzicht in je situatie te krijgen. Tegelijkertijd kan dit ook onjuiste informatie verstrekken die je zaak (of misschien nog wel belangrijker: jouw verwachtingen daarvan) kan beschadigen. Dat willen we voorkomen.

OpenAI trekt zelf een lijn

Mijn waarschuwing steunt op een belangrijke verandering van OpenAI zelf. OpenAI is de organisatie achter ChatGPT die onderzoek doet op het gebied van kunstmatige intelligentie (Artificial Intelligence, oftewel AI) en de implementatie daarvan.

Eind vorig jaar heeft OpenAI een interessante aanpassing gedaan in het gebruiksbeleid. ChatGPT mag niet langer gebruikt worden voor "het geven van advies op maat waarvoor een vergunning vereist is, zoals juridisch of medisch advies, zonder toereikende betrokkenheid van een bevoegde professional”.

Vrij vertaald houdt dit in dat ChatGPT je mag blijven helpen bij medische of juridische vragen. Maar: juridische (en medische) adviezen op maat voor jouw specifieke situatie mogen alleen van iemand met bevoegdheid komen, bij voorkeur een advocaat of arts.

Waarom doet OpenAI dit? Omdat het weet dat het mis zou kunnen gaan. OpenAI wil niet de verantwoordelijkheid dragen voor schade die een gebruiker lijdt, bijvoorbeeld wanneer die handelt in lijn met juridisch advies van ChatGPT en als gevolg daarvan schade lijdt. Door deze lijn scherp te trekken in de gebruikersvoorwaarden, probeert OpenAI zich in te dekken tegen aansprakelijkheid.

OpenAI lijkt hiermee impliciet te erkennen dat juridisch advies van AI niet dezelfde waarde heeft als advies van een professional. Dat verdient onze aandacht, want als zelfs het bedrijf achter ChatGPT zegt dat je hier voorzichtig mee om moet gaan, dan is dat een belangrijk signaal.

Waarom ChatGPT jouw zaak niet volledig begrijpt

Dat signaal is niet zonder reden. Ik licht dit toe aan de hand van een praktijkvoorbeeld.

Ik word gebeld door een cliënt die zegt: “ik heb via ChatGPT al even opgezocht hoe het zit met aansprakelijkheid in mijn zaak”. De cliënt vertelt vervolgens over de uitgebreide output over medische fouten, aansprakelijkheid en schadevergoeding. Ik hoor dingen als: “Bij medische fouten wordt nooit meer dan 80% aansprakelijkheid van de arts vastgesteld, dus je blijft altijd met 20% van je schade zitten. Daar is rechtspraak over”. Dergelijke informatie wordt gegenereerd (misschien zelfs met verwijzingen naar rechtspraak) en het voelt waar, maar het klopt niet altijd.

In letselschadezaken moet – net als in alle andere rechtszaken – rekening worden gehouden met “alle omstandigheden van het geval”. De weging van de omstandigheden van het geval zie je in bijna elke rechterlijke uitspraak terugkomen. Met andere woorden: alles draait om context. Maar dat is precies wat AI in veel gevallen mist.

Je kunt ChatGPT prima vragen wat de algemene regels zijn voor schadevergoeding als gevolg van een medische fout. Je kunt er alleen niet vanuit gaan dat de output ook van toepassing is op jouw zaak. De tool weet namelijk niet: wat heeft de arts van te voren tegen je gezegd? Wat staat er wel en niet in je medisch dossier? Wat denkt een onafhankelijk medisch specialist over het causaal verband tussen de medische fout en jouw letsel? Hoe staat de aansprakelijke wederpartij bekend in de branche? Hoe gaat een bepaalde rechter om met medische fouten?

Bij Beer advocaten hebben we gespecialiseerde advocaten, een medisch adviesteam, uitgebreide juridische databases en een groot netwerk. AI-tools missen dat.

Wat kan wel en niet?

Mijn boodschap is niet dat je geen gebruik zou moeten maken van AI. Zelf maak ik ook gebruik van AI-tools voor specifieke vragen, waarbij ik de output altijd kritisch beoordeel. Dergelijke tools zijn goed bruikbaar voor basisuitleg van juridische principes, zoals: “wat betekent causaliteit in het medisch aansprakelijkheidsrecht?”. Daarnaast kunnen die tools ook goed helpen bij het structureren en controleren van teksten.

Aan de andere kant werkt AI niet goed voor (juridisch) strategische vragen, rechtspraakonderzoek en het belangrijkste: het doorgronden van jouw specifieke zaak. Integendeel: AI-tools kunnen “hallucinaties” produceren, omdat deze ontwikkeld zijn om jou het antwoord te geven wat je zoekt. Het kan bijvoorbeeld artikelnummers verzinnen, wetsartikelen citeren die niet bestaan en zelfs rechtspraak (compleet met ECLI-nummers) volledig verzinnen.

Daarnaast is de kennis niet altijd up to date. Het is belangrijk om te onthouden dat dagelijks nieuwe rechtspraak verschijnt en dat wetten regelmatig veranderen, vervallen of worden vervangen. AI-tools weten dat niet altijd meteen. Het is dus essentieel dat de output gecontroleerd wordt door een professional.

Tot slot

Klinkt dit bekend? Heb je ChatGPT gebruikt en twijfel je nu over het vervolg van jouw zaak? Of wil je weten hoe je AI verstandig kunt inzetten? Daar kunnen we gerust over praten.

Laat je advocaat gewoon weten wat je hebt ontdekt. Samen kun je nagaan wat ervan klopt, wat niet, en of dit kan worden gebruikt in jouw zaak. Want dat is precies wat OpenAI nu voorschrijft: laat een professional de context bieden die nodig is om juridisch advies verantwoord te gebruiken.

Heeft u vragen over dit blog, dan kunt u contact opnemen met de auteur, Linde Mayer.

Meer blogs