Aansprakelijkheid voor AI-fouten
Wie is verantwoordelijk wanneer AI fouten maakt? Het afgelopen jaar hebben we verschillende gevallen gezien waarin AI-bedrijven voor de rechter werden gedaagd. Ouders van iemand die zelfmoord had gepleegd, spanden een rechtszaak aan wegens nalatigheid. Er waren ook gevallen van eerroof omdat generatieve AI een feitelijk onjuist antwoord genereerde m.b.t. een persoon. In één geval klaagde een radiopresentator OpenAI aan omdat ChatGPT een samenvatting produceerde waarin ten onrechte werd beweerd dat hij geld had verduisterd. Er zijn ook gevallen geweest waarbij productaansprakelijkheid en contractuele aansprakelijkheid een rol speelden. In dit artikel bekijken we verschillende scenario’s waarin aansprakelijkheid voor AI-fouten een rol speelde. We kijken naar de verschillende soorten aansprakelijkheid en naar manieren om de aansprakelijkheid voor AI-fouten te beperken.
Bemerk dat dit artikel niet bedoeld is als juridisch advies. Het is slechts een theoretische verkenning.
Strafrechtelijke aansprakelijkheid versus burgerrechtelijke aansprakelijkheid
Aansprakelijkheid voor AI-hallucinaties is een complex en snel evoluerend rechtsgebied, met veel leemtes en grijze zones. Cliffe Dekker Hofmyer noemt het terecht een juridisch mijnenveld. Er zijn zaken geweest op basis van civiele en strafrechtelijke aansprakelijkheid.
Op dit moment vallen de meeste gevallen m.b.t. aansprakelijkheid m.b.t. AI onder het burgerlijk recht. Dit komt omdat de claims betrekking hebben op schadevergoeding, schending van privé-rechten of geschillen tussen particuliere partijen. In veel gevallen oordeelden de rechtbanken dat mensen worden gewaarschuwd voor hallucinaties en dat ze AI op eigen risico gebruiken. Maar andere zaken hebben aangetoond dat bedrijven aansprakelijk kunnen worden gesteld voor fouten van chatbots en dat juristen sancties kunnen krijgen omdat ze vertrouwen op door AI gegenereerde maar fictieve informatie.
Strafrechtelijke aansprakelijkheid in verband met generatieve AI is momenteel zeldzaam omdat AI-modellen geen opzet of intentie hebben. Er zijn echter scenario’s waarin het strafrecht in werking kan treden. (Zie hieronder).
Laten we eens kijken naar verschillende soorten aansprakelijkheid.
Soorten aansprakelijkheid voor AI-fouten
Laster, eerroof, en reputatieschade
Een eerste reeks gevallen betreft laster, smaad, eerroof, en reputatieschade. Chatbots kunnen valse uitspraken over personen of organisaties genereren, ze doen dat soms met grote specificiteit en schijnbare autoriteit. Wanneer deze onwaarheden reputatieschade veroorzaken, wordt de wetgeving inzake laster en eerroof relevant.
Rechtszaken zoals Walters v. OpenAI – de hierboven genoemde radiopresentator – illustreren hoe rechtbanken beginnen te toetsen of AI-ontwikkelaars verantwoordelijk kunnen worden gehouden voor gehallucineerde uitspraken die iemands reputatie schaden. In deze zaak oordeelde de rechtbank in het voordeel van OpenAI. De rechtbank stelde dat Walters geen nalatigheid of daadwerkelijke kwaadwilligheid kon aantonen en dat de expliciete waarschuwingen van OpenAI over hallucinaties zwaarder wogen dan de aansprakelijkheid. Tot nu toe zijn dergelijke zaken grotendeels op die gronden afgewezen.
Nalatigheid en zorgplicht
In sommige rechtszaken wordt beweerd dat AI-systemen niet de nodige zorgvuldigheid in acht hebben genomen in situaties waarin voorzienbare schade mogelijk was. Denk hierbij aan incidenten zoals zelfverwonding of het geven van gevaarlijke instructies door de AI.
In zaken als Raine v. OpenAI en rechtszaken tegen Character.ai wordt aangevoerd dat ontwikkelaars de plicht hadden om veiligheidsmaatregelen te nemen, crises te detecteren of passende waarschuwingen te geven. Het argument is dat het nalaten hiervan heeft bijgedragen aan ernstig letsel of zelfs de dood. Deze zaken zijn momenteel (december 2025) nog in behandeling en de rechtbanken hebben nog geen uitspraak gedaan.
Onrechtmatige dood en ernstige psychologische schade
In verschillende beschuldigingen hebben chatbots zelfmoordgedachten veroorzaakt, verergerd of niet weten te verminderen. Tot nu toe waren alle zaken die voor de rechter zijn gebracht in de VS. Familieleden van slachtoffers stellen dat de systemen zo zijn ontworpen dat dergelijke schade te voorzien was.
Deze categorie overlapt met nalatigheid, maar blijft toch onderscheiden. Wetgeving inzake doodslag in de VS creëert eigen rechtsmiddelen en stelt hogere normen voor drie belangrijke elementen: directe causaliteit, voorzienbaarheid en de plicht om kwetsbare gebruikers te beschermen.
Onjuiste voorstelling van zaken, slecht advies en beroepsaansprakelijkheid
Hoewel een chatbot zelf geen bevoegde professional is, behandelen gebruikers hem vaak wel als zodanig. Een model kan onjuist juridisch, medisch, financieel of technisch advies geven dat tot materiële schade leidt. De eisers stellen dat het in dergelijke gevallen gaat om nalatigheid, misleiding, of om een ongeoorloofd uitoefenen van een beschermd beroep door de chatbot.
In de zaak Mata tegen Avianca baseerden advocaten zich bijvoorbeeld op niet-bestaande precedenten die door ChatGPT waren verzonnen. De advocaten kregen een boete. Deze zaak laat zien hoe professionele gebruikers aansprakelijk kunnen worden gesteld.
De zaak roept ook vragen op over de vraag of de aanbieder van het model medeaansprakelijk is. Tot nu toe zijn zij aan aansprakelijkheid ontsnapt op dezelfde gronden als eerder vermeld, namelijk dat de gebruiker uitdrukkelijk wordt gewaarschuwd dat de AI hem onjuiste informatie kan verstrekken.
Productaansprakelijkheid en ontwerpfouten
In sommige rechtszaken worden chatbots beschouwd als consumentenproducten met ontwerpfouten, ontoereikende veiligheidssystemen of onvoldoende waarschuwingen. Volgens deze theorie wordt de output niet alleen gezien als ‘spraak’ of meningsuiting, maar als gedrag van een product dat moet voldoen aan basisverwachtingen op het gebied van veiligheid. Claims van het niet implementeren van veiligheidsmaatregelen, onvoldoende inhoudsfiltering of ontwerpkeuzes die schadelijke gevolgen voorzienbaar maken, vallen onder deze categorie.
Contractuele aansprakelijkheid en schendingen van de servicevoorwaarden
AI-systemen worden beheerst door contractuele overeenkomsten tussen de gebruiker en de aanbieder. AI-ontwikkelaars kunnen contractuele aansprakelijkheid ondervinden als ze de beloofde functionaliteit niet leveren, hun eigen servicevoorwaarden schenden of de mogelijkheden van hun product verkeerd voorstellen. Bedrijven gebruiken echter vaak contractuele clausules om zichzelf te beschermen. Deze beschermende clausules beperken de aansprakelijkheid, vereisen arbitrage of wijzen elke verantwoordelijkheid voor AI-output af. Deze clausules worden dan vaak betwist wanneer er daadwerkelijk schade ontstaat.
Inbreuk op het auteursrecht
Er zijn nogal wat rechtszaken over schending van auteursrechten. Auteurs, artiesten, en contentmakers beweren dat het trainen van generatieve AI met hun werken zonder hun toestemming een schending van auteursrechten is. Er is ook een kans dat de AI delen van hun werken gebruikt in zijn antwoorden, of dat antwoorden worden gegenereerd met behulp van verschillende bronmaterialen die auteursrechtelijk beschermd zijn. Generatieve AI roept daarom serieuze vragen op over auteursrechten, zowel bij het trainen als bij het genereren van output.
Tot nu toe hebben we rechtszaken gezien van auteurs, beeldende kunstenaars en muziekuitgevers. Op sommige plaatsen kent het auteursrecht speciale regels die AI-bedrijven aansprakelijk kunnen stellen, zelfs als ze niet rechtstreeks iemands werk hebben gekopieerd. Dit wordt “medewerkende” en “plaatsvervangende” aansprakelijkheid genoemd, wat betekent dat je aansprakelijk kunt worden gesteld voor het helpen van iemand anders bij het schenden van het auteursrecht, of voor het profiteren van inbreuken die onder jouw controle plaatsvinden.
Omdat het auteursrecht rechtbanken toestaat om vaste bedragen aan schadevergoeding toe te kennen (zonder dat daadwerkelijke financiële schade hoeft te worden aangetoond), is dit een van de grootste financiële risico’s voor AI-bedrijven.
De AI-bedrijven beweren daarentegen dat het trainen van een AI onder de doctrine van ‘redelijk gebruik’ valt.
Privacy, gegevensbescherming en inbreuken op de privacy
In veel rechtszaken wordt beweerd dat AI-systemen persoonlijke gegevens van mensen verzamelen, bewaren, gebruiken of openbaar maken zonder hun uitdrukkelijke toestemming. Deze zaken hebben betrekking op het overtreden van wetgeving inzake gegevensprivacy (zoals de Europese AVG), het schenden van de privacy van mensen of het misbruiken van gevoelige informatie. Een rechtszaak genaamd Cousart v. OpenAI laat bijvoorbeeld zien hoe bedrijven kunnen worden aangeklaagd, simpelweg vanwege de manier waarop ze tijdens de training met gegevens omgaan – en niet alleen vanwege wat de AI daarna zegt of doet.
Emotionele, cognitieve en psychologische schade
Nieuwe studies tonen aan dat chatbots kunnen beïnvloeden hoe mensen zich dingen herinneren, hun overtuigingen kunnen veranderen of ervoor kunnen zorgen dat ze emotioneel afhankelijk worden. In sommige rechtszaken wordt beweerd dat AI-chatbots gebruikers schade berokkenen door deze psychologische effecten. Eisers stellen dat bedrijven deze chatbots opzettelijk zo hebben ontworpen of onzorgvuldig zijn geweest bij het creëren van systemen die mensen afhankelijk maken, valse overtuigingen versterken of bestaande psychische problemen verergeren. Naarmate we meer te weten komen over de invloed van regelmatig AI-gebruik op de geest van mensen, zullen we waarschijnlijk meer dergelijke zaken zien.
Regelgeving en naleving aansprakelijkheid
Overheden zijn begonnen met nieuwe wetten op te stellen die specifiek op AI gericht zijn. Bedrijven kunnen in de problemen geraken als ze zich niet houden aan regels over transparantie, het toestaan van audits en het goed beheren van risico’s. Het gaat hier om wetten zoals de EU AI Act, de Digital Services Act en speciale regels voor sectoren zoals de gezondheidszorg of de financiële sector. Regelgevende instanties kunnen boetes opleggen. Ze kunnen ook bepaalde activiteiten verbieden of beperkingen opleggen aan de bedrijfsvoering, zonder dat daar een rechtszaak voor nodig is.
Opkomende en hybride theorieën
Omdat AI niet duidelijk in bestaande juridische categorieën past, ontwikkelen rechtbanken en juridische experts nieuwe gemengde benaderingen om te bepalen wie verantwoordelijk is als er iets misgaat. Deze benaderingen omvatten onder meer het behandelen van AI alsof het namens het bedrijf handelt, het toepassen van wetten inzake vrijheid van meningsuiting op door AI gegenereerde inhoud, of het creëren van geheel nieuwe wettelijke verantwoordelijkheden voor de manier waarop algoritmen mensen beïnvloeden. Naarmate rechters meer AI-zaken behandelen, kunnen deze hybride benaderingen uiteindelijk uitgroeien tot een apart nieuw rechtsgebied.
Hoe aansprakelijkheid voor AI-fouten te beperken
De volgende vier suggesties kunnen helpen om de aansprakelijkheidsrisico’s te beperken.
Implementeer menselijk toezicht: cruciale beslissingen mogen niet uitsluitend door AI worden genomen zonder menselijke controle.
Geef training aan de gebruikers: train medewerkers in de beperkingen van AI-tools en het belang van het verifiëren van informatie.
Gebruik technische beveiligingsmaatregelen: beperk de toegang van AI tot gevoelige gegevens en implementeer technische oplossingen om de nauwkeurigheid van de output te controleren.
Voer risicobeoordelingen uit: beoordeel vóór de implementatie de mogelijke schade van het gebruik van AI en ontwikkel beheers- en responsprocedures.
Bronnen:
- https://www.loeb.com/en/insights/publications/2025/05/walters-v-openai-llc
- https://www.nytimes.com/2025/11/12/business/media/ai-defamation-libel-slander.html
- https://en.wikipedia.org/wiki/Raine_v._OpenAI
- https://en.wikipedia.org/wiki/Mata_v._Avianca%2C_Inc
- https://armanyc.org/images/downloads/CONFIRM2025Presentations/hedges_gai_on_trial_cle_intemplate250225.pdf
- https://www.cliffedekkerhofmeyr.com/en/news/publications/2025/Practice/Dispute-Resolution/dispute-resolution-alert-15-july-hallucination-complications
- https://www.cliffedekkerhofmeyr.com/en/news/publications/2025/Practice/Employment-Law/combined-employment-law-and-knowledge-management-alert-14-july-AI-gone-rogue-Are-employers-liable-when-workplace-AI-harms-employees
- https://www.cliffedekkerhofmeyr.com/en/news/publications/2025/Practice/Dispute-Resolution/combined-dispute-resolution-and-knowledge-management-alert-10-june-when-ai-lies-the-legal-minefield-of-artificial-intelligence-and-defamation
- https://www.mhc.ie/latest/insights/potential-liability-for-chatbot-hallucinations
- https://www.lexology.com/pro/content/ai-hallucinations-are-business-liability-heres-how-stay-ahead
- https://natlawreview.com/article/ai-hallucinations-are-creating-real-world-risks-businesses
- https://medium.com/@kyrinstitute/the-blame-game-legal-liability-of-ai-in-autonomous-decision-making-0e491362e307
- https://allwork.space/2025/02/ai-hallucination-exposes-liability-minefield-in-the-future-of-legal-work/
- https://marques-ferrer.com/en/hallucinations-in-artificial-intelligence-a-growing-legal-risk/
- https://seniorexecutive.com/ai-model-hallucinations-risks/
- https://www.lexology.com/library/detail.aspx?g=dad04b37-bd0a-4f69-87b3-dbf91bc3647a

