AI voor juridisch onderzoek
Hoe veilig is het gebruik van AI voor juridisch onderzoek? Aan de ene kant boekt AI snelle vooruitgang en wordt het steeds beter. De komst van een nieuwe generatie AI-agenten zal dat proces alleen maar versnellen. Maar aan de andere kant blijven we krantenkoppen krijgen waarin advocatenkantoren worden beboet voor het gebruik van AI die verwees naar niet-bestaande wetgeving en jurisprudentie. In dit artikel hebben we het over hoe AI juridisch onderzoek verandert, over de risico’s en nauwkeurigheidsproblemen bij het gebruik van AI in juridisch onderzoek, en naar mogelijke risicobeperkende strategieën. Tot slot bekijken we het gebruik van AI voor juridisch onderzoek m.b.t. niet-Amerikaans recht.
Hoe AI juridisch onderzoek verandert – voordelen
AI heeft een grote invloed gehad op juridisch onderzoek en generatieve AI heeft dat proces nog versneld. Veel advocatenkantoren gebruiken generatieve AI om hen te helpen met hun juridisch onderzoek. Het is gemakkelijk en handig, omdat ze vragen kunnen stellen in natuurlijke taal in plaats van een querytaal te moeten aanleren. En nu de meeste generatieve AI’s meer geavanceerde onderzoeksagenten beginnen aan te bieden die bronnen kunnen leveren, is AI nog aantrekkelijker geworden. AI geeft dus op verschillende manieren een nieuwe vorm aan juridisch onderzoek. De meeste daarvan zijn gunstig.
Een van de meest opvallende veranderingen is de verbeterde snelheid en efficiëntie. AI-tools kunnen enorme hoeveelheden juridische gegevens binnen enkele seconden doorzoeken en relevante informatie veel sneller identificeren dan een mens dat zou kunnen. Deze efficiëntie bespaart advocaten aanzienlijke tijd en middelen.
Naast snelheid kan AI ook de nauwkeurigheid en diepgang van inzichten in juridisch onderzoek verbeteren. Door grote datasets te analyseren kan AI patronen detecteren en inzichten extraheren die menselijke onderzoekers mogelijk niet opmerken. Het kan ook potentiële fouten of inconsistenties in juridische documenten signaleren, waardoor de nauwkeurigheid en betrouwbaarheid van de gebruikte informatie wordt gewaarborgd. Maar voorzichtigheid is geboden, zoals we verder zullen zien.
Een ander groot voordeel is de bredere toegang tot juridische informatie die AI biedt. Deze tools kunnen putten uit een breed gamma aan bronnen, waaronder wetgeving, jurisprudentie, juridische tijdschriften en gespecialiseerde databases. Dit uitgebreide bereik stelt advocaten in staat om een vollediger begrip te ontwikkelen van de juridische kwesties waarmee ze te maken krijgen.
Natural Language Processing (NLP) en machine learning (machineleren) breiden de mogelijkheden van AI op juridisch gebied verder uit. NLP stelt AI in staat om de betekenis van juridische teksten te doorgronden. Hierdoor kan het belangrijke informatie en relevante precedenten identificeren. Ondertussen kunnen machine learning-algoritmen historische zaakgegevens analyseren om uitkomsten te voorspellen. Dit geeft advocaten waardevolle inzichten in de sterke en zwakke punten van hun zaken.
AI wordt ook steeds vaker geïntegreerd in gevestigde juridische onderzoeksplatforms. Deze integratie verbetert de efficiëntie en uitgebreidheid van juridisch onderzoek.
Naarmate AI echter meer ingebed raakt in de juridische praktijk, is een verantwoord gebruik essentieel. Het waarborgen van nauwkeurigheid, het handhaven van deontologische normen en het naleven van regelgeving zijn van cruciaal belang. Advocaten moeten AI behandelen als een ondersteunende tool in plaats van een op zichzelf staande oplossing. En het blijft van vitaal belang om alle informatie die door AI-systemen wordt gegenereerd te verifiëren. Er zijn immers nog steeds aanzienlijke risico’s verbonden aan het gebruik van AI voor juridisch onderzoek.
Risico’s en nauwkeurigheid bij het gebruik van AI in juridisch onderzoek
In een recente zaak in Californië ontdekte een rechter dat negen van de zevenentwintig geciteerde bronnen niet bestonden. De twee betrokken advocatenkantoren (het ene had het opzoekwerk gedelegeerd aan het andere) kregen een boete van 31 000 USD. Als je het nieuws over juridische AI volgt, is dit een veelvoorkomend probleem. Afgezien daarvan is AI ook vaak bevooroordeeld. Laten we beide problemen nader bekijken.
Zorgen over nauwkeurigheid
AI-systemen kunnen onnauwkeurige, onvolledige of misleidende juridische informatie produceren. Dit is met name het geval wanneer complexe zaken worden behandeld, met genuanceerde juridische concepten, of wanneer wetgeving of jurisprudentie recentelijk is gewijzigd.
Nog erger zijn AI “hallucinaties“. Het bovenstaande voorbeeld illustreert hoe AI plausibele maar feitelijk onjuiste of onbestaande informatie kan genereren. Het is daarom cruciaal om alle output die AI genereert te verifiëren aan de hand van geloofwaardige bronnen. Het Californische voorbeeld hierboven laat zien dat dit een ernstig risico is, aangezien één op de drie geciteerde bronnen niet bestond.
Het voorbeeld illustreert ook het risico van vertrouwen op AI zonder toezicht. Je kunt er niet van uitgaan dat de AI weet wat het doet. Te veel vertrouwen op AI zonder grondige menselijke controle kan leiden tot fouten die de uitkomst van zaken in gevaar brengen en het vertrouwen van de cliënt ondermijnen.
Vooringenomenheid en deontologische knelpunten
In eerdere artikelen hebben we erop gewezen dat AI alle vooroordelen erft en weerspiegelt van de datapool waarop het is getraind. Dit kan leiden tot oneerlijke of discriminerende juridische uitkomsten. Vooringenomenheid in AI-algoritmen is dus een eerste bekommernis.
Veel AI-systemen kunnen niet uitleggen hoe ze tot hun conclusies zijn gekomen. Bovendien vermelden ze vaak geen bronnen. Gebrek aan transparantie en verantwoording is daarom een tweede probleem. De algoritmes die door AI-systemen worden gebruikt kunnen ondoorzichtig zijn. Daardoor is het moeilijk om te begrijpen hoe beslissingen worden genomen en om het AI-systeem verantwoordelijk te houden.
Het is mogelijk dat cliënten de rol van AI in hun juridische vertegenwoordiging niet volledig begrijpen. Dit kan hun vertrouwen gemakkelijk ondermijnen. Duidelijke communicatie is essentieel.
Zoals bij alle online tools die advocaten gebruiken om klantgegevens te delen, zijn er zorgen over de privacy en vertrouwelijkheid van gegevens.
Tot slot is er het aspect van professionele verantwoordelijkheid. Advocaten hebben de plicht om toezicht te houden op AI-werk en ervoor te zorgen dat het nauwkeurig is, en valt binnen wat deontologisch aanvaardbaar is. Ze moeten ook communiceren met cliënten over het gebruik van AI-tools.
Risicobeperkende strategieën
Het is mogelijk om deze risico’s tegen te gaan door enkele risicobeperkende strategieën te implementeren.
- Verifieer altijd de door AI gegenereerde resultaten aan de hand van geloofwaardige juridische databases en primaire bronnen.
- Houd actief toezicht op door AI gegenereerd werk om nauwkeurigheid en deontologische naleving te garanderen.
- Wees transparant tegenover cliënten over het gebruik van AI-tools.
- Implementeer robuuste gegevensbeveiligingsmaatregelen implementeren om klantgegevens te beschermen en te voldoen aan privacyregels.
- Hou je aan deontologische richtlijnen en professionele verantwoordelijkheden bij het gebruik van AI in de juridische praktijk.
Hoe zit het met het gebruik van AI voor juridisch onderzoek m.b.t. niet-Amerikaanse wetgeving?
De meeste vooruitgang op het gebied van generatieve AI wordt geboekt in de VS en de EU is bezig met een inhaalbeweging. Hoe goed presteren de generatieve AI-platforms als het gaat om niet-Amerikaanse wetgeving? En zijn ze beschikbaar in andere talen?
Laten we beginnen met de taalkwestie: alle grote generatieve AI-engines zijn beschikbaar in het Nederlands en Frans.
Hoe zit het dan met niet-Amerikaans recht? We hebben een aantal tests gedaan met Europese wetgeving, meer specifiek over GDPR, en over het algemeen verliepen deze tests goed. We hebben geen specifieke tests gedaan met recente wetgeving of jurisprudentie.
We hebben ook kort wat tests gedaan m.b.t. Belgisch recht. We dachten dat art. 1382 van het Burgerlijk Wetboek een interessante testcase zou zijn, aangezien het onlangs is vervangen door een nieuw boek 6 over buitencontractuele aansprakelijkheid. We hebben de test uitgevoerd op ChatGPT, CoPilot, Gemini, Claude, Perplexity, Grok en you.com. Slechts vier van de zeven wezen erop dat art. 1382 CC was vervangen. Dat waren ChatGPT, CoPilot, Gemini en Grok. De andere drie, Claude, Perplexity en You.Com, vermeldden boek 6 over buitencontractuele aansprakelijkheid helemaal niet.
Terwijl voorzichtigheid en toezicht al nodig zijn voor de wetgeving van de VS en de EU, is dit nog meer het geval voor de wetgeving van EU-lidstaten, waar verschillende generatieve AI-platforms (nog) niet op de hoogte waren van recente wetgeving.
Conclusie
Het gebruik van AI voor juridisch onderzoek is veelbelovend, maar er is nog veel toezicht nodig. De bovenstaande voorbeelden laten zien hoe AI-platformen nog steeds kunnen hallucineren en dat ze mogelijk niet op de hoogte zijn van recente veranderingen in wetgeving of jurisprudentie.
Bronnen:
- https://www.attorneyatwork.com/microsoft-copilot-2025-its-better-1-year-later/
- https://futurism.com/law-firms-fine-ai-slop-court
- https://sabinet.co.za/responsible-ai-in-legal-research/
- https://worldlawyersforum.org/articles/ai-in-law-reshaping-legal-practice/
- https://www.sdlaw.co.za/articles/ai-in-legal-research/
- https://www.linkedin.com/pulse/ai-transforming-legal-industry-opportunities-change-kent-langley-0ceqe/
- https://www.linkedin.com/pulse/dangers-using-ai-legal-practice-legalcompliancesupport-qyo6f/
- https://www.linkedin.com/pulse/regulatory-risks-using-ai-legal-practice-what-law-firms-bigelow-gemre/
- https://www.lexisnexis.com/community/insights/legal/b/thought-leadership/posts/ai-and-ethical-concerns-for-legal-practitioners
- https://legalese.co.za/ai-and-the-legal-industry/
- https://www.linkedin.com/pulse/use-ai-law-firm-practice-double-edged-sword-john-blake-f3xhc/
- https://easternpeak.com/blog/legal-ai-software-revolutionizing-legal-practices-with-artificial-intelligence/
- https://www.lexpert.ca/news/legal-insights/harnessing-ais-power-in-legal-practice/390252