Kunstig intelligens gør det muligt for kunder og klienter at skrive langt, detaljeret og med noget, der kan ligne juridisk præcision. Men for firmaerne, der modtager AI-henvendelserne, er det ressourcekrævende – og det kan tvinge dem til selv at opruste på AI-fronten.
Chatbots ved tasterne
13.5.2026
af
Julius Krause
Illustration: Lemberg Vector/Shutterstock
”Det er eksploderet det seneste år,” siger Tina Sandager.
Som advokat hos Kjærsgaard Advokater arbejder hun med sager om samvær, forældremyndighed og anbringelser af børn. Hendes klienter tager i stigende grad kunstig intelligens i brug, når de skriver til hende.
I denne uge har Djøfbladet kunnet fortælle, hvordan AI-genererede mails og klager presser offentlige myndigheder.
I den forbindelse har vi talt med fem private virksomheder, der beskriver et lignende mønster, når kunder og klienter kontakter dem: langt mere omfattende henvendelser, højere grammatisk niveau og flere henvisninger til juridiske termer og sager, der beskrives forkert, upræcist eller simpelthen ikke eksisterer.
Det er svært at sætte tal på omfanget, men tendensen er klar.
I sager om forældremyndighed har advokat Tina Sandager tidligere typisk modtaget mails fra forældre, der i et simpelt sprog beklagede sig over ekskæresten og familiesituationen. Men det seneste års tid har hun månedligt oplevet at få lange, nærmest rapportlignende mails, der belærer hende om, hvordan hun skal gøre sit arbejde.
”Det er frustrerende. For hvad der kan klares på en side, bliver lige pludselig til 10 alenlange sider, hvor en AI prøver at forklare mig, hvordan den tror, en forældreansvarssag faktisk fungerer,” siger Tina Sandager.
Når klienterne sender lange AI-skabte mails, tager det hende meget mere tid at læse. Og samtidig skal hun analysere sig frem til, hvad chatbotten er blevet fodret med af klienten, og hvor den faktisk har sine påstande fra.
For nylig bad Tina Sandager en klient om at sende et enkelt skriftligt argument.
”Til sidst måtte jeg bede klienten undlade at bruge AI og bare fortælle mig med egne ord, hvad klientens bemærkninger til modpartens anbringender egentlig var, for det kunne jeg ikke læse ud af de ni sider, jeg fik tilsendt,” siger hun.
Tine Sandager kan godt forstå, at mange falder i AI-fælden, for modellerne virker jo kloge, sympatiske og selvsikre. Det kan til tider give uoverensstemmelser til forventningerne mellem advokat og klient.
”Det, de ikke forstår, er, at jeg ikke altid er sikker på, at de har en god sag, ligesom chatbotten synes. Chatbotten har jo netop formuleret en række – i deres øjne – velskrevne argumenter,” forklarer Tina Sandager.
Ledige stillinger
Søren Henning Jensen er lektor på Institut for Business Humaniora og Jura ved Copenhagen Business School (CBS). Her forsker han bl.a. i de udfordringer, AI-implementering giver i digitale servicevirksomheder.
Søren Henning Jensen påpeger, at AI-henvendelserne er ressourcekrævende for virksomheder, fordi de typisk bliver lange, utrættelige i argumentationen og til tider bærer præg af jura, der ikke altid findes, men alligevel skal dobbelttjekkes.
”Folk synes, at det, ChatGPT har lavet, ser meget velformuleret ud, og så sender de det uden at bruge tid på at tjekke, om det er rigtigt. De kan producere en masse hurtigt, sende det af sted, og det koster dem ikke noget,” siger han.
Søren Henning Jensen forklarer, at det kan få virksomhederne til at overveje at bruge AI-systemer til at besvare kundernes AI-henvendelser.
Det kan komme til at koste medarbejdere jobbet – og skaber samtidig helt nye risici.
For AI’en kan også hallucinere på vegne af virksomheden. Det findes der et eksempel på fra 2024, hvor flyselskabet Air Canadas chatbot gav en passager forkerte oplysninger om muligheder for refusion af en flybillet.
Da flyselskabet alligevel ikke ville give kompensation, tog passageren sagen i retten og vandt.
”Præcedens blev, at det er ligegyldigt, om det er en chatbot eller en servicemedarbejder, der siger det. Det kommer fra organisationen og er derfor gældende,” siger Søren Henning Jensen.
I den offentlige sektor er AI-henvendelser en udfordring, fordi myndighederne er forpligtet til at besvare hele klagen, typisk også inden for en frist. Men det er den private sektor ikke i samme grad. Så kan firmaerne ikke bare lade være med at reagere?
”I princippet kan de godt, men så vil der ske det, at de vil overse nogle sager, der er fuldstændig reelle. Og så kan man se overskrifterne for sig,” siger Søren Henning Jensen.CBS-forskeren forklarer, at hvis han havde løsningen på problematikken, ville han nok ikke sidde og blive interviewet en onsdag eftermiddag. I stedet havde han nok været ”en meget rig mand.”
Men et sted at starte er hos ham selv og kollegerne på uddannelsesinstitutionerne.
”Vi skal have oplyst de studerende, ligesom vi også gør på CBS: Hvad er maskinerne gode til, og hvad er de ikke gode til? Hvad vinder man, og hvad taber man, når AI løser opgaver?”
En anden løsning kunne være, at man fra politisk side skulle overbevise AI-producenterne om at få modellerne til at vandmærke tekster, så der fx står "genereret af ChatGPT". Dermed bliver det transparant, om der er benyttet AI i en henvendelse.
”Det har producenterne sjovt nok valgt ikke at gøre. Så det er måske også noget for politikerne at gå i dialog med dem om.”
Der er, understreger Søren Henning Jensen, også et potentiale for, at udviklingen ikke bare gør det lettere for kunderne at henvende sig, men også kommer virksomhederne til gode.
”Hvis du gør det ordentligt, bedre, hurtigere, mere præcist, får du en automatiseringseffekt. Hvis du gør det rigtig godt, kan du også tænke ind, hvor man ellers kan bruge mennesker til at skabe mere værdi,” siger han.
DJØF ARRANGEMENTER OG KURSER