Algoritmer i jura
4.4.2018
af
Helle Baagø
Illustration: Icedmocha/Shutterstock
Når sagsbehandling og beslutninger klares af en regnemaskine, udfordrer det retssikkerheden. Algoritmer kan være både fordomsfulde og uretfærdige, lyder advarslen fra forfatter og forsker.
Som Djøfbladet for nylig kunne beskrive, er kunstig intelligens for alvor på vej ind i juraen. Ikke blot i form af robotter, der kan løse ellers tidskrævende opgaver i advokatfirmaer – men også som et redskab, der kan sagsbehandle og træffe beslutninger i forskellige dele af den offentlige sektor.
Men den kunstige intelligens og algoritmerne bag den truer retssikkerheden, fordi de opererer i det skjulte – inde i it-systemer, som borgerne ikke kan gennemskue. De er desuden godt i gang med at skubbe mange jurister og økonomer af tronen som beslutningstagere i den offentlige sektor, mener journalist og forfatter Klavs Birkholm.
Han har redigeret antologien ’De skjulte algoritmer’, som udkommer i juni 2018 på Djøf Forlag. Bogen skal skabe debat om en udvikling, som de færreste faggrupper indtil nu har taget højde for.
”Går det som politikerne lægger op til i øjeblikket, vil algoritmerne afløse djøfiseringen, som har gjort jurister og økonomer til konger i den offentlige sektor i 25-30 år. Innovationsminister Sophie Løhde (V) er godt på vej med tiltag, der automatiserer komplekse beslutningsprocesser. Målet er at standardisere og effektivisere sagsbehandlingen," siger han.
"Algoritmen vil blive både handlingsanvisende og besluttende. Den vil fx kunne besvare spørgsmål som: Skal denne dreng tvangsfjernes? Hvilken behandling skal vi foreslå denne psykiatriske patient?” forklarer Klavs Birkholm og advarer om, at de fagprofessionelle er ved at miste kontrollen.
”Styringen lander i disse år hos it-udviklere i private virksomheder, som hæger om deres formler på samme måde som Coca Cola hæger om sin sodavandsopskrift,” siger han.
Vejen frem er, at offentlige myndigheder begynder at kræve transparens omkring algoritmer, fx i forbindelse med udbud. Det ville være et stort skridt for demokratiet og retssikkerheden, mener Klavs Birkholm.
Også lektor Sune Lehmann Jørgensen, DTU Compute, hejser advarselsflaget.
”Et af nøgleproblemerne ved algoritmer er, at de kopierer eksisterende værdier. Hvis de data, som vi bruger til at træne vores algoritmer, kommer fra en verden, som er fordomsfuld og uretfærdig, bliver uretfærdigheden og fordommene overført til algoritmen,” forklarer han.
Et eksempel er en meget omtalt case fra USA, hvor antallet af hvide fanger, der bliver prøveløsladt, har vist sig at være langt større end antallet af sorte prøveløsladte. Myndighederne bruger en algoritme udviklet af virksomheden Northpointe til at vurdere risikoen for, at fangerne falder tilbage i kriminalitet.
Algoritmen har på et fejlagtigt grundlag vist sig at tage parti for hvide, viser en analyse fra det undersøgende medie Pro Publica, der trods kritik fra Northpointe har fastholdt sin konklusion.
Ledige stillinger
DJØF ARRANGEMENTER OG KURSER