Kunstig intelligens

Dansk ekspert advarer efter norsk AI-skandale

29.10.2025

af

Foto af en person, der læser et magasin, hvor der på forsiden står "Artificial Intelligence"

Foto: Tada Images/Shutterstock

En kommune i Norge blev opdaget i AI-fusk i en rapport, der foreslog at lukke skoler. I Danmark vil vi være førende inden for AI i den offentlige sektor, men en forsker peger på, at tiden ikke er moden.

I norske Tromsø Kommune diskuterede de lokale politikere at lukke otte skoler som led i en større ændring af kommunens skole- og børnehavestruktur. En svær sag i lokalpolitik, også i Norge.

Kommunens embedsfolk udarbejdede en rapport, der skulle være et beslutningsgrundlag for ændringen. I rapporten var der bl.a. argumenter for, at store skoler var bedre end flere, små skoler. Men der gik ikke længe, før det kom frem, at der var noget galt.

11 ud af 18 kilder, rapporten henviste til, fandtes reelt ikke. Og de politiske planer blev brat sat på pause. Da norske medier fik adgang til dokumenterne om sagen, kunne de fortælle, hvordan en ansat i Tromsø Kommune havde brugt ChatGPT til at udarbejde rapporten.

Fx lød et af spørgsmålene til AI’en fra den ansatte: ’Kan man finde belæg for følgende påstand – færre og større skoler evner i højere grad at håndtere udsving i elevtal, fordi eleverne kommer fra flere kvarterer, som er blevet udbygget på forskellige tidspunkter, end små skoler, der dækker færre kvarterer?’

Kommunen har beklaget sagen, og konsulenthuset PwC har i en ekstern undersøgelse af forløbet konstateret, at kommunen ikke var ”moden til AI”.

I Danmark har politikerne en målsætning om at være verdensførende på den offentlige AI-front. Et af de politiske mål er, at man inden 2035 har sparet 30.000 offentlige årsværk.

Og udrulningen af AI-støttede systemer er i fuld gang. Eksempelvis yder AI allerede støtte til diagnosticering af brystkræft på hospitalerne og sorterer mails i en række kommuner.

Kend dit problem

Rolf Lyneborg Lund er ekstern lektor på Institut for Sociologi og Socialt arbejde ved Aalborg Universitet.

Han forsker bl.a. i den offentlige og private sektors implementering af AI med henblik på beslutningsprocesser. Og så har han selv arbejdet med og udviklet AI-modeller de seneste 11 år.

Ifølge Rolf Lyneborg Lund er Tromsø Kommunes brug af AI et eksempel på et kerneproblem.

Han er sikker på, at det samme kunne ske i Danmark.

Mennesket griber for hurtigt til den lette løsning, bliver ukritisk betaget af nye muligheder og griber til AI-redskaberne for at løse vores problemer uden selv at tænke over løsningen.

”AI er jo ikke altid svaret på problemet. Bare fordi AI virker til noget, virker det ikke nødvendigvis et andet sted.”

Kend svaret

Rolf Lyneborg Lund påpeger, at mange stoler blindt på AI-modeller såsom ChatGPT, fordi de responderer som mennesker. Derfor kommer man til at tilskrive dem autoritet på et kunstigt grundlag.

Problemet er ifølge Rolf Lyneborg Lund, at brugerne sjældent kender svaret selv, når de spørger modellen, og derfor aner de ikke, om den tager fejl. I stedet tror de, at de har lært at forstå AI-modellerne og dermed bliver mere effektive. Derfor risikerer flere og større beslutninger at lande ved AI-redskaberne.

”Vi er nødt til at erkende, at man stadig kun kan løse de samme opgaver som før. Folks ekspertise rækker ikke pludselig længere. Man risikerer at bevæge sig ud på ukendt grund. Og så er skaden måske allerede sket, som vi ser i Tromsø,” siger Rolf Lyneborg Lund.

Han tilføjer, at det også er derfor, han ikke mener, at AI bliver i stand til at træffe deciderede beslutninger for mennesker.

ANNONCE

Allerede gode takter

Mette Lindstrøm Lage er afdelingschef i Digitaliseringsministeriet og chef for den Digitale Taskforce for kunstig intelligens, som er et offentligt samarbejde mellem regeringen, KL og Danske Regioner.

Taskforcens formål er at udrulle kunstig intelligens i det offentlige, bl.a. ved at sikre tidssvarende juridiske rammer. Et af målene er at spare 30.000 årsværk inden 2035.

Den Digitale Taskforce ønsker ikke at kommentere den konkrete sag i Tromsø.

Mette Lindstrøm Lage vurderer umiddelbart, at de offentlige organer i Danmark i vid udstrækning arbejder sikkert i deres brug af AI. Hun understreger, at det er et ledelsesmæssigt ansvar at sikre, at anvendelsen af AI sker på en ansvarlig måde.

For at understøtte det har Digitaliseringsstyrelsen bl.a. udarbejdet en guide til myndigheder om, hvordan man som organisation ansvarligt anvender generativ kunstige intelligens-værktøjer – som fx chatbots.

”Det er vores opfattelse, at kommunerne arbejder systematisk med at sikre, at brugen af kunstig intelligens er ansvarlig. Det fylder meget i arbejdet med AI,” siger Mette Lindstrøm Lage og henviser til, at kommunerne fx kan opsøge KL’s videnscenter på området.

De spørgsmål, taskforcen oftest støder på fra offentlige organisationer, handler om juridiske grænser, hvor medarbejderne ikke altid ved, hvilken hjemmel der gælder.

”Nogle kommuner oplever frustrationer og tvivl om de juridiske hegnspæle, fordi de har forskellige initiativer, de gerne vil i gang med.”

Det er endnu usikkert, hvor mange årsværk kommunerne kan spare, da implementeringen af AI stadig er i første fase, men ifølge Mette Lindstrøm Lage ser taskforcen allerede gode takter.

”Den har vist sig nyttig i forhold til ruteplanlægning, men også i sundhedssektoren, hvor kunstig intelligens fx hjælper speciallægerne i Region Nordjylland med at analysere knoglebrud.”

Hyperlokalt

Trods AI-modellernes fejl og mangler mener Rolf Lyneborg Lund, at de har en berettiget plads i fremtiden. Han mener faktisk, at vi kan integrere dem i langt højere grad, end vi gør i dag. Problemet er snarere, at vi gør det forkert.

AI-metoderne skal ifølge forskeren bruges ’hyperlokalt’, altså til meget specifikke, afgrænsede opgaver. Og så skal vi holde dem langt fra beslutningskredse og abstrakte problematikker.

”Jeg bruger den fx, når jeg dagligt koder. Nogle gange kan jeg ikke forstå, koden ikke virker, men så finder AI det semikolon, jeg lige manglede at indsætte. I gamle dage brugte jeg to timer på at finde den fejl. Problemet opstår, hvis jeg beder den lave en ny kode, og jeg ikke ved, hvad jeg laver,” siger Rolf Lyneborg Lund.

I Tromsø er skole- og børnehaveplanerne stadig på pause. Rolf Lyneborg Lund mener, at hvis vi skal undgå lignende scenarier i Danmark, skal brugen af AI diskuteres offentligt i langt højere grad.

”Vi risikerer et informationskollaps, hvis ikke vi snart bliver ansvarsbevidste og bliver enige om, hvad vi vil tillade.”

Kommentarer

Rasmus
i forgårs
Skandalen er jo ikke brugen af AI, men at embedsmandens prompt afslører for menigmand, hvordan det er politiske beslutninger føres ud i livet. Det politiske flertal beslutter noget og så skal embedsværket bagefter finde saglige begrundelser, der understøtter beslutningen som allerede er truffet. I det her tilfælde har embedsmanden så bare lavet en prompt til AI, men glemt at ChatGpt er en sprogmodel og at han/hun derfor ikke kan regne med at kilderne findes. Det gør embedsmanden så næste gang, der skal findes saglige begrundelser for at gennemføre en allerede vedtaget politisk beslutning.