Digital etik

Kunstig intelligens udfordrer etikken

23-05-2018
9 min.
Vi får problemer, hvis vi begynder at give maskiner et ansvar for at handle i den virkelige verden, som de ikke kan håndtere, siger Toby Walsh, professor i kunstig intelligens. Illustration: WAYPoint

Overdragelse af menneskelige beslutninger til avancerede computersystemer giver risiko for diskrimination, uigennemsigtighed om ansvar og krænkelser af privatlivets fred, advarer kritikere.

Når vi søger på Google, er det kunstig intelligens, der bestemmer, hvad vi ser. Hvilket efterhånden bliver bemærket. Men det er også værd at hæfte sig ved, at der bliver udviklet tilsvarende computersystemer, som er i stand til at løse langt mere komplekse opgaver såsom at ræsonnere, finde mønstre og endog bygge videre på eksisterende viden.

Rundt om på kloden bliver kunstig intelligens nu taget i anvendelse på en vifte af områder i samfundet: Politi og retsvæsen, finansielle operationer, reklamebranchen, sundhedssektoren, uddannelsesinstitutioner og transportområdet.

Teknologien er baseret på algoritmer, som er forskrifter for en kæde af beregninger, der ud fra data leverer et resultat. Udviklingen accelererer, fordi computerne i forening får større muskler og bedre hukommelse – man taler om ”big data”, det vil sige enorme mængder indsamlet information.

Teknologien bliver udbygget med såkaldt maskinlæring, som betyder, at computere oplærer sig selv uden at blive programmeret til fremgangsmåden.

Maskiner er maskiner

Spørgsmålet er, om vi kan overskue de mellemmenneskelige konsekvenser af at overlade stadig mere ”bevidsthed” til computere? Er vi, når det gælder etiske hensyn, på omgangshøjde med udviklingen?

I Stanley Kubrick-filmen ’Rumrejsen år 2001’ har supercomputeren HAL et mål, som afviger fra menneskets mål, og det udløser en konflikt. Det lykkes dog den overlevende astronaut at slukke for HAL.

Men måske varer heldet ikke ved. I hvert fald er der prominente skarpe hjerner, der advarer om, at kunstig intelligens er en eksistentiel risiko for menneskeheden. Nemlig Elon Musk, direktør for Tesla og Mars-projektet SpaceX, den nyligt afdøde astrofysiker Stephen Hawking og Yuval Noah Harari, historiker og udgiver af den civilisationshistoriske bestseller ’Homo deus – En kort historie om i morgen’.

Så vidt går Toby Walsh, professor i kunstig intelligens ved University of New South Wales i Sydney, ikke. Men han opfordrer til at være på vagt. 

”Problemet opstår, når vi giver maskiner et ansvar for at handle i den virkelige verden, som de ikke kan håndtere. Algoritmer støtter sig til historiske data. Mennesker kan i princippet tænke frit,” siger Toby Walsh, som er forfatter til den nylige bog ˇAndroid Dreams.ˇ

Software fælder dom

Konkrete eksempler fra rundt om på kloden illustrerer problematikken, som måske er mest tydelig inden for politi og retsvæsen.

Adskillige amerikanske domstole benytter en software, Compas, der er udviklet til at vurdere risikoen for, at en lovovertræder atter begår kriminalitet. Det undersøgende medie ProPublica har afdækket, at brugen af Compas i et amt i Florida medvirker til, at en langt større andel af sorte end hvide vurderes til at begå kriminalitet igen, selv om hyppigheden reelt er så godt som ens. Retssystemet bruger bl.a. Compas-vurderingen, når det tager stilling til straflængder og prøveløsladelser.

Den uafhængige tænketank Electronic Privacy Information Center oplyser, at kunstig intelligens endog bliver brugt til at fastslå skyld.

Politiet i Chicago og andre amerikanske byer bruger programmer til at identificere kvarterer med uforholdsmæssig meget kriminalitet og følge borgere med en kriminel fortid. Og så koncentrerer betjentene indsatsen om disse områder og disse personer og bidrager derved måske til en ond cirkel.

Prioritering kan påvirkes

I sundhedssektoren trænger spørgsmålet om ressourcefordeling sig også på, for hvad hvis anvendelsen af kunstig intelligens leder læger i en bestemt retning til ulempe for andre indsatser?

Desuden er der rent etiske aspekter. Boston-virksomheden Akili Interactive har søgt om at få tilladelse til at bruge et computerspil, der er designet til at stimulere et område i hjernen, der knyttes til ADHD. I Kina ønsker forskere at finde personer, der går i selvmordstanker, ved at analysere deres opslag på det sociale medie Weibo.

På uddannelsesinstitutioner bruges kunstig intelligens til at vurdere studerendes chancer for at komme gennem forløbet på basis af studieaktiviteter og personlige forhold. Virksomheden Skyfactor har lavet et sådant system, som anvendes på over 1.500 universiteter og gymnasier i USA. Formålet er at hjælpe stedet til at bruge sine midler mest effektivt. Men hvor efterlader det studerende, som ville have klaret sig godt på trods af et svært udgangspunkt?

Fordomme flytter med

Eksperter fremhæver, at der er fare for, at kunstig intelligens bærer videre på menneskets indgroede forestillinger og fordomme og forstærker dem, hvilket fremmer ensretning i tænkningen om visse problemer og samfundsgrupper.

En anden risiko er, at visse grupper utilsigtet bliver overset i brugen af samfundets ressourcer. Konsekvensen kan være, at offentlige myndigheder og private virksomheder forskelsbehandler uden at forholde sig til det.

”Samtidig med at de lover effektivitet og upartiskhed, forvrænger algoritmer uddannelse, øger gæld, udløser massefængslinger, rammer fattige på alle mulige måder og undergraver demokratiet,” lyder den krasse dom fra datalogen Cathy O’Neil, som har udgivet bogen ’Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy’.

Fokus på dataindsamling

Eksperter sår også tvivl om, hvorvidt privatlivets fred respekteres.

”Ofte er det uigennemsigtigt, og man kan ikke tjekke algoritmerne,” siger Gry Hasselbalch, medstifter af tænketanken DataEthics.

EU har gennemført en databeskyttelsesreform, som skal træde i kraft den 25. maj. Danmark er i øjeblikket ved at forberede den nødvendige følgelovgivning.

Reformen skal øge borgeres kontrol med egne personlige oplysninger. Der er bl.a. et krav om klart samtykke, lettere adgang til personlige data og ret til at modsætte sig brug af personlige data til profilering.

Gry Hasselbalch siger, at et af de grundlæggende principper i EU-reformen er såkaldt dataminimering – altså at der kun indsamles data, der er absolut nødvendige.

”Hvis reformen implementeres korrekt, er den en direkte udfordring for it-giganterne, hvis forretningsmodeller ofte er baseret på store datamængder og profilering ud fra personlige data,” siger hun.

Eksempelvis har Google indsigt i cirka 90 procent af alle internetsøgninger i verden, fordi det er Google-søgemaskinen som anvendes.

Ansvaret, der blev væk

Det etiske skred kan blive forstærket af avanceret maskinlæring, der kaldes deep learning. Her har den kunstige intelligens spundet ”neurale net”, der er så komplekse, at mennesket er ude af stand til at fatte ”tankegangen” – og heller ikke kan fastslå, hvem der har ansvaret.

Black box-problemet kaldes det.

”Når en teknologi er tilgængelig, er der et stort pres for at bruge den. Indførelsen af kunstig intelligens gør det sandsynligt, at vi vil overlade flere beslutninger til maskiner. Og hvis så maskinerne er selvlærende, bliver det særlig svært at gennemskue motiver og placere ansvar,” siger professor Henrik Udsen, leder af Center for Informations- og Innovationsret på Københavns Universitet.

Samtidig med at de lover effektivitet og upartiskhed, forvrænger algoritmer uddannelse, øger gæld, rammer fattige på alle mulige måder og undergraver demokratiet.

Cathy O'Neil, datalog og forfatter

Kunstig intelligens er på vej ind i offentlige sektor

Digitale undervisningsassistenter i skolerne, miljøovervågning gennem smarte droner og satellitdata er bare nogle af de områder, hvor kunstig intelligens kan være på vej i det offentlige.

Den offentlige sektor er i fuld gang med at automatisere processer, og her kan indførelsen af kunstig intelligens være en hjælp. Det mener Flemming Adsersen. Han er driftsdirektør i Dansk Center for Anvendt Kunstig Intelligens under Alexandra Instituttet.

Kunstig intelligens kan medvirke til et bedre overblik og bedre beslutninger til gavn for samfundsøkonomien og den enkelte borger, forklarer Flemming Adsersen.

”Der er et stort potentiale, og man er klar. Hvis der er vaner, er der mønstre. Og hvis der er mønstre, kan man forudsige. Og hvis man kan forudsige, kan man ændre,” siger han.

Nordisk fordel

I Storbritannien konkluderede en uafhængig undersøgelse, foretaget for den britiske regering, i oktober sidste år, at kunstig intelligens kan yde meget større bidrag til offentlige ydelser gennem bl.a. tidlig indsigt i data, bedre afgørelser på komplekse sagsområder og mere effektivitet og brugervenlighed. 



”Danmark og Norden har i sammenligning med andre lande den fordel ved implementering af kunstig intelligens i den offentlige sektor, at det er samfund, der har godt styr på velfærdsdata,” påpeger Flemming Adsersen, der også har stiftet firmaet DataScienceHouse.

Herhjemme har KL fået udarbejdet en rapport om perspektiverne for danske kommuner ved nye teknologier, herunder kunstig intelligens. Det sker forud for en KL-konference i maj om digitalisering. I kommunerne er der i øjeblikket fokus på såkaldt Robotic Process Automation, som varetager samlebåndsarbejde for kontorfolk såsom at indtaste og ordne data og forberede sagsbehandling.

Men udviklingen i den danske offentlige sektor går mod mere avanceret kunstig intelligens, hedder det i KL-rapporten, som er lavet af teknologi-konsulentfirmaet DareDisrupt.

Blandt eksemplerne er : Personlige digitale undervisningsassistenter i skolerne, matchning af kompetencer frem for uddannelser i jobcentret, bedre analyser i miljø og teknik på grund af indlejret intelligens i alt omkring os og brug af satellitter og droner, individuel medicinering samt teknologi, der hjælper ældre og syge til at blive boende i eget hjem.

På længere sigt vil kunstig intelligens være et fundament for de øvrige teknologier i kommunerne, spår DareDisrupt.

Stiller krav

I den statslige administration kan der ventes ændringer af samme art, vurderer it-eksperter. Skatteopgørelser er allerede automatiserede.

Flemming Adsersen ser ingen grund til at slå alarm om eventuelle negative konsekvenser af kunstig intelligens. Blot politikere og embedsmænd hele tiden sørger for at være på højde med situationen.

”Kunstig intelligens må ikke stå alene. I så fald kan der blive truffet afgørelser, som myndighederne ikke selv fatter,” siger Flemming Adsersen.

Om beskyttelsen af privatlivets fred mener Flemming Adsersen, at EU’s nye databeskyttelsespakke og den danske følgelov om databeskyttelse vil ”kapsle det problem ind.”

Kommentér
Del Twitter LinkedIn Facebook

Kommenter

Din mail-adresse vil ikke blive vist offentligt
Dette spørgsmål forhindrer spam i kommentarfeltet. Spam-robotter kan nemlig ikke regne, så de kan stoppes med let matematik.