Næste år skal virksomheder have styr på dataetik
Potentialet i brugen af nye teknologier er enormt, men der følger et lige så stort ansvar for at beskytte menneskerettigheder med. Principper og guidelines for at sætte retning og håndtere disse vokser frem fra flere sider. Det handler egentlig ikke om teknologi.
I maj måned 2020 var mange nok mest optaget af at regne på, hvordan deres virksomhed klarede sig efter den store corona-nedlukning. Avisernes overskrifter stod på gen- og grænseåbning og varigheden af støtteordninger. Uden for corona handlede det om hvor grøn den danske energiforsyning egentlig er, instrukskommissionen og EU’s nye budget.
Men d. 26. maj vedtog Folketinget en tilføjelse til årsregnskabsloven, så den nu også har en paragraf 99D. Den afkræver store virksomheder en redegørelse for deres politik om dataetik – eller traditionen tro en forklaring hvis de ikke har sådan en.
Hvorfor nu det? Fordi, som der står i EU’s white paper om kunstig intelligens fra februar 2020, så bygger ”den nuværende og fremtidige bæredygtige økonomiske vækst og samfundsmæssige velfærd i stigende grad på den værdi, der skabes ved hjælp af data”.
Det betyder, ifølge samme udredning, at ”den digitale teknologi bliver en stadig mere central del af menneskers liv på alle fronter, så derfor bør folk kunne stole på den. Pålidelighed er også en forudsætning for dens udbredelse”.
”Bedre end mennesker”
Brugen af det, man bredt set kalder kunstig intelligens (AI), vokser meget markant, pga. de fordele det byder på. Det handler ofte om automatisering af databehandling, som giver bedre beslutningsgrundlag fordi det kan levere større indsigt og mere viden om udvikling og forandringer i fortid, nutid og fremtid. Nogle gange endda i realtid. AI er kendt for at kunne føre til sikrere produkter og processer, hurtigere behandlingstid og færre fejl.
”Vi har automatiseret manuelle opgaver i de sidste 250 år, men AI tillader automatisering af det, man kan kalde funktionæropgaver. Det er interessant økonomisk og som mulighed for nøjagtigt at overskue og behandle store mængder information,” siger Anders Kofod-Petersen, som er professor i kunstig intelligens ved Norwegian University of Science and Technology (NTNU) og direktør for Alexandra Instituttet, København
Kort sagt er kunstig intelligens en sammensætning af teknologier, der kombinerer data, algoritmer og computerkraft. Så de f.eks. kan stå for gennemgangen af store mængder data – hurtigt og pålideligt.
Advokatkontorernes arbejde med mergers og virksomhedsopkøb er et klassisk eksempel. Som en del af beslutningsprocessen laver den potentielle køber en gennemgang af virksomhedens eksterne og interne dokumenter flere år tilbage.
”Det plejede at være noget, hvor man gav nogle yngre fuldmægtige fire m3 papir og sagde ”vi skal bruge det på onsdag”. Så sad de og læste og læste og ledte efter uregelmæssigheder. Det kan maskiner gør meget bedre: hurtigere og med lavere fejlrater,” fortæller Anders Kofod-Petersen.
Viser bare virkeligheden
Men AI kan også gøre skade i form af ulykker, fejlbehandling, brud på privatlivets fred, begrænsning af ytringsfriheden, tab af menneskelig værdighed eller forskelsbehandling. Det er dog ikke teknolgiens skyld.
Automatisering har blot en tendens til at udstille vores egne bias og manglende evne til at leve op til de værdier, vi ellers har formuleret som grundlæggende for vores samfund. F.eks. at alle er lige for loven.
I dele af det amerikanske retssystem har man f.eks. indført AI til at hjælpe med at udmåle straffe. Systemet kommer med forslag til straf i konkrete sager. I de første år det system var i brug viste det sig, at systemet havde tendens til at uddele strengere straffe til f.eks. farvede borgere end hvide.
”Så sagde man, at algoritmen var racistisk. Men det kan den jo ikke være, algoritmen har jo ikke egne holdninger. Den kigger bare på tilgængelige domme i sit system og lærer sig et mønster. Den viste os bare med lige vel stor tydelighed, hvad virkeligheden var, over for de principper vi havde sagt, vi byggede retssystemet på,” siger Anders Kofod-Petersen.
Spørgsmålet om personlige data
Den største og mest uafklarede udfordring ift. dataetik er dog spørgsmålet om, hvordan virksomhederne håndterer de store mængder data, som løsninger baseret på AI kræver.
”Det er svært at fastholde princippet om mennesket i centrum,” siger Birgitte Kofod Olsen, som er specialist i dataetik i konsulentvirksomheden Carve.
Det handler om, at menneskerettigheder og arbejdstagerrettigheder tager udgangspunkt i, at stater skal beskytte det enkelte menneske mod overgreb og unødig indsigt i deres private forhold. Det grundvilkår gælder for også virksomheder, når de arbejder med persondata.
”Ønsker om automatisering, effektivisering og optimering er hensyn som let tager over og sætter det enkelte menneske i skyggen. Sammenstillingen af data fra mange forskellige kilder og øget computerkraft gør, at detaljerede profiler af det enkelte menneske – altså som borger, forbruger, kunde, medlem – ligger hos myndigheder og virksomheder. Vi bliver transparente – det svækker vores frihed og ret til respekt for privatliv,” forklarer Birgitte Kofod Olsen
”Udfordringen er bl.a., at det er svært at forstå, hvordan algoritmerne fungerer, og virksomheder og myndigheder er ikke gode til at forklare det. Det svækker vores kontrol med vores egne data,” fortsætter hun.
Tre modeller for data og ansvar
Persondataforordningen – også kendt som GDPR – har taget nogle første skridt ud i at håndtere spørgsmålet om privatliv og kontrol med egne data. Den er udviklet og gælder for medlemslandene i EU, og det er ikke tilfældigt.
”Der er tre hovedretninger i spørgsmålet om ansvarlig brug af data. I USA er personlige data en vare, du kan handle med. I Kina opfattes data ikke som personlige og i EU, hvor tanken er, at det må være muligt at udnytte potentialet i AI og stadig have et fornuftigt perspektiv på retten til privatliv – det Margrethe Vestager kalder den 3. vej,” siger Anders Kofod-Petersen.
Hvor det ender, er stadig et åbent spørgsmål. Anders Kofod-Petersen tror på, at der er ”en fornuftig fremtid” for EU’s tilgang, bl.a. fordi der findes undersøgelser, som viser, at forbrugere bliver gradvist mere bevidste om, hvem der har og hvad deres data bruges til.
Hvad skal virksomheder gøre?
Uanset hvor stor og global udfordringen med dataetik er, skal virksomheder forholde sig til den. Og fra 2021 altså også rapportere om deres tilgang og indsats.
Der er hjælp at hente
- Heldigvis er der allerede ganske meget hjælpe at hente, når man skal have virksomhedens dataetiske indsats på plads.
- Regeringens ekspertgruppe om dataetik udgav i 2018 rapporten ”Data i menneskets tjeneste", som både forklarer emnet og kommer med forslag til værdier og principper for dataetik.
- Den danske, uafhængige tænke-handletank DataEthics, som har Birgitte Kofod Olsen som forperson og medstifter, udgav i 2018 et lettilgængeligt overblik over principper og pejlemærker for arbejdet med dataetik.
- DataEthics har også produceret et et koncept-papir om offentlige indkøb af AI, med en metode, der også kan bruges af private virksomheder.
- Dansk Standard har i 2020 udgivet to specifikationer om kunstig intelligens.
- EU Kommissionen har tidligere meldt ud, at man regner med at vedtage et direktiv på området. EU arbejder med AI, både for at fremme Europas konkurrenceevne inden for AI og sikre dataetiske hensyn gennem regler og retningslinjer. Der er allerede udgivet “Ethics Guidelines on Artificial Intelligence”, som bygger på en mennesket i centrum-tilgang og indeholder syv nøglekrav til AI systemer, som skal opfyldes, hvis de skal være pålidelige.
Og ansvaret begynder allerede i forbindelse med indkøb af teknologien.
”Indkøbsprocessen skal kunne håndtere dataetiske krav og undersøgelser af leverandører. I driftsfasen skal man kunne teste, om anvendelsen af teknologierne fører til uforudsete konsekvenser, fx bias i forhold til minoritetsgrupper eller til for meget indsigt i kundernes private sfære,” siger Birgitte Kofod Olsen.
Det kan man ifølge Anders Kofod-Petersen håndtere, ved at overveje dimensionerne spejl og skala. Her kan vi vende tilbage til brugen af AI i udmålingen af straffe USA’s retssystem, som beskrevet tidligere i artiklen.
”For det første, hvilke holdninger og bias kan vi se afspejlet i algoritmerne? Det skal man være opmærksomme på. Det gode er, at hvis algoritmer opfører sig ufint, så kan vi skille den ad og justere den, så den i højere grad udlever vores erklærede etik,” siger han.
”For det andet skal man overveje hvilken skala man med AI har indflydelse i. Hvis den uheldige bias strafudmålingsalgoritmen udviste i starten kun blev praktiseret af en enkelt dommer i en enkelt retskreds, så var skaden i nogen grad til at overskue. Modsat når algoritmen tager domme med bias med i sine overvejelser, som så bliver udbredt til store dele af det samlede retssystem,” fortsætter han.
Ifølge Birgitte Kofod Olsen handler det om integration:
”De dataetiske overvejelser skal indarbejdes i de risikovurderinger og konsekvensanalyser, som allerede er knyttet til arbejdet med bæredygtighed og ansvarlighed. Og så skal de integreres i de due diligence processer, de allerede har etableret, ” siger hun.
Længere er den måske ikke. Det er i al fald også den tilgang, som den nye paragraf 99D i årsregnskabsloven er udtryk for. Dataetik er og skal håndteres i virksomhederne som en del af deres samfundsansvar. Så det er bare at komme i gang.