Næste år skal virksomheder have styr på dataetik

Potentialet i brugen af nye teknologier er enormt, men der følger et lige så stort ansvar for at beskytte menneskerettigheder med. Principper og guidelines for at sætte retning og håndtere disse vokser frem fra flere sider. Det handler egentlig ikke om teknologi.

Der følger mange dataetiske overvejelser med at give opgaver videre til maskiner. Vejen til dette er under udvikling i takt med at AI vinder indpas. .

20.10.2020

Eva Harpøth Skjoldborg, CSR.dk

I maj måned 2020 var mange nok mest optaget af at regne på, hvordan deres virksomhed klarede sig efter den store corona-nedlukning. Avisernes overskrifter stod på gen- og grænseåbning og varigheden af støtteordninger. Uden for corona handlede det om hvor grøn den danske energiforsyning egentlig er, instrukskommissionen og EU’s nye budget.

Men d. 26. maj vedtog Folketinget en tilføjelse til årsregnskabsloven, så den nu også har en paragraf 99D. Den afkræver store virksomheder en redegørelse for deres politik om dataetik – eller traditionen tro en forklaring hvis de ikke har sådan en.

Hvorfor nu det? Fordi, som der står i EU’s white paper om kunstig intelligens fra februar 2020, så bygger ”den nuværende og fremtidige bæredygtige økonomiske vækst og samfundsmæssige velfærd i stigende grad på den værdi, der skabes ved hjælp af data”.

Det betyder, ifølge samme udredning, at ”den digitale teknologi bliver en stadig mere central del af menneskers liv på alle fronter, så derfor bør folk kunne stole på den. Pålidelighed er også en forudsætning for dens udbredelse”.

”Bedre end mennesker”
Brugen af det, man bredt set kalder kunstig intelligens (AI), vokser meget markant, pga. de fordele det byder på. Det handler ofte om automatisering af databehandling, som giver bedre beslutningsgrundlag fordi det kan levere større indsigt og mere viden om udvikling og forandringer i fortid, nutid og fremtid. Nogle gange endda i realtid. AI er kendt for at kunne føre til sikrere produkter og processer, hurtigere behandlingstid og færre fejl.

Anders Kofod-Petersen rådgiver fra Alexandra Instituttet om indførelsen af kunstig intelligens. Det skal være "menneske og maskine", mener han. Foto: Alexandra Instituttet.

”Vi har automatiseret manuelle opgaver i de sidste 250 år, men AI tillader automatisering af det, man kan kalde funktionæropgaver. Det er interessant økonomisk og som mulighed for nøjagtigt at overskue og behandle store mængder information,” siger Anders Kofod-Petersen, som er professor i kunstig intelligens ved Norwegian University of Science and Technology (NTNU) og direktør for Alexandra Instituttet, København

Kort sagt er kunstig intelligens en sammensætning af teknologier, der kombinerer data, algoritmer og computerkraft. Så de f.eks. kan stå for gennemgangen af store mængder data – hurtigt og pålideligt.

Advokatkontorernes arbejde med mergers og virksomhedsopkøb er et klassisk eksempel. Som en del af beslutningsprocessen laver den potentielle køber en gennemgang af virksomhedens eksterne og interne dokumenter flere år tilbage.

”Det plejede at være noget, hvor man gav nogle yngre fuldmægtige fire m3 papir og sagde ”vi skal bruge det på onsdag”. Så sad de og læste og læste og ledte efter uregelmæssigheder. Det kan maskiner gør meget bedre: hurtigere og med lavere fejlrater,” fortæller Anders Kofod-Petersen.

Viser bare virkeligheden
Men AI kan også gøre skade i form af ulykker, fejlbehandling, brud på privatlivets fred, begrænsning af ytringsfriheden, tab af menneskelig værdighed eller forskelsbehandling. Det er dog ikke teknolgiens skyld.

Automatisering har blot en tendens til at udstille vores egne bias og manglende evne til at leve op til de værdier, vi ellers har formuleret som grundlæggende for vores samfund. F.eks. at alle er lige for loven.

I dele af det amerikanske retssystem har man f.eks. indført AI til at hjælpe med at udmåle straffe. Systemet kommer med forslag til straf i konkrete sager. I de første år det system var i brug viste det sig, at systemet havde tendens til at uddele strengere straffe til f.eks. farvede borgere end hvide.

”Så sagde man, at algoritmen var racistisk. Men det kan den jo ikke være, algoritmen har jo ikke egne holdninger. Den kigger bare på tilgængelige domme i sit system og lærer sig et mønster. Den viste os bare med lige vel stor tydelighed, hvad virkeligheden var, over for de principper vi havde sagt, vi byggede retssystemet på,” siger Anders Kofod-Petersen.

Spørgsmålet om personlige data
Den største og mest uafklarede udfordring ift. dataetik er dog spørgsmålet om, hvordan virksomhederne håndterer de store mængder data, som løsninger baseret på AI kræver.

”Det er svært at fastholde princippet om mennesket i centrum,” siger Birgitte Kofod Olsen, som er specialist i dataetik i konsulentvirksomheden Carve.

Det handler om, at menneskerettigheder og arbejdstagerrettigheder tager udgangspunkt i, at stater skal beskytte det enkelte menneske mod overgreb og unødig indsigt i deres private forhold. Det grundvilkår gælder for også virksomheder, når de arbejder med persondata.

Birgitte Kofod Olsen er ph.d og partner i Carve Consultning med speciale i bl.a. dataetik. Foto: Carve Consulting.

”Ønsker om automatisering, effektivisering og optimering er hensyn som let tager over og sætter det enkelte menneske i skyggen. Sammenstillingen af data fra mange forskellige kilder og øget computerkraft gør, at detaljerede profiler af det enkelte menneske – altså som borger, forbruger, kunde, medlem – ligger hos myndigheder og virksomheder. Vi bliver transparente – det svækker vores frihed og ret til respekt for privatliv,” forklarer Birgitte Kofod Olsen

”Udfordringen er bl.a., at det er svært at forstå, hvordan algoritmerne fungerer, og virksomheder og myndigheder er ikke gode til at forklare det. Det svækker vores kontrol med vores egne data,” fortsætter hun.

Tre modeller for data og ansvar
Persondataforordningen – også kendt som GDPR – har taget nogle første skridt ud i at håndtere spørgsmålet om privatliv og kontrol med egne data. Den er udviklet og gælder for medlemslandene i EU, og det er ikke tilfældigt.

”Der er tre hovedretninger i spørgsmålet om ansvarlig brug af data. I USA er personlige data en vare, du kan handle med. I Kina opfattes data ikke som personlige og i EU, hvor tanken er, at det må være muligt at udnytte potentialet i AI og stadig have et fornuftigt perspektiv på retten til privatliv – det Margrethe Vestager kalder den 3. vej,” siger Anders Kofod-Petersen.

Hvor det ender, er stadig et åbent spørgsmål. Anders Kofod-Petersen tror på, at der er ”en fornuftig fremtid” for EU’s tilgang, bl.a. fordi der findes undersøgelser, som viser, at forbrugere bliver gradvist mere bevidste om, hvem der har og hvad deres data bruges til.

Hvad skal virksomheder gøre?
Uanset hvor stor og global udfordringen med dataetik er, skal virksomheder forholde sig til den. Og fra 2021 altså også rapportere om deres tilgang og indsats.

Der er hjælp at hente

  • Heldigvis er der allerede ganske meget hjælpe at hente, når man skal have virksomhedens dataetiske indsats på plads.
  • Regeringens ekspertgruppe om dataetik udgav i 2018 rapporten ”Data i menneskets tjeneste", som både forklarer emnet og kommer med forslag til værdier og principper for dataetik. 
  • Den danske, uafhængige tænke-handletank DataEthics, som har Birgitte Kofod Olsen som forperson og medstifter, udgav i 2018 et lettilgængeligt overblik over principper og pejlemærker for arbejdet med dataetik
  • DataEthics har også produceret et et koncept-papir om offentlige indkøb af AI, med en metode, der også kan bruges af private virksomheder. 
  • Dansk Standard har i 2020 udgivet to specifikationer om kunstig intelligens. 
  • EU Kommissionen har tidligere meldt ud, at man regner med at vedtage et direktiv på området. EU arbejder med AI, både for at fremme Europas konkurrenceevne inden for AI og sikre dataetiske hensyn gennem regler og retningslinjer. Der er allerede udgivet “Ethics Guidelines on Artificial Intelligence”, som bygger på en mennesket i centrum-tilgang og indeholder syv nøglekrav til AI systemer, som skal opfyldes, hvis de skal være pålidelige. 

Og ansvaret begynder allerede i forbindelse med indkøb af teknologien.

”Indkøbsprocessen skal kunne håndtere dataetiske krav og undersøgelser af leverandører. I driftsfasen skal man kunne teste, om anvendelsen af teknologierne fører til uforudsete konsekvenser, fx bias i forhold til minoritetsgrupper eller til for meget indsigt i kundernes private sfære,” siger Birgitte Kofod Olsen.

Det kan man ifølge Anders Kofod-Petersen håndtere, ved at overveje dimensionerne spejl og skala. Her kan vi vende tilbage til brugen af AI i udmålingen af straffe USA’s retssystem, som beskrevet tidligere i artiklen. 

”For det første, hvilke holdninger og bias kan vi se afspejlet i algoritmerne? Det skal man være opmærksomme på. Det gode er, at hvis algoritmer opfører sig ufint, så kan vi skille den ad og justere den, så den i højere grad udlever vores erklærede etik,” siger han.

”For det andet skal man overveje hvilken skala man med AI har indflydelse i. Hvis den uheldige bias strafudmålingsalgoritmen udviste i starten kun blev praktiseret af en enkelt dommer i en enkelt retskreds, så var skaden i nogen grad til at overskue. Modsat når algoritmen tager domme med bias med i sine overvejelser, som så bliver udbredt til store dele af det samlede retssystem,” fortsætter han.

Ifølge Birgitte Kofod Olsen handler det om integration:

”De dataetiske overvejelser skal indarbejdes i de risikovurderinger og konsekvensanalyser, som allerede er knyttet til arbejdet med bæredygtighed og ansvarlighed.  Og så skal de integreres i de due diligence processer, de allerede har etableret, ” siger hun.

Længere er den måske ikke. Det er i al fald også den tilgang, som den nye paragraf 99D i årsregnskabsloven er udtryk for. Dataetik er og skal håndteres i virksomhederne som en del af deres samfundsansvar. Så det er bare at komme i gang.

Miljømærkning Danmark

Sponseret

Gratis seminar: Er din grønne kommunikation så effektfuld som du tror?

Energi Danmark A/S

Sponseret

PPA-aftaler bidrager til udviklingen af ny solcelle-park

Denne artikel er del af et tema:

I fokus: ansvarlig brug af nye teknologier

Automatisering, kunstig intelligens, robotteknologi, intelligente enheder, osv kan give mange fordele. Men alle har de implikationer for diverse menneskerettigheder og for jobmarkedet. Læs om, hvordan man kan arbejde ansvarligt med de nye muligheder.

Relateret indhold

30.10.2024CSR.dk

Fødevareaffald kan blive en guldgrube

30.10.2024CSR.dk

Oxfam: De rigeste skal betale ekstra for deres massive udledninger

Hvordan vil du have din kaffe?

21.10.2024Blind Coffee

Sponseret

16.10.2024CSR.dk

Flere fælles frokostmåltider skal øge trivsel

15.10.2024Give Steel A/S

Sponseret

Give Steel modtager prisen som Årets læreplads 2024

Vi smager os frem

04.10.2024Blind Coffee

Sponseret

Det her gør Blind Coffee til noget særligt

30.09.2024Blind Coffee

Sponseret

26.09.2024BSR

Sponseret

Four Tips for Business Leaders to Advance Social Justice Amidst DEI Blowback

Jobmarked

Se alle

Hold dig opdateret med CSR.dk

Tilmeld dig nyhedsbrevet og følg med i alt som rører sig indenfor ESG og bæredygtig udvikling Nyhedsbrevet kommer kun to gange ugentligt. Herudover sender vi dig relevante temaer og spændede events.

Se flere temaer

Events

Se alle
Sustainable Business Solutions ApS
Webinar
Introduktion til klimadata og klimaregnskaber i praksis - Oktober

Er du ny i arbejdet med klimaregnskaber, og mangler du en grundlæggende forståelse for, hvad arbejdet med klimadata og udarbejdelse af klimaregnskaber indebærer? Så er dette kursus for dig.

Dato

29.10.2024

Tid

09:00

Sted

Live online (Zoom)

Dansk Standard
Kursus
Asset management – Indførelse af opdateret ISO 55001

Dette kursus giver en dybdegående indsigt i forskellene mellem de tidligere og nye ISO 55000/01 standarder, og hvordan ændringerne påvirker implementeringen.

Dato

30.10.2024

Sted

København

CABI
Webinar
Webinar | Praksis hos Kids-World – Sådan ansætter vi de unge

Mød Sanne Aldenborg, lagerchef i Kids-World, der fortæller om virksomhedens strategi og arbejde med at ansætte unge medarbejdere. Både dem på 13-14 år og dem, der har brug for lidt ekstra støtte.

Dato

31.10.2024

Tid

10:30

Sted

Online

Cemasys.com
Webinar
How to master your CSRD reporting with essential tips from experts.

At this stage, the question is no longer why to begin the CSRD process, but how to get started and what key factors to consider as you move toward compliance. In relation to the launch of our CSRD-application, we are pleased to invite you to an insightful webinar. Sign up in the link below!

Dato

31.10.2024

Tid

14:00

Sted

Online

FSR - danske revisorer
Uddannelse
Bæredygtighed for ledere og medarbejdere i finans og regnskab

Arbejder du med bæredygtighed og ESG - eller skal du til at gøre det - kan du få værdifuld viden og ny indsigt i de krav CSRD stiller til store selskabers rapportering om bæredygtighed ved at uddanne dig inden for FSR – danske revisorers bæredygtighedskurser.

Dato

01.11.2024

Sted

Onlineundervisning selvstudie

FSR - danske revisorer
Uddannelse
Nye roller og ESG kontroller for ledere og medarbejdere i finans og regnskab

Arbejder du med vurdering af risici og kontroller inden for bæredygtighed - eller skal du til at gøre det - kan du få værdifuld viden og indsigt i den måde I kan gribe arbejdet an på ved at uddanne dig inden for FSR – danske revisorers bæredygtighedskurser

Dato

01.11.2024

Sted

Onlineundervisning selvstudie