Sådan bliver dataetik værdiskabende og relevant
Teknologi er en stor del af løsningen på alle de globale kriser. Men der skal dataetik til for ikke blot at gøre ondt værre.
Dataetik har været på i hvert fald de store virksomheders dagsorden, siden emnet i 2020 kom ind i årsregnskabsloven. vedtog, at de største virksomheder skulle redegøre for dataetik i årsberetningen. Eller forklare hvorfor det ikke var relevant for deres virksomhed.
Så nu har de fleste en politik på deres hjemmeside og et kort afsnit i årsrapporten. Men det løser ikke rigtig opgaven, hvis man spørger ekspert i dataetik, Birgitte Kofod Olsen, forfatter til den nyligt udkomne ”Håndbog i Dataetik”. CSR.dk har interviewet forfatteren, som her gør os meget klogere på emnet.
Hvad er det vi skal med dataetik?
Dataetik handler om, hvordan virksomheder og myndigheder kan være med til at forbedre forholdene for mennesker, miljø og samfund gennem deres brug af data og teknologi. Det er områder, hvor vi lige nu oplever store udfordringer i form af diskrimination, klimakrise, biodiversitetskrise, stigende ulighed og udsathed for sårbare grupper. Men også områder, hvor virksomhederne har mulighed for gennem deres brug af data og teknologi at skabe nye muligheder gennem produkter og services, og gennem bæredygtig og ansvarlig drift.
Læs også: AI's stigende CO2-aftryk er en udfordring. Her er, hvad vi kan gøre ved det
Det arbejde klares ikke med en politik om dataetik. Dataetikken skal tænkes ind det daglige arbejde og ind i hele den livscyklus, som udviklingen og driften af databaserede løsninger har, fx brug af generativ AI som ChatGPT, brug af sensorer og andre internet-of-things-teknologier.
Men politikken er et godt sted at starte, fordi den kan sætte rammen for den dataetiske indsats og skabe forankring i ledelsen og klarhed over deres ambition i forhold til dataetik.
Hvordan kan man komme i gang med en dedikeret indsats inden for dataetik?
Man skal starte med at finde ud af, hvad fokus skal være for den dataetiske indsats. Hvor og hvem påvirker vi mest? Man kan f.eks. udarbejde en risikovurdering eller inddrage interne og eksterne interessenter til en dialog om deres erfaringer med virksomhedens brug af data og teknologi.
Jeg har f.eks. arbejdet sammen med et globalt medicinalfirma, hvor vi inddrog patientorganisationer fra hele verden i workshops om deres forventninger til virksomhedens arbejde med dataetik og deres interesse i at bidrage med deres sundhedsdata til virksomhedens forsknings- og udviklingsaktiviteter.
Og så gør det både risikoarbejdet og interessentdialogen lettere, hvis det er baseret på et sæt dataetiske målsætninger og principper, der passer til organisationens forretning, kultur og værdier.
Hvordan kan en sådan målsætning se ud?
Jeg kan give et par eksempler. Og med dem også vise, at lige efter målsætningen skal man finde ud af, hvordan den konkret implementeres i ens arbejde.
Man kan f.eks. arbejde med en målsætning om at fremme menneskets selvbestemmelsesret og så konkretisere det i principper om individuel datakontrol, dvs. adgang for brugerne til kontrol med deres egne data, og i interne governance-principper om menneskelig indgriben i beslutninger, der træffes med hjælp fra AI, eller menneskelig kontrol og ansvar, der sikrer løbende monitorering af kvaliteten af de outputs, teknologien genererer, fx svarene i en chatbot.
En anden målsætning kan være rimelighed og retfærdighed, som kan omsættes til principper for brugen af data og teknologi på en måde, så man undgår at diskriminere og har fokus på at fremme mangfoldighed og inklusion. En konkret opgave, der kommer ud af det, er test for bias – altså kontrol med at fordomme og stereotyper om mennesker på grund af deres alder, køn, etnicitet, religion, handicap, seksuel orientering osv. ikke er indlejret i data og dermed i de produkter eller services, man tilbyder.
Hvad er de gode råd til at gøre arbejdet med dataetik både værdiskabende og relevant i sin organisation?
Det er egentlig meget simpelt: dataetik skal integreres i alle faser af data- og teknologianvendelsen. Fra beslutningen om at indføre ny teknologi i design- og udviklingsfasen, i indkøbsprocessen, i forbindelse med test og lancering, i driften og til planen for vedligehold af den løsning, man driver.
I praksis er det selvfølgelig en kompleks opgave at få dataetik med i hele denne livscyklus. Men den er til at håndtere, hvis man har sin politik og principper på plads, har kortlagt de dataetiske risici og muligheder, formuleret sine i konkrete indsatser og så placeret roller og ansvar for de forskellige faser og opgaver.
Det er også nødvendigt med god koordination og samarbejde med kolleger i GDPR, informationssikkerhed og ESG/bæredygtighed, så vurderinger og resultater herfra kan inddrages i den dataetiske indsats.
Hvis man derudover har gode eksterne interessentnetværk, der kan trækkes ind i arbejdet, vil det samlede dataetiske arbejde bidrage til værdiskabelse i organisationen.
I takt med at AI breder sig ind i vores daglige arbejde, hvilke dataetiske udfordringer møder man så?
For det første er der lige nu en helt ukritisk tilgang til AI, som præger især brugen af GPT-modellerne lige nu. Mange går bare i gang uden at reflektere over databeskyttelse, sikkerhed, bias, ophavsrettigheder, forretningsfortrolighed og de mange fejl i output. Og uden at fastsætte regler for, hvordan AI må benyttes.
Det er helt afgørende for ansvarlig og bæredygtig brug af AI, at vi altid har human-in-the-loop, dvs. procedurer og arbejdsprocesser, der gør, at vi som mennesker kan gribe ind og systematisk tester kvaliteten, ændrer og evt. afviser de resultater, AI-løsningen kommer med. Og det skal med fra starten – ikke som en efterrationalisering eller en hovsa-betragtning. Det kan en dataetisk indsats også hjælpe med få på plads.
Læs også: Første finansvirksomhed med i mærkningsordning for dataetik
Den største udfordring ved AI i sig selv er i min optik, at alle de data, vi føder ind i systemerne, er forurenet i den forstand, at de bærer på mange årtiers fordomme og forforståelser om bestemt grupper af mennesker. Når f.eks. en chatbot er trænet på mandestemmer, vil den være svær at bruge for kvinder. Hvis den kun er trænet på rigsdansk, vil brugere med accent eller dialekt ikke kunne interagere med den. Hvis kameraovervågning ikke er trænet på repræsentative data, vil kvinder og brune eller sorte mænd ikke blive genkendt eller fejlagtigt kategoriseret.
Det kræver derfor systematisk test af bias i både datainput og dataoutput at forhindre denne form for forskelsbehandling. Man kan se det modsatte i praksis, når man i ChatGPT (tekst) og Midjourney (billeder) beder om eksempler på f.eks. læger og sygeplejersker, og de så viser stærkt kønsstereotype resultater.
En anden stor udfordring er transparens. Vi er nødt til at arbejde med meget større gennemsigtighed i de løsninger, vi benytter, ved at oplyse om de begrænsninger, de har.
Et godt initiativ inden for transparens er de algoritmeregistre, som byerne Amsterdam, Barcelona og Helsinki har etableret for at oplyse borgerne om de anvendte datasæt, persondatabeskyttelse, ikke-diskrimination, menneskelig kontrol og risikohåndtering. Den type oplysning til borgere og brugere synes jeg egentlig godt, man kunne gøre obligatorisk for både virksomheder og myndigheder. https://ai.hel.fi/en/international-house-helsinki-chatbot-into/
Birgitte Kofod Olsens bog ”Håndbog i Dataetik” kan købes ved at klikke på dette link. Hvis man bruger koden DATA25 får man endda rabat.