Brugen af kunstig intelligens i den offentlige sektor kan føre til alvorlig diskrimination
Løbende test af beregningsmodellerne og øget grad af gennemsigtighed er vejen frem, mener jurist.
Institut for Menneskerettigheder konkluderer i en ny rapport, at der i forbindelse med brugen af kunstig intelligens i den offentlige sektor, kan opstå en risiko for alvorlig diskrimination.
Det skriver HK.
”Forbuddet mod diskrimination er en af de mest grundlæggende menneskerettigheder, vi har. Derfor er det også meget problematisk, at den her risiko for diskrimination er til stede i kommunernes sagsbehandling”, siger Marya Akhtar, der er jurist og chefkonsulent på Institut for Menneskerettigheder.
Læs også: Menneskehandel til tvangsarbejde finder sted i Danmark, men bagmænd dømmes ikke
Risikoen for diskrimination finder sted, når de profileringsmodeller der eksempelvis beregner en borgers ret til en bestemt offentlig ydelse, bygger på f.eks. etnicitet eller køn.
For at komme risikoen for diskrimination til livs ude i kommunerne, anbefaler Marya Akhtar, at alle offentlige myndigheder, der bruger profileringsmodellerne, forpligter sig til at teste løbende for mulig diskrimination i modellernes vurderinger.
Samtidig er der brug for en højere grad af gennemsigtighed, som man ser i blandt andet Helsinki og Amsterdam. Her har kommunerne en oversigt over brugen af kunstige intelligenser frit tilgængelige på deres hjemmesider.
- MTN