"False"
Hoppa direkt till innehållet
printicon
Huvudmenyn dold.

HYDE – Mänsklig agens och rättsstatlighet i semi-automatiserat beslutsfattande

Forskningsprojekt Projektet studerar rättsliga frågor rörande det ökade bruket av semi-automatiserat beslutsfattande inom områden som påverkar grundläggande rättigheter, specifikt inom brottsbekämpning, sociala välfärdssystem och inom moderering av sociala medier.

Projektet söker bland annat klargöra vilket ansvar som åligger mänskliga beslutsfattare när de använder sådana system, liksom hur hybrid-system för beslutsfattande påverkar det mänskliga beslutsfattandet och möjligheten till självständiga bedömningar. Det kan i sin tur leda både till kunskap om hur beslutssystem bör regleras som hur de kan implementeras för att inte kollidera med rättsliga krav.

Projektansvarig

Projektöversikt

Projektperiod:

2021-01-01 2024-12-31

Medverkande institutioner och enheter vid Umeå universitet

Juridiska institutionen

Forskningsområde

Informatik, Juridik

Externa finansiärer

Vetenskapsrådet

Projektbeskrivning

Den svenska regeringen och EU-kommissionen förordar båda en ökad användning av artificiell intelligens (AI) i såväl privat som offentlig sektor. Samtidigt har det på europeisk nivå framhållits att rättsliga oklarheter undergräver förtroendet för AI hos medborgarna liksom negativt påverkar villigheten hos privat sektor att investera i AI-utveckling. Kommissionen och dess expertgrupp för AI har därför understrukit behovet av att säkerställa att användandet av AI sker med människan i fokus och med meningsfull mänsklig kontroll över systemen. Detta bidrar till att beslutsfattande genom AI-system i stor utsträckning kommer äga rum i semi-automatiserade former, vad som kan beskrivas som hybridsystem, där mänskliga och automatiserade beslutsfattare samverkar. I takt med att sådana system implementeras inom allt fler områden som påverkar individers grundläggande rättigheter ökar också behovet av att undersöka vilka effekter sådana system har på rättsstatliga principer och mänskligt beslutsfattande.

Detta projekt syftar till att minska de rättsliga oklarheter som omger hybridsystem och till att generera viktig kunskap om deras effekter. Projektet kommer att studera tre viktiga miljöer där AI redan nu, och än mer i framtiden, kommer få en viktig roll. För det första inom det sociala välfärdssystemet där hybridsystem används för riskanalys och för att förhindra fusk och felaktiga utbetalningar. I denna kontext har domstolar och tillsynsorgan flaggat för juridiska problem i fråga om bland annat förmågan att förklara AI-beslut. För det andra inom brottsbekämpningen, där AI används exempelvis för profilering och ansiktsigenkänning. I denna kontext har EU varnat för påtagliga risker vid användandet av ansiktsigenkänning och tillsynsmyndigheter har lyft fram behovet av tydligare lagstöd. Till sist avser projektet även studera hur AI-system används för att filtrera och moderera sociala medier för att komma till rätta med problem som desinformation, hets mot folkgrupp och terroristpropaganda. I denna kontext kan vi se att AI kommer till användning för att hantera de stora mängder inlägg som ska granskas, samtidigt som mänskliga moderatorer blir negativt påverkade av det material de utsätts för. Fullständig automatisering har här ansetts problematiskt eftersom hänsyn måste tas till rättsliga, språkliga och kulturella faktorer för att inte undergräva yttrandefriheten.

Projektet angriper dessa problem genom en tvärdisciplinär studie som inbegriper forskare inom rättsvetenskap och informatik. Dels genomförs en rättslig analys av förutsättningarna för att använda hybridsystem inom de tre ovan nämnda miljöerna, dels en intervjustudie med beslutsfattare inom respektive miljö. Det ger möjligheter att både svara på viktiga frågor om både hur lagstiftningen som omger denna typ av system kan bli bättre, hur tillämpningen av de rättsliga regler som styr beslutsfattandet påverkas av de hybridsystem som används, liksom hur självbestämmande – agens – och ansvar för mänskliga beslutsfattare påverkas. Detta kan i sin tur svara vad konsekvenserna av sådana system blir för individer som blir föremål för deras beslut, liksom för grundläggande rättsstatliga principer. Projektet kan därmed ge viktiga råd till såväl lagstiftare, systemutvecklare och beslutsfattare rörande de förutsättningar och nödvändiga kontrollmekanismer som behövs för att på ett säkert sätt implementera denna typ av system.

Externa finansiärer

Senast uppdaterad: 2023-05-03