"False"
Hoppa direkt till innehållet
printicon
Huvudmenyn dold.
Publicerad: 2023-05-04 Uppdaterad: 2023-05-05, 23:49

AI behöver ett queerperspektiv för en inkluderande framtid

NYHET Artificiell intelligens (AI) kan sedan ett antal år tillbaka känna igen ansikten genom maskininlärning. Samtidigt lyfts de risker som finns med den typen av synlighet och att data som AI tränar på är normativ. I en artikel argumenterar forskare vid Umeå universitet för att ett queerperspektiv på AI kan hjälpa till att identifiera risker med ansiktsigenkänning och ge en riktning för en mer inkluderade teknologi.

Text: Sandra Lundström

– AI-teknologi såsom bilddetektering, ansiktsigenkänning och klassificering utgör ett särskilt relevant område där vi kan se en tydlig sammanflätning mellan mänsklig identitet och algoritmiska beräkningar. Ansiktsigenkänningsteknologier vilar på binära uppdelningar och kategoriseringar. Men verkligheten är mer komplex än så och det är många idag som vare sig vill, kan eller identifierar sig inom ramarna för en sådan uppdelning. Queerteori handlar om att skärskåda hur normer för kön och sexualiteter skapas och upprätthålls i samhället och vilka konsekvenser det kan få – frågor som är viktiga att ställa när det gäller AI:s snabba framfart och implementering i samhället, säger Evelina Liliequist, postdoktor vid Centrum för regionalvetenskap vid Umeå universitet och anknuten forskare till Humlab.

Ansiktsigenkänning används brett

Ansiktsigenkänning är en teknik som innebär att till exempel en persons ansiktsform, ansiktsdrag och rörelser, registreras, analyseras och jämförs. Den typen av teknologi används brett idag.

Som det mesta inom teknik kan ansiktsigenkänning användas för att göra våra liv bekvämare men den kan också användas på sätt som vi kanske inte godkänner som samhälle.

– Vi kan till exempel låsa upp vår telefon genom att bara visa vårt ansikte, eller så kan vår fotoapp automatiskt tagga de personer som syns på våra bilder genom att känna igen ansikten. Det används också i passkontroller där ditt ansikte jämförs med den biometriska data som finns i ditt pass. Som det mesta inom teknik kan ansiktsigenkänning användas för att göra våra liv bekvämare men den kan också användas på sätt som vi kanske inte godkänner som samhälle. Det finns till exempel användningsområden inom övervakning och säkerhet som är kontroversiella, säger Andrea Aler Tubella, första forskningsingenjör vid Institutionen för datavetenskap och anknuten forskare vid Humlab.

Bygger på kulturella normer

För att lära AI att känna igen ansikten behöver systemen få tillgång till data (ansikten) som i sin tur kategoriseras binärt: man/kvinna, barn/vuxen, människa/djur. En stor del av det data som kategoriseras är kulturellt betingat på så sätt att exempelvis en person med skägg oftast antas vara en man. Ett problem är att de uppgifter som AI tränar på saknar bredare representation.

Det handlar om vilken framtid vi vill se och då är det tvärvetenskapliga mötet mellan humanister och tekniska ämnen en styrka som skulle behövas i större omfattning.

–  Med nuvarande teknolog finns det risker för att cementera essentialistiska förståelser av sexualitet och könsidentiteter som naturgivna och läsbara på kroppen, utan att dels ta hänsyn till människors självidentifikation, dels den nivå av öppenhet en person önskar, vågar eller kan uttrycka.

Artikeln Beyond the Binary – Queering AI for an Inclusive Future är skriven av forskare från olika områden: etnologi, datavetenskap, informatik och digital humaniora.

– Det handlar om vilken framtid vi vill se och då är det tvärvetenskapliga mötet mellan humanister och tekniska ämnen en styrka som skulle behövas i större omfattning, säger Evelina Liliequist.

Läs artikeln

Beyond the Binary – Queering AI for an Inclusive Future

Artikeln bygger på ett kapitel i den kommande boken Handbook of Critical Studies of Artificial Intelligence som ges ut i november 2023.

Författare till Beyond the Binary – Queering AI for an Inclusive Future