"False"
Hoppa direkt till innehållet
printicon
Huvudmenyn dold.
Publicerad: 2025-06-02

Ny AI-forskning säkrar den personliga integriteten

NYHET Kan vi fortsätta att dra nytta av smartare teknik utan att ge avkall på vår integritet? Sonakshi Garg, doktorand vid Umeå universitet, tror att svaret är ja. Hon presenterar en rad innovativa strategier som underlättar forskning och utveckling samtidigt som de håller oss människor säkra. – Integritet är inte ett hinder för framsteg – det är en grund för att bygga bättre och mer tillförlitlig AI, säger Sonakshi Garg, som försvarar sin avhandling den 2 juni.

Varje gång du öppnar upp en app, besöker läkare eller gör ett köp på nätet genererar du data. Dessa data används i system för artificiell intelligens (AI) som hjälper företag att förbättra sina tjänster, läkare att upptäcka sjukdomar snabbare och regeringar att fatta välgrundade beslut.

Men i takt med att AI blir allt kraftfullare och mer beroende av personlig information växer oron för hur våra data används – och om de hålls säkra. I centrum för denna motsättning ligger en kritisk fråga: kan vi fortsätta att dra nytta av smartare teknik utan att ge avkall på vår integritet?
Sonakshi Garg, doktorand vid Umeå universitet, anser att svaret är ja. I sin banbrytande avhandling med titeln "Bridging AI and Privacy: Solutions for High-Dimensional Data and Foundation Models" presenterar hon en rad innovativa strategier som syftar till att säkerställa att AI kan vara både intelligent och respektera personuppgifter. Garg kallar detta för ”integritetsparadoxen”: ska vi välja stark AI eller stark integritet?
– Vi behöver inte längre välja det ena eller det andra – vi kan ha både och, menar Sonakshi Garg. 
För att lösa detta problem föreslår Garg flera lösningar. Hon använder så kallad manifold learning för att förenkla högdimensionella data samtidigt som den meningsfulla strukturen bibehålls.
– Tänk dig att du vecklar ut en skrynklig karta utan att förlora vägarna och landmärkena – det är vad manifold learning gör för komplicerade datamängder, förklarar Garg.

Träna AI-system utan att skada

Hon introducerar också en hybrid integritetsmodell som kombinerar styrkorna hos två befintliga metoder, vilket gör det möjligt för användare att bättre kontrollera hur mycket information som skyddas samtidigt som mer av datans användbarhet bevaras.
– Min metod skapar mycket realistiska ”falska” data som beter sig som på riktigt utan att avslöja någon verklig persons identitet. Det innebär att forskare och utvecklare på ett säkert sätt kan träna AI-system utan att behöva komma åt känsliga uppgifter, säger Sonakshi Garg.

Lager av integritetsskydd

Slutligen tar hon itu med de integritetsrisker som stora AI-modeller som GPT och BERT utgör, vilka av misstag kan ”memorera” privat information. Hennes metod komprimerar dessa modeller så att de blir mindre och mer effektiva samtidigt som den lägger till lager av integritetsskydd – vilket gör att de kan köras säkert även på personliga enheter som smartphones.

– Viktigast av allt är att stärka människors rätt till integritet. Min forskning visar att det är möjligt att dra nytta av personanpassade tjänster och smarta system utan att ge upp kontrollen över sitt privatliv. Integritet är inte är ett hinder för framsteg – det är en grund för att bygga bättre och mer pålitlig AI, säger Sonakshi Garg. 

Goda framtidsmöjligheter

I takt med att tekniken blir allt mer integrerad i våra liv ger Sonakshi Gargs forskning en välbehövlig plan för en framtid där AI och integritet kan utvecklas sida vid sida.
– Min forskning är en djärv och läglig påminnelse om att smart innovation aldrig får ske på bekostnad av mänsklig värdighet – och med rätt verktyg behöver den inte göra det, säger Sonakshi.

För ytterligare information, vänligen kontakta

Sonakshi Garg
Doktorand
E-post
E-post

Mer om avhandlingen

"Överbrygga AI och datasekretess: lösningar för högdimensionell data och grundmodeller" behandlar den växande spänningen mellan kraften i AI och behovet av att skydda den personliga integriteten i en tid av högdimensionella data. Den identifierar svagheterna i befintliga integritetsmetoder som k-anonymitet och differentiell integritet när de används på högdimensionella datamängder och föreslår förbättrade lösningar med hjälp av mångfaldig inlärning, syntetisk datagenerering och integritetsskyddande modellkomprimering. Forskningen introducerar avancerade, skalbara ramverk som förbättrar både datanyttan och integriteten. Sammantaget erbjuder avhandlingen ett väl avvägt tillvägagångssätt för att bygga etiska, integritetsmedvetna AI-system som är praktiska för verkliga tillämpningar. Läs avhandlingen här.