"False"
Hoppa direkt till innehållet

Studenter som inte bytt lösenord sedan 7 maj kan inte logga in på studentwebben. Detta p.g.a. skyddsåtgärder vid cyberattacken den 2 maj. Läs hur du byter lösenord.

printicon
Huvudmenyn dold.

Matematiska grunder för artificiell intelligens

Här kan du läsa om möjliga examensarbeten inom området matematiska grunder för artificiell intelligens. Nederst på sidan hittar du kontaktuppgifter till forskare som är verksamma inom området. Kontakta gärna någon av dem eller besök deras personliga sida för mer information om potentiella uppsatsteman inom beräkningsmatematik.

Compressive sensing

Förkunskaper: Linjär algebra, sannolikhetsteori, optimering (ej nödvändigt), mått-teori (ej nödvändigt)

Compressive sensing är ett ramverk för att lösa underbestämda (bi)-linjära ekvationssystem under strukturantaganden. Metoderna kan användas praktiskt till att rekonstruera bilder från t.ex. en väldigt liten del av deras Fourierspektrum. Algoritmerna inom ramverket kan ofta bara bevisas fungera för slumpmässiga instanser, vilket betyder att man behöver använda teori för slumpmatriser. Det finns även oändligdimensionala versioner av teorin.

Distribuerad och federerad optimering

Förkunskaper: Optimering
I internets tidsålder uppstår ofta situationer där många användare är kopplade till varandra, men inte kapabla (eller villiga) att skicka all sin information till varandra. Distribuerad och federarad optimering är ett ramverk för att utveckla metoder för sådana kluster av användare att optimera en gemensam funktion som de var för sig bara har begränsad tillgång till.

Ekvivarians och neurala nätverk

Förkunskaper: Linjär algebra, representationsteori (ej nödvändigt), Lie-grupper/-algebror (ej nödvändigt), maskinlärning (ej nödvändigt).

Ekvivarians är ett fint ord för att en function respekterar en symmetri. Inom geometrisk djupinlärning undersöker man hur neurala nätverk kan designas för att automatiskt respektera symmetrier.

Neurala differentialekvationer

Förkunskaper: Differentialekvationer, Lie-grupper/-algebror (ej nödvändigt).
Neurala differentialekvationer är ett ramverk för att modellera ‘oändligt djupa’ neurala nätverk genom dynamiska system. Några möjliga utvidgningar är att göra modellerna ekvivarianta med avseende på symmetrier, att betrakta partiella differentialekvationer och att undersöka kopplingar till fysikinspirerade modeller.

Operator splitting

Förkunskaper: Optimering
Många optimeringsproblem är av formen ‘minimera f(x) + g(x)’ , där f och g är två funktioner som har fundamentalt olika egenskaper (en kan vara slät och den andra icke deriverbar, till exempel). Operator splitting-metoder är algoritmer för att effektivt lösa sådana optimeringsproblem.

Kontakt

Axel Flinth
Biträdande universitetslektor
E-post
E-post
Telefon
090-786 62 22
Fredrik Ohlsson
Universitetslektor
E-post
E-post
Telefon
090-786 53 89
Alp Yurtsever
Biträdande universitetslektor
E-post
E-post
Telefon
090-786 75 46
Senast uppdaterad: 2024-01-17