Forskningsprojekt
AI-system förväntas i allt högre grad agera autonomt. Att använda nuvarande maskininlärningsmetoder som fokuserar på mönstermatchning och förlitar sig starkt på korrelationsmetoder leder till ogenomträngliga system som är notoriskt svåra att övervaka (de så kallade black box-algoritmerna).
Projektet fokuserar på utveckling av metoder för att verifiera och övervaka det etiska beteendet hos AI-system baserat på observation av input och output beteende enligt ett kontinuerligt utvecklande samhällsoptimum.