Framsteg inom maskininlärning har lett till en ökad popularitet att använda AI -beslutsalgoritmer för att effektivisera förfaranden som borgenförhör (Feller et al., 2016), medicinska diagnoser (Rajkomar et al., 2018; Esteva et al., 2019) och rekrytering (Heilweil, 2019; Van Esch et al., 2019). Akademiska artiklar (Floridi et al., 2018), policytexter (HLEG, 2019) och populärböcker (O'Neill, 2016) varnar för att sådana algoritmer tenderar att vara ogenomskinliga: de ger inte förklaringar till deras resultat. Föreläsningen bygger på en kausal redogörelse för öppenhet och opacitet samt senaste arbete med kausalt förklaringsvärde (Lombrozo, 2011; Hitchcock, 2012) så väcker jag en moralisk oro för ogenomskinliga algoritmer som ofta går obemärkt förbi: ogenomskinliga algoritmer kan undergräva användarnas autonomi genom att dölja framträdande vägar för att påverka deras resultat. Jag hävdar att denna oro skiljer sig från det som normalt diskuteras i litteraturen och att den förtjänar ytterligare uppmärksamhet. Jag hävdar också att det kan vägleda oss i beslutet om vilken grad av transparens som borde krävas. Sannolikt kan den nödvändiga graden av transparens uppnås utan att ”öppna den svarta lådan” för maskininlärningsalgoritmer.