Podczas prezentacji przedstawię moje najnowsze wyniki badań dotyczące
wykorzystania kodowania rzadkiego oraz architektury Auto-encoder do
badania przestrzeni ukrytych w modelach Vision Transformer. Prezentacja
ta będzie rozszerzeniem wyników prezentowanych przeze mnie w styczniu
tego roku. Przypomnę, jak można dokonać dekompozycji aktywacji zadanej
przestrzeni ukrytej dla modelu klasyfikacyjnego uczonego na danych
obrazowych. Pokażę, jak następnie można wykorzystać otrzymaną
dekompozycję do opracowania wyjaśnień lokalnych oraz globalnych. Dalej,
przedstawię szereg przykładów wyjaśnień dla danych z wielkoskalowego
zbioru ImageNet21K, posiłkując się opracowanym przeze mnie narzędziem.
Na koniec, zaprezentuję wyniki dla liniowych klasyfikatorów (modeli
white-box) wyuczonych na bazie otrzymanych interpretowalnych przestrzeni
cech.