Human-in-the-loop Hyperparameter Tuning of Deep Nets to Improve Explainability of Classifications

dc.contributorAalto-yliopistofi
dc.contributorAalto Universityen
dc.contributor.advisorChandramouli, Suyog
dc.contributor.authorGuillot Suarez, Calvin
dc.contributor.schoolSähkötekniikan korkeakoulufi
dc.contributor.supervisorOulasvirta, Antti
dc.date.accessioned2022-05-22T17:07:03Z
dc.date.available2022-05-22T17:07:03Z
dc.date.issued2022-05-16
dc.description.abstractArtificial Intelligence methods, especially the fields of deep-learning and other neural network based architectures have seen an increasing amount of development and deployment over the last decade. These architectures are especially suited to learning from large volumes of labelled data, and even though we know how they are constructed, they turn out to be equivalent to black boxes when it comes to understanding the basis upon which they produce predictions, especially as size of the network increases. Explainable AI (xAI) methods aim to disclose the key features and values that influence the prediction of black-box classifiers in a manner that is understandable to humans. In this project, the first steps are taken towards developing an interactive xAI system that places a human in the loop; here, a user’s ratings on the sensibility of explanations of individual classifications are used to iteratively find Hyperparameters of the neural net classifier (VGG-16), image segmentator (Felzenszwalb), and xAI (SHAP), to improve the sensibility of the explanations produced without affecting classification accuracy of the classifier in the training set. The users are asked to rate the sensibility of explanation from 1-10. The rating from the users is fed back to the Bayesian optimization algorithm that suggests new Hyperparameters values for the classifier, segmentator, and SHAP modules. The results of the user study suggests that the Hyperparameters which produced higher ratings on explanations tended to also improve the explainability of the images, thus generally improving the explainability for the image class. Improvement in the out-of-sample accuracy of the classifier (for the same class) was observed in some scenarios, but this still needs more comprehensive evaluation. More sensitive queries for the users, explore a variety of xAI methods, a variety of datasets, as well as conduct larger-scale experiments with users would be required to jointly improve explanations of multiple classes.en
dc.description.abstractTekoälyn menetelmien kehitystyö ja käyttö on kasvanut paljon viimeisen vuosikymmenen aikana. Eritoten kasvua on nähty syväoppimisen ja muiden neuroverkkopohjaisten arkkitehtuureiden parissa. Nämä arkkitehtuurit sopivat erityisen hyvin oppimaan suurista määristä nimikoitua dataa ja vaikka tiedämmekin, miten nämä on rakennettu, niin etenkin verkon koon kasvaessa ymmärtäminen millä perusteella ne luovat ennusteita vastaa mustaa laatikkoa. Selittävän tekoälyn (xAI) menetelmät pyrkivät esittämään ihmisille ymmärrettävässä muodossa pääominaisuudet ja arvot, jotka vaikuttavat musta laatikko luokittelijoiden ennusteisiin. Tässä projektissa kehitetään interaktiivista xAI-järjestelmää, joka asettaa ihmisen mukaan prosessiin. Käyttäjän arvosanaa yksittäisten luokitteluiden selityksen herkkyydestä käytetään toistuvasti löytämään neuroverkon luokittelumoduulin (VGG-16), kuvien segmentointimoduulin (Felzenszwalb) ja selittävän tekoälymoduulin (SHAP) hyperparametrit. Tämän avulla on tarkoitus parantaa harjoitussarjan selityksien herkkyyttä vaikuttamatta luokittelijan luokituksien tarkkuuteen. Käyttäjiä pyydetään arvostelemaan selityksen herkkyys asteikolla yhdestä kymmeneen. Käyttäjien antamat arvosanat syötetään takaisin bayesilaiseen optimointialgoritmiin, joka ehdottaa uusia hyperparametriarvoja luokittelu-, segmentointi- ja SHAP-moduuleille. Käyttäjätutkimuksen tulokset viittaavat siihen, että hyperparametrit, jotka tuottivat korkeamman arvosanan selityksistä yleensä paransivat myös holdout kuvien selitettävyyttä ja täten paransivat myös yleisesti kuvaluokan selitettävyyttä. Datajoukon ulkopuolisten luokitusten tarkkuuden paranemista huomattiin jossain tapauksissa, mutta tämä vaatii vielä tarkempaa tarkastelua. Useampien luokkien selityksien paranantaminen samanaikaisesti vaatisi tarkempia kyselyitä käyttäjille, useiden selittävien tekoälymenetelmien tutkimista, datajoukkojen monipuolisuutta ja suuremman mittakaavan käyttäjätutkimuksia.fi
dc.format.extent47
dc.format.mimetypeapplication/pdfen
dc.identifier.urihttps://aaltodoc.aalto.fi/handle/123456789/114507
dc.identifier.urnURN:NBN:fi:aalto-202205223354
dc.language.isoenen
dc.locationP1fi
dc.programmeAEE - Master’s Programme in Automation and Electrical Engineering (TS2013)fi
dc.programme.majorControl, Robotics and Autonomous Systemsfi
dc.programme.mcodeELEC3025fi
dc.subject.keywordexplainable artificial intelligenceen
dc.subject.keywordBayesian optimisationen
dc.subject.keywordVGG-16en
dc.subject.keywordinterpretability methodsen
dc.subject.keywordhuman in-the-loopoptimizationen
dc.titleHuman-in-the-loop Hyperparameter Tuning of Deep Nets to Improve Explainability of Classificationsen
dc.titleSyvien verkkojen hyperparametrin virittäminen ihmisen avulla parannetaan - Luokittelujen selitettävyyden parantaminenfi
dc.typeG2 Pro gradu, diplomityöfi
dc.type.ontasotMaster's thesisen
dc.type.ontasotDiplomityöfi
local.aalto.electroniconlyyes
local.aalto.openaccessyes

Files

Original bundle

Now showing 1 - 1 of 1
No Thumbnail Available
Name:
master_Guillot_Suarez_Calvin_2022.pdf
Size:
15.64 MB
Format:
Adobe Portable Document Format