Kypseli Logo
    • Ελληνικά
    • English
  •  Αρχική
  •  Πλοήγηση 
    • Κοινότητες & Συλλογές
    • Ανά ημερομηνία δημοσίευσης
    • Συγγραφείς
    • Τίτλοι
    • Λέξεις κλειδιά
    • Με αριθμό έκδοσης
  • Language elLanguage en
  •  Σύνδεση 
    • Σύνδεση
    Προβολή τεκμηρίου 
    • Αρχική
    • Αποθετήριο Ανοικτού Πανεπιστημίου Κύπρου (Repository of the Open University of Cyprus)
    • Μεταπτυχιακές διατριβές / Master Τhesis
    • Cognitive Systems (in English)
    • Προβολή τεκμηρίου
    •   Αρχική
    • Αποθετήριο Ανοικτού Πανεπιστημίου Κύπρου (Repository of the Open University of Cyprus)
    • Μεταπτυχιακές διατριβές / Master Τhesis
    • Cognitive Systems (in English)
    • Προβολή τεκμηρίου
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Creation and analysis of an explainable deep learning system

    Thumbnail
    Προβολή/Άνοιγμα
    COS-2022-00017.pdf (8.765Mb)
    Ημερομηνία
    2022-12
    Συγγραφέας
    Karvonidis, Vasileios
    Μεταδεδομένα
    Εμφάνιση πλήρους εγγραφής
    Επιτομή
    Deep learning models represent the cutting edge in Artificial Intelligence - AI. However, they lack one key element, explainability. Even though such models are able to perform so accurately, they act as black boxes, without letting us having any insight into how they made a prediction, and what drove them to reach it. This problem concerns the researchers for many years, as explainability is of utmost importance in order to use Deep Learning models in critical applications, such as those in medical, finance and automotive sectors. Explainable AI consists of a set of methods and processes that allow the users to understand and trust the results of the AI model, due to the fact that there is clarity in the decision making, and we can easily characterise the accuracy, the transparency and the fairness of the model, even in a complex situation. This will help AI to become more ‘responsible’ to its decisions, more trustworthy and able to help larger sectors and industries to adopt it. In recent years, researchers developed various techniques, which can identify the reasons behind the decision of a deep learning model. These techniques inspire and pave the way for new methods to be developed. For example, Class Activation Mapping produces heatmaps to highlight the region of the image which the model focused on in order to classify it. This visualisation of where the model is looking helps to identify whether the model is trustful or not. For example, a model could classify a train image by looking at the train tracks rather than the actual train. Despite the correct classification, the model might take into account wrong parts of the image, which could be a consequence of poor training. A more evolved technique which is based on Class Activation mapping, is Grad-CAM. This technique is considered class-specific, meaning that for the same image, it can produce a separate visualisation for each class which is present in it. Another interesting approach is Structured Attention Graphs (SAGs). This method is inspired from attention maps, which are popular tools for explaining the decision of deep learning models. The researchers argue that just one attention map is not enough. With SAGs, we can have a set of patches as attention maps, and we record the confidence level of the model on each one in order to evaluate how the model is impacted. This thesis will mainly focus on Grad-Class Activation mapping and Structured Attention Graphs. We will explain the procedures behind the image classification, we will benchmark the techniques and see how they apply in various datasets. We will also analyse their role in the general structure of explainable artificial intelligence. 
    URI
    http://hdl.handle.net/11128/5489
    Συλλογές
    • Cognitive Systems (in English)

    Ανοικτό Πανεπιστήμιο Κύπρου

    Ταχ, Κιβ. 12794,

    2252, Λατσιά

    Κύπρος

    Τηλ.: +357 22 411600

    Φαξ.: +357 22 411601

    • Βοήθεια
    • Επικοινωνήστε μαζί μας
    • Ανοικτό Πανεπιστήμιο Κύπρου
    • Βιβλιοθήκη ΑΠΚΥ
    • Πολιτικές
    • Προσβασιμότητα και Προστασία Δεδομένων

    Βρείτε μας στο:

    • FacebookFacebook
    • EU Flag
    • Republic of Cyprus
    • Structural Funds
    • e University
    • Open University of Cyprus

    Το έργο eUniversity συγχρηματοδοτείται από το Ευρωπαϊκό Ταμείο Περιφερειακής Aνάπτυξης (ΕΤΠΑ) και από Εθνικούς πόρους κατά την Προγραμματική Περίοδο 2007-2013

     

    Πλοήγηση

    Όλο το ΑποθετήριοΚοινότητες & ΣυλλογέςΑνά ημερομηνία δημοσίευσηςΣυγγραφείςΤίτλοιΛέξεις κλειδιάΜε αριθμό έκδοσηςΑυτή η συλλογήΑνά ημερομηνία δημοσίευσηςΣυγγραφείςΤίτλοιΛέξεις κλειδιάΜε αριθμό έκδοσης

    Ο λογαριασμός μου

    ΣύνδεσηΕγγραφή

    Ανοικτό Πανεπιστήμιο Κύπρου

    Ταχ, Κιβ. 12794,

    2252, Λατσιά

    Κύπρος

    Τηλ.: +357 22 411600

    Φαξ.: +357 22 411601

    • Βοήθεια
    • Επικοινωνήστε μαζί μας
    • Ανοικτό Πανεπιστήμιο Κύπρου
    • Βιβλιοθήκη ΑΠΚΥ
    • Πολιτικές
    • Προσβασιμότητα και Προστασία Δεδομένων

    Βρείτε μας στο:

    • FacebookFacebook
    • EU Flag
    • Republic of Cyprus
    • Structural Funds
    • e University
    • Open University of Cyprus

    Το έργο eUniversity συγχρηματοδοτείται από το Ευρωπαϊκό Ταμείο Περιφερειακής Aνάπτυξης (ΕΤΠΑ) και από Εθνικούς πόρους κατά την Προγραμματική Περίοδο 2007-2013