TU Darmstadt / ULB / TUbiblio

Explaining and Interactively Debugging Deep Models

Shao, Xiaoting (2022)
Explaining and Interactively Debugging Deep Models.
Technische Universität Darmstadt
doi: 10.26083/tuprints-00021868
Dissertation, Erstveröffentlichung, Verlagsversion

Kurzbeschreibung (Abstract)

Artificial Intelligence (AI) has made a huge impact on our everyday lives. As a dominant branch of AI since the 1990s, Machine Learning (ML) has been applied to a wide range of scenarios, including image recognition, speech recognition, fraud detection, recommendation systems, time series prediction and self-driving cars. Deep learning, backed up by Deep Neural Networks (DNNs), is a major subfield of machine learning. DNNs are good at approximating smooth functions, i.e., learning a mapping from inputs to outputs, which is also known as the predictive or supervised learning approach. Sometimes, one is not interested in a specific predictive task, but rather in finding interesting patterns in the data. In this case, a descriptive or unsupervised learning approach is needed, and the task can be formalized as density estimation. Deep probabilistic models have gained popularity for density estimation because they maintain a good balance between expressivity and tractability, whereas classical probabilistic models face an inherent trade-off.

Deep neural networks and deep probabilistic models are both deep models in the sense that they are composed of multiple layers of computation units. They are essentially computation graphs and consequently, it is hard for humans to understand the underlying decision logic behind their behavior. Despite the representational and predictive power deep models have demonstrated in many complex problems, their opaqueness is a common reason for concern. In this thesis, we provide insights into deep models using high-level interpretations and explanations of why particular decisions are made.

Explanations that contradict our intuitions or prior knowledge on the underlying domain can expose a potential concern, which may imply some desiderata of ML systems are not met. For example, a deep model may obtain high predictive accuracy by exploiting a spurious correlation in the dataset, which can lead to a lack of robustness, or unfairness if the spurious correlation is linked to a protected attribute. Built on the framework of Explanatory Interactive Machine Learning (XIL), we propose to interactively improve deep models based on the explanations we get. This way, we put users in the training loop and take user feedback on explanations as additional training signals. As an effect, the model can learn the rules that align with our intuitions or prior knowledge.

Typ des Eintrags: Dissertation
Erschienen: 2022
Autor(en): Shao, Xiaoting
Art des Eintrags: Erstveröffentlichung
Titel: Explaining and Interactively Debugging Deep Models
Sprache: Englisch
Referenten: Kersting, Prof. Dr. Kristian ; Teso, Prof. Dr. Stefano
Publikationsjahr: 2022
Ort: Darmstadt
Kollation: xix, 174 Seiten
Datum der mündlichen Prüfung: 20 Juli 2022
DOI: 10.26083/tuprints-00021868
URL / URN: https://tuprints.ulb.tu-darmstadt.de/21868
Kurzbeschreibung (Abstract):

Artificial Intelligence (AI) has made a huge impact on our everyday lives. As a dominant branch of AI since the 1990s, Machine Learning (ML) has been applied to a wide range of scenarios, including image recognition, speech recognition, fraud detection, recommendation systems, time series prediction and self-driving cars. Deep learning, backed up by Deep Neural Networks (DNNs), is a major subfield of machine learning. DNNs are good at approximating smooth functions, i.e., learning a mapping from inputs to outputs, which is also known as the predictive or supervised learning approach. Sometimes, one is not interested in a specific predictive task, but rather in finding interesting patterns in the data. In this case, a descriptive or unsupervised learning approach is needed, and the task can be formalized as density estimation. Deep probabilistic models have gained popularity for density estimation because they maintain a good balance between expressivity and tractability, whereas classical probabilistic models face an inherent trade-off.

Deep neural networks and deep probabilistic models are both deep models in the sense that they are composed of multiple layers of computation units. They are essentially computation graphs and consequently, it is hard for humans to understand the underlying decision logic behind their behavior. Despite the representational and predictive power deep models have demonstrated in many complex problems, their opaqueness is a common reason for concern. In this thesis, we provide insights into deep models using high-level interpretations and explanations of why particular decisions are made.

Explanations that contradict our intuitions or prior knowledge on the underlying domain can expose a potential concern, which may imply some desiderata of ML systems are not met. For example, a deep model may obtain high predictive accuracy by exploiting a spurious correlation in the dataset, which can lead to a lack of robustness, or unfairness if the spurious correlation is linked to a protected attribute. Built on the framework of Explanatory Interactive Machine Learning (XIL), we propose to interactively improve deep models based on the explanations we get. This way, we put users in the training loop and take user feedback on explanations as additional training signals. As an effect, the model can learn the rules that align with our intuitions or prior knowledge.

Alternatives oder übersetztes Abstract:
Alternatives AbstractSprache

Künstliche Intelligenz (KI) hat unser tägliches Leben stark beeinflusst. Als ein dominierender Zweig der KI seit den 1990er Jahren wurde das maschinelle Lernen (ML) auf eine Vielzahl von Szenarien angewandt, darunter Bilderkennung, Spracherkennung, Betrugserkennung, Empfehlungssysteme, Zeitreihenvorhersage und selbstfahrende Autos. Tiefes Lernen, welches weitgehend auf tiefen neuronalen Netzwerken (TNNs) basiert, ist ein wichtiger Teilbereich des maschinellen Lernens. TNNs sind gut darin, glatte Funktionen zu approximieren, d. h. eine Abbildung von Eingaben auf Ausgaben zu lernen, was auch als prädiktiver oder überwachter Lernansatz bekannt ist. Manchmal ist man nicht an einer spezifischen Prädiktionsaufgabe interessiert, sondern eher daran, interessante Muster in den Daten zu finden. In diesem Fall ist ein deskriptiver oder unüberwachter Lernansatz erforderlich, und die Aufgabe kann als Dichteschätzung formalisiert werden. Tiefe probabilistische Modelle haben für die Dichteschätzung an Popularität gewonnen, weil sie ein gutes Gleichgewicht zwischen Aussagekraft und Nachvollziehbarkeit bieten, während bei klassischen probabilistischen Modellen ein inhärenter Kompromiss besteht.

Tiefe neuronale Netze und tiefe probabilistische Modelle sind beides tiefe Modelle in dem Sinne, dass sie aus mehreren Schichten von Berechnungseinheiten bestehen. Sie sind im Wesentlichen Berechnungsgraphen, und folglich ist es für Menschen schwer, die ihrem Verhalten zugrunde liegende Entscheidungslogik zu verstehen. Trotz der Darstellungs- und Vorhersagekraft, die tiefe Modelle bei zahlreichen komplexen Problemen bewiesen haben, ist ihre Undurchsichtigkeit ein häufiger Anlass zur Besorgnis. In dieser Arbeit liefern wir Einblicke in tiefe Modelle, indem wir durch die Verwendung von Interpretationen und Erklärungen auf hoher Ebene aufzeigen, warum bestimmte Entscheidungen getroffen werden.

Deutsch
Status: Verlagsversion
URN: urn:nbn:de:tuda-tuprints-218689
Sachgruppe der Dewey Dezimalklassifikatin (DDC): 000 Allgemeines, Informatik, Informationswissenschaft > 004 Informatik
Fachbereich(e)/-gebiet(e): 20 Fachbereich Informatik
20 Fachbereich Informatik > Künstliche Intelligenz und Maschinelles Lernen
Hinterlegungsdatum: 19 Aug 2022 09:44
Letzte Änderung: 22 Aug 2022 10:50
PPN:
Referenten: Kersting, Prof. Dr. Kristian ; Teso, Prof. Dr. Stefano
Datum der mündlichen Prüfung / Verteidigung / mdl. Prüfung: 20 Juli 2022
Export:
Suche nach Titel in: TUfind oder in Google
Frage zum Eintrag Frage zum Eintrag

Optionen (nur für Redakteure)
Redaktionelle Details anzeigen Redaktionelle Details anzeigen