TU Darmstadt / ULB / TUbiblio

Aspects of Explanations for Optimization-Based Energy System Models

Hülsmann, Jonas (2024)
Aspects of Explanations for Optimization-Based Energy System Models.
Technische Universität Darmstadt
doi: 10.26083/tuprints-00027806
Dissertation, Erstveröffentlichung, Verlagsversion

Kurzbeschreibung (Abstract)

The transition towards a renewable energy system presents numerous challenges, demanding extensive decision-making processes. Optimization-based energy system models (ESMs) are valuable tools to facilitate these decisions. However, these models often prove too intricate and expansive for decision-makers, such as CEOs, politicians, or citizens, who typically lack expertise in ESMs. Consequently, there is a pressing need for explanations to bridge the gap between the complexity of ESM results and decision-makers comprehension, allowing them to discern potential disparities between their objectives and the model’s assumptions. This thesis focuses on various explanations for optimization-based ESMs. Initially, we explore explanations from psychological and philosophical perspectives to identify the fundamental concepts necessary for creating comprehensive explanations and elucidate the key factors essential for these explanations to be deemed adequate. Armed with these foundational concepts, we assess the current state-of-the-art in explaining ESMs, identifying existing shortcomings in explanation methodologies. We draw parallels between the challenges faced by the ESM domain and the field of machine learning, particularly in the domain of explainable artificial intelligence (XAI), which is dedicated to developing methods to enhance the explainability of machine learning models. This thesis delves into three distinct approaches from the abovementioned domains to address these challenges and enhance explanations for optimization-based ESMs. Firstly, we adopt an approach from XAI to ESMs to overcome two prevalent shortcomings in ESM explanations: elucidating the impact of high-dimensional input data and tailoring explanation complexities to different target audiences. Given the key role of causality in crafting explanations, we explore the utilization of causal graphical models for explaining ESMs. Finally, we design an interactive approach to facilitate hands-on learning of ESMs, focusing on the example of energy transition, and evaluate the efficacy of this approach within the context of a graduate-level university course.

Typ des Eintrags: Dissertation
Erschienen: 2024
Autor(en): Hülsmann, Jonas
Art des Eintrags: Erstveröffentlichung
Titel: Aspects of Explanations for Optimization-Based Energy System Models
Sprache: Englisch
Referenten: Steinke, Prof. Dr. Florian ; Jäkel, Prof. Dr. Frank
Publikationsjahr: 13 August 2024
Ort: Darmstadt
Kollation: vi, 138 Seiten
Datum der mündlichen Prüfung: 12 Juli 2024
DOI: 10.26083/tuprints-00027806
URL / URN: https://tuprints.ulb.tu-darmstadt.de/27806
Kurzbeschreibung (Abstract):

The transition towards a renewable energy system presents numerous challenges, demanding extensive decision-making processes. Optimization-based energy system models (ESMs) are valuable tools to facilitate these decisions. However, these models often prove too intricate and expansive for decision-makers, such as CEOs, politicians, or citizens, who typically lack expertise in ESMs. Consequently, there is a pressing need for explanations to bridge the gap between the complexity of ESM results and decision-makers comprehension, allowing them to discern potential disparities between their objectives and the model’s assumptions. This thesis focuses on various explanations for optimization-based ESMs. Initially, we explore explanations from psychological and philosophical perspectives to identify the fundamental concepts necessary for creating comprehensive explanations and elucidate the key factors essential for these explanations to be deemed adequate. Armed with these foundational concepts, we assess the current state-of-the-art in explaining ESMs, identifying existing shortcomings in explanation methodologies. We draw parallels between the challenges faced by the ESM domain and the field of machine learning, particularly in the domain of explainable artificial intelligence (XAI), which is dedicated to developing methods to enhance the explainability of machine learning models. This thesis delves into three distinct approaches from the abovementioned domains to address these challenges and enhance explanations for optimization-based ESMs. Firstly, we adopt an approach from XAI to ESMs to overcome two prevalent shortcomings in ESM explanations: elucidating the impact of high-dimensional input data and tailoring explanation complexities to different target audiences. Given the key role of causality in crafting explanations, we explore the utilization of causal graphical models for explaining ESMs. Finally, we design an interactive approach to facilitate hands-on learning of ESMs, focusing on the example of energy transition, and evaluate the efficacy of this approach within the context of a graduate-level university course.

Alternatives oder übersetztes Abstract:
Alternatives AbstractSprache

Die Energiewende bringt zahlreiche Herausforderungen mit sich, die eine Vielzahl von Entscheidungen erfordern. Optimierungsbasierte Energiesystemmodelle (ESM) sind nützliche Werkzeuge, um diese Entscheidungsprozesse zu erleichtern. Allerdings sind ESMs oft zu umfangreich und komplex für Entscheidungsträger wie CEOs, Politiker oder Bürger, die in der Regel nicht über Modellierungsexpertise verfügen. Erklärungen sind notwendig, um die komplexen Ergebnisse und das unintuitive Verhalten von ESM für Entscheidungsträger nutzbar zu machen und mögliche Diskrepanzen zwischen ihren Zielen und den Modellannahmen zu erkennen. Diese Arbeit konzentriert sich auf verschiedene Erklärungsansätze für optimierungsbasierte ESM. Zunächst werden die Erklärungsansätze aus psychologischer und philosophischer Sicht betrachtet, um die grundlegenden Prozesse und Faktoren zu identifizieren, die für eine Erklärung notwendig sind und deren wahrgenommene Adäquatheit bestimmen. Basierend auf diesen grundlegenden Konzepten, bewerten wir den aktuellen Stand der Technik bei der Erklärung von ESM und identifizieren Mängel in den bestehenden Erklärungsansätzen. Wir zeigen Parallelen zwischen den Herausforderungen der Erklärbarkeit im Gebiet der ESM und dem Gebiet des maschinellen Lernens, insbesondere im Bereich der Erklärbaren Künstlichen Intelligenz (XAI), die sich auf die Entwicklung von Methoden zur Verbesserung der Erklärbarkeit von maschinellen Lernmodellen konzentriert. Diese Arbeit beschäftigt sich mit drei verschiedenen Ansätzen aus den oben genannten Bereichen, um Erklärungen für optimierungsbasierte ESM zu verbessern. Zunächst wird ein Ansatz aus dem Bereich der XAI auf ein ESM übertragen, um zwei Defizite bestehender ESM-Erklärungen zu adressieren: den Einfluss hochdimensionaler Eingabeparameter und die Generierung von Erklärungen unterschiedlicher Komplexität für verschiedene Zielgruppen. Angesichts der Schlüsselrolle, die der Kausalität bei der Erzeugung von Erklärungen zukommt, untersuchen wir die Verwendung kausaler graphischer Modelle zur Erklärung von ESMs. Schließlich entwerfen wir einen interaktiven Ansatz, um das praktische Erlernen von ESM am Beispiel der Energiewende zu erleichtern, und evaluieren die Wirksamkeit dieses Ansatzes im Rahmen eines Universitätskurses für Masterstudierende.

Deutsch
Freie Schlagworte: Energy System Model, Explainablity, XAI
Status: Verlagsversion
URN: urn:nbn:de:tuda-tuprints-278064
Sachgruppe der Dewey Dezimalklassifikatin (DDC): 600 Technik, Medizin, angewandte Wissenschaften > 621.3 Elektrotechnik, Elektronik
Fachbereich(e)/-gebiet(e): 18 Fachbereich Elektrotechnik und Informationstechnik
18 Fachbereich Elektrotechnik und Informationstechnik > Institut für Datentechnik > Energieinformationsnetze und Systeme (EINS)
18 Fachbereich Elektrotechnik und Informationstechnik > Institut für Datentechnik
TU-Projekte: Bund|1|PlexPlain
Hinterlegungsdatum: 13 Aug 2024 12:02
Letzte Änderung: 14 Aug 2024 10:50
PPN:
Referenten: Steinke, Prof. Dr. Florian ; Jäkel, Prof. Dr. Frank
Datum der mündlichen Prüfung / Verteidigung / mdl. Prüfung: 12 Juli 2024
Export:
Suche nach Titel in: TUfind oder in Google
Frage zum Eintrag Frage zum Eintrag

Optionen (nur für Redakteure)
Redaktionelle Details anzeigen Redaktionelle Details anzeigen