Henzel, Maren (2019)
Analyse der Generalisierbarkeit von maschinell gelernten Algorithmen in Fahrerassistenzsystemen.
Technische Universität Darmstadt
doi: 10.25534/tuprints-00009246
Dissertation, Erstveröffentlichung
Kurzbeschreibung (Abstract)
Maschinell gelernte Systeme finden immer häufiger Einsatz in Fahrerassistenzsystemen. Dabei zeichnen sich die eingesetzten Lernalgorithmen je nach Aufgabenkomplexität durch eine geringe Nachvollziehbarkeit der Vorhersagekriterien gewünschter Ausgangsgrößen aus. Darüber hinaus basiert Maschinelles Lernen auf einem induktiven Erkenntnisprozess in welchem nicht sichergestellt ist, dass die zur Vorhersage der Ausgangsgrößen erlernten Zusammenhänge allgemeingültig sind bzw. auf Kausalität anstelle von Korrelation basieren. Unter anderem hierdurch bedingt sind bestehende Möglichkeiten zur Erbringung eines Sicherheitsnachweises nicht anwendbar. Die bestehenden alternativen Ansätze zum Nachweis der Sicherheit schränken entweder die Leistungsfähigkeit der genutzten Modelle stark ein oder unterliegen der Annahme, dass alle inhärenten Fehler gelernter Modelle zuverlässig identifiziert werden. Ein Fehler liegt dabei in bereits beschriebenen fehlenden Generalisierbarkeit. Um die Sicherheitsnachweise, die die Leistungsfähigkeit nicht einschränken, anzuwenden, ist daher zuvor u.a. die Analyse der Generalisierbarkeit des gelernten Modells durchzuführen. Da hierzu keine systematische Methode identifiziert wurde, bildet deren Entwicklung den weiteren Fokus der vorliegenden Arbeit. Als Grundlage zur Entwicklung des Ansatzes werden die Ursachen der fehlenden Generalisierbarkeit mittels einer Fehlerbaumanalyse untersucht. Diese Ursachen gliedern sich in drei Kategorien hinsichtlich potentieller Vermeidungs- und Identifikationsmöglichkeiten. Aufbauend auf dieser Gliederung wird ein systematischer vierstufiger Ansatz zur Vermeidung bzw. Identifikation fehlender Generalisierbarkeit abgeleitet. Die ersten beiden Schritte des Ansatzes bestehen in der Vermeidung und der direkten Identifikation von Ursachen fehlender Generalisierbarkeit. Dadurch, dass jedoch nicht alle Ursachen vermeidbar oder deren Auftreten nicht direkt identifizierbar sind, werden im dritten und vierten Schritt das Vorliegen der Auswirkungen fehlender Generalisierbarkeit untersucht. Hierzu wird im dritten Schritt die Einhaltung funktionaler Anforderungen durch das gelernte Modell überprüft. Durch die nicht auszuschließende Unvollständigkeit dieser funktionalen Anforderungen besteht der vierte Schritt des Ansatzes aus der Überprüfung der Robustheit bzw. Sensitivität des Modells auf Veränderungen, die bei ausreichender Generalisierbarkeit des Modells zu keiner Änderung des funktionalen Verhaltens führen. Der Ansatz wird prototypisch auf ein gelerntes Modell eines Fahrerassistenzsystems angewendet, um die praktische Anwendbarkeit des Ansatzes sowie den resultierenden Erkenntnisgewinn über die Generalisierbarkeit des Modells zu untersuchen. Die praktische Anwendbarkeit wird unter der Voraussetzung gezeigt, dass der Aufwand zum Training neuer Modelle und ggf. der Erhebung neuer Testdaten getragen wird. Darüber hinaus wird belegt, dass mit diesem Ansatz mögliche fehlende Generalisierbarkeit identifiziert werden kann. Aus den Grenzen des Ansatzes ergeben sich die weiteren vorgestellten Forschungsfragen. Der hier vorgestellte Ansatz ergänzt die bestehenden Sicherheitsnachweise nun um einen für das Maschinelle Lernen spezifischen Baustein.
Typ des Eintrags: | Dissertation | ||||
---|---|---|---|---|---|
Erschienen: | 2019 | ||||
Autor(en): | Henzel, Maren | ||||
Art des Eintrags: | Erstveröffentlichung | ||||
Titel: | Analyse der Generalisierbarkeit von maschinell gelernten Algorithmen in Fahrerassistenzsystemen | ||||
Sprache: | Deutsch | ||||
Referenten: | Winner, Prof. Dr. Hermann ; Fürnkranz, Prof. Dr. Johannes | ||||
Publikationsjahr: | 2019 | ||||
Ort: | Darmstadt | ||||
Datum der mündlichen Prüfung: | 17 September 2019 | ||||
DOI: | 10.25534/tuprints-00009246 | ||||
URL / URN: | https://tuprints.ulb.tu-darmstadt.de/9246 | ||||
Kurzbeschreibung (Abstract): | Maschinell gelernte Systeme finden immer häufiger Einsatz in Fahrerassistenzsystemen. Dabei zeichnen sich die eingesetzten Lernalgorithmen je nach Aufgabenkomplexität durch eine geringe Nachvollziehbarkeit der Vorhersagekriterien gewünschter Ausgangsgrößen aus. Darüber hinaus basiert Maschinelles Lernen auf einem induktiven Erkenntnisprozess in welchem nicht sichergestellt ist, dass die zur Vorhersage der Ausgangsgrößen erlernten Zusammenhänge allgemeingültig sind bzw. auf Kausalität anstelle von Korrelation basieren. Unter anderem hierdurch bedingt sind bestehende Möglichkeiten zur Erbringung eines Sicherheitsnachweises nicht anwendbar. Die bestehenden alternativen Ansätze zum Nachweis der Sicherheit schränken entweder die Leistungsfähigkeit der genutzten Modelle stark ein oder unterliegen der Annahme, dass alle inhärenten Fehler gelernter Modelle zuverlässig identifiziert werden. Ein Fehler liegt dabei in bereits beschriebenen fehlenden Generalisierbarkeit. Um die Sicherheitsnachweise, die die Leistungsfähigkeit nicht einschränken, anzuwenden, ist daher zuvor u.a. die Analyse der Generalisierbarkeit des gelernten Modells durchzuführen. Da hierzu keine systematische Methode identifiziert wurde, bildet deren Entwicklung den weiteren Fokus der vorliegenden Arbeit. Als Grundlage zur Entwicklung des Ansatzes werden die Ursachen der fehlenden Generalisierbarkeit mittels einer Fehlerbaumanalyse untersucht. Diese Ursachen gliedern sich in drei Kategorien hinsichtlich potentieller Vermeidungs- und Identifikationsmöglichkeiten. Aufbauend auf dieser Gliederung wird ein systematischer vierstufiger Ansatz zur Vermeidung bzw. Identifikation fehlender Generalisierbarkeit abgeleitet. Die ersten beiden Schritte des Ansatzes bestehen in der Vermeidung und der direkten Identifikation von Ursachen fehlender Generalisierbarkeit. Dadurch, dass jedoch nicht alle Ursachen vermeidbar oder deren Auftreten nicht direkt identifizierbar sind, werden im dritten und vierten Schritt das Vorliegen der Auswirkungen fehlender Generalisierbarkeit untersucht. Hierzu wird im dritten Schritt die Einhaltung funktionaler Anforderungen durch das gelernte Modell überprüft. Durch die nicht auszuschließende Unvollständigkeit dieser funktionalen Anforderungen besteht der vierte Schritt des Ansatzes aus der Überprüfung der Robustheit bzw. Sensitivität des Modells auf Veränderungen, die bei ausreichender Generalisierbarkeit des Modells zu keiner Änderung des funktionalen Verhaltens führen. Der Ansatz wird prototypisch auf ein gelerntes Modell eines Fahrerassistenzsystems angewendet, um die praktische Anwendbarkeit des Ansatzes sowie den resultierenden Erkenntnisgewinn über die Generalisierbarkeit des Modells zu untersuchen. Die praktische Anwendbarkeit wird unter der Voraussetzung gezeigt, dass der Aufwand zum Training neuer Modelle und ggf. der Erhebung neuer Testdaten getragen wird. Darüber hinaus wird belegt, dass mit diesem Ansatz mögliche fehlende Generalisierbarkeit identifiziert werden kann. Aus den Grenzen des Ansatzes ergeben sich die weiteren vorgestellten Forschungsfragen. Der hier vorgestellte Ansatz ergänzt die bestehenden Sicherheitsnachweise nun um einen für das Maschinelle Lernen spezifischen Baustein. |
||||
Alternatives oder übersetztes Abstract: |
|
||||
URN: | urn:nbn:de:tuda-tuprints-92465 | ||||
Sachgruppe der Dewey Dezimalklassifikatin (DDC): | 600 Technik, Medizin, angewandte Wissenschaften > 620 Ingenieurwissenschaften und Maschinenbau | ||||
Fachbereich(e)/-gebiet(e): | 16 Fachbereich Maschinenbau 16 Fachbereich Maschinenbau > Fachgebiet Fahrzeugtechnik (FZD) 16 Fachbereich Maschinenbau > Fachgebiet Fahrzeugtechnik (FZD) > Fahrerassistenzssysteme 16 Fachbereich Maschinenbau > Fachgebiet Fahrzeugtechnik (FZD) > Sicherheit 16 Fachbereich Maschinenbau > Fachgebiet Fahrzeugtechnik (FZD) > Testverfahren |
||||
Hinterlegungsdatum: | 22 Dez 2019 20:55 | ||||
Letzte Änderung: | 22 Dez 2019 20:55 | ||||
PPN: | |||||
Referenten: | Winner, Prof. Dr. Hermann ; Fürnkranz, Prof. Dr. Johannes | ||||
Datum der mündlichen Prüfung / Verteidigung / mdl. Prüfung: | 17 September 2019 | ||||
Export: | |||||
Suche nach Titel in: | TUfind oder in Google |
Frage zum Eintrag |
Optionen (nur für Redakteure)
Redaktionelle Details anzeigen |