TU Darmstadt / ULB / TUbiblio

Learning Partially Observed Markov Random Fields from Noisy Image Data

Deckert, Florian (2009)
Learning Partially Observed Markov Random Fields from Noisy Image Data.
Technische Universität Darmstadt
Masterarbeit, Bibliographie

Kurzbeschreibung (Abstract)

We present an algorithm for learning parameters of a Markov random field. The parameters shall be learned from data that does not include a ground truth. Therefore, the usual maximum likelihood approach is not applicable. A more sophisticated algorithm called Expectation Maximization provides a starting point to deal with the missing data. Computational costs of Expectation Maximization in our case can exceed tractable limits due to needs of computing integrals. We present a derivation transforming Expectation Maximization, so that integration is superseded by marginalization of probability densities. While marginalization, in general setting, as integration, has high computational demands, we use Belief Propagation to approximate marginals of Markov random fields. Conditional independence relations within Markov random fields help to relax computational complexity. In experiments we evaluate this new algorithm on Gaussian Markov random fields. More importantly, we show that we are able to learn an high quality image prior from a set of natural images. We discuss limitations and possible improvements, concerning the performance of the algorithm. Wir stellen einen Algorithmus vor, um Parameter eines Markov-Random-Fields zu lernen. Die Parameter sollen von Daten gelernt werden, jedoch ohne dass diese Daten die Grundwahrheit enthalten. Deshalb ist das sonst übliche Schätzverfahren der Maximum-Likelihood-Methode nicht anwendbar. Ein raffinierterer Algorithmus, Expectation-Maximization, bildet die Grundlage, mit den fehlenden Daten umzugehen. Aufgrund der Notwendigkeit Integrale numerisch zu berechnen, kann der Rechenaufwand von Expectation-Maximization in unserem Fall handhabbare Grenzen überschreiten. Die Arbeit enthält eine Herleitung, die Expectation-Maximizaton so verändert, dass Integrationen durch Marginalisierungen von Wahrscheinlichkeitsdichten abgelöst werden. Marginalisierung ist wie Integration eine Rechenintensive Operation. Daher benutzen wir Belief-Propagation um Marginalisierungen von Markov-Random-Fields zu approximieren. Bedingte Unabhängigkeiten in Markov-Random-Fields helfen, die Komplexität der Marginalisierung zu reduzieren. In Experimenten werten wir die Performanz des neuen Algorithmus aus, wenn wir ihn benutzen um Gauss'sche Markov-Random-Fields zu lernen. Wichtiger ist, dass wir zeigen, dass man mit dem Algorithmus ein qualitativ hochwertiges Bildmodell von natürlichen Bildern lernen kann. Weiterhin diskutieren wir Beschränkungen und mögliche Verbesserungen bezüglich der Performanz des Algorithmus.

Typ des Eintrags: Masterarbeit
Erschienen: 2009
Autor(en): Deckert, Florian
Art des Eintrags: Bibliographie
Titel: Learning Partially Observed Markov Random Fields from Noisy Image Data
Sprache: Englisch
Publikationsjahr: 2009
Kurzbeschreibung (Abstract):

We present an algorithm for learning parameters of a Markov random field. The parameters shall be learned from data that does not include a ground truth. Therefore, the usual maximum likelihood approach is not applicable. A more sophisticated algorithm called Expectation Maximization provides a starting point to deal with the missing data. Computational costs of Expectation Maximization in our case can exceed tractable limits due to needs of computing integrals. We present a derivation transforming Expectation Maximization, so that integration is superseded by marginalization of probability densities. While marginalization, in general setting, as integration, has high computational demands, we use Belief Propagation to approximate marginals of Markov random fields. Conditional independence relations within Markov random fields help to relax computational complexity. In experiments we evaluate this new algorithm on Gaussian Markov random fields. More importantly, we show that we are able to learn an high quality image prior from a set of natural images. We discuss limitations and possible improvements, concerning the performance of the algorithm. Wir stellen einen Algorithmus vor, um Parameter eines Markov-Random-Fields zu lernen. Die Parameter sollen von Daten gelernt werden, jedoch ohne dass diese Daten die Grundwahrheit enthalten. Deshalb ist das sonst übliche Schätzverfahren der Maximum-Likelihood-Methode nicht anwendbar. Ein raffinierterer Algorithmus, Expectation-Maximization, bildet die Grundlage, mit den fehlenden Daten umzugehen. Aufgrund der Notwendigkeit Integrale numerisch zu berechnen, kann der Rechenaufwand von Expectation-Maximization in unserem Fall handhabbare Grenzen überschreiten. Die Arbeit enthält eine Herleitung, die Expectation-Maximizaton so verändert, dass Integrationen durch Marginalisierungen von Wahrscheinlichkeitsdichten abgelöst werden. Marginalisierung ist wie Integration eine Rechenintensive Operation. Daher benutzen wir Belief-Propagation um Marginalisierungen von Markov-Random-Fields zu approximieren. Bedingte Unabhängigkeiten in Markov-Random-Fields helfen, die Komplexität der Marginalisierung zu reduzieren. In Experimenten werten wir die Performanz des neuen Algorithmus aus, wenn wir ihn benutzen um Gauss'sche Markov-Random-Fields zu lernen. Wichtiger ist, dass wir zeigen, dass man mit dem Algorithmus ein qualitativ hochwertiges Bildmodell von natürlichen Bildern lernen kann. Weiterhin diskutieren wir Beschränkungen und mögliche Verbesserungen bezüglich der Performanz des Algorithmus.

Freie Schlagworte: Machine learning, Computer vision, Low level image processing, Markov random fields (MRF)
Zusätzliche Informationen:

85 p.

Fachbereich(e)/-gebiet(e): 20 Fachbereich Informatik
20 Fachbereich Informatik > Graphisch-Interaktive Systeme
Hinterlegungsdatum: 12 Nov 2018 11:16
Letzte Änderung: 12 Nov 2018 11:16
PPN:
Export:
Suche nach Titel in: TUfind oder in Google
Frage zum Eintrag Frage zum Eintrag

Optionen (nur für Redakteure)
Redaktionelle Details anzeigen Redaktionelle Details anzeigen