Commit 1c8935d8 authored by Hendrik Hildebrandt's avatar Hendrik Hildebrandt
Browse files

Text in Sect.2.2.4.

parent 28ce36dc
......@@ -129,6 +129,12 @@ Machine Learning wurde schon fr
\subsubsection{Vorarbeiten zu Arbeitspaket IV: Photometrische Rotverschiebungen}
Bei der Bestimmung und Kalibration photometrischer Rotverschiebungen geht es im Allgemeinen immer darum, einen Zusammenhang zwischen $N$ Messungen (z.B. von Farben und Helligkeiten einer Galaxie) und der Rotverschiebung $z$ herzustellen. Es handelt sich dabei um eine klassische Anwendung der Dimensionsreduktion, die mit vielen verschiedenen Methoden des Machine Learning angegangen werden kann. Besonders häufig wurden in der Vergangenheit dazu künstliche neuronale Netzwerke eingesetzt, die mit Hilfe eines Trainingssamples von Galaxien, bei denen die (spektroskopische) Rotverschiebung bekannt ist, den Zusammenhang zwischen Farben/Helligkeiten und Rotverschiebung lernen. Dies hat sich besonders für die Bestimmung individueller Galaxienrotverschiebungen als nützlich herausgestellt.
Zur Bestimmung von Rotverschiebungsverteilungen von Ensembles von Galaxien wurde in der Vergangenheit oft eine $k$-nearest-neighbour Such verwenden. Heutzutage wird häufig die Methode der Self-Organising Maps (SOM) benutzt, da durch Auswahl der SOM Zellen eine sehr genaue Qualitätskontrolle und damit ein sehr kleiner Bias möglich wird. In manchen Anwendungen wird die SOM Methode noch mit einer dahinter geschalteten $k$-means Clustering Ansatz verbunden, bei dem SOM Zellen mit ähnlichen Eigenschaften zu Clustern zusammengefasst werden.
Die signifikanten Ungenauigkeiten der individuellen Farb-/Helligkeits\-messungen wird bisher nur rudimentär miteinbezogen. Die Machine Learning Ansätze, die bisher verwendet wurden, eignen sich oft nicht direkt, um Ungenauigkeiten zuverlässig in die Endergebnisse zu propagieren. Ideen dazu gibt es und diese sind in der Literatur beschrieben, stoßen aber schnell an die Grenzen des Möglichen. So könnte man z.B. innerhalb der Konfidenzintervalle der Messungen jedes Training-Objekts samplen und viele Inkarnationen jedes Objekts erschaffen. Diese verschiedenen Inkarnationen könnte man dann zum Training vieler verschiedener Netzwerke heranziehen. Aufgrund der hoch-dimensionalen Natur dieses Problems, werden die Zahlen allerdings schnell sehr groß und das Rechenproblem äußerst aufwändig bzw. prohibitiv.
\newpage
\section{Ausf\"uhrliche Beschreibung des Arbeitsplans}
......
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment