Die konventionelle Bildverarbeitung befasst sich fast ausschließlich mit ein- (Grauwerte) oder dreikanäligen (RGB) Daten. In verschiedenen Technologiefeldern von zerstörungsfreien Prüfverfahren über moderne Kommunikations- oder Kameratechnik bis hin zu neuen bildgebenden Technologien der Pharma-, Gesundheits- oder Ernährungsindustrie haben sich die Anforderungen in den letzten Jahren jedoch grundlegend geändert, und die Geräte und Anlagen der nächsten Generation erfordern die Analyse von Datensätzen mit einer Vielzahl von Farb- oder Spektralkanälen. Die Anzahl der Kanäle kann dabei mehrere hundert oder sogar mehrere hunderttausend erreichen, d.h. hyperspektrale Bildgebung erzeugt einen Datenwürfel mit zwei Raum- und einer mindestens gleichwertigen Spektralkoordinate.
In der bildgebenden Massenspektrometrie werden beispielsweise auf einer biologischen Probe an den „Pixeln“ des Bildes Spektralanalysen zur chemischen Zusammensetzung der Probe durchgeführt. Wird bei der zugrunde liegenden Probe eine Messauflösung von 100 x 200 Pixeln eingestellt, sind also – vereinfacht gesprochen – 20.000 einzelne Spektren aufzunehmen. Für jeden dieser Pixel liegen dann 10.000 bis 25.000 Messwerte vor, die jeweils die chemische Zusammensetzung des Pixels beschreiben. Bezieht man den örtlichen Zusammenhang mit ein, dann können die Daten der bildgebenden Massenspektrometrie als hyperspektrale Bilddaten interpretiert werden, die in zehntausenden Bildkanälen die Informationen zur chemischen Zusammensetzung der gemessenen Probe enthalten.
Die aktuellen Herausforderungen des Hyperspectral Imaging unterscheiden sich grundsätzlich von denen der klassischen Bildgebung sowie Bildverarbeitung und sind ohne Berücksichtigung des technischen Prozesses der Datenerfassung sowie der anwendungsbezogenen konkreten Fragestellung nicht lösbar. Das entscheidende Problem ist hierbei die Extraktion, Aufbereitung und Darstellung der relevanten Informationen (u.a. Segmentierung, Klassifikation, Quantifizierung) aus den vorliegenden Daten. Bei der Umsetzung dieser Verfahren mit immer höherdimensionalen Daten für zeitkritische oder echtzeitfähige Anwendungen kommt zudem Fragen der Approximation und Effizienz der Algorithmen eine entscheidende Bedeutung zu. Die Komplexität der Daten erfordert hierbei in mehrfacher Hinsicht neue Konzepte. Die konventionellen, Pixel-orientierten Verfahren sind in diesem Bereich ausgeschöpft und bei realen Datenvolumina ineffizient. Von zentraler Bedeutung sind Ansätze, die strukturelle Informationen in allen Koordinaten zusammenfassen und unterschiedliche Rauschmodelle für Datenfehler in Orts-, beziehungsweise Spektralkoordinaten, berücksichtigen.
In HYPERMATH wurden zentrale Fragen des Hyperspectral Imaging behandelt und damit wichtige Beiträge für einen technologischen Durchbruch geleistet. Es wurden daten-adaptierte und anwendungsspezifische Ansatzfunktionen für eine effiziente Datenauswertung und Approximationen (Sparsity-Konzepte, Dictionary Learning) bestimmt. Zudem wurden inhärente Lokalisierungsprobleme der zugrunde liegenden Messverfahren (Peak-Shifts) mathematisch erfasst und analysiert. Die darauf aufbauenden Verfahren berücksichtigen Multi-Skalen-Strukturen, um Datensätze mit einer Billion und mehr Werten effizient bearbeiten zu können.