MIN-Faculty
Department of Informatics
Scene analysis and visualization (SAV)

Infoseite zum KOGS-Oberseminar im Wintersemester 2015/16

Hier sind die Termine aufgelistet, an denen im KOGS-Oberseminar ein Vortag einer Bachelor-, Master-, Diplom- oder Forschungsarbeit stattgefunden hat. Die Vorträge finden in aller Regel am Dienstag von 14-16 Uhr in Raum R-031 statt.

Termine können per Mail an Andreas Günter, Leonie Dreschler-Fischer oder an mich vereinbart werden!

01.12.2015: Forschungsergebnisse (Benjamin Seppke)

Titel: A Concurrent Skeleton-based Approach for the Characterization of Wood Fibers with Sub-pixel Precision For Fiber Board Production
Kurzfassung: The automatic derivation of fiber properties by means of mass data (image) analysis is a current and interesting research area. Skeleton-based approaches have already proven to be adequate in paper pulp quality control. However, the derivation for thermo mechanical pulp (TMP) used for the production of medium dense fiberboards (MDF) is, due to the wide range of fiber lengths and fiber morphology, far more challenging. Currently, trained experts are performing the quality assessment visually and haptically on small samples. Since this cannot replace an objective measurement, we propose a fast skeleton based approach, which is able to derive a variety of fiber characteristics at sub-pixel precision from images of fibers. The algorithm is supposed to work automatically under a laboratory environment for fiber samples, and makes use of concurrency to reduce the processing time and the memory needed. In practice, one measurement cycle is based on approx. 1700 single images with usually more than 1,000,000 automatically measured fibers. Comparisons of the automatically measured fibers with manual microscopic measurements yield in a high reliability and quality of the results.
Zur Darstellung der Stärken dieser Repräsentation werden des Weiteren zwei Anwendungen zur Straßenverfolgung sowie zur Dacherkennung für myanmarische Militärgebäude im Bereich der Verifikationsaufgaben in der Friedensforschung präsentiert. Für eine Beschleunigung der Verarbeitung werden zudem innerhalb der Repräsentation und den Applikationen verschiedene Techniken zur Parallelisierung verwendet.

17.11.2015 (14 Uhr): Masterarbeit von Christian Wilms

Titel: Superpixelbasierte, nebenläufige Bildverarbeitungswerkzeuge am Beispiel von Verifikationsaufgaben
Kurzfassung: Die durch ein Segmentierungsverfahren erzeugte Zerlegung eines Bildes kommt dem intendierten Ergebnis oft nicht ausreichend nahe genug. Ein Weg, dies zu lösen, ist die Verwendung von Superpixeln sowie deren Verschmelzung zur Flexibilisierung des Segmentierungsergebnisses. Dazu wird jedoch eine angemessene Repräsentation des entstehenden Superpixelbildes benötigt, um alle relevanten Informationen, die zur optimalen Nutzung der Superpixel nötig sind, einfach und effektiv zugänglich zu machen. Im Rahmen dieser Arbeit wird daher eine neue Repräsentation von Superpixelbildern auf Basis eines Graphen konzipiert und in einem Rahmenwerk mit weiteren Funktionen umgesetzt. Dabei wird unter anderem ein besonderer Wert auf die explizite Darstellung der Übergänge von Superpixeln, auf die einfache Benutzbarkeit der Repräsentation über eine einzige Schnittstelle zur Modifikation der Segmentierung und Sondierung statistischer, geometrischer und topologischer Informationen sowie auf die Verschmelzung in eine irreguläre Pyramide gelegt, um verschiedene Auflösungen des Superpixelbildes zu ermöglichen.
Zur Darstellung der Stärken dieser Repräsentation werden des Weiteren zwei Anwendungen zur Straßenverfolgung sowie zur Dacherkennung für myanmarische Militärgebäude im Bereich der Verifikationsaufgaben in der Friedensforschung präsentiert. Für eine Beschleunigung der Verarbeitung werden zudem innerhalb der Repräsentation und den Applikationen verschiedene Techniken zur Parallelisierung verwendet.

20.10.2015 (15 Uhr): Masterarbeit von Cemil Yazici

Titel: Objektsegmentierung zur Ansteuerung eines Betriebsfahrzeuges auf Basis von Tiefenbildern
Kurzfassung: Produktion zu steigern oder auch zu automatisieren und den Ausfall von Mitarbeitern zu vermeiden. Daher liegt es nahe, dass sich die Unternehmen Geräte, Maschinen, Roboter anschaffen, die die Arbeit des Menschen übernehmen. Wenn die Anschaffungen dann noch autonom in Betrieb genommen werden können, ist es umso praktischer. Beispielsweise könnte ein Gabelstapler autonom Paletten aufnehmen und in leere Lagerplätze einsortieren. Der Vorteil hierbei ist offensichtlich, ein Betrieb welches ohnehin mit Gabelstapler arbeitet und sich diese auch anschaffen muss, kann sich die Kosten für den Gabelstapler Fahrer sparen. Die Lohnkosten für das Personal fallen weg und Krankheit bedingte Ausfälle sind auch nicht zu erwarten. In der vorliegenden Arbeit soll untersucht werden, ob es mit der heutigen Technik möglich ist, ein kostengünstiges System zu entwickeln mit der Paletten lokalisiert werden können. Dabei soll unter Zuhilfenahme einer Kamera die Paletten erkannt, deren Position und Orientierung im Raum ermitteln werden. Mit den ermittelten Daten soll später ein Gabelstapler autonom Paletten einsortieren, das Einsortieren ist aber kein Bestandteil der vorliegenden Arbeit. Zur Bewerkstelligung dieser Herausforderung wird eine Tiefenbildkamera eingesetzt, mit der die Abstände zu den Objekten gemessen werden. Hierzu soll ein Algorithmus entworfen und implementiert werden, mit der die Daten analysiert, bearbeitet und am Ende die Orientierung der Palette zur Tiefenbildkamera ausgegeben werden.

20.10.2014 (14 Uhr): Bachelorarbeit von Tim Christopher Hahn

Titel: Parallelisierung von differentiellen Bildverarbeitungsverfahren am Beispiel des optischen Flusses
Kurzfassung: Algorithmen zur Berechnung des optischen Flusses sind zeitintensiv. Für Berechnungen in Echtzeit ist daher eine Parallelisierung der Verfahren hilfreich. Mithilfe der VIGRA-Bibliothek wird der Algorithmus von Horn und Schunck implementiert und parallelisiert. Es werden drei Aspekte untersucht: die Geschwindigkeit und Skalierbarkeit des Algorithmus und die Übereinstimmung der Ergebnisse mit dem Bewegungsfeld. Das mathematische Modell führt zu einem iterativen Verfahren zur Bestimmung des optischen Flusses, dessen Lösung durch einen Parameter reguliert wird. Es zeigt sich, dass die Glattheit und Konvergenzgeschwindigkeit davon abhängen. Es werden verschiedene Verfahren und Ansätze zur Parallelisierung untersucht, um die Geschwindigkeit und Skalierbarkeit zu optimieren. Die schnellste der untersuchten Implementationen erreicht einen Speedup von 3,2 bei 4 Threads. Durch den Vergleich mit dem Bewegungsfeld einer künstlich generierten Szene lässt sich außerdem die Korrektheit untersuchen. Bei einem geeignet gewählten alpha können alle drei Anforderungen erfüllt werden.