Studenten

Das Big Data Lab bietet viele spannende Projekte, an denen Sie sich beteiligen können. Sie können auch gemeinsam mit uns ein passendes Thema für Ihre Abschlussarbeit finden.

  • Big Data Infrastruktur
  • Data Science Projekte
  • Machine Learning Pojekte

Um einen groben Überblick über das Forschungsfeld zu bekommen, schauen Sie sich z.B. unsere laufenden Projekte an.

Sollten Sie Ihre Arbeit extern anfertigen wollen, geht das auch. Es sollte aber thematisch zu den oben genannten Gebieten passen.

Der formale Ablauf ist dann wie folgt:

Interne Arbeit:

* Sie kontaktieren mich per Email oder WebEx (s. EmailPolicy) und wir besprechen in einer WebEx oder in Präsenz die möglichen Themen

Externe Arbeit:

* Sie erstellen zusammen mit Ihrer externen Betreuung, die mindestens den von Ihnen angestrebten Abschluss (Bachelor oder Master) in einem MINT-Fach haben muss, ein Exposé zu Ihrem Thema, dass das Thema und die von Ihnen zu leistenden Arbeiten beschreibt. (Ca. 1-2 Din A4 Seiten)

* In einer gemeinsamen WebEx besprechen wir dann den weiteren Ablauf

Bei Bachelorarbeiten gestalte ich die Themen so, dass Praxisprojekt und Abschlussarbeit aneinander anschließen und ein Thema gesamthaft bearbeiten.

Beginn der Arbeit:

Sie laden das Anmeldeformular beim PA herunter, füllen es aus, unterschreiben es und schicken es mir per Email zu. Sie leiten dann das unterschriebene Anmeldeformular ans PA weiter.

Ende des Praxisprojekts

Nach dem Ende des Praxisprojektes halten Sie eine halbstündige Präsentation (in Präsenz oder WebEx), an die sich Fragen zum PP anschließen. Das gibt Ihnen die Gelegenheit, eine Präsentation zu üben, Ihr Thema vorzustellen und Feedback zum bisher Geleisteten zu bekommen.

Anmeldung der BA

Der Ablauf ist entsprechend der Anmeldung zum PP

Abgabe der BA

Grundsätzlich gelten für die Abgabe der BA die Forderungen des Prüfungsamtes.

Zusätzlich wird die BA elektronisch bei mir abgegeben. Zur Abgabe gehören:

* Die schriftliche Ausarbeitung, einschließlich der von Ihnen unterschriebenen Eigenständligkeitserklärung als PDF

* Die von Ihnen verwendeten Quellen, sofern Sie sich auf wissenschaftlich Paper beziehen

* Der von Ihnen angefertigte Source Code (inklusive Bilddateien der schriftlichen Ausarbeitung)

* Bei externen Arbeiten,: Die von Ihnen verwendeten Daten ggf. in Ausschnitten und pseudonymisierter Form, so dass der Code nachvollzogen werden kann

Bei Quellen, Source Code und Daten können Sie bis 10MB Größe eine zip Datei abgeben. Ansonsten nutzen Sie bitte ein git-Repository oder den Filesharing Service gigamove der RWTH (link) der BA

Im Kolloquium halten Sie eine 30 minütige Präsentation zu Ihrer Arbeit (in Präsenz oder WebEx), an die sich Fragen zu Arbeit anschließen. Die Note erfahren Sie dann ca. eine Woche nach dem Kolloquium beim Prüfungsamt.

Sie laden das Anmeldeformular beim PA herunter, füllen es aus, unterschreiben es und schicken es mir per Email zu. Sie leiten dann das unterschriebene Anmeldeformular ans PA weiter.

Ca. nach der Hälfte der geplanten Zeit halten Sie eine Zwischenpräsentation von ca, 30 Minuten Dauer, an die sich Fragen zur Arbeit anschließen.

Abgabe und Kolloquium sind so, wie bei einer BA auch (s.o.)

Generell: Zwischen 40 – 120 Seiten ohne Anhänge und Verzeichnisse. Bitte keinen Sourcecode o.ä. in die Anhänge. Dafür gibt es git.

Interne Abschlussarbeiten

offen

Beschreibung:
Ziel dieser Bachelorarbeit ist es, ein Tool zur Visualisierung neuronaler Netzwerke zu entwickeln, das aus den Dateiformaten ONNX (Open Neural Network Exchange) oder einer Keras Functional API-Beschreibung neuronale Netzwerke einliest und diese als SVG (Scalable Vector Graphics) darstellt. Die Visualisierung soll dabei nicht nur die Netzstruktur zeigen, sondern auch alle wichtigen Komponenten und Parameter der einzelnen Layer (wie z.B. Anzahl der Neuronen, Aktivierungsfunktionen, Filtergrößen) interaktiv und parametrisierbar darstellen. Insbesondere soll dabei ein klares Verständnis und dem konkreten Ablauf des Prozesses der Datenverarbeitung- und Veränderung aus den Visualisierungen sichtbar werden. Diese können zum Beispiel konkrete Bilder sein.

Aufgabenstellung:

  1. Recherche: Führen Sie zu Beginn der Arbeit eine umfassende Literaturrecherche durch, um die wichtigsten Komponenten neuronaler Netzwerke zu identifizieren, die in der Visualisierung berücksichtigt werden sollten. Zu diesen Komponenten zählen u.a. Skip Connections, Residual Layers, oder spezifische Architekturen wie U-Net. Recherchieren Sie ebenfalls, welche Tools und Ansätze zur Visualisierung neuronaler Netzwerke bereits existieren und analysieren Sie deren Stärken und Schwächen.
  2. Eingangsformat: Entwickeln Sie ein Parser-Modul, das ONNX-Dateien und Keras Functional API-Beschreibungen einlesen und in einer strukturierten Form abbilden kann.
  3. Visualisierung: Entwerfen und implementieren Sie eine Visualisierungslogik, die die Netzarchitektur in Form von SVG-Dateien darstellt. Die Darstellung soll dabei auf klarer und ästhetischer Weise alle relevanten Schichten eines neuronalen Netzwerks, wie Convolutional Layers, Dense Layers, Pooling, Dropout, Skip Connections, etc., wiedergeben.
  4. Parametrisierung: Die Komponenten der Netzarchitektur sollen interaktiv parametrisierbar sein. Beispielsweise sollen Änderungen der Anzahl von Neuronen oder der Filtergröße in Echtzeit in der SVG-Darstellung reflektiert werden können.
  5. Erweiterbarkeit: Die Architektur des Tools sollte es ermöglichen, zukünftige Erweiterungen vorzunehmen, z.B. die Integration von anderen Netzwerkbeschreibungen (z.B. PyTorch) oder die Anpassung der Visualisierungsdarstellung für spezielle Netzarten (z.B. RNNs, GANs).

Voraussetzungen:

  • Gute Kenntnisse in Python und den Frameworks Keras und ONNX.
  • Erfahrung mit der Erstellung von SVG-Grafiken oder ähnlichen Visualisierungsformen.
  • Interesse an der Entwicklung von Tools für das maschinelle Lernen.

Ziel der Arbeit:

Das Ergebnis dieser Arbeit soll ein nutzerfreundliches Visualisierungstool sein, das komplexe neuronale Netzwerke auf verständliche Weise darstellt. Der Fokus liegt auf  derdetaillierten und parametrisierbaren Visualisierung, die nicht nur die Architektur selbst, sondern auch deren spezifische Parameter und Funktionen greifbar macht. Besonders wichtig ist, dass das Tool auf Basis der Recherche Erkenntnisse aus modernen Netzarchitekturen wie Skip Connections oder U-Net-artigen Strukturen integriert.

Betreuung:

Tobias Arndt, arndt@fh-aachen.de, gerne direkt über WebEx kontaktieren

Ziel der Arbeit ist, eine Self-Organizing Feature Map (SOFM) in pytorch zu implementieren. Dabei soll die Anzahl der Dimensionen frei wählbar sein und die SOFM am Ausgang mit einer Klassifikationsschicht versehen werden.

Die SOFM ist eine bekannte Architektur Neuronaler Netze, die unüberwacht lernen kann und durch Nachtrainieren auch zur Klassifikation geeignet ist. Anders als z.B. Feed-ForwardNetze, wie sie im Deep-Learning eingesetzt werden, kann die SOFM Eingaben nicht nur einer vorgegebenen Klasse zuordnen, sondern bietet auch die Klasse „unbekannt“ als inhärentes Merkmal der Architektur an.

Die Arbeit soll den aktuelle Veröffentlichungen zur SOFM in einer LIteraturrecherche
analysieren und eine SOFM in pytorch so implementieren, dass die Dimensionalität der
SOFM als Hyperparameter vorgegeben werden kann.

Bei vorhandensein eines gelabelten Datensatzes zum Training, soll eine Ausgabeschicht an die SOFM angehangen werden, so dass ein Klassifikator entsteht. Dabei sind die Konventionen von pytorch beim Design der API zu berücksichtigen.

Beschreibung:
Ziel dieser Bachelorarbeit ist es, einen Demonstrator zur Visualisierung neuronaler Netzwerke zu entwickeln. Die Visualisierung soll dabei die aktuellen Aktivierungen der Faltungsebenen und des Feed-Forward Netzes parametrisierbar darstellen („Level-OfDetail“). Der Demonstrator soll dabei ein von einer Kamera aufgenommenes Bild, als Echtzeitvisualisierung auf einem Bildschirm, einschließlich des Zugeordneten Objektes darstellen.

Aufgabenstellung:

  1. Recherche: Führen Sie zu Beginn der Arbeit eine umfassende Literaturrecherche durch, um den Stand der Technik zur Visualisierung Neuronaler Netze zu erheben. Recherchieren Sie ebenfalls, welche Tools und Ansätze zur Visualisierung neuronaler Netzwerke bereits existieren und analysieren Sie deren Stärken und Schwächen.
  2. Visualisierung: Entwerfen und implementieren Sie eine Visualisierungslogik, die die Aktivierung der Faltungslayer und des Feed-Forward-Netzes darstellt. Die Darstellung soll dabei auf klarer und ästhetischer Weise alle relevanten Schichten eines neuronalen Netzwerks, wie Convolutional Layers, Dense Layers, Pooling, Dropout, Skip Connections, etc., wiedergeben.
  3. Parametrisierung: Die Komponenten der Netzarchitektur sollen parametrisierbar sein, Z.B, welche Schichten visualisiert werden oder ob nur ein Teil der Aktivierungen eines Layers dargestellt werden.
  4. Erweiterbarkeit: Die Architektur des Tools sollte es ermöglichen, zukünftige
    Erweiterungen vorzunehmen, z.B. die Integration von Netzwerkbeschreibungen oder die Anpassung der Visualisierungsdarstellung für spezielle Netzarten (z.B. RNNs, GANs).

Voraussetzungen:

  • Gute Kenntnisse in Python und den Frameworks Keras und ONNX.
  • Interesse an der Entwicklung von Tools für das maschinelle Lernen.

Ziel der Arbeit:

Das Ergebnis dieser Arbeit soll ein nutzerfreundliches Visualisierungstool sein, das komplexe neuronale Netzwerke auf verständliche Weise darstellt. Der Fokus liegt auf der detaillierten und parametrisierbaren Visualisierung, die nicht nur die Architektur selbst, sondern auch deren spezifische Parameter und Funktionen greifbar macht. Besonders wichtig ist, dass das Tool auf Basis der Recherche Erkenntnisse aus modernen Netzarchitekturen wie Skip Connections oder U-Net-artigen Strukturen integriert.

Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert. Jeder produzierte Filter wird während des Herstellungsprozess in Form von Zeilen- und Tiefenkameras digital erfasst. Dieser Erfassungsprozess ist hochgradig standartisiert und die Qualität der Aufnahmen unterliegt keinen relevanten Schwankungen. Die Produktionsmenge beläuft sich auf ungefähr 2000 Filter pro Tag.

Um die physische Arbeitslast (manuelle Kontrolle) zu reduzieren können Methoden des bildbasierten Deep Learnings in einer Anomalie-Erkennungs-Formulierung eingesetzt werden, die sehr gute Ergebnisse liefern. Diese basieren in der Regel auf dem Verarbeiten eines kompletten Bildes. Durch die hohe Anzahl an produzierten Filtern und einer zwangsläufigen Verschiebung in der Verteilung von Bildmerkmalen ist eine regelmäßige Anpassung eines solchen Inferenzsystems erforderlich, sodass in der Regel auf vortrainierte Neuronale Netze (unregelmäßig eigens trainierter oder domänen-generalisierter Merkmalsextraktor) zurückgegriffen wird.

Betrachtet man den Aufnahmeprozess über die Zeilenkamera stellt diese Komplett-Bild-Abhängigkeit eine zusätzliche Komplexität dar. Insbesondere für die schnelle Inferenz.

Ziel dieser Arbeit soll es sein Verfahren zu entwickeln und zu vergleichen, die direkt mit den einzelnen Zeilen arbeiten können. Hierbei betrachten wir nicht mehr das Komplett-Bild als 2D Volumen, sondern lediglich die einzelnen Zeilen, die im 1D Raum vorliegen. Obwohl nun deutlich mehr Einzelinferenzen durchgeführt werden müssen, kann dieser Schritt direkt in der Kamera durchgeführt werden, wodurch aufwändige IO Operationen und deren Implikationen stark reduziert werden.

Die hierbei zu verarbeitenden Daten erfüllen Eigenschaften von Zeitreihen, sodass der Schluss naheliegt Algorithmen dieser Klasse zu verwenden – im Spezifischen Algorithen der Zeitreihen-Anomalie-Erkennung. Für die Merkmalsextraktion sollen hierbei Verfahren betrachtet werden, die in Analogie zu der Komplett-Bild-Verarbeitung kein Vortraining erfordern. Aus einer Literaturrecherche und ersten Vorarbeiten im Rahmen einer Seminararbeit kommen Verfahren der Rocket-Klasse in Frage.

Im Rahmen der Arbeit soll eine Anomalie Erkennung auf Rocket-Merkmalen auf den Zeilen der Zeilenbild-Kamera mit Hilfe einer Self-Organizing-Map entwickelt und mit anderen Verfahren verglichen werden. In einem darauf folgenden Schritt soll die Fähigkeit Multivariate-1D Merkmale, die durch die Zusammenführung der Zeilenbild-Kamera mit den Bildern der Tiefenbildkamera entstehen, auf den entwickelten Verfahren untersucht werden.

Anforderungsprofil

Für das genaue Anforderungsprofil nehmen Sie Kontakt auf. Es wird in einem Erstgespräch ermittelt, ob eine für beiden Seiten gewinnbringende Arbeit absolviert werden kann.

Ansprechpartner
Tobias Arndt, arndt@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die
derzeit durch manuelle Kontrollen erfüllt werden.
Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen. Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.
Rekontruktionsbasierte Anomalieerkennungsalgorithmen reduzieren den Informationsgehalt des zu betrachtenden Bildes durch verschiedene Methoden und trainieren auf diesen Bildern ein neuronales Netzwerk darauf, diese Bilder wieder so zu rekonstruieren, dass sie möglichst ähnlich zum Original sind. Dadurch dass auf möglichst anomalie-freien Bildern trainiert wird, sollen Anomalien mit größeren Rekonstruktionsfehlern erstellt werden und damit aussortiert werden.
Rekonstruktionsalgorithmen unterscheiden sich vor allem durch die Methodik, den Informationsgehalt zu reduzieren. Dies wird beispielsweise bereits durch Rauschen, Ausschneiden und Tauschen von Bildteilen sowie Projektionen in kleinere Dimensionen erzielt.

Ziel
Ziel dieser Arbeit ist es aufzulisten, welche Methodiken zur Informationssreduktion von Bildern für rekonstruktionsbasierte Anomalieerkennung in Frage kommen, ausgewählte davon zu implementieren und diese mit dem Stand der Forschung so wie untereinander zu vergleichen und zu evaluieren.

Pythonkenntnisse (insbesondere Pytorch) sowie Vorkenntnisse über neuronale Netzwerke
sind von Vorteil.

Aufgaben

  1. Untersuchung der Einsatzmöglichkeiten von Informationssreduktionen von Bildern für rekonstruktionsbasierte Anomalieerkennung
  2. Implementierung und Training von diesen Anomaliedetektoren auf unterschiedlichen Datensätzen
  3. Anpassungen/Optimierung der Modelle und Evaluation

Dein Benefit

  1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
  2. Kenntnisse über eine breite Anzahl von aktuellen Ansätzen des maschinellen Lernens erlernen
  3. Möglichkeit Teil einer Veröffentlichung zu werden

Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Rekontruktionsbasierte Anomalieerkennungsalgorithmen reduzieren den Informationsgehalt des zu betrachtenden Bildes durch verschiedene Methoden (beispielsweise durch Rauschen, Ausschneiden und Tauschen von Bildteilen) und trainieren auf diesen Bildern ein neuronales Netzwerk darauf, diese Bilder wieder so zu rekonstruieren, dass sie möglichst ähnlich zum Original sind. Dadurch dass auf möglichst anomalie-freien Bildern trainiert wird, sollen Anomalien mit größeren Rekonstruktionsfehlern erstellt werden und damit aussortiert werden.

Diese rekonstruierten Bilder unterscheiden sich für das menschliche Auge oft gut vom Originalbild bei Anomalien im Vergleich zu normalen Bildern und dennoch werden solche Bilder oft als Anomalie markiert. Das liegt an hohen Varianzen der Pixel im Bild an sich und an einfachen Schwellenwertverfahren mit denen der Unterschied berechnet wird.Die Nutzung von Methoden des machinellen Lernens auf diesen rekonstruierten Bildern bietet die Möglichkeit bessere Ergebnisee für die Anomalieerkennung zu gewinnen.

Ziel
Ziel dieser Arbeit ist es sich mit bereits implementierten rekonstruktionsbasierten Anomalieerkenungsmethoden auseinanderzusetzen und darauf aufbauend Methoden zu recherchieren, die benutzt werden können um die Ergebnisse der Anomalieerkennung auf diesen Bildern zu erhöhen.
Das beinhaltet vor allem die Kombination mehrerer Bildern und das Lernen von Klassifikatoren. Diese Verfahren der Klassifikation sollen evaluiert werden und Rückschlüsse ebenfalls auf die Nutzung verschiedener rekonstruktionsbasierter Ansätze ziehen.

Pythonkenntnisse (insbesondere Pytorch) sowie Vorkenntnisse über neuronale Netzwerke
sind von Vorteil.

Aufgaben

  1. Untersuchung der Einsatzmöglichkeiten von Klassifikationsmethoden auf rekonstruierten Bildern für die Anomalieerkennung
  2. Implementierung, Einbindung und Training von diesen Klassifikatoren auf unterschiedlichen rekonstruktionsbasierten Anomalieerkennungsalgorithen und auf unterschiedlichen Datensätzen
  3. Anpassungen/Optimierung der Modelle und Evaluation

Dein Benefit

  1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
  2. Kenntnisse über aktuelle Ansätze neuronaler Netzwerke für Klassifikationsprobleme
    erlernen
  3. Möglichkeit Teil einer Veröffentlichung zu werden.

Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Overview: We are seeking a motivated bachelor’s or master’s student for a thesis on 3D geometry reconstruction and parameter extraction of helical blades using a vision system. The project involves merging point clouds from different poses using a structured light or RGB-D camera to create a complete 3D model. Challenges like missing data due to reflections and lighting variations will be addressed using machine learning techniques. Key parameters, such as radius, pitch, and twist of the blade will be extracted from the processed point cloud. The approach will be tested in simulation before evaluation on real hardware.

Key Objectives:

  • Point Cloud Merging: To explore different approaches to align and merge multiple point cloud datasets captured from different camera poses to create a unified and accurate 3D representation of the helical blade.
  • Handling Missing Data and Geometry Reconstruction: Addressing the issue of missing or incomplete data points in the point cloud caused by reflections from metallic surfaces and variations in ambient lighting. This step involves applying machine learning techniques, (supervised/ unsupervised), to reconstruct missing features.
  • Parameter Extraction: Extract key parameters of the helical blade, such as the radius, pitch, and twist from the reconstructed model. This step will involve applying geometric analysis techniques to accurately quantify the properties of the blade and compare them with the desired specifications.

Requirements:

  • Background in robotics, computer vision, or machine learning
  • Experience with ROS, Python, or C++ is a plus
  • Familiarity with point cloud processing (PCL, Open3D)
  • Basic knowledge of geometric analysis and parameter extraction from 3D models

What Will You Gain:

  • Hands-on experience with industrial robotics and vision-based measurement
  • Opportunity to implement the solution on real-time hardware in a production environment
  • Brief introduction to setting up a simulation environment using Webots

Interested? Contact us at borse@fh-aachen.de for more details!

Overview: We are looking for a motivated bachelor/master’s thesis student to work on a project focused on coverage path planning for measuring the parameters of helical blades using a robotic vision system. The thesis will involve motion planning using sequential sampling to ensure complete exposure of the object for accurate measurement. The project will leverage a Universal Robot (UR) equipped with a structured light or RGB-D camera to capture 3D data of metallic helix blades. Additionally, the student will tackle challenges in data reconstruction using a machine-learning approach to fill in missing features and improve the overall model.

The approach can be implemented and tested in a preconfigured simulation environment, as depicted in the image below, followed by a final evaluation on real-time hardware with a similar setup.

Key Objectives:

  • Coverage Path Planning: A motion planning strategy utilizing the MoveIt2 ROS pipeline to plan the robot’s trajectory and ensure complete and systematic coverage of a helical blade. This approach ensures maximized exposure, accounting for factors like the robot’s reach and the camera’s field of view to avoid gaps in the data.
  • Point Cloud Fusion: The process of merging multiple point cloud data sets captured at different poses of the robotic arm using transformations. This fusion creates an accurate 3D model of the helical blade, capturing all essential surface details and geometry.
  • Handling Missing Data and Geometry Reconstruction: Addressing the issue of missing or incomplete data points in the point cloud caused by reflections from metallic surfaces and variations in ambient lighting. This step involves applying machine learning techniques, (supervised/unsupervised), to reconstruct missing features.

Requirements:

  • Background in robotics, computer vision, or machine learning
  • Experience with ROS, Python, or C++ is a plus
  • Familiarity with point cloud processing (PCL, Open3D)

What You Will Gain:

  • Hands-on experience with industrial robotics and vision-based measurement
  • Gained knowledge in motion planning and coverage path planning using the MoveIt2 pipeline
  • Possibility to implement the solution on real-time hardware in a production environment
  • Brief introduction to setting up a simulation environment using Webots

Interested? Contact us at borse@fh-aachen.de for more details!

laufend

KI-Identifikationen von Objekten über Kameraaufnahmen sind naheliegend und werden schon vielfach eingesetzt.

Mikrowellenmessungen haben ggü. optischen Aufnahmen jedoch viele Vorteile, da Objekte erkannt werden können, die mittel dieletrischen Materialien optisch abgeschirmt sind.

Am FB 5 wurde eine neuartige Mikrowellenanlage und ein Förderband entwickelt, die für die Objekterfassung nur einen Sender und einen Empfänger benötigt.

Auf Basis von bereits vorliegenden Messdaten und dazugehörender Dokumentation sollen KI-Modelle zur Objektidentifikation entwickelt und miteinander verglichen werden. Dabei ist insbesondere zu untersuchen, wie komplexwertige Daten verarbeitet werden können. Dazu ist ebenfalls eine Aufbereitung der Messdaten erforderlich.

Schwerpunkt der Untersuchung sollen KI-Modelle sein, die Distanzmaße nutzen (z.B. Künstliche Neuronale Netze, k-NN, SVM, u.a.). Hierzu ist zuerst der aktuelle Stand der Forschung anhand einer Literaturrecherche zur Nutzung von komplexwertigen
Eingabedaten im Machine Learning zu erheben.

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen
Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.

Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren. Aus den hierbei entwickelten Methoden sind Autoencoder eine wichtige Algorithmenklasse, die es
ermöglichen fehlerhafte Produktionen auf ungelabelten Daten zu finden und nicht betroffen sind von der sehr geringen Anzahl an tatsächlichen Fehlproduktionen (ungefähr 5%). Darüber hinaus fungieren Autoencoder als Grundlage für viele weitere Algorithmen.

Im Zuge dieser Arbeit sollen Autoencoder systematisch untersucht werden und Grundlagen dafür geschaffen werden, diese mit anderen Verfahren vergleichen zu können, mit dem Ziel eine Übersicht zu bekommen, wie der manuelle Prüfaufwand reduziert werden kann.
Einfache Pythonkenntnisse wären von Vorteil.

Aufgaben
1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle

2. Gründliche Recherche über konkrete Architekturen von Autoencodern und generellen Neuronalen-Netzwerk-Architekturen und den Möglichkeiten von Vergleichbarkeit. Für die Vergleichbarkeit können zum Beispiel der Aufwand der Hyperparameteroptimierung, Inferenz- und Trainingsgeschwindigkeit, Generalisierung, Flexibilität für unterschiedliche Algorithmen- und Trainingsbedingungen und leistungsbezogene Metriken im Vordergrund stehen.

3. Implementierungen dieser Architekturen in Abhängigkeit von netzwerkspezifischen Parametern.

4. Aufbau, Evaluierung, Visualisierung und Diskussion von Experimenten, die dann auch im Vergleich zu anderen Algorithmen, die zur Verfügung gestellt werden, durchgeführt werden.

Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)

2. Praxisbezogene Betreuung mit best Practices bereitet dich auf konkrete Herausforderung der Industrie und Wirtschaft vor.

3. Inhaltliche Relevanz: Eine solche Arbeit ist bislang noch nicht auf konkreten Industrie Datensätzen erfolgt.

4. Möglichkeit Teil einer großen Veröffentlichung zu werden.

Ansprechpartner
Tobias Arndt 
E-Mail: arndt@fh-aachen.de

Matteo Tscheche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die
derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Ziel
Ziel dieser Arbeit ist es den generative Neural Network Ansätze Super-Resolution (SR) auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren.
Dabei soll der Einsatz von Transformer-Netzwerken gegenüber üblichen Netzwerken wie UNet gegeneinander evaluiert werden. Des Weiteren sollen iterative Verfahren zur Lösung evaluiert werden.

Für SR wird das Ursprungsbild auf weniger Pixel reduziert und ein Netzwerk trainiert, um das Ursprungsbild möglichst gut aus dem Veränderten zu rekonstruieren. Dabei wird vor allem auf Normaldaten trainiert, um diese gut zu rekonstruieren während abnormale Bilder
möglichst schlecht rekonstruiert werden. Auf Grund der Abweichung zwischen Rekonstruktion und Ursprungsbild wird entschieden, ob es sich um eine Anomalie handelt oder um ein Normalbild.

Visual Transformer sind sowohl für SR als auch für Anomaly Detection state-of-the-art und bieten somit ein hohes Potential. Allerdings wurden sie noch nie in der Art kombiniert eingesetzt.
Iterative Ansätze wurden bereits für SR evaluiert und sorgten für eine signifikante Verbesserung der Ergebnisse.für
Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.

Aufgaben
1. Implementierung und Training von mehreren Super-Resolution Netzwerken für Anomaly Detection auf unterschiedlichen Datensätzen:

1. U-Net-like Baseline für SR in einem Schritt
2. U-Net-like Baseline für iterativen SR Ansatz
3. Transformer-basiertes SR Netzwerk
4. Iteratives Transformer-basiertes SR Netzwerk

2. Anpassungen/Optimierung der Modelle und Evaluation

Dein Benefit

1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
2. Aktive Forschung: SR wurde noch nie für Industrieelle Anomaly Detection benutzt und auch Transformer sowie iterative SR Verfahren sind sehr neu.
3. Möglichkeit Teil einer Veröffentlichung zu werden.

Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Hintergrund:

Verseidag ist spezialisiert auf die Herstellung von technischen Textilien, bei denen die Qualitätssicherung eine zentrale Rolle spielt. Während der Produktion werden hochauflösende Bilder aufgenommen, um potenzielle Anomalien oder Fehler in den Textilien zu identifizieren. Diese Bilder dienen als Grundlage für die Fehlerklassifikation. Da sich Fehler überlagern können, ist eine präzise Lokalisierung und Klassifizierung besonders herausfordernd.

Ziel der Arbeit:

Entwicklung eines Deep-Learning-Modells zur Anomaliedetektion und Klassifikation in hochauflösenden Produktionsbildern. Das Modell soll in der Lage sein, Fehler genau zu lokalisieren und zu klassifizieren, auch wenn mehrere Fehlerklassen gleichzeitig auftreten.

Aufgabenstellung:

Literaturrecherche:

Analyse bestehender Methoden zur Anomaliedetektion und -klassifikation in Bildern, insbesondere in industriellen Anwendungen.
Überblick über Deep-Learning-Techniken, die für Bildanalyseaufgaben eingesetzt werden, wie Convolutional Neural Networks (CNNs), Region-based CNNs (R-CNNs), und generative Adversarial Networks (GANs).

Datenaufbereitung:

Sammlung und Aufbereitung der Bilddaten, die während der Produktion bei Verseidag aufgenommen werden.
Annotationsprozess zur Markierung und Klassifikation der Anomalien, die als Ground Truth dienen.

Modellentwicklung:

Auswahl und Implementierung geeigneter Deep-Learning-Modelle für die Aufgabe. Training und Feinabstimmung der Modelle zur Erkennung und Klassifikation der Fehler.

Modellbewertung und -optimierung:
 
Bewertung der Modelle anhand von Metriken wie Genauigkeit, Präzision, Recall und F1-Score. Analyse der Fähigkeit des Modells, überlagerte Fehler zu identifizieren und korrekt zu klassifizieren. Optimierung des Modells zur Verbesserung der Erkennungsrate und Reduktion von Fehlklassifikationen.
 
Erstellung eines Prototyps:
 
Detaillierte Dokumentation des gesamten Prozesses, der erzielten Ergebnisse und der Herausforderungen. Präsentation der Arbeitsergebnisse und des entwickelten Systems.
 
Erwartete Ergebnisse:
 
Ein funktionsfähiges Deep-Learning-Modell, das in der Lage ist, Anomalien in den Produktionsbildern von Verseidag zu detektieren und zu klassifizieren. Eine Analyse der Leistung des Modells, einschließlich der Fähigkeit, überlagerte Fehler korrekt zu identifizieren. Ein Vorschlag zur praktischen Integration des Modells in den Produktionsprozess zur Unterstützung der Qualitätssicherung.
 
Voraussetzungen:
 
Grundkenntnisse in maschinellem Lernen und Deep Learning. Programmierkenntnisse in Python und Erfahrung mit Frameworks wie TensorFlow oder PyTorch. Interesse an Bildverarbeitung und Datenanalyse.
 
Ansprechpartner:
Tobias Arndt
E-Mail: arndt@fh-aachen.de
 
Ingo Elsen (betreuender Professor)

Hintergrund
Die Textilindustrie erfordert präzise Verfahren zur Erkennung und Klassifikation von Anomalien auf texturierten Oberflächen. Solche Anomalien können Hinweise auf Produktionsfehler oder Abweichungen von Qualitätsstandards geben. Ziel dieser Arbeit ist es, auf Basis moderner Deep-Learning-Methoden einen Ansatz zu entwickeln, der sowohl die Anomalien erkennt als auch die erkannten Anomalien klassifiziert. Ein zentraler Aspekt ist das Erlernen eines latenten Raumes, der sinnvolle, trennbare Repräsentationen von Texturpatches liefert.

Aufgabenstellung
Im Rahmen dieser Arbeit sollen folgende Schritte bearbeitet werden:

  1. Datensatz-Erstellung:
    • Aufbau eines gelabelten Datensatzes mit texturierten Patches aus der Textilindustrie.
    • Definieren von Anomalien und deren Klassifikationen.
  2. Latenter Raum und Anomalieerkennung:
    • Erlernen eines sinnvollen latenten Raumes für die Patches unter Verwendung von metrischen Lernmethoden.
    • Einsatz moderner Methoden des Deep Learning, insbesondere:
      • MiniRocket2D
      • Autoencoder
      • Untrainierte Feature Extraktion mit vortrainierten Neuronalen Netzen
      • Selbstüberwachtes Lernen (Die Abgrenzung zu den oben vorgestellten
        Methoden stellt die Hauptarbeit dar)
  3. Klassifikation von Anomalien:
    • Untersuchung von einfachen ML-Methoden wie k-NN zur Klassifikation der Anomalien im gelernten Raum.
    • Analyse der Verwendung von Prototypen zur Repräsentation einzelner Klassen.
  4. Entwicklung einer Datenverarbeitungspipeline:
    • Implementierung eines Dataloaders für die patchbasierte Verarbeitung der Daten.
    • Pipeline für Training, Feature-Extraktion und Klassifikation.
  5. Methodenvergleich:
    • Systematische Gegenüberstellung der Ergebnisse der verschiedenen Methoden des Feature-Lernens.

Ziele der Arbeit

  • Entwicklung einer robusten und flexiblen Pipeline zur Anomalieerkennung und klassifikation auf textilen Texturen.
  • Identifikation von Vor- und Nachteilen verschiedener Feature-Learning-Ansätze.
  • Erstellung eines gelabelten Datensatzes für die textile Anomalieerkennung, der in zukünftigen Arbeiten als Benchmark dienen kann.

Betreuung und Unterstützung

Die Betreuung umfasst eine intensive Einführung in die Methoden des Deep Learning und metrischen Lernens, regelmäßige Feedback-Sitzungen sowie Unterstützung bei der Implementierung und Analyse. Der/die Studierende wird außerdem Zugang zu relevanten Ressourcen wie GPU-Rechnern und Fachliteratur erhalten.

Beschreibung:
Heute gebräuchliche Bildklassifikatoren basieren auf tiefen neuronalen Faltungsnetzen, deren Klassifikationsstufe aus Feed-Forward-Netzen bestehen, die mittels Backpropagation trainiert werden. Die Arbeit soll untersuchen, welche Leistungen, Vor- und Nachteile bei der Nutzung von Prototypennetzen, wie LVQ, RBF, u.ä, sowie dynamisch konstruierten Derivaten entstehen.

Hierzu sind, basierend auf einem Foundation Netzwerk, dessen Top-Layer mit den jeweils zu untersuchenden Netzen ersetzt wird, verschiedene Topologien zu untersuchen.

Aufgabenstellung:

  1. Recherche: Umfassende Literaturrecherche zu Prototypen-Architekturen und deren Verwendung in Klassifikationsaufgaben, sowie zu dynamisch wachsenden Architekturen.
  2. Vergleich: Entwickeln von Kriterien zum Vergleich der Verfahren unter Berücksichtigung der Problemstellung.
  3. Implementierung: Implementierung von mindestens drei Architekturen und Test auf einem gegebenen Datensatz. Leistungsmessung und Vergleich.
  4. Auswertung: Bewertung der Leistungen anhand der entwickelten Kriterien.

Voraussetzungen
Gute Kenntnisse in Python und den Frameworks zur Datenanalyse und neuronalen Netzen (Keras) .

Betreuung:
Ingo Elsen, Baran Dirakie

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Ziel
Ziel dieser Arbeit ist es zwei Diffusion Network Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) auf Anwendbarkeit für Anomaly Detection zu untersuchen und zu evaluieren. Dabei handelt es sich um die Diffusion Modelle Noise Conditioned Score Networks (NCSNs) und Stochastic Differential Equations (SDEs).

Diffusion Modelle verändern das Bild indem iterativ noise auf das Bild angewand wird. Allgemein werden diese in 3 Kategorien gefasst: Denoising Diffusion Probabilistic Models (DDPMs), NCSNs und SDEs. SDEs sind dabei eine Generalisierung von DDPMs und NCSNs.

In der Forschung zu generativen Algorithmen und Anomaly Detection sind Diffusion Modelle state-of-the-art und gehören momentan zu den am aktivsten erforschten Algorithmen. Dabei wird sich allerdings vor allem auf DDPMs beschränkt. SDEs wurden auch bereits für Anomaly Detection eingesetzt. Teil dieser Arbeit wird es sein zu untersuchen, ob NCSNs sich ebenfalls dafür eignen und diese gegebenfalls zu
implementieren. SDEs Ansätzen sollen ebenfalls implementiert werden und gegebenfalls mit NCSNs verglichen werden.

Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.

Aufgaben
1. Untersuchung der Einsatzmöglichkeiten von Diffusion Models (NCSNs und SDEs) für Anomaly Detection

2. Implementierung und Training von Diffusion Models für Anomaly Detection auf unterschiedlichen Datensätzen

3. Anpassungen/Optimierung der Modelle und Evaluation

Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)

2. Aktive Forschung: Diffusion Modelle sind ein sehr aktuelles Forschungsthema und besonders der Einsatz von NCSNs und SDEs ist noch nicht sehr gut erforscht.

3. Möglichkeit Teil einer Veröffentlichung zu werden.

Ansprechpartner

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Externe Abschlussarbeiten und Ausschreibungen

Bei Interesse wenden Sie sich bitte an Herrn Professor Elsen, welcher den Kontakt zu den jeweiligen Unternehmen herstellen wird.

Externe Abschlussarbeiten

Externe Ausschreibung

Ausgangssituation:

CanControls ist ein innovatives Software-Unternehmen mit Schwerpunkten im Bereich der Echtzeit-Bildverarbeitung, Computer Vision und videobasierten Szenenanalyse.
Von uns entwickelte Technologien kommen in der der Automobilindustrie, der Luft- und Raumfahrt, der Medizintechnik, dem Straßenwesen und der Unterhaltungselektronik zum Einsatz.

Digitale Zwillinge unserer Systeme erlauben es, die Bildgebung/Bildverarbeitung in existierenden Anwendungen zu optimieren, sowie neue Anwendungsfelder digital zu bewerten.
Dafür ist eine möglichst realitiätsnahe Bildsynthese essentiell.
Moderne Methoden der generativen künstlichen Intelligenz stellen hierfür einen vielversprechenden Ansatz dar.

Deine Aufgaben und Vorkenntnisse:

Moderne Verfahren der Bildsynthese berücksichtigen ausschließlich den sichtbaren Wellenlängenbereich in Form von RGB-Bildern.
Ziel dieser Arbeit ist es auf Stable Diffusion basierende Bildsynthese für RGB auf den nicht sichtbaren Wellenlängenbereich zu übertragen.

1. Einarbeitung in Stable Diffusion
2. Recherche gängiger Methoden der „Personalisierung“ etablierter text-to-image Modelle (Textual Inversion, DreamBooth, LoRa, HyperNetworks, etc.)
3. Bewertung dieser Methoden im Kontext unserer proprietären Bilddaten

Vorkenntnisse in Python sowie in gängigen Deep-Learning Bibliotheken (TensorFlow/PyTorch) sind wünschenswert.
Fließendes Englisch in Wort und Schrift ist erforderlich.

Deine Benefits:

1. Du wirst Teil eines internationalen Teams mit Sitz im Zentrum von Aachen
2. Lernen von State-of-the-Art Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)
3. Persönliche Betreuung während des Praktikums.
4. Möglichkeit Teil einer Veröffentlichung auf einer Top-Konferenz zu werden (CVPR, ICCV, ECCV, NeurIPS ).

Ansprechpartner:

luttermann@cancontrols.com
Dr. Tarek Luttermann

Informationen zum Unternehmen:

Die SBS Ecoclean Gruppe entwickelt, produziert und vertreibt zukunftsorientierte Anlagen, Systeme und Services für die industrielle Teilereinigung und Entfettung, Ultraschall Feinstreinigung, Hochdruck Wasserstrahlentgraten sowie für die Oberflächenvorbereitung und -behandlung.

Unsere Kunden kommen aus unterschiedlichsten Branchen der Bauteil- und Präzisionsfertigung – wie z.B. Luft- und Raumfahrt, Medizintechnik, Automobil- und Zuliefer-, Hightech-, Halbleiter- und Hochvakuumindustrie, Präzisionsoptik, Mikro- und Feinwerk-, sowie Verbindungstechnik und die Uhren- & Schmuck-Industrie.

Ein weiterer Tätigkeitsbereich ist die Entwicklung und Produktion von alkalischen Elektrolysesystemen für die Erzeugung von grünem Wasserstoff. Als globaler Systemintegrator bieten wir Industrie, Mobilität und Kommunen eine alternative Energiequelle und unterstützen sie so auf dem Weg in eine nachhaltige Zukunft.

Übersicht:

Im Zuge des PerformanceLine-Projektes soll die Optimierung eines neuen Korbs mit zugeordnetem Rezept und flexiblen Prozesszeiten vorangetrieben werden. Dabei stehen die Implementierung einer Online-Prozesszeitveränderung und die Gestaltung eines Portals mit Be-/Entlade-Sequenzen im Fokus.

Recommender System für Produktionssteuerung:

Bachelor- / Masterarbeit:

  • Vorschlag für den Bediener für das nächste zeiteffektivste Rezept / Werkstück => Max. Durchsatz

Masterarbeit:

  • Generieren der Fahrbefehle für das Portal unter Einhaltung der festen Prozesszeiten bzw. im zeitlichen Rahmen der flexiblen Prozesszeiten unter in der Maschine befindlichen Körbe / Rezepte
  • Maximieren des Durchsatzes unter Berücksichtigung der realen Beladung mit Losgröße „1“.

Ansprechpartner:

Ecoclean GmbH
Rüdiger Fritzen

E-Mail: ruediger.fritzen@ecoclean-group.net
Telefon: +49 2472 83-243
www.ecoclean-group.net

Informationen zum Unternehmen:

Die SBS Ecoclean Gruppe entwickelt, produziert und vertreibt zukunftsorientierte Anlagen, Systeme und Services für die industrielle Teilereinigung und Entfettung, Ultraschall Feinstreinigung, Hochdruck Wasserstrahlentgraten sowie für die Oberflächenvorbereitung und -behandlung.

Unsere Kunden kommen aus unterschiedlichsten Branchen der Bauteil- und Präzisionsfertigung – wie z.B. Luft- und Raumfahrt, Medizintechnik, Automobil- und Zuliefer-, Hightech-, Halbleiter- und Hochvakuumindustrie, Präzisionsoptik, Mikro- und Feinwerk-, sowie Verbindungstechnik und die Uhren- & Schmuck-Industrie.

Ein weiterer Tätigkeitsbereich ist die Entwicklung und Produktion von alkalischen Elektrolysesystemen für die Erzeugung von grünem Wasserstoff. Als globaler Systemintegrator bieten wir Industrie, Mobilität und Kommunen eine alternative Energiequelle und unterstützen sie so auf dem Weg in eine nachhaltige Zukunft.

Übersicht:

Im Zuge des PerformanceLine-Projektes soll die Optimierung eines neuen Korbs mit zugeordnetem Rezept und flexiblen Prozesszeiten vorangetrieben werden. Dabei stehen die Implementierung einer Online-Prozesszeitveränderung und die Gestaltung eines Portals mit Be-/Entlade-Sequenzen im Fokus.

KI-Planungssystem für optimale Prozessdurchführung:

Bachelor- / Masterarbeit Maschinenkonfigurationstool:

  • Anhand der definierten Taktzeitvorgaben / Durchsatzmenge, Rezepten, Stückzahlen und der Beladereihenfolge
    • Bestimmung der Anzahl der Portale zur Erreichung der Vorgaben
    • Bestimmung der Anzahl der notwendigen Mehrfach-Prozessstationen zur Erreichung der Vorgaben

Ansprechpartner:

Ecoclean GmbH
Rüdiger Fritzen

E-Mail: ruediger.fritzen@ecoclean-group.net
Telefon: +49 2472 83-243
www.ecoclean-group.net

Abgeschlossene Abschlussarbeiten

PrüferAbschlussDatumNameThema
Ingo ElsenBachelor28.02.2019Fabian RübEntwicklung eines Verfahrens zur kamerabasierten Blickrichtungserkennung
Ingo ElsenMaster27.03.2019Manuel BareissBildbasierte Erkennung von Maschinenteilen im ein- und ausgebauten Zustand mittels Verfahren des maschinellen Lernens
Ingo ElsenMaster26.04.2019Matthias HeinemannErstellung eines technischen Konzepts für eine Plattform zur unternehmensübergreifenden Disposition
Ingo ElsenMaster30.01.2020Horst Sebastian Perry HerzogEntwurf und Realisierung eines adaptiven Fütterungssystems für Aquaponikanlagen
Ingo ElsenBachelor27.02.2020Maik WydraEinsatz von Prozcess Mining zur Optimierung des Softewaresupportprozesses
Ingo ElsenBachelor12.03.2020Dmitrii AnisovichAnalyse eines Datensatzes von Lokomotiven
Ingo ElsenBachelor13.03.2020Alexander-Wilhelm WiensEntwicklung von Datenanalysen und Prognosemodellen für erneuerbare Energien in Deutschland
Ingo ElsenBachelor03.04.2020Florian Lange Intelligente Initialisierung von Smart Building Optimierungsalgorithmen
Ingo ElsenMaster20.05.2020Alexandre Charoy Entwicklung eines Digital Shadow im Materialmanagement zur Korrelation von Material- und Prozessdaten
Ingo ElsenBachelor09.06.2020Christopher KremkowUntersuchung zur Blickrichtungserkennung mit künstlichen Neuronalen Netzen
Ingo ElsenMaster17.06.2020Nils Schlicher Vergleich von Datenbanken für einen Hadoop-Cluster
Ingo ElsenBachelor21.07.2020Katrin Hammacher Absatzprognose neuer Produkte im Einzelhandel basierend auf homogenen Abverkaufsgruppen mithilfe von Methoden des maschinellen Lernens
Ingo ElsenBachelor24.07.2020Sarah Beschorner Automated Hyperparameter Tuning of Language Based Anomaly Detection for Log files
Ingo ElsenMaster08.07.2020Dustin Hellmann Verarbeitung und Analyse von SCADA-Prozessdaten mit Werkzeugen der Big Data Analysis
Ingo ElsenBachelor27.08.2020Simon WestfechtelErzeugung eines künstlichen Datensatzes zur Bremsprognose von Güterzügen und Validierung der Big Data Verarbeitung
Ingo ElsenBachelor28.08.2020Oskar Galla Erkennung von technischen Ausfällen bei Triebwagen mittels Anomalieerkennung
Ingo ElsenBachelor28.08.2020Patrick Reckeweg Untersuchung der Effizienz und Effektivität der AVOD Architektur bei der Objektlokalisierung in LiDAR und Kamera Daten
Ingo ElsenMaster11.09.2020Lennart Stich Vergleich von cloud-basierten Container- und Virtualisierungstechnologien im Kontext von Kubernetes
Ingo ElsenBachelor03.11.2020Lukas Weller Anwendung und Vergleich verschiedender Machine-Learning-Verfahren zur Vorhersage von Passagierzahlen
Ingo ElsenMaster06.11.2020Daniel Moritz Konzeption und Umsetzung eines hyper-konvergenten Kubernetes Cluster im Unternehmensfeld als Edge Computing Ansatz
Ingo ElsenBachelor04.03.2021Arne Steen Creation and Validation of an Artificial Dataset for 3d Object Classification
Ingo ElsenBachelor06.04.2021Alexander Olear Development of a low power sensor module with an esp32 microcontroller
Ingo ElsenBachelor28.04.2021Thomas Sommer Implementierung von Selbstorganisierenden Merkmalskarten und Radialen Basisfunktionsnetzen in Python
Ingo ElsenMaster29.07.2021Björn Kops Konzept und Entwicklung einer KI-basierten Lösung zur Analyse der Datenqualität von Produktionsdaten
Ingo ElsenBachelor17.08.2021Sachar Matkovskiy Automatic Detection of Deliberate Speed Changes after Cleared Flight Level
Ingo ElsenBachelor18.08.2021Björn Kohlen Entwurf und Implementierung eines Web-Frontends zur Abfrage und Visualisierung von Umweltsensordaten
Ingo ElsenMaster14.09.2021Carlo Nießen Analyse und Optimierung eines Software-Release-Cycle mit Focus auf Risikominimierung
Ingo ElsenMaster14.09.2021Carlo Nießen Entwicklung einer Datenpipeline zur Speicherung und Aufbereitung von Sensordaten
Ingo ElsenBachelor20.01.2022Max Conzen Anwesenheitsprognose mittels Umweltsensordaten für die Gebäudeautomatisierung
Ingo ElsenMaster27.01.2022Marin Jukic Automatisierte Themenbestimmung von Textdaten durch Machine Learning und Deep Learning Methoden mithilfe der Evidenztheorie
Ingo ElsenBachelor02.02.2022Robin Mai Improving data consistency in the ingestion process of a denormalized Cloud Data Warehouse
Ingo ElsenMaster07.02.2022Florian Lange Modellfreies Reinforcement Learning für die intelligente Gebäudesteuerung
Ingo ElsenMaster16.03.2022Mirko Reimbold Anforderungen an mandantenfähige Cluster und der aktuelle Stand in Kubernetes
Ingo ElsenBachelor25.04.2022Josres Arnol Ngompe Fotie Erweiterung der bestehenden iOS-App des digitalen Shopfloor-Management-Systems LISA ( Learn Industrial Solutions Applications)
Ingo ElsenBachelor02.06.2022Tobias Arndt Vergleich von Verfahren des Maschinellen Lernens zur Klassifikation von Baudetails aus Konstruktionszeichnungen
Ingo ElsenBachelor01.08.2022Casimir Giesler Datengetriebene Auslastungsprognose für öffentliche Verkehrsinfrastruktur am Beispiel von Parkhäusern
Ingo ElsenBachelor18.04.2022Nico HeijnkGenerieren von Vorschlägen für Merkmalswerte in einer Werkzeugdatenbank durch maschinelles Lernen
Ingo ElsenBachelor12.06.2022Philipp HünnerscheidtAufbau einer Datenpipeline zur Erzeugung von 3D Ansichten aus CAD Daten
Ingo ElsenBachelor05.05.2022Alexander LoosenPrognose der Anwesenheit von Personen für die Gebäudeautomatisierung mittels Umweltsensordaten
Ingo ElsenBachelor10.04.2022Timo Schloemer Prognose der Restlebensdauer von Kolbenkompressorventilen mittels Methoden des Maschinellen Lernens
Ingo ElsenBachelor09.05.2022Julian Schultheiß Performanceuntersuchung des Cloud-Deployments einer IoT-Plattform zur automatisierten Qualit¨atsprognose von zerspanten Bauteilen
Ingo ElsenBachelor30.09.2022Daniel Sept Entwicklung und Implementierung einer MQTT Testumgebung mit verschiedenen Clients
Ingo ElsenMaster07.10.2022 Maik Wydra Entwicklung eines Recommender Systems auf Basis von Bewertungen deutscher IT Unternehmen
Ingo ElsenFB1030.01.2023Markus Klein Recommender Systems for Research Data Management
Ingo ElsenBachelor17.04.2023 Jens Peter Dennigmann Vergleich von Tiefen Neuronalen Netzen zur Erkennung von 3D Maschinenteilen
Ingo ElsenMaster15.05.2023 Hanna Babilon Comparison of Neural Network Topologies for 3D Recognition of Machine Parts
Ingo ElsenETP22.08.2023 Yannic Schlosser Deep Learning-Based Visual Quality Inspection in Vertical Farming Systems
Ingo ElsenMaster29.08.2023 Luca Bonn Patch-based Feature Extraction for High-Resolution Image Anomaly Detection
Ingo ElsenBachelor06.09.2023 Marc Schwägerl Methoden zur Überführung von Produktbezeichnungen in standardisierte Benennungssysteme
Ingo ElsenBachelor29.09.2023 Sagar Adhikari Image-based error detection for quality control using machine learning methods (Unsupervised Learning)
Ingo ElsenBachelor23.10.2023 Sven StarzerImproving Gaze Prediction based on Eye Segmentation through Pre-Training with Synthetic Data
Ingo ElsenBachelor07.12.2023 Alexander SchechtelUntersuchungen zum verteilten Training von Machine Learning Algorithmen auf einem Clusterrechner
Ingo ElsenBachelor21.12.2023 Baran Dirakie Untersuchung zur optimalen Auswahl von Trainingsdaten aus großen Datensätzen
Ingo ElsenBachelor10.04.2024 Tobias Neumann Graphenbasierte Visualisierung der Modulstruktur eines Studiengangs
Ingo ElsenMCD22.05.2024 Sophia Bongards Analyse von Visualisierungsmethoden für dynamische Partikelverteilungen in 2D und 3D
Ingo ElsenMCD22.05.2024 Christina Papenfuss Entwurf eines Verfahrens zur Visualisierung von dynamischen Partikelverteilungen in Virtual Reality
Ingo ElsenBachelor10.07.2024 Irene Ackermann Anomaliedetektion zur elektrochemischen Impedanzspektroskopie
Ingo ElsenBachelor06.09.2024 Julius Busch Prototype Implementation for Retrieval Augmented Generation and Evaluation of Major LLMs
Ingo ElsenBachelor28.08.2024 Nodirjon Tadjiev Design and Implementation of a Data- and Training-Pipeline for Anomaly Detection in Large Images
Ingo ElsenBachelor03.09.2024 Oskar Heuwes Architekturkonzept für sprachbasierte User-Interfaces in ERP-Systemen mittels Large Language Models
Ingo ElsenBMA23.09.2024 Maximilian Hibert Vergleich klassischer Bildverarbeitungsmethoden mit Machine Learning Algorithmen zur Erkennung der Verschmutzung auf Papiermaschinenbespannungen
Ingo ElsenBachelor26.09.2024 Martin Tomaszewski Vergleich von Active-Learning-Methoden zur Reduktion der Trainings- und Labelinglast
Ingo ElsenBachelor10.10.2024 Leon Plum Industrial Anomaly Detection Using 2D-Rocket and Deep Convolutional Neural Networks
Ingo ElsenMaster20.11.2024 Benjamin Papajewski Sensor Scan Simulation for Automated Tuning of Gate-Defined Semiconductor Quantum Dots
Ingo ElsenMaster22.11.2024 Klara Schnorrenberg Conceptualization of a Central Storage and Management for Routines within Laboratory Measurements
Ingo ElsenBachelor27.11.2024 Malte Hartmann Implementierung von Künstlicher Intelligenz zur Optimierung von Arbeitsabläufen und Einstiegsprozessen für Application Engineers
Ingo ElsenMaster02.12.2024 Benedikt Drügh Industrial Anomaly Detection Using Transformer-Based Cascading Super-Resolution