Studenten

Das Big Data Lab bietet viele spannende Projekte, an denen Sie sich beteiligen können. Sie können auch gemeinsam mit uns ein passendes Thema für Ihre Abschlussarbeit finden.

  • Big Data Infrastruktur
  • Data Science Projekte
  • Machine Learning Pojekte

Um einen groben Überblick über das Forschungsfeld zu bekommen, schauen Sie sich z.B. unsere laufenden Projekte an.

Sollten Sie Ihre Arbeit extern anfertigen wollen, geht das auch. Es sollte aber thematisch zu den oben genannten Gebieten passen.

Der formale Ablauf ist dann wie folgt:

Interne Arbeit:

* Sie kontaktieren mich per Email oder WebEx (s. EmailPolicy) und wir besprechen in einer WebEx oder in Präsenz die möglichen Themen

Externe Arbeit:

* Sie erstellen zusammen mit Ihrer externen Betreuung, die mindestens den von Ihnen angestrebten Abschluss (Bachelor oder Master) in einem MINT-Fach haben muss, ein Exposé zu Ihrem Thema, dass das Thema und die von Ihnen zu leistenden Arbeiten beschreibt. (Ca. 1-2 Din A4 Seiten)

* In einer gemeinsamen WebEx besprechen wir dann den weiteren Ablauf

Bei Bachelorarbeiten gestalte ich die Themen so, dass Praxisprojekt und Abschlussarbeit aneinander anschließen und ein Thema gesamthaft bearbeiten.

Beginn der Arbeit:

Sie laden das Anmeldeformular beim PA herunter, füllen es aus, unterschreiben es und schicken es mir per Email zu. Sie leiten dann das unterschriebene Anmeldeformular ans PA weiter.

Ende des Praxisprojekts

Nach dem Ende des Praxisprojektes halten Sie eine halbstündige Präsentation (in Präsenz oder WebEx), an die sich Fragen zum PP anschließen. Das gibt Ihnen die Gelegenheit, eine Präsentation zu üben, Ihr Thema vorzustellen und Feedback zum bisher Geleisteten zu bekommen.

Anmeldung der BA

Der Ablauf ist entsprechend der Anmeldung zum PP

Abgabe der BA

Grundsätzlich gelten für die Abgabe der BA die Forderungen des Prüfungsamtes.

Zusätzlich wird die BA elektronisch bei mir abgegeben. Zur Abgabe gehören:

* Die schriftliche Ausarbeitung, einschließlich der von Ihnen unterschriebenen Eigenständligkeitserklärung als PDF

* Die von Ihnen verwendeten Quellen, sofern Sie sich auf wissenschaftlich Paper beziehen

* Der von Ihnen angefertigte Source Code (inklusive Bilddateien der schriftlichen Ausarbeitung)

* Bei externen Arbeiten,: Die von Ihnen verwendeten Daten ggf. in Ausschnitten und pseudonymisierter Form, so dass der Code nachvollzogen werden kann

Bei Quellen, Source Code und Daten können Sie bis 10MB Größe eine zip Datei abgeben. Ansonsten nutzen Sie bitte ein git-Repository oder den Filesharing Service gigamove der RWTH (link) der BA

Im Kolloquium halten Sie eine 30 minütige Präsentation zu Ihrer Arbeit (in Präsenz oder WebEx), an die sich Fragen zu Arbeit anschließen. Die Note erfahren Sie dann ca. eine Woche nach dem Kolloquium beim Prüfungsamt.

Sie laden das Anmeldeformular beim PA herunter, füllen es aus, unterschreiben es und schicken es mir per Email zu. Sie leiten dann das unterschriebene Anmeldeformular ans PA weiter.

Ca. nach der Hälfte der geplanten Zeit halten Sie eine Zwischenpräsentation von ca, 30 Minuten Dauer, an die sich Fragen zur Arbeit anschließen.

Abgabe und Kolloquium sind so, wie bei einer BA auch (s.o.)

Generell: Zwischen 40 – 120 Seiten ohne Anhänge und Verzeichnisse. Bitte keinen Sourcecode o.ä. in die Anhänge. Dafür gibt es git.

Interne Abschlussarbeiten

offen

Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert. Jeder produzierte Filter wird während des Herstellungsprozess in Form von Zeilen- und Tiefenkameras digital erfasst. Dieser Erfassungsprozess ist hochgradig standartisiert und die Qualität der Aufnahmen unterliegt keinen relevanten Schwankungen. Die Produktionsmenge beläuft sich auf ungefähr 2000 Filter pro Tag.

Um die physische Arbeitslast (manuelle Kontrolle) zu reduzieren können Methoden des bildbasierten Deep Learnings in einer Anomalie-Erkennungs-Formulierung eingesetzt werden, die sehr gute Ergebnisse liefern. Diese basieren in der Regel auf dem Verarbeiten eines kompletten Bildes. Durch die hohe Anzahl an produzierten Filtern und einer zwangsläufigen Verschiebung in der Verteilung von Bildmerkmalen ist eine regelmäßige Anpassung eines solchen Inferenzsystems erforderlich, sodass in der Regel auf vortrainierte Neuronale Netze (unregelmäßig eigens trainierter oder domänen-generalisierter Merkmalsextraktor) zurückgegriffen wird.

Betrachtet man den Aufnahmeprozess über die Zeilenkamera stellt diese Komplett-Bild-Abhängigkeit eine zusätzliche Komplexität dar. Insbesondere für die schnelle Inferenz.

Ziel dieser Arbeit soll es sein Verfahren zu entwickeln und zu vergleichen, die direkt mit den einzelnen Zeilen arbeiten können. Hierbei betrachten wir nicht mehr das Komplett-Bild als 2D Volumen, sondern lediglich die einzelnen Zeilen, die im 1D Raum vorliegen. Obwohl nun deutlich mehr Einzelinferenzen durchgeführt werden müssen, kann dieser Schritt direkt in der Kamera durchgeführt werden, wodurch aufwändige IO Operationen und deren Implikationen stark reduziert werden.

Die hierbei zu verarbeitenden Daten erfüllen Eigenschaften von Zeitreihen, sodass der Schluss naheliegt Algorithmen dieser Klasse zu verwenden – im Spezifischen Algorithen der Zeitreihen-Anomalie-Erkennung. Für die Merkmalsextraktion sollen hierbei Verfahren betrachtet werden, die in Analogie zu der Komplett-Bild-Verarbeitung kein Vortraining erfordern. Aus einer Literaturrecherche und ersten Vorarbeiten im Rahmen einer Seminararbeit kommen Verfahren der Rocket-Klasse in Frage.

Im Rahmen der Arbeit soll eine Anomalie Erkennung auf Rocket-Merkmalen auf den Zeilen der Zeilenbild-Kamera mit Hilfe einer Self-Organizing-Map entwickelt und mit anderen Verfahren verglichen werden. In einem darauf folgenden Schritt soll die Fähigkeit Multivariate-1D Merkmale, die durch die Zusammenführung der Zeilenbild-Kamera mit den Bildern der Tiefenbildkamera entstehen, auf den entwickelten Verfahren untersucht werden.

Anforderungsprofil

Für das genaue Anforderungsprofil nehmen Sie Kontakt auf. Es wird in einem Erstgespräch ermittelt, ob eine für beiden Seiten gewinnbringende Arbeit absolviert werden kann.


Ansprechpartner
Tobias Arndt, arndt@fh-aachen.de

Ausgangssituation

Im Forschungsprojekt wird mit einem Hersteller von Medizintextilien kooperiert, der über einen digitalisierten Produktionsprozess verfügt.  Dieser Prozess besteht aus einer Vielzahl von Maschinenparametern/Einflussfaktoren, die erfasst werden. Beim Produzieren müssen Zielgrößen aus der Textiltechnik eingehalten werden. 

Klassische ML Verfahren können aus unterschiedlichen Gründen an ihre Grenzen stoßen bei der Modellierung von Produktionsprozessen. In dieser Abschlussarbeit soll ein Human-in-the-Loop Ansatz ins Zentrum gestellt werden. Als Human-in-the-Loop wird ein Verfahrensaufbau bezeichnet, bei dem der Mensch als Orakel die vorhergesagten Produktionsergebnisse bewertet und anhand dieser Bewertung das Modell verbessert werden kann.  Das Modell soll dabei unmittelbar und für den Menschen nachvollziehbar derart Empfehlungen geben können, dass die Produktion hinsichtlich der Produktionsziele  durch den Menschen korrigiert werden kann. 

Aufgaben
  1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle
  2. Entwicklung einer Umgebung, die eine Prognose visualisiert und mit dessen Hilfe die Prognose als neuer Trainingsinput aufgearbeitet werden kann
  3. Evaluieren, wie häufig und bei welchen Prognosen der Mensch zur Korrektur hinzugezogen werden soll
Gewünschte Ergebnisse
  1. Erkenntnisse zu der Datengrundlage
  2. Vergleich von Modellierungsansätzen
  3. Machbarkeit der Modellierung ausgewertet

Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Ziel
Ziel dieser Arbeit ist es zwei Diffusion Network Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) auf Anwendbarkeit für Anomaly Detection zu untersuchen und zu evaluieren. Dabei handelt es sich um die Diffusion Modelle Noise Conditioned Score Networks (NCSNs) und Stochastic Differential Equations (SDEs).

Diffusion Modelle verändern das Bild indem iterativ noise auf das Bild angewand wird. Allgemein werden diese in 3 Kategorien gefasst: Denoising Diffusion Probabilistic Models (DDPMs), NCSNs und SDEs. SDEs sind dabei eine Generalisierung von DDPMs und NCSNs.

In der Forschung zu generativen Algorithmen und Anomaly Detection sind Diffusion Modelle state-of-the-art und gehören momentan zu den am aktivsten erforschten Algorithmen. Dabei wird sich allerdings vor allem auf DDPMs beschränkt. SDEs wurden auch bereits für Anomaly Detection eingesetzt. Teil dieser Arbeit wird es sein zu untersuchen, ob NCSNs sich ebenfalls dafür eignen und diese gegebenfalls zu
implementieren. SDEs Ansätzen sollen ebenfalls implementiert werden und gegebenfalls mit NCSNs verglichen werden.

Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.

Aufgaben
1. Untersuchung der Einsatzmöglichkeiten von Diffusion Models (NCSNs und SDEs) für Anomaly Detection

2. Implementierung und Training von Diffusion Models für Anomaly Detection auf unterschiedlichen Datensätzen

3. Anpassungen/Optimierung der Modelle und Evaluation

Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)

2. Aktive Forschung: Diffusion Modelle sind ein sehr aktuelles Forschungsthema und besonders der Einsatz von NCSNs und SDEs ist noch nicht sehr gut erforscht.

3. Möglichkeit Teil einer Veröffentlichung zu werden.

 

Ansprechpartner

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche
ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Ziel
Ziel dieser Arbeit ist es Generative Adversarial Networks (GAN) Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren.

GANs bestehen aus einem Generator- und einem Diskriminator-Netzwerk. Der Generator lernt Bilder zu generieren, die möglichst ähnlich zu den Originalbildern sein sollten. Der Diskriminator bekommt immer zwei Bilder, eins der Originalbilder und ein Generiertes vom Generator, und soll lernen diese zu unterscheiden.

Pythonkenntnisse (insbesondere Pytorch) sowie Vorkenntnisse über neuronale Netzwerke sind von Vorteil.

Aufgaben
1. Untersuchung der Einsatzmöglichkeiten von GANs für Anomaly Detection

2. Implementierung und Training von GANs für Anomaly Detection auf unterschiedlichen Datensätzen

3. Anpassungen/Optimierung der Modelle und Evaluation

Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)

2. Kenntnisse über GANs (einer der aktuellsten generativen Verfahren) erlernen

3. Möglichkeit Teil einer Veröffentlichung zu werden.

 

Ansprechpartner

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

laufend

Im Rahmen eines Forschungsprojektes werden Feinstaub- und CO2-Messwerte an verschiedenen Positionen eines Raumes aufgenommen. Dazu werden Feinstäube gezielt freigesetzt und die lokale Feinstaubkonzentration gemessen. Die aufgenommenen Daten ergeben dann eine zeitlich aufgelöste, lokale Konzentration verschiedener Partikelgrößen.

Die Arbeit soll existierende Visualisierungsmethoden für einen solchen Fall in Form einer vergleichenden Literaturrecherche untersuchen und geeignete Verfahren identifizieren. Dazu sollen auch angrenzende Bereiche, z.B. Strömungssimulationen oder Wettersimulationen, in Betracht gezogen werden, um so einen umfassenden Überblick über in Frage kommende Methoden zu bekommen. Die Methoden sind nach verschiedenen, im Rahmen der Arbeit aufzustellenden Anforderungen hinsichtlich deren Eignung zur Visualisierung der Feinstaub- und CO2-Konzentrationen zu bewerten und das am Besten geeignete Verfahren zu indentifizieren. Dessen Stärken und Schwächen sind im Hinblick auf eine Verfahrensverbesserung darzustellen.

Ausgangssituation

Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.

Im Zuge dieser Arbeit sollen Modelle entwickelt werden, die maschinelles Lernen verwenden sollen, um den manuellen Prüfaufwand zu reduzieren. Dabei besteht der erste Fokus auf Methoden, die ohne gelabelte Daten, funktionieren können.

Aufgaben
  1. Aufarbeitung von passenden unsupervised learning Methoden
  2. Problemstellung aufarbeiten
  3. Vorhandene Datensätze analysieren, Fragen mit Unternehmenspartner klären und mögliche Datenaufbereitungsmethoden (data preparation) feststellen
  4. Umsetzung von Modellen
  5. Evaluierung der Modelle unter Betrachtung der vorher abgeklärten Zielstellung
Gewünschte Ergebnisse
  1. Literatur-Review zu unsupervised learning Methoden und Datenaufbereitungsmethoden
  2. Lösbarkeit der Problemstellung mit dem gewählten Ansatz erforscht
Stichpunkte

Fehlererkennung

Ausreißererkennung (anomaly detection)

Unsupervised learning

Image pre-processing

Ansprechpartner

Hakan Köse, M. Eng.

E-Mail: koese@fh-aachen.de

Quelle der Abbildung: www.gkd-group.com

Ausgangssituation

Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.

Im Zuge dieser Arbeit sollen Modelle entwickelt werden, die maschinelles Lernen verwenden sollen, um den manuellen Prüfaufwand zu reduzieren. Der Fokus wird auf Methoden des supervised learnings gelegt.

Aufgaben
  1. Aufarbeitung von passenden supervised learning Methoden
  2. Problemstellung aufarbeiten
  3. Vorhandene Datensätze analysieren, Fragen mit Unternehmenspartner klären und mögliche Datenaufbereitungsmethoden (data preparation) feststellen
  4. Umsetzung von Modellen
  5. Evaluierung der Modelle unter Betrachtung der vorher abgeklärten Zielstellung
Gewünschte Ergebnisse
  1. Literatur-Review zu supervised learning Methoden und Datenaufbereitungsmethoden (Image pre-processing, …)
  2. Lösbarkeit der Problemstellung mit dem gewählten Ansatz erforscht
Stichpunkte

Fehlererkennung

Bildklassifikation

Supervised Learning

Image pre-processing

Ansprechpartner

Hakan Köse, M. Eng.

E-Mail: koese@fh-aachen.de

Quelle der Abbildung: www.gkd-group.com

Im Rahmen eines Forschungsprojektes werden Feinstaub- und CO2-Messwerte an verschiedenen Positionen eines Raumes aufgenommen. Dazu werden Feinstäube gezielt freigesetzt und die lokale Feinstaubkonzentration gemessen. Die aufgenommenen Daten ergeben dann eine zeitlich aufgelöste, lokale Konzentration verschiedener Partikelgrößen.

Die Arbeit soll ein Konzept erstellen, wie diese Daten in Virtual Reality visualisiert werden können. Dazu muss die Arbeit sowohl die räumliche als auch die zeitliche Dimension der Daten in Betracht ziehen. Dazu sind neben der lokalen Visualisierung am Ort der Datenaufnahme – in Bezug auf die in VR darzustellende Raumgeometrie – auch die dynamischen Zusammenhänge zwischen den Aufnahmepunkten zu beachten. Die Arbeit soll die Veränderung der lokalen Partikeldichte, die Partikelgrößen und die ortsabhängige Dynamik (lokale Gradienten vs. globale Gradienten) betrachten.

Ausgangssituation

Im Forschungsprojekt wird mit einem Hersteller von Ringläufer kooperiert, der Tausende von unterschiedlichen Ringläufervarianten herstellt. Bei der Produktion wird oft nicht die volle Kapazität der Maschinen ausgenutzt. Diese Kapazität wird für Vorproduktionen genutzt, um in der Lage zu sein bei Aufträgen direkt aus dem Lager verkaufen zu können und nicht nach einer Bestellung erst mit der Produktion anzufangen.

Die Anzahl der Produkte ist allerdings so hoch, dass nicht alle Produkte auf Lager sein können. Außerdem werden viele Produkte nicht mehr verkauft und andere haben eine hohe Nachfrage. Die Anzahl von schwerverkäuflichen Produkten soll minimiert werden. Um dies zu bewerkstelligen, sollen Verfahren des deep-learning benutzt werden. Ziel ist es eine Empfehlung zu geben, ob ein gegebenes Produkt in einer gegebenen Zeitspanne verkauft werden wird.

Aufgaben
  1. Recherche zu geeigneten Verfahren und Datenaugmentation
  2. Entwicklung des Vorproduktionsempfehlungssystem
  3. Evaluierung verschiedener deep-learning-Verfahren
Gewünschte Ergebnisse
  1. Erkenntnisse zu der Datengrundlage
  2. Vergleich von Modellierungsansätzen
  3. Machbarkeit der Modellierung ausgewertet
Ansprechpartner

Matteo Tschesche, M. Sc.

E-Mail: tschesche@fh-aachen.de

Ausgangssituation

Im Forschungsprojekt wird mit einem Hersteller von Ringläufer kooperiert, der Tausende von unterschiedlichen Ringläufervarianten herstellt. Bei der Produktion wird oft nicht die volle Kapazität der Maschinen ausgenutzt. Diese Kapazität wird für Vorproduktionen genutzt, um in der Lage zu sein bei Aufträgen direkt aus dem Lager verkaufen zu können und nicht nach einer Bestellung erst mit der Produktion anzufangen.

Die Anzahl der Produkte ist allerdings so hoch, dass nicht alle Produkte auf Lager sein können. Außerdem werden viele Produkte nicht mehr verkauft und andere haben eine hohe Nachfrage. Die Anzahl von schwerverkäuflichen Produkten soll minimiert werden. Um dies zu bewerkstelligen, sollen Verfahren der klassischen maschinellen Lernverfahren benutzt werden. Ziel ist es eine Empfehlung zu geben, ob ein gegebenes Produkt in einer gegebenen Zeitspanne verkauft werden wird.

Aufgaben
  1. Recherche zu geeigneten Verfahren und Datenaugmentation
  2. Entwicklung des Vorproduktionsempfehlungssystem
  3. Evaluierung verschiedener klassischer maschinellen Lernverfahren
Gewünschte Ergebnisse
  1. Erkenntnisse zu der Datengrundlage
  2. Vergleich von Modellierungsansätzen
  3. Machbarkeit der Modellierung ausgewertet
Ansprechpartner

Matteo Tschesche, M. Sc.

E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen
Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.

Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren. Aus den hierbei entwickelten Methoden sind Autoencoder eine wichtige Algorithmenklasse, die es
ermöglichen fehlerhafte Produktionen auf ungelabelten Daten zu finden und nicht betroffen sind von der sehr geringen Anzahl an tatsächlichen Fehlproduktionen (ungefähr 5%). Darüber hinaus fungieren Autoencoder als Grundlage für viele weitere Algorithmen.

Im Zuge dieser Arbeit sollen Autoencoder systematisch untersucht werden und Grundlagen dafür geschaffen werden, diese mit anderen Verfahren vergleichen zu können, mit dem Ziel eine Übersicht zu bekommen, wie der manuelle Prüfaufwand reduziert werden kann.
Einfache Pythonkenntnisse wären von Vorteil.

Aufgaben
1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle

2. Gründliche Recherche über konkrete Architekturen von Autoencodern und generellen Neuronalen-Netzwerk-Architekturen und den Möglichkeiten von Vergleichbarkeit. Für die Vergleichbarkeit können zum Beispiel der Aufwand der Hyperparameteroptimierung, Inferenz- und Trainingsgeschwindigkeit, Generalisierung, Flexibilität für unterschiedliche Algorithmen- und Trainingsbedingungen und leistungsbezogene Metriken im Vordergrund stehen.

3. Implementierungen dieser Architekturen in Abhängigkeit von netzwerkspezifischen Parametern.

4. Aufbau, Evaluierung, Visualisierung und Diskussion von Experimenten, die dann auch im Vergleich zu anderen Algorithmen, die zur Verfügung gestellt werden, durchgeführt werden.

Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)

2. Praxisbezogene Betreuung mit best Practices bereitet dich auf konkrete Herausforderung der Industrie und Wirtschaft vor.

3. Inhaltliche Relevanz: Eine solche Arbeit ist bislang noch nicht auf konkreten Industrie Datensätzen erfolgt.

4. Möglichkeit Teil einer großen Veröffentlichung zu werden.

Ansprechpartner
Tobias Arndt 
E-Mail: arndt@fh-aachen.de

Matteo Tscheche
E-Mail: tschesche@fh-aachen.de

Ziel der Arbeit:

Machine Learning Algorithmen besitzen oftmals eine große Anzahl von Parametern und Hyperparametern, die wesentlich die Güte der Prädiktion für verschiedene Anwendungsfälle bestimmen. Eine Optimierung dieser Parameter ist wegen der kombinatorischen Vielfalt sehr zeit- und rechenaufwändig. Die Arbeit verfolgt das Ziel das Training der Machine Learning Algorithmen auf einem Cluster mit GPUs bereit zu stellen.

In einem ersten Schritt ist der Stand der Technik für verteiltes Training von Machine Learning Algorithmen zu untersuchen und die gängigen Verfahren (z.B. Spark und Flink, Frameworks wie tensorflow und pytorch, sowie verteilte Datenstrukturen wie Rapids und Dask) miteinander zu vergleichen. Dabei soll ein besonderes Augenmerk der Nutzung mittels python und der Integration von GPGPUs gelten.

Die Arbeit soll ein Framework entwickeln beim dem mittels pySpark oder ähnlichen Frameworks eine Umgebung geschaffen wird, in der sich leicht solche verteilt lernenden Verfahren einbetten lassen. Das System soll dabei auf Cluster beliebiger Größe (Anzahl Rechenknoten, Anzahl CPU Kerne, GPGPU, Speicher) skalieren. Die Ergebnisse sind als juypter notebooks bereit zu stellen.

Ausgangssituation

Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95 %) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Ziel

Ziel dieser Arbeit ist es zwei generative Neural Network Ansätze auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren. Dabei handelt es sich um Diffusion Modelle und Super-Resolution.

Bei beiden Ansätzen wird das Ursprungsbild verändert und ein Netzwerk trainiert, um das Ursprungsbild möglichst gut aus dem Veränderten zu rekonstruieren. Dabei wird vor allem auf Normaldaten trainiert, um diese gut zu rekonstruieren während abnormale Bilder  möglichst schlecht rekonstruiert werden. Auf Grund der Abweichung zwischen Rekonstruktion und Ursprungsbild wird entschieden, ob es sich um eine Anomalie handelt oder um ein Normalbild.

Diffusion Modelle verändern das Bild indem iterativ noise auf das Bild angewand wird, während bei Super-Resolution das Bild verpixelt wird.

Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.

Aufgaben

  1. Implementierung und Training von Diffusion Models für Anomaly Detection auf unterschiedlichen Datensätzen
  2. Implementierung und Training von Super-Resolution Netzwerken für Anomaly Detection auf unterschiedlichen Datensätzen
  3. Anpassungen/Optimierung der Modelle und Evaluation

Dein Benefit

  1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der   Ausschreibung)
  2. Aktive Forschung: Super-Resolution wurde noch nie für Industrieelle Anomaly Detection benutzt und auch Diffusion Modelle sind noch sehr neu in dem Feld.
  3. Möglichkeit Teil einer Veröffentlichung zu werden.

Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Hintergrund:

MASKOR, ITA und Heimbach kooperieren seit mehreren Jahren im Thema Datenanalyse, Maschinellem Lernen, KI und Visualisierung. Mittels OpenSource Tools sollen in Python Algorithmen der klassischen Bildverarbeitung mit deepLearning Algorithmen zur Erkennung der Verschleißzustände textiler Papiermaschinenspannungen ermittelt werden. Wir wollen gemeinsam mit Dir beispielsweise Methoden zur erkennung von Kanten, Geometrien, Graustufen, Pixelverteilung und vieles mehr einsetzen, um noch mehr Merkmale (Features) zu generieren und diese auszuwerten.

Deine Aufgaben Vorkenntnisse:

Du sollst Alorithmen/Methoden der Bilderarbeitung zur Erkennung recherchieren, bewerten und mittels Python auswerten. Erfordrlich dazu sind Datenanalysen, Methoden zur Bewertung und auswahl von Daten (data underdstanding, feature selection) und einsatz neuronaler Netze (deepLearning). durch diese Arbeit sollst Du bewerten, welche Methoden effizeinter zur Verschleißerkennung geeignet sind. Deine Arbeit hilft uns dabei, dass zukünftige Potential von Bildverarbeitung und deepLearning in unserer Qualitätssicherung zu nutzen. Einfache Vorkenntniss im Einsatz von Python wären von Vorteil.

Dein Nutzen:

Du wirst in ein Team aus Forschung, Qualität integriert. Du bekommst einen Einblick in textile Papiermaschinenbespannungen (12 m breit, 30 m lang), deren Produktion, deren Einsatz in der Papierherstellung (120 km/h) sowie Methoden des maschinellen Lernes und der KI. Ein großer Teil deiner Aktivitäten kann von zu hause aus erfolgen. Wir sind in digitaler, interdisziplinärer Teamarbeit fit.

 Ansprechpartner:

Heimbach: Kai Klopp

MASKOR: Tobias Arndt

ITA: Rosario Othen

Ansprechpartner:

www.heimbach.com

www.maskor.fh- aachen.de

www.ita.rwth- aachen.de

Aufbau eines KI- basierten Assistenzsystems inn der Instandhaltung

Hintergrund:

MASKOR, ITA und Heimbach kooperieren seit mehreren Jahren im Thema Datenanalyse, Maschinellem Lernen, KI und Visualisierung. Mittels OpenSource Tools sollen in Python Algorithmen zum Aufbau eines Assistenzsystems erarbeitet werden. Wir haben bereits Erfahrungen mit einem System in der Produktion machen können. Die zu verarbeitenden Daten unterscheiden sich aber Umfang und Information sehr, so dass andere Algorithmen eingesetzt werden müssen.

Deine Aufgaben und Vorkenntnisse:

Du sollst Algorithmen/Methoden der Sprachverarbeitung,- aufbereitung und des Clustering recherchieren, bewerten und mittels Python auswerten. Erforderlich dazu sind Datenanalysen, Bewertung und Auswahl von Daten (data underdstanding, feature selection) und Einsatz neuronaler Netze (deepLearning). Durch diese Arbeit sollst Du bewerten, welche Methoden für ein Assistenzsystem geeignet sind. Deine Arbeit hilft uns dabei, einen Demonstrator für die Empfehlungen von Lösungsalternativen für Instandhaltungsprobleme zu haben.

Einfache Vorkenntnisse im Einsatz von Python wären von Vorteil.

Dein Nutzen:

Du wirst in ein Team aus Forschung, Instandhaltung und IT integriert. Du bekommst einen Einblick in textile Papiermaschinen- bespannungen (12 m breit, 30 m lang), deren Produktion, deren Einsatz in der Papierherstellung (120 km/h) sowie Methoden des maschinellen Lernes und der KI – insbesondere Natural Language Processing. Ein großer Teil deiner Aktivitäten kann von zu hause aus erfolgen. Wir sind in digitaler, interdisziplinärer Teamarbeit fit.

 Ansprechpartner:

Heimbach: Kai Klopp

MASKOR: Tobias Arndt

ITA: Rosario Othen

 Ansprechpartner:

www.heimbach.com

www.maskor.fh- aachen.de

www.ita.rwth- aachen.de

Ausgangssituation

Im Forschungsprojekt wird mit einem Hersteller von Medizintextilien kooperiert, der über einen digitalisierten Produktionsprozess verfügt.  Dieser Prozess besteht aus einer Vielzahl von Maschinenparametern/Einflussfaktoren, die erfasst werden. Beim Produzieren müssen Zielgrößen aus der Textiltechnik eingehalten werden. 

Das Herstellen vom Zusammenhang zwischen den Einflussfaktoren und den Zielgrößen/Qualitätskriterien soll durch ML Verfahren erreicht werden. Dafür soll die bestehende Datengrundlage mit einem der bekannten Vorgehensmodelle für datengetriebene Projekte untersucht werden. Außerdem soll ein Prognosemodell am Ende entstehen, womit die Auswirkung von unterschiedlich eingestellten Einflussfaktoren untersucht werden können.

Aufgaben
  1. Aufarbeitung der bestehenden Datengrundlage mittels bekannte Vorgehensmodelle
  2. Evaluierung der Modellierungsansätze für die Prognose
Gewünschte Ergebnisse
  1. Erkenntnisse zu der Datengrundlage
  2. Vergleich von Modellierungsansätzen
  3. Machbarkeit der Modellierung ausgewertet
Stichpunkte

Prognosemodell

Industrie 4.0

Maschinelles Lernen

Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die
derzeit durch manuelle Kontrollen erfüllt werden.

Der Unternehmenspartner produziert nahezu (ungefähr 95%) fehlerfrei, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Ziel
Ziel dieser Arbeit ist es den generative Neural Network Ansätze Super-Resolution (SR) auf industriellen Datensätzen (unter anderem Daten der beschriebenen Firma) zu evaluieren.
Dabei soll der Einsatz von Transformer-Netzwerken gegenüber üblichen Netzwerken wie UNet gegeneinander evaluiert werden. Des Weiteren sollen iterative Verfahren zur Lösung evaluiert werden.

Für SR wird das Ursprungsbild auf weniger Pixel reduziert und ein Netzwerk trainiert, um das Ursprungsbild möglichst gut aus dem Veränderten zu rekonstruieren. Dabei wird vor allem auf Normaldaten trainiert, um diese gut zu rekonstruieren während abnormale Bilder
möglichst schlecht rekonstruiert werden. Auf Grund der Abweichung zwischen Rekonstruktion und Ursprungsbild wird entschieden, ob es sich um eine Anomalie handelt oder um ein Normalbild.

Visual Transformer sind sowohl für SR als auch für Anomaly Detection state-of-the-art und bieten somit ein hohes Potential. Allerdings wurden sie noch nie in der Art kombiniert eingesetzt.
Iterative Ansätze wurden bereits für SR evaluiert und sorgten für eine signifikante Verbesserung der Ergebnisse.für
Pythonkenntnisse (insbesondere Pytorch) sind von Vorteil.

Aufgaben
1. Implementierung und Training von mehreren Super-Resolution Netzwerken für Anomaly Detection auf unterschiedlichen Datensätzen:

1. U-Net-like Baseline für SR in einem Schritt
2. U-Net-like Baseline für iterativen SR Ansatz
3. Transformer-basiertes SR Netzwerk
4. Iteratives Transformer-basiertes SR Netzwerk

2. Anpassungen/Optimierung der Modelle und Evaluation

 

Dein Benefit

1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der Ausschreibung)
2. Aktive Forschung: SR wurde noch nie für Industrieelle Anomaly Detection benutzt und auch Transformer sowie iterative SR Verfahren sind sehr neu.
3. Möglichkeit Teil einer Veröffentlichung zu werden.

 

Ansprechpartner
Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Ausgangssituation
Der Unternehmenspartner stellt Filter für die Automobilindustrie her, die zu sicherheitskritischen Bauteilen gehören. Daraus leiten sich hohe Qualitätsansprüche ab, die derzeit durch manuelle Kontrollen erfüllt werden. Es können verschiedene Fehlerklassen auftreten, die es zu prüfen gilt.

Hierbei ist es besonders wichtig zu beachten, dass der Unternehmenspartner in einem hohen Maß (ungefähr 95%) fehlerfrei produziert, sodass sehr viele Datenpunkte zu korrekt produzierten Bauteilen vorliegen.

Methoden des maschinellen Lernens und der künstlichen Intelligenz stellen vielversprechende Ansätze dar, die nachhaltig dabei helfen können, den manuellen Prüfaufwand zu reduzieren.

Diese Methoden sind in der Regel abhängig von einer hohen Anzahl und von einer hohen Varianz der Datenpunkte, da erst so gewährleistet werden kann, dass die Generalisierung evaluiert und die Algorithmen den tatsächlichen Anwendungsfall lernen.

Aufgrund der hohen Qualität in der Produktion des Unternehmenspartners ist insbesondere der Punkt der Varianz nicht gegeben. Sehr viele Datenpunkte sind fast identisch, sodass für ein Neutraining und eine konstante Evaluierung davon auszugehen ist, dass viele Datenpunkte redundant
sind.

Dieser Aspekt ist herausfordernd, da es aus wirtschaftlichen Gesichtspunkten zu Problemen führen kann, weil eigentlich bekannte Datenpunkte händisch gelabelt werden müssen und uninteressante Datenpunkte das Training in die Länge ziehen, was jeweils mit Kosten verbunden ist.

Algorithmen, die Lösungsansätze für diese Herausforderungen anbieten, lassen sich unter dem Namen Active Learning zusammenfassen.

Ziel dieser Arbeit ist relevante Verfahren dieser Klasse miteinander zu vergleichen und systematisch zu erfassen, mit der Absicht die Trainings- als auch die Labelinglast zu reduzieren bei gleichbleibender Leistung von von uns vorgegebenen Anomalieerkennungsverfahren.

Einfache Pythonkenntnisse wären von Vorteil.

Aufgaben
1. Aufarbeitung der bestehenden Datengrundlage mittels bekannter Vorgehensmodelle

2. Gründliche Recherche über theoretische Grundlagen, daraus abgeleiteten Verfahren des aktiven Lernens und Spezifika in Bezug auf Deep Learning.

3. Entwickeln einer Baseline (z.B. randomiserte Auswahl von Datenpunkten) und festlegen von Gütekriterien. Für die Vergleichbarkeit können zum Beispiel der Aufwand der
Hyperparameteroptimierung, Inferenz- und Trainingsgeschwindigkeit, Generalisierung,
Flexibilität für unterschiedliche Algorithmen- und Trainingsbedingungen und leistungsbezogene Metriken im Vordergrund stehen.

4. Implementierungen dieser Algorithmen in Abhängigkeit von methodenspezifischen Parametern.

5. Aufbau, Evaluierung, Visualisierung und Diskussion von Experimenten, die dann auch im Vergleich zu anderen Algorithmen, die zur Verfügung gestellt werden, durchgeführt werden.

Dein Benefit
1. Lernen von immer wichtiger werdenden Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)

2. Praxisbezogene Betreuung mit best Practices bereitet dich auf konkrete Herausforderung der Industrie und Wirtschaft vor.

3. Inhaltliche Relevanz: Eine solche Arbeit ist bislang noch nicht auf konkreten Industrie Datensätzen erfolgt.

4. Möglichkeit Teil einer großen Veröffentlichung zu werden.

Ansprechpartner
Tobias Arndt
E-Mail: arndt@fh-aachen.de

Matteo Tschesche
E-Mail: tschesche@fh-aachen.de

Externe Abschlussarbeiten und Ausschreibungen

Bei Interesse wenden Sie sich bitte an Herrn Professor Elsen, welcher den Kontakt zu den jeweiligen Unternehmen herstellen wird.

Externe Abschlussarbeiten

Externe Ausschreibung

Ausgangssituation:

CanControls ist ein innovatives Software-Unternehmen mit Schwerpunkten im Bereich der Echtzeit-Bildverarbeitung, Computer Vision und videobasierten Szenenanalyse.
Von uns entwickelte Technologien kommen in der der Automobilindustrie, der Luft- und Raumfahrt, der Medizintechnik, dem Straßenwesen und der Unterhaltungselektronik zum Einsatz.

Digitale Zwillinge unserer Systeme erlauben es, die Bildgebung/Bildverarbeitung in existierenden Anwendungen zu optimieren, sowie neue Anwendungsfelder digital zu bewerten.
Dafür ist eine möglichst realitiätsnahe Bildsynthese essentiell.
Moderne Methoden der generativen künstlichen Intelligenz stellen hierfür einen vielversprechenden Ansatz dar.

Deine Aufgaben und Vorkenntnisse:

Moderne Verfahren der Bildsynthese berücksichtigen ausschließlich den sichtbaren Wellenlängenbereich in Form von RGB-Bildern.
Ziel dieser Arbeit ist es auf Stable Diffusion basierende Bildsynthese für RGB auf den nicht sichtbaren Wellenlängenbereich zu übertragen.

1. Einarbeitung in Stable Diffusion
2. Recherche gängiger Methoden der „Personalisierung“ etablierter text-to-image Modelle (Textual Inversion, DreamBooth, LoRa, HyperNetworks, etc.)
3. Bewertung dieser Methoden im Kontext unserer proprietären Bilddaten

Vorkenntnisse in Python sowie in gängigen Deep-Learning Bibliotheken (TensorFlow/PyTorch) sind wünschenswert.
Fließendes Englisch in Wort und Schrift ist erforderlich.

Deine Benefits:

1. Du wirst Teil eines internationalen Teams mit Sitz im Zentrum von Aachen
2. Lernen von State-of-the-Art Technologien, in einem Umfeld ohne technische Limitierungen. (Arbeit auf Cluster mit den leistungsfähigsten Grafikkarten zur Zeit der
Ausschreibung)
3. Persönliche Betreuung während des Praktikums.
4. Möglichkeit Teil einer Veröffentlichung auf einer Top-Konferenz zu werden (CVPR, ICCV, ECCV, NeurIPS ).

Ansprechpartner:

luttermann@cancontrols.com
Dr. Tarek Luttermann

Informationen zum Unternehmen:

Die SBS Ecoclean Gruppe entwickelt, produziert und vertreibt zukunftsorientierte Anlagen, Systeme und Services für die industrielle Teilereinigung und Entfettung, Ultraschall Feinstreinigung, Hochdruck Wasserstrahlentgraten sowie für die Oberflächenvorbereitung und -behandlung.

Unsere Kunden kommen aus unterschiedlichsten Branchen der Bauteil- und Präzisionsfertigung – wie z.B. Luft- und Raumfahrt, Medizintechnik, Automobil- und Zuliefer-, Hightech-, Halbleiter- und Hochvakuumindustrie, Präzisionsoptik, Mikro- und Feinwerk-, sowie Verbindungstechnik und die Uhren- & Schmuck-Industrie.

Ein weiterer Tätigkeitsbereich ist die Entwicklung und Produktion von alkalischen Elektrolysesystemen für die Erzeugung von grünem Wasserstoff. Als globaler Systemintegrator bieten wir Industrie, Mobilität und Kommunen eine alternative Energiequelle und unterstützen sie so auf dem Weg in eine nachhaltige Zukunft.

Übersicht:

Im Zuge des PerformanceLine-Projektes soll die Optimierung eines neuen Korbs mit zugeordnetem Rezept und flexiblen Prozesszeiten vorangetrieben werden. Dabei stehen die Implementierung einer Online-Prozesszeitveränderung und die Gestaltung eines Portals mit Be-/Entlade-Sequenzen im Fokus.

Recommender System für Produktionssteuerung:

Bachelor- / Masterarbeit:

  • Vorschlag für den Bediener für das nächste zeiteffektivste Rezept / Werkstück => Max. Durchsatz

Masterarbeit:

  • Generieren der Fahrbefehle für das Portal unter Einhaltung der festen Prozesszeiten bzw. im zeitlichen Rahmen der flexiblen Prozesszeiten unter in der Maschine befindlichen Körbe / Rezepte
  • Maximieren des Durchsatzes unter Berücksichtigung der realen Beladung mit Losgröße „1“.

Ansprechpartner:

Ecoclean GmbH
Rüdiger Fritzen

E-Mail: ruediger.fritzen@ecoclean-group.net
Telefon: +49 2472 83-243
www.ecoclean-group.net

Informationen zum Unternehmen:

Die SBS Ecoclean Gruppe entwickelt, produziert und vertreibt zukunftsorientierte Anlagen, Systeme und Services für die industrielle Teilereinigung und Entfettung, Ultraschall Feinstreinigung, Hochdruck Wasserstrahlentgraten sowie für die Oberflächenvorbereitung und -behandlung.

Unsere Kunden kommen aus unterschiedlichsten Branchen der Bauteil- und Präzisionsfertigung – wie z.B. Luft- und Raumfahrt, Medizintechnik, Automobil- und Zuliefer-, Hightech-, Halbleiter- und Hochvakuumindustrie, Präzisionsoptik, Mikro- und Feinwerk-, sowie Verbindungstechnik und die Uhren- & Schmuck-Industrie.

Ein weiterer Tätigkeitsbereich ist die Entwicklung und Produktion von alkalischen Elektrolysesystemen für die Erzeugung von grünem Wasserstoff. Als globaler Systemintegrator bieten wir Industrie, Mobilität und Kommunen eine alternative Energiequelle und unterstützen sie so auf dem Weg in eine nachhaltige Zukunft.

Übersicht:

Im Zuge des PerformanceLine-Projektes soll die Optimierung eines neuen Korbs mit zugeordnetem Rezept und flexiblen Prozesszeiten vorangetrieben werden. Dabei stehen die Implementierung einer Online-Prozesszeitveränderung und die Gestaltung eines Portals mit Be-/Entlade-Sequenzen im Fokus.

KI-Planungssystem für optimale Prozessdurchführung:

Bachelor- / Masterarbeit Maschinenkonfigurationstool:

  • Anhand der definierten Taktzeitvorgaben / Durchsatzmenge, Rezepten, Stückzahlen und der Beladereihenfolge
    • Bestimmung der Anzahl der Portale zur Erreichung der Vorgaben
    • Bestimmung der Anzahl der notwendigen Mehrfach-Prozessstationen zur Erreichung der Vorgaben

Ansprechpartner:

Ecoclean GmbH
Rüdiger Fritzen

E-Mail: ruediger.fritzen@ecoclean-group.net
Telefon: +49 2472 83-243
www.ecoclean-group.net

Abgeschlossene Abschlussarbeiten

PrüferAbschlussDatumNameThema
Ingo ElsenBachelor28.02.2019Fabian RübEntwicklung eines Verfahrens zur kamerabasierten Blickrichtungserkennung
Ingo ElsenMaster27.03.2019Manuel BareissBildbasierte Erkennung von Maschinenteilen im ein- und ausgebauten Zustand mittels Verfahren des maschinellen Lernens
Ingo ElsenMaster26.04.2019Matthias HeinemannErstellung eines technischen Konzepts für eine Plattform zur unternehmensübergreifenden Disposition
Ingo ElsenMaster30.01.2020Horst Sebastian Perry HerzogEntwurf und Realisierung eines adaptiven Fütterungssystems für Aquaponikanlagen
Ingo ElsenBachelor27.02.2020Maik WydraEinsatz von Prozcess Mining zur Optimierung des Softewaresupportprozesses
Ingo ElsenBachelor12.03.2020Dmitrii AnisovichAnalyse eines Datensatzes von Lokomotiven
Ingo ElsenBachelor13.03.2020Alexander-Wilhelm WiensEntwicklung von Datenanalysen und Prognosemodellen für erneuerbare Energien in Deutschland
Ingo ElsenBachelor03.04.2020Florian Lange Intelligente Initialisierung von Smart Building Optimierungsalgorithmen
Ingo ElsenMaster20.05.2020Alexandre Charoy Entwicklung eines Digital Shadow im Materialmanagement zur Korrelation von Material- und Prozessdaten
Ingo ElsenBachelor09.06.2020Christopher KremkowUntersuchung zur Blickrichtungserkennung mit künstlichen Neuronalen Netzen
Ingo ElsenMaster17.06.2020Nils Schlicher Vergleich von Datenbanken für einen Hadoop-Cluster
Ingo ElsenBachelor21.07.2020Katrin Hammacher Absatzprognose neuer Produkte im Einzelhandel basierend auf homogenen Abverkaufsgruppen mithilfe von Methoden des maschinellen Lernens
Ingo ElsenBachelor24.07.2020Sarah Beschorner Automated Hyperparameter Tuning of Language Based Anomaly Detection for Log files
Ingo ElsenMaster08.07.2020Dustin Hellmann Verarbeitung und Analyse von SCADA-Prozessdaten mit Werkzeugen der Big Data Analysis
Ingo ElsenBachelor27.08.2020Simon WestfechtelErzeugung eines künstlichen Datensatzes zur Bremsprognose von Güterzügen und Validierung der Big Data Verarbeitung
Ingo ElsenBachelor28.08.2020Oskar Galla Erkennung von technischen Ausfällen bei Triebwagen mittels Anomalieerkennung
Ingo ElsenBachelor28.08.2020Patrick Reckeweg Untersuchung der Effizienz und Effektivität der AVOD Architektur bei der Objektlokalisierung in LiDAR und Kamera Daten
Ingo ElsenMaster11.09.2020Lennart Stich Vergleich von cloud-basierten Container- und Virtualisierungstechnologien im Kontext von Kubernetes
Ingo ElsenBachelor03.11.2020Lukas Weller Anwendung und Vergleich verschiedender Machine-Learning-Verfahren zur Vorhersage von Passagierzahlen
Ingo ElsenMaster06.11.2020Daniel Moritz Konzeption und Umsetzung eines hyper-konvergenten Kubernetes Cluster im Unternehmensfeld als Edge Computing Ansatz
Ingo ElsenBachelor04.03.2021Arne Steen Creation and Validation of an Artificial Dataset for 3d Object Classification
Ingo ElsenBachelor06.04.2021Alexander Olear Development of a low power sensor module with an esp32 microcontroller
Ingo ElsenBachelor28.04.2021Thomas Sommer Implementierung von Selbstorganisierenden Merkmalskarten und Radialen Basisfunktionsnetzen in Python
Ingo ElsenMaster29.07.2021Björn Kops Konzept und Entwicklung einer KI-basierten Lösung zur Analyse der Datenqualität von Produktionsdaten
Ingo ElsenBachelor17.08.2021Sachar Matkovskiy Automatic Detection of Deliberate Speed Changes after Cleared Flight Level
Ingo ElsenBachelor18.08.2021Björn Kohlen Entwurf und Implementierung eines Web-Frontends zur Abfrage und Visualisierung von Umweltsensordaten
Ingo ElsenMaster14.09.2021Carlo Nießen Analyse und Optimierung eines Software-Release-Cycle mit Focus auf Risikominimierung
Ingo ElsenMaster14.09.2021Carlo Nießen Entwicklung einer Datenpipeline zur Speicherung und Aufbereitung von Sensordaten
Ingo ElsenBachelor20.01.2022Max Conzen Anwesenheitsprognose mittels Umweltsensordaten für die Gebäudeautomatisierung
Ingo ElsenMaster27.01.2022Marin Jukic Automatisierte Themenbestimmung von Textdaten durch Machine Learning und Deep Learning Methoden mithilfe der Evidenztheorie
Ingo ElsenBachelor02.02.2022Robin Mai Improving data consistency in the ingestion process of a denormalized Cloud Data Warehouse
Ingo ElsenMaster07.02.2022Florian Lange Modellfreies Reinforcement Learning für die intelligente Gebäudesteuerung
Ingo ElsenMaster16.03.2022Mirko Reimbold Anforderungen an mandantenfähige Cluster und der aktuelle Stand in Kubernetes
Ingo ElsenBachelor25.04.2022Josres Arnol Ngompe Fotie Erweiterung der bestehenden iOS-App des digitalen Shopfloor-Management-Systems LISA ( Learn Industrial Solutions Applications)
Ingo ElsenBachelor02.06.2022Tobias Arndt Vergleich von Verfahren des Maschinellen Lernens zur Klassifikation von Baudetails aus Konstruktionszeichnungen
Ingo ElsenBachelor01.08.2022Casimir Giesler Datengetriebene Auslastungsprognose für öffentliche Verkehrsinfrastruktur am Beispiel von Parkhäusern
Ingo ElsenBachelor18.04.2022Nico HeijnkGenerieren von Vorschlägen für Merkmalswerte in einer Werkzeugdatenbank durch maschinelles Lernen
Ingo ElsenBachelor12.06.2022Philipp HünnerscheidtAufbau einer Datenpipeline zur Erzeugung von 3D Ansichten aus CAD Daten
Ingo ElsenBachelor05.05.2022Alexander LoosenPrognose der Anwesenheit von Personen für die Gebäudeautomatisierung mittels Umweltsensordaten
Ingo ElsenBachelor10.04.2022Timo Schloemer Prognose der Restlebensdauer von Kolbenkompressorventilen mittels Methoden des Maschinellen Lernens
Ingo ElsenBachelor09.05.2022Julian Schultheiß Performanceuntersuchung des Cloud-Deployments einer IoT-Plattform zur automatisierten Qualit¨atsprognose von zerspanten Bauteilen
Ingo ElsenBachelor30.09.2022Daniel Sept Entwicklung und Implementierung einer MQTT Testumgebung mit verschiedenen Clients
Ingo ElsenMaster07.10.2022 Maik Wydra Entwicklung eines Recommender Systems auf Basis von Bewertungen deutscher IT Unternehmen
Ingo ElsenFB1030.01.2023Markus Klein Recommender Systems for Research Data Management
Ingo ElsenBachelor17.04.2023 Jens Peter Dennigmann Vergleich von Tiefen Neuronalen Netzen zur Erkennung von 3D Maschinenteilen
Ingo ElsenMaster15.05.2023 Hanna Babilon Comparison of Neural Network Topologies for 3D Recognition of Machine Parts
Ingo ElsenETP22.08.2023 Yannic Schlosser Deep Learning-Based Visual Quality Inspection in Vertical Farming Systems
Ingo ElsenMaster29.08.2023 Luca Bonn Patch-based Feature Extraction for High-Resolution Image Anomaly Detection
Ingo ElsenBachelor06.09.2023 Marc Schwägerl Methoden zur Überführung von Produktbezeichnungen in standardisierte Benennungssysteme