Refine
Document Type
- Master's Thesis (6)
Has Fulltext
- yes (6) (remove)
Is part of the Bibliography
- no (6)
Keywords
- Machine learning (6) (remove)
This thesis evaluates the feasibility of conducting visual inspection tests on power industry constructions using object detection techniques. The introduction provides an overview of this field’s state-of-the-art technologies and approaches. For the implementation, a case study is then conducted, which is done in collaboration with the partner company OMICRON Electronics GmbH, focusing on power transformers as an example. The objective is to develop an inspection test using photographs to identify power transformers and their subcomponents and detect existing rust spots and oil leaks within these components. Three object detection models are trained: one for power transformers and sub-components, one for rust detection, and one for oil leak detection. The training process utilizes the implementation of the YOLOv5 algorithm on a Linux-based workstation with an NVIDIA Quadro RTX 4000 GPU. The power transformer model is trained on a dataset provided by the partner company, while open-source datasets are used for rust and oil leak detection. The study highlights the need for a more powerful GPU to enhance training experiments and utilizes an Azure DevOps Pipeline to optimize the workflow. The performance of the power transformer detection model is satisfactory but influenced by image angles and an imbalance of certain sub-components in the dataset. Multi-angle video footage is a proposed solution for the inspection test to address this limitation and increase the size of the dataset, focusing on reducing the imbalance. The models trained on open-source datasets demonstrate the potential for rust and oil leak detection but lack accuracy due to their generic nature. Therefore, the datasets must be adjusted with case-specific data to achieve the desired accuracy for reliable visual inspection tests. The results of the case study have been well-received by the partner company’s management, indicating future development opportunities. This case study will likely be a foundation for implementing visual inspection tests as a product.
The purpose of an energy model is to predict the energy consumption of a real system and to use this information to address challenges such as rising energy costs, emission reduction or variable energy availability. Industrial robots account for an important share of electrical energy consumption in production, which makes the creating of energy models for industrial robots desirable. Currently, energy modeling methods for industrial robots are often based on physical modeling methods. However, due to the increased availability of data and improved computing capabilities, data-driven modeling methods are also increasingly used in areas such as modeling and system identification of dynamic systems. This work investigates the use of current data-driven modeling methods for the creation of energy models focusing on the energy consumption of industrial robots.
For this purpose, a robotic system is excited with various trajectories to obtain meaningful data about the system behavior. This data is used to train different artificial neural network (ANN) structures, where the structures used can be categorized into (i) Long Short Term Memory Neural Network (LSTM) with manual feature engineering, where meaningful features are extracted using deeper insights into the system under consideration, and (ii) LSTM with Convolutional layers for automatic feature extraction. The results show that models with automatic feature extraction are competitive with those using manually extracted features. In addition to the performance comparison, the learned filter kernels were further investigated, whereby similarities between the manually and automatically extracted features could be observed. Finally, to determine the usefulness of the derived models, the best-performing model was selected for demonstrating its performance on a real use case.
Die vorliegende Arbeit beschreibt eine Methode zur Prognose von Anomalien in einzelnen Sensordaten für die Anwendung in Expertensystemen im Bereich der Biomassekraftwerke. Die in fünf Schritten beschriebene Methode beinhaltet neben der Datenaufbereitung eine Anomalievorauswahl durch eine unüberwachte Ausreißererkennung, welche mittels des PYOD-Toolkit umgesetzt wurde. Bei der anschließenden Anomaliebestimmung wird der zuvor generierte binäre Zielvektor durch einen mit dem System vertrauten Experten validiert. Eine darauffolgende überwachte binäre Klassifikation mit unbekannten Betriebsdaten ergibt, dass mittel- bis langfristige Anomalien im Mehrstunden- bis Mehrtagesbereich in Form eines Trends reproduktiv vorhergesagt werden können. Kurzfristige Anomalien im Minutenbereich in Form von Extremfällen können hingegen nicht reproduktiv vorhergesagt werden. Eine zusätzliche Untersuchung zur Vorhersage einer Anomalie noch vor deren tatsächlichen Eintrittszeitpunkt brachte keine zufriedenstellenden Ergebnisse. Demnach lässt sich mit dieser Methode nur eine bestimmte Art von Anomalien in Expertensystemen für Biomassekraftwerke vorhersagen. Dazu sollte zudem darauf geachtet werden, dass es trotz positiv erzielter quantitativer Ergebnisse notwendig ist, für die qualitative Prüfung einen mit dem System vertrauten Experten hinzuzuziehen und dass für die zu prognostizierende Anomalie die geeignete Abtastzeit zu wählen ist. Abschließend bleibt zu erwähnen, dass Anomalien, welche nur durch Über- bzw. Unterschreitung eines definierten Grenzwertes gekennzeichnet werden, als zu trivial für diese Methode gelten. Diese können über eine einfache Grenzwertbetrachtung identifiziert werden.
Many test drives are carried out in the automotive environment. During these test drives many signals are recorded. The task of the test engineers is to find certain patterns (e.g. an emergency stop) in these long time series. Finding these interesting patterns is currently done with rule based processing. This procedure is very time consuming and requires a test engineer with expertise. In this thesis it is examined if the emerging field of machine learning can be used to support the engineers in this task. Active Learning, a subarea of machine learning, is used to train a classifier during the labeling process. Thereby it proposes similar windows to the already labeled ones. This saves the annotator time for searching or formulating rules for the problem. A data generator is worked out to replace the missing labeled data for tests. The custom performance measure “proportion of seen samples” is developed to make the success measurable. A modular software architecture is designed. With that, several combinations of Time Series Classification algorithms and query strategies are compared on artificial data. The results are verified on real datasets, which are open source available. The best performing, but computational intensive solution is an adapted RandOm Convolutional KErnel Transform (ROCKET). The custom query strategy “certainty sampling” shows the best results for highly imbalanced datasets.
In dieser Arbeit wird eine Evaluation zwischen verschiedenen implementierten Ansätzen eines Empfehlungssystems auf der Basis eines realen Datensatzes durchgeführt. Der Datensatz beinhaltet das Navigationsverhalten von Besuchern einer Website über Kochrezepte. Während der Vorverarbeitung wird der Datensatz mit zusätzlichen Metainformationen für jedes besuchte Rezept aus dem Content Management System der Webseite angereichert. Die implementierten Empfehlungssysteme verwenden sowohl den Content Based Filtering als auch den Collaborative Filtering Ansatz. Zusätzlich werden beide Ansätze kombiniert und in einem hybriden Empfehlungssystem eingesetzt. Darüber hinaus werden für jede Person im Datensatz zwei individuelle Profile erstellt. Dabei handelt es sich um ein kurzlebiges Session-Profil und ein permanentes Langzeit-Profil. Mit jedem Besuch eines Rezeptes werden beide Profile dynamisch angepasst, so dass sich die individuellen Präferenzen der Personen jederzeit in den Profilen widerspiegeln. Für die Evaluation wird ein eigener Algorithmus angewendet, welcher es erlaubt einen Vergleich zwischen den implementierten Empfehlungssystemen vorzunehmen. Die Besonderheit an dem Evaluationsalgorithmus ist, dass dieser lediglich die besuchten Items und deren Beschreibung für den Vergleich benötigt. Es werden keine expliziten Bewertungen von den Webseitenbesuchern verwendet. In der Arbeit werden die Ergebnisse der unterschiedlichen Ansätze für ein Empfehlungssystem mit dem eigenen Evaluationsalgorithmus diskutiert und die Vor- bzw. Nachteile der jeweiligen Ansätze erläutert. Bei der Analyse stellt sich heraus, dass für den in dieser Arbeit verwendete Datensatz ein hybrides Empfehlungssystem, welches sowohl das Session-Profil als auch das Langzeit-Profil kombiniert, die besten Ergebnisse erzielt. Mit diesem System wird eine Übereinstimmungsgenauigkeit zwischen den vorgeschlagenen Rezepten und den tatsächlich besuchten Rezepten von knapp 36% erreicht. Die beiden Content Based Systeme, welche jeweils entweder das Session-Profil oder das Langzeit-Profil verwenden, erzielen eine Übereinstimmungsgenauigkeit von ca 30% bzw. 20%. Die Algorithmen mit dem Collaborative Filtering Ansatz erreichen bei dem verwendeten Datensatz nur eine Übereinstimmungsgenauigkeit von ca. 15% bzw. 13,5%. Als Referenzmodell wird ein Empfehlungssystem verwendet, das nach dem Zufallsprinzip Rezepte vorschlägt, wodurch eine Übereinstimmungsgenauigkeit von etwa 6% erreicht wird.
Die Entwicklungen im Bereich der Algorithmen, Machine Learning und Künstlicher Intelligenz sind rasant und halten Einzug in immer mehr Bereichen des alltäglichen Lebens, insbesondere in den Unternehmen. Aus diesem Grund wird in dieser Arbeit der Frage nachgegangen, inwiefern dieser Trend Auswirkungen auf die benötigten Management-Kompetenzen hat. Zur Beantwortung dieser Frage wird zuerst die klassische Management-Lehre mit ihren zentralen Begrifflichkeiten und bestehenden Kompetenzmodellen beleuchtet und basierend auf diesen Erkenntnissen ein Analyse-Hilfsmodell entwickelt. Im Anschluss werden die wichtigsten Grundlagen zum Themenkomplex Algorithmus, Machine Learning und Künstliche Intelligenz behandelt und auf dieser Basis benötigte Management-Kompetenzen abgeleitet. Zusätzlich werden aktuelle Studien großer Beratungsunternehmen und Fachartikel analysiert und ebenfalls Kompetenzen für den Einsatz von Machine Learning und Künstlicher Intelligenz identifiziert. Schliesslich wird eine Gap-Analyse durchgeführt mit dem Resultat, dass keine grundsätzlich neuen Kompetenzen notwendig sind, diese jedoch teils erweitert werden müssen und sich deren Wichtigkeit verschiebt.