Informatik
Refine
Document Type
- Master's Thesis (40)
Has Fulltext
- yes (40)
Is part of the Bibliography
- no (40)
Keywords
- Gestenerkennung (2)
- Machine learning (2)
- ROS (2)
- 6-DOF (1)
- ARM (1)
- Actor Model (1)
- Aktorenmodell (1)
- Altersgruppen (1)
- Antragswesen (1)
- Anwendungssteuerung (1)
Debugging errors in software applications can be a major challenge. It is not enough to know that a specific error exists, but the cause of it must be found in order to be able to fix it. Finding the source of an error can be time and cost intensive. The general approach is to analyse and debug the presumably erroneous part of the software. The analysis can be accompanied by instrumentation to gather additional information during the program execution. The analysis is made more difficult by the existence of different errors categories. Each category may need to be handled individually. Especially in embedded software applications, which commonly lack features like process or memory isolation, error detection and prevention can be even more challenging. This is the kind of problem this thesis tackles. This thesis tries to support developers during debugging and troubleshooting. The main focus is on errors related to memory management and concurrency. Specific features and properties of Arm Cortex-M processors are used to try to detect errors as well as their causes. For example, the memory protection unit is used to isolate the stack memories of different tasks running in a RTOS. The thesis tries to provide as much information as possible to the developer when reporting errors of any kind. The solution developed in this thesis also contains a custom memory allocator, which can be used to track down errors related to dynamic memory management. Furthermore, a Eclipse plugin has been developed which provides assertions for array accesses to detect and prevent out-of-bound accesses. The resulting solution has been implemented in commercial embedded software applications. This ensures that the developed solution is not only suitable for newly developed applications, but also for the integration into already existing products.
A concept for a recommender system for the information portal swissmom is designed in this work. The challenges posed by the cold start problem and the pregnancy-related temporal interest changes need to be considered in the concept. A state-of-the-art research on recommender systems is conducted to evaluate suitable models for solving both challenges. The explorative data analysis shows that the article's month of pregnancy is an important indicator of how relevant an article is to a user. Neither collaborative filtering, content-based filtering, hybrid models, nor context-aware recommender systems are applicable because the user's pregnancy phase is unknown in the available data. Therefore, the proposed recommender system concept is a case-based model that recommends articles which belong to the same gestation phase as the currently viewed article.
This recommender system requires that the month of pregnancy, in which an article is relevant, is known for each article. However, this information is only available for 31% of all articles about pregnancy. Consequently, this work looks for an approach to predict the month of gestation based on the article text. The challenges with this are that only few training data are available, and the article texts of the various months of pregnancy often contain the same terms, considering all articles are about pregnancy. A keyword-based approach using the TF-IDF model is compared with a context-based approach using the BERT model. The results show that the context-based approach outperforms the keyword-based approach.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
Das Teach Pendant wird dazu genutzt um Industrierobotern Zielposen beizubringen, damit diese die Zielposen daraufhin autonom anfahren können. Durch den auf dem Teach Pendant zur Eingabe verbauten Joystick oder die 3D-Maus ist es möglich mit geringem Rechenaufwand Bewegungen und somit Zielposen präzise vorzugeben.
Durch den rasanten Anstieg der Rechenkapazität und den stetigen Erfolgen bei der Erforschung von künstlichen neuronalen Netzwerken sind heutzutage Gestenerkennungssysteme in das Blickfeld der Forschung gelangt. Gestenerkennungssysteme versprechen intuitive und leicht zu erlernende Bedienungskonzepte. Durch den Einsatz von Gesten kann zudem auf ein zusätzliches Gerät in den Händen verzichtet werden, wodurch das Nutzererlebnis gesteigert werden kann. Dies kann bei schweren Eingabgeräten nicht nur die Arme sondern auch die Hände vor Ermüdungserscheinungen schonen.
Das Ziel dieser Arbeit soll es daher darstellen, ein Gestenerkennungssystem mit und ohne ROS-Anbindung zu erstellen, testen und analysieren. Die Gesteninformationen werden von einer Tiefenkamera vom Typ Azure Kinect bereitgestellt. Als Industrieroboter wird hierbei der "WidowX 200"-Lernroboter eingesetzt, da dieser aufgrund seiner kleinen Bauform einfach und effizient zum Testen von neuen Funktionalitäten eingesetzt werden kann. Die Tiefenkamera- und Roboter-Komponente sollen austauschbar bleiben. Die zu entwickelnden Gesten sollen vor allem hohe Ergonomie bereitstellen und vor unbeabsichtigter Durchführung gesichert sein. Die Genauigkeit der Gestenerkennung wird analysiert, um die Zuverlässigkeit der ausgewählten Gesten zu evaluieren. Die Genauigkeit der erreichten Zielposen des "WidowX 200"-Lernroboters wird analysiert und Latenztests werden durchgeführt um das Gestensystem als Gesamtes bewerten zu können.
Zeros can cause many issues in data analysis and dealing with them requires specialized procedures. We differentiate between rounded zeros, structural zeros and missing values. Rounded zeros occur when the true value of a variable is hidden because of a detection limit in whatever mechanism was used to acquire the data. Structural zeros are values which are truly zero, often coming about due to a hidden mechanism separate from the one which generates values greater than 0. Missing values are values that are completely missing for unknown or known reasons. This thesis outlines various methods for dealing with different kinds of zeros in different contexts. Many of these methods are very specific in their ideal usecase. They are separated based on which kind of zero they are intended for and if they are better suited for compositional or for standard data.
For rounded zeros we impute the zeros with an estimated value below the detection limit. The author describes multiplicative replacement, a simple procedure that imputes values at a fixed fraction of the detection limit. As a more advanced technique, the author describes Kaplan Meier smoothing spline replacement, which interpolates a spline on a Kaplan Meier curve and uses the spline below the detection limit to impute values in a more natural distribution. Rounded zeros cannot be imputed with the same techniques that would be used for regular missing values, since there is more information available on the true value of a rounded zero than there would be for a regular missing value.
Structural zeros cannot be imputed since they are a true zero. Imputing them would falsify their values and produce a value where there should be none. Because of this, we apply modelling techniques that can work around structural zeros and incorporate them. For standard data, the zero inflated Poisson model is presented. This model utilizes a mixture of a logistic and a Poisson distribution to accurately model data with a large amount of structural zeros. While the Poisson distribution is only applicable to count data, the zero inflation concept can be applied to different kinds of distributions. For compositional data, the zero adjusted Dirichlet model is introduced. This model mixes Dirichlet distributions for every pattern of zeros found within the data. Non-algorithmic techniques to reduce the amount of structural zeros present are also shown. These techniques being amalgamation, which combines columns with structural zeros into more broad descriptors and classification, which changes columns into categorical values based on a structural zero being present or not.
Missing values are values that are completely missing for various known or unknown reasons. Different imputation techniques are introduced. For standard data, MissForest imputation is introduced, which utilizes a RandomForest regression to impute mixed type missing values. Another imputation technique shown utilizes both a genetic algorithm and a neural network to impute values based on the genetic algorithm minimizing the error of an autoencoder neural network. In the case of compositional data, knn imputation is presented, which utilizes the knn concept also found in knn clustering to impute the values based on the closest samples with a value available.
All of these methods are explained and demonstrated to give readers a guide to finding the suitable methods to use in different scenarios.
The thesis also provides a general guide on dealing with zeros in data, with decision flowcharts and more detailed descriptions for both compositional and standard data being presented. General tips on getting better results when zeros are involved are also given and explained. This general guide was then applied to a dataset to show it in action.
This thesis aims to support the product development process. Therefore, an approach is developed, implemented as a prototype and evaluated, for automated solution space exploration of formally predefined design automation tasks holding the product knowledge of engineers. For this reason, a classification of product development tasks related to the representation of the mathematical model is evaluated based on the parameters defined in this thesis. In a second step, the mathematical model should be solved. A Solver is identified able to handle the given problem class.
Due to the context of this work, System Modelling Language (SysML) is chosen for the product knowledge formalisation. In the next step the given SysML model has to be translated into an object-oriented model. This translation is implemented by extracting information of a ".xml"-file using the XML Metadata Interchanging (XMI) standard. The information contained in the file is structured using the Unified Modelling Language (UML) profile for SysML. Afterwards a mathematical model in MiniZinc language is generated. MiniZinc is a mathematical modelling language interpretable by many different Solvers. The generated mathematical model is classified related to the Variable Type and Linearity of the Constraints and Objective of the generated mathematical model. The output is stored in a ".txt"-file.
To evaluate the functionality of the prototype, time consumption of the different performed procedures is measured. This data shows that models containing Continuous Variables need a longer time to be classified and optimised. Another observation shows that the transformation into an object-oriented model and the translation of this model into a mathematical representation are dependent on the number of SysML model elements. Using MiniZinc resulted in the restriction that models which use non-linear functions and Boolean Expressions cannot be solved. This is because the implementation of non-linear Solvers at MiniZinc is still in the development phase. An investigation of the optimally of the results, provided by the Solvers, was left for further work.
Diese Arbeit untersucht ARM und DSP Multiprozessor Ein-Chip-Systeme von Analog Devices hinsichtlich deren Programmierung, Fähigkeiten und Limitierungen. Durch die Integrierung von unterschiedlichen Hardware-Beschleunigern und Prozessoren in Ein-Chip-Systeme wird echte Nebenläufigkeit ermöglicht. Allerdings wird durch die Integrierung mehrerer Prozessoren die Komplexität der Programmierung von Ein-Chip-Systemen erhöht. Im Zuge dieser Arbeit wird untersucht, was bei der Programmierung von ARM und DSP Ein-Chip-Systemen hinsichtlich der heterogenen Prozessoren und Peripheriebausteinen beachtet werden muss. Dabei werden zuerst die Gründe für heterogenes Rechnen und die Trendwende zu Multiprozessorsystemen erläutert. Anschließend wird der aktuelle Stand der Technik erarbeitet und Programmiermodelle beschrieben, die das Programmieren von heterogenen Multiprozessorsystemen vereinfachen. Überdies werden zwei Fallbeispiele gewählt, mit denen bedeutsame Eigenheiten der Programmierung eines Ein-Chip-Systems erarbeitet werden. Im ersten Fallbeispiel werden anhand der UART-Peripherie Erkenntnisse des Ein-ChipSystems dargelegt, die praktische Auswirkungen auf die Verwendung des Systems haben. Im zweiten Fallbeispiel wird bei der Berechnung der schnellen Fourier Transformation das heterogene System auf dessen Rechenleistung untersucht. Dabei wird die Performanz des Hardware-Beschleunigers gegenüber unterschiedlichen Software-Bibliotheken verglichen und die verschiedenartigen Implementierungen analysiert. Zudem werden durch die Performanzanalyse die Einflüsse der Speicherhierachie des Ein-Chip-Systems ermittelt. Weiterhin wird gezeigt, dass sich die Bibliotheken von Analog Devices in deren Anwendung und Performanz voneinander unterscheiden. Außerdem wird veranschaulicht, dass je nach Anwendungsfall eine nicht für DSPs ausgelegte quelloffene Implementierung konkurrenzfähig zu den optimierten Bibliotheken von Analog Devices und dem Hardware-Beschleuniger ist. Zudem wird durch die Analyse der Mehraufwand ermittelt, der für die Konfiguration des Hardware-Beschleunigers aufgebracht werden muss. Dabei wird gezeigt, dass die Verwendung des Hardware-Beschleunigers erst ab einer bestimmten Anzahl an Abtastwerten rentabel ist. Abschließend werden die zwei Fallbeispiele für einen Konzeptnachweis verknüpft, der die Möglichkeiten des heterogenen Rechnens veranschaulicht.
Integration of an industrial robot manipulator in ROS to enhance its spatial perception capabilities
(2020)
Robots without any external sensors are not capable of sensing their environment, often leading to damaging collisions. These collisions could potentially be avoided if the robot had a way to sense its environment in the first place. This thesis attempts to tackle this problem by equipping such a robot with extra sensor hardware for perceiving environmental objects. The robot used within this thesis is a KUKA LBR iiwa 7 R800. The goal is a robot capable of moving in an unseen environment without colliding with obstacles nearby.
The research covers different sensor options, robots in cramped areas as well as algorithms and simulation topics. Software platforms and libraries used for the implementation are briefly introduced.
Multiple infrared sensors are directly installed onto the robot manipulator. The extra sensors and the robot are integrated into the ROS middleware to create an application capable of sensing the robots’ environment and plan collision-free paths accordingly.
The experiments show, that the low amount of available sensor data can not map the robots’ environment with enough detail. Additional problems, such as sensor noise corrupting parts of the generated map or the robot recognizing itself as an obstacle, lead to a negative result in total. In future work, the choice of sensors shall be reconsidered and tested upfront via simulation software.
Die morphologische Beurteilung menschlicher Embryos ist ein zeitaufwändiger Prozess in der assistierten Reproduktionsmedizin. Etwa fünf Tage entwickeln sich die Embryos bei einer IVF-Behandlung außerhalb des menschlichen Körpers, bevor Embryologinnen und Embryologen die Entscheidung über die zu transferierenden – also die für die Einleitung einer künstlich herbeigeführten Schwangerschaft zu verwendenden – Embryos anhand unterschiedlicher Bewertungskriterien treffen. Im Anschluss an eine Einführung in die Embryologie werden in dieser Arbeit mögliche Methoden zur automatisierten Embryoselektion besprochen, implementiert, miteinander verknüpft und abschließend evaluiert. Die Arbeit beschränkt sich mit dem EmbryoScope auf einen Zeitrafferinkubator, welcher in den IVF Zentren Prof. Zech in Bregenz in den letzten Jahren viele Millionen Bilder tausender befruchteter Eizellen und den daraus entstehenden Embryos aufgenommen hat. Dieses Gerät diente als Datenquelle zur Unterstützung bei der Entwicklung des Analysetools. Das entstandene Softwareprodukt wurde so programmiert, dass gegebenen Daten vorverarbeitet und unter Anwendung von Bildmanipulationsverfahren und komplexer neuronaler Netze analysiert werden können. Das Ergebnis ist eine Software zur Erkennung und Bewertung unterschiedlicher Parameter der Embryoentwicklung, um daraus Vorschläge für die Selektion der zu transferierenden Embryos generieren und übersichtlich präsentieren zu können.
Zur Evaluierung des Systems konnten drei Embryologinnen und Embryologen aus drei IVF Kliniken unterschiedlicher europäischer Länder gewonnen werden, um anhand einer eigens entwickelten Annotationssoftware Vergleichsdaten zu generieren. Als Endergebnis der Arbeit wurde die Einheitlichkeit dieser erhaltenen Annotationsdaten mit den errechneten Vorschläge anhand unterschiedlicher Kriterien berechnet. Die Transferierbarkeit eines einzelnen Embryos konnte im Vergleich zur Entscheidung des Laborpersonals in 73 % der Fälle korrekt erkannt werden. Bezogen auf eine gesamte IVF Behandlung konnte bei den tatsächlich zu transferierenden Embryos eine vollumfängliche Einheitlichkeit von 26 % mit den Embryologinnen und Embryologen erreicht werden. Embryos, welche von dem entstandenen Analysetool als transferierbar erkannt und unter Beachtung weiterer vorhandener Embryos für die weitere Behandlung vorgeschlagen wurden, sind in 63 % der Fälle für einen Transfer geeignet.
Das entstandene Vorschlagsystem ist als Proof of Concept zu verstehen, welches in späteren Arbeiten durch tiefgreifendere Analysen erweitert werden kann. Ein Einsatz des Systems ist aufgrund der geringen Analysesicherheit, sowie technischen und rechtlichen Einschränkungen zum Abschluss der vorliegenden Arbeit nicht vorgesehen.
Business Intelligence (BI) beschreibt den Bereich, der für die Auswertung betrieblicher Geschäftsdaten verantwortlich ist und von Unternehmen jeder Größe verwendet wird. Die erhaltenen Informationen unterstützen die Entscheidungsfindung von Unternehmen und können sich positiv auf die Geschäftsentwicklung auswirken. Die Hexagon Geosystems hat seit mehreren Jahren Lösungen im Einsatz, mit welchen die systematische Analyse von Geschäftsdaten abgewickelt wird. Für Unternehmen dieser Größe sind leicht zugängliche und benutzerfreundliche BI-Lösungen unerlässlich - über die Jahre und der wachsenden Menge an Analysen und Berichten haben sich aber Probleme in der Verwendung und Verständlichkeit gebildet, welche im Rahmen dieser Masterarbeit untersucht werden.
Zum Beginn werden die theoretischen Inhalte der Arbeit erläutert und eine Wissensgrundlage geschaffen. Aus der in der Ist-Analyse gegebenen Beschaffenheit im Unternehmen werden die Probleme der aktuellen Lösung im Rahmen einer Problemerläuterung aufgewiesen. Die daraus resultierenden Erkenntnisse bilden die Grundlage für die Konzipierung eines Proof of Concepts in den darauf folgenden Kapiteln. In dem Proof of Concept wird ein Vorschlag für ein Baukastensystem zur Erstellung von Berichten und dessen Dokunentationen präsentiert. Eine mittels der System Usability Scale durchgeführten Evaluation zeigte, dass eine benutzungsfreundliche Applikation entstanden ist, welche neben Vorteilen für die Endanwender des Business Warehouses auch Vorteile für die Administratorinnen bei der Erstellung von Berichten mit sich bringt. Eine Zusammenfassung und ein abschließender Ausblick weist diverse Arbeitsschritte auf, welche zur Integration der Applikation in die produktive Landschaft des Unternehmens benötigt werden.
Für die Digitale Fabrik an der FH Vorarlberg sollen Intrusion-Detection-Systeme (IDS) zur Erkennung von Angriffen auf Hosts sowie im Netzwerk evaluiert werden. Außerdem sollen die aus den IDS erhaltenen Resultate so dargestellt werden, damit Systemadministratorinnen rapide Entscheidungen bezüglich der generierten Alarme treffen können. Um dies zu gewährleisten sollen neben den IDS zusätzlich entsprechende Visualisierungstools evaluiert werden. In dieser Arbeit werden dazu unterschiedliche signatur- sowie auch anomaliebasierte Netzwerk- und Host-IDS technisch beschrieben und anhand von Kriterien, welche aus den Anforderungen abgeleitet werden, bewertet. Zusätzlich wird die Genauigkeit der IDS durch Testen von spezifischen Angriffen ermittelt. Außerdem werden potenzielle Tools für die Darstellung von Alarmen aus den IDS vorgestellt und ebenfalls anhand den Anforderungen aufgezeigt, welches am geeignetsten ist. Abschließend werden alle Probleme sowie Erkenntnisse aufgezeigt, welche während der Evaluierung auftraten und erläutert, wie diese Arbeit fortgeführt werden kann.
Moderne Darstellungen ermöglichen es, Daten nicht nur als statische Bilder, sondern auch als interaktive Visualisierungen darzustellen. Interaktive Darstellungen können im Kontext von Kundinnen- und Kundenanalysen eine einfache Weise sein, um Unterschiede in verschiedenen Kaufverhalten festzustellen und können so ein essenzielles Hilfsmittel für ein Unternehmen sein. Das Hauptziel dieser Arbeit ist es, anhand eines beispielhaften Verkaufsdatensatzes die Möglichkeiten der Datenexploration und Informationsbeschaffung durch interaktive Visualisierungen aufzuzeigen, sodass Rückschlüsse auf das Kaufverhalten verschiedener Gruppen gezogen werden können.
Auf der Grundlage einer umfassenden Literaturrecherche in den Bereichen der Daten- und Informationsvisualisierung wurde eine Problemdefinition und eine Anforderungsanalyse für die Verkaufsdaten ausgearbeitet. Anonymisierte Verkaufsdaten dienten als Ausgangspunkt für die Datenvorverarbeitung. Diese wurden bereinigt und die gewünschten Informationen aus der Anforderungsanalyse wurden zur weiteren Transformation selektiert. Aufgrund der hohen Dimensionalität der selektierten Daten, wurde bei der Transformation der Dimensionsreduktions Algorithmus “Uniform Manifold Approximation and Projection” (UMAP) verwendet, um die Dimensionen der Daten zur Visualisierung zu reduzieren. Aufbauend auf diesen Schritten wurde ein Prototyp als Webanwendung erstellt, der den Anforderungen der Datenexploration und Informationsgewinnung gerecht wird. Der resultierende Prototyp kombiniert die achsenbasierten Visualisierungsmethoden der Streudiagramme und Parallelen Koordinaten mit der pixelorientierten Visualisierungsmethode der Heatmap. Diese Darstellungen wurden zusätzlich mit Interaktionsmöglichkeiten erweitert, um eine kollaborative Filterung von ähnlichen Konsumentinnen und Konsumenten auf verschiedenen Warengruppenebenen zu ermöglichen.
Abgeschlossen wurde die Arbeit mit einer Evaluation des Prototypen und dessen Qualität zur Exploration. Die Auswertung wurde mit Benutzerinnen und Benutzern absolviert, die einen Versuchsablauf durcharbeiteten und dabei ihre Erkenntnisse in einem Fragebogen dokumentierten. Durch das Ausführen ließen sich Gruppierungen von Kundinnen und Kunden feststellen und diese konnten auf Richtigkeit in Bezug auf das Einkaufsverhalten validiert werden. Die hierarchische Verbindung der Warengruppenebenen und das Erkennen von Mustern in allen drei Warengruppenebenen konnte nicht als erfolgreich bewertet werden. Es wurde jedoch ein Potenzial zur weiteren visuellen Analyse von Konsumentinnen und Konsumenten anhand deren Einkaufsverhalten festgestellt und weitere Anforderungen zur Weiterentwicklung wurden festgehalten.
Die Digitalisierung von Unternehmen und deren Produktionsanlagen bringen neue Bedrohungsformen mit sich, die zielorientierter ausgerichtet sind und mehrere Computersysteme gleichzeitig betreffen. Klassische Schutzmechanismen wie Firewalls, Anti-Viren-Systeme und IDS sind zumeist signatur- oder muster-basiert und können diese komplexen Bedrohungsformen nicht effizient erkennen. Die verwendeten Signaturen und Muster können durch Angreifer einfach umgangen werden. Darüber hinaus sind gezielte und komplexe Angriffe nur durch die Verknüpfung von Informationen mehrerer Computersysteme identifizierbar.
In den letzten Jahren wurden daher verstärkt anomalie-basierte IDS entwickelt und eingesetzt, die anhand selbstlernender Algorithmen das normale Verhalten von mehreren miteinander vernetzten Computersystemen erlernen und Abweichungen zum normalen Verhalten identifizieren. Hierzu verwenden die Algorithmen Log- und Monitoringdaten der Anwendungsschicht von verschiedenen Computersystemen und Anwendungen. Der Zugriff auf die Logdaten zur weiteren Analyse ist jedoch kompliziert, weil sie nicht an einer zentralen Stelle zusammenlaufen und es keine allgemein anerkannten Standards für die Erzeugung und Übertragung von Logdaten existieren.
Infolgedessen wird in dieser Arbeit ein zentrales Log-Management-System in eine Produktionsumgebung eingeführt, die verschiedene IT-Komponenten und Komponenten einer realen Güterproduktion beinhaltet. Zudem werden Logdaten verschiedener heterogener Datenquellen auf diesem System zentral aggregiert. Neben der Einführung eines Standards für die Struktur und Übertragung der Logdaten von den einzelnen Datenquellen auf das Log-Management-System, werden Logdaten auf ihre Relevanz hinsichtlich der Erkennung von Anomalien und der Abbildung des Systemverhaltens analysiert. Diese Arbeit beinhaltet zudem fortgeschrittene Bedrohungsszenarien, die für die Evaluation der IDS verwendet werden können und stellt somit eine Grundlage für eine zukünftige Analyse der Logdaten durch IDS dar.
In dieser Arbeit wird eine Topologie-Erkennung beschrieben, welche durch rein passives Scannen ermöglicht wird. Dazu werden die verschiedenen Protokolle beschrieben, welche in dem Bereich Digital Substation verwendet werden, um mögliche Ansätze zu erarbeiten. Es werden die Redundanz-Protokolle STP (Spanning Tree Protocol), RSTP (Rapid Spanning Tree Protocol), PRP (Parallel Redundancy Protocol) und HSR (High-availability Seamless Redundancy) beschrieben. Es wird ein kurzer Überblick zum IEC-61850 Standard und dessen Protokolle SV (Sampled Values) und GOOSE (Generic Object Oriented Substation Event) gegeben. Auf dieser Grundlage wird eine Applikation entwickelt, welche die Data Link Layer Topologie erkennt. Die entwickelte Topologie-Erkennung wird als Proof-of-Concept für STP und RSTP Netzwerke verwendet und die entsprechenden Voraussetzungen werden beschrieben. Auf korrektes Verhalten wurde die in dieser Arbeit entwickelte Applikation mittels verschiedenen, simulierten Netzwerken und einem simplen Laboraufbau getestet. Die Applikation bietet auch die Möglichkeiten, solche Topologien zu visualisieren und zu vergleichen.
In dieser Arbeit wird eine Evaluation zwischen verschiedenen implementierten Ansätzen eines Empfehlungssystems auf der Basis eines realen Datensatzes durchgeführt. Der Datensatz beinhaltet das Navigationsverhalten von Besuchern einer Website über Kochrezepte. Während der Vorverarbeitung wird der Datensatz mit zusätzlichen Metainformationen für jedes besuchte Rezept aus dem Content Management System der Webseite angereichert. Die implementierten Empfehlungssysteme verwenden sowohl den Content Based Filtering als auch den Collaborative Filtering Ansatz. Zusätzlich werden beide Ansätze kombiniert und in einem hybriden Empfehlungssystem eingesetzt. Darüber hinaus werden für jede Person im Datensatz zwei individuelle Profile erstellt. Dabei handelt es sich um ein kurzlebiges Session-Profil und ein permanentes Langzeit-Profil. Mit jedem Besuch eines Rezeptes werden beide Profile dynamisch angepasst, so dass sich die individuellen Präferenzen der Personen jederzeit in den Profilen widerspiegeln. Für die Evaluation wird ein eigener Algorithmus angewendet, welcher es erlaubt einen Vergleich zwischen den implementierten Empfehlungssystemen vorzunehmen. Die Besonderheit an dem Evaluationsalgorithmus ist, dass dieser lediglich die besuchten Items und deren Beschreibung für den Vergleich benötigt. Es werden keine expliziten Bewertungen von den Webseitenbesuchern verwendet. In der Arbeit werden die Ergebnisse der unterschiedlichen Ansätze für ein Empfehlungssystem mit dem eigenen Evaluationsalgorithmus diskutiert und die Vor- bzw. Nachteile der jeweiligen Ansätze erläutert. Bei der Analyse stellt sich heraus, dass für den in dieser Arbeit verwendete Datensatz ein hybrides Empfehlungssystem, welches sowohl das Session-Profil als auch das Langzeit-Profil kombiniert, die besten Ergebnisse erzielt. Mit diesem System wird eine Übereinstimmungsgenauigkeit zwischen den vorgeschlagenen Rezepten und den tatsächlich besuchten Rezepten von knapp 36% erreicht. Die beiden Content Based Systeme, welche jeweils entweder das Session-Profil oder das Langzeit-Profil verwenden, erzielen eine Übereinstimmungsgenauigkeit von ca 30% bzw. 20%. Die Algorithmen mit dem Collaborative Filtering Ansatz erreichen bei dem verwendeten Datensatz nur eine Übereinstimmungsgenauigkeit von ca. 15% bzw. 13,5%. Als Referenzmodell wird ein Empfehlungssystem verwendet, das nach dem Zufallsprinzip Rezepte vorschlägt, wodurch eine Übereinstimmungsgenauigkeit von etwa 6% erreicht wird.
In dieser Arbeit sollen Möglichkeiten untersucht werden, um eine möglichst robuste und ressourcenschonende Methode für homogene autonome Roboterteams um eine gemeinsame Exploration und Kartierung einer unbekannten Umgebung durchzuführen. Zu diesem Zweck soll eine koordinierte Exploration durchgeführt werden, durch die die zeitliche Effizienz des Roboterteams gesteigert werden kann. Dadurch kann unter geringerem Aufwand und in weniger Zeit eine globale Karte einer unbekannten Umgebung erstellt werden, mit der alle beteiligten Roboter für zukünftige Aufträge arbeiten können. Um dies zu erreichen wurden verschiedene Map-Merging Methoden untersucht, von denen eine auf Feature Detection basierende Verfahren für eine verteilte, robuste und ressourcenschonende Vorgehensweise ausgewählt wurde. Nachdem zwei oder mehr Karten erfolgreich fusioniert werden, kann eine koordinierte Exploration mit den Robotern, die mit der geteilten Karte arbeiten können durchgeführt werden. Für die gemeinsame Exploration werden auf dem implementierten Kartenserver nach allen Frontiers gesucht, die in der Karte vorhanden sind. Diese werden gemeinsam mit den derzeitigen Explorationszielen der anderen Roboter kombiniert und dem Roboter, der gerade versucht ein neues Explorationsziel zu wählen mitgeteilt. Dadurch können alle Roboter selbständig und unabhängig voneinander mit den Informationen der anderen Roboter arbeiten. Durch den Umstand, dass die Roboter die Wahl des Explorationsziels und die Pfadplanung selbstständig durchführen können, funktioniert das Roboterteam auch weiter, falls die Kommunikation zu den anderen Robotern abgebrochen wird. Wenn ein Roboter, der die Kommunkationsmöglichkeit mit dem Kartenserver verloren hat die Kommunikation wiederherstellen kann, können die in der Zwischenzeit gesammelten Daten des Roboters normal für das gesamte System weiter verwendet werden und der Roboter kann die Exploration koordiniert mit den anderen Robotern fortsetzen. Zusätzlich können von dem Kartenserver zusätzliche Informationen angefordert werden, die bei der Entscheidung über das nächste Explorationsziel des Roboters hilfreich sein können. Sollte die Kommunikation nicht wiederhergestellt werden können, wird die Exploration von jedem Roboter individuell und ohne Koordinierung fortgesetzt. Eine Kommunikation mit dem Kartenserver findet nur dann statt, wenn ein Roboter ein neues Explorationsziel benötigt. Dadurch ist die Netzwerkbelastung für die Koordinierung und die Kartenfusionen minimal und alle Roboter können unabhängig von den aufwändigen Berechnungen, die auf dem Kartenserver durchgeführt werden müssen weiter ihrer Aufgabe nachgehen.
In dieser Arbeit werden verschiedene Augmented Reality Tools analysiert und getestet, um eine Brandmeldezentrale zu erkennen und auf dieser virtuelle Inhalte darzustellen. Die Erkennung der Zentrale wird mittels Bilderkennung und Objekterkennung von Vuforia, Wikitude und AR Foundation durchgeführt. Zusätzlich wird in dieser Arbeit eine AR Applikation implementiert, welche sowohl mit iOS und Android Geräten als auch für die Microsoft HoloLens 2 kompatibel ist. Die Anwendung soll zeigen, an welcher Stelle in der Brandmeldezentrale ein Fehler vorliegt und wie dieser behoben werden kann. Für die Fehlerbehandlung kommt eine “Schritt für Schritt Anleitung“ zum Einsatz, bei welcher Teile der Zentrale augmentiert hervorgehoben werden, wenn diese für die Behebung des Problems relevant sind. Es werden diverse Geräte bezüglich Interaktion und deren Stärken bzw. Schwächen evaluiert. Für die Analyse haben Testpersonen die Anwendung sowohl auf der HoloLens 2 als auch auf einem iPad Pro getestet. Die Ergebnisse zeigen, dass einige Personen Schwierigkeiten mit der Gestensteuerung auf der HoloLens 2 haben. Die Ausführung der Pinch Geste, welche durch das zusammendrücken von Daumen und Zeigefinger ausgeführt wird, wurde oft zu ungenau durchgeführt. Der Vergleich der beiden Geräte hat ergeben, dass Interaktionen auf dem iPad schneller ausgeführt werden können als auf der HoloLens. Außerdem wurde überprüft, wie sich unterschiedliche Lichtverhältnisse auf die Anwendung auswirken. Dabei stellte sich heraus, dass die Hologramme bei der HoloLens bei einer stark beleuchteten Umgebung nicht gut sichtbar sind. Die Objekterkennung der Brandmeldezentrale weist einige Fehler bei der Erkennung der Brandmeldezentrale auf. Diese sind darauf zurückzuführen, dass die Brandmeldezentrale für die verwendeten Augmented Reality Tools zu wenig Merkmale aufweist.
An implementation approach of the gap navigation tree using the TurtleBot 3 Burger and ROS Kinetic
(2020)
The creation of a spatial model of the environment is an important task to allow the planning of routes through the environment. Depending on the number of sensor inputs different ways of creating a spatial environment model are possible. This thesis introduces an implementation approach of the Gap Navigation Tree which is aimed for usage with robots that have a limited amount of sensors. The Gap Navigation Tree is a tree structure based on depth discontinuities constructed from the data of a laser scanner. Using the simulated TurtleBot 3 Burger and ROS kinetic a framework is created that implements the theory of the Gap Navigation Tree. The framework is structured in a way that allows using different robots with different sensor types by separating the detection of depth discontinuities from the building and updating of the Gap Navigation Tree.
Heutzutage gewinnen visuelle und akustische Eingabemethoden für die Interaktion mit Anwendungen oder Komponenten zunehmend an Bedeutung und sollen die klassische Maus oder Tastatur gegebenenfalls ersetzen. Abgesehen von der Sprachsteuerung benötigen jedoch auch die neuen Methoden für das Absetzen eines Befehls größtenteils die Hände. Es bleibt jedoch die Frage bestehen was passiert, wenn keine freie Hand zur Verfügung steht und ein Sprachbefehl aufgrund des Lärmpegels nicht erkannt wird. Diese Arbeit beschreibt das Konzept einer alternativen Anwendungssteuerung mit Fußgesten und verwendet dafür die Einlegesohlen ‚stapp one‘, die mit Druck- und Beschleunigungssensoren ausgestattet sind. Aufgrund der Durchführung einer Umfrage mit Mehrheitsvotum lassen sich verschiedene Fußgesten für entsprechende Aktionen der gesteuerten Komponenten definieren. Diese wirken auf die Anwender und Anwenderinnen intuitiv und weisen folglich eine hohe Akzeptanz bei der Benutzung auf. Mit einer Verbindungskombination aus Bluetooth und ‚User-Datagram-Protocol‘ (UDP) werden die Sensordaten von der Sohle, über ein Smartphone, zu einem Computer weitergeleitet, um eine Gestenerkennung mit Machine-Learning umzusetzen. Über ein Datenfluss-System werden die empfangenen Werte der Sensoren aufbereitet und eine Feature-Extraktion durchgeführt, sodass diese für eine Klassifizierung von Fußgesten dienen. Basierend auf ‚Deeplearning4j‘ wird ein Algorithmus mit ‚Long Short-Term Memory‘ implementiert und zusammen mit dem Datenfluss-System als ‚Java‘-Bibliothek zur Verfügung gestellt. Zusätzlich werden Datensätze von Fußgesten einer Person erstellt und zum Training sowie zur Evaluierung der Gestenerkennung verwendet. In einer letzten Umfrage wird die implementierte Bibliothek in zwei Applikationen integriert. Zudem wird die Funktion des definierten ‚Gesten-Aktionen-Mapping‘ in drei Anwendungsszenarien analysiert. Die Forschungsergebnisse zeigen eine zuverlässige Klassifizierung der Fußgesten mit einer Genauigkeit von 82 %, wobei unter realen Bedingungen auch Werte zwischen 85 % und 100 % erreicht werden.
Für die Verrechnung von Leistungen gegenüber dem Kunden sowie die Planung des weiteren Geschäftsjahres ist es wichtig, dass die Angestellten ihre Arbeitszeit so genau wie möglich dokumentieren. Da diesbezüglich bei der Firma IMA-Systems Information-Technology ZNL der NEXTCLINICS Austria GmbH (im Folgenden IMA-Systems) Verbesserungspotential besteht, gilt es Lösungen zu finden die Angestellten zu motivieren ihre Arbeits-Dokumentation möglichst genau anzufertigen. Gamification hat sich in vielen Bereichen als Hilfreich herausgestellt, wenn es um die Motivationssteigerung von Menschen geht. In dieser Arbeit wird der Fragestellung nachgegangen, inwiefern mittels Gamification die Motivation zur genaueren Zeitdokumentation der Arbeitnehmenden im Unternehmen IMA-Systems gesteigert werden kann. Um die Fragestellung zu beantworten wird eine Gamification-Anwendung entwickelt, welche die Angestellten zu einer genaueren Dokumentation ihrer Arbeitszeit motivieren soll.
Hierfür wird mittels des User Centered Design Prozesses ein VB.Net Programm implementiert, welches mit Hilfe der passenden Spielelemente zur Motivationssteigerung beitragen soll. Hierbei wird unterschieden ob es sich um ein Mitglied der Entwicklungs- oder EDV-Abteilung handelt, da die Dokumentation sich in den Abteilungen unterscheidet. Während die Entwicklungsabteilung zeitgleich und minutengenau dokumentiert, dokumentiert die EDV-Abteilung indem nachträglich Zeiteinheiten zugeordnet werden. Vor der Implementierung der Anwendung werden die Teilnehmenden interviewt, um ihre Antworten in die Entwicklung einfließen zu lassen. Nach Fertigstellung des Prototyps wird die Testphase eingeleitet. Hierfür wird der Prototyp in den Arbeitsalltag der Angestellten der Firma IMA-Systems integriert. Auf die Feldphase folgen eine erneute Befragung der Angestellten sowie der Vergleich der Daten vor und nach der Einführung von Gamification.
Die Auswertung der Ergebnisse ergab, dass die Anwendung auf die EDV-Abteilung mit einer Steigerung von 18,6% einen deutlichen, positiven Effekt hat, welcher sich in der Entwicklungsabteilung mit einem Rückgang von 5% nicht verzeichnen lässt. In der abschließenden Diskussion wird die Auswertung der Ergebnisse kritisch betrachtet, der Grund für die Verschlechterung in der Entwicklungsabteilung erläutert und ein Ausblick für mögliche Verbesserungen und Erweiterungen des Prototyps aufgezeigt.