004 Informatik
Refine
Document Type
- Master's Thesis (8)
- Conference Proceeding (4)
- Article (2)
- Doctoral Thesis (1)
Institute
Keywords
Die cloud-basierte Verarbeitung von Datenströmen von IoT-Geräten ist aufgrund hoher Latenzzeiten für zeitkritische Anwendungen nur beschränkt möglich. Fog Computing soll durch Nutzung der Rechen- und Speicherkapazitäten von lokal vorhandenen Geräten eine zeitnahe Datenverarbeitung und somit eine Verringerung der Latenzzeit ermöglichen. In dieser Arbeit werden Anforderungen an ein Fog Computing-Framework erhoben, das die dynamische Zuweisung und Ausführung von Services auf ressourcen-beschränkten Geräten in einem lokalen Netzwerk zur dezentralen Datenverarbeitung ermöglicht. Zudem wird dieses Framework prototypisch für mehrere Transportkanäle, unterschiedliche Betriebssysteme und Plattformen realisiert. Dazu werden die Möglichkeiten der Skriptsprache Lua und des Kommunikationsmechanismus Remote Procedure Call genutzt. Das Resultat ist ein positiver Machbarkeitsnachweis für Fog Computing-Funktionalitäten auf ressourcenbeschränkten Systemen. Zudem werden eine geringere Latenz und eine Reduktion der Netzwerklast ermöglicht.
With the emergence of the recent Industry 4.0 movement, data integration is now also being driven along the production line, made possible primarily by the use of established concepts of intelligent supply chains, such as the digital avatars. Digital avatars – sometimes also called Digital Twins or more broadly Cyber-Physical Systems (CPS) – are already successfully used in holistic systems for intelligent transport ecosystems, similar to the use of Big Data and artificial intelligence technologies interwoven with modern production and supply chains. The goal of this paper is to describe how data from interwoven, autonomous and intelligent supply chains can be integrated into the diverse data ecosystems of the Industry 4.0, influenced by a multitude of data exchange formats and varied data schemas. In this paper, we describe how a framework for supporting SMEs was established in the Lake Constance region and describe a demonstrator sprung from the framework. The demonstrator project’s goal is to exhibit and compare two different approaches towards optimisation of manufacturing lines. The first approach is based upon static optimisation of production demand, i.e. exact or heuristic algorithms are used to plan and optimise the assignment of orders to individual machines. In the second scenario, we use real-time situational awareness – implemented as digital avatar – to assign local intelligence to jobs and raw materials in order to compare the results to the traditional planning methods of scenario one. The results are generated using event-discrete simulation and are compared to common (heuristic) job scheduling algorithms.
A modified matrix adaptation evolution strategy with restarts for constrained real-world problems
(2020)
In combination with successful constraint handling techniques, a Matrix Adaptation Evolution Strategy (MA-ES) variant (the εMAg-ES) turned out to be a competitive algorithm on the constrained optimization problems proposed for the CEC 2018 competition on constrained single objective real-parameter optimization. A subsequent analysis points to additional potential in terms of robustness and solution quality. The consideration of a restart scheme and adjustments in the constraint handling techniques put this into effect and simplify the configuration. The resulting BP-εMAg-ES algorithm is applied to the constrained problems proposed for the IEEE CEC 2020 competition on Real-World Single-Objective Constrained optimization. The novel MA-ES variant realizes improvements over the original εMAg-ES in terms of feasibility and effectiveness on many of the real-world benchmarks. The BP-εMAg-ES realizes a feasibility rate of 100% on 44 out of 57 real-world problems and improves the best-known solution in 5 cases.
The importance of Agent-Based Simulation (ABS) as scientific method to generate data for scientific models in general and for informed policy decisions in particular has been widely recognised. However, the important technique of code testing of implementations like unit testing has not generated much research interested so far. As a possible solution, in previous work we have explored the conceptual use of property-based testing. In this code testing method, model specifications and invariants are expressed directly in code and tested through automated and randomised test data generation. This paper expands on our previous work and explores how to use property-based testing on a technical level to encode and test specifications of ABS. As use case the simple agent-based SIR model is used, where it is shown how to test agent behaviour, transition probabilities and model invariants. The outcome are specifications expressed directly in code, which relate whole classes of random input to expected classes of output. During test execution, random test data is generated automatically, potentially covering the equivalent of thousands of unit tests, run within seconds on modern hardware. This makes property-based testing in the context of ABS strictly more powerful than unit testing, as it is a much more natural fit due to its stochastic nature.
In dieser Arbeit sollen Möglichkeiten untersucht werden, um eine möglichst robuste und ressourcenschonende Methode für homogene autonome Roboterteams um eine gemeinsame Exploration und Kartierung einer unbekannten Umgebung durchzuführen. Zu diesem Zweck soll eine koordinierte Exploration durchgeführt werden, durch die die zeitliche Effizienz des Roboterteams gesteigert werden kann. Dadurch kann unter geringerem Aufwand und in weniger Zeit eine globale Karte einer unbekannten Umgebung erstellt werden, mit der alle beteiligten Roboter für zukünftige Aufträge arbeiten können. Um dies zu erreichen wurden verschiedene Map-Merging Methoden untersucht, von denen eine auf Feature Detection basierende Verfahren für eine verteilte, robuste und ressourcenschonende Vorgehensweise ausgewählt wurde. Nachdem zwei oder mehr Karten erfolgreich fusioniert werden, kann eine koordinierte Exploration mit den Robotern, die mit der geteilten Karte arbeiten können durchgeführt werden. Für die gemeinsame Exploration werden auf dem implementierten Kartenserver nach allen Frontiers gesucht, die in der Karte vorhanden sind. Diese werden gemeinsam mit den derzeitigen Explorationszielen der anderen Roboter kombiniert und dem Roboter, der gerade versucht ein neues Explorationsziel zu wählen mitgeteilt. Dadurch können alle Roboter selbständig und unabhängig voneinander mit den Informationen der anderen Roboter arbeiten. Durch den Umstand, dass die Roboter die Wahl des Explorationsziels und die Pfadplanung selbstständig durchführen können, funktioniert das Roboterteam auch weiter, falls die Kommunikation zu den anderen Robotern abgebrochen wird. Wenn ein Roboter, der die Kommunkationsmöglichkeit mit dem Kartenserver verloren hat die Kommunikation wiederherstellen kann, können die in der Zwischenzeit gesammelten Daten des Roboters normal für das gesamte System weiter verwendet werden und der Roboter kann die Exploration koordiniert mit den anderen Robotern fortsetzen. Zusätzlich können von dem Kartenserver zusätzliche Informationen angefordert werden, die bei der Entscheidung über das nächste Explorationsziel des Roboters hilfreich sein können. Sollte die Kommunikation nicht wiederhergestellt werden können, wird die Exploration von jedem Roboter individuell und ohne Koordinierung fortgesetzt. Eine Kommunikation mit dem Kartenserver findet nur dann statt, wenn ein Roboter ein neues Explorationsziel benötigt. Dadurch ist die Netzwerkbelastung für die Koordinierung und die Kartenfusionen minimal und alle Roboter können unabhängig von den aufwändigen Berechnungen, die auf dem Kartenserver durchgeführt werden müssen weiter ihrer Aufgabe nachgehen.
In dieser Arbeit wird eine Topologie-Erkennung beschrieben, welche durch rein passives Scannen ermöglicht wird. Dazu werden die verschiedenen Protokolle beschrieben, welche in dem Bereich Digital Substation verwendet werden, um mögliche Ansätze zu erarbeiten. Es werden die Redundanz-Protokolle STP (Spanning Tree Protocol), RSTP (Rapid Spanning Tree Protocol), PRP (Parallel Redundancy Protocol) und HSR (High-availability Seamless Redundancy) beschrieben. Es wird ein kurzer Überblick zum IEC-61850 Standard und dessen Protokolle SV (Sampled Values) und GOOSE (Generic Object Oriented Substation Event) gegeben. Auf dieser Grundlage wird eine Applikation entwickelt, welche die Data Link Layer Topologie erkennt. Die entwickelte Topologie-Erkennung wird als Proof-of-Concept für STP und RSTP Netzwerke verwendet und die entsprechenden Voraussetzungen werden beschrieben. Auf korrektes Verhalten wurde die in dieser Arbeit entwickelte Applikation mittels verschiedenen, simulierten Netzwerken und einem simplen Laboraufbau getestet. Die Applikation bietet auch die Möglichkeiten, solche Topologien zu visualisieren und zu vergleichen.
Für die Digitale Fabrik an der FH Vorarlberg sollen Intrusion-Detection-Systeme (IDS) zur Erkennung von Angriffen auf Hosts sowie im Netzwerk evaluiert werden. Außerdem sollen die aus den IDS erhaltenen Resultate so dargestellt werden, damit Systemadministratorinnen rapide Entscheidungen bezüglich der generierten Alarme treffen können. Um dies zu gewährleisten sollen neben den IDS zusätzlich entsprechende Visualisierungstools evaluiert werden. In dieser Arbeit werden dazu unterschiedliche signatur- sowie auch anomaliebasierte Netzwerk- und Host-IDS technisch beschrieben und anhand von Kriterien, welche aus den Anforderungen abgeleitet werden, bewertet. Zusätzlich wird die Genauigkeit der IDS durch Testen von spezifischen Angriffen ermittelt. Außerdem werden potenzielle Tools für die Darstellung von Alarmen aus den IDS vorgestellt und ebenfalls anhand den Anforderungen aufgezeigt, welches am geeignetsten ist. Abschließend werden alle Probleme sowie Erkenntnisse aufgezeigt, welche während der Evaluierung auftraten und erläutert, wie diese Arbeit fortgeführt werden kann.
This thesis aims to support the product development process. Therefore, an approach is developed, implemented as a prototype and evaluated, for automated solution space exploration of formally predefined design automation tasks holding the product knowledge of engineers. For this reason, a classification of product development tasks related to the representation of the mathematical model is evaluated based on the parameters defined in this thesis. In a second step, the mathematical model should be solved. A Solver is identified able to handle the given problem class.
Due to the context of this work, System Modelling Language (SysML) is chosen for the product knowledge formalisation. In the next step the given SysML model has to be translated into an object-oriented model. This translation is implemented by extracting information of a ".xml"-file using the XML Metadata Interchanging (XMI) standard. The information contained in the file is structured using the Unified Modelling Language (UML) profile for SysML. Afterwards a mathematical model in MiniZinc language is generated. MiniZinc is a mathematical modelling language interpretable by many different Solvers. The generated mathematical model is classified related to the Variable Type and Linearity of the Constraints and Objective of the generated mathematical model. The output is stored in a ".txt"-file.
To evaluate the functionality of the prototype, time consumption of the different performed procedures is measured. This data shows that models containing Continuous Variables need a longer time to be classified and optimised. Another observation shows that the transformation into an object-oriented model and the translation of this model into a mathematical representation are dependent on the number of SysML model elements. Using MiniZinc resulted in the restriction that models which use non-linear functions and Boolean Expressions cannot be solved. This is because the implementation of non-linear Solvers at MiniZinc is still in the development phase. An investigation of the optimally of the results, provided by the Solvers, was left for further work.
Business Intelligence (BI) beschreibt den Bereich, der für die Auswertung betrieblicher Geschäftsdaten verantwortlich ist und von Unternehmen jeder Größe verwendet wird. Die erhaltenen Informationen unterstützen die Entscheidungsfindung von Unternehmen und können sich positiv auf die Geschäftsentwicklung auswirken. Die Hexagon Geosystems hat seit mehreren Jahren Lösungen im Einsatz, mit welchen die systematische Analyse von Geschäftsdaten abgewickelt wird. Für Unternehmen dieser Größe sind leicht zugängliche und benutzerfreundliche BI-Lösungen unerlässlich - über die Jahre und der wachsenden Menge an Analysen und Berichten haben sich aber Probleme in der Verwendung und Verständlichkeit gebildet, welche im Rahmen dieser Masterarbeit untersucht werden.
Zum Beginn werden die theoretischen Inhalte der Arbeit erläutert und eine Wissensgrundlage geschaffen. Aus der in der Ist-Analyse gegebenen Beschaffenheit im Unternehmen werden die Probleme der aktuellen Lösung im Rahmen einer Problemerläuterung aufgewiesen. Die daraus resultierenden Erkenntnisse bilden die Grundlage für die Konzipierung eines Proof of Concepts in den darauf folgenden Kapiteln. In dem Proof of Concept wird ein Vorschlag für ein Baukastensystem zur Erstellung von Berichten und dessen Dokunentationen präsentiert. Eine mittels der System Usability Scale durchgeführten Evaluation zeigte, dass eine benutzungsfreundliche Applikation entstanden ist, welche neben Vorteilen für die Endanwender des Business Warehouses auch Vorteile für die Administratorinnen bei der Erstellung von Berichten mit sich bringt. Eine Zusammenfassung und ein abschließender Ausblick weist diverse Arbeitsschritte auf, welche zur Integration der Applikation in die produktive Landschaft des Unternehmens benötigt werden.