004 Informatik
Refine
Document Type
- Master's Thesis (17)
- Conference Proceeding (10)
- Article (2)
- Doctoral Thesis (2)
- Book (1)
- Report (1)
Institute
- Forschungszentrum Business Informatics (11)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (3)
- Forschungszentrum Human Centred Technologies (3)
- Technik | Engineering & Technology (3)
- Forschungszentrum Digital Factory Vorarlberg (1)
- Josef Ressel Zentrum für Robuste Entscheidungen (1)
Keywords
- Data science (2)
- 6-DOF (1)
- ARM (1)
- Active matrix adaptation evolution strategy (1)
- Agent-based simulation testing (1)
- Animationen (1)
- Articifial intelligence (1)
- Augmented Reality (1)
- Augmented reality (1)
- Automated optimisation (1)
Tap or swipe
(2023)
Gestenbasierende grafische Benutzeroberflächen werden zunehmend beliebter. Diesbezüglich werden immer mehr Animation in Verbindung mit Nutzergesten eingesetzt.
Diese Arbeit setzt sich mit der Gestaltung von Animationen in gestenbasierten grafischen Benutzeroberflächen auseinander.
Dazu gehört auch, Animationen als Feedback auf eine hochfrequente Eingabemethode so zu gestalten, dass sie möglichst lange von Nutzern*innen als affektiv positiv wahrgenommen werden. Das Hauptaugenmerk der Arbeit liegt dabei auf der Interaktion von Nutzer*innen mit natürlichen Objektbewegungen.
Natürliche Objektbewegungen orientieren sich am Verhalten von Objekten in der physischen Welt. Sie verfügen beispielsweise über konzeptionelle Trägheit, Masse und reagieren auf unsichtbare Kräfte wie Schwerkraft.
Menschen verfügen über kausale Denkmuster, die in der physischen Welt die Interaktion mit Objekten prägen. So wissen Menschen, dass sie um ein träges Objekt wie eine Tasse zu bewegen, Energie benötigen, damit sich diese bewegt.
Untersucht wurde, ob das Verständnis von Nutzer*innen für natürliche Objektbewegungen auch in einer digitalen Umgebung existiert.
Im theoretischen Teil der Arbeit wurde die Rolle von Interfaceanimationen in modernen Benutzeroberflächen untersucht, Kriterien ausgearbeitet um eine reibungslose Nutzererfahrung zu ermöglichen und Parameter dargestellt, welche die Wahrnehmung der Charakteristik einer Animation positiv beeinflussen können. Ein zentraler Aspekt der Arbeit ist dabei die Gestaltung von natürlichen Objektbewegungen, um ein vertrautes, vorhersehbares und nachvollziehbares Nutzererlebnis schaffen können.
Anschließend wird das aus den Ergebnissen resultierende Konzept von prozeduralen Interfaceanimationen dargelegt. Eine prozedurale Interfaceanimation generiert aus den Vorgaben eines natürlichen Bewegungspfades generisch unterschiedliche Instanzen. Der Bewegungspfad kann über die Richtung und Geschwindigkeit einer Nutzergeste von dem*der Nutzer*in gesteuert werden.
In der abschließenden Evaluation wurde die elektrodermale Aktivität von 16 Probandinnen untersucht und bewertet, während diese sich mit drei unterschiedlichen Varianten der Animation auseinandersetzten. Es konnte nachgewiesen werden, dass ein unnatürlich starker Einfluss auf natürliche Objektbewegungen signifikante Unterschiede in den affektiv wahrgenommenen Reaktionen auslöst.
Systems are constantly increasing in complexity. This poses challenges to managing and using system knowledge. The Systems Modeling Language (SysML) is a modeling language specifically for systems, while Machine Learning (ML) is a tool to tackle complex problems. Currently, no bridge between systems modelled in SysML and ML regarding said systems has been proposed in literature. This thesis presents an approach that uses Model-driven Software Engineering (MDSE) and Template-based Code Generation (TBCG) to generate a ML IPython Notebook (IPYNB) from a SysML model. A mapping configuration using JavaScript Object Notation (JSON) allows the definition of mappings between SysML elements and template variables, enabling configuration and user-supplied templates. To test the approach, a SysML model describing ML to predict the weather based on data is created. Python ML templates are supplied and template variables mapped with the JSON mapping configuration are proposed in the thesis. The outcome is an executable IPYNB that contains all information from the SysML model and follows the modelled workflow. The findings of the work show that model-driven ML using SysML as a modeling language is beneficial due to the representation of ML knowledge in a general-purpose modeling language and the reusability of SysML model elements. It further shows that TBCG and a mapping configuration allow for more flexible code generation without changing the source implementation.
Untersuchung zur Lösbarkeit der Rückwärtskinematik eines 6-DOF Roboter mit einem neuronalen Netz
(2022)
Das Berechnen der inversen Kinematik ist komplex und muss für jeden Robotertyp individuell gelöst werden. Da ein Manipulator ohne die Rückwärtskinematik, die die erforderlichen Achsvariablen für eine Ziellage ermittelt, in der Praxis nicht verwendet werden kann, ist dieses Problem elementar in der Robotik. In dieser Arbeit wird der Ansatz zur Lösung der inversen Kinematik mit einem neuronalen Netz für einen Roboter mit sechs Freiheitsgarden untersucht. Dabei ist besonders darauf zu achten alle Mehrdeutigkeiten der inversen Kinematik beim Training zu berücksichtigen, da sonst das Kriterium des Determinismus zwischen Inputs und Outputs verletzt wird, was verhindert, dass ein Netz für das Problem trainiert werden kann. Es hat sich gezeigt, dass der Optimierungsalgorithmus Adams ebenso gute Ergebnisse wie der Scaled Conjugated Gradient erzielt. Die in Tensorflow verwendete typischen Aktivierungsfunktion Tangens hyperbolicus, weist im Vergleich zu anderen untersuchten Aktivierungsfunktionen, die in Tensorflow implementiert sind, die beste Performance auf. In MATLAB hingegen weist die Log sigmoid Aktivierungsfunktion die beste Performance von den implementierten Aktivierungsfunktionen auf. Zusätzlich verringert das Einschränken der Achsvariablen auf die tatsächlichen Achsbeschränkungen beim Trainieren des Netzes, sowohl den Netzwerkfehler als auch die Datenmenge, die benötigt wird, damit das Netz gut generalisiert. Abschließend stellt sich heraus, dass die trainierten Netze keine Praxistauglichkeit aufweisen, da der erzielte Netzwerkfehler zu groß ist. Da alle Mehrdeutigkeiten durch geometrische Analyse ausgeschlossen sind und ein ausreichend großer Datensatz verwendet wurde, kann mit den hier vorgestellten Ansätzen das Ergebnis nur durch komplexere Netze und damit mehr Daten verbessert werden. Andere Ansätze die zusätzliche Informationen zur Berechnung der Achswinkel zur Verfügung stellen könnten zudem auch bessere Ergebnisse erzielen. Darüber hinaus könnte es sinnvoll sein, Ansätze zu untersuchen, die sich die Achsbeschränkungen zunutze machen.
With the rise of people wearing smartwatches and the ever-lasting issue of stress, there has been an interest in detecting stress with wearables in real-time. This allows for interventions that take place exactly when stress occurs. However, many situations require all of our attention, making them unsuitable for any interventions. Additionally, many approaches currently do not factor in this aspect, running the risk of offering users undesirable interventions.
This thesis examines how contextual user information can be incorporated into a stress intervention system to reduce undesirable intervention timings. The system is split into detecting stress using heart rate variability (HRV) metrics obtained from a photoplethysmography (PPG) signal, and inferring user context from available sensor data. It is evaluated with a simulation-based approach using daily schedules of created personas and randomly sampled stressors during daily life.
The results obtained indicate the benefit of adding contextual user information to a stress intervention system. Depending on the busyness of the schedule, it can greatly decrease the number of received interventions. However, as these findings are attained without performing a user testing, it is unclear how they compare to results from real-world usage.
As the boundary between real and virtual life is becoming increasingly blurred, researchers and practitioners are looking for ways to integrate the two intending to improve human lives in a plethora of domains. A cutting-edge concept is the design of Digital Twins (DT), having a broad range of implications and applications, spanning from education, training, as well as safety and productivity in the workplace. An emergent approach for implementing DTs is the usage of mixed reality (MR) and augmented reality (AR), which are well aligned with merging real and virtual objects to enhance the human’s ability to interact with and manage DTs. Yet, this is still a novel area of research and, as such, a grounded understanding of the current state, challenges, and open questions is still lacking. Towards this, we conducted a PRISMA-based literature review of scientific articles and book chapters dealing with the use of MR and AR for digital twins. After a thorough screening phase and eligibility check, 25 papers were analyzed, sorted and compared by different categories like research topic (e.g., visualization, guidance), domain (e.g., manufacturing, education), paper type (e.g., design study, evaluation), evaluation type (user study, case study or none), used hardware (e.g., Microsoft HoloLens, mobile devices) as well as the different outcomes (result type and topic, problems, outlook). The major finding of this research survey is the predominant focus of the reviewed papers on the technology itself and the neglect of factors regarding the users. We, therefore, encourage researchers in this area to keep the importance of ease and joy of use in mind and include users in multiple stages of their work.
Purpose: Although there is an apparent potential in using data for advanced services in manufacturing environments, SMEs are reluctant to share data with their ecosystem partners, which prevents them from leveraging this potential. Therefore, the purpose of this paper is to analyse the reasons behind these resistances. The argumentation paves the way for elaborating countermeasures that are adequate for the specific situation and the typical capabilities of SMEs.
Design/Methodology/Approach: The analysis is based on literature research and in-depth interviews with management representatives of 15 companies in manufacturing service ecosystems. Half of these are manufacturers and the other half technology or service providers for manufacturers. They are SMEs or partly larger companies operating in structures that are typical for SMEs.
Findings: Data sharing hurdles are investigated in the five dimensions, 1. quantifying the value of data, 2. willingness to share data and trust, 3. organizational culture and mindset, 4. legal aspects, and 5. security and privacy. The ability to quantify the value of data is a necessary but not sufficient precondition for data sharing, which must be enabled by adequate measures in the other four dimensions.
Originality/Value: The findings of this empirical study and the solution approach provide an SME-specific framework to analyze hurdles that must be overcome for sharing data in an ecosystem.
Manufacturing SMEs can apply the framework to overcome the hurdles by specific insights and solution approaches. Furthermore, the analysis illustrates the future research direction of the project towards a comprehensive solution approach for data sharing in a manufacturing ecosystem.
Arbeitspaket 3: Ausschöpfung des Innovationspotentials von smarten Technologien - FH Vorarlberg
(2022)
Recent developments in the area of Natural Language Processing (NLP) increasingly allow for the extension of such techniques to hitherto unidentified areas of application. This paper deals with the application of state-of-the-art NLP techniques to the domain of Product Safety Risk Assessment (PSRA). PSRA is concerned with the quantification of the risks a user is exposed to during product use. The use case arises from an important process of maintaining due diligence towards the customers of the company OMICRON electronics GmbH.
The paper proposes an approach to evaluate the consistency of human-made risk assessments that are proposed by potentially changing expert panels. Along the stages of this NLP-based approach, multiple insights into the PSRA process allow for an improved understanding of the related risk distribution within the product portfolio of the company. The findings aim at making the current process more transparent as well as at automating repetitive tasks. The results of this paper can be regarded as a first step to support domain experts in the risk assessment process.
Die Arbeit beschreibt die Entwicklung eines Open-Source Plugins für die 3D-Modellierungssoftware FreeCAD, mit welchem es möglich ist, Roboterpfade anhand von 3D-Modellen zu erstellen. Die Pfade sind in einem geeigneten Format exportierbar und können beispielsweise zur Steuerung eines Roboters durch eine speicherprogrammierbare Steuerung verwendet werden. Im ersten Teil der Arbeit wird der geplante Arbeitsablauf der Pfadgenerierung beschrieben und genauer erläutert, welche Vorteile und Pflichten die Erstellung von Open-Source-Software nach sich zieht. Anschließend wird anhand der Systeme „Robot Studio“ von ABB und „MotoSim EG VRC“ von Yaskawa analysiert, wie proprietäre Systeme die Programmierung von Roboterpfaden realisieren. Nach einem Überblick über den aktuellen Stand der Technik in der Roboterprogrammierung, wird die Implementierung des Plugins für FreeCAD beschrieben. Dazu wird anhand des Sourcecodes erläutert, wie neue Arbeitsbereiche erstellt werden können. Es werden verschiedene Funktionen implementiert, welche essenziell für die Erstellung von Roboterpfaden sind. Dazu zählen die Möglichkeit zur Definition von Koordinatensystemen, Roboterposen und das Beschreiben des Roboterpfades durch Pfadsegmente mit verschiedenen Parametern, wie Bewegungsart, Geschwindigkeit und Wegpunkte. Das Plugin wurde getestet indem eine einfache Pick & Place Anwendung erstellt wurde. Anschließend sind mögliche Erweiterungen des Plugins, wie zum Beispiel die Möglichkeit des Duplizierens von Pfadsegmenten am Ende der Arbeit beschrieben.
A concept for a recommender system for the information portal swissmom is designed in this work. The challenges posed by the cold start problem and the pregnancy-related temporal interest changes need to be considered in the concept. A state-of-the-art research on recommender systems is conducted to evaluate suitable models for solving both challenges. The explorative data analysis shows that the article's month of pregnancy is an important indicator of how relevant an article is to a user. Neither collaborative filtering, content-based filtering, hybrid models, nor context-aware recommender systems are applicable because the user's pregnancy phase is unknown in the available data. Therefore, the proposed recommender system concept is a case-based model that recommends articles which belong to the same gestation phase as the currently viewed article.
This recommender system requires that the month of pregnancy, in which an article is relevant, is known for each article. However, this information is only available for 31% of all articles about pregnancy. Consequently, this work looks for an approach to predict the month of gestation based on the article text. The challenges with this are that only few training data are available, and the article texts of the various months of pregnancy often contain the same terms, considering all articles are about pregnancy. A keyword-based approach using the TF-IDF model is compared with a context-based approach using the BERT model. The results show that the context-based approach outperforms the keyword-based approach.
With Cloud Computing and multi-core CPUs parallel computing resources are becoming more and more affordable and commonly available. Parallel programming should as well be easily accessible for everyone. Unfortunately, existing frameworks and systems are powerful but often very complex to use for anyone who lacks the knowledge about underlying concepts. This paper introduces a software framework and execution environment whose objective is to provide a system which should be easily usable for everyone who could benefit from parallel computing. Some real-world examples are presented with an explanation of all the steps that are necessary for computing in a parallel and distributed manner.
The increasing digitalisation of daily routines confronts people with frequent privacy decisions. However, obscure data processing often leads to tedious decision-making and results in unreflective choices that unduly compromise privacy. Serious Games could be applied to encourage teenagers and young adults to make more thoughtful privacy decisions. Creating a Serious Game (SG) that promotes privacy awareness while maintaining an engaging gameplay requires, however, a carefully balanced game concept. This study explores the benefits of an online role-playing boardgame as a co-designing activity for creating SGs about privacy. In a between-subjects trial, student groups and educator/researcher groups were taking the roles of player, teacher, researcher and designer to co-design a balanced privacy SG concept. Using predefined design proposal cards or creating their own, students and educators played the online boardgame during a video conference session to generate game ideas, resolve potential conflicts and balance the different SG aspects. The comparative results of the present study indicate that students and educators alike perceive support from role-playing when ideating and balancing SG concepts and are happy with their playfully co-designed game concepts. Implications for supporting SG design with role-playing in remote collaboration scenarios are conclusively synthesised.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
This thesis aims to support the product development process. Therefore, an approach is developed, implemented as a prototype and evaluated, for automated solution space exploration of formally predefined design automation tasks holding the product knowledge of engineers. For this reason, a classification of product development tasks related to the representation of the mathematical model is evaluated based on the parameters defined in this thesis. In a second step, the mathematical model should be solved. A Solver is identified able to handle the given problem class.
Due to the context of this work, System Modelling Language (SysML) is chosen for the product knowledge formalisation. In the next step the given SysML model has to be translated into an object-oriented model. This translation is implemented by extracting information of a ".xml"-file using the XML Metadata Interchanging (XMI) standard. The information contained in the file is structured using the Unified Modelling Language (UML) profile for SysML. Afterwards a mathematical model in MiniZinc language is generated. MiniZinc is a mathematical modelling language interpretable by many different Solvers. The generated mathematical model is classified related to the Variable Type and Linearity of the Constraints and Objective of the generated mathematical model. The output is stored in a ".txt"-file.
To evaluate the functionality of the prototype, time consumption of the different performed procedures is measured. This data shows that models containing Continuous Variables need a longer time to be classified and optimised. Another observation shows that the transformation into an object-oriented model and the translation of this model into a mathematical representation are dependent on the number of SysML model elements. Using MiniZinc resulted in the restriction that models which use non-linear functions and Boolean Expressions cannot be solved. This is because the implementation of non-linear Solvers at MiniZinc is still in the development phase. An investigation of the optimally of the results, provided by the Solvers, was left for further work.
Die cloud-basierte Verarbeitung von Datenströmen von IoT-Geräten ist aufgrund hoher Latenzzeiten für zeitkritische Anwendungen nur beschränkt möglich. Fog Computing soll durch Nutzung der Rechen- und Speicherkapazitäten von lokal vorhandenen Geräten eine zeitnahe Datenverarbeitung und somit eine Verringerung der Latenzzeit ermöglichen. In dieser Arbeit werden Anforderungen an ein Fog Computing-Framework erhoben, das die dynamische Zuweisung und Ausführung von Services auf ressourcen-beschränkten Geräten in einem lokalen Netzwerk zur dezentralen Datenverarbeitung ermöglicht. Zudem wird dieses Framework prototypisch für mehrere Transportkanäle, unterschiedliche Betriebssysteme und Plattformen realisiert. Dazu werden die Möglichkeiten der Skriptsprache Lua und des Kommunikationsmechanismus Remote Procedure Call genutzt. Das Resultat ist ein positiver Machbarkeitsnachweis für Fog Computing-Funktionalitäten auf ressourcenbeschränkten Systemen. Zudem werden eine geringere Latenz und eine Reduktion der Netzwerklast ermöglicht.
Diese Arbeit untersucht ARM und DSP Multiprozessor Ein-Chip-Systeme von Analog Devices hinsichtlich deren Programmierung, Fähigkeiten und Limitierungen. Durch die Integrierung von unterschiedlichen Hardware-Beschleunigern und Prozessoren in Ein-Chip-Systeme wird echte Nebenläufigkeit ermöglicht. Allerdings wird durch die Integrierung mehrerer Prozessoren die Komplexität der Programmierung von Ein-Chip-Systemen erhöht. Im Zuge dieser Arbeit wird untersucht, was bei der Programmierung von ARM und DSP Ein-Chip-Systemen hinsichtlich der heterogenen Prozessoren und Peripheriebausteinen beachtet werden muss. Dabei werden zuerst die Gründe für heterogenes Rechnen und die Trendwende zu Multiprozessorsystemen erläutert. Anschließend wird der aktuelle Stand der Technik erarbeitet und Programmiermodelle beschrieben, die das Programmieren von heterogenen Multiprozessorsystemen vereinfachen. Überdies werden zwei Fallbeispiele gewählt, mit denen bedeutsame Eigenheiten der Programmierung eines Ein-Chip-Systems erarbeitet werden. Im ersten Fallbeispiel werden anhand der UART-Peripherie Erkenntnisse des Ein-ChipSystems dargelegt, die praktische Auswirkungen auf die Verwendung des Systems haben. Im zweiten Fallbeispiel wird bei der Berechnung der schnellen Fourier Transformation das heterogene System auf dessen Rechenleistung untersucht. Dabei wird die Performanz des Hardware-Beschleunigers gegenüber unterschiedlichen Software-Bibliotheken verglichen und die verschiedenartigen Implementierungen analysiert. Zudem werden durch die Performanzanalyse die Einflüsse der Speicherhierachie des Ein-Chip-Systems ermittelt. Weiterhin wird gezeigt, dass sich die Bibliotheken von Analog Devices in deren Anwendung und Performanz voneinander unterscheiden. Außerdem wird veranschaulicht, dass je nach Anwendungsfall eine nicht für DSPs ausgelegte quelloffene Implementierung konkurrenzfähig zu den optimierten Bibliotheken von Analog Devices und dem Hardware-Beschleuniger ist. Zudem wird durch die Analyse der Mehraufwand ermittelt, der für die Konfiguration des Hardware-Beschleunigers aufgebracht werden muss. Dabei wird gezeigt, dass die Verwendung des Hardware-Beschleunigers erst ab einer bestimmten Anzahl an Abtastwerten rentabel ist. Abschließend werden die zwei Fallbeispiele für einen Konzeptnachweis verknüpft, der die Möglichkeiten des heterogenen Rechnens veranschaulicht.
Towards a strategic management framework for engineering of organizational robustness and resilience
(2020)
Die morphologische Beurteilung menschlicher Embryos ist ein zeitaufwändiger Prozess in der assistierten Reproduktionsmedizin. Etwa fünf Tage entwickeln sich die Embryos bei einer IVF-Behandlung außerhalb des menschlichen Körpers, bevor Embryologinnen und Embryologen die Entscheidung über die zu transferierenden – also die für die Einleitung einer künstlich herbeigeführten Schwangerschaft zu verwendenden – Embryos anhand unterschiedlicher Bewertungskriterien treffen. Im Anschluss an eine Einführung in die Embryologie werden in dieser Arbeit mögliche Methoden zur automatisierten Embryoselektion besprochen, implementiert, miteinander verknüpft und abschließend evaluiert. Die Arbeit beschränkt sich mit dem EmbryoScope auf einen Zeitrafferinkubator, welcher in den IVF Zentren Prof. Zech in Bregenz in den letzten Jahren viele Millionen Bilder tausender befruchteter Eizellen und den daraus entstehenden Embryos aufgenommen hat. Dieses Gerät diente als Datenquelle zur Unterstützung bei der Entwicklung des Analysetools. Das entstandene Softwareprodukt wurde so programmiert, dass gegebenen Daten vorverarbeitet und unter Anwendung von Bildmanipulationsverfahren und komplexer neuronaler Netze analysiert werden können. Das Ergebnis ist eine Software zur Erkennung und Bewertung unterschiedlicher Parameter der Embryoentwicklung, um daraus Vorschläge für die Selektion der zu transferierenden Embryos generieren und übersichtlich präsentieren zu können.
Zur Evaluierung des Systems konnten drei Embryologinnen und Embryologen aus drei IVF Kliniken unterschiedlicher europäischer Länder gewonnen werden, um anhand einer eigens entwickelten Annotationssoftware Vergleichsdaten zu generieren. Als Endergebnis der Arbeit wurde die Einheitlichkeit dieser erhaltenen Annotationsdaten mit den errechneten Vorschläge anhand unterschiedlicher Kriterien berechnet. Die Transferierbarkeit eines einzelnen Embryos konnte im Vergleich zur Entscheidung des Laborpersonals in 73 % der Fälle korrekt erkannt werden. Bezogen auf eine gesamte IVF Behandlung konnte bei den tatsächlich zu transferierenden Embryos eine vollumfängliche Einheitlichkeit von 26 % mit den Embryologinnen und Embryologen erreicht werden. Embryos, welche von dem entstandenen Analysetool als transferierbar erkannt und unter Beachtung weiterer vorhandener Embryos für die weitere Behandlung vorgeschlagen wurden, sind in 63 % der Fälle für einen Transfer geeignet.
Das entstandene Vorschlagsystem ist als Proof of Concept zu verstehen, welches in späteren Arbeiten durch tiefgreifendere Analysen erweitert werden kann. Ein Einsatz des Systems ist aufgrund der geringen Analysesicherheit, sowie technischen und rechtlichen Einschränkungen zum Abschluss der vorliegenden Arbeit nicht vorgesehen.
Business Intelligence (BI) beschreibt den Bereich, der für die Auswertung betrieblicher Geschäftsdaten verantwortlich ist und von Unternehmen jeder Größe verwendet wird. Die erhaltenen Informationen unterstützen die Entscheidungsfindung von Unternehmen und können sich positiv auf die Geschäftsentwicklung auswirken. Die Hexagon Geosystems hat seit mehreren Jahren Lösungen im Einsatz, mit welchen die systematische Analyse von Geschäftsdaten abgewickelt wird. Für Unternehmen dieser Größe sind leicht zugängliche und benutzerfreundliche BI-Lösungen unerlässlich - über die Jahre und der wachsenden Menge an Analysen und Berichten haben sich aber Probleme in der Verwendung und Verständlichkeit gebildet, welche im Rahmen dieser Masterarbeit untersucht werden.
Zum Beginn werden die theoretischen Inhalte der Arbeit erläutert und eine Wissensgrundlage geschaffen. Aus der in der Ist-Analyse gegebenen Beschaffenheit im Unternehmen werden die Probleme der aktuellen Lösung im Rahmen einer Problemerläuterung aufgewiesen. Die daraus resultierenden Erkenntnisse bilden die Grundlage für die Konzipierung eines Proof of Concepts in den darauf folgenden Kapiteln. In dem Proof of Concept wird ein Vorschlag für ein Baukastensystem zur Erstellung von Berichten und dessen Dokunentationen präsentiert. Eine mittels der System Usability Scale durchgeführten Evaluation zeigte, dass eine benutzungsfreundliche Applikation entstanden ist, welche neben Vorteilen für die Endanwender des Business Warehouses auch Vorteile für die Administratorinnen bei der Erstellung von Berichten mit sich bringt. Eine Zusammenfassung und ein abschließender Ausblick weist diverse Arbeitsschritte auf, welche zur Integration der Applikation in die produktive Landschaft des Unternehmens benötigt werden.
Für die Digitale Fabrik an der FH Vorarlberg sollen Intrusion-Detection-Systeme (IDS) zur Erkennung von Angriffen auf Hosts sowie im Netzwerk evaluiert werden. Außerdem sollen die aus den IDS erhaltenen Resultate so dargestellt werden, damit Systemadministratorinnen rapide Entscheidungen bezüglich der generierten Alarme treffen können. Um dies zu gewährleisten sollen neben den IDS zusätzlich entsprechende Visualisierungstools evaluiert werden. In dieser Arbeit werden dazu unterschiedliche signatur- sowie auch anomaliebasierte Netzwerk- und Host-IDS technisch beschrieben und anhand von Kriterien, welche aus den Anforderungen abgeleitet werden, bewertet. Zusätzlich wird die Genauigkeit der IDS durch Testen von spezifischen Angriffen ermittelt. Außerdem werden potenzielle Tools für die Darstellung von Alarmen aus den IDS vorgestellt und ebenfalls anhand den Anforderungen aufgezeigt, welches am geeignetsten ist. Abschließend werden alle Probleme sowie Erkenntnisse aufgezeigt, welche während der Evaluierung auftraten und erläutert, wie diese Arbeit fortgeführt werden kann.
In dieser Arbeit wird eine Topologie-Erkennung beschrieben, welche durch rein passives Scannen ermöglicht wird. Dazu werden die verschiedenen Protokolle beschrieben, welche in dem Bereich Digital Substation verwendet werden, um mögliche Ansätze zu erarbeiten. Es werden die Redundanz-Protokolle STP (Spanning Tree Protocol), RSTP (Rapid Spanning Tree Protocol), PRP (Parallel Redundancy Protocol) und HSR (High-availability Seamless Redundancy) beschrieben. Es wird ein kurzer Überblick zum IEC-61850 Standard und dessen Protokolle SV (Sampled Values) und GOOSE (Generic Object Oriented Substation Event) gegeben. Auf dieser Grundlage wird eine Applikation entwickelt, welche die Data Link Layer Topologie erkennt. Die entwickelte Topologie-Erkennung wird als Proof-of-Concept für STP und RSTP Netzwerke verwendet und die entsprechenden Voraussetzungen werden beschrieben. Auf korrektes Verhalten wurde die in dieser Arbeit entwickelte Applikation mittels verschiedenen, simulierten Netzwerken und einem simplen Laboraufbau getestet. Die Applikation bietet auch die Möglichkeiten, solche Topologien zu visualisieren und zu vergleichen.
In dieser Arbeit sollen Möglichkeiten untersucht werden, um eine möglichst robuste und ressourcenschonende Methode für homogene autonome Roboterteams um eine gemeinsame Exploration und Kartierung einer unbekannten Umgebung durchzuführen. Zu diesem Zweck soll eine koordinierte Exploration durchgeführt werden, durch die die zeitliche Effizienz des Roboterteams gesteigert werden kann. Dadurch kann unter geringerem Aufwand und in weniger Zeit eine globale Karte einer unbekannten Umgebung erstellt werden, mit der alle beteiligten Roboter für zukünftige Aufträge arbeiten können. Um dies zu erreichen wurden verschiedene Map-Merging Methoden untersucht, von denen eine auf Feature Detection basierende Verfahren für eine verteilte, robuste und ressourcenschonende Vorgehensweise ausgewählt wurde. Nachdem zwei oder mehr Karten erfolgreich fusioniert werden, kann eine koordinierte Exploration mit den Robotern, die mit der geteilten Karte arbeiten können durchgeführt werden. Für die gemeinsame Exploration werden auf dem implementierten Kartenserver nach allen Frontiers gesucht, die in der Karte vorhanden sind. Diese werden gemeinsam mit den derzeitigen Explorationszielen der anderen Roboter kombiniert und dem Roboter, der gerade versucht ein neues Explorationsziel zu wählen mitgeteilt. Dadurch können alle Roboter selbständig und unabhängig voneinander mit den Informationen der anderen Roboter arbeiten. Durch den Umstand, dass die Roboter die Wahl des Explorationsziels und die Pfadplanung selbstständig durchführen können, funktioniert das Roboterteam auch weiter, falls die Kommunikation zu den anderen Robotern abgebrochen wird. Wenn ein Roboter, der die Kommunkationsmöglichkeit mit dem Kartenserver verloren hat die Kommunikation wiederherstellen kann, können die in der Zwischenzeit gesammelten Daten des Roboters normal für das gesamte System weiter verwendet werden und der Roboter kann die Exploration koordiniert mit den anderen Robotern fortsetzen. Zusätzlich können von dem Kartenserver zusätzliche Informationen angefordert werden, die bei der Entscheidung über das nächste Explorationsziel des Roboters hilfreich sein können. Sollte die Kommunikation nicht wiederhergestellt werden können, wird die Exploration von jedem Roboter individuell und ohne Koordinierung fortgesetzt. Eine Kommunikation mit dem Kartenserver findet nur dann statt, wenn ein Roboter ein neues Explorationsziel benötigt. Dadurch ist die Netzwerkbelastung für die Koordinierung und die Kartenfusionen minimal und alle Roboter können unabhängig von den aufwändigen Berechnungen, die auf dem Kartenserver durchgeführt werden müssen weiter ihrer Aufgabe nachgehen.
A modified matrix adaptation evolution strategy with restarts for constrained real-world problems
(2020)
In combination with successful constraint handling techniques, a Matrix Adaptation Evolution Strategy (MA-ES) variant (the εMAg-ES) turned out to be a competitive algorithm on the constrained optimization problems proposed for the CEC 2018 competition on constrained single objective real-parameter optimization. A subsequent analysis points to additional potential in terms of robustness and solution quality. The consideration of a restart scheme and adjustments in the constraint handling techniques put this into effect and simplify the configuration. The resulting BP-εMAg-ES algorithm is applied to the constrained problems proposed for the IEEE CEC 2020 competition on Real-World Single-Objective Constrained optimization. The novel MA-ES variant realizes improvements over the original εMAg-ES in terms of feasibility and effectiveness on many of the real-world benchmarks. The BP-εMAg-ES realizes a feasibility rate of 100% on 44 out of 57 real-world problems and improves the best-known solution in 5 cases.
In dieser Arbeit werden verschiedene Augmented Reality Tools analysiert und getestet, um eine Brandmeldezentrale zu erkennen und auf dieser virtuelle Inhalte darzustellen. Die Erkennung der Zentrale wird mittels Bilderkennung und Objekterkennung von Vuforia, Wikitude und AR Foundation durchgeführt. Zusätzlich wird in dieser Arbeit eine AR Applikation implementiert, welche sowohl mit iOS und Android Geräten als auch für die Microsoft HoloLens 2 kompatibel ist. Die Anwendung soll zeigen, an welcher Stelle in der Brandmeldezentrale ein Fehler vorliegt und wie dieser behoben werden kann. Für die Fehlerbehandlung kommt eine “Schritt für Schritt Anleitung“ zum Einsatz, bei welcher Teile der Zentrale augmentiert hervorgehoben werden, wenn diese für die Behebung des Problems relevant sind. Es werden diverse Geräte bezüglich Interaktion und deren Stärken bzw. Schwächen evaluiert. Für die Analyse haben Testpersonen die Anwendung sowohl auf der HoloLens 2 als auch auf einem iPad Pro getestet. Die Ergebnisse zeigen, dass einige Personen Schwierigkeiten mit der Gestensteuerung auf der HoloLens 2 haben. Die Ausführung der Pinch Geste, welche durch das zusammendrücken von Daumen und Zeigefinger ausgeführt wird, wurde oft zu ungenau durchgeführt. Der Vergleich der beiden Geräte hat ergeben, dass Interaktionen auf dem iPad schneller ausgeführt werden können als auf der HoloLens. Außerdem wurde überprüft, wie sich unterschiedliche Lichtverhältnisse auf die Anwendung auswirken. Dabei stellte sich heraus, dass die Hologramme bei der HoloLens bei einer stark beleuchteten Umgebung nicht gut sichtbar sind. Die Objekterkennung der Brandmeldezentrale weist einige Fehler bei der Erkennung der Brandmeldezentrale auf. Diese sind darauf zurückzuführen, dass die Brandmeldezentrale für die verwendeten Augmented Reality Tools zu wenig Merkmale aufweist.
The importance of Agent-Based Simulation (ABS) as scientific method to generate data for scientific models in general and for informed policy decisions in particular has been widely recognised. However, the important technique of code testing of implementations like unit testing has not generated much research interested so far. As a possible solution, in previous work we have explored the conceptual use of property-based testing. In this code testing method, model specifications and invariants are expressed directly in code and tested through automated and randomised test data generation. This paper expands on our previous work and explores how to use property-based testing on a technical level to encode and test specifications of ABS. As use case the simple agent-based SIR model is used, where it is shown how to test agent behaviour, transition probabilities and model invariants. The outcome are specifications expressed directly in code, which relate whole classes of random input to expected classes of output. During test execution, random test data is generated automatically, potentially covering the equivalent of thousands of unit tests, run within seconds on modern hardware. This makes property-based testing in the context of ABS strictly more powerful than unit testing, as it is a much more natural fit due to its stochastic nature.
With the emergence of the recent Industry 4.0 movement, data integration is now also being driven along the production line, made possible primarily by the use of established concepts of intelligent supply chains, such as the digital avatars. Digital avatars – sometimes also called Digital Twins or more broadly Cyber-Physical Systems (CPS) – are already successfully used in holistic systems for intelligent transport ecosystems, similar to the use of Big Data and artificial intelligence technologies interwoven with modern production and supply chains. The goal of this paper is to describe how data from interwoven, autonomous and intelligent supply chains can be integrated into the diverse data ecosystems of the Industry 4.0, influenced by a multitude of data exchange formats and varied data schemas. In this paper, we describe how a framework for supporting SMEs was established in the Lake Constance region and describe a demonstrator sprung from the framework. The demonstrator project’s goal is to exhibit and compare two different approaches towards optimisation of manufacturing lines. The first approach is based upon static optimisation of production demand, i.e. exact or heuristic algorithms are used to plan and optimise the assignment of orders to individual machines. In the second scenario, we use real-time situational awareness – implemented as digital avatar – to assign local intelligence to jobs and raw materials in order to compare the results to the traditional planning methods of scenario one. The results are generated using event-discrete simulation and are compared to common (heuristic) job scheduling algorithms.
A multi-recombinative active matrix adaptation evolution strategy for constrained optimization
(2019)
Stress testing is part of today’s bank risk management and often required by the governing regulatory authority. Performing such a stress test with stress scenarios derived from a distribution, instead of pre-defined expert scenarios, results in a systematic approach in which new severe scenarios can be discovered. The required scenario distribution is obtained from historical time series via a Vector-Autoregressive time series model. The worst-case search, i.e. finding the scenario yielding the most severe situation for the bank, can be stated as an optimization problem. The problem itself is a constrained optimization problem in a high-dimensional search space. The constraints are the box constraints on the scenario variables and the plausibility of a scenario.
The latter is expressed by an elliptic constraint. As the evaluation of the stress scenarios is performed with a simulation tool, the optimization problem can be seen as black-box optimization problem. Evolution Strategy, a well-known optimizer for black-box problems, is applied here. The necessary adaptations to the algorithm are explained and a set of different algorithm design choices are investigated. It is shown that a simple box constraint handling method, i.e. setting variables which violate a box constraint to the respective boundary of the feasible domain, in combination with a repair of implausible scenarios provides good results.