000 Allgemeines, Informatik, Informationswissenschaft
Refine
Document Type
- Master's Thesis (33)
- Conference Proceeding (7)
- Article (4)
- Part of a Book (1)
- Working Paper (1)
Institute
- Forschungszentrum Business Informatics (4)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (2)
- Forschungszentrum Digital Factory Vorarlberg (2)
- Forschungszentrum Human Centred Technologies (2)
- Technik | Engineering & Technology (2)
- Wirtschaft (2)
- Forschungsgruppe Empirische Sozialwissenschaften (1)
- Gestaltung (1)
- Soziales & Gesundheit (1)
Keywords
- Resilienz (2)
- Supply Chain Management (2)
- VUCA (2)
- 6DoF pose estimation (1)
- AWS-Investitionsprämie (1)
- Actor Model (1)
- Advertisement (1)
- Agiles Prozessmanagement (1)
- Agilität (1)
- Aktorenmodell (1)
Einfluss staatlicher Fördermaßnahmen auf Investitionsentscheidungen von Unternehmen – Eine Untersuchung der Wirksamkeit der AWS-Investitionsprämie auf Vorarlberger Unternehmen. Die Investitionsförderung ist ein wichtiges Instrument der österreichischen Politik. Dabei soll durch Zuschüsse bei Investitionen in Digitalisierung, Ökologisierung, bauliche Anlagen oder auch technische Einrichtungen die weltweite Wettbewerbsfähigkeit gestärkt und österreichische Arbeitsplätze gesichert werden.
Ziel dieser Arbeit ist es, den Einfluss der staatlichen Fördermaßnahmen auf Investitionsentscheidungen von Vorarlberger Unternehmen zu untersuchen. Anhand von Experteninterviews und der Auswertung des AWS-Leistungsberichtes soll festgestellt werden, ob diese Förderungen die gewünschte Wirksamkeit aufweisen können.
Zunächst werden die verschiedenen Investitionsrechenverfahren ausführlich erklärt und er-läutert. In weiterer Folge behandelt diese Arbeit die staatlichen Förderungen und weitere Anreize der Politik. Darüber hinaus werden die Experteninterviews miteinander verglichen und analysiert, um Erkenntnisse über die Auswirkung staatlicher Fördermaßnahmen zu gewinnen. Definitiv ist ein Einfluss staatlicher Fördermaßnahmen gegeben. Einerseits hat sich das Volumen der Investitionen stark erhöht, anderseits sind diese in den Zeitraum der Förderungen verlegt worden. Ein weiterer wichtiger Aspekt ist, dass die staatlichen Fördermaßnahmen die Basis der Investitionsrechenverfahren verändern.
Operative Exzellenz wird als Sammelbegriff für strategische Managementansätze angesehen, welche anhand von Optimierungsinitiativen die Geschäftsprozesse des Unternehmens auf Kundenbedürfnisse, Qualität wie auch auf Effizienz ausrichten. Exzellenzmodelle kombinieren sowohl technische als auch soziale Faktoren im Streben nach nachhaltiger Verbesserung und basieren nicht nur auf dem Betriebsmanagement und den technischen Prozessen, sondern widmen auch den Menschen und ihrem Einfluss auf die erfolgreiche Umsetzung eines Optimierungsprogramms besondere Aufmerksamkeit. Ziel dieser Masterarbeit ist es, die entscheidende Rolle von Führungskräften und deren Führungsstile zu diskutieren, welche laut der ausgewerteten akademischen Literatur, sich für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 als erfolgsversprechend nennen lassen, indem die gewünschte Organisationskultur durch gezielte Anwendung von Führungskonzepten gefördert wird. Die Fragestellung der Masterarbeit wird anhand eines theoretisch-konzeptionellen Vorgehens beantwortet. Die Untersuchungen haben die Erkenntnisse zu Tage gebracht, dass sich mit dem Wandel der Anforderungen an die Unternehmen, auch die Führungskonzepte an die Anforderungen angepasst haben und somit auch die Führungsphilosophie von „Command and Control“ zu „Empowerment“, „agiler Führung“ und „transformationaler Führung“ übergegangen ist. Für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 konnten die Führungskonzepte „Transformationale Führung“, „Symbolische Führung“, „Mitarbeiter empowern“ und „Agile Führung“ identifiziert werden. Es besteht Grund zur Annahme, dass eine Kombination der vorgestellten Führungskonzepte die besten Ergebnisse liefern würde, insofern das geeignetste Führungskonzept situationsadäquat angewendet wird.
Einfluss verhaltensökonomischer Faktoren auf die Nutzung neuer Technologien im Prozessmanagement
(2023)
Process Mining ist ein effektives Werkzeug, um bestehende Lücken in der Prozessüberwachung eines im Unternehmen integrierten Prozessmanagements zu verringern. Trotz dem weitverbreiteten Bewusstsein über diesen Umstand, wird Process Mining bisher in wenigen Unternehmen erfolgreich eingesetzt. Da die Einführung einer neuen Technologie als Change-Projekt einzustufen ist, ist die soziale Ebene in Form der Mitarbeitenden zu berücksichtigen. Da Menschen nicht ausschließlich rational entscheiden und handeln, ist davon auszugehen, dass auch Erkenntnisse aus der Verhaltensökonomie in diesem Zusammenhang eine Rolle spielen. Die vorliegende Arbeit beschäftigt sich insbesondere mit möglichen verhaltensökonomischen Faktoren, die für die Nutzung neuer Technologien im Prozessmanagement relevant sind. Für die Beantwortung dieser Frage wurde als Anwendungsbeispiel das Feld des Process Mining und ein theoretisch-konzeptionelles Vorgehen gewählt. Dabei werden zunächst die Forschungsfelder Process Mining, Change Management und Verhaltensökonomie theoretisch aufgearbeitet und mit verschiedenen Eigenschaften charakterisiert, um dann mögliche verhaltensökonomische Faktoren abzuleiten. Diese Masterarbeit zeigt, dass verhaltensökonomischen Faktoren in Form von kognitiven Verzerrungen entscheidend zum Erfolg bei der Einführung neuer Technologien beitragen. Von den drei ermittelten Charakteristika der „Neuartigkeit“, der „Komplexität der Technologie“ und den mit der Technologie einhergehenden „Ängsten und Unsicherheiten“ lassen sich folgende kognitive Verzerrungen ableiten: Der Status-Quo-Bias, die Verlustaversion, der Confirmation Bias, der Appeal to Novelty und der Pessimism Bias. Für jede kognitive Verzerrung wurden Gegenmaßnahmen aufgezeigt.
Die digitale Geschäftstransformation forciert Unternehmen regelrecht, grundlegende sowie neue Fähigkeiten zu entwickeln, um weiterhin wettbewerbsfähig zu bleiben. Unter anderem auch in der Supply Chain. Die Integration digitaler Anwendungen in diesem Bereich ist aller-dings äußerst mangelhaft. Aus diesem Grund wird zunächst der aktuelle Grad der Digitalisierung von global agierenden Unternehmen eruiert. Als ein weiteres Ziel dieser Arbeit wird die Erreichung einer nachhaltigen Wettbewerbsfähigkeit hinsichtlich einer Supply-Chain-4.0-Integration anhand der Theorie der Business Capabilities untersucht. Dazu wird die Forschungsfrage wie folgt definiert: „Was lässt sich fundiert über den Grad der Digitalisierung von global agierenden Unternehmen in ihrer Supply Chain sagen und welche Rolle spielt dabei das Business Capability Manage-ment?” Um die Forschungsfrage erfolgreich beantworten zu können, wird ein theoretisch-konzeptio-nelles Vorgehen angewendet. In Verbindung mit der Methode der konzentrischen Kreise wird eine umfassende Literaturrecherche ermöglicht. Die Auseinandersetzung mit der Literatur zeigt auf, dass die Anwendung der Digitalisierung in diesem Bereich in einer Vielzahl neuer Business Capabilities mit weiterführenden positiven Auswirkungen resultiert.
Chatbots für Alle
(2023)
Digitale Barrierefreiheit ist eine der großen Aufgaben in unserer Gesellschaft, um die Gleichstellung aller Menschen zu gewährleisten. Für unterschiedliche Personengruppen stellt die Anwesenheit von Barrieren ein Problem dar, daher hat sich diese Arbeit zur Fragestellung gesetzt, welche konkreten Gestaltungsempfehlungen exemplarisch zum Abbau kognitiver Barrieren bei textbasierten Gesprächsschnittstellen beitragen können. Wie Menschen mit kognitiven Einschränkungen, mit beispielsweise Lernschwierigkeiten, Gestaltung innerhalb von Dialog-Systemen wahrnehmen, ist weitgehendst unerforscht. Denn das Web wird vornehmlich für Nutzende mit durchschnittlichen Fähigkeiten und Anforderungen gestaltet. Um Barrierefreiheit im Digitalen zu gewährleisten, bieten die Web Content Accessibility Guidelines (WCAG) eine Referenz für die gesetzliche Grundlage. Allerdings sind die darin enthaltenden Erfolgskriterien allgemein fürs Web und nicht konkret genug für textbasierte Chatbots formuliert und lassen für Designer:innen und Entwickler:innen großen Interpretationsspielraum in der Umsetzung offen. Digitale Barrieren sind Hindernisse, die Menschen teilweise oder vollkommen behindern etwas zu tun. Vor allem erleben marginalisierte Personengruppen, wie ältere Menschen oder Menschen mit Einschränkungen, Ausschlussmechanismen aus digitalen Produkten und Services. Zeitgleich zu dieser Ungerechtigkeit schreitet der demografische Wandel voran. Parallel damit steigt die Wahrscheinlichkeit mit einer Einschränkung psychischer oder physischer Natur zu leben – beispielsweise eine Demenz im Alter zu haben. Die Nichtteilnahme im Digitalen führt in einer Gesamtbetrachtung in Folge zu einer mehr oder weniger ausgeprägten sozialen und gesellschaftlichen Spaltung. Zudem ist die Frage, wer für die Umsetzung von Barrierefreiheit verantwortlich ist weitgehend ungeklärt. Zugrundeliegende Faktoren für Ausschlussmechanismen ist z. B. die personelle Homogenität in Entwicklungsteams und damit zusammenhängend die Reproduktion der privilegierten Sichtweisen in gestaltete Artefakte. Offensichtlich ist, dass Entwickler:innen und Designer:innen zur Konstruktion und damit zur Dekonstruktion von Barrieren beitragen können. Das Ziel des Forschungsvorhabens ist es, einen Beitrag zum aktuellen Wissensstand zu leisten und reale Nutzende zu partizipieren. Dazu wurden gestalterische Experimente und Usability Tests durchgeführt und die exemplarischen Ergebnisse in konkreten Gestaltungsempfehlungen in einem Empfehlungskatalog synthetisiert.
In an oversaturated market, companies are required to use innovative and, above all, creative advertising methods to capture their customers’ attention, and thus differentiate themselves from rival businesses. To this end, companies have been increasingly relying on the use of humor, a phenomenon that remains highly subjective and is perceived differently by each individual. This master’s thesis, which was completed as part of the International Marketing and Sales program at the FH Vorarlberg, focuses on this phenomenon of humor as well as its impact on advertising perception. With the aid of three different theories, the term “humor” is defined. Furthermore, this study explains and researches the so-called vampire effect, wherein various factors (in this case humor) draw attention away from the actual advertising message. In addition, this thesis takes a closer look at involvement, as a person’s involvement or interest in a brand or product can influence brand and product recall and recognition. An online survey was conducted to determine whether the vampire effect caused by humor is able to influence brand and product recall. In other words, this concerns whether the viewer can still remember the brand and product afterward or whether the humor employed triggers the vampire effect. Furthermore, this thesis explored whether the vampire effect caused by humor is able to influence brand and product recognition. Recall is the retrieval of information from memory without direct cues, whereas recognition refers to the recognition of information when it is presented again. Furthermore, within this context, it was discovered that brand and product recall varies with low and high involvement viewers of the advertisement. In other words, this means that the strength of the vampire effect caused by humor changes depending on the strength of the viewer’s involvement. During the course of this research, it was further observed that the humor employed significantly affects the perception of the advertising message, thus confirming the existence of the vampire effect. This effect also influences both brand as well as product recall and recognition. In both cases, participants in the survey were less able to remember the product and brand in the humorous advertising. Furthermore, it was proven that people with low involvement in the advertised product group are more heavily affected by the vampire effect. As such, they are more likely to not remember the product or brand after seeing the advertisement.
Digital twin as enabler of business model innovation for infrastructure construction projects
(2023)
Emerging technologies and methods are becoming an important element of the construction industry. Digital Twins are used as a base to store data in BIM models and make use out of the data respectively make the data visible. The transparency in all phases of the lifecycle of building and infrastructure assets is crucial in order to get a more efficient lifecycle of planning, construction and maintenance. Whereas other industries increased performance in these phases by making use out of the data, construction industry is stuck in traditional methods and business models. In this paper we propose a concept that focuses on the digital production twin. The comparison of planning data with As-Is production data can empower a data driven continuous improvement process and support the decision making process of future innovations and suitable business models. This paper outlines the possibility to use the data stored in a digital twin with regards to the evaluation of possible business models.
Die aktuell eingesetzte Word-Antragsvorlage zur Erstellung und Einreichung von Ethikanträgen für die Forschungsethik-Kommission der Fachhochschule Vorarlberg entspricht nicht mehr den Anforderungen und Wünschen der Anwender:innen. Neben technischen Limitierungen stellen vor allem die eingeschränkten Möglichkeiten den Grund dar, weshalb anhand der Prinzipien sowie der vier Phasen des User-Centered Designs eine Software-Lösung ausgearbeitet wurde, die das bestehende System langfristig ablösen können soll. Die einzelnen Kapitel dieser Arbeit entsprechen jeweils einer der vier Phasen und stellen als Ganzes eine vollständig abgeschlossene Iteration des Prozesses dar. Die durchgeführte Analyse der Nutzerkontexte basiert auf der Aufarbeitung der Kriterien der Forschungsethik und vor allem einer detaillierten Analyse des bestehenden Systems und Prozesses der Forschungsethik-Kommission. Neben der Funktionsweise und dem inhaltlichen Aufbau werden im Zuge dessen gleichzeitig die Stärken und Schwächen erläutert. Ebenso findet eine breite Analyse von anderweitigen Systemen und Prozessen von Ethikkommissionen innerhalb Österreichs statt, um den Stand der Technik zu erheben. Die anschließende Definition von konkreten Anforderungen basiert auf der Umsetzung einer qualitativen Inhaltsanalyse der durchgeführten Interviews nach Kuckartz. Insgesamt können dabei neun Anforderungen definiert werden, die unterschiedlich priorisiert größtenteils in der eigens entwickelten EthicsVision Plattform umgesetzt werden konnten. Zum Einsatz kommen dabei sowohl Docker als auch das Symfony-Framework und die Angular-Plattform. Die abschließende Evaluation des Prototyps basiert auf Feedback der Antragsteller:innen und der Forschungsethik-Kommission. Der Proof of Concept wird dabei als gute Basis wahrgenommen, während bereits diverse Weiterentwicklungsmöglichkeiten aufgezeigt werden können. Das Ziel der Arbeit, die Neuentwicklung des Ethikantrag-Tools zu bewerkstelligen, konnte erreicht und ein Weg für die künftige Gestaltung des Prozesses aufgezeigt werden.
Die vorliegende Masterarbeit untersucht die Rolle des Controllings für innovative Startups in Österreich, insbesondere in der Anfangsphase. Experteninterviews wurden durchgeführt, um Einsichten in die Herausforderungen, Chancen und Best Practices des Startup-Controllings zu gewinnen. Die gewonnenen Erkenntnisse wurden analysiert und in Kategorien zusammengefasst, um einen umfassenden Überblick über die wichtigsten Ergebnisse zu liefern. Die Arbeit betont die Bedeutung einer effektiven Controlling-Funktion für Startups, um fundierte Entscheidungen zu treffen, die finanzielle Leistungsfähigkeit zu verbessern und das langfristige Wachstum zu unterstützen.
Lack of transparency and traceability of products and their raw materials means that most products can only be thrown away or not properly recycled due to a lack of relevant data. This conflicts with the circular economy principles, which are demanded by several initiatives, including the European Union. The aim of this master thesis is to analyze this conflict and to propose a technical solution based on Distributed Ledger Technology that enables transparency and traceability of products and their materials. Therefore, the thesis addresses two central research questions: 1. How can traceability and transparency be enabled by integrating a DLT solution? 2. How would a prototype with the integration of smart contracts and DLT look like? To answer these questions, a blockchain solution is implemented using Hyperledger Fabric. The solution uses the immutability and decentralized nature of DLT to record and track the movement of products and their materials throughout their life cycle in the Circular Economy. Furthermore, with private data collections, confidentiality, and privacy are granted while ensuring transparency. The thesis contributes to the Circular Economy field by exploring the principles, models, and challenges of the Circular Economy and the circularity goals of a Digital Product Passport to develop a suitable technical solution. The chosen blockchain framework, Hyperledger Fabric, is presented, and its key components and features are highlighted. The thesis also delves into the design decisions and considerations behind the Digital Product Passport platform, explaining the architecture and transaction flow together with the prototype implementation and demonstration to showcase the functionality of the solution. Results and analysis provide insights into the challenges of the Circular Economy, sustainable resource management, and the Digital Product Passport, resulting in recommendations for future improvements and enhancements. Overall, this thesis offers a practical solution utilizing DLT to enable transparency and traceability in the Circular Economy, contributing to the realization of sustainable and efficient resource management practices to ultimately contribute to the set Circular Economy initiatives.
Programmable Logic Controller (PLC) modules are used in industrial settings to control and monitor various manufacturing processes. Detecting these modules can be helpful during installation and maintenance. However, the limited availability of real annotated images to train an object detector poses a challenge. This thesis aims to research object detection of these modules on real images by using synthetic data during training. The synthetic images are generated from CAD models and improved with Generative Adversarial Networks (GANs). The CAD models are rendered in different scenes, and perfectly annotated images are automatically saved. A technique called domain randomization is applied during rendering. It renders the modules in different poses with constantly changing backgrounds. As the CAD models do not visually resemble the real modules, it is necessary to improve the synthetic images. This project researches StarGAN and CycleGAN for the task of image-to-image translation. A GAN is trained with real and synthetic images and can then translate between these domains. YOLOv8 and Faster R-CNN are tested for object detection. The best mean Average Precision (mAP) is achieved when training with a synthetic dataset where 50% of the images were improved with StarGAN. When trained with YOLOv8 and evaluated on a real dataset, it achieves a mAP of 84.4%. Overall, the accuracy depends on the quality of the CAD models. Using a GAN improves the detection rate for all modules, but especially for unrealistic CAD models.
Um Data Analytics gezielt und effektiv einzusetzen, gilt es als wichtig, die organisationale Reife eines Unternehmens in Bezug auf die Umsetzung von Data Analytics zu messen und zu verstehen. Da viele Unternehmen allerdings noch nicht bereit für die Implementierung von Supply Chain Analytics sind, benötigen sie ein Tool mit dem die eigene organisationale Reife gemessen und verbessert werden kann. Dafür wird in dieser Arbeit ein Readiness-Assess- ment-Framework entwickelt, das die organisationale Reife eines Unternehmens bestimmt und mittels ergänzendem Leitfaden Möglichkeiten zur Optimierung der eigenen Reife aufzeigt. Die Besonderheit dieses Assessments liegt in der Aufteilung in einzelne organisationale und tech- nologische Kategorien sowie deren Erfolgsfaktoren. Der Aufbau dieser Arbeit folgt dem De- sign-Science-Ansatz von Peffers et al. (2006). Mittels eines Literature Reviews und Expert:in- neninterviews wurden die Kategorien und Erfolgsfaktoren für das Assessment identifiziert und verifiziert. Nach der Entwicklung des Assessments wurde in einem Workshop die Praxistaug- lichkeit des Frameworks überprüft. Abschließend werden Ansatzpunkte für künftige Weiter- entwicklungen des Frameworks dargestellt.
The advent of autonomous and self-driving cranes represents a significant advancement in industrial automation. One critical prerequisites for achieving this long-term goal is the accurate and reliable detection of tools guided by ropes in real-world environments. Since the tool is suspended by ropes, the tool pose cannot be controlled directly. This master’s thesis addresses the challenges of pose estimation for rope-guided tools using point cloud measurements. The proposed algorithm utilizes constraints imposed by the crane kinematics and information extracted during the segmentation process to efficiently infer the pose of the hook, therefore enabling the use of the pose for decision making in real-time critical applications. RANSAC (Random Sample and Consensus) is deployed in the segmentation process to extract geometric primitives from the point cloud which represent the ropes and distinctive parts of the tool. Since the point cloud is often to sparse for feature matching a bounding box is used to estimate the initial position of the tool. Two different methods are presented to improve the initial pose. A computationally expensive method with a high level of confidence, integrating the ICP (Iterative Closest Point) algorithm is used as a benchmark. A linear Kalman filter is used in the second method which is real-time capable. The benchmark is then used to evaluate the real-time capable approach. The core contributions of this research lie in the innovative utilization of bounding boxes for pose estimation. The findings and methodologies presented herein constitute an advancement towards the realization of autonomous and self-driving cranes.
In the era of digital transformation an evolution takes place. Following this, new perspectives concerning leadership are required, especially in virtual teams. Shared Leadership is a promising leadership form to meet the challenges in a virtual team setting. Particularly, studies show that shared leadership increases performance, team creativity and innovative behavior. Moreover, the responsibility is distributed among several, not one individual. Nevertheless, it is unclear, which skills are needed in shared leadership teams and how they could be trained. Therefore, we develop a conceptual framework to pave the way for an empirical inquiry of the skills for and the role of shared leadership. Moreover, we encourage the discussion, whether the current leadership development is still viable and offer practical implications to develop shared leadership.
Offline speech to text engine for delimited context in combination with an offline speech assistant
(2022)
The inatura museum in Dornbirn had planned an interactive speech assistant-like exhibit. The concept was that visitors could ask the exhibit several questions that they would like to ask a flower. Solution requirements regarding the functionalities were formulated, such as the capacity to run offline because of privacy reasons. Due to the similarity of the exhibit, open-source offline Speech To Text (STT) engines and speech assistants were examined. Proprietary cloud-based STT engines associated with the corresponding speech assistants were also researched. The aim behind this was to evaluate the hypothesis of whether an open-source offline STT engine can compete with a proprietary cloud-based STT engine. Additionally, a suitable STT engine or speech assistant would need to be evaluated. Furthermore, analysis regarding the adaption possibilities of the STT models took place. After the technical analysis, the decision in favour of the STT engines called "Vosk" was made. This analysis was followed by attempts to adapt the model of Vosk. Vosk was compared to proprietary cloud-based Google Cloud Speech to Text to evaluate the hypothesis. The comparison resulted in not much of a significant difference between Vosk and Google Cloud Speech to Text. Due to this result, a recommendation to use Vosk for the exhibit was given. Due to the lack of intent parsing functionality, two algorithms called "text matching algorithm" and "text and keyword matching algorithm" were implemented and tested. This test proved that the text and keyword matching algorithm performed better, with an average success rate of 83.93 %. Consequently, this algorithm was recommended for the intent parsing of the exhibit. In the end, potential adaption possibilities for the algorithms were given, such as using a different string matching library. Some improvements regarding the exhibit were also presented.
Der Begriff der Nachhaltigkeit und der damit einhergehende Druck der Gesellschaft auf Unternehmen nimmt stetig zu. Unternehmen haben in den letzten Jahren damit begonnen, nachhaltige Ansätze im Rahmen ihrer wirtschaftlichen Tätigkeit zu integrieren und nach außen hin zu vertreten.
Das Ziel dieser Arbeit ist die Entwicklung eines sogenannten ESG-Leitfadens, welcher als zusätzliches Analysewerkzeug im Rahmen einer Unternehmensprüfung von Private-Equity-Gesellschaften eingesetzt werden kann. Der Leitfaden gilt als Leitlinie für die Einhaltung von ESG-Kriterien sowie den Bestimmungen der EU-Offenlegungsverordnung für nachhaltige Finanzprodukte.
Im Rahmen einer umfassenden Recherche wurden in einem ersten Schritt bestehende Due-Diligence-Prüfungen auf nachhaltige Aspekte untersucht. Anschließend wurden weitere Kriterien zur Erfüllung der ESG-Aspekte auf Basis einer entwickelten Methodik extrahiert und in den vorgesehenen Leitfaden implementiert. Weiters wurde sichergestellt, dass mit der Anwendung des Leitfadens die Grundzüge der EU-Offenlegungsverordnung eingehalten werden können.
In einem abschließend durchgeführten Anwendungstest wurde die Einsatzfähigkeit des Leitfadens bestätigt. Der Erfolg des ESG-Leitfadens, im Hinblick auf einen später darauf zurückzuführenden wirtschaftlichen Erfolg, kann lediglich in Kombination mit weiteren Prüfmethoden sichergestellt werden.
The demand for managing data across multiple domains for product creation is steadily increasing. Model-Driven Systems Engineering (MDSE) is a solution for this problem. With MDSE, domain-specific data is formalized inside a model with a custom language, for example, the Unified Modelling Language (UML). These models can be created with custom editors, and specialized domains can be integrated with extensions to UML, e.g., the Systems Modeling Language (SysML). The most dominant editor in the open-source sector is Eclipse Papyrus SysML 1.6 (Papyrus), an editor to create SysML diagrams for MDSE.
In the pursuit of creating a model and diagrams, the editor does not support the user appropriately or even hinders them. Therefore, paradigms from the diagram modelling and Human Computer Interaction (HCI) domains, as well as perceptual and design theory, are applied to create an editor prototype from scratch. The changes fall into the categories of hierarchy, aid in the diagram composition, and navigation. The prototype is compared with Papyrus in a user test to determine if the changes have the effect of improving usability.
The study involved 10 participants with different knowledge levels of UML, ranging from beginners to experts. Each participant was tested on a navigation and modelling task in both the newly created editor, named Modelling Studio, and Papyrus. The study was evaluated through a questionnaire and analysis of the diagrams produced by the tasks.
The findings are that Modelling Studio’s changes to the hierarchical elements improved their rating. Furthermore, aid for diagram composition could be reinforced by changes to the alignment helper tool and adjustments to the default arrow behaviour of a diagram. Lastly, model navigation adjustments improve a link’s visibility and rating of a specialized link (best practice). The introduction of breadcrumbs had limited success in bettering navigation usability. The prototype deployed a broad spectrum of changes that found improvement already, which can, however, be further improved and tested more thoroughly.
Projects, in which software products, services, systems and solutions are developed, all rely on the right requirements to be established. Software requirements are the expression of user wants or needs that have to be addressed, business objectives that have to be met, as well as capabilities and functionality that has to be developed. Meanwhile, practice shows that very often incorrect, unclear or incomplete requirements are established, which causes major problems for such projects. It could lead to budget overruns, missed deadlines and overall failure in worst-case scenarios.
The field of requirements engineering emerged as an answer to these shortcomings, aiming to systematize and streamline the process that
establishes requirements. Requirements elicitation is a key component of this process, and one of its starting points. The current thesis attempts to outline best practices in requirements elicitation, as well as what issues, obstacles and challenges are currently faced, and then present this through the lens of national culture. In this way its effects on the practice, if any, could be highlighted and studied further. The way this was achieved was by interviewing practitioners from two nations, which are shown to be
culturally different, and then comparing and contrasting the findings.
Meanwhile, the validity of those findings was enhanced by comparisons with existing literature.
Even though the findings were not compelling enough to form generalizations or concrete conclusions about the effects of national culture on requirements elicitation, these findings revealed patterns that could be worth exploring further. When it comes to requirements elicitation itself, it was observed to benefit from a structured and systematic approach, and be
most effective with one-on-one, instead of group interactions. The main pain points of the process stem from the complexity of communication, but are not always obvious. Practitioners are also advised to carefully plan the gathering of requirements, as the source may not have them readily available, and could even be unclear about what exactly is needed. Overall, this thesis research could be considered successful in its goal to shed a modicum of light on the issue at hand from a different, underexplored angle. By following a systematic and methodical approach, this research has also been made easier to expand or replicate.
Seit der Einführung von modernen Smartphones steigt die Bildschirmdiagonale der mobilen Endgeräte Jahr für Jahr. Dies ist sowohl ein Fluch als auch ein Segen zugleich. Einerseits kann auf einer größeren Bildschirmfläche eine größere Anzahl von Inhalten grafisch dargestellt werden. Andererseits bedeutet dies aber auch, dass Interaktionen mit der gesamten verfügbaren Bildschirmfläche sich als immer schwieriger gestalten. Insbesondere bei der einhändigen Bedienung des Smartphones mit dem Daumen erfordern ungünstig platzierte klickbare Bedienelemente eine erhebliche Streckung des betreffenden Fingers oder sogar die Unterstützung durch die andere Hand. Dadurch kann die Präzision von Berührungsinteraktionen beeinträchtigt werden. Es stellt sich deshalb folgende Forschungsfrage: „Inwiefern hängt die Berührungspräzision von unvorteilhaft positionierten Bedienelementen in Smartphones ab und wie unterscheiden sich die verschiedenen Altersgruppen hinsichtlich Smartphone Interaktionen?“ Zur Beantwortung der Forschungsfrage wurde eine quantitative Studie im Design einer interaktiven Umfrage für Smartphones programmiert und an potentielle Teilnehmer:innen versandt. Dabei wurden die Teilnehmenden aufgefordert vordefinierte Haltegriffe einzuhalten. Es wurden die Berührungsinteraktionen und die Antworten der Teilnehmenden protokolliert und anschließend analysiert. Bei der Datenanalyse wurden die erhobenen Daten der Teilnehmenden in vier Altersklassen unterteilt und anschließend auf Differenzen bezüglich der Bedienpräzision untersucht. Die Darstellung und der Vergleich der Benutzer:inneninteraktionen durch OffsetVektoren ergab, dass die Versuchsgruppe der Senioren bei allen vordefinierten Haltegriffen eine signifikant geringere Präzision in Bezug auf die Berührungsgenauigkeit aufwies als die anderen Testgruppen. Darüber hinaus wurde festgestellt, dass Objekte, die weiter von der natürlichen Fingerposition entfernt sind, mit einer geringeren Präzision selektiert werden als Objekte, die in unmittelbarer Nähe zum bedienenden Finger positioniert sind. Dies zeigte sich sowohl bei der Bedienung mit dem Daumen als auch mit dem Zeigefinger und ist abhängig vom Winkel des bedienenden Fingers zum Smartphone.
Die tägliche Arbeit von Büroangestellten besteht oft aus Aufgaben, die sich in verschiedenen Zeitabständen wiederholen. Die Art unterscheidet sich abhängig vom Berufsfeld. Jedoch kostet deren Ausführung Zeit und den stört Arbeitsfluss. Könnten diese Aufgaben automatisiert werden, hätte dies den Vorteil, dass zeitliche Ressourcen freigesetzt würden und es dadurch zu einer Steigerung der Produktivität käme, da diese zusätzlichen Ressourcen anderweitig genutzt werden könnten. Daher ist es notwendig geeignete Aufgaben ausfindig zu machen und anhand der entsprechenden Technologien zu automatisieren.
Das Ziel der vorliegenden Arbeit ist es, die repetitiven Aufgaben in der definierten Zielgruppe zu eruieren und diese in weiterer Folge zu automatisieren. Dazu wird folgende Forschungs-frage gestellt: „Implementierung eines Chatbots anhand von der SAP zur Verfügung gestellter Technologien, um repetitive Aufgaben zu automatisieren.“
Die Umsetzung der Arbeit erfolgte im Rahmen der Tätigkeit bei einem SAP Beratungshaus. Dadurch beschränkt sich die Zielgruppe auf hausinterne SAP Berater*innen und SAP Tech-nologien. Ziel dieser Arbeit war es, einen Prototypen zu implementieren der es ermöglicht, dass die Berater*innen sich täglich wiederholende Aufgaben anhand eines Chatbots automa-tisiert ausführen können. Als Ergebnis dieses Greenfield Projektes sollte ein Proof-of-concept zur Verfügung gestellt werden, der die ausgewählten Anwendungsfälle abdeckt und eine Grundlage für die Erweiterung bildet. Die Hauptaufgabe liegt zum einen in der Erfassung der Anwendungsfälle und zum anderen im Aufbau von entsprechendem Know-How für die Um-setzung mit den ausgewählten Technologien.
Als Technologie, zur Interaktion mit dem Benutzer, wird für den Chatbot die SAP Conversati-onal AI verwendet. Zur Ausführung der Aufgaben erfolgt die Umsetzung anhand der SAP In-telligent Robot Process Automation im Zusammenspiel mit dem SAP GUI Scripting und an-wendungsfallspezifischen ABAP Programmen.
Die Evaluation der User Expirience erfolgt in Form des SUMI Fragebogens. Dieser untersucht die Dimensionen der Effizienz, Beinflussbarkeit, Hilfsbereitschaft, Kontrollierbarkeit und Er-lernbarkeit. Für die Durchführung der Untersuchung wurden den Anwender*innen Szenarien vorgelegt, welche alltägliche Situationen widerspiegeln. Basierend auf diesen Szenarien soll-ten die Aufgaben mit Hilfe des Chatbots gelöst werden. Das Ergebnis der Untersuchung zeigt, dass der Prototyp vor allem in den Bereichen der Effizienz und der Kontrollierbarkeit einiges an Verbesserungspotenzial offenbart hat. Jedoch wird der Nutzen der Anwendung von acht der zehn Testpersonen als wichtig bis sehr wichtig eingestuft.
Die Umsetzung legt die Möglichkeiten und das Potenzial der Technologien offen und stellt mit dem Prototypen eine solide Grundlage für zukünftige Entwicklungen zur Verfügung. Weiters werden durch die Evaluation die Schwächen und Stärken offengelegt und ein Konzept ver-wendet, welches auch für zukünftige Erweiterungen verwendet werden kann.
Der Begriff Digital Rights Management (DRM) umfasst Richtlinien, Techniken und digitale Werkzeuge, mit denen die Nutzung digitaler Inhalte eingeschränkt, gesteuert und kontrolliert werden kann. Im Wesentlichen werden dabei Technologien von Rechteinhaber:innen zur Zugangs- und Nutzungssteuerung sowie Verfolgung von Rechtsverstößen und gegebenenfalls sogar zur differenzierten Abrechnung digitaler Inhalte angewendet. Herkömmliche DRM-Systeme bestehen hauptsächlich aus Software und stützen sich auf softwarebasierte IT-Sicherheit. Um die IT-Sicherheit von DRM-Systeme auszuweiten, können Hardwarekomponenten eingesetzt werden. Die Kombination aus software- und hardwarebasierter IT-Sicherheit wird als Trusted Computing (TC) bezeichnet und ermöglicht Rechteinhaber:innen völlig neue Szenarien.
Um die Möglichkeiten von DRM mit TC zu erforschen bzw. diese zu demonstrieren, wurde im praktischen Teil dieser Arbeit eine technische und organisatorische Maßnahme prototypisch umgesetzt, mit der es einem Auftraggeber-System möglich ist, mit einer definierten Lizenz (bzw. DRM-Policy) sensible proprietäre Daten an ein Auftragnehmer-System zu senden, sodass dieses die sensiblen Daten nur auf eine Art und Weise verwenden kann, wie die Lizenz es vorgibt. Zur Umsetzung der Systeme wurde ein kryptografischer Coprozessor - genannt Trusted Platform Module (TPM) - verwendet. Das TPM verfügt über weitreichende kryptografische Funktionalitäten und bietet eine hardwarebasierte IT-Sicherheit. Das Gesamtsystem wurde somit als zweiteiliges System, ein Auftraggeber-System und ein Auftragnehmer-System, umgesetzt.
Im theoretischen Teil der Arbeit wird zuerst auf DRM und anschließend auf TC eingegangen. Besonders einige wichtige Funktionalitäten des TPM, welche in das System integriert wurden, werden erläutert. Des Weiteren wird auch das abhörsichere Kommunikationsprotokoll Hypertext Transfer Protocol Secure (HTTPS) vorgestellt und erklärt. HTTPS wird verwendet für den geschützten Datenaustausch zwischen den beiden Teilsystemen. Wie das Gesamtsystem inklusive der beiden Teilsystemen umgesetzt wurde, sowie welche Features es bietet und wie es funktioniert wird auch in einem Kapitel präsentiert und erläutert. Abschließend werden die positiven und negativen Aspekte des Systems sowie eine auf eigener Meinung beruhende Schlussfolgerung präsentiert.
Erosion due to cavitation is a common problem for any kind of water turbine. Most of the currently used techniques to detect cavitation are using an Acoustic Emission (AE) sensor and highspeed cameras during operation. For the pelton wheel which is subject of this thesis it is impossible to take pictures during operation, because of the splashing water and the mist. Therefore this thesis aims to explore possibilities in detecting erosion on the buckets of the pelton wheel on images taken during manual inspections. Since the provided images are snapshots taken with a mobile phone camera without a tripod, a lot of effort was invested in the preprocessing of the images. For the main task, the classification of the erosion, two methods were evaluated: Local Binary Patterns (LBP) + kN-earest neighbor classification and the classification with a Convolutional Neural Network (CNN). The given 2405 images, contained 4810 buckets on which the erosion was graded from zero to four. This means the baseline for the classification accuracy is 20%. LBP + kNearest neighbor classification scored 32.03%. The chosen CNN model, a light version of the Xception architecture outperformed the LBP + kNearest classification with 58,29%. The biggest issue found during research is the variance of the erosion grading by the maintainance personnel. Reasons for this are: no objective grading critera like the area of erosion in mm2, classification by different employees, a shift in grading from overall bucket condition to erosion from cavitation and too many classes for grading. The mentioned reasons were confirmed by the manual classification experiment were an IllwerkeVKW employee had to perform the grading on images of the dataset. The contestants accuracy score was 36% for this task. The result of 58,29% classification accuracy indicates that an automated grading of erosion by cavitation is feasible.
Das Ziel dieser Arbeit ist die Analyse und Entwicklung einer Aktor-Bibliothek in Rust. Existierende Aktor-Bibliotheken in Rust verletzen grundlegende Regeln des Aktor-Modells, wodurch diese in nicht allen Anwendungsfällen verwendet werden können. Des Weiteren existiert keine strukturierte Arbeit zu der Entwicklung einer Aktor-Bibliothek in Rust. Die in dieser Arbeit entwickelte Bibliothek entspricht einerseits den Ideen des Aktor-Modells, andererseits wird die Erarbeitung und die durchlaufene Analyse der Bibliothek durch diese Arbeit dokumentiert. In einem ersten Schritt wird das Aktor-Modell und grundlegende Spracheigenschaften von Rust eingeführt, bevor das Design der entwickelten Aktor-Bibliothek vorgestellt und getroffene Design-Entscheidungen beschrieben und begründet werden. Darauffolgend werden die Implementationen der relevantesten Komponenten der Bibliothek beschrieben und anhand von Code-Beispielen erklärt. Des Weiteren wird das Design und die Implementation eines Test-Frameworks für Aktoren präsentiert, das das Testen von Aktoren erleichtern soll. Anhand der Implementation eines Praxisbeispiels wird die entwickelte Aktor-Bibliothek mit Java Akka durch Code-Vergleiche und Benchmarks verglichen. Hierbei wird gezeigt, dass die Verwendung der entwickelten Bibliothek mit einem vergleichbar gleich großen Code-Aufwand zu denselben und mitunter besseren Ergebnissen führen kann. Abschließend werden vorhandene Einschränkungen der entwickelten Bibliothek und deren Auswirkungen beschrieben.
Durch künstliche Intelligenz gesteuerte Prozesse haben einen großen Einfluss auf unsere Wahrnehmung und auch umgekehrt beeinflussen sozio-kulturelle Vorstellungen digitale Prozesse. Technologien, die von einer durch geschlechtsspezifische Datenlücken geprägten Gesellschaft entwickelt werden, reproduzieren stereotype Narrative und Gender Biases. Die Arbeit mit der Forschungsfrage Wie tragen Suchmaschinen zu einer Fortschreitung von Gender Biases durch geschlechtsspezifische Datenlücken bei?, wird mit aus diversen Bereichen herangezogener Literatur, sowie eigenen experimentellen Ansätzen zur Erkenntnisgewinnung verfasst. Die Problemstellung wird in die folgenden Bereiche unterteilt und diskutiert: die Gender Data Gap, welche fehlende Daten über nicht-männliche Personen beschreibt, die Gender Gap, die das Fehlen nicht-männlicher Personen in Entwicklungsprozessen thematisiert und Algorithmische Biases, welche mit unterschiedlich starkem menschlichen Einfluss dargelegt werden. Die durchgeführten Untersuchungen befassen sich mit Darstellungen von Geschlecht durch die Suchmaschine Google. Es konnte bestätigt werden, dass stereotype Identitätsdarstellungen vorkommen und Google eine generisch-maskuline Sichtweise vertritt, wodurch geschlechtsspezifische Datenlücken verstärkt werden. Mit dem Ziel, Biases in digitalen Prozessen sichtbar zu machen, werden in dieser Arbeit gestalterische Lösungsansätze präsentiert, die an verschiedenen Punkten der Problemstellung anknüpfen.
Insignien der Macht
(2022)
Die Coronavirus Pandemie hatte einen tiefgreifenden Einfluss auf die Art und Weise wie Staats- und Regierungschefs weltweit digitale Netzwerke für politische Kommunikation nutzen. Während PolitikerInnen über soziale Netzwerke vermehrt versuchten ihre WählerInnen zu erreichen, suchten auch NutzerInnen vermehrt auf Kanälen politischer AkteurInnen nach aktuellen Informationen zum Coronavirus. Die Pandemie hat gezeigt, dass die visuelle Kommunikation führender politischer AkteurInnen auf Social Media an Bedeutung gewinnt und als zunehmend zentrale Ressource politischen Handelns kritisch hinterfragt werden sollte. In digitalen Öffentlichkeiten ändern sich zunehmend Rahmenbedingungen visueller politischer Kommunikation. Durch Soziale Netzwerke erhalten PolitikerInnen die Möglichkeit einer ungefilterten Kommunikation mit ihren Wählergruppen. Aus Überlegungen über den Prozesswandel der politischen Kommunikation, stellt sich die Frage wie visuelle politische Kommunikation auf Social Media durch empirische Forschung und visuelle Analysen in ihren Inszenierungsstrategien dekodiert werden kann. Im Rahmen des Forschungs- und Designprojektes Insignien der Macht: Die Entschlüsselung visueller politischer Kommunikation im Zeitalter Visueller Politik soll auf Basis von Visual Literacy und der Bildpädagogik nach Otto Neurath eine visuelle Sammlung erstellt werden, die als Hilfsmittel zur Entschlüsselung inszenierter Bildmaterialien auf Social Media einen Beitrag zur kritischen Betrachtung von Bildern im Zeitalter Visueller Politik durch eine designpraktische Übersetzungsleistung der Forschungserkenntnisse leisten soll.
Diese Arbeit beschäftigt sich mit dem methodischen Vorgehen für die Entwicklung von interaktiven Systemen und Benutzerschnittstellen. Dabei wird auf den Ansatz des menschzentrierten Designs nach der Norm DIN EN ISO 9241-210 und den Zertifizierungen des Berufsverbands User Experience Quality Board eingegangen und dessen Erlernbarkeit und Anwendbarkeit auf den Praxisalltag untersucht. Im Zuge dieser Arbeit wurde ein interaktives System konzipiert, das Interessierten mit einem Grundverständnis des menschzentrierten und methodischen Designprozesses dabei assistiert, praxisorientiert einen Designprozess zu planen, vorzubereiten, durchzuführen und auszuwerten. Auf Basis von Daten oder Eingaben durch die Benutzenden, schlägt die Software auf die individuelle Situation zugeschnittene Methoden vor.
Das Supply Chain Management von Unternehmen war die letzten Jahre stark effizienzgetrieben und wird durch die Veränderung des Unternehmensumfelds in eine sogenannte VUCA-Welt zunehmend vor Herausforderungen gestellt. Um mit den Herausforderungen umgehen und die Lieferketten aufrechterhalten zu können, setzen immer mehr Unternehmen auf „Resilienz“ als neue strategische Ausrichtung. Da sowohl die internen als auch die externen Supply Chain Management Prozesse von der IT abhängig sind, ist das Business-IT-Alignment ein Bereich, der von einer strategischen Neuausrichtung des Supply Chain Managements stark betroffen ist. Das Ziel der Masterarbeit ist daher die Beantwortung der Fragestellung, wie sich eine strategische Neuausrichtung des Supply Chain Management von Effizienz hin zu mehr Resilienz auf das Business-IT-Alignment von Unternehmen auswirkt. Die Beantwortung der Fragestellung erfolgt anhand eines theoretisch-konzeptionellen Vorgehens. Die Ergebnisse der durchgeführten Recherchen und Methoden haben gezeigt, dass alle sechs Dimensionen des Business-IT-Alignments – Strategie, Prozesse, Infrastruktur, Plattformen, Applikation und Services – von einer strategischen Neuausrichtung betroffen sind. Moderne IT-Organisationen sind allerdings bereits auf einem guten Weg, die Anforderungen einer resilienten Strategieausrichtung zu unterstützen. Zudem hat die Bedeutung einer funktionierenden Zusammenarbeit zwischen den Fachabteilungen und der IT-Abteilung deutlich zugenommen, um im Störungsfall besser reagieren zu können.
Dynamische Veränderungen, steigende Wettbewerbsintensität und ein hohes Maß an Komplexität charakterisieren das aktuelle Marktumfeld, in dem Unternehmen agieren müssen. Das Prozessmanagement muss diesen Veränderungen sowohl auf der strategischen, als auch auf der operativen Ebene begegnen. Eine Adaption des Konzepts der Agilität durch das Prozessmanagement wird daher zunehmend relevant, um die originären Ziele des Prozessmanagements zu erreichen. Allerdings gilt dies unter der Prämisse, dass die agilen Konzepte die Fähigkeiten des Prozessmanagements, auf Veränderungen nachhaltig zu reagieren, stärken. In diesem Zusammenhang sind in der Literatur Arbeiten und Texte zu unterschiedlichen Anwendungen der agilen Konzepte im Prozessmanagement zu finden. Unklar bleibt dabei sowohl, ob diese Texte auf einem gemeinsamen Verständnis des Konzepts basieren, als auch der Zusammenhang und die Vereinbarkeit mit traditionellen Methoden des Prozessmanagements. Unter diesen Voraussetzungen ist es das Ziel der vorliegenden Arbeit den Kontext aufzuzeigen, in welchem agile Konzepte im Prozessmanagement diskutiert werden, und wie diese mit Modellen des traditionellen Prozessmanagements zusammenhängen. Dazu werden ausgewählte Texte auf ihre Verwendung agiler Konzepte als Lösungsstrategien für das allgemeine Handlungsfeld der dynamischen Veränderungen der „VUCA Welt“ analysiert. Die identifizierten Konzepte werden in Bezug zu traditionellen Konzepten, wie dem BPM Life-cycle, kritisch hinterfragt. Die Erkenntnisse der Arbeit belegen, dass die aktuelle Marktsituation ein Umdenken im Prozessmanagement erfordert. Agile Konzepte können das Prozessmanagement dabei unterstützen und Alternativen zu traditionellen Vorgehensweisen aufzeigen. Dabei fehlen jedoch bisher standardisierte Anwendungskonzepte und ein einheitliches Verständnis des Begriffs der Agilität im Prozessmanagement. Ferner erfordern die ganzheitliche Betrachtungsweise und die originären Ziele des Prozessmanagements weiterhin den Einsatz traditionellerer Methoden als Fundament für die Einführung von agilen Konzepten im Prozessmanagement.
Data is the new oil,” said British Mathematician and Tesco marketing mastermind Clive Humbly1. Data has also been described as the backbone of digital retail enterprises2 and the currency of the digital age. Whether these statements live up to be true is debatable, but what is certain is the fact that the internet age has contributed to the avalanche of data witnessed today. In a century dominated by predictive analysis and artificial intelligence, it is no surprise that by the end of the last decade, data companies Apple, Amazon and Microsoft closed as the world´s first trillion-dollar companies, with their revenues dwarfing economies of several countries across the globe.3The recognition of the importance of data in today´s economy bears with it the responsibility to protecting its owners. While this intricate balance has long been the subject of legal analysis the General Data Protection Regulation, 2018, is hailed as the world´s most comprehensive and strict data protection regime currently in force. In addition to protecting the personal data of persons from its member countries, the Regulation also seeks to ensure the same protection accompanies any data transferred out of the European Union to other countries. It is almost 5 years since the Regulation was passed and process of implementation into business operations an important topic of discussion. Of importance to this study are the Modernized Standard Contractual Clauses, a tool of data transfer to countries outside the EU, which replace the three sets of SCCs adopted by the now repealed Data Protection Directive 94/46. These Standard Contractual Clauses came into effect on 27th September 2021, and companies have until 27th September 2022 to rely on the old set of clauses. With this deadline coming up, how far have the clauses been integrated into operations by businesses in Austria and the EU?
Skiing is one of the most popular winter sports in the world and especially in the alps. As the skiers enjoy their time on the slopes the most annoying thing that could happen is long waiting times at a lift. Unfortunately, because of climate changes, this happens more regularly because smaller skiing areas at lower altitudes have to close and the number of good skiing days decreases as well. This leads to a increase in the number of skiers in the skiing areas which inevitably leads to longer waiting times and dissatisfied skiers. To prevent this from happening, the carriers of the skiing areas have to manage the skiers flow and distribution and what better way to analyse the current situation and possible changes then by simulating the whole area. A simulation has the advantage of being flexible with regards to time as well as configuration. Be it simulating a skiing day and look into detail of the behaviour of a single skier and how it moves in the area by simulating in real time or setting the focus to the whole area and find out when and where queues are forming throughout the whole day by speeding up the time and simulate the day in only seconds, everything is possible. Even simulating a scenario where some part of the area is closed and the skiers cannot take specific lifts due to some technical error or some slopes because of to less snow. By simulating and analysing all these scenarios not only does the experts of the skiing area gain valuable statistical information about the area but can also simulate changes to the system like a crowd fl ow control or an increase or decrease in capacity of a lift. The simulation built in context with this work for the skiing area of Mellau shows all those applications but can also be used as a basis for further improvements of the skiing area or be expanded to other areas like Damüls. The simulation was implemented using the Anylogic simulation environment and the statistical evaluation was also performed in this program.
Small and medium-sized enterprises often face resource deficits and there- fore depend on cooperating with other actors to stay innovative in a competitive environment. Establishing and maintaining actual co-creation and service inter- action strategies however is challenging. A reason for this is the complexity of finding methodologies and tools to create valuable outcome and the lack of knowledge of collaboration toolsets, also in virtual environments. This paper introduces an Innovation-Method-Framework consisting of innovation methods for increased service interaction and value co-creation among service stakeholders. Also, toolsets for the framework’s practical application are provided.
Beim Online-Lernen ist es wichtig, angemessenes Feedback zu geben, damit der Schüler aus seinen Fehlern lernen und sich weiterbilden kann. Oft besteht Feedback nur aus ungenügenden Informationen, wie etwa nur aus den Worten „Richtig“ oder „Falsch“, mit denen der Schüler nicht viel anfangen kann und somit nicht aus seinen Fehlern lernen kann. Ein gutes Feedback bei inkorrekten Antworten enthält wichtige Informationen, warum eine Antwort oder Aktion falsch ist und wie sie verbessert werden kann. Bei korrekten Antworten ist ein Lob oder eine Anerkennung der richtigen Antwort ebenfalls fördernd.
In dieser Arbeit wird das Feedback des Systems XData, welches für das Erlernen von SQL (Structured Query Language) genutzt wird, verbessert. Dazu wird das aktuelle System beschrieben, um das aktuelle Feedback bei SQL-Queries beurteilen zu können. Um das aktuelle Feedback angemessen verbessern zu können, wird ein Einblick in die Themen Lernen und Feedback gegeben. Die aus den beiden Themen gewonnen Eindrücke und Erkenntnisse werden bestmöglich für das zu verbessernde Feedback genutzt. Um das System und sein Feedback beurteilen zu können, sowie das verbesserte Feedback bewerten zu können, werden verschiedene SQL-Queries (Abfragen) verwendet. Es wird die Implementierung des Feedbacks durch ein Textbausteinsystem beschrieben und die verschiedenen Feedback-Fälle vorgestellt. Abschließend werden die Resultate beschrieben und beurteilt, sowie über die Ausblicke des Systems diskutiert.
With the digitalisation, and the increased connectivity between manufacturing systems emerging in this context, manufacturing is shifting towards decentralised, distributed concepts. Still, for manufacturing scenarios manual input or augmentation of data is required at system boundaries. Especially in distributed manufacturing environments, like Cloud Manufacturing (CMfg) systems, constant changes to the available manufacturing resources and products pose challenges for establishing connections between them. We propose a feature-oriented representation of concepts, especially from the manufacturing domain, which serves as the basis for (semi-) automatically linking, e.g., manufacturing resources and products. This linking methodologies, as well as knowledge inferred using it, is then used to support distributed manufacturing, especially in CMfg environments, and enhance product development. The concepts and methodologies are to be evaluated in a real world learning factory.
Debugging errors in software applications can be a major challenge. It is not enough to know that a specific error exists, but the cause of it must be found in order to be able to fix it. Finding the source of an error can be time and cost intensive. The general approach is to analyse and debug the presumably erroneous part of the software. The analysis can be accompanied by instrumentation to gather additional information during the program execution. The analysis is made more difficult by the existence of different errors categories. Each category may need to be handled individually. Especially in embedded software applications, which commonly lack features like process or memory isolation, error detection and prevention can be even more challenging. This is the kind of problem this thesis tackles. This thesis tries to support developers during debugging and troubleshooting. The main focus is on errors related to memory management and concurrency. Specific features and properties of Arm Cortex-M processors are used to try to detect errors as well as their causes. For example, the memory protection unit is used to isolate the stack memories of different tasks running in a RTOS. The thesis tries to provide as much information as possible to the developer when reporting errors of any kind. The solution developed in this thesis also contains a custom memory allocator, which can be used to track down errors related to dynamic memory management. Furthermore, a Eclipse plugin has been developed which provides assertions for array accesses to detect and prevent out-of-bound accesses. The resulting solution has been implemented in commercial embedded software applications. This ensures that the developed solution is not only suitable for newly developed applications, but also for the integration into already existing products.
One goal of the project described in this paper is to create learning algorithms for machines and robots that lack a precise virtual controller for correct simulations. Using a digital twin approach, the developed mixed reality application aims for an overlay of a virtual robot model with the real world counterpart using Microsoft HoloLens 2 smart glasses. The application should help users to have an inside look into the results of the learning algorithm and therefore supervise and improve those results. The main focus of this paper is the visual representation of the digital twin on the smart glasses. One of the challenges is the level of abstraction and specific use of shaders (program code defining material attributes) to help the user differentiating between virtual and real objects. Therefore different presentation methods are described and evaluated. Study results with 48 persons show that the most abstract representation (wireframe) scores lowest, whereas a half-transparent model works best.
ÖKOPROFIT ist ein Kooperationsprojekt zwischen den örtlichen Gemeindenund der lokalenWirtschaft.Die Teilnahme ist für die Betriebe freiwillig. Ziel ist die Betriebskostensenkung bei gleichzeitiger Schonung der Ressourcen. In Vorarlberg sind derzeit circa170 Betriebe zertifiziert. Im Rahmen der Rezertifizierung, die jedes Jahr stattfindet, wird von den Betrieben ein Umweltbericht erstellt. Die Berichte werden derzeit in Word verfasst, in eine Cloud geladen und dort von den Auditoren geprüft. Dies ist jedoch nicht mehr zeitgemäß. Im Rahmen des CESBA-AlpsInterreg Alpine Projektes (2016-2019) wurde ein Tool entwickelt, mit dem Ziel Nachhaltigkeit und Energieeffizienz im Alpenraum zu verbessern. In dieser Arbeit wird nun geprüft, inwiefern das bestehende CESBA-Alps-Tool in Wert gesetzt und somit in den Rezertifizierungsprozess von ÖKOPROFIT integriert werden kann. Das Tool wird zunächst so eingerichtet, dass die Betriebe mit ihren dazugehörigenIndikatoren sowie passende Indikatoren-Sets angelegt werden können. Für den Test werden historische Daten bis zum Jahr 2013von zwei Pilot-Clustern (Landeskrankenhäuser und Landesregierungsgebäude) mit unterschiedlichen Indikatoren-Sets eingepflegt. Es wird untersucht, inwiefern die Auswertungen und Exporte für den Rezertifizierungsprozess bereits tauglich sind. Jegliche Auffälligkeiten, Fehler oder Verbesserungsvorschläge werden gesammelt. Es wird klar, dass die Export-Dateien verschlankt und optimiert werden müssen, damit sie ohne Mehraufwand verwertet werdenkönnen. Die wichtigste Handlungsempfehlung ist die automatisierte Berichtlegungsfunktion. Es sollte ein Texteditor in das Tool eingearbeitet werden, in den Unternehmen einzelne Textbausteine einpflegen können, sodass mithilfe des Tools nicht nur das Kennzahlenkapitel des Umweltberichts, sondern alle Kapitel standardisiert erarbeitet werden können. Nur so kann sichergestellt werden, dass das Tool für die Betriebe eine Arbeitserleichterung und somit Zeitersparnis generiert. In einem weiteren Arbeitspaketwurden ähnliche Online-Tools anhand von im Vorhinein ausgewählten und priorisierten Kriterien, die ein optimales Tool erfüllen sollte, mithilfe einer gewichteten Entscheidungsmatrix semiquantitativ verglichen. Hierbei schnitt das in dieser Arbeit getestete Tool selbst ohne die Verbesserungen am besten ab. Es stellt sich heraus, dass es bereits die Hälfte der ausgewählten Kriterien in einer sehr guten Weise erfüllt. Die Kriterien wurden von der ÖKOPROFIT-Programmleitung definiert. Werden die Handlungsempfehlungen in der Zukunft noch umgesetzt, könnte mit dem Tool tatsächlich eine Verbesserung des derzeitigen ÖKOPROFIT-Rezertifizierungsprozesses erwirkt werden.
Zeigen, nicht erklären!
(2020)
Medien sind während der Covid-Pandemie in besonderem Maße gefordert, komplexe Sachverhalte, wie Inzidenzen und exponentielles Wachstum einfach zu erklären. Informationsgrafiken sind dazu bestens geeignet, erfordern allerdings hohe Kompetenz in der Erstellung. Dieser Artikel plädiert für die Einführung eines eigenen journalistischen Genres, nämlich des visuellen Journalismus.
Zusammenfassung: Eine umfassende Literaturrecherche (Comprehensive Literature Search, CLS) bezeichnet eine umfangreiche und aufwändige Recherche mit dem Ziel, möglichst alle Studien zur Beantwortung einer zugrundeliegenden Forschungsfrage im Rahmen einer systematischen Übersichtsarbeit zu identifizieren. Konkrete Empfehlungen oder eine Definition des Begriffs CLS gibt es jedoch nicht. Der vorliegende Beitrag führt in eine Rahmung der CLS ein, stellt die damit einhergehenden Herausforderungen dar und weist auf methodische Implikationen sowie mögliche zukünftige Forschungsbereiche hin.