Refine
Year of publication
- 2022 (196) (remove)
Document Type
- Master's Thesis (113)
- Conference Proceeding (32)
- Article (30)
- Part of a Book (9)
- Book (4)
- Report (3)
- Other (2)
- Preprint (2)
- Working Paper (1)
Institute
- Forschungszentrum Mikrotechnik (24)
- Soziales & Gesundheit (17)
- Wirtschaft (16)
- Forschungszentrum Energie (12)
- Forschungszentrum Business Informatics (10)
- Forschungsgruppe Empirische Sozialwissenschaften (9)
- Forschungszentrum Digital Factory Vorarlberg (9)
- Forschung (4)
- Forschungszentrum Human Centred Technologies (4)
- Josef Ressel Zentrum für Robuste Entscheidungen (4)
Keywords
- Soziale Arbeit (5)
- photonics (4)
- arrayed waveguide gratings (3)
- 3D MMI splitter (2)
- AWG (2)
- Agilität (2)
- Corona (2)
- Digitale Transformation (2)
- Digitalisierung (2)
- Effizienz (2)
GESCHICHTEN BEIM GEHEN
(2022)
Eine junge Frau geht ihre Wege durch Dornbirn, einer Stadt mit rund 50.000 Einwohnern. Sie wohnt im Zentrum der Kleinstadt, durchläuft diese meist zu Fuß, zu den unterschiedlichsten Zwecken und immer mit offenen Augen. Sie stellt fest, dass je öfter sie denselben Weg geht, sie umso mehr Neues entdeckt: Dinge abseits des Alltäglichen. Sie bemerkt, dass sie scheinbar Gleiches immer wieder anders wahrnimmt.
In diesem Buch hat sie die Geschichten, die sich während dem Vorgang des Gehens bilden, gesammelt. Diese lassen in ihrer Gesamtheit ein Bild ihrer Wege entstehen: durch Texte, Notizen, Illustrationen, Grafiken, Fotografien und Filme.
Sie (er)fasst somit den Raum, der sich bildet, wenn sie sich durch die Stadt bewegt – und macht diesen für uns sichtbar. Folgen Sie ihr auf ihrem Weg und begeben Sie sich mit den beiliegenden Karten selbst auf Entdeckungsreise. Sie werden staunen.
Geschichten beim Gehen ist ein Forschungsprojekt, das einerseits versucht eine Theorie zur Raumkonstitution (Kunst des Handelns von Michel de Certeau) in ein visuelles Erscheinungsbild zu übersetzen und gleichzeitig Methoden zur Wahrnehmbarmachung erarbeitet, die andere Karten oder Darstellungen jenseits von Karten liefern.
Die Arbeit soll als Beispiel für ein Forschen mittels gestalterischen Methoden dienen. Entstanden sind zwei Bücher: O, das Buch vom Ort und R, das Buch vom Raum. Ersteres bildet die wissenschaftliche Kontextualisierung und diskutiert die gewonnenen Erkenntnisse. Zweiteres funktioniert als visuelles Essay und zeigt angewendete gestalterische Methoden und verwendete Medien: ein Prozess im Wechselspiel von Theorie und Praxis.
This paper sought to identify and analyze what are the barriers towards women career’s development as business leaders in Brazil and Nicaragua when it comes to the country societal variables. In order to comprehend these barriers through women’s perception, qualitative data was chosen for this investigation, which was gathered through one-to-one interviews within businesswomen from Brazil and Nicaragua that have experience in leadership positions. The results of this research confirm that societal, economic, and political factors have great influence at gender equality and in how it affects women’s progress as business leaders. Thus, it can vary considerably between countries, even when they have similar culture backgrounds. Furthermore, it is imperative to comprehend these differences in order to close any gender gap in the field.
The e-commerce market has been growing for years and this trend seems to be continuing. Online stores for clothing are very successful. It seems that hardly any company can afford not to have a digital presence. This goes hand in hand with the fact that the range of products on offer to customers is getting bigger and bigger. But it's not just the range that's getting bigger, it's also the effort customers have to make to find the right product. For this reason, many successful online stores are already relying on AI. In doing so, companies are creating opportunities for customers that an employee could hardly manage. Implemented on the website, AI can check inventory, update it in real time, predict trends and evaluate customer or user data and make suitable recommendations. This is important for the customer because with the huge choice available, for one thing, personalization is increasingly important and being presented with a relevant selection. A central question is whether the recommendations are trustworthy and whether they can be equated with a real salesperson advising the customer. After all, trust is relevant in longterm customer relationships in that it leads to loyalty and satisfaction, which in turn increases the intention to repurchase. The recommendation tools mentioned are also of particular interest for another reason. On the one hand, they help customers to get a relevant selection of the offer and thus to get faster to the desired one. On the other hand, they are relevant for companies not only because of customer satisfaction, but also because of the chance to reduce returns. The large online stores for clothing offer their customers very generous opportunities to return the goods free of charge. In doing so, the companies have responded to customer wishes, because hardly anything is more important to them when it comes to online shopping: free returns. In this way, customers have minimized the risk of having to keep goods that do not fit or please them. This thesis examines whether recommendation tools can help customers to better assess the sizes and properties of clothing, so that they receive more suitable clothing and do not even feel the need to order several sizes of the same item of clothing. It can therefore be assumed that trust in the recommendations of the AI tools reduces uncertainty, which in turn should reduce the intention to return goods. Another assumption to be tested is that of the perceived usefulness of the recommendation tools. As a prerequisite to get an assessment of these assumptions is the usage of the tools. Therefore, a survey was initiated in the DACH region to assess the extent to which usage influences the factors mentioned. It was found by means of a regression analysis that the frequency of online purchases, mediated by perceived usefulness, explains the influence on trust.
Gestenbasierende grafische Benutzeroberflächen werden zunehmend beliebter. Diesbezüglich werden immer mehr Animation in Verbindung mit Nutzergesten eingesetzt.
Diese Arbeit setzt sich mit der Gestaltung von Animationen in gestenbasierten grafischen Benutzeroberflächen auseinander.
Dazu gehört auch, Animationen als Feedback auf eine hochfrequente Eingabemethode so zu gestalten, dass sie möglichst lange von Nutzern*innen als affektiv positiv wahrgenommen werden. Das Hauptaugenmerk der Arbeit liegt dabei auf der Interaktion von Nutzer*innen mit natürlichen Objektbewegungen.
Natürliche Objektbewegungen orientieren sich am Verhalten von Objekten in der physischen Welt. Sie verfügen beispielsweise über konzeptionelle Trägheit, Masse und reagieren auf unsichtbare Kräfte wie Schwerkraft.
Menschen verfügen über kausale Denkmuster, die in der physischen Welt die Interaktion mit Objekten prägen. So wissen Menschen, dass sie um ein träges Objekt wie eine Tasse zu bewegen, Energie benötigen, damit sich diese bewegt.
Untersucht wurde, ob das Verständnis von Nutzer*innen für natürliche Objektbewegungen auch in einer digitalen Umgebung existiert.
Im theoretischen Teil der Arbeit wurde die Rolle von Interfaceanimationen in modernen Benutzeroberflächen untersucht, Kriterien ausgearbeitet um eine reibungslose Nutzererfahrung zu ermöglichen und Parameter dargestellt, welche die Wahrnehmung der Charakteristik einer Animation positiv beeinflussen können. Ein zentraler Aspekt der Arbeit ist dabei die Gestaltung von natürlichen Objektbewegungen, um ein vertrautes, vorhersehbares und nachvollziehbares Nutzererlebnis schaffen können.
Anschließend wird das aus den Ergebnissen resultierende Konzept von prozeduralen Interfaceanimationen dargelegt. Eine prozedurale Interfaceanimation generiert aus den Vorgaben eines natürlichen Bewegungspfades generisch unterschiedliche Instanzen. Der Bewegungspfad kann über die Richtung und Geschwindigkeit einer Nutzergeste von dem*der Nutzer*in gesteuert werden.
In der abschließenden Evaluation wurde die elektrodermale Aktivität von 16 Probandinnen untersucht und bewertet, während diese sich mit drei unterschiedlichen Varianten der Animation auseinandersetzten. Es konnte nachgewiesen werden, dass ein unnatürlich starker Einfluss auf natürliche Objektbewegungen signifikante Unterschiede in den affektiv wahrgenommenen Reaktionen auslöst.
Mit Industrie 4.0 kündigte sich in Unternehmen ein großer Wandel. Dieser ist insbesondere im Bereich der Fertigung und Produktion spürbar. Von der vierten industriellen Revolution sollen Unternehmen profitieren, indem Prozesse digitalisiert und automatisiert, neue Technologien implementiert und die Wettbewerbsfähigkeit gesichert wird. Deswegen wird die Industrie 4.0 von vielen Unternehmen als Chance gesehen. Mit dem Einsatz von digitalen Technologien erhoffen sich Unternehmen, ihre Potenziale auszuschöpfen und sich Wettbewerbsvorteile zu sichern.
Im Hinblick auf die Industrie 4.0 sind jedoch kleine und mittlere Unternehmen vor Herausforderungen gestellt. Die Gründe hierfür sind vielfältig und werden in der vorliegenden Masterarbeit beleuchtet.
Dies führt dazu, dass KMU bei dem technischen, digitalen Fortschritt im Rahmen der Industrie 4.0 hinterherhinken. Es fällt ihnen schwer, den eigenen Status quo zu ermitteln und richtige Entscheidungen zu treffen, um die Hürden der Industrie 4.0 erfolgreich zu meistern. Damit dies gelingt, empfiehlt sich zu analysieren, wo das jeweilige Unternehmen aktuell steht und wie es sich abheben möchte, um seine Entscheidungen gezielt auf die Transformation von Industrie 4.0 ausrichten zu können.
Solche Orientierungshilfen, wie Referenz- oder Reifegradmodelle, die auf die Bedürfnisse der KMU eingehen und explizit auf ihre individuellen Anforderungen ausgerichtet sind, sind ein wichtiger Bestandteil der Masterarbeit.
In der vorliegenden Masterarbeit soll somit folgende Forschungsfrage beantwortet werden:
Warum sind die IT-Prozesse besonders kritisch für KMU in der Industrie 4.0 und lässt sich ein unterstützendes, reifegradbasiertes Referenzmodell zur Verbesserung der IT-Prozesse entwickeln?
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
Aufgrund des anhaltenden Klimawandels wird eine Reduzierung des Ausstoßes von Kohlendioxid (CO2) immer wichtiger. Dabei könnte die Verwendung und Weiterentwicklung von CO2-Gashydraten als „Carbon Capture“-Methode (CC) einen großen Beitrag leisten. Bei der Bildung von Gashydraten wird Gas in den Hohlräumen eines Hydratgitters, welches sich unter hohen Drücken und niedrigen Temperaturen bildet, eingeschlossen. In dieser Arbeit wurden verfahrenstechnische Methoden getestet, um die Dynamik der Gashydratbildung zu verbessern. Dies wird vor allem durch eine Verbesserung von Massen- und Wärmetransport erreicht. Das Hauptproblem für die langen Bildungszeiten ist unter anderem eine sehr geringe Kontaktfläche. Diese kann durch den Einsatz eines Rührers, eines permanenten Gasdurchflusses und durch die Verwendung von Dry Water erhöht werden. Dry Water besteht aus vielen winzigen Wassertröpfchen, die von hydrophobiertem Siliziumdioxid (SiO2) umschlossen sind. Dadurch kann die Dauer der Induktions- und Wachstumsphase der Gashydratbildung verkürzt werden.
In dieser Arbeit wird ein Reaktor mit 30 ml Volumen und ein Schrägblattrührer mit einem Durchmesser von 17 mm verwendet. Der Rührer wurde bei einer maximalen Drehzahl von 15 000 rpm ca. alle 10 min für max. 30 s betrieben, bis die Wachstumsphase der Gashydratbildung beginnt. Der Gasdurchfluss hatte einen Volumenstrom von ca. 4 slm. Das verwendete Dry Water wurde in einem Haushaltsmixer bei 25 000 rpm aus Kieselsäure und Wasser hergestellt und besitzt einen Wasseranteil von 95 %. Es wurden unterschiedliche Kombinationen getestet. Die kürzeste Induktionszeit wurde mit durchschnittlich 6,9 min durch den Einsatz eines Rührers in Kombination mit einem Gasdurchfluss und Wasser erreicht, bei einem Volumenverhältnis zwischen Gas und Wasser von 8,8 v/v nach 60 min. Die größte Menge an Gashydrat konnte durch den Einsatz von Dry Water in Kombination mit einem Gasdurchfluss erreicht werden. Das führte nach 60 min zu einem Volumenverhältnis zwischen Gas und Wasser von 14,9 v/v. Die Induktionszeit betrug dabei 120 min.
Systems are constantly increasing in complexity. This poses challenges to managing and using system knowledge. The Systems Modeling Language (SysML) is a modeling language specifically for systems, while Machine Learning (ML) is a tool to tackle complex problems. Currently, no bridge between systems modelled in SysML and ML regarding said systems has been proposed in literature. This thesis presents an approach that uses Model-driven Software Engineering (MDSE) and Template-based Code Generation (TBCG) to generate a ML IPython Notebook (IPYNB) from a SysML model. A mapping configuration using JavaScript Object Notation (JSON) allows the definition of mappings between SysML elements and template variables, enabling configuration and user-supplied templates. To test the approach, a SysML model describing ML to predict the weather based on data is created. Python ML templates are supplied and template variables mapped with the JSON mapping configuration are proposed in the thesis. The outcome is an executable IPYNB that contains all information from the SysML model and follows the modelled workflow. The findings of the work show that model-driven ML using SysML as a modeling language is beneficial due to the representation of ML knowledge in a general-purpose modeling language and the reusability of SysML model elements. It further shows that TBCG and a mapping configuration allow for more flexible code generation without changing the source implementation.
Offline speech to text engine for delimited context in combination with an offline speech assistant
(2022)
The inatura museum in Dornbirn had planned an interactive speech assistant-like exhibit. The concept was that visitors could ask the exhibit several questions that they would like to ask a flower. Solution requirements regarding the functionalities were formulated, such as the capacity to run offline because of privacy reasons. Due to the similarity of the exhibit, open-source offline Speech To Text (STT) engines and speech assistants were examined. Proprietary cloud-based STT engines associated with the corresponding speech assistants were also researched. The aim behind this was to evaluate the hypothesis of whether an open-source offline STT engine can compete with a proprietary cloud-based STT engine. Additionally, a suitable STT engine or speech assistant would need to be evaluated. Furthermore, analysis regarding the adaption possibilities of the STT models took place. After the technical analysis, the decision in favour of the STT engines called "Vosk" was made. This analysis was followed by attempts to adapt the model of Vosk. Vosk was compared to proprietary cloud-based Google Cloud Speech to Text to evaluate the hypothesis. The comparison resulted in not much of a significant difference between Vosk and Google Cloud Speech to Text. Due to this result, a recommendation to use Vosk for the exhibit was given. Due to the lack of intent parsing functionality, two algorithms called "text matching algorithm" and "text and keyword matching algorithm" were implemented and tested. This test proved that the text and keyword matching algorithm performed better, with an average success rate of 83.93 %. Consequently, this algorithm was recommended for the intent parsing of the exhibit. In the end, potential adaption possibilities for the algorithms were given, such as using a different string matching library. Some improvements regarding the exhibit were also presented.
Berufliche Ausbildung ist seit jeher Tradition und Garant einer zielgerichteten, systematischen und wiederholbaren Vermittlung von Kompetenzen in kodifizierten Berufen. Das Modell der dualen Berufsausbildung dient dabei der Verzahnung von schulischen und betrieblichen Anteilen. Insbesondere im deutschsprachigen Raum haben sich hierbei vermehrt anspruchsvolle Bereiche herausgebildet. Besonderes Interesse besteht dabei in der Bodenseeregion, da hier nahezu alle deutschsprachigen Länder einen gemeinsamen Wirtschaftsraum bilden.
Im Fokus dieser Arbeit liegt die Untersuchung bestehender theoretischer Modelle zur Verbundausbildung hinsichtlich der Veränderung und Anpassung durch die betriebliche Praxis. Zu diesem Zweck wurden auf Basis einer theoretischen Untersuchung zunächst bestehende Modelle identifiziert und in Bezug auf Gestaltungsfaktoren untersucht. In einem zweiten Schritt wurden im Rahmen eines qualitativen Forschungsansatzes Leitfaden gestützte Experten:innen Interviews durchgeführt. Im Ergebnis konnte eine empfohlene Anpassung des Ausbildungsvereines als idealtypisches Modell entwickelt werden. Konkrete Handlungsempfehlungen bilden die Grundlage zum Vergleich bestehender Verbünde, ebenso wie zur Gründung neuer Verbundvorhaben.
Startups usually have high growth ambitions but only limited resources. Therefore, they are looking for efficient and effective methods to grow their business. However, if they go interna-tional, challenging changes will likely be made if the company is not focused on the global market. The aim of this work is therefore to support startups in the internationalization of their business and to provide guidance from the beginning by using strategic marketing elements to facilitate this process. To achieve this, a qualitative method of analysis was chosen. First, a literature review was conducted on the relevant topics of a startup, strategic marketing, and internationalization. Five success factors emerged from the literature: commitment, strategy, research, marketing mix adaptation, and organization and network. These were then ana-lyzed in more detail in expert interviews. The analysis of the interview results shows that for the internationalization of startups, the commitment to internationalization and a global mindset is of great importance from the very beginning. This is because they influence all supporting and strategic marketing elements.
Der Begriff der Nachhaltigkeit und der damit einhergehende Druck der Gesellschaft auf Unternehmen nimmt stetig zu. Unternehmen haben in den letzten Jahren damit begonnen, nachhaltige Ansätze im Rahmen ihrer wirtschaftlichen Tätigkeit zu integrieren und nach außen hin zu vertreten.
Das Ziel dieser Arbeit ist die Entwicklung eines sogenannten ESG-Leitfadens, welcher als zusätzliches Analysewerkzeug im Rahmen einer Unternehmensprüfung von Private-Equity-Gesellschaften eingesetzt werden kann. Der Leitfaden gilt als Leitlinie für die Einhaltung von ESG-Kriterien sowie den Bestimmungen der EU-Offenlegungsverordnung für nachhaltige Finanzprodukte.
Im Rahmen einer umfassenden Recherche wurden in einem ersten Schritt bestehende Due-Diligence-Prüfungen auf nachhaltige Aspekte untersucht. Anschließend wurden weitere Kriterien zur Erfüllung der ESG-Aspekte auf Basis einer entwickelten Methodik extrahiert und in den vorgesehenen Leitfaden implementiert. Weiters wurde sichergestellt, dass mit der Anwendung des Leitfadens die Grundzüge der EU-Offenlegungsverordnung eingehalten werden können.
In einem abschließend durchgeführten Anwendungstest wurde die Einsatzfähigkeit des Leitfadens bestätigt. Der Erfolg des ESG-Leitfadens, im Hinblick auf einen später darauf zurückzuführenden wirtschaftlichen Erfolg, kann lediglich in Kombination mit weiteren Prüfmethoden sichergestellt werden.
The number of electric vehicles will increase rapidly in the coming years. Studies suggest that most owners prefer to charge their electric vehicle at home, which will fuel the need for charging stations in residential complexes where vehicles can be charged overnight. Currently, there already are over 100 such residential complexes, with another 70 added every year in Vorarlberg alone. In most existing residential complexes, however, the grid connections are not sufficient to charge all vehicles at the same time with maximum power. In addition, it is also desirable for grid operators and electricity producers that the power demand be as smooth and predictable as possible. To achieve this, ways to manage flexible loads need to be found, which can operate within the technical constraints. Therefore, the most common scenarios how the load can be made grid-friendly with the help of optional battery storage and/or photovoltaics using optimization methods of linear and stochastic programming were examined. At the same time, the needs of the vehicle owners for charging comfort - namely to find their vehicles reliably charged at the time of their respective departure - were addressed by combining both objectives using suitable weights. The algorithms determined were verified in practice on an existing Vlotte prototype installation. For this purpose, the necessary programs were implemented in Python, so that the data obtained during the test operation, which lasted one month, could be subjected to a well-founded analysis. In addition, simulation studies helped to further reveal the influence of PV and BESS sizing on the achievable optimums and confirm that advanced optimization algorithms such as the ones discussed are a vital contribution in reducing the charging stations’ peak load while at the same time maintaining high satisfaction levels.
The demand for managing data across multiple domains for product creation is steadily increasing. Model-Driven Systems Engineering (MDSE) is a solution for this problem. With MDSE, domain-specific data is formalized inside a model with a custom language, for example, the Unified Modelling Language (UML). These models can be created with custom editors, and specialized domains can be integrated with extensions to UML, e.g., the Systems Modeling Language (SysML). The most dominant editor in the open-source sector is Eclipse Papyrus SysML 1.6 (Papyrus), an editor to create SysML diagrams for MDSE.
In the pursuit of creating a model and diagrams, the editor does not support the user appropriately or even hinders them. Therefore, paradigms from the diagram modelling and Human Computer Interaction (HCI) domains, as well as perceptual and design theory, are applied to create an editor prototype from scratch. The changes fall into the categories of hierarchy, aid in the diagram composition, and navigation. The prototype is compared with Papyrus in a user test to determine if the changes have the effect of improving usability.
The study involved 10 participants with different knowledge levels of UML, ranging from beginners to experts. Each participant was tested on a navigation and modelling task in both the newly created editor, named Modelling Studio, and Papyrus. The study was evaluated through a questionnaire and analysis of the diagrams produced by the tasks.
The findings are that Modelling Studio’s changes to the hierarchical elements improved their rating. Furthermore, aid for diagram composition could be reinforced by changes to the alignment helper tool and adjustments to the default arrow behaviour of a diagram. Lastly, model navigation adjustments improve a link’s visibility and rating of a specialized link (best practice). The introduction of breadcrumbs had limited success in bettering navigation usability. The prototype deployed a broad spectrum of changes that found improvement already, which can, however, be further improved and tested more thoroughly.
Projects, in which software products, services, systems and solutions are developed, all rely on the right requirements to be established. Software requirements are the expression of user wants or needs that have to be addressed, business objectives that have to be met, as well as capabilities and functionality that has to be developed. Meanwhile, practice shows that very often incorrect, unclear or incomplete requirements are established, which causes major problems for such projects. It could lead to budget overruns, missed deadlines and overall failure in worst-case scenarios.
The field of requirements engineering emerged as an answer to these shortcomings, aiming to systematize and streamline the process that
establishes requirements. Requirements elicitation is a key component of this process, and one of its starting points. The current thesis attempts to outline best practices in requirements elicitation, as well as what issues, obstacles and challenges are currently faced, and then present this through the lens of national culture. In this way its effects on the practice, if any, could be highlighted and studied further. The way this was achieved was by interviewing practitioners from two nations, which are shown to be
culturally different, and then comparing and contrasting the findings.
Meanwhile, the validity of those findings was enhanced by comparisons with existing literature.
Even though the findings were not compelling enough to form generalizations or concrete conclusions about the effects of national culture on requirements elicitation, these findings revealed patterns that could be worth exploring further. When it comes to requirements elicitation itself, it was observed to benefit from a structured and systematic approach, and be
most effective with one-on-one, instead of group interactions. The main pain points of the process stem from the complexity of communication, but are not always obvious. Practitioners are also advised to carefully plan the gathering of requirements, as the source may not have them readily available, and could even be unclear about what exactly is needed. Overall, this thesis research could be considered successful in its goal to shed a modicum of light on the issue at hand from a different, underexplored angle. By following a systematic and methodical approach, this research has also been made easier to expand or replicate.
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
Seit der Einführung von modernen Smartphones steigt die Bildschirmdiagonale der mobilen Endgeräte Jahr für Jahr. Dies ist sowohl ein Fluch als auch ein Segen zugleich. Einerseits kann auf einer größeren Bildschirmfläche eine größere Anzahl von Inhalten grafisch dargestellt werden. Andererseits bedeutet dies aber auch, dass Interaktionen mit der gesamten verfügbaren Bildschirmfläche sich als immer schwieriger gestalten. Insbesondere bei der einhändigen Bedienung des Smartphones mit dem Daumen erfordern ungünstig platzierte klickbare Bedienelemente eine erhebliche Streckung des betreffenden Fingers oder sogar die Unterstützung durch die andere Hand. Dadurch kann die Präzision von Berührungsinteraktionen beeinträchtigt werden. Es stellt sich deshalb folgende Forschungsfrage: „Inwiefern hängt die Berührungspräzision von unvorteilhaft positionierten Bedienelementen in Smartphones ab und wie unterscheiden sich die verschiedenen Altersgruppen hinsichtlich Smartphone Interaktionen?“ Zur Beantwortung der Forschungsfrage wurde eine quantitative Studie im Design einer interaktiven Umfrage für Smartphones programmiert und an potentielle Teilnehmer:innen versandt. Dabei wurden die Teilnehmenden aufgefordert vordefinierte Haltegriffe einzuhalten. Es wurden die Berührungsinteraktionen und die Antworten der Teilnehmenden protokolliert und anschließend analysiert. Bei der Datenanalyse wurden die erhobenen Daten der Teilnehmenden in vier Altersklassen unterteilt und anschließend auf Differenzen bezüglich der Bedienpräzision untersucht. Die Darstellung und der Vergleich der Benutzer:inneninteraktionen durch OffsetVektoren ergab, dass die Versuchsgruppe der Senioren bei allen vordefinierten Haltegriffen eine signifikant geringere Präzision in Bezug auf die Berührungsgenauigkeit aufwies als die anderen Testgruppen. Darüber hinaus wurde festgestellt, dass Objekte, die weiter von der natürlichen Fingerposition entfernt sind, mit einer geringeren Präzision selektiert werden als Objekte, die in unmittelbarer Nähe zum bedienenden Finger positioniert sind. Dies zeigte sich sowohl bei der Bedienung mit dem Daumen als auch mit dem Zeigefinger und ist abhängig vom Winkel des bedienenden Fingers zum Smartphone.
Krypto-Assets im Treasury
(2022)
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.