Refine
Document Type
- Master's Thesis (412) (remove)
Institute
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (2)
- Soziales & Gesundheit (2)
- Wirtschaft (2)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (1)
- Forschungszentrum Energie (1)
- Geschäftsführung (1)
- Gestaltung (1)
- Hochschulservices (1)
- Technik | Engineering & Technology (1)
Language
- German (298)
- English (113)
- Multiple languages (1)
Keywords
- Digitalisierung (11)
- Controlling (6)
- Digitale Transformation (6)
- Machine learning (6)
- Industrie 4.0 (5)
- Demand Side Management (4)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Photovoltaik (4)
- leadership (4)
Projects, in which software products, services, systems and solutions are developed, all rely on the right requirements to be established. Software requirements are the expression of user wants or needs that have to be addressed, business objectives that have to be met, as well as capabilities and functionality that has to be developed. Meanwhile, practice shows that very often incorrect, unclear or incomplete requirements are established, which causes major problems for such projects. It could lead to budget overruns, missed deadlines and overall failure in worst-case scenarios.
The field of requirements engineering emerged as an answer to these shortcomings, aiming to systematize and streamline the process that
establishes requirements. Requirements elicitation is a key component of this process, and one of its starting points. The current thesis attempts to outline best practices in requirements elicitation, as well as what issues, obstacles and challenges are currently faced, and then present this through the lens of national culture. In this way its effects on the practice, if any, could be highlighted and studied further. The way this was achieved was by interviewing practitioners from two nations, which are shown to be
culturally different, and then comparing and contrasting the findings.
Meanwhile, the validity of those findings was enhanced by comparisons with existing literature.
Even though the findings were not compelling enough to form generalizations or concrete conclusions about the effects of national culture on requirements elicitation, these findings revealed patterns that could be worth exploring further. When it comes to requirements elicitation itself, it was observed to benefit from a structured and systematic approach, and be
most effective with one-on-one, instead of group interactions. The main pain points of the process stem from the complexity of communication, but are not always obvious. Practitioners are also advised to carefully plan the gathering of requirements, as the source may not have them readily available, and could even be unclear about what exactly is needed. Overall, this thesis research could be considered successful in its goal to shed a modicum of light on the issue at hand from a different, underexplored angle. By following a systematic and methodical approach, this research has also been made easier to expand or replicate.
Mit Kunst und Kultur in Kontakt zu kommen, weckt idealerweise die Lust daran, mehr wissen zu wollen. Interesse an kulturell relevanten Themen hervorzurufen und Rezipient:innen anzuregen, sich mit gesellschaftlich dringlichen Fragestellungen auseinanderzusetzen, um auch an aktuellen Diskursen teilzuhaben, ist die Aufgabe der Kulturarbeiter:innen, Künstler:innen, Kurator:innen, Kunst- und Kulturvermittler:innen von heute. Die von ihnen entwickelten Konzepte und angebotenen Formate fungieren als Schnittstellen aller möglichen gesellschaftsrelevanten Themenbereiche, können Dialoge des Wissenstransfers eröffnen, und einem fruchtbaren interdisziplinären Austausch den Weg ebnen.
Die bislang entwickelten Vermittlungstools hatten nicht immer den gewünschten Erfolg. Der Grund liegt vermutlich auch zum Teil an zu vielen diskursiven und exklusiven Formaten, in denen u. a. zu viel Vorwissen vorausgesetzt wird. Sofern Rezipient:innen Interesse an zeitgenössischer Kunst verspüren, die Zeit und den Mut aufbringen, einem angebotenen Vermittlungsprogramm auch tatsächlich beizuwohnen, wird nicht selten jeglicher Wiederholungswunsch im Keim erstickt, wenn es den Veranstalter:innen nicht gelingt, mit ihren Inhalten direkte Bezüge zum Besucher bzw. zur Besucherin herzustellen. Um diese Menschen nicht „alleine zu lassen“ oder vor den Kopf zu stoßen, und ihnen kulturelle Teilhabe zu ermöglichen, braucht es dringend ein größeres Repertoire an qualitativ hochwertigen sowie niederschwelligen Vermittlungsangeboten.
In meinen Forschungsbemühungen widme ich mich daher der Suche nach neuen Wegen in der Vermittlungsarbeit für zeitgenössische bildende Kunst, mittels derer Kunstrezeption geübt werden kann, in der Annahme, dadurch könne im Laufe der Zeit eine bewusstere Wahrnehmung unserer bilderdominierten Welt entwickelt werden. Eine versierte Kunstrezeption kann – so meine Hypothese – maßgeblich zur visuellen Kompetenz (sowie zu einem unabhängigeren Denken) und folglich zu allgemein geringerer Manipulierbarkeit beitragen. Konkret gehe ich der Frage nach, ob visuelle Kompetenz durch eine achtsame Kunstrezeption unterstützt werden kann.
Insbesondere (Vermittlungs-)Projekte, die Kunst oder Kultur gleichermaßen emotional wie intellektuell erfahrbar machen, können bleibende Eindrücke entfalten. Der bewusste Einsatz nonverbaler Techniken in der (traditionellerweise) sprachlich verankerten Praxis der Kunstvermittlung ermöglicht den Rezipient:innen ein Erlebnis, das innere Zustände, Gefühle mit äußeren Eindrücken und einer umfassenden ästhetischen Erfahrung in Verbindung bringt. Erfahrungen solcher Vielfalt prägen sich bei Personen jeden Alters in einer Art und Weise im Netzwerk der Erinnerungen ein, wie es der Sprache allein nur in sehr seltenen Fällen zu gelingen vermag. In Hinblick auf den Bildungsauftrag kultureller Einrichtungen ermöglichen Vermittlungsprogramme mit Erfahrungs- und Erlebnischarakter demnach ein nachhaltiges Lernen sowie ein bleibendes Verständnis und regen darüber hinaus transformatorische Selbst-Bildungsprozesse an.
Digitale Motivationsmodelle
(2022)
Ausgangspunkt vorliegender Arbeit stellt die Frage dar, inwiefern digitale Innovationen einen Beitrag zur Förderung klimaschonender Mobilitätsformen leisten können. Um diese Fragestellung auf gestalterische Weise lösen zu können wurde anhand eines Innovationsprozesses nachhaltige Mobilitätsformen analysiert und anschließend eine angedachte Lösung in Konzept- und Prototypenform erstellt. Weiterführend wurde zusätzlich untersucht, inwiefern Menschen motiviert werden können diese Anwendungen in ihrem Alltag zu nutzen und welche Funktionen dabei eine tragende Rolle spielen. Die Problemstellung beschreibt sich durch die große Anzahl an CO₂-Emissionen, die durch den Privatverkehr, in Form von Pkws, entstehen. Laut dem Europäischen Parlament verursachen Pkws 60,7 Prozent der gesamten CO₂ Emissionen des Straßenverkehrs in Europa. (vgl. „CO₂-Emissionen von Autos: Zahlen und Fakten“ 2019) Die entstandene Lösung soll diesem Problem entgegenwirken und legt den Fokus auf die Reduktion von gefahrenen Kilometern durch private Kraftfahrzeuge. Auf gestalterische Weise wurde so eine digitale Anwendung entwickelt, welche Menschen dazu motivieren soll vermehrt auf ökologisch nachhaltigere Mobilitätsformen wie das Fahrrad umzusteigen. Dadurch lassen sich langfristig durch Menschen erzeugte CO₂-Emissionen vermeiden. Diese digitale Anwendung namens COCycling soll, soweit möglich, ein Umdenken erzeugen und Menschen dazu bewegen, ihr Mobilitätsverhalten nachhaltiger zu gestalten. Das Europäische Parlament sieht zur Vermeidung der durch Pkws entstandenen Emissionen lediglich zwei Optionen. Einerseits sollen Fahrzeuge künftig effizienter funktionieren und weniger Emissionen verursachen und andererseits soll vermehrt auf Elektromobilität umgestiegen werden. (vgl. „CO₂- Emissionen von Autos: Zahlen und Fakten“ 2019) Laut dem Umweltbundesamt wird als gelungene Alternative für die Reduktion von Emissionen das Fahrrad angeführt. Des Weiteren wird das Fahrrad als klimafreundlichstes Fortbewegungsmittel, gerade für Kurzstrecken, beschrieben. Daher beschreibt COCycling eine weitere Option, um Emissionen nachhaltig zu reduzieren. (vgl. „Radverkehr“ 2021) Neben reiner Bewusstseinsbildung für das Problem sollen ebenso konkrete Maßnahmen zur Motivationssteigerung geschaffen werden, welche zu einer Verhaltensänderung führen können, da diese noch nicht ausreichend vorhanden sind. (vgl. Hamann; Loeschinger 2016, S. 12ff) Die Forschungslücke beschreibt die Kombination aus Umweltschutz in Form von ökologisch nachhaltiger Mobilität und die Motivationserzeugung für diese durch digitale Anwendungen. Diese beiden Faktoren werden in Abhängigkeit zueinander untersucht und werden in der Arbeit theoretisch nach motivationspsychologischen Ansätzen diskutiert. „Mobilität zu erhalten, diese allerdings stadt- wie auch umweltverträglich zu gestalten, ist das erklärte Ziel des Verkehrsmanagements.“ („Motivation für Umweltschutz“ 2017) Demnach setzt sich die vorliegende Arbeit mit dieser Lücke auseinander und versucht diese auf gestalterische Weise, durch einen Innovationsprozess, zu schließen. Die Anwendung adressiert die Forschungslücke dahingehend, dass die ökologische Nachhaltigkeit unter anderem als Motivationsfaktor eingesetzt wird. Die Arbeit verortet sich als empirische Forschungsarbeit, welche durch den Einsatz einer quantitativen sowie qualitativen Umfrage in Anschluss an einen realitätsnahen Betatest durchgeführt wurde. Im Gestaltungsprozess kamen Methoden wie Umfragen, Leitfadeninterviews mit potenziellen User/innen und Expert/innen und Prototyping zum Einsatz. So wurde angedacht das Lösungskonzept der Anwendung COCycling so weit zu optimieren und herauszufinden, durch welche Funktionen und Faktoren die Nutzer/innen die höchste Motivation verspüren. Die Forschungsfrage lässt sich demnach wie folgt aus der Problemstellung ableiten: wie können Menschen durch digitale Anwendungen zu einer bestimmten Tätigkeit motiviert werden und welche Einflüsse sollen dabei auf sie einwirken. „Motivation entsteht im Zusammenspiel von Faktoren, die in der Person liegen (Motive, Bedürfnisse, Interessen, Ziele), und Faktoren, die in der Umwelt liegen (Gelegenheiten, Anforderungen, Anreize).“ (Brandstätter u.a. 2018, S. 6)
Im Laufe der Masterarbeit wird weiterführend theoretisch auf die damit verbundenen Themengebiete verwiesen, daran angeknüpft und erklärt, wie diese Erkenntnisse in das Lösungskonzept der Anwendung eingebunden wurden. Zu Beginn wird der Innovationsprozess detailliert skizziert, anschließend folgen theoretische Auseinandersetzungen in Bezug darauf. Den theoretischen Rahmen der Arbeit bilden, neben Ansätzen aus der Mobilitätsforschung und der ökologischen Nachhaltigkeit, die Motivationspsychologie und Verhaltensforschung basierend auf den Theorien nach BJ Fogg (2021), Brandstätter (2018) und Rheinberg (2018). In der Arbeit werden zusätzlich alle bisherigen Arbeitsschritte des Innovationsprozesses dokumentiert und genauestens beschrieben. Darunter befinden sich unter Anderem weitere Lösungskonzepte, verschiedene Modelle für die angedachte Lösung, Auswertungen von Umfragen, Interviewleitfäden, ältere Versionen der digitalen Anwendung sowie alle Prototypen und Testungen dieser. Nächste Schritte in der Bearbeitung sind die Beta-Testung der Lösung mit anschließender Evaluation und Diskussion der Ergebnisse.
Diese Arbeit beschäftigt sich mit dem methodischen Vorgehen für die Entwicklung von interaktiven Systemen und Benutzerschnittstellen. Dabei wird auf den Ansatz des menschzentrierten Designs nach der Norm DIN EN ISO 9241-210 und den Zertifizierungen des Berufsverbands User Experience Quality Board eingegangen und dessen Erlernbarkeit und Anwendbarkeit auf den Praxisalltag untersucht. Im Zuge dieser Arbeit wurde ein interaktives System konzipiert, das Interessierten mit einem Grundverständnis des menschzentrierten und methodischen Designprozesses dabei assistiert, praxisorientiert einen Designprozess zu planen, vorzubereiten, durchzuführen und auszuwerten. Auf Basis von Daten oder Eingaben durch die Benutzenden, schlägt die Software auf die individuelle Situation zugeschnittene Methoden vor.
Meine Masterarbeit beschreibt im Grunde einen Diskussionsprozess eines Begriffs. Es geht um den Versuch einer Kategorisierung und Bestimmung der Illustrationen, also darum, inwiefern Illustrationen kategorisiert werden können und anhand von welchen Merkmalen bestimmt werden kann, ob es sich um eine Illustration handelt. Diese Untersuchung findet in der Designforschung nämlich nur marginal statt. Julius Wiedemann und der Illustrator Raban Ruddigkeit erklären in ihren Büchern zwar, was eine Illustration ausmacht, jedoch wird weder eine Taxonomie bzw. Definition explizit angeführt oder darauf verwiesen, es kann aus dem Text aber ein Verständnis und damit eine implizite Definition explizit gemacht werden.
Laut Ruddigkeit sind Illustrationen mehr als bloß ein „Abbild der Wirklichkeit“ (Ruddigkeit 2021, Klappentext), denn eine Illustration „erhellt […] übertreibt […] mischt sich ein […] stößt […] Veränderung an […] interpretiert “ (Ruddigkeit 2021, Klappentext) Wiedemann verfolgt einen anderen Ansatz, denn laut ihm muss eine Illustration im Kontext funktionieren. (Vgl. Wiedemann 2007, 7f.)
Die Masterarbeit verfolgt die Methode der relationalen Bestimmung nach Wiesing. (Vgl. Wiesing 2015, Einleitung) Es erfolgt zusätzliche eine Analyse von Literatur, insbesondere liegt der Fokus auf den Theorien unter anderem von Sybille Krämer, Steffen-Peter Ballstaedt, Nelson Goodman, Hartmut Stöckl, Vilem Flusser, Ludwig Wittgenstein und Roland Barthes. Verorten lässt sich die Arbeit in den Bereichen der Bildwissenschaften bzw. der Kategoriensysteme. Ein Begriff wird diskutiert, es wird kein Versuch angestrebt, eine endgültige Lösung zu finden. Die Diskussion wird in einem passenden und übersichtlichen Layout in der Arbeit präsentiert und theoretisch weiter ausgearbeitet, sowie durchdiskutiert. Im besten Fall ergeben sich Vorschläge für eine Definition, eine Möglichkeit zur Kategorisierung bzw. Erhellungen zur Illustration, ohne sie endgültig definieren zu müssen.
Wir können von einem Theater der Begriffsbestimmung sprechen, welches am Fallbeispiel der Illustration inszeniert wird. Die Absicht der Masterarbeit ist somit nicht, eine endgültige Taxonomie aufzustellen, sondern die Diskussion zu eröffnen und Einsichten zu liefern. Mittels Überlegungen, Erkenntnissen aus Experimenten bzw. Analysen, Recherche und Forschung durch Design möchte ich versuchen, diesem komplexen Feld näher zu kommen. Diese Erkenntnisse sollen als Basis für weiterführende Forschung betrachtet werden. Fragen werden gestellt, diese müssen jedoch nicht im Zuge dieser Arbeit beantwortet werden.
Meine Forschungsfrage lautet somit folgendermaßen: Wie kann der Bestimmungsprozess zu einem Begriff offengelegt werden und zu einem fruchtbaren Ergebnis bzw. einer Einsicht führen, am Beispiel des Begriffs Illustration, ohne eine endgültige Lösung anzupeilen?
Die vorliegende Arbeit beschäftigt sich mit der Positionsbestimmung in Innenräumen mittels der Ultra Breitband Technologie, deren Genauigkeit sowie der Positionierung solcher Systeme in relevanten Beleuchtungsmodulen. Im ersten Teil der Arbeit wird die Ultrabreitband Technologie beschrieben, die sich für Ortbarkeit in Innenräumen durch die große Bandbreite, relativ gut eignet. Hierbei wird auf das UWB-Signal, die Regulierung bezüglich Frequenznutzung für Europa und USA sowie auf die UWB-Standards eingegangen. Im weiteren Verlauf der Arbeit werden die gegenwärtigen Positionsbestimmungs Verfahren beschrieben. Beispiele hierfür sind das Time of Flight (ToF), das Time of Arrival sowie nicht funkbasierte Methoden wie z. B. die Inertial Measurement Unit (IMU). Die Positionsbestimmung in der UWB-Technologie wird häufig mittels ToF und ToA bewerkstelligt. Im darauffolgenden Kapitel werden die gegenwärtigen Lokalisierungssysteme erklärt. Real Time Locating Systems (RTLS) kommen in vielen Lebensbereichen zum Einsatz, von Krankenhäusern bis zum Sport. Der zweite Teil der Arbeit besteht aus der Ausarbeitung von verschiedenen Konzepten zur Realisierung eines Demonstrators sowie der Ausarbeitung eines Simulationsmodells für die Positionsbestimmung, mit dem eine Ortungsgenauigkeit von 30 bis 50 cm erreicht werden kann.
Power cables play an important role in power grids. Insulation faults in cables can have adverse effects on the operating behaviour. These effects can be assessed through an AC withstand test by using a very-low frequency high voltage generator. This generator produces a sinusoidal voltage waveform at 0.1Hz with high voltage levels up to 65kV peak. During the quality assessment, the power cable is repeatedly charged and discharged. The discharging process is done by a discharging circuit where the energy is dissipated thermally. But to reuse the dissipated energy a novel extension in form of an energy storage system is presented. This thesis, therefore, describes the design process of an energy storage system that allows the temporary storage of the discharge energy. The developed system is composed of a bidirectional DC/DC converter and an aluminium electrolytic capacitor as storage type. Based on the maximum VLF system ratings the energy storage unit is dimensioned and sized. The effective power flow control between the storage system and the available discharge energy is done by a synchronous buck-boost converter. This bidirectional converter works in continuous conduction mode over the complete charging phase. Together with a theoretical analysis of the underlying problem and the use of converter analysis methods the selected synchronous buck-boost converter is dimensioned and sized. In addition, a state space AC modeling of the converter with its electrical uncertainties is conducted. With the converters AC model, the controller is designed. A closed-loop input converter current control scheme based on a proportional-integral controller is implemented. The system assessment is done by a model-based hardware implementation in Matlab Simulink and Plecs Blockset. The system is rated to store discharge energies up to 4.3kJ in a short charging period of 2.5s. The maximum peak power during the charging phase is 2.7kW. The digital proportional-integral controller is implemented through an emulation process of the designed analog controller. Based on a C-code implementation of the digital controller the gap between the real hardware is reduced. During the design process theoretical calculations are made and reveal that designing a capacitor storage unit has a direct impact on the peak system currents and also impose also limitations on permissible DC voltage ranges on electrical components. The developed energy storage system and its power flow control strategy were investigated through simulation studies. The results show proper charging of the energy storage medium. In addition, also a statement of the final technical feasibility is made. In total, this work summarizes a detailed design process of the energy storage system. This proof of concept is intended to further advance the system integration.
Development of a low pressure syringe pump for detecting cannabinoids through liquid chromatography
(2022)
The following thesis covers the miniaturization and characterization of a pneumatic syringe pump, which is used for applications in low-pressure liquid chromatography. For this purpose, the components of the prototype are dealt with in the first section. These include the membrane pump and the cylinder for pressure and force generation, the syringe used for sample preparation and the construction of the test column. Furthermore, the pressure preparation on the cylinder, the friction losses of the syringe and then the behavior of the syringe in various application scenarios are considered. In the second section, the focus is on the different behaviors when using water and ethanol as a solvent. Tests in normal applications, as well as with air pockets or leaking seals, show the different behavior and the resulting deviations in the test pressure of the column. In addition, the maximum forces that can be applied to the syringe are worked out in several tests and the different maximum pressures, which depend on the solvent contained, are evaluated. These different maximum pressures, which are due to the different sealing behavior in connection with the surface tension of the liquid, will be discussed in conclusion. An outlook follows, up to which test pressures the system can be used and how these can be achieved.
This master’s thesis provides an overview of a more efficient, future-oriented living concept in Dornbirn, Austria. The use of a combined heat and power unit (CHP), in combination with a thermal storage, as a heating system is specifically investigated. In order to make this heating system more attractive for the consumer, the sale of the generated electricity from the CHP is considered. The more efficient use of energy for heating increases the attractiveness by a minimisation of the living space. This master’s thesis aims to draw attention to the issue and to achieve a rethinking in the planning of future living space. For the research and elaboration of this thesis, statistics and trustworthy literature were used, and physical modelling was applied. This Master’s thesis can be assigned to the fields of energy technology, mechatronics, architecture and civil engineering. It contributes for students, researchers, and other interested person in these sectors.
The detection of glucose is an essential part of diabetes management and can help to prevent secondary diseases, that can occur as a result of diabetes. For this reason, it is important to improve the current glucose monitoring by developing novel sensors with high efficiency, low cost and compact design. The use of microelectrodes with interdigitated array (IDA) structures reduces the total detector size while providing benefits such as large currents, high sensitivity, and fast response. The aim of this thesis is to develop a novel sensor based on platinum interdigitated array (IDA) electrodes and to investigate which method is most effective for the detection of glucose. This work is divided into two parts. The first part is focused on the design and the fabrication of the sensor chips. The second part is concerned with the electrochemical characterisation of the sensors. Two distinct sensor designs are created, each consisting of a four-electrode system arranged as an interdigitated array. For the fabrication of the sensors, two different manufacturing processes are used. A lift-off process is used to fabricate the 2 μm-Gap sensor chips, whereas a lift-off free process is applied to produce the nanogap sensor chips. The electrochemical characterisation of both sensor chips is achieved by the immobilisation of the enzyme glucose oxidase (GOx) on the electrode surface. This thesis investigates the immobilisation of GOx by reduction of diazonium salts and the direct immobilisation of GOx by cyclic voltammetry. As a result of this work, it has been demonstrated that glucose detection by reduction of diazonium salts is error-prone due to modification with a multi-step procedure and is not suitable for our sensors based on platinum IDA electrodes. The direct immobilisation of GOx by cyclic voltammetry, by contrast, demonstrates the successful detection of glucose. In glucose solutions ranging from 5 mM to 20 mM, a direct correlation between the glucose concentration and the measured current is obtained. The reproducibility of direct immobilization is demonstrated by repeated performance with various sensors.
In today’s world, fiber optic networks for data transmission are an essential technology. This technology provides multiple advantages compared to conventional electrical data transmission. The simultaneous transmission of multiple optical signals in a single fiber is one of the main benefits of fiber optic cable. This is accomplished by directing the different optical signals into a single fibre and splitting them up after the transmission in order to obtain the individual signals. Arrayed Waveguide Gratings (AWGs) are used for this purpose in modern optical networks. Design and evaluation process are two components of AWG development. During the evaluation of several simulated and already manufactured AWGs for telecommunication applications, it was discovered that the channel spacing parameter does not conform telecommunication standards. The correct shift of the geometric parameter ”separation of the output waveguides” leads to the standard-conform channel spacing.
According to the current state of the art, no commercial tool is available which calculates the shift of this parameter correctly. The aim of this thesis is the development of a software tool to calculate the accurate shifting of the geometric parameter ”separation of the output waveguides” of an AWG. This tool operates as an interface between the design and evaluation processes and must be able to import the data format of the evaluation process and returns the data in a suitable data format for the design process. The Vorarlberg University of Applied Sciences uses three different methods for the shifting of the geometric parameter ”separation of the output waveguides”. These methods are evaluated and optimised as part of this thesis. Additionally, it has been determined that the shift of the geometric parameter ”separation of the output waveguides” has no significant impact on the performance of the AWG.
Die Mensch-Roboter-Kollaboration verspricht, die Leistungsfähigkeit eines Roboters und die Stärken eines Menschen zu kombinieren. Das junge Thema bringt nicht nur Vorteile, sondern auch neue Sicherheitsbestimmungen und aufwändige Validierungsverfahren mit sich, was den Zeitbedarf für die Entwicklung neuer MRK-Applikationen erhöht. Oft ergibt sich erst bei der Validierung, dass die Sicherheitsbestimmungen (meist die biomechanischen Grenzwerte) nicht eingehalten werden können und dadurch Änderungen an der Applikation durchgeführt werden müssen. So bildet sich ein Kreislauf aus „Validieren“ und „Änderungen vornehmen“, der erst nach mehreren Zyklen beendet werden kann. Ziel der vorliegenden Masterarbeit ist es, Empfehlungen zu konzipieren, mit welchen dieser Kreislauf frühzeitig durchbrochen werden kann. Die Arbeit beschränkt sich dabei auf das Leistungs- und Kraftbegrenzungsschutzprinzip. Um den Einfluss unterschiedlicher Parameter, wie beispielsweise die maximale TCP-Geschwindigkeit oder die Greifergeometrie, auf die Kollisionskräfte und Drücke zu erforschen, wurde ein biofideles Messsystem und ein Roboter vom Typ ABB GoFa™ verwendet. Diese Untersuchungen dienen zusammen mit den Sicherheitsbestimmungen als Grundlage der Gestaltungsempfehlungen. Um eine Anwendung der Empfehlungen vorzuzeigen, wird in der vorliegenden Arbeit exemplarisch eine MRK-Applikation gestaltet und validiert
Der Energieausweis stellt sich als wichtiges Instrument zu Dekarbonisierung des Gebäudesektors dar. Aufgrund dieser zentralen Wichtigkeit kommt auch der Qualitätssicherung von Energieausweisen eine tragende Bedeutung zuteil. Während die Übereinstimmung von Energieausweisberechnungen mit realen Verbrauchswerten gut erforscht ist, gibt es wenig Informationen hinsichtlich der Qualität von ausgestellten Energieausweisen. Vorliegende Arbeit befasst sich mit der Identifikation von Fehlerquellen bei der Eingabe energetisch relevanter Daten. Dabei wird das Ausfindigmachen von fehlerhaften energetischen Eingaben bei real ausgestellten Energieausweisen, die Ermittlung deren Fehlerquote und Auswirkungen auf die energetischen Kennzahlen HWB, PEB, CO2 und IO3 angestrebt.
Energetisch relevanten Daten zum Gebäude, dessen Haustechniksystemen, Klimadaten, Nutzungsprofil und rechtlich relevante Eingaben wurden bei vier Energieausweisen auf deren korrekte Eingabe geprüft. Hierdurch konnten Fehlerquellen zur Eingabe von Gebäude- und Haustechnikdaten ausgemacht werden konnten. Eine genauere Kontrolle einzelner Eingaben an einer größeren Stückzahl von Energieausweisen ergab deutliche Fehlerpotentiale bei der Eingabe von PV- und thermischen Solaranlagen als auch bei der Berechnung des Ökoindex (OI3).
Aufgrund des anhaltenden Klimawandels wird eine Reduzierung des Ausstoßes von Kohlendioxid (CO2) immer wichtiger. Dabei könnte die Verwendung und Weiterentwicklung von CO2-Gashydraten als „Carbon Capture“-Methode (CC) einen großen Beitrag leisten. Bei der Bildung von Gashydraten wird Gas in den Hohlräumen eines Hydratgitters, welches sich unter hohen Drücken und niedrigen Temperaturen bildet, eingeschlossen. In dieser Arbeit wurden verfahrenstechnische Methoden getestet, um die Dynamik der Gashydratbildung zu verbessern. Dies wird vor allem durch eine Verbesserung von Massen- und Wärmetransport erreicht. Das Hauptproblem für die langen Bildungszeiten ist unter anderem eine sehr geringe Kontaktfläche. Diese kann durch den Einsatz eines Rührers, eines permanenten Gasdurchflusses und durch die Verwendung von Dry Water erhöht werden. Dry Water besteht aus vielen winzigen Wassertröpfchen, die von hydrophobiertem Siliziumdioxid (SiO2) umschlossen sind. Dadurch kann die Dauer der Induktions- und Wachstumsphase der Gashydratbildung verkürzt werden.
In dieser Arbeit wird ein Reaktor mit 30 ml Volumen und ein Schrägblattrührer mit einem Durchmesser von 17 mm verwendet. Der Rührer wurde bei einer maximalen Drehzahl von 15 000 rpm ca. alle 10 min für max. 30 s betrieben, bis die Wachstumsphase der Gashydratbildung beginnt. Der Gasdurchfluss hatte einen Volumenstrom von ca. 4 slm. Das verwendete Dry Water wurde in einem Haushaltsmixer bei 25 000 rpm aus Kieselsäure und Wasser hergestellt und besitzt einen Wasseranteil von 95 %. Es wurden unterschiedliche Kombinationen getestet. Die kürzeste Induktionszeit wurde mit durchschnittlich 6,9 min durch den Einsatz eines Rührers in Kombination mit einem Gasdurchfluss und Wasser erreicht, bei einem Volumenverhältnis zwischen Gas und Wasser von 8,8 v/v nach 60 min. Die größte Menge an Gashydrat konnte durch den Einsatz von Dry Water in Kombination mit einem Gasdurchfluss erreicht werden. Das führte nach 60 min zu einem Volumenverhältnis zwischen Gas und Wasser von 14,9 v/v. Die Induktionszeit betrug dabei 120 min.
In unserer digitalen Welt haben es einige Technologie-Marken bis ganz nach oben geschafft. Große Tech-Unternehmen wie Apple, Amazon, Microsoft und Google belegen die ersten Plätze der Best Global Brands im Jahr 2021 (Interbrand, 2021). Aber auch Automobilhersteller wie Toyota, Mercedes-Benz und BMW spielen ganz oben mit.
Wir möchten zunehmend mit unserer Außenwelt vernetzt sein, auch während dem Autofahren (Ulrich, 2015). So haben wir die Möglichkeit, unser Smartphone über eine Integrations-Schnittstelle, wie z.B. Apple CarPlay, in das vorhandene Infotainment-System des Autos zu integrieren. Durch die Integration werden zwei Systeme von unterschiedlichen Marken, basierend auf verschiedenen Styleguides, auf einem Bildschirm abwechselnd genutzt und dargestellt. Man kann zwischen den beiden Systemen hin und her wechseln, je nachdem, welche Funktionen man gerade nutzen möchte. Dabei entsteht einerseits ein heterogenes Benutzererlebnis für die Nutzerinnen und Nutzer, und auch für Designerinnen und Designer entstehen gewisse Herausforderungen. Lassen sich die Systeme unterschiedlicher Marken bis zu einem gewissen Punkt visuell aneinander annähern, und kann dadurch die Usability für die Nutzerinnen und Nutzer erhöht werden? Mit diesen Herausforderungen im Design beschäftigt sich diese Arbeit.
Ergebnis ist die Konzeption eines Gestaltungssystems, welches einen Vorschlag für die Annäherung zwei heterogener grafischer Benutzeroberflächen von zwei unterschiedlichen Marken bietet, wenn diese zusammen auf einem Bildschirm dargestellt und von den Nutzerinnen und Nutzern genutzt werden können. Anhand des Systems können die Interfaces aneinander angenähert werden, und sich dennoch über identifizierte Gestaltungselemente differenzieren.
Durch künstliche Intelligenz gesteuerte Prozesse haben einen großen Einfluss auf unsere Wahrnehmung und auch umgekehrt beeinflussen sozio-kulturelle Vorstellungen digitale Prozesse. Technologien, die von einer durch geschlechtsspezifische Datenlücken geprägten Gesellschaft entwickelt werden, reproduzieren stereotype Narrative und Gender Biases. Die Arbeit mit der Forschungsfrage Wie tragen Suchmaschinen zu einer Fortschreitung von Gender Biases durch geschlechtsspezifische Datenlücken bei?, wird mit aus diversen Bereichen herangezogener Literatur, sowie eigenen experimentellen Ansätzen zur Erkenntnisgewinnung verfasst. Die Problemstellung wird in die folgenden Bereiche unterteilt und diskutiert: die Gender Data Gap, welche fehlende Daten über nicht-männliche Personen beschreibt, die Gender Gap, die das Fehlen nicht-männlicher Personen in Entwicklungsprozessen thematisiert und Algorithmische Biases, welche mit unterschiedlich starkem menschlichen Einfluss dargelegt werden. Die durchgeführten Untersuchungen befassen sich mit Darstellungen von Geschlecht durch die Suchmaschine Google. Es konnte bestätigt werden, dass stereotype Identitätsdarstellungen vorkommen und Google eine generisch-maskuline Sichtweise vertritt, wodurch geschlechtsspezifische Datenlücken verstärkt werden. Mit dem Ziel, Biases in digitalen Prozessen sichtbar zu machen, werden in dieser Arbeit gestalterische Lösungsansätze präsentiert, die an verschiedenen Punkten der Problemstellung anknüpfen.
Kooperation setzt einen Informationsaustausch voraus. Die Veränderung der Kooperation durch die Globalisierung und Dezentralisierung von zusammenarbeitenden Personen und Organisationen ließen neue Kommunikationswege entstehen. Innerhalb der Jahre 1980 – 2022 wurden Technologien entwickelt, die den Informationsaustausch und die soziale Interaktion im digitalen Raum beeinflussen. Ein wesentliches Werkzeug dafür sind sogenannte Groupwares. Sie sind „[...] computer-based systems that support groups of people engaged in a common task (or goal) and that provide an interface to a shared environment.“ (Ellis; Gibbs; Rein 1991)
Das Ziel dieser Arbeit ist die Gestaltung einer solchen Groupware bzw. eines Kollaborationstools als Unterstützung für Meetings auf Basis gesellschaftlicher Einflüsse. Beginnend mit der aktuellen Beschaffenheit und Klärung der Begriffswelt, folgt darauf die Auseinandersetzung mit theoretischen Hintergründen, die eine Bearbeitung dieses Themas erst erlauben. Im nächsten Schritt wird die technische Realisierung mit all ihren Projektschritten, vom Grundgedanken bis hin zum Einsatz in unterschiedlichen Bereichen, erläutert. Die durchgeführte Evaluation in simulierten Umgebungen gibt Rückschlüsse auf eine Adaption.
Anschließend werden Empfehlungen für eine weitere Entwicklung und Untersuchungen abgegeben und zukünftige Möglichkeiten behandelt.
Mit der VRV 2015 wurde die österreichische Voranschlags- und Rechnungsabschlussverordnung reformiert. Die vorangegangene VRV 1997 wurde dadurch großteils abgelöst. Grundstruktur bildet dabei der Drei-Komponenten-Haushalt bzw. das Drei-Komponenten-Rechnungssystem bestehend aus Vermögens-, Finanzierungs- und Ergebnishaushalt. In diesen Haushalten werden die Finanzdaten der einzelnen österreichischen Gemeinden gesammelt.
Ziel der vorliegenden Arbeit ist es, unter Verwendung dieser Finanzdaten relevante Finanzkennzahlen zu identifizieren, welche Rückschlüsse auf die Finanzlage einer Gemeinde ermöglichen. Somit wurden die öffentlich auf der Onlineplattform www.offenerhaushalt.at zur Verfügung stehenden Daten von 1.327 der insgesamt 2.095 österreichischen Gemeinden verwendet. Da der Fokus in dieser Arbeit ausschließlich auf Gemeinden liegt, wurden nur Marktgemeinden und Gemeinden ohne Status berücksichtigt, um die Forschungsfrage beantworten zu können. Dafür wurden in einem ersten Schritt sorgfältig ausgewählte Kennzahlen berechnet und für jede Kennzahl wurde ein Bewertungsschema erstellt. Anschließend wurden die Gemeinden in verschiedene Gruppen eingeteilt und mittels verschiedener Methoden der deskriptiven und multivariaten Statistik analysiert. Die Gemeinden wurden anhand ihrer Einwohnerzahl, ihrer Kennzahlbewertung und ihrer Ähnlichkeit in jeweils drei Gruppen eingeteilt. Die Analysen anhand dieser Einteilungen führten zum Ergebnis, dass vor allem größere Gemeinden eine bessere Finanzlage aufweisen als kleine und mittelgroße Gemeinden. Zudem konnten einzelne Kennzahlen (Eigenertragsquote, Quote freie Finanzspitze und Nettovermögensquote) als relevante Einflussfaktoren für die Beschreibung der Finanzlage einer Gemeinde identifiziert werden. Ein Zusammenhang zwischen Bundesland und Finanzlage konnte nicht hergestellt werden. Zusammenfassend lässt sich sagen, dass die VRV 2015 die Transparenz und Vergleichbarkeit der Finanzdaten der Gemeinden erhöht. Auch die Berechnung aussagekräftiger Kennzahlen bietet zusätzliche Möglichkeiten die Gemeinden zu vergleichen. Auch wenn der zur Verfügung stehende Datensatz (noch) nicht vollständig ist, birgt die VRV 2015 und die damit verbundene verbesserte Übersicht großes Potenzial zur Vereinfachung der Bewertung und Vergleichbarkeit von Gemeinden.
Wohnzukünfte
(2022)
Die Thematik Wohnen ist in ihren Abhängigkeiten vielschichtig und damit komplex. Wird der Fokus jedoch nicht auf die einzelnen Aktanten, sondern auf die Beziehungen gelegt, kristallisiert sich die Nachbarschaft mit ihren Bewohner:innen an der Schnittstelle zu allen anderen Akteur:innen heraus. Vorstellungen von Gesellschaften in Form von Ideologien und die Gestaltung von Räumen sind direkt miteinander verknüpft. Doch die zeitgenössische Architektur basiert noch immer auf dem Wohnverständnis des 19. Jahrhunderts, der patriarchalen Kleinfamilie. Zeitgenössisch verändern sich Lebensformen aber zunehmend und werden immer vielfältiger. Welche Wünsche, Bedürfnisse und Anforderungen haben also Menschen heute an ihren Wohnraum? Wie stellen sie sich ihre Zukunft des Wohnens vor und was bedeutet für sie, sich zuhause fühlen? Was möchten Menschen mit anderen teilen und wie sieht für sie eine gute Nachbarschaft aus?Es gibt viele Studien und Erhebungen im Bereich der ‚Hard Facts‘, also Haushaltsgröße, Wohnfläche, Nutzungsfläche oder Preis, doch bis dato kaum relevantes, öffentlich zur Verfügung stehendes Wissen im Bereich der ‚Soft Facts‘, die die eben aufgeworfenen Fragen beinhalten. Diese Wünsche und Bedürfnisse lassen sich nur schwer mit klassisch standardisierten Erhebungs- und Beteiligungsformaten erfassen, wie sie in herkömmlichen Beteiligungsprozessen der Quartiers- und Immobilienentwicklung, aber auch von Statistikunternehmen eingesetzt werden.
Die Materialität jedoch, die Methode, mit der Wünsche und Bedürfnisse erfasst werden sollen, hat einen maßgeblichen Einfluss darauf, welche Handlungsabläufe bzw. welche unterschiedlichen Gesellschaftsstrukturen hervorgerufen werden. ‚Körperliches‘ Wissen, das über das Ausüben sozialer Praktiken entsteht, entspricht oftmals nicht dem Explizierten, weshalb das wirkliche Tun, statt nur das Darüber-Sprechen, in der Erforschung von komplexen, sozialen Phänomenen so wichtig ist. Praxisintegrierende Designforschung kombiniert mit einem Mixed-Methods-Ansatz ermöglicht genau das. Im Forschungsprozess dieser Masterarbeit wurden auf diese Weise vier Formate zur Erforschung von Wünschen und Bedürfnissen der Vorarlberger:innen an den (erweiterten) Wohnraum entwickelt, getestet, evaluiert und zur Datenerhebung eingesetzt. Die daraus entstandenen Daten wurden multiperspektivisch interpretiert, diskutiert und zu zwölf Thesen, zwölf möglichen ‚Wohnzukünften‘ synthetisiert.
Erosion due to cavitation is a common problem for any kind of water turbine. Most of the currently used techniques to detect cavitation are using an Acoustic Emission (AE) sensor and highspeed cameras during operation. For the pelton wheel which is subject of this thesis it is impossible to take pictures during operation, because of the splashing water and the mist. Therefore this thesis aims to explore possibilities in detecting erosion on the buckets of the pelton wheel on images taken during manual inspections. Since the provided images are snapshots taken with a mobile phone camera without a tripod, a lot of effort was invested in the preprocessing of the images. For the main task, the classification of the erosion, two methods were evaluated: Local Binary Patterns (LBP) + kN-earest neighbor classification and the classification with a Convolutional Neural Network (CNN). The given 2405 images, contained 4810 buckets on which the erosion was graded from zero to four. This means the baseline for the classification accuracy is 20%. LBP + kNearest neighbor classification scored 32.03%. The chosen CNN model, a light version of the Xception architecture outperformed the LBP + kNearest classification with 58,29%. The biggest issue found during research is the variance of the erosion grading by the maintainance personnel. Reasons for this are: no objective grading critera like the area of erosion in mm2, classification by different employees, a shift in grading from overall bucket condition to erosion from cavitation and too many classes for grading. The mentioned reasons were confirmed by the manual classification experiment were an IllwerkeVKW employee had to perform the grading on images of the dataset. The contestants accuracy score was 36% for this task. The result of 58,29% classification accuracy indicates that an automated grading of erosion by cavitation is feasible.
Unbegreiflich? Begreif mich!
(2022)
Fehlendes Wissen führt zu fehlendem Verständnis und beeinträchtigt die Empathie gegenüber Menschen mit Behinderungen und deren Lebensumständen.
Diese Arbeit untersucht bisherige Methoden zur medialen Verständnisvermittlung chronischer Krankheiten mittels Seznografie. Der Fokus liegt dabei auf rheumatischen Erkrankungen. Die Analyse beinhaltet Aspekte der Wahrnemungsvermittlung, welche bislang noch nicht oder ungenügend erforscht wurden. Es werden Beispiele zu verschiedenen Inszenierungen von Krankheit und deren Auswirkungen auf die Betroffenen gesammelt und analysiert. Dabei wird beurteilt, welche Methoden zur Vermittlung eingesetzt werden können, um durch das Erlebnis von Objekten die Empathie gegenüber körperbehinderten Menschen zu steigern und in weiterer Folge deren Inklusion in die Gesellschaft zu verbessern. Die Kombination aus faktischem Wissen gekoppelt mit einer Selbsterfahrung verstärkt den Lerneffekt und kann das Verhalten nachhaltig beeinflussen. Durch das immersive verstehen einer Situation besteht die Möglichkeit Empathie aufzubauen und zu stärken. Diese Faktoren werden bei der Konzipierung mit einbezogen und sind maßgeblich für die Struktur der Ausstellung.
Das erarbeitete Austellungskonzept baut auf bisherigen best practice Beispielen, sowie recherchierten Methoden auf, wobei die Besucher:innen immersiv mit dem Thema Behinderung und chronische Krankheiten konfrontiert werden. Dieses Konzept ist in Form einer Partitur dieser Arbeit beigelegt, um den Erlebnispfad durch die erarbeiteten Inhalte und Darstellungen übersichtlich zu präsentieren. Die entwickelten Objekte wurden durch Recherche und anhand von Interviews auf ihre Eignung geprüft und in ihrer Wirkung und Relevanz bestätigt.
Skiing is one of the most popular winter sports in the world and especially in the alps. As the skiers enjoy their time on the slopes the most annoying thing that could happen is long waiting times at a lift. Unfortunately, because of climate changes, this happens more regularly because smaller skiing areas at lower altitudes have to close and the number of good skiing days decreases as well. This leads to a increase in the number of skiers in the skiing areas which inevitably leads to longer waiting times and dissatisfied skiers. To prevent this from happening, the carriers of the skiing areas have to manage the skiers flow and distribution and what better way to analyse the current situation and possible changes then by simulating the whole area. A simulation has the advantage of being flexible with regards to time as well as configuration. Be it simulating a skiing day and look into detail of the behaviour of a single skier and how it moves in the area by simulating in real time or setting the focus to the whole area and find out when and where queues are forming throughout the whole day by speeding up the time and simulate the day in only seconds, everything is possible. Even simulating a scenario where some part of the area is closed and the skiers cannot take specific lifts due to some technical error or some slopes because of to less snow. By simulating and analysing all these scenarios not only does the experts of the skiing area gain valuable statistical information about the area but can also simulate changes to the system like a crowd fl ow control or an increase or decrease in capacity of a lift. The simulation built in context with this work for the skiing area of Mellau shows all those applications but can also be used as a basis for further improvements of the skiing area or be expanded to other areas like Damüls. The simulation was implemented using the Anylogic simulation environment and the statistical evaluation was also performed in this program.
Lingerie
(2022)
Insignien der Macht
(2022)
Die Coronavirus Pandemie hatte einen tiefgreifenden Einfluss auf die Art und Weise wie Staats- und Regierungschefs weltweit digitale Netzwerke für politische Kommunikation nutzen. Während PolitikerInnen über soziale Netzwerke vermehrt versuchten ihre WählerInnen zu erreichen, suchten auch NutzerInnen vermehrt auf Kanälen politischer AkteurInnen nach aktuellen Informationen zum Coronavirus. Die Pandemie hat gezeigt, dass die visuelle Kommunikation führender politischer AkteurInnen auf Social Media an Bedeutung gewinnt und als zunehmend zentrale Ressource politischen Handelns kritisch hinterfragt werden sollte. In digitalen Öffentlichkeiten ändern sich zunehmend Rahmenbedingungen visueller politischer Kommunikation. Durch Soziale Netzwerke erhalten PolitikerInnen die Möglichkeit einer ungefilterten Kommunikation mit ihren Wählergruppen. Aus Überlegungen über den Prozesswandel der politischen Kommunikation, stellt sich die Frage wie visuelle politische Kommunikation auf Social Media durch empirische Forschung und visuelle Analysen in ihren Inszenierungsstrategien dekodiert werden kann. Im Rahmen des Forschungs- und Designprojektes Insignien der Macht: Die Entschlüsselung visueller politischer Kommunikation im Zeitalter Visueller Politik soll auf Basis von Visual Literacy und der Bildpädagogik nach Otto Neurath eine visuelle Sammlung erstellt werden, die als Hilfsmittel zur Entschlüsselung inszenierter Bildmaterialien auf Social Media einen Beitrag zur kritischen Betrachtung von Bildern im Zeitalter Visueller Politik durch eine designpraktische Übersetzungsleistung der Forschungserkenntnisse leisten soll.
Untersuchung zur Lösbarkeit der Rückwärtskinematik eines 6-DOF Roboter mit einem neuronalen Netz
(2022)
Das Berechnen der inversen Kinematik ist komplex und muss für jeden Robotertyp individuell gelöst werden. Da ein Manipulator ohne die Rückwärtskinematik, die die erforderlichen Achsvariablen für eine Ziellage ermittelt, in der Praxis nicht verwendet werden kann, ist dieses Problem elementar in der Robotik. In dieser Arbeit wird der Ansatz zur Lösung der inversen Kinematik mit einem neuronalen Netz für einen Roboter mit sechs Freiheitsgarden untersucht. Dabei ist besonders darauf zu achten alle Mehrdeutigkeiten der inversen Kinematik beim Training zu berücksichtigen, da sonst das Kriterium des Determinismus zwischen Inputs und Outputs verletzt wird, was verhindert, dass ein Netz für das Problem trainiert werden kann. Es hat sich gezeigt, dass der Optimierungsalgorithmus Adams ebenso gute Ergebnisse wie der Scaled Conjugated Gradient erzielt. Die in Tensorflow verwendete typischen Aktivierungsfunktion Tangens hyperbolicus, weist im Vergleich zu anderen untersuchten Aktivierungsfunktionen, die in Tensorflow implementiert sind, die beste Performance auf. In MATLAB hingegen weist die Log sigmoid Aktivierungsfunktion die beste Performance von den implementierten Aktivierungsfunktionen auf. Zusätzlich verringert das Einschränken der Achsvariablen auf die tatsächlichen Achsbeschränkungen beim Trainieren des Netzes, sowohl den Netzwerkfehler als auch die Datenmenge, die benötigt wird, damit das Netz gut generalisiert. Abschließend stellt sich heraus, dass die trainierten Netze keine Praxistauglichkeit aufweisen, da der erzielte Netzwerkfehler zu groß ist. Da alle Mehrdeutigkeiten durch geometrische Analyse ausgeschlossen sind und ein ausreichend großer Datensatz verwendet wurde, kann mit den hier vorgestellten Ansätzen das Ergebnis nur durch komplexere Netze und damit mehr Daten verbessert werden. Andere Ansätze die zusätzliche Informationen zur Berechnung der Achswinkel zur Verfügung stellen könnten zudem auch bessere Ergebnisse erzielen. Darüber hinaus könnte es sinnvoll sein, Ansätze zu untersuchen, die sich die Achsbeschränkungen zunutze machen.
Der Begriff Digital Rights Management (DRM) umfasst Richtlinien, Techniken und digitale Werkzeuge, mit denen die Nutzung digitaler Inhalte eingeschränkt, gesteuert und kontrolliert werden kann. Im Wesentlichen werden dabei Technologien von Rechteinhaber:innen zur Zugangs- und Nutzungssteuerung sowie Verfolgung von Rechtsverstößen und gegebenenfalls sogar zur differenzierten Abrechnung digitaler Inhalte angewendet. Herkömmliche DRM-Systeme bestehen hauptsächlich aus Software und stützen sich auf softwarebasierte IT-Sicherheit. Um die IT-Sicherheit von DRM-Systeme auszuweiten, können Hardwarekomponenten eingesetzt werden. Die Kombination aus software- und hardwarebasierter IT-Sicherheit wird als Trusted Computing (TC) bezeichnet und ermöglicht Rechteinhaber:innen völlig neue Szenarien.
Um die Möglichkeiten von DRM mit TC zu erforschen bzw. diese zu demonstrieren, wurde im praktischen Teil dieser Arbeit eine technische und organisatorische Maßnahme prototypisch umgesetzt, mit der es einem Auftraggeber-System möglich ist, mit einer definierten Lizenz (bzw. DRM-Policy) sensible proprietäre Daten an ein Auftragnehmer-System zu senden, sodass dieses die sensiblen Daten nur auf eine Art und Weise verwenden kann, wie die Lizenz es vorgibt. Zur Umsetzung der Systeme wurde ein kryptografischer Coprozessor - genannt Trusted Platform Module (TPM) - verwendet. Das TPM verfügt über weitreichende kryptografische Funktionalitäten und bietet eine hardwarebasierte IT-Sicherheit. Das Gesamtsystem wurde somit als zweiteiliges System, ein Auftraggeber-System und ein Auftragnehmer-System, umgesetzt.
Im theoretischen Teil der Arbeit wird zuerst auf DRM und anschließend auf TC eingegangen. Besonders einige wichtige Funktionalitäten des TPM, welche in das System integriert wurden, werden erläutert. Des Weiteren wird auch das abhörsichere Kommunikationsprotokoll Hypertext Transfer Protocol Secure (HTTPS) vorgestellt und erklärt. HTTPS wird verwendet für den geschützten Datenaustausch zwischen den beiden Teilsystemen. Wie das Gesamtsystem inklusive der beiden Teilsystemen umgesetzt wurde, sowie welche Features es bietet und wie es funktioniert wird auch in einem Kapitel präsentiert und erläutert. Abschließend werden die positiven und negativen Aspekte des Systems sowie eine auf eigener Meinung beruhende Schlussfolgerung präsentiert.
Systems are constantly increasing in complexity. This poses challenges to managing and using system knowledge. The Systems Modeling Language (SysML) is a modeling language specifically for systems, while Machine Learning (ML) is a tool to tackle complex problems. Currently, no bridge between systems modelled in SysML and ML regarding said systems has been proposed in literature. This thesis presents an approach that uses Model-driven Software Engineering (MDSE) and Template-based Code Generation (TBCG) to generate a ML IPython Notebook (IPYNB) from a SysML model. A mapping configuration using JavaScript Object Notation (JSON) allows the definition of mappings between SysML elements and template variables, enabling configuration and user-supplied templates. To test the approach, a SysML model describing ML to predict the weather based on data is created. Python ML templates are supplied and template variables mapped with the JSON mapping configuration are proposed in the thesis. The outcome is an executable IPYNB that contains all information from the SysML model and follows the modelled workflow. The findings of the work show that model-driven ML using SysML as a modeling language is beneficial due to the representation of ML knowledge in a general-purpose modeling language and the reusability of SysML model elements. It further shows that TBCG and a mapping configuration allow for more flexible code generation without changing the source implementation.
Offline speech to text engine for delimited context in combination with an offline speech assistant
(2022)
The inatura museum in Dornbirn had planned an interactive speech assistant-like exhibit. The concept was that visitors could ask the exhibit several questions that they would like to ask a flower. Solution requirements regarding the functionalities were formulated, such as the capacity to run offline because of privacy reasons. Due to the similarity of the exhibit, open-source offline Speech To Text (STT) engines and speech assistants were examined. Proprietary cloud-based STT engines associated with the corresponding speech assistants were also researched. The aim behind this was to evaluate the hypothesis of whether an open-source offline STT engine can compete with a proprietary cloud-based STT engine. Additionally, a suitable STT engine or speech assistant would need to be evaluated. Furthermore, analysis regarding the adaption possibilities of the STT models took place. After the technical analysis, the decision in favour of the STT engines called "Vosk" was made. This analysis was followed by attempts to adapt the model of Vosk. Vosk was compared to proprietary cloud-based Google Cloud Speech to Text to evaluate the hypothesis. The comparison resulted in not much of a significant difference between Vosk and Google Cloud Speech to Text. Due to this result, a recommendation to use Vosk for the exhibit was given. Due to the lack of intent parsing functionality, two algorithms called "text matching algorithm" and "text and keyword matching algorithm" were implemented and tested. This test proved that the text and keyword matching algorithm performed better, with an average success rate of 83.93 %. Consequently, this algorithm was recommended for the intent parsing of the exhibit. In the end, potential adaption possibilities for the algorithms were given, such as using a different string matching library. Some improvements regarding the exhibit were also presented.
Seit der Einführung von modernen Smartphones steigt die Bildschirmdiagonale der mobilen Endgeräte Jahr für Jahr. Dies ist sowohl ein Fluch als auch ein Segen zugleich. Einerseits kann auf einer größeren Bildschirmfläche eine größere Anzahl von Inhalten grafisch dargestellt werden. Andererseits bedeutet dies aber auch, dass Interaktionen mit der gesamten verfügbaren Bildschirmfläche sich als immer schwieriger gestalten. Insbesondere bei der einhändigen Bedienung des Smartphones mit dem Daumen erfordern ungünstig platzierte klickbare Bedienelemente eine erhebliche Streckung des betreffenden Fingers oder sogar die Unterstützung durch die andere Hand. Dadurch kann die Präzision von Berührungsinteraktionen beeinträchtigt werden. Es stellt sich deshalb folgende Forschungsfrage: „Inwiefern hängt die Berührungspräzision von unvorteilhaft positionierten Bedienelementen in Smartphones ab und wie unterscheiden sich die verschiedenen Altersgruppen hinsichtlich Smartphone Interaktionen?“ Zur Beantwortung der Forschungsfrage wurde eine quantitative Studie im Design einer interaktiven Umfrage für Smartphones programmiert und an potentielle Teilnehmer:innen versandt. Dabei wurden die Teilnehmenden aufgefordert vordefinierte Haltegriffe einzuhalten. Es wurden die Berührungsinteraktionen und die Antworten der Teilnehmenden protokolliert und anschließend analysiert. Bei der Datenanalyse wurden die erhobenen Daten der Teilnehmenden in vier Altersklassen unterteilt und anschließend auf Differenzen bezüglich der Bedienpräzision untersucht. Die Darstellung und der Vergleich der Benutzer:inneninteraktionen durch OffsetVektoren ergab, dass die Versuchsgruppe der Senioren bei allen vordefinierten Haltegriffen eine signifikant geringere Präzision in Bezug auf die Berührungsgenauigkeit aufwies als die anderen Testgruppen. Darüber hinaus wurde festgestellt, dass Objekte, die weiter von der natürlichen Fingerposition entfernt sind, mit einer geringeren Präzision selektiert werden als Objekte, die in unmittelbarer Nähe zum bedienenden Finger positioniert sind. Dies zeigte sich sowohl bei der Bedienung mit dem Daumen als auch mit dem Zeigefinger und ist abhängig vom Winkel des bedienenden Fingers zum Smartphone.
Das Ziel dieser Arbeit ist die Analyse und Entwicklung einer Aktor-Bibliothek in Rust. Existierende Aktor-Bibliotheken in Rust verletzen grundlegende Regeln des Aktor-Modells, wodurch diese in nicht allen Anwendungsfällen verwendet werden können. Des Weiteren existiert keine strukturierte Arbeit zu der Entwicklung einer Aktor-Bibliothek in Rust. Die in dieser Arbeit entwickelte Bibliothek entspricht einerseits den Ideen des Aktor-Modells, andererseits wird die Erarbeitung und die durchlaufene Analyse der Bibliothek durch diese Arbeit dokumentiert. In einem ersten Schritt wird das Aktor-Modell und grundlegende Spracheigenschaften von Rust eingeführt, bevor das Design der entwickelten Aktor-Bibliothek vorgestellt und getroffene Design-Entscheidungen beschrieben und begründet werden. Darauffolgend werden die Implementationen der relevantesten Komponenten der Bibliothek beschrieben und anhand von Code-Beispielen erklärt. Des Weiteren wird das Design und die Implementation eines Test-Frameworks für Aktoren präsentiert, das das Testen von Aktoren erleichtern soll. Anhand der Implementation eines Praxisbeispiels wird die entwickelte Aktor-Bibliothek mit Java Akka durch Code-Vergleiche und Benchmarks verglichen. Hierbei wird gezeigt, dass die Verwendung der entwickelten Bibliothek mit einem vergleichbar gleich großen Code-Aufwand zu denselben und mitunter besseren Ergebnissen führen kann. Abschließend werden vorhandene Einschränkungen der entwickelten Bibliothek und deren Auswirkungen beschrieben.
The demand for managing data across multiple domains for product creation is steadily increasing. Model-Driven Systems Engineering (MDSE) is a solution for this problem. With MDSE, domain-specific data is formalized inside a model with a custom language, for example, the Unified Modelling Language (UML). These models can be created with custom editors, and specialized domains can be integrated with extensions to UML, e.g., the Systems Modeling Language (SysML). The most dominant editor in the open-source sector is Eclipse Papyrus SysML 1.6 (Papyrus), an editor to create SysML diagrams for MDSE.
In the pursuit of creating a model and diagrams, the editor does not support the user appropriately or even hinders them. Therefore, paradigms from the diagram modelling and Human Computer Interaction (HCI) domains, as well as perceptual and design theory, are applied to create an editor prototype from scratch. The changes fall into the categories of hierarchy, aid in the diagram composition, and navigation. The prototype is compared with Papyrus in a user test to determine if the changes have the effect of improving usability.
The study involved 10 participants with different knowledge levels of UML, ranging from beginners to experts. Each participant was tested on a navigation and modelling task in both the newly created editor, named Modelling Studio, and Papyrus. The study was evaluated through a questionnaire and analysis of the diagrams produced by the tasks.
The findings are that Modelling Studio’s changes to the hierarchical elements improved their rating. Furthermore, aid for diagram composition could be reinforced by changes to the alignment helper tool and adjustments to the default arrow behaviour of a diagram. Lastly, model navigation adjustments improve a link’s visibility and rating of a specialized link (best practice). The introduction of breadcrumbs had limited success in bettering navigation usability. The prototype deployed a broad spectrum of changes that found improvement already, which can, however, be further improved and tested more thoroughly.
With the rise of people wearing smartwatches and the ever-lasting issue of stress, there has been an interest in detecting stress with wearables in real-time. This allows for interventions that take place exactly when stress occurs. However, many situations require all of our attention, making them unsuitable for any interventions. Additionally, many approaches currently do not factor in this aspect, running the risk of offering users undesirable interventions.
This thesis examines how contextual user information can be incorporated into a stress intervention system to reduce undesirable intervention timings. The system is split into detecting stress using heart rate variability (HRV) metrics obtained from a photoplethysmography (PPG) signal, and inferring user context from available sensor data. It is evaluated with a simulation-based approach using daily schedules of created personas and randomly sampled stressors during daily life.
The results obtained indicate the benefit of adding contextual user information to a stress intervention system. Depending on the busyness of the schedule, it can greatly decrease the number of received interventions. However, as these findings are attained without performing a user testing, it is unclear how they compare to results from real-world usage.
Die tägliche Arbeit von Büroangestellten besteht oft aus Aufgaben, die sich in verschiedenen Zeitabständen wiederholen. Die Art unterscheidet sich abhängig vom Berufsfeld. Jedoch kostet deren Ausführung Zeit und den stört Arbeitsfluss. Könnten diese Aufgaben automatisiert werden, hätte dies den Vorteil, dass zeitliche Ressourcen freigesetzt würden und es dadurch zu einer Steigerung der Produktivität käme, da diese zusätzlichen Ressourcen anderweitig genutzt werden könnten. Daher ist es notwendig geeignete Aufgaben ausfindig zu machen und anhand der entsprechenden Technologien zu automatisieren.
Das Ziel der vorliegenden Arbeit ist es, die repetitiven Aufgaben in der definierten Zielgruppe zu eruieren und diese in weiterer Folge zu automatisieren. Dazu wird folgende Forschungs-frage gestellt: „Implementierung eines Chatbots anhand von der SAP zur Verfügung gestellter Technologien, um repetitive Aufgaben zu automatisieren.“
Die Umsetzung der Arbeit erfolgte im Rahmen der Tätigkeit bei einem SAP Beratungshaus. Dadurch beschränkt sich die Zielgruppe auf hausinterne SAP Berater*innen und SAP Tech-nologien. Ziel dieser Arbeit war es, einen Prototypen zu implementieren der es ermöglicht, dass die Berater*innen sich täglich wiederholende Aufgaben anhand eines Chatbots automa-tisiert ausführen können. Als Ergebnis dieses Greenfield Projektes sollte ein Proof-of-concept zur Verfügung gestellt werden, der die ausgewählten Anwendungsfälle abdeckt und eine Grundlage für die Erweiterung bildet. Die Hauptaufgabe liegt zum einen in der Erfassung der Anwendungsfälle und zum anderen im Aufbau von entsprechendem Know-How für die Um-setzung mit den ausgewählten Technologien.
Als Technologie, zur Interaktion mit dem Benutzer, wird für den Chatbot die SAP Conversati-onal AI verwendet. Zur Ausführung der Aufgaben erfolgt die Umsetzung anhand der SAP In-telligent Robot Process Automation im Zusammenspiel mit dem SAP GUI Scripting und an-wendungsfallspezifischen ABAP Programmen.
Die Evaluation der User Expirience erfolgt in Form des SUMI Fragebogens. Dieser untersucht die Dimensionen der Effizienz, Beinflussbarkeit, Hilfsbereitschaft, Kontrollierbarkeit und Er-lernbarkeit. Für die Durchführung der Untersuchung wurden den Anwender*innen Szenarien vorgelegt, welche alltägliche Situationen widerspiegeln. Basierend auf diesen Szenarien soll-ten die Aufgaben mit Hilfe des Chatbots gelöst werden. Das Ergebnis der Untersuchung zeigt, dass der Prototyp vor allem in den Bereichen der Effizienz und der Kontrollierbarkeit einiges an Verbesserungspotenzial offenbart hat. Jedoch wird der Nutzen der Anwendung von acht der zehn Testpersonen als wichtig bis sehr wichtig eingestuft.
Die Umsetzung legt die Möglichkeiten und das Potenzial der Technologien offen und stellt mit dem Prototypen eine solide Grundlage für zukünftige Entwicklungen zur Verfügung. Weiters werden durch die Evaluation die Schwächen und Stärken offengelegt und ein Konzept ver-wendet, welches auch für zukünftige Erweiterungen verwendet werden kann.
Krypto-Assets im Treasury
(2022)
Die Unternehmensplanung ist ein Pfeiler der Unternehmenssteuerung und dient zur Prognose der zukünftigen Geschäftsentwicklung sowie als Grundlage für Entscheidungen und Maßnahmen. Es wird auf diverse Charakteristiken der Unternehmensplanung eingegangen, wie die strategische und operative Planung. Die Planungsarten fokussieren sich auf Budget und Forecast. Zu diesen werden verschiedene bisherige Studien vorgestellt.
Die Forschungsfrage untersucht, wie sich in den vergangen zwei Jahren der Planungsprozess in der Bodenseeregion verändert hat und welche Treiber es für die Veränderungen gab. Die quantitative Untersuchung mittels einer Online-Umfrage erfolgt vor dem Hintergrund einer nicht nachlassenden Unsicherheit bedingt durch die Corona-Pandemie. Ein neuer Blickwinkel auf die Unternehmensplanung ist die Analyse von Unterschieden aufgrund der gewählten Unternehmensausrichtung Massenproduktion oder Auftragsfertigung. In den Ergebnissen zeigen sich keine signifikanten Unterschiede zwischen den beiden Geschäftsmodellen. Die Hälfte der befragten Unternehmen hat die Planung angepasst und z.B. die Planungsdauer verkürzt oder Szenarien verwendet.
Der Begriff der Nachhaltigkeit und der damit einhergehende Druck der Gesellschaft auf Unternehmen nimmt stetig zu. Unternehmen haben in den letzten Jahren damit begonnen, nachhaltige Ansätze im Rahmen ihrer wirtschaftlichen Tätigkeit zu integrieren und nach außen hin zu vertreten.
Das Ziel dieser Arbeit ist die Entwicklung eines sogenannten ESG-Leitfadens, welcher als zusätzliches Analysewerkzeug im Rahmen einer Unternehmensprüfung von Private-Equity-Gesellschaften eingesetzt werden kann. Der Leitfaden gilt als Leitlinie für die Einhaltung von ESG-Kriterien sowie den Bestimmungen der EU-Offenlegungsverordnung für nachhaltige Finanzprodukte.
Im Rahmen einer umfassenden Recherche wurden in einem ersten Schritt bestehende Due-Diligence-Prüfungen auf nachhaltige Aspekte untersucht. Anschließend wurden weitere Kriterien zur Erfüllung der ESG-Aspekte auf Basis einer entwickelten Methodik extrahiert und in den vorgesehenen Leitfaden implementiert. Weiters wurde sichergestellt, dass mit der Anwendung des Leitfadens die Grundzüge der EU-Offenlegungsverordnung eingehalten werden können.
In einem abschließend durchgeführten Anwendungstest wurde die Einsatzfähigkeit des Leitfadens bestätigt. Der Erfolg des ESG-Leitfadens, im Hinblick auf einen später darauf zurückzuführenden wirtschaftlichen Erfolg, kann lediglich in Kombination mit weiteren Prüfmethoden sichergestellt werden.
Controlling im Bauprojekt
(2022)
Berühmte Beispiele zeigen, dass Bauprojekte Schwierigkeiten haben, im geplanten Zeit- und Kostenrahmen realisiert zu werden. Diese spezielle Art der Projekte ist individuellen Heraus- forderungen und Risiken ausgesetzt. Dem Controlling kommt im Bauprojekt eine besondere Bedeutung zu, da es helfen kann, diesen Herausforderungen zu begegnen. Das Controlling kann das Projektmanagement dabei unterstützen, die gesetzten Ziele zu erreichen und die Transparenz im Bauprojekt zu erhöhen.
Mithilfe der vorliegenden Arbeit wird versucht, Erfolgsfaktoren für das Controlling in Baupro- jekten zu identifizieren. Um diese Forschungsfrage zu beantworten, wurden leitfadengestützte Interviews mit 15 Beschäftigten von im Bauprojekt beteiligten Berufsgruppen geführt (3 Archi- tekt/-innen, 3 Fachplaner/-innen, 3 Bauunternehmer/-innen sowie 6 Projektleiter/-innen). Die Interviews decken die folgenden Bereiche ab: Herausforderungen von Bauprojekten, Projekt- controlling, Risikomanagement und Erfolgsfaktoren.
In den 13 Jahren seit Einführung der IFRS für KMU in Deutschland belegen mehrere Studien, dass dieser Standard, entgegen der Erwartungen, keine Erfolge im Bereich der Anwenderzahlen erzielen konnte. Trotz der Entwicklung eines international angepassten und auf die Bedürfnisse der KMU fokussierten Rechnungslegungsstandards, blieb eine Etablierung innerhalb der KMU aus.
Ziel dieser Arbeit ist die Analyse, inwiefern eine doppelte Rechnungslegung nach IFRS und HGB wirtschaftliche und geschäftsanalytische Vorteile für die Anteilseigner deutscher KMU generiert. Aufbauend auf der beschriebenen Zielsetzung gilt es zu überprüfen, welche Anteilseigner deutscher KMU von dem doppelten Rechnungslegungsstandard adressiert werden und ferner, in welchem Ausmaß eine höhere Bedürfnisbefriedigung resultiert. Zunächst erfolgt im Rahmen einer umfassenden Literaturrecherche eine Untersuchung der Anteilseigner deutscher KMU und deren Anforderungen an ein Rechnungslegungssystem. Anschließend findet eine Überprüfung möglicher Vorteile statt, welche die Anwendung der IFRS für KMU befürworten würden. Darüber hinaus wurden zehn Experteninterviews durchgeführt mit der Intention, erworbene Erkenntnisse zu revidieren und überdies neue zu generieren. In einer abschließenden Inhaltsextraktion werden die gewonnen Annahmen artikuliert und anschließend interpretiert, um die zugrundeliegende Forschungsfrage zu beantworten.
Um die Nachhaltigkeitsziele der Vereinten Nationen in Österreich zu erreichen, wird ab Juli 2022 die CO2-Steuer erhoben. In diesem Kontext fehlen für den Standort Vorarlberg jedoch Aussagen über das Nachhaltigkeitscontrolling im Allgemeinen und die Auswirkungen der CO2-Steuer im Speziellen.
Zur Beantwortung der Forschungsfragen wurde eine Online-Umfrage konzipiert, durchgeführt und statistisch quantitativ ausgewertet. Das entwickelte Nachhaltigkeits-Scoring-System soll klären, inwieweit die teilnehmenden Unternehmen, ein Nachhaltigkeitscontrolling implementiert haben. Zudem wurde geprüft, ob die CO2-Steuer einen Zusammenhang mit dem ermittelten Nachhaltigkeitsscore hat.
Der Mittelwert des Nachhaltigkeitsscore betrug 56,23 %, wobei die Ergebnisse eine hohe Variabilität (10 % bis 100 %) aufwiesen. In einigen Unternehmen wird nur ein rudimentäres Nachhaltigkeitscontrolling durchgeführt, während andere bereits sehr aktiv sind. Die Wirkung der CO2-Steuer ist sehr unterschiedlich. Der Korrelationskoeffizient nach Pearson ergibt zwar 0,053 und ist damit positiv (r > 0), dieser ist aber sehr schwach. Die Signifikanz (1-seitig) liegt bei p = 0,352. Somit wurde nachgewiesen, dass kein eindeutiger Zusammenhang zwischen der CO2-Bepreisung und dem Nachhaltigkeitsscore in Vorarlberg besteht.
Grüne Anleihen gewinnen als Finanzierungsinstrument für Unternehmen zunehmend an Interesse. Ziel der Masterarbeit ist es, Unternehmen für die zukünftige Emission von grünen Anleihen Handlungsempfehlungen für die Ausgestaltung des Green Bond Frameworks (GBF) und der Anleihebedingungen zu bieten. Die theoretische Annäherung an die Begriffe grüne Finanzierung sowie grüne Anleihen bildet den Rahmen für die empirische Untersuchung und gibt Hinweise auf Erfolgsfaktoren für die Erzielung einer grünen Prämie (Greenium). Anschließend werden die GBFs sowie die Ausstattungsmerkmale der grünen Anleihen von ATX-, DAX- und SMI-Unternehmen inhaltsanalytisch ausgewertet. Die Analyse belegt, dass die Emittentinnen in den GBFs unterschiedlich strenge Kriterien für die Verwaltung und Verwendung der Emissionserlöse von grünen Anleihen festlegen. Auf Basis dieser ordinal skalierten Konditionen wird ein Qualitätsindex entwickelt, der einen einfachen Vergleich von GBFs ermöglicht und gemeinsam mit den aus der Theorie abgeleiteten Er-folgsfaktoren die Basis für einen Kriterienkatalog für die Ausgestaltung von GBFs und Anleihekonditionen von grünen Anleihen bildet.
Das Thema Nachhaltigkeit wurde in den letzten Jahren zu einer stetig wachsenden Herausforderung für Unternehmen, welche sich in einer Nachhaltigkeitsberichtserstattung (kurz: NBE) etablierte. Die vorliegende Untersuchung der Entwicklung der NBE der DAX-40-Unternehmen basiert auf einem Kategorienkatalog, eigens entwickelt aus den SDGs. Hiermit ist es möglich Umfang und Metadaten der Berichte in einem standardisierten und vergleichbaren Format festzuhalten. Diese Informationen wurden mithilfe deskriptiver Betrachtung und statistischer Methoden ausgewertet. Dadurch wird aufgezeigt, dass trotz der quantitativen Entwicklung der Berichte und vermehrter Behandlung nachhaltiger Themen, diese inhaltlich sehr stark, aufgrund einer fehlenden Standardisierung bzw. Verpflichtung für die Publikation von Nachhaltigkeitsthemen, variieren. Dies führt dazu, dass sowohl der Vergleich von Berichten zwischen Unternehmen als auch von unterschiedlichen Berichten desselben Unternehmens nur mit sehr hohem Aufwand möglich ist. Sinnvoll wäre die weiterführende Forschung im Bereich der NBE für Großunternehmen nach Inkrafttreten der Regelungen der CSRD und im Speziellen der Vergleich der Nachhaltigkeitsberichtserstattung vor und nach der Standardisierung.
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
Umgang mit negativen Effekten in Talentmanagement Programmen von Vorarlberger Großunternehmen
(2022)
Unternehmen müssen heute eine Vielzahl von Compliance-Anforderungen erfüllen. Bei Konsumgüterherstellern gewinnt hierbei die Erweiterte Herstellerverantwortung immer mehr an Bedeutung, deren unterschiedliche Gesetzgebungen in verschiedenen Ländern eingehalten werden müssen, um Bußgelder oder Vertriebsverbote zu verhindern. Unternehmen müssen folglich Wege finden, um die Compliance-Anforderungen möglichst ressourceneffizient und nachhaltig in Geschäftsprozessen zu implementieren.
Die vorliegende Masterarbeit beschäftigt sich daher mit der Frage, wie Unternehmen bei der sozialen und technischen Implementierung von Compliance-Anforderungen in Geschäftsprozessen vorgehen sollten, um eine möglichst hohe Akzeptanz und Umsetzungssicherheit zu gewährleisten. Basierend auf einer Literaturrecherche und der Modellierung praxisnaher Beispiele mit DMN werden schrittweise verschiedene Möglichkeiten zur Implementierung von Compliance-Anforderungen in Geschäftsprozessen, von der Anforderungsidentifikation bis zur Aufstellung von Business Rules, aufgezeigt.
Um Compliance-Anforderungen nachhaltig in Geschäftsprozessen zu implementieren, sollten die Anforderungen in den Geschäftsprozessen hinterlegt und deren Einhaltung regelmäßig durch Audits überprüft werden. Eine flexible und umsetzungssichere Möglichkeit bieten außerdem Business Rules. Auch spielen soziale Aspekte wie die Prozessorganisation, klare Zuordnungen von Rollen und Verantwortlichkeiten und Change-Management eine Rolle, da diese einen Einfluss auf die Akzeptanz durch die Prozessbeteiligten haben. Nur unter Beachtung der technischen und sozialen Aspekte können Compliance-Anforderungen in Geschäftsprozessen nachhaltig implementiert werden.
Dynamische Veränderungen, steigende Wettbewerbsintensität und ein hohes Maß an Komplexität charakterisieren das aktuelle Marktumfeld, in dem Unternehmen agieren müssen. Das Prozessmanagement muss diesen Veränderungen sowohl auf der strategischen, als auch auf der operativen Ebene begegnen. Eine Adaption des Konzepts der Agilität durch das Prozessmanagement wird daher zunehmend relevant, um die originären Ziele des Prozessmanagements zu erreichen. Allerdings gilt dies unter der Prämisse, dass die agilen Konzepte die Fähigkeiten des Prozessmanagements, auf Veränderungen nachhaltig zu reagieren, stärken. In diesem Zusammenhang sind in der Literatur Arbeiten und Texte zu unterschiedlichen Anwendungen der agilen Konzepte im Prozessmanagement zu finden. Unklar bleibt dabei sowohl, ob diese Texte auf einem gemeinsamen Verständnis des Konzepts basieren, als auch der Zusammenhang und die Vereinbarkeit mit traditionellen Methoden des Prozessmanagements. Unter diesen Voraussetzungen ist es das Ziel der vorliegenden Arbeit den Kontext aufzuzeigen, in welchem agile Konzepte im Prozessmanagement diskutiert werden, und wie diese mit Modellen des traditionellen Prozessmanagements zusammenhängen. Dazu werden ausgewählte Texte auf ihre Verwendung agiler Konzepte als Lösungsstrategien für das allgemeine Handlungsfeld der dynamischen Veränderungen der „VUCA Welt“ analysiert. Die identifizierten Konzepte werden in Bezug zu traditionellen Konzepten, wie dem BPM Life-cycle, kritisch hinterfragt. Die Erkenntnisse der Arbeit belegen, dass die aktuelle Marktsituation ein Umdenken im Prozessmanagement erfordert. Agile Konzepte können das Prozessmanagement dabei unterstützen und Alternativen zu traditionellen Vorgehensweisen aufzeigen. Dabei fehlen jedoch bisher standardisierte Anwendungskonzepte und ein einheitliches Verständnis des Begriffs der Agilität im Prozessmanagement. Ferner erfordern die ganzheitliche Betrachtungsweise und die originären Ziele des Prozessmanagements weiterhin den Einsatz traditionellerer Methoden als Fundament für die Einführung von agilen Konzepten im Prozessmanagement.
Das Supply Chain Management von Unternehmen war die letzten Jahre stark effizienzgetrieben und wird durch die Veränderung des Unternehmensumfelds in eine sogenannte VUCA-Welt zunehmend vor Herausforderungen gestellt. Um mit den Herausforderungen umgehen und die Lieferketten aufrechterhalten zu können, setzen immer mehr Unternehmen auf „Resilienz“ als neue strategische Ausrichtung. Da sowohl die internen als auch die externen Supply Chain Management Prozesse von der IT abhängig sind, ist das Business-IT-Alignment ein Bereich, der von einer strategischen Neuausrichtung des Supply Chain Managements stark betroffen ist. Das Ziel der Masterarbeit ist daher die Beantwortung der Fragestellung, wie sich eine strategische Neuausrichtung des Supply Chain Management von Effizienz hin zu mehr Resilienz auf das Business-IT-Alignment von Unternehmen auswirkt. Die Beantwortung der Fragestellung erfolgt anhand eines theoretisch-konzeptionellen Vorgehens. Die Ergebnisse der durchgeführten Recherchen und Methoden haben gezeigt, dass alle sechs Dimensionen des Business-IT-Alignments – Strategie, Prozesse, Infrastruktur, Plattformen, Applikation und Services – von einer strategischen Neuausrichtung betroffen sind. Moderne IT-Organisationen sind allerdings bereits auf einem guten Weg, die Anforderungen einer resilienten Strategieausrichtung zu unterstützen. Zudem hat die Bedeutung einer funktionierenden Zusammenarbeit zwischen den Fachabteilungen und der IT-Abteilung deutlich zugenommen, um im Störungsfall besser reagieren zu können.
Innerhalb des Managements haben sich im Laufe der Zeit Management-Disziplinen gebildet, die Unternehmen bei der systematischen Transformation unterstützen. Unter dem Einsatz von Vorgehensmodellen, Frameworks und abstrakten Darstellungsmethoden wird der Versuch unternommen, alle Aspekte eines Transformationsvorhaben zu berücksichtigen und den Anwender schrittweise durch die zunehmend komplexen und dynamischen Veränderungsprojekte zu führen. Begriffe wie das Business Engineering oder aber das Enterprise Architecture Management werden in diesem Zusammenhang oftmals benannt. Diese Management-Disziplinen überschneiden sich teilweise, bezogen auf die Vorgehensweise, die eingesetzten Methoden sowie den Inhalt und die Zielvorstellungen. Teilweise werden die Begrifflichkeiten synonym aufgegriffen, teilweise sind die Auffassungen über den Inhalt der Disziplinen unterschiedlich. In den Wirtschaftswissenschaften führen diese unterschiedlichen Auffassungen oftmals zu einer nicht unerheblichen Verwirrung. Begrifflichkeiten, die hierbei sehr ähnlich sind, können jedoch von unterschiedlicher Natur sein. Teilweise wird ein Umsturzversuch unternommen und Methoden sowie Best Practices werden für die eigenen Zwecke verwendet und als etwas „Neues“ veröffentlicht. Das Business Architecture Management, welches lange Zeit ausschließlich als Bestandteil des Enterprise Architecture Management angesehen wurde, hat sich mittlerweile innerhalb des Managements als eigene Management-Disziplin etabliert und versucht sich von anderen Management-Disziplinen abzugrenzen. Um mehr Klarheit über den Inhalt, die Charakteristika, die Merkmalsausprägungen und das Vorgehen zu schaffen, stellt diese Masterarbeit den Versuch dar, das Business Engineering mit dem Business Architecture Management im gemeinsamen Kontext zueinander zu untersuchen. Es werden die Fragen geklärt, welche Belastbaren Erkenntnisse der Vergleich beider Disziplinen ergibt, und ob eine sinnvolle Einordung beider
Disziplinen zueinander möglich ist.
Der Implementierungsprozess einer Unternehmensstrategie im Kontext der digitalen Transformation
(2022)
Die Digitalisierung in Unternehmen und somit der Vormarsch von Industrie 4.0 zählen zu den am häufigsten besprochenen Themenfeldern der letzten Jahre. Mit Industrie 4.0 fallen auch Schlagwörter wie ‚Internet of Things‘ oder ‚Big Data‘. Diese Technologien sind dafür zuständig, die Produktion zu vernetzen, Daten aufzubereiten und somit einen Wettbewerbsvorteil zu erlangen. Dem gegenüber steht die altbewährte ‚Lean Six Sigma‘-Methode, die große Beliebtheit in Unternehmen genießt und weltweit angewandt wird.
Das Ziel der vorliegenden Arbeit ist, die Auswirkungen des digitalen Wandels auf die Methode Lean Six Sigma zu untersuchen. Daraus resultiert auch die Forschungsfrage: Welche Chancen und Risiken birgt der digitale Wandel durch Industrie 4.0 für die Nutzung von Lean Six Sigma in Unternehmen?.
Um die Forschungsfrage beantworten zu können, wird in dieser Masterarbeit auf mehrere Fachquellen Bezug genommen, in denen der Zusammenhang zwischen Industrie 4.0 und Lean Six Sigma sowohl theoretisch als auch praktisch untersucht wird. Damit bewegt sich die Arbeit im theoretisch-konzeptionellen Bereich. Insgesamt 47 relevante Beiträge wurden dabei identifiziert.
Aus den Beiträgen ergeben sich vier Technologien, die den größten Einfluss auf Lean Six Sigma und den DMAIC-Zyklus (Define, Measure, Analyze, Improve, Control) haben. Diese Technologien sind Big Data, Data-Mining, Process-Mining und Simulation. Durch eine genaue Analyse der Literatur wird gezeigt, dass sich ein Zusammenspiel der beiden Methoden lohnt; es wird aber auch darauf hingewiesen, dass Risiken zu beachten sind.
Keywords: Lean Six Sigma, Industrie 4.0, Big Data, Data-Mining, Process-Mining, Simulation
In Anbetracht der zahlreichen Herausforderungen und Entwicklungen, denen mittlere und große Unternehmen ausgesetzt sind, besteht heute oft die Situation, dass zwischen der Geschäftsprozessarchitektur und IT-Architektur ein architektonisches Misalignment herrscht. Dieses architektonische Misalignment macht sich heute vor allem bei den voneinander getrennt verwalteten Prozesslandkarten und IT-Landkarten bemerkbar. Um jedoch bessere Erkenntnisse für erfolgsrelevante Managemententscheidungen bereitstellen zu können, bedarf es einer sogenannten Alignment-Architektur, die beide Teilarchitekturen zu einer Sichtweise und Informationsbasis integriert. Das übergeordnete Ziel der vorliegenden Masterarbeit liegt darin, Antworten auf die Forschungsfrage zu geben, wie die Geschäftsprozessarchitektur mit der IT-Architektur integriert bzw. beide Welten miteinander harmonisiert werden können, um insbesondere daraus bessere Erkenntnisse für Managemententscheidungen im Rahmen der durch das ökonomische Umfeld angetriebenen Unternehmensentwicklung zu gewinnen. Um dieses Ziel erreichen und die Forschungsfrage beantworten zu können, wurde eine theoretisch-konzeptionelle Forschungsarbeit im Rahmen eines erweiterten Literaturstudiums betrieben, indem mit Hilfe von bestehender Literatur theoretische Erklärungsmuster zum vorliegenden Thema gesammelt, analysiert und in ein eigenes sowie neues Erklärungsmuster eingeordnet wurden. Durch diese neue Einordung und die grundsätzliche Theoriearbeit charakterisiert sich die durchgeführte Forschungsarbeit zudem als eine gestaltungsorientierte und qualitative Forschung. Die Ergebnisse dieser Forschungsarbeit sind fünf meta-kognitive Ansätze zur Integration der Geschäftsprozessarchitektur und der IT-Architektur. Diese sind der ursachenbasierte, der erfolgsbasierte, der denkbasierte, der granular-iterative und der interarchitektonische Integrationsansatz. Die vorliegende Masterarbeit demonstriert anhand von fundierten theoretischen Erkenntnissen, wie eine Integration zu einer Alignment-Architektur zwischen der Geschäftsprozessarchitektur und IT-Architektur erfolgen und inwiefern daraus bessere Erkenntnisse für Managemententscheidungen gewonnen werden können. Schließlich zeigen diese Erkenntnisse auf, wie ein Architekturmanagement aus einer anderen Gesamtperspektive betrachtet werden kann, um eine erfolgreiche Architekturintegration zu ermöglichen.
In den vergangenen Jahren hat die digitale Transformation Abläufe, Handlungen und Entscheidungen von vielen Personen enorm verändert. In der Privatwirtschaft werden die Arbeits-weisen bereits überwiegend digital abgewickelt. Auch das Privatleben wird von immer mehr digitalen Formen geprägt. Im öffentlichen Sektor hingegen sind zwar Entwicklungen zu erkennen, der Wandel ist aber noch nicht so weit fortgeschritten wie sonst gesellschaftlich zu er-kennen ist. Das Ziel der vorliegenden Arbeit ist es, die Kernaussagen der digitalen Transformation in der öffentlichen Verwaltung aufzuzeigen und den Status Quo darzulegen. Dabei wurden die Herausforderungen genau analysiert und daraus resultierend entsprechende Handlungsempfehlungen definiert. Für die bessere Nachvollziehbarkeit wurde das Projekt „Digitales Bauverfahren“ des Vorarlberger Gemeindeverbands als Praxisbeispiel einbezogen. Daraus wurden weitere Handlungsempfehlungen entwickelt. Diese Ergebnisse können für zu-künftige Entwicklungen in der Verwaltung herangezogen werden. Sie verstehen sich auch als Beitrag für die Forschung, die damit weiter ausgeweitet wird.
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
Durch die zunehmende Homogenität von Produkten ist der technologische Fortschritt des reinen Produktes kein Alleinstellungsmerkmal mehr. Die Entwicklung datenbasierter Services bietet die Option trotzdem langfristige Wettbewerbsvorteile zu erzielen. Ein Großteil der KMU ist sich dabei in der Methodik unsicher. Es wird erörtert, wie KMU Geschäftsmodelle mit datenbasierten Services weiterentwickeln können. Mit einer qualitativen Untersuchung werden Praxiserfahrungen aufgezeigt und theoretische Thesen validiert.
Die Weiterentwicklung zu einem datenbasierten Geschäftsmodell ist ein umfangreicher Prozess, der mit Chancen und Herausforderungen einhergeht. Als Herausforderung hat sich die Wahl relevanter Methoden und die Anpassung an die jeweiligen Rahmenbedingungen herausgestellt. Referenzprozesse strukturieren das Vorgehen und sollen gleichzeitig Flexibilität gewährleisten. Während des Prozesses ist die Kundenorientierung und Akzeptanz sicherzustellen. Aufgabe der Geschäftsführung ist es, die Weiterentwicklung zu fördern, Mitarbeitende einzubinden und Ressourcen bereitzustellen. Insgesamt konnte gezeigt werden, dass die Weiterentwicklung zur Veränderung der gesamten Unternehmenslogik sowie einem Paradigmenwechsel vom reinen Produktverkauf zum umfassenden Serviceangebot führt.
The alarming degradation of the natural environment is leading many consumers to increasingly demand sustainable products. Since 2017, the global purchase intention of such products has increased by 63%. To respond to the increasing demand, more and more companies have started producing products from sustainable materials such as recycled products. However, purchase intention does not always result in actual behavior and can vary due to different products and in country-specific contexts. Hence, it is the purpose of this study to determine which factors influence the purchase intention of recycled products and whether these factors differ between a developed country such as Germany and a developing country such as South Africa. Furthermore, the study aims to discover whether there are differences in purchase intention with regard to different product categories, whether there is an intention-behavior gap, and whether there are country-specific differences. Finally, target groups of the corresponding countries will be derived. To answer the research questions, a quantitative study was conducted using an online questionnaire in Germany (n = 603) and South Africa (n = 692). The findings demonstrate that the purchase intention for recycled products is significantly higher in South Africa than in Germany, but no significant difference in the factors influencing the purchase intention could be found. However, the factors differ in terms of the extent of their influence. Thus, the factor “Attitude / Environmental Concern” has the strongest influence in South Africa, while the factor “Value / Accessibility” has the strongest influence in Germany. Likewise, a difference could be found concerning the products, with the purchase intention for mobile phones generally smaller than for t-shirts and toilet paper. In a country-specific comparison, however, purchase intention for t-shirts is significantly higher in South Africa than in Germany. An intention-behavior gap was identified for the sample, and it was found that the age groups 25 to 49 have the strongest purchase intentions and that the purchase intention increases significantly with increasing education level.
Today, industrial B2B manufacturers face a rapidly changing environment, exacerbated by increasing globalization and associated shifts in the competitive landscape. Digital transformation and the emergence of new innovations and technologies are forcing companies to rethink their business models and offerings to integrate digital services to strengthen competitive advantages. Suppliers are becoming more deeply involved in customer processes through digital after-sales services, with the aim of exploiting efficiencies. Following the servitization transformation, companies intend to change their purpose from focusing on the pure physical product to becoming a service provider with emphasis on value creation and the capture of the customer.
To investigate how customer and supplier perspectives agree and what requirements each side has for digital after-sales services, exploratory qualitative research was conducted with customers and suppliers by means of one-on-one interviews. The thesis aimed to assess the status, progress, and future possibilities of implementing digital after-sales services and business models based on them. Research shows that the far-reaching establishment of product-accompanying services with strong connectivity and customer-centricity is primarily relevant. Disruptive business models still require a mind-shift and organizational readiness on the part of both customers and suppliers. In principle, digitization in after-sales interaction is beneficial and should be steadily advanced to make customer processes as well as further developments at the supplier level more efficient and well-founded through the analysis of real data. Overall, this thesis outlines important aspects that need to be considered while developing digital service innovations to deal with customer demands appropriately.
Keywords: Servitization, Digital After-Sales Services, Predictive Maintenance, Remote Monitoring, Digital Interaction, Digital Service Innovation, Digital Service Innovation Process
The presented master thesis of the study subject International Marketing and Sales at the Fachhochschule Vorarlberg in Dornbirn deals with the influence of emotions on the attitude toward hydrogen cars and their purchase intention. For this purpose, an empirical analysis with a correlation analysis was conducted in order to be able to determine the correlations of the individual parameters.
At the beginning of the thesis the hydrogen technology was presented in more detail and by means of suitable criteria it was shown that the hydrogen car represents a certain potential, however, in comparison to the combustion cars and electric cars, the hydrogen car is currently in third place. The relatively long range, the fast-refueling and the sustainability were identified as advantages, while the current high price and the poorly developed refueling station network are currently the biggest ob-stacles to a hydrogen car. It can be seen that research and development of hydrogen cars is being driven forward in many countries around the world, including by the gov-ernment side through the provision of various subsidies. For this reason, the future development of the driving technology remains exciting and simultaneously uncertain.
In the second step of the work, emotions were examined in more detail. The aim was to find out which emotions exist and which of them are predominant when buying a car, and then to find out what influence emotions have on the cognitive process, the attitude, and the purchase intention. It turned out that the majority of the population is highly involved in the purchase of a car and therefore tries to make rational decisions, which makes the influence of emotions more difficult, but not impossible.
By presenting suitable marketing tools for measuring emotions, it was shown that measuring emotions is a difficult undertaking. Measurement is often difficult or expen-sive and involves a great deal of effort. For this reason, beside the presentation of marketing tools, the strategic approach for a marketing campaign was also presented.
Based on the conducted empirical analysis, the influence of emotions on attitude and purchase intention could not be significantly confirmed but it could be proven that the knowledge about hydrogen cars is currently low. One inside is that an increase in awareness increases the purchase intention of hydrogen cars. Furthermore, a signifi-cant correlation between the sustainable attitude and the purchase intention could be proven. In addition, people who like to follow new trends are more likely to buy a hy-drogen car than others. This paper concludes with a brief summary of the findings and an outlook on the potential for improvement of the hydrogen car market.
Keywords: Hydrogen Cars, Sustainability, Emotions in Marketing, Purchase Inten-tion, Attitude, Marketing Tool
In recent years, more and more companies have become aware that a brand also has a social dimension, and with the advent of social media platforms, brand communities have experienced a shift from a traditional offline to more of an online presence. Brands of innovative consumer durables have also recognized social media brand communities as a very significant marketing strategy. It is therefore important to understand the influence of these communities on members' purchase intentions.
This master’s thesis has the goal of demonstrating to enterprises what aspects of a social media brand community will influence the purchase intention of its members and what should be considered in order to enhance it. This will ultimately lead to the following research question: How do social media brand communities influence the diffusion process of innovative consumer durables in the DACH region?
To answer this, a quantitative study has been conducted that has targeted people who are participating in a social media brand community of innovative consumer durables in the DACH region. This involved testing various criteria of a social media brand community and their impact on the diffusion process (purchase intention).
The findings of the study revealed that increased positive electronic word-of-mouth leads to enhanced purchase intention of members. Furthermore, the research has shown that higher identification with a social media brand community, greater engagement, increased entertainment value, faster corporate responsiveness, and reduced occurrence of social spam, do not have a positive effect on the diffusion process of innovative consumer durables.
The research focused on the wood pellet market for private consumers in Germany and has the objective to understand the factors affecting the purchase decisions of wood pellets buy-ers. The aims of the research were achieved by applying the Engel, Kollat, Blackwell model of consumer behaviour, by conducting in-depth interviews and deriving the grounded theory. The application of EKB model revealed that the following groups of factors may influence the con-sumers: cultural (culture and social class), social (family influence), personal (age and lifecycle stage), psychological (believes, motives, attitudes) and unexpected circumstances. In-depth interviews with the buyers of wood pellets helped specify the influencing factors to finally an-swer the research question. The analysis showed that the buyers of wood pellets are influ-enced by family, personal believes and attitudes, and the unexpected circumstances. The most important factors for the buyers are the quality of the pellets and reliability of the supplier. If they are satisfied with the quality of product and service, they will be reluctant to look for an alternative. And on the opposite side, in case the quality of the product or the service is unsat-isfactory this is a limiting factor and will stop the buyer from purchasing this product. Price is an important factor for the buyers of pellets in bags. However, in the situation of volatile mar-ket and exploding prices, the price factor will play a bigger role. Thus, the strategic factors for marketing of pellets is to concentrate on quality and price communication, and to focus on the quality of pellet delivery service.
Nowadays, online marketing is becoming increasingly important not only in the B2C but also in the B2B sector, as evidenced by marketing budget expenditures. Companies pursue overarching goals involving visibility and attention from prospective customers in order to raise brand awareness and as a result, outperform increasing market competition. This begs the question of whether online marketing is appropriate for increasing brand awareness.
The master´s thesis topic developed from both a personal as well as a professional perspective. Private research increased the author´s interest in the topic of online marketing. Furthermore, brands, whose level of awareness needs to be improved, are becoming a more common topic of professional debates. In this way, the research of the current master´s thesis was created.
The aim of this master's thesis was to discover how online marketing can be used to increase awareness of a brand. This will be analyzed by using the brand turn to zero, which offers consulting services for B2B customers in the sustainability industry. In this context, suitable and visible online marketing channels for increasing brand awareness are to be identified. In addition to this, suitable content for the company´s own as well as paid online marketing channels need to be collected. Furthermore, the influence that online marketing has on creating brand image awareness is to be presented.
Research questions are defined in order to achieve the described objectives. Within the scope of the master thesis, one main research question, as well as three sub-research questions, are to be answered based on the literature as well as the generated output resulting from the empirical part. Eight existing B2B customers of turn to zero, originating from com-mercial and industrial sectors, were interviewed in the empirical part. The interview findings were evaluated by using qualitative content analysis according to Mayring.
Research results showed that targeted combinations of online marketing channels are contributing to increase brand awareness. In addition, the research succeeded in determining suitable communication content for various online marketing channels. Furthermore, the in-fluence of online marketing could be investigated more closely in terms of brand image.
Startups usually have high growth ambitions but only limited resources. Therefore, they are looking for efficient and effective methods to grow their business. However, if they go interna-tional, challenging changes will likely be made if the company is not focused on the global market. The aim of this work is therefore to support startups in the internationalization of their business and to provide guidance from the beginning by using strategic marketing elements to facilitate this process. To achieve this, a qualitative method of analysis was chosen. First, a literature review was conducted on the relevant topics of a startup, strategic marketing, and internationalization. Five success factors emerged from the literature: commitment, strategy, research, marketing mix adaptation, and organization and network. These were then ana-lyzed in more detail in expert interviews. The analysis of the interview results shows that for the internationalization of startups, the commitment to internationalization and a global mindset is of great importance from the very beginning. This is because they influence all supporting and strategic marketing elements.
Die hybride Form des Zusammenarbeitens in Unternehmen begleitet uns spätestens seit Beginn der Corona Pandemie. Aber auch Homeoffice, der Fachkräftemangel und die Digitalisierung führen dazu, dass die hybride Führung und die hybriden Teams ein immer wichtigerer Bestandteil der Zusammenarbeit in Unternehmen werden.
Ziel dieser Masterarbeit ist es Verhaltensweisen und Methoden zu identifizieren, wie die Führung und die Zusammenarbeit der hybriden Teams gestaltet werden können. Die Methoden und Verhaltensweisen werden mit den Führungsstilen von Goleman, dem Empowering Leadership und den transaktionalen und transformationalen Führungsstil in Verbindung gesetzt. Resultierend aus den Ergebnissen werden Handlungsempfehlungen für das Gestalten der Führung und der Zusammenarbeit entwickelt.
Beginnend mit einer umfassenden Literaturrecherche folgen Expert:innen Interviews mit Führungskräften und Expert:innen aus den Personalabteilungen, welche mittels einem teilstrukturierten Leitfaden geführt und anhand der Auswertungsmethode von Mühlfeld ausgewertet werden.
Der spürbare Fachkräftemangel sowie der demographischen Wandel lässt Unternehmen umdenken, um sich für jüngere Arbeitnehmer:innen attraktiv positionieren. Durch flexible Arbeitszeitmodelle erhöht sich auf der einen Seite die Attraktivität der Arbeitgeber:innen und auf der anderen Seite steigert es die Zufriedenheit der Arbeitnehmer:innen.
Aufgrund dessen untersucht diese Masterarbeit, welche Kompetenzen Mitarbeiter:innen benötigen, um nachhaltig zeitlich und örtlich flexibel arbeiten zu können. Bestehende Literatur zur (flexiblen) Arbeitszeit wird aufgezeigt, flexible Arbeitszeitmodelle erklärt sowie auf die New Work Thematik eingegangen. Diese Arbeit beinhaltet zudem eine qualitative Forschung, welche auf sieben Expert:inneninterviews mit HR-Expert:innen gestützt ist. Die Forschungsergebnisse zeigen, dass flexibles Arbeiten in Industrieunternehmen immer wichtiger und gefragter wird.
Zuletzt wird eine Übersicht gegeben, welche Kompetenzen für eine zeitliche und örtliche Flexibilisierung des Arbeitens benötigt werden. Diese Übersicht soll HR-Mitarbeiter:innen und Führungskräften unterstützen bestehende Mitarbeiter:innen zu qualifizieren und zukünftige Mitarbeiter:innen gezielt zu rekrutieren.
Schlagwörter: Arbeitszeit, Flexibilität, Arbeitszeitgestaltung, flexibles arbeiten, Kompetenzen
Im Zuge der beschleunigten, technologischen und organisatorischen Entwicklung, die den digitalen Wandel kennzeichnen, kommt dem Kompetenzmanagement eine besondere Be-deutung zu. Diese Masterarbeit widmet sich den Fragestellungen, welche Kompetenzen Mitarbeitende in Zeiten der Digitalen Transformation benötigen und wie diese gemessen werden können.
Anhand einer Literaturrecherche sowie der Durchführung von zwölf Einzelbefragungen von Expert:innen mit anschließender qualitativer Inhaltsanalyse, konnten im Verlauf der Diskussion die Forschungsfragen beantwortet werden. Die Ergebnisse zeigen, dass es bisher keine standardisierte Definierung der Kompetenzen für die Digitale Transformation gibt. Aber die Kompetenzen können gemessen werden, dies stellt jedoch ein schwieriges Vorhaben dar. Außerdem sollte bei der Kompetenzmessung der Mitarbeitenden auf wis-senschaftlich fundierte Messinstrumente zurückgegriffen werden. Die Kompetenzmessung ist eine Voraussetzung der Digitalen Transformation, um Kompetenzlücken frühzeitig zu erkennen und zu schließen. Ziel ist es, die Kompetenzentwicklung zu stärken.
Diese Arbeit richtet sich an Interessierte, die die Beweggründe der Kompetenzmessung der Mitarbeitenden als Voraussetzung für die Digitale Transformation verstehen möchten.
Schlagwörter: Kompetenzen, Digitale Transformation, Kompetenzmessung
Herkömmliche Lernprozesse sind in der dynamischen Arbeitswelt nicht mehr zielführend. Für transformatives Lernen werden neue Formen der Zusammenarbeit, neue Kompetenzen und neue Lernformate benötigt. Der selbstgesteuerte Lernansatz wird dabei der neuen Arbeitswelt gerecht. Jedoch werden die Potenziale des selbstgesteuerten Lernens in Unternehmen noch wenig genutzt. Im Rahmen der klassischen Personalentwicklung werden meist Kurskataloge und Schulungsprogramme erstellt, die den Inhalt sowie den zeitlichen und örtlichen Rahmen vorgeben. Somit ist es das Ziel dieser Arbeit, vorhandene Chancen und Herausforderungen des selbstgesteuerten Lernansatzes in Unternehmen zu identifizieren sowie Möglichkeiten zur Gestaltung von Rahmenbedingungen zur aktiven Förderung des selbstgesteuerten Lernens durch die Personalentwicklung aufzuzeigen. Dazu wird der Begriff des selbstgesteuerten Lernens abgegrenzt, Modelle werden aufgezeigt und personenabhängige Faktoren für das selbstgesteuerte Lernen werden betrachtet. In einem weiteren Schritt werden die Perspektive der Personalentwicklung und deren Rolle für das selbstgesteuerte Lernen dargelegt. Mithilfe der Durchführung zweier Case Studies wird ein tiefergehendes Verständnis zum selbstgesteuerten Lernen in Unternehmen erzeugt und die forschungsleitenden Fragen werden beantwortet. Die Ergebnisse dieser Arbeit resultieren in Implikationen für die Personalentwicklung, die die zu bearbeitenden Handlungsfelder für optimale Rahmenbedingungen für das selbstgesteuerte Lernen von Mitarbeitenden in Unternehmen abbilden.
Die Wertschöpfung eines Unternehmens wird durch die Mitarbeitenden beeinflusst. Die quantitative, wie auch die qualitative Verfügbarkeit von Personen am Arbeitsmarkt hat für Unternehmen einen hohen Stellenwert. Der Fachkräftemangel am Arbeitsmarkt führt zum sog. War for Talents. Daher ist es notwendig, sich mit den verfügbaren Personen auseinanderzusetzen und Strategien, aber auch Perspektiven zu erarbeiten, um die Kandidat:innen auf dem Arbeitsmarkt für sich zu gewinnen (vgl. Ullah & Witt, 2015, S. 8). Um den besten und zugleich passendsten Mitarbeiter bzw. die entsprechende Mitarbeiterin zu finden und langfristig ans Unternehmen zu binden, möchte es als attraktiver Arbeitgeber auf dem Arbeitsmarkt wahrgenommen werden (vgl. Bruhn et al., 2013, S. 63).
Das Ziel der Masterarbeit besteht darin, mit Hilfe von Interviews die Forschungsfrage zu beantworten und aus den Ergebnissen sowie im Abgleich mit weiteren bisherigen theoreti-schen und empirischen Erkenntnissen konkrete Handlungsempfehlungen für das Dienstleistungsunternehmen zu erstellen bzw. aufzuzeigen. Aufbauend auf einer theoretischen Analyse wird anhand von Experteninterviews ermittelt, welche Social-Media-Kanäle in der Praxis eingesetzt werden und welche Wirkungen diese mit sich bringen. Durch Handlungs-empfehlungen sollen Unternehmen entscheiden können, worauf beim Social-Media-Einsatz geachtet werden soll. Die Handlungsempfehlungen basieren auf durch die empirische Forschung gewonnenen Erkenntnissen von Expert:innen. Hierbei wurde darauf geachtet, dass die Betreffenden für das Unternehmen HR-Social-Media-Media betreuen und planen. In Zeiten der Digitalisierung und eines im Vollzug befindlichen Generationswechsels ist die Betreuung von Social-Media-Kanälen strategisch anzugehen.
In Zeiten der digitalen Transformation steht die moderne Personalentwicklung vor großen Herausforderungen. Neue Fähigkeiten werden verlangt, um sowohl der Digitalisierung von Geschäftsprozessen als auch dem Wandel hin zur digitalen Zusammenarbeit gerecht zu werden. Dabei ist es Unternehmen aufgrund des demografischen Wandels nicht möglich bereits affine Arbeitnehmer:innen, zumeist aus den Generationen Y und Z, im nötigen Maße aufzustocken. Die tendenziell alternde Belegschaft muss daher durch entsprechende Personalentwicklungsmaßnahmen leistungsfähig gehalten. Reverse Mentoring stellt eine dieser passenden Maßnahmen dar.
Im Rahmen dieser Arbeit wird ein Leitfaden zur Ein- und Durchführung von Reverse Mentoring-Programmen in Unternehmen entwickelt. Dieser dient zur Orientierung für Schlüsselpersonen der Personalentwicklung.
Um auf die Anforderungen der VUCA-Welt reagieren zu können, müssen Unternehmen sich zu anpassungsfähigeren Organismen entwickeln. Die agile Organisation bietet hier Lö-sungen, wobei HR in der agilen Transformation eine Schlüsselrolle einnimmt. Diese Arbeit beleuchtet Wirkungsfelder bzw. Rahmenbedingungen, die in Dienstleistungsunternehmen zur Befähigung der Agilität geschaffen werden müssen. Zudem werden die HR-Prozesse und -Instrumente auf notwendige Anpassungen analysiert, um Agilität zu fördern. Dabei wird ein Fokus auf die jeweiligen Wirkungen sowie Nebenwirkungen dieser Anpassungen gelegt. Basierend auf den Ergebnissen der theoretischen Ausarbeitungen sowie den durchgeführten Interviews mit Expertinnen und Experten werden Handlungsempfehlungen für HR-Verantwortliche zusammengetragen.
Es wird aufgezeigt, dass große Interdependenzen zwischen den einzelnen Wirkungsfeldern bestehen, die berücksichtigt und gezielt eingesetzt werden sollten. Zudem wird deutlich, dass die Anpassung der Prozesse Personalgewinnung, Personalentwicklung sowie insbesondere der Steuerungs- und Anreizsysteme wirkmächtige Hebel zur Förderung der Agilität darstellen.
Gesellschaftliche, wirtschaftliche und technologische Entwicklungen und Trends des organisationalen Kontextes haben nicht zu vernachlässigende Auswirkungen auf organisationales Lernen. Sie wirken sich auf Unternehmen und die Ausgestaltung ihrer Lernwelten aus. Die im Organisationsumfeld zu verzeichnenden, kontextuellen Entwicklungen führen zu einem möglichen Anpassungsbedarf organisationaler Lernwelten im Hinblick auf deren räumliche, zeitliche, inhaltliche und methodische Ausgestaltung. Aufgrund der steigenden Dynamik und Komplexität des Unternehmenskontextes wird ein Lernverständnis erforderlich, welches einen Umgang mit den Charakteristika der VUCA-Welt ermöglicht. Abseits des formalen Lernens erfolgt die Betrachtung neuer, informeller und kooperativer Lernformen, die für die Ausgestaltung organisationaler Lernwelten eine Rolle spielen können. Der New Learning Ansatz enthält Prinzipien, die als Orientierung für die Ausgestaltung organisationaler Lernwelten dienen können, um Organisationen in ihrer Dynamikrobustheit zu unterstützen. Im Rahmen der Forschungsarbeit wird aufgrund der Notwendigkeit der Anpassung an den Unternehmenskontext untersucht, wie organisationale Lernwelten gestaltet werden sollten, damit Unternehmen dynamikrobust bestehen können und durch erzeugten Marktdruck wettbewerbsfähig bleiben.
Smart HR - welchen Mehrwert erhalten Industrieunternehmen der Bodenseeregion durch HR Analytics?
(2022)
Das Thema HR Analytics bringt viele interessante Aspekte mit sich. Diese Aspekte werden in dieser Masterarbeit mit Hilfe einer gründlichen Literaturrecherche und zehn Expert:inneninterviews, detailliert beschrieben: angefangen von den zu erfüllenden technischen-organisatorischen Voraussetzungen bis hin zur rechtlichen-ethischen Betrachtung. Nicht zu vergessen sind die damit verbundenen Herausforderungen bei der Einführung und Nutzung von HR Ana- lytics, die es zu bewältigen gilt. Zudem werden verschieden Begriffe und Prozesse, die in Verbindung mit HR Analytics stehen näher erklärt und Zusammenhänge gebildet. Das Ziel dieser Masterarbeit ist es, aufzuzeigen, ob sich durch HR Analytics ein Mehrwert für Industrieunternehmen der Bodenseeregion ergibt und falls ja welcher. Schließlich werden Handlungsempfehlungen definiert, um Industrieunternehmen den Einstieg und die Hinführung zu HR Analytics zu erleichtern.
Berufliche Ausbildung ist seit jeher Tradition und Garant einer zielgerichteten, systematischen und wiederholbaren Vermittlung von Kompetenzen in kodifizierten Berufen. Das Modell der dualen Berufsausbildung dient dabei der Verzahnung von schulischen und betrieblichen Anteilen. Insbesondere im deutschsprachigen Raum haben sich hierbei vermehrt anspruchsvolle Bereiche herausgebildet. Besonderes Interesse besteht dabei in der Bodenseeregion, da hier nahezu alle deutschsprachigen Länder einen gemeinsamen Wirtschaftsraum bilden.
Im Fokus dieser Arbeit liegt die Untersuchung bestehender theoretischer Modelle zur Verbundausbildung hinsichtlich der Veränderung und Anpassung durch die betriebliche Praxis. Zu diesem Zweck wurden auf Basis einer theoretischen Untersuchung zunächst bestehende Modelle identifiziert und in Bezug auf Gestaltungsfaktoren untersucht. In einem zweiten Schritt wurden im Rahmen eines qualitativen Forschungsansatzes Leitfaden gestützte Experten:innen Interviews durchgeführt. Im Ergebnis konnte eine empfohlene Anpassung des Ausbildungsvereines als idealtypisches Modell entwickelt werden. Konkrete Handlungsempfehlungen bilden die Grundlage zum Vergleich bestehender Verbünde, ebenso wie zur Gründung neuer Verbundvorhaben.
Personalkennzahlen und der praktische Nutzen für das Human Ressource Management in Großbetrieben
(2022)
Qualitativ hochwertige und erfolgreiche Personalarbeit zeichnet sich dadurch aus, dass Mitar-beitende nicht als Kostenfaktor betrachtet werden, sondern als die wichtigste Ressource, die ein Unternehmen besitzt. Personalcontrolling mit Hilfe von Kennzahlen stellt dabei nicht wie oft vermutet eine Kontrolle dar, vielmehr ist es ein Gestalten und Steuern der Personalarbeit bezogen auf die Mitarbeitenden und der Prozesse des Human Ressource Management. Durch fundierte, begründet ausgewählte Personalkennzahlen wird das Bauchgefühl der Füh-rungskräfte mit Fakten belegt und bildet eine Unterstützung in der Entscheidungsfindung der Personalverantwortlichen. Dies gewinnt besonders in einer volatilen Marktsituation immer mehr an Bedeutung. Es scheint nach wie vor der Fall zu sein, dass diese Fachdisziplin des Unternehmenscontrollings bei den Vorarlberger Großbetrieben jedoch in den Kinderschuhen steckt. Ziel dieser Masterarbeit ist es daher, den Stellenwert von Personalkennzahlen und deren Nutzen für die Vorarlberger Großbetriebe aufzuzeigen. Dafür werden die theoretischen Grundlagen von Personalkennzahlen und deren Einteilung auf Basis der Kernprozesse des Personalressorts aufbereitet. Es werden auch Grenzen und weiterführende Möglichkeiten von Personalkennzahlen hinterfragt. Im Rahmen von neun Experteninterviews mit Personalver-antwortlichen konnte die Wichtigkeit einer aktiven Personalarbeit mit Hilfe von Kennzahlen, wie sie in der Literatur beschrieben wird, bestätigt werden. Als zentraler Nutzen von Perso-nalkennzahlen wird angesehen, dass sie Transparenz schaffen und den Blickwinkel der Ver-antwortlichen objektivieren und erweitern. Personalkennzahlen bieten somit eine Chance, die Mitarbeitenden möglichst zielgerichtet zu führen und Veränderungen rechtzeitig zu erkennen und falls möglich zu steuern.
Wärmepumpen werden als vielversprechende Lösung zur Dekarbonisierung des Gebäudesektors angesehen. Konventionelle Kältemittel, die als direkte Emissionen aus Wärmepumpensystemen austreten, stellen insbesondere vor dem Hintergrund steigender Installationszahlen ein relevantes Treibhauspotenzial dar. Natürliche Kältemittel verfügen über ein geringes Treibhauspotenzial und können daher zur Substitution konventioneller Kältemittel verwendet werden. Dennoch werden sie bislang nicht im großen Maßstab eingesetzt. Es bedarf weiterer Studien und Anreize, um den Einsatz natürlicher Kältemittel voranzubringen. In dieser Fallstudie erfolgt anhand eines Referenzprojektes ein simulativer Vergleich zweier reversibler Luft-Wasser-Wärmepumpen. Im Referenzfall wird das konventionelle Kältemittel R32 verwendet, als Alternative dient das natürliche Kältemittel R290. Die beiden Systeme werden hinsichtlich ihrer Effizienz, Klimawirksamkeit und Wirtschaftlichkeit verglichen. Die notwendigen Berechnungen basieren auf einem kalibrierten Simulationsmodell des Gebäudes und der Anlage. Die Ergebnisse zeigen einen energetischen und ökologischen Vorteil für R290. Im Heizbetrieb, der den Hauptteil des thermischen Energiebedarfs im Referenzprojekt ausmacht, erreicht die Wärmepumpe mit R290 eine um 9% höhere Jahresarbeitszahl. Im Gegensatz dazu erzielt die R32-Wärmepumpe eine um 12% höhere Jahresarbeitszahl im Kühlbetrieb. Durch die höhere Effizienz im Heizbetrieb und das niedrigere Treibhauspotenzial des Kältemittels liegen die Emissionen durch den Betrieb der R290-Wärmepumpe um 17% unter denen der R32-Wärmepumpe. Der wirtschaftliche Vergleich der beiden Systeme fällt aufgrund höherer Investitionskosten zum Nachteil der R290-Wärmepumpe aus.
Einbindung von schneebedingten Erzeugungsverlusten einer Photovoltaikanlage in die Gebäudesimulation
(2022)
Aufgrund des globalen Photovoltaikeinsatzes, der mit einer starken Skalenökonomie der Technologie einhergeht, müssen auch regionale Wetterphänomene in Erzeugungsprognosen aufgenommen werden. Ein solches Wetterphänomen ist der Schneefall, der in höheren Breitengraden und Höhenlagen einen zentralen Einfluss auf den Ertrag der Anlagen hat. Aktuelle Vorhersagen durch Simulationssoftware berücksichtigen den Einfluss einer potentiellen Schneebedeckung meist nicht ausreichend oder gar nicht und die Solarerträge in den Wintermonaten werden deutlich überschätzt. Verbesserungen der Vorhersagen sind für die wirtschaftliche und betriebliche Einschätzung von Neuinstallationen wichtig. Prognoseverbesserungen in der kalten Jahreszeit sind insbesondere für die Planung von Projekten, bei denen das Heizsystem von solaren Gewinnen abhängt, notwendig. Darüber hinaus ist es wünschenswert, dass eine Prognose der schneebedingten Verluste direkt in die Planung und Modellierung von Neubauten einfließen kann. Der folgende Text befasst sich daher mit einer beispielhaften Modellierung von schneebedingten Erzeugungsverlusten einer Photovoltaikanlage. Das Modell wird dabei in bestehende Gebäudesimulationssoftware integriert. Dazu werden historische sowie empirisch gewonnene meteorologische Daten verwendet. Die genutzten Methoden umfassen zum einen überwachtes, maschinelles Lernen für die Prognose der Schneehöhen auf der Anlage und zum anderen einen physikalischen Ansatz, der die solare Durchdringung der Schneedecke abbilden soll. Die Arbeit dient als Impuls für eine zukünftige, unkomplizierte Berücksichtigung von schneebedingten Erzeugungsverlusten bei Photovoltaikanlagen in Gebäudesimulationssoftware.
Grey-Box-Modellierung einer Lüftungsanlage mit realen Betriebsdaten für die Optimierung des Reglers
(2022)
Oszillationen in Heizungs-, Lüftungs- und Klimaanlagen können die Lebensdauer
von Ventilen und Aktuatoren deutlich reduzieren und die Effizienz solcher
Anlagen negativ beeinflussen. Die hier betrachtete Lüftungsanlage eines Verkaufsraums zeigt deutlich schwingendes Verhalten, das höchst wahrscheinlich auf die Regelung zurückzuführen ist. Um dieses Verhalten zu untersuchen und ein
Testfeld für die Auslegung und Optimierung von alternativen Regelkonzepten
zu erstellen, wird ein Grey-Box-Modell der Anlage erstellt. Grey-Box-Modelle
sind physikalische Modelle, deren Parameter mit Messdaten identifiziert werden.
Die Ermittlung der Parameter (Systemidentifikation) des Grey-Box-Modells
wird hier mittels nichtlinearer Optimierung an dem realen Betriebsdatensatz
durchgeführt. Dieser Betriebsdatensatz hat im Vergleich zu anderen Arbeiten
aufgrund geringer Ausstattung der Anlage mit Sensorik und geringer Auflösung
der Messdaten eine niedrige Qualität. Aus diesem Grund können die einzelnen
Komponenten der Anlage (eine Wärmerückgewinnung, ein Heizregister und ein
Kühlregister) nicht separat identifiziert werden, sondern nur im Gesamtsystem.
Hieraus ergibt sich die Frage, welche physikalische Formulierung der Komponenten
der Anlage am besten geeignet ist. Konkret stellt sich die Frage, welche
Komplexität, welche Anzahl der zu identifizierenden Parameter und welche Annahmen, die für die Formulierung getroffen werden sinnvoll sind. Dazu werden
für die einzelnen Komponenten der Anlage jeweils verschiedene Modelle aus der
Literatur implementiert und verglichen. Untersucht wird, ob ein Zusammenhang
zwischen der Anzahl an Parametern, die sich durch eine bestimmte Formulierung
des Modells ergibt und der erreichten Güte des Modells zu beobachten ist.
Die Güte des Modells wir dabei mittels der Wurzel des mittleren quadratischen
Fehlers zwischen Modellausgang und Datensatz bewertet.
Die Ergebnisse dieser Fallstudie zeigen, dass ein möglicher Zusammenhang
zwischen der Anzahl an Parametern des Grey-Box-Modells und der Güte des
Modells besteht. Insbesondere zeigt sich mit diesem Datensatz ein deutlicher
Abfall der Modellgüte bei mehr als zehn Parametern. Es kann des Weiteren
bestätigt werden, dass bei der vorliegenden niedrigen Datenqualität die getroffenen
Annahmen für die Modellierung von erheblicher Bedeutung sind. Durch
bestimmte Formulierungen kann zwar die Güte des Modells erhöht werden, jedoch
wir dadurch die Generalisationsfähigkeit des Modells höchst wahrscheinlich
reduziert.
Der Klimawandel und dessen Folgen sind weltweit spürbar. Zunehmende Extremwetterereignisse, das Abschmelzen von Eis und Gletscher sowie Überschwemmungen sind nur ein paar Beispiele der verheerenden Folgen. Grund für diese Auswirkungen sind die steigenden Treibhausgasemissionen, die großteils anthropogen, also durch den Menschen, verursacht wer-den. Die Bauindustrie ist für einen erheblichen Teil dieser Emissionen verantwortlich. Da die Emissionen über den gesamten Lebenszyklus eines Gebäudes hinweg anfallen, ist eine ganzheitliche Betrachtungsweise, wie sie die Ökobilanz vorsieht, anzustellen. Die Erstellung und Optimierung einer Ökobilanz für ein bestehendes Wohngebäude in Wolfurt, das von der Firma i+R Wohnbau GmbH im Jahr 2020 erbaut wurde, sind in dieser Masterarbeit zentral. Diese Masterarbeit zielt darauf ab, die Ökobilanz von Haus A der Wohnanlage in Wolfurt zu beurteilen und herauszufinden, welche Auswirkungen bzw. Reduktionen der CO2-Emissionen sich durch verschiedene Veränderungen am Gebäude erzielen lassen. Um die Ökobilanz in Bezug auf die CO2-Emissionen zu optimieren, werden verschiedene Gebäudekomponenten des Wohngebäudes getauscht. Die Ökobilanz wird mit dem Online-Tool „eco2soft“ erstellt. Das Tool ist speziell für die Erstellung von Ökobilanzen von Gebäuden geeignet und greift auf die Kennwerte von Baumaterialien und -komponenten aus der Datenbank „baubook“ zurück.
Mit dem Tausch von drei Gebäudekomponenten wird eine Reduktion des Treibhauspotentials des Gebäudes um 10,8% erzielt. Die Ergebnisse geben einen Einblick in das Potential der Ökobilanzierung im Gebäudesektor und zeigen klar, dass dadurch klimarelevante Verbesserungen erreicht werden können.
The ability of water to form cage-like structures and capture gas molecules under high pressure and low temperatures lead to problems in gas pipelines, especially in the mid-20th century. Also, there is an enormous amount of this so-called gas hydrate, captured in deep sea sediments or in terrestrial permafrost soils in which they reserve a possible degradable energy resource. On the other hand, they also maintain a high risk to enhance the ongoing climate change. At the same time, through their high energy storage ability, gas hydrates exhibit a high potential for industrial applications like alternative energy storage, carbon capture technologies or cleaning of exhaust emissions through separation and storage. But through their complex kinetics and ongoing dynamics through induction, synthesis and dissociation, the usage of hydrates is still far away from relevant industrial application. To make the potential capable there is still a huge amount of basic research necessary: Specially to shorten the induction time. An earlier thesis at FH-Vorarlberg exposed a potential method to shorten the induction time through a stirred reactor with an extremely high stirring rate without the usage of promotors. Therefore, this thesis is dedicated to expose the possible reasons for the witnessed effect through high stirring rates (>10000 rpm) at different pressure and tempera-ture conditions. The goal is to show possible physical effects to shorten the induction time of hy-drate synthesis. Therefore, a stirred reactor is used in which the possible effects should be investi-gated through the research with CO2 hydrates. In the research, there will be a closer look on phe-nomena like cavitation, increasing the phase interface through stirring or pressure fluctuations. The results of this thesis show an interesting connection between pressure, stirring rate and increased phase interface. Furthermore, there are also some exposed significances between stirring under spe-cial conditions which were exposed through statistical analyses. The results show that stirring could possibly be a new driving force when executed under the right conditions.
Ein weit verbreitetes Problem von Heizungs-, Lüftungs- und Kühlungsanlagen (HLK-Anlagen) ist das Schwingungsverhalten der Regelung. Dieses führt zu unerwünschten Taktzyklen und damit zu erhöhtem Energieverbrauch, sowie zu verringerter Lebensdauer der Anlagenkomponenten. Deshalb besteht ein wirtschaftliches und ökologisches Interesse an der Vermeidung des Schwingungsverhaltens. Zum Auffinden von Fehlern, sowie deren Ursachenanalyse, steht in der Literatur ein weites Spektrum an möglichen Werkzeugen zur Fehlerdetektion und -diagnose (FDD) zur Verfügung. Klassische FDD-Werkzeuge für den Bereich von HLK-Anlagen basieren auf umfangreichem Domänenwissen zur Bestimmung der Ursache-Wirkungs-Beziehung von Fehlertypen, wie zum Beispiel Schwingungen. Deren Anwendung im HLK-Bereich ist deshalb mit zeitaufwändigen Analysen durch Fachpersonal verbunden, was hohe Kosten zur Folge hat.
Im Zuge dieser Masterarbeit wird ein FDD-Werkzeug für den Fehlertyp Schwingungen entwickelt, welches den hohen Zeitaufwand der Ursachenanalyse des Schwingens von HLK-Anlagen verringert. Durch die Anwendung von Methoden des maschinellen Lernens werden potenzielle Ursachen lokalisiert. Außerdem wird gezeigt, wie mit Hilfe des maschinellen Lernens eine Abschätzung über Gegenmaßnahmen zur Behebung der Schwingungsursachen getroffen werden kann.
Die Herausforderung in der Umsetzung des FDD-Werkzeugs liegt dabei in der Auswahl der Methoden für die Implementierung des datenbasierten Modells. Zur Umsetzung werden Daten einer HLK-Anlage eines Gewerbebetriebs am Standort Vorarlberg verwendet. Das entwickelte FDD-Werkzeug dient der fortlaufenden Auswertung von Schwingungen und der Optimierung bestehender Anlagen. Schlussendlich soll damit der Erhöhung der Energieeffizienz und der Erhöhung der Lebensdauer der Komponenten von HLK-Anlagen beigetragen werden.
Industriebetriebe wie auch jene der Lebensmittelbranche sind zunehmend auf der Suche nach umweltfreundlichen Alternativen zur Wärmebereitstellung. Wo bislang Gas oder sogar Öl als Brennstoff verwendet wurde, gewinnen Wärmepumpen langsam an Akzeptanz. In dieser Arbeit wird gezeigt, wie eine Hochtemperaturwärmepumpe am Beispiel eines Schokoladeherstellers effizient betrieben werden kann. Zur Beschreibung der Ausgangslage wird zunächst der Wirkungsgrad des gegebenen Kesselhauseses berechnet, um anschließend die nötigen Lastprofile festzulegen. Nach der thermischen Modellierung möglicher Wärmequellen und einer gegebenen Wärmepumpe werden vier Jahressimulationen mit der Programmiersprache Python durchgeführt. Die Ergebnisse zeigen zum einen, mit welchen Wirkungsgraden und Verdichterleistungen zu rechnen ist und zum anderen wie sich diese auf die betrachteten Wärmequellen auswirken. Die abschließende Wirtschaftlichkeitsberechnung beinhaltet die Analyse monatlicher Betriebskosten unter Berücksichtigung der angekündigten CO2-Bepreisung, sowie die Amortisationsdauern der betrachteten Szenarien. Die Sensitivitätsanalyse der Amortisationsdauer zeigt außerdem, in welchem Verhältnis sich Strom- und Gaspreis entwickeln dürfen, damit eine Wärmepumpe dieser Art wirtschaftlich konkurrieren kann. Die Ergebnisse der Simulationen zeigen darüber hinaus welche Reduktion der CO2-Emissionen bezogen auf die Prozesswärmebereistellung möglich ist.
The number of electric vehicles will increase rapidly in the coming years. Studies suggest that most owners prefer to charge their electric vehicle at home, which will fuel the need for charging stations in residential complexes where vehicles can be charged overnight. Currently, there already are over 100 such residential complexes, with another 70 added every year in Vorarlberg alone. In most existing residential complexes, however, the grid connections are not sufficient to charge all vehicles at the same time with maximum power. In addition, it is also desirable for grid operators and electricity producers that the power demand be as smooth and predictable as possible. To achieve this, ways to manage flexible loads need to be found, which can operate within the technical constraints. Therefore, the most common scenarios how the load can be made grid-friendly with the help of optional battery storage and/or photovoltaics using optimization methods of linear and stochastic programming were examined. At the same time, the needs of the vehicle owners for charging comfort - namely to find their vehicles reliably charged at the time of their respective departure - were addressed by combining both objectives using suitable weights. The algorithms determined were verified in practice on an existing Vlotte prototype installation. For this purpose, the necessary programs were implemented in Python, so that the data obtained during the test operation, which lasted one month, could be subjected to a well-founded analysis. In addition, simulation studies helped to further reveal the influence of PV and BESS sizing on the achievable optimums and confirm that advanced optimization algorithms such as the ones discussed are a vital contribution in reducing the charging stations’ peak load while at the same time maintaining high satisfaction levels.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Diese Arbeit untersucht ARM und DSP Multiprozessor Ein-Chip-Systeme von Analog Devices hinsichtlich deren Programmierung, Fähigkeiten und Limitierungen. Durch die Integrierung von unterschiedlichen Hardware-Beschleunigern und Prozessoren in Ein-Chip-Systeme wird echte Nebenläufigkeit ermöglicht. Allerdings wird durch die Integrierung mehrerer Prozessoren die Komplexität der Programmierung von Ein-Chip-Systemen erhöht. Im Zuge dieser Arbeit wird untersucht, was bei der Programmierung von ARM und DSP Ein-Chip-Systemen hinsichtlich der heterogenen Prozessoren und Peripheriebausteinen beachtet werden muss. Dabei werden zuerst die Gründe für heterogenes Rechnen und die Trendwende zu Multiprozessorsystemen erläutert. Anschließend wird der aktuelle Stand der Technik erarbeitet und Programmiermodelle beschrieben, die das Programmieren von heterogenen Multiprozessorsystemen vereinfachen. Überdies werden zwei Fallbeispiele gewählt, mit denen bedeutsame Eigenheiten der Programmierung eines Ein-Chip-Systems erarbeitet werden. Im ersten Fallbeispiel werden anhand der UART-Peripherie Erkenntnisse des Ein-ChipSystems dargelegt, die praktische Auswirkungen auf die Verwendung des Systems haben. Im zweiten Fallbeispiel wird bei der Berechnung der schnellen Fourier Transformation das heterogene System auf dessen Rechenleistung untersucht. Dabei wird die Performanz des Hardware-Beschleunigers gegenüber unterschiedlichen Software-Bibliotheken verglichen und die verschiedenartigen Implementierungen analysiert. Zudem werden durch die Performanzanalyse die Einflüsse der Speicherhierachie des Ein-Chip-Systems ermittelt. Weiterhin wird gezeigt, dass sich die Bibliotheken von Analog Devices in deren Anwendung und Performanz voneinander unterscheiden. Außerdem wird veranschaulicht, dass je nach Anwendungsfall eine nicht für DSPs ausgelegte quelloffene Implementierung konkurrenzfähig zu den optimierten Bibliotheken von Analog Devices und dem Hardware-Beschleuniger ist. Zudem wird durch die Analyse der Mehraufwand ermittelt, der für die Konfiguration des Hardware-Beschleunigers aufgebracht werden muss. Dabei wird gezeigt, dass die Verwendung des Hardware-Beschleunigers erst ab einer bestimmten Anzahl an Abtastwerten rentabel ist. Abschließend werden die zwei Fallbeispiele für einen Konzeptnachweis verknüpft, der die Möglichkeiten des heterogenen Rechnens veranschaulicht.
Diese Studie zielt darauf ab, Unterschiede in der User Experience von 3D-Karten Anwendungen im Nutzungskontext Skitourenplanung festzustellen, um Erkenntnisse über die Vor- und Nachteile zu gewinnen. Es findet ein Vergleich zwischen der Touchscreen Applikation „Fatmap“1 (FATMAP | Discover a world of adventure..., o. J.) und einem auf der Basis mobiler Augmented Reality entwickelten Prototypen statt.
Um die Usability zu untersuchen, wurden Evaluationen zur Messung der Faktoren Effektivität, Effizienz und Zufriedenheit durchgeführt. Auf Grundlage der Ergebnisse wurde zudem ein Vorbereitungstool für eine alpine Skitour entwickelt. Für den Versuchsaufbau wurde zu Beginn die prototypische mobile AR-Applikation dem UX-Design Prozess folgend aufgesetzt. In dieser Phase fand eine tiefgreifende Recherche zu den Themen Orientierung, Interaktion und Skitouren statt, woraus die Anforderungen und das Konzept für den Prototyp abgeleitet wurden. Dieser wurde mit Hilfe einer Online-Plattform umgesetzt und auf einem iPad evaluiert. Das Testdesign beinhaltet Fragebögen zur wahrgenommenen User Experience, einen Usability Test zur Messung der Effizienz und einen Usability Test zur Messung der Effektivität. Insgesamt wurden 17 Proband: innen mit beiden Applikationen evaluiert, die gemessenen Faktoren ausgewertet und interpretiert. Die Ergebnisse zeigen, dass es Unterschiede bei der Effizienz und der Zufriedenheit der Anwendungen gibt, aber auch die Effektivität wird kontrovers diskutiert. Die Erkenntnisse bestätigen Vorteile bei der Interaktion mit dem AR-Prototypen, lassen jedoch offen, ob sich Nachteile der Effektivität durch technische Verbesserungen eliminieren lassen. In jedem Fall wurde die AR-Anwendung als spannender und origineller wahrgenommen, was zu einer höheren Motivation führt.
Thank god it's friday
(2022)
Das Ziel der vorliegenden Masterarbeit ist es zu untersuchen, welche Rolle Design im Kontext gesellschaftspolitischer Bewegungen spielt und in welchen Zeichen sich der Protest der Klimabewegung Fridays for Future äußert. Ebenfalls untersucht wird, inwiefern sich diese einst subversiven Elemente der Klimabewegung wiederum in den Mainstream der Werbeindustrie eingliedern.
Dazu wird die folgende Forschungsfrage gestellt: In welchen Zeichen manifestiert sich der aktuelle Klimaprotest und welche Zeichen finden sich in der Werbung wieder? Lässt sich für den Betrachtenden noch dechiffrieren wo der Protest aufhört und der Konsum beginnt?
Das Erkenntnisinteresse besteht darin, Bilder aus dem Aktionsrepertoire der Fridays for Future Bewegung über den Zeitraum 2019-2021 zu sammeln, die Ausbildung ihrer visuellen und sprachlichen Ausdrucksformen zu analysieren und zu dechiffrieren.
Zur Untersuchung des Bildmaterials werden Methoden aus unterschiedlichen Disziplinen eingesetzt. Protestäußerungen, die über Plakate, Fotografien und andere Medien zum Ausdruck kommen, werden gesammelt und mit bildwissenschaftlichen und rhetorischen Methoden untersucht. Die Argumentation erfolgt anhand der Untersuchung dreier konkreter Beispiele aus der Werbung mittels der dokumentarischen Methode der Bildinterpretation nach Bohnsack. In der Analyse der Kampagnen geht es um das Wechselverhältnis zwischen der ästhetischen Selbstdarstellung der Bewegung und ihrer Rezeption bzw. Re-Inszenierung in der Werbung.
Die Ergebnisse der Analyse zeigen, wie sich Werbung durch die Aneignung der Klimasymbolik vom klassischen Kommunikationsinstrument der Wirtschaft zunehmend zu einer Kommunikation auf nicht-ökonomischer und gesamtgesellschaftlicher Ebene entwickelt.
Bezugnehmend auf die Re-Inszenierung der Protestcodes in der Werbung werden diese in der praktischen Ausarbeitung durch die Antiwerbung-Aktionsform des Culture Jammings selbst noch einmal zitiert und ironisiert. Dabei werden die Medien und Mittel der Werbung verwendet, wodurch sich ein Dreisatz aus Aneignung, Manipulation und Wiedereinspeisung ergibt.
conflicto
(2021)
Im Arbeits- und Organisationsleben sind Konflikte alltäglich und meist unumgänglich. Menschen unterscheiden sich voneinander hinsichtlich Kompetenzen, Überzeugungen, Temperament und vieles mehr. Die Arbeit setzt jedoch voraus, dass man miteinander kooperiert, sich abstimmt und gemeinsam Entscheidungen trifft. Wenn man die Ziele einer Gruppe oder Organisation erreichen will, ist es wichtig, dass Konflikte vermieden und/oder erfolgreich und nachhaltig gelöst werden. Auf diesem Wege können alle im Sinne der Organisation handeln. Dadurch werden nicht nur wirtschaftliche Erfolge erreicht, sondern auch die individuelle Gesundheit, das Wohlbefinden und die Kompetenzentwicklung gefördert und sichergestellt.
Mit ‚conflicto‘ wird eine Ressource zur Vermeidung, Umgang und Bewältigung von Konflikten in Organisationen, in Form einer Internetseite mit integriertem Netzwerk von Expert*innen vorgestellt.
In der Arbeit wird die theoretische Verortung des Projekts, anhand umfangreicher Recherchen in der Konfliktforschungsliteratur vorgenommen. Nach empirischer Überprüfung der Relevanz und Wichtigkeit der Konfliktbewältigung sowie der Machbarkeit von ‚conflicto‘ wird die theoriegeleitete Konzeptentwicklung vorgestellt. Mittels SWOT Analyse werden die potentiellen Stärken und Chancen von ‚conflicto‘, sowie eventuelle Schwächen und Risiken aufgezeigt und besprochen.
Das ‚conflicto‘-Konzept vereint die gestalterischen Grundsätze Einfachheit, Ästhetik und Dynamik. Im Anschluss werden das Naming, die Logoentwicklung und das Formulieren der Slogans für beide Zielgruppen, die Farbgestaltung, die Typografie, die Grundstruktur der Webseite, sowie die Illustrationen/Animationen, die eine Besonderheit der Gestaltung von ‚conflicto‘ ausmachen, dargestellt und analysiert. Vollständig ausgearbeitete Screendesigns der Startseite von ‚conflicto‘ und zwei Unterseiten werden nebst der Print und online Bewerbungskonzepte vorgestellt und mit Mockups illustriert.
Als Abschluss folgt die Evaluation der UX Experience. Die empirischen Ergebnisse zeigen eine eineindeutige Überlegenheit des ‚conflicto‘ Gestaltungskonzepts im Vergleich mit traditionelle Gestaltungsvarianten.
Gestenbasierende grafische Benutzeroberflächen werden zunehmend beliebter. Diesbezüglich werden immer mehr Animation in Verbindung mit Nutzergesten eingesetzt.
Diese Arbeit setzt sich mit der Gestaltung von Animationen in gestenbasierten grafischen Benutzeroberflächen auseinander.
Dazu gehört auch, Animationen als Feedback auf eine hochfrequente Eingabemethode so zu gestalten, dass sie möglichst lange von Nutzern*innen als affektiv positiv wahrgenommen werden. Das Hauptaugenmerk der Arbeit liegt dabei auf der Interaktion von Nutzer*innen mit natürlichen Objektbewegungen.
Natürliche Objektbewegungen orientieren sich am Verhalten von Objekten in der physischen Welt. Sie verfügen beispielsweise über konzeptionelle Trägheit, Masse und reagieren auf unsichtbare Kräfte wie Schwerkraft.
Menschen verfügen über kausale Denkmuster, die in der physischen Welt die Interaktion mit Objekten prägen. So wissen Menschen, dass sie um ein träges Objekt wie eine Tasse zu bewegen, Energie benötigen, damit sich diese bewegt.
Untersucht wurde, ob das Verständnis von Nutzer*innen für natürliche Objektbewegungen auch in einer digitalen Umgebung existiert.
Im theoretischen Teil der Arbeit wurde die Rolle von Interfaceanimationen in modernen Benutzeroberflächen untersucht, Kriterien ausgearbeitet um eine reibungslose Nutzererfahrung zu ermöglichen und Parameter dargestellt, welche die Wahrnehmung der Charakteristik einer Animation positiv beeinflussen können. Ein zentraler Aspekt der Arbeit ist dabei die Gestaltung von natürlichen Objektbewegungen, um ein vertrautes, vorhersehbares und nachvollziehbares Nutzererlebnis schaffen können.
Anschließend wird das aus den Ergebnissen resultierende Konzept von prozeduralen Interfaceanimationen dargelegt. Eine prozedurale Interfaceanimation generiert aus den Vorgaben eines natürlichen Bewegungspfades generisch unterschiedliche Instanzen. Der Bewegungspfad kann über die Richtung und Geschwindigkeit einer Nutzergeste von dem*der Nutzer*in gesteuert werden.
In der abschließenden Evaluation wurde die elektrodermale Aktivität von 16 Probandinnen untersucht und bewertet, während diese sich mit drei unterschiedlichen Varianten der Animation auseinandersetzten. Es konnte nachgewiesen werden, dass ein unnatürlich starker Einfluss auf natürliche Objektbewegungen signifikante Unterschiede in den affektiv wahrgenommenen Reaktionen auslöst.
Globale Entwicklungen wie der Klimawandel, die Verknappung fossiler Ressourcen, die Coronapandemie oder die wachsende soziale Ungleichheit sind hochkomplexe Probleme, die das Gesellschaftssystem zunehmend destabilisieren und damit Raum für stark chaotische Entwicklungen ermöglichen. Kennzeichnend für Komplexität ist, dass rationales Überlegen oder kognitives Abwägen von Ursache-Wirkungsbeziehungen nicht mehr zielführend sind. Dabei steht im Hintergrund solcher komplexen Probleme, dass die Anzahl der (menschlichen und nicht-menschlichen) Akteure und den Verbindungen zwischen diesen nicht mehr überschau- oder analysierbar ist. In der vorliegenden Arbeit dient Forschung durch Design als Schlüssel zur Visualisierung des Chaos komplexer Systemdynamiken. So wird mittels eines detaillierten Systemmodells durch eine iterativ erstellte Visualisierung mit interaktiven Anwendungsmöglichkeiten das Fallbeispiel der Implementierung der Sustainable Development Goals in der österreichischen Politik dargestellt. Ziel dabei ist es, die zuständigen Kompetenzstellen und Antworten auf den Grad der Implementierung zu finden, wodurch einerseits daraus resultierende Handlungsempfehlungen zur Implementierung gegeben werden können, und andererseits auch Vorschläge zur Erreichung der SDGs. Als essenzielles Resultat konnte primär bestätigt werden, dass sich die Visualisierung von Systemprozessen als durchaus geeignet erwiesen hat. Zumal steht fest, dass eine sogenannte Implementierung der SDGs in Österreich nicht stattgefunden hat. Außerdem wird argumentiert, dass der Großteil der ökologischen SDGs über die Einhaltung bereits bestehender Bundes- und Landesgesetze im Rahmen des Umweltschutzes erreicht werden könnten.
GESCHICHTEN BEIM GEHEN
(2022)
Eine junge Frau geht ihre Wege durch Dornbirn, einer Stadt mit rund 50.000 Einwohnern. Sie wohnt im Zentrum der Kleinstadt, durchläuft diese meist zu Fuß, zu den unterschiedlichsten Zwecken und immer mit offenen Augen. Sie stellt fest, dass je öfter sie denselben Weg geht, sie umso mehr Neues entdeckt: Dinge abseits des Alltäglichen. Sie bemerkt, dass sie scheinbar Gleiches immer wieder anders wahrnimmt.
In diesem Buch hat sie die Geschichten, die sich während dem Vorgang des Gehens bilden, gesammelt. Diese lassen in ihrer Gesamtheit ein Bild ihrer Wege entstehen: durch Texte, Notizen, Illustrationen, Grafiken, Fotografien und Filme.
Sie (er)fasst somit den Raum, der sich bildet, wenn sie sich durch die Stadt bewegt – und macht diesen für uns sichtbar. Folgen Sie ihr auf ihrem Weg und begeben Sie sich mit den beiliegenden Karten selbst auf Entdeckungsreise. Sie werden staunen.
Geschichten beim Gehen ist ein Forschungsprojekt, das einerseits versucht eine Theorie zur Raumkonstitution (Kunst des Handelns von Michel de Certeau) in ein visuelles Erscheinungsbild zu übersetzen und gleichzeitig Methoden zur Wahrnehmbarmachung erarbeitet, die andere Karten oder Darstellungen jenseits von Karten liefern.
Die Arbeit soll als Beispiel für ein Forschen mittels gestalterischen Methoden dienen. Entstanden sind zwei Bücher: O, das Buch vom Ort und R, das Buch vom Raum. Ersteres bildet die wissenschaftliche Kontextualisierung und diskutiert die gewonnenen Erkenntnisse. Zweiteres funktioniert als visuelles Essay und zeigt angewendete gestalterische Methoden und verwendete Medien: ein Prozess im Wechselspiel von Theorie und Praxis.
Postdigitale Gaststube
(2022)
This paper sought to identify and analyze what are the barriers towards women career’s development as business leaders in Brazil and Nicaragua when it comes to the country societal variables. In order to comprehend these barriers through women’s perception, qualitative data was chosen for this investigation, which was gathered through one-to-one interviews within businesswomen from Brazil and Nicaragua that have experience in leadership positions. The results of this research confirm that societal, economic, and political factors have great influence at gender equality and in how it affects women’s progress as business leaders. Thus, it can vary considerably between countries, even when they have similar culture backgrounds. Furthermore, it is imperative to comprehend these differences in order to close any gender gap in the field.
Observing the ratios of the rail usage in terms of passenger travelled per km and per capita, we see that there are huge differences between countries, so some railway systems are performing better in catching passengers than others. By analysing the factors that make the railways attractive for users, and setting standard values for these factors, we can analyse how well a system is performing. This paper has investigated those factors and developed an assessment tool that will inform about the required improvements, so in a later stage specific strategies can be developed to increase the performance in order to attract more passengers. Spain will be used as case study, since the country has specially low passenger rail usage compared to other countries even though the large investments in high speed lines the country undertook in the last decades.
Einfluss von Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg im Banken- und Versicherungssektor
(2022)
Den Nachhaltigkeitsbegriff gibt es schon lange, doch die letzten Jahre erlebte er einen wahren Aufschwung. Die Unternehmen erkannten diese Chance und beschäftigten sich intensiver mit dem Thema der Nachhaltigkeitsberichterstattung. Mit der Global Reporting Initiative (GRI) gibt es zwar einen international anerkannten Standard, doch die meisten Unternehmen verwenden ein eigenes Format. Das erschwert die Vergleichbarkeit der Berichte. Um den Einfluss der Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg zu messen, wurden neun Banken aus der DACH-Region ausgewählt. Für sie wurde ein eigenes Scoring-Modell entwickelt. Es umfasst die Kategorien Ökonomie, Ökologie, Soziales, Kommunikation und Glaubwürdigkeit. Der Unternehmenserfolg wird durch die Rentabilitätskennzahlen Return on Sales (ROS) und Return on Equity (ROE) abgebildet. Mit dem Korrelationskoeffizienten nach Person ergab sich für den Beobachtungszeitraum 2018, 2019 und 2020 kein allgemeiner Zusammenhang. Beim Vergleich des Durchschnittswerts der drei Banken mit dem höchsten Nachhaltigkeitsscore, mit jenem der drei niedrigsten, hingegen schon (0,79). Zusätzlich war erkennbar, dass die Gruppe mit den höheren Scores auch die Ende 2019 beginnende Corona-Pandemie besser überstand. Während der ROE der Gruppe mit den niedrigsten Scores bis auf -0,74% fiel, blieb er bei der anderen Gruppe stabil bei 8%. Mittels t-Test konnte jedoch knapp keine statistische Signifikanz nachgewiesen werden (0,0627 > 0,05).
Die vorliegende Arbeit hatte zum Ziel einen Deckungsbeitragsrechnungs-Report zu erstellen. Neben einer Literaturrecherche zum Thema (mehrstufige) Deckungsbeitragsrechnungen wurde ebenfalls nach allgemeinen Design-Empfehlungen recherchiert. Hier wird insbesondere auf vier Autoren eingegangen: Eduard Tufte, Stephen Few, Eisl et al. und die International Business Communication Standards (IBCS) von Hichert und Faisst.
Der wesentliche Kern dieser Arbeit ist dann die Entwicklung eines Musterberichts. Hierfür wurde zuerst eine Vorstudie in Form von Experteninterviews durchgeführt. Im Zuge dieser ergabt sich, dass die mehrstufige Deckungsbeitragsrechnung in der Praxis nicht von so hoher Relevanz ist, wie die Literatur vermuten lässt. Deshalb wurde das Thema der vorliegenden Arbeit an dieser Stelle auch angepasst: statt der Darstellung mehrstufiger Deckungsbeitragsrechnungen werden nun einfache Deckungsbeitragsrechnungen behandelt.
Anschließend an die Vorstudie wurde ein Leitfaden zur Berichtserstellung ausgearbeitet. Nach diesem werden zuerst Ziel, Berichtsempfänger, Berichtsinhalte und Aktualisierungsintervall definiert. Im Anschluss kann ein geeignetes Tool für die Berichtserstellung gewählt werden. Die Umsetzung erfolgt dann zuerst mittels Skizzen, bevor der Bericht tatsächlich im gewählten Tool umgesetzt wird.
In weiterer Folge wurden vier Fragen ausformuliert, welche in Form eines Experiments beantwortet werden sollen. Verschiedene Grafiken wurden anhand von drei Qualitätsmerkmalen (Effektivität, Effizienz und Attraktivität) geprüft, um die Fragen zu beantworten. Die vier Fragen lauten:
1. Sind Verhältnisse (z.B. Doppel so hoch) bei Balkendiagrammen besser leserlich als in Kuchendiagrammen?
2. Ist eine räumliche Trennung von Kategorien besser als eine farbliche?
3. Sind drei Szenarien einer Kennzahl (z.B. AC, PY, BU) in einer Grafik besser im Hinblick auf die Qualitätsmerkmale als zwei Grafiken?
4. Gibt es Unterschiede bei der Abbildung von drei Szenarien zwischen IBCS konformen Darstellungen und Bullet Charts von Stephen Few?
Das Experiment hat ergeben, dass Balkendiagramme Kuchendiagrammen in allen Qualitätsmerkmalen vorzuziehen sind. Auch eine räumliche Trennung von Kategorien hat sich aufgrund der Effizienz als besser durchgesetzt. Bezüglich der zwei gegenüber drei Szenarien konnte die Grafik mit nur zwei Szenarien im Hinblick auf Effektivität und Effizienz besser abschneiden. Allerdings liegen die Werte sehr nahe beisammen und die Probanden konnten bereits in der kurzen Zeit erste Lerneffekte erzielen. Deshalb wird empfohlen, die geringen Effektivitäts- und Effizienzverluste in Kauf zu nehmen, da im Gegenzug dafür die Grafik um weitere wertvolle Informationen angereichert werden kann. Abschließend konnten sich die IBCS-konformen Darstellungen den Bullet Charts von Stephen Few gegenüber durchsetzen. Hierbei hat ein Balkendiagramm mit Abweichungs-Pins am besten abgeschnitten, gefolgt von einem Balkendiagramm mit drei Szenarien: AC, BU und PY. Mit diesen Erkenntnissen wurde dann das Musterdashboard ausgearbeitet.
Aufgrund des fortschreitenden wirtschaftlichen und gesellschaftlichen Strukturwandels und der zunehmenden Digitalisierung, hat die Bedeutung immaterieller Vermögenswerte erheblich zugenommen. Dabei steht die Goodwill-Bilanzierung und insbesondere die Folgebehandlung des bei einem Unternehmenszusammenschluss erworbenen Goodwills im besonderen Fokus der Standardsetter und Bilanzadressaten. Der bei der Folgebilanzierung des Goodwills gegebene Ermessensspielraum führt zu der Sorge, dass diese Ermessensspielräume seitens der Manager opportunistisch genutzt werden könnten. Die vorliegende Arbeit untersucht, ob bei österreichischen Unternehmen die Goodwill-Bilanzierung als Instrument für Earnings Management dient. Unter Anwendung multipler Regressionsmodelle wird ein Datensample österreichischer Unternehmen im Zeitraum von 2015 bis 2019 auf die Einflüsse möglicher Earnings Management-Motive auf die vorgenommenen Goodwill-Impairments überprüft. Die Ergebnisse zeigen, dass Manager österreichischer Unternehmen Big Bath Accounting betreiben und damit schlechte Unternehmensjahre nutzen, um Goodwill-Impairments vorzunehmen. Die Ergebnisse zeigen zudem eine Tendenz, dass Big Bath Accounting insbesondere dann zur Anwendung kommt, wenn es einen Wechsel im Finanzvorstand gibt. Weiters zeigen die Ergebnisse den hohen Einfluss der Aktionärsstruktur auf die Impairmententscheidungen. Bei Unternehmen mit großen institutionellen Aktionären liegt eine zusätzliche Kontrollinstanz vor, die Earnings Management-Verhalten reduziert. Die vorliegende Arbeit unterstützt die aktuellen Diskussionen der internationalen Rechnungslegung über die Beibehaltung des Impairment-Tests und liefert Hinweise darauf, dass bei österreichischen Unternehmen Earnings Management-Motive bei der Goodwill-Bilanzierung eine Rolle spielen.
Diese Forschungsarbeit beschäftigt sich mit der Behandlung von Klient*innen mit kognitiver Beeinträchtigung und komorbid psychischer Erkrankung im Feld der Klinischen Sozialen Arbeit. Um ein genaueres Verständnis für das Phänomen zu erlangen, wird auf die Entstehungsmechanismen und die Symptomatik von psychischen Erkrankungen bei Menschen mit kognitiver Beeinträchtigung eingegangen. Des Weiteren werden aktuelle Handlungsansätze u. a. der integrative Ansatz nach Anton Došen vorgestellt und in Verbindung mit der Klinischen Sozialen Arbeit gebracht. Die Grounded Theory von Anselm Strauss und Barney Glaser bietet den methodischen Rahmen, um durch Forschung, Theorie und Kreativität spezielle methodische Erfordernisse für die psychosoziale Behandlung dieser Zielgruppe aufzuzeigen. Die Sammlung von Daten erfolgt durch Interviewgespräche mit Professionellen und Personen die kognitiv beeinträchtigt und komorbid psychisch erkrankt sind. Zentraler Ausgangspunkt ist die These, dass es für diese Zielgruppe eine spezialisierte Behandlung benötigt und in Vorarlberg noch kein entsprechendes Angebot vorhanden ist.
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.