Refine
Year of publication
Document Type
- Article (450)
- Master's Thesis (411)
- Conference Proceeding (395)
- Part of a Book (230)
- Book (107)
- Report (28)
- Other (18)
- Doctoral Thesis (14)
- Working Paper (9)
- Preprint (5)
Institute
- Wirtschaft (350)
- Forschungszentrum Mikrotechnik (252)
- Technik | Engineering & Technology (192)
- Forschungszentrum Business Informatics (167)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (164)
- Soziales & Gesundheit (145)
- Forschungsgruppe Empirische Sozialwissenschaften (117)
- Forschungszentrum Human Centred Technologies (102)
- Forschungszentrum Energie (88)
- Didaktik (mit 31.03.2021 aufgelöst; Integration ins TELL Center) (68)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Digitalisierung (14)
- Soziale Arbeit (14)
- Controlling (11)
- Laser ablation (11)
- Y-branch splitter (11)
- arrayed waveguide gratings (11)
- +KDC 122 (9)
This thesis investigates the role of leadership behaviours of C-level executives in the context of post-M&A integration processes. The primary focus is on understanding the impact of specific leadership behaviours on inspiring desirable follower effects and facilitating emotional acceptance during organizational change. Drawing on the frameworks presented in “Six- Dimension Integrative Model of Leadership” and "The Six Domains of Leadership" developed by Sitkin et al., the study conducts expert interviews with managers from middle management who have recently experienced M&A integration. The answers are analysed in depth to identify the most effective leadership behaviours, highlighting those mentioned most frequently and those capable of triggering multiple follower effects simultaneously. The result is a list of behaviours that can serve as a guideline for C-level executives who want to foster desirable follower effects throughout the M&A integration journey.
Die vorliegende Arbeit betrachtet in wie weit die analysierten Berichterstattungen ausgewählter ATX Unternehmen die zukünftig zwingend zu erfüllenden europäischen Nachhaltigkeitsberichterstattungsstandards (ESRS) bereits in den Berichterstattungen des Geschäftsjahres 2022 erfüllen. Hierzu wird zuerst eine Einbettung der ESRS in die rechtliche Landkarte und deren Umsetzungszeitraum beschrieben, bevor die Gliederung und einzelnen ESRS vorgestellt werden. Der empirische Teil untersucht mittels einer qualitativen Inhaltsanalyse die Berichterstattungen ausgewählter ATX Unternehmen hinlänglich der Einhaltung der im ersten Schritt der Umsetzung zwingend zu berücksichtigenden ESRS. Dabei geht die Auswertung sowohl auf Unterschiede zwischen den Berichten, sowie berichtsübergreifend auf die einzelnen Standards ein.
Through mandatory ESG (environmental, social, governance) reporting large companies must disclose their ESG activities showing how sustainability risks are incorporated in their decision-making and production processes. This disclosure obligation, however, does not apply to small and medium-sized enterprises (SME), creating a gap in the ESG dataset. Banks are therefore required to collect sustainability data of their SME customers independently to ensure complete ESG integration in the risk analysis process for loans. In this paper, we examine ESG risk analysis through a smart science approach laying the focus on possible value outcomes of sustainable smart services for banks as well as for their (SME) customers. The paper describes ESG factors, how services can be derived from them, targeted metrics of ESG and an ESG Service Creation Framework (business ecosystem building, process model, and value creation). The description of an exemplary use case highlighting the necessary ecosystem for service creation as well as the created value concludes the paper.
The role of entrepreneurs and intrapreneurs in the current zeitgeist is to drive innovation, re-shape rigid, established processes in business as well as for consumers. They use new viewpoints to pioneer new (business) models which focus on ‘smartness’ rather than the purely monetary and short-sighted models of yesteryear. Fostering and supporting the culture of this current zeitgeist is a mayor challenge for entre- and intrapreneurial support infrastructures, namely startup centres and innovation hubs of universities and other public institutions as well as innovation centres of private companies. Hereby, support may range from access to funding over provision of resources such as offices or computing hardware to coaching in the development of business ideas and strategic roadmaps for product and service deployment. In this paper, we focus on describing the status-quo of afore- mentioned support infrastructures in Vorarlberg and the Lake Constance region, then extend the scope to existing (international) approaches for aiding founders and inno- vators in the development of smart services. An analysis of success stories of the Vorarlberg startup centre ‘startupstube’ and other initiatives including their compar- ison to international counterparts builds the basis for a methodological framework for (service science) coaching in entre- and intrapreneurial support infrastructures. The paper is concluded by the description of a framework for choosing the right methods and tools to create service value in entre-/intrapreneurship based upon tested, proven know-how and for defining support infrastructure needs based upon pre-defined stakeholder and target groups as well as the (industry) sectors of the innovators.
In this paper, a 256-channel, 10-GHz arrayed waveguide gratings demultiplexer for ultra-dense wavelength division multiplexing was designed using an in-house developed tool called AWG-Parameters. The AWG demultiplexer was designed for a central wavelength of 1550 nm and the structure was simulated in PHASAR tool from Optiwave. Two different AWG designs were developed and the influence of the design parameters on the AWG performance was studied.
Design, simulation, and optimization of the 1×4 optical three-dimensional multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding is demonstrated. The splitter was simulated by using beam propagation method in BeamPROP simulation module of RSoft photonic tool and optimized for an operating wavelength of 1.55 μm . According to the minimum insertion loss, the dimensions of the splitter were optimized for a waveguide with a core size of 4×4 μm2 . The objective of the study is to create the design for fabrication by three-dimensional direct laser writing optical lithography.
Schreiblehre und KI – Teil 3: Erste Schlussfolgerungen aus dieser Erfahrung für die Schreiblehre
(2023)
Praxisanleiter:innen nehmen eine entscheidende Rolle in der Ausbildung von Pflegepersonen wahr. Die Tätigkeit fordert eine Vielzahl von Kompetenzen. Die Weiterbildung Praxisanleitung bietet eine wichtige Grundlage für die Entwicklung dieser Kompetenzen – deren Rahmenbedingungen, Methoden und Inhalte in Österreich werden in dieser Studie untersucht.
The control measures for the COVID-19 pandemic, early 2020, caused a chain reaction that eventually led to a shortage of components in the electronic manufacturing industry. A lack of components meant that the production and sales were interrupted or even stopped. For many electronic manufacturing firms, this was seen as a crisis. A crisis is mostly divided into three phases called the pre-crisis phase, crisis management and post-crisis phase. The pre-crisis phase involves an environmental assessment and setting up of crisis management teams, and plan. The crisis management phase has to do with the collection and interpretation of information and the mitigation of the crisis. The post-crisis phase looks at learnings from the crisis. In this paper it was investigated how the electronic manufacturing firms in Vorarlberg managed the crisis in the period between 2020 and 2022. The overall aim was to get a full understanding of how it affected the operations regarding the respective crisis teams and which factors were considered most important for setting up the teams. Two basic criteria which had to be over-come was the uncertainty and lack of time. It was seen that even though the fundamental structure did not change, crisis teams were added in the form of a crisis management team and task forces. The task forces played a major role in getting an understanding of the problem and the effect it has on the business. The crisis management team, which includes high level managers from all affected functional areas, had to re-evaluate the high level strategy and decide what needs to be done, and who will be doing it. In order to do so, they needed to understand what the priorities are regarding components and products and then decide on the priorities regarding affected business. The new strategy was then handed down to the task forces for implementation. A major focus of this paper was also on decision making and how everything contributed to making decisions that had the right effect in resolving the financial crisis for the organizations.
Supply shortages faced in products and resources from semiconductors to natural gas in recent years have had impact massive on global economy, but such challenges are not new for supply chain professionals. Many major events in the past have disrupted supply chains: 9/11 attack in New York, Tsunami in Japan to name a few, but COVID19 have had the biggest and widespread impact in the modern times. Even though supply chain resilience being a term coined in early 2000’s, its usage and importance has increased since then. With the curiosity of assessing the current state of sup-ply chain resilience literature and finding a resilience measurement method which is a one-fit for all supply chains in the manufacturing industry of Vorarlberg, the following research project was undertaken. Research is carried out with mixed methods, using a systematic literature review followed by expert interviews. In the conclusion of the research the author argues that there is a significant difference in the understanding of the term resilience within industry, there is a lack on the need for a meas-ure for resilience. The ways in which the structure of an organization impacts the level of resilience, foreseen benefits of digitalization and technologies for resilience are also dis-cussed. A comparative analysis on the SCR measurement methods discovered in literature, resulted in recommending Resilience index for on-time delivery proposed by Carvalho et al for the mentioned industry.
Der Standard IAS 36 regelt die Bewertung bestimmter Vermögenswerte in der IFRS-Bilanz und soll verhindern, dass Vermögenswerte mit einem Buchwert ausgewiesen werden, der höher ist als ihr erzielbarer Betrag. Zu diesem Zweck werden der Nutzungswert, der sich aus der Nutzung des Vermögenswertes ergibt, und der beizulegende Zeitwert, der einen theoretischen oder realen Marktwert darstellt, ermittelt. Aufgrund des Interpretationsspielraums des Standards, sich ändernder Faktoren wie Zinssätze und Wachstumsannahmen und der großen Auswirkungen, die Wertminderungen auf die Ergebnisse der Jahresabschlüsse haben können, ist der Impairment Test ein aktuelles Thema. In dieser Arbeit werden verschiedene Herangehensweisen zur Wertminderungsprüfung untersucht und gemeinsam mit identifizierten Verbesserungsmöglichkeiten in einem Best-Practice-Modell zusammengefasst. Zu diesem Zweck wurden Interviews mit sechs Unternehmen und sechs Wirtschaftsprüfern und Wirtschaftsprüferinnen aus der DACH-Region geführt und anschließend mittels fokussierter Interviewanalyse nach Kuckartz und Rädiker (2020) ausgewertet. Es zeigte sich, dass insbesondere die vorgelagerte Trigger Analyse und die Kontrollmechanismen an verschiedenen Stellen des Prozesses in der Praxis weiterentwickelt werden sollten. Darüber hinaus wird empfohlen, im Falle einer Wertminderung eines Goodwills nicht nur auf dem in der Praxis bevorzugten Nutzungswert zu beharren, sondern einen zweiten Bewertungszyklus mit dem beizulegenden Zeitwert durchzuführen, um den Wertminderungsbedarf zu reduzieren. Die Ergebnisse dieser Studie bieten verschiedene Möglichkeiten für weitere Forschungen, beispielsweise könnten weitere Experten und Expertinnen aus verschiedenen Ländern befragt werden, oder es könnte mehr Aufmerksamkeit auf Teilprozesse, wie z.B. die Trigger Analyse oder die Goodwill-Bewertung mit dem Fair-Value-Ansatz, gelegt werden.
Der Fremdvergleichsgrundsatz ist ein wichtiges Instrument zur Bestimmung von Verrechnungspreisen zwischen verbundenen Unternehmen, um Gewinnverschiebungen zu vermeiden. Durch den Vergleich mit unabhängigen Unternehmen sollen angemessene Preise und Bedingungen für internationale Transaktionen gewährleistet werden. Die Anwendung des Fremdvergleichsgrundsatzes erfordert eine sorgfältige Analyse der Transaktionen und trägt zur Einhaltung der Steuervorschriften bei. Die wirtschaftlichen Auswirkungen der Covid-19-Pandemie haben jedoch neue Herausforderungen für die Bestimmung von Verrechnungspreisen hervorgebracht, wie die Berücksichtigung staatlicher Hilfen oder das Vorhandensein verlässlicher Vergleichsdaten. Konzernunternehmen waren daher dazu gezwungen, ihre bisherige Verrechnungspreispolitik zu überdenken und gegebenenfalls anzupassen. In der vorliegenden Masterarbeit werden die Auswirkungen der Covid-19-Pandemie auf die Bestimmung von Verrechnungspreisen in multinationalen Konzernunternehmen mit Hauptsitz in Vorarlberg untersucht. Um das angestrebte Ziel dieser Arbeit zu erreichen, ist es von großer Bedeutung, den aktuellen Forschungsstand zu den Auswirkungen der Covid-19-Pandemie auf die Bestimmung von Verrechnungspreisen durch eine umfassende Literaturrecherche zu erfassen und die rechtlichen Grundlagen zu analysieren. Basierend auf dem gewonnenen theoretischen und rechtlichen Wissen wurden Fachleute bedeutender Unternehmen mit Headquarter in Vorarlberg befragt. Darüber hinaus wurden Expertinnen aus renommierten Beratungsunternehmen befragt, um die Thematik aus verschiedenen Perspektiven zu beleuchten.
Die vorliegende Masterarbeit befasst sich mit dem Verhalten von Mitarbeitenden in psychologisch sicheren und unsicheren Situationen. Hierfür wird das Konstrukt der psychologischen Sicherheit mit der Theorie der Ressourcenerhaltung verbunden. Dies wird als ein möglicher Ansatz gesehen, um zu erklären, wie psychologische Sicherheit entstehen kann. Es wird ermittelt, welche Ressourcen, als Prädiktoren von psychologischer Sicherheit relevant sind und zu welchen verhaltensbezogenen Konsequenzen psychologisch sichere und unsichere Situationen führen. Um die hierfür benötigten Daten zu erheben, wurde eine qualitative Studie in Form von neun teilstandardisierten Interviews, nach der Critical Incident Methode, durchgeführt. Die Ergebnisse zeigen auf, dass mit dieser Methode relevante Ressourcen der psychologischen Sicherheit ermittelt und verhaltensbezogene Konsequenzen, erfasst werden. Somit eignet sich die methodische Herangehensweise der vorliegenden Arbeit zur Anwendung in Unternehmen. Auf diese Weise können Unternehmen ermitteln, welche relevante Ressourcen für ihre Mitarbeitenden, die zur psychologischen Sicherheit führen, bereits vorhanden sind und welche gefördert werden müssen.
Having autonomy in the workplace can have a positive impact on employees’ performance, which in turn can benefit the organization’s competitive advantages. While previous researches have primarily focused on the psychological effects of job autonomy on employee performance and has been limited to certain domains, the relationship between job autonomy and organizational design is an important area of study for organizations seeking to improve their competitiveness. This thesis proposes a conceptual model for designing an organization structure that promotes employee performance in manufacturing companies by removing obstacles towards obtaining job autonomy. The focus is on ambitious employees who seek growth and development opportunities within their organization. The model is based on a review of existing literature on job autonomy and organizational design. Exploratory qualitative research was conducted with selected ambitious employees from different industries by means of one-on-one semi-structured interviews. Overall, the proposed model has practical implications for manufacturing companies looking to motivate their employees, as well as for researchers seeking to advance their understanding of organizational design in our times.
Die Anforderungen an gute Prognosen im Energiehandel der illwerke vkw AG steigen kontinuierlich an, da diese dazu verwendet werden, die richtigen Energiemengen auf dem Day-Ahead-Markt zu kaufen oder zu verkaufen. Zusätzliche Herausforderungen wie Wettereinflüsse und der steigende Energiebedarf von E-Autos erschweren die Prognose. Darüber hinaus gestaltet es sich mit den herkömmlichen Prognosebewertungen schwierig, die Kostenaspekte angemessen abzubilden. Aus diesem Grund wird in dieser Masterarbeit eine neue Methode zur Bewertung der Prognosequalität implementiert und mit bewährten Kennzahlen wie R², MAE, MAPE und RMSE verglichen. Diese Methode nutzt einen Preisverlauf, der die durchschnittlichen Marktpreise der Ausgleichsenergiepreise als Bewertungsmaßstab widerspiegelt. Die neue Bewertungsmethode wird mit Algorithmen wie dem Artificial Neural Network von Tensorflow, dem Decision Tree Regressor, der Linearen Regression, dem Multi-Layer Perception und dem Random Forest Regressor von Scikit-Learn verglichen. Zudem wird ein eigens erstelltes Gurobi-Modell, welches die Ausgleichsenergiepreise für die Gewichtung der absoluten Prognosefehler heranzieht, als Lineare Regression implementiert. Die genannten Modelle werden mithilfe von Python implementiert. Es werden tägliche Vorhersagen basierend auf viertelstündlichen Daten für Zeiträume von bis zu einem Jahr unter Verwendung eines Sliding-Window-Verfahrens mit unterschiedlichen Trainingsdaten erstellt. Die neue Bewertungsmethode mit der Einbeziehung von Kostenfaktoren, konnte sich im Vergleich zu MAPE, MAE, RMSE und R² nicht deutlich von den anderen unterscheiden. Die besten Ergebnisse wurden mit der Linearen Regression von Scikit-Learn und dem Gurobi-Modell mit der preisgewichteten Minimierung erzielt. Dabei sind die anderen Algorithmen nicht weit von den Resultaten der LR und GP entfernt. Unter dem Aspekt, dass das eigene Modell die Kosten minimieren soll, konnte es aber nicht als die beste Methode bewertet werden. Deswegen müssen das Modell und die gewählten Ausgleichsenergiepreise optimiert werden. Hierzu erzielte unter den sieben verwendeten Methoden die Lineare Regression das beste Ergebnis.
The advent of autonomous and self-driving cranes represents a significant advancement in industrial automation. One critical prerequisites for achieving this long-term goal is the accurate and reliable detection of tools guided by ropes in real-world environments. Since the tool is suspended by ropes, the tool pose cannot be controlled directly. This master’s thesis addresses the challenges of pose estimation for rope-guided tools using point cloud measurements. The proposed algorithm utilizes constraints imposed by the crane kinematics and information extracted during the segmentation process to efficiently infer the pose of the hook, therefore enabling the use of the pose for decision making in real-time critical applications. RANSAC (Random Sample and Consensus) is deployed in the segmentation process to extract geometric primitives from the point cloud which represent the ropes and distinctive parts of the tool. Since the point cloud is often to sparse for feature matching a bounding box is used to estimate the initial position of the tool. Two different methods are presented to improve the initial pose. A computationally expensive method with a high level of confidence, integrating the ICP (Iterative Closest Point) algorithm is used as a benchmark. A linear Kalman filter is used in the second method which is real-time capable. The benchmark is then used to evaluate the real-time capable approach. The core contributions of this research lie in the innovative utilization of bounding boxes for pose estimation. The findings and methodologies presented herein constitute an advancement towards the realization of autonomous and self-driving cranes.
Der Übergang zu erneuerbaren Energiesystemen und deren optimale Betriebsweise ist entscheidend für die Reduzierung des Energieverbrauchs und der damit verbundenen Einsparung von CO2-Emissionen. In privaten Haushalten dominiert traditionell die Hystereseregelung bei der Wärmeerzeugung. Neuere Bauten, ausgestattet mit Wärmepumpen und Photovoltaikanlagen, bieten jedoch beachtliches Potenzial zur Effizienzsteigerung durch angepasste Regelungsstrategien. Eine intelligente Laststeuerung ermöglicht erhebliche Kosteneinsparungen und eine Erhöhung des Autarkiegrades. Vorhandene literarische Ansätze liefern Methoden zur Systemmodellierung und -identifikation. Darüber hinaus demonstrieren sie das Potenzial der Optimierung durch den Model Predictive Control (MPC) Ansatz. Eine spezifische Evaluierung anhand von Realdaten eines Energiesystems mit Abluft-Wärmepumpe fehlt jedoch. Daher bedarf es der Bewertung des Lastverschiebungspotentials dieser Systemkonfiguration. Die Systemidentifikation erfolgt basierend auf Messdaten, welche gleichzeitig als Referenz für den Vergleich des traditionellen Hysteresebetriebs mit der MPC-Steuerung dienen. Die Analyse offenbart das Lastverschiebungspotential durch die optimierte Betriebsweise einschließlich einer Gesamtkosteneinsparung von bis zu 42% und einer Steigerung des Autarkiegrades um bis zu 10%. Diese Potentiale variieren saisonal, sind jedoch das ganze Jahr über vorhanden.
The Fast Average Current Mode control methodology is a novel method for the implementation of a current compensator in a switched-mode power supply. It does not require compensation against sub-harmonic instability and is inductor independent. In this work, the digital implementation of this topology is compared against an analog implementation using simulation. Additionally, a hardware prototype is created to validate the digital simulation's results. In a Simulink environment, parameters of the digital implementation, such as the digital-to-analog converter resolutions and the delay counter frequency are varied to research their impact on system performance. The simulations show that a digital current compensator has similar performance as an analog implementation when designed tailored to the application. When evaluating the whole control loop the digital system is inferior due to added delays caused by digital to analog conversion. By operating the Buck converter hardware implementation as a current source, the functionality of the current mode control implementation in a FPGA was proven. Voltage control cannot be validated due to hardware issues. Due to the successful simulation of the source code with a mixed signal model of the converter, it can be assumed that it is functional. Apart from performance, a digital implementation shows many benefits compared to an analog solution, such as configurability of control parameters and easy compensation of component variations and aging.
Um Data Analytics gezielt und effektiv einzusetzen, gilt es als wichtig, die organisationale Reife eines Unternehmens in Bezug auf die Umsetzung von Data Analytics zu messen und zu verstehen. Da viele Unternehmen allerdings noch nicht bereit für die Implementierung von Supply Chain Analytics sind, benötigen sie ein Tool mit dem die eigene organisationale Reife gemessen und verbessert werden kann. Dafür wird in dieser Arbeit ein Readiness-Assess- ment-Framework entwickelt, das die organisationale Reife eines Unternehmens bestimmt und mittels ergänzendem Leitfaden Möglichkeiten zur Optimierung der eigenen Reife aufzeigt. Die Besonderheit dieses Assessments liegt in der Aufteilung in einzelne organisationale und tech- nologische Kategorien sowie deren Erfolgsfaktoren. Der Aufbau dieser Arbeit folgt dem De- sign-Science-Ansatz von Peffers et al. (2006). Mittels eines Literature Reviews und Expert:in- neninterviews wurden die Kategorien und Erfolgsfaktoren für das Assessment identifiziert und verifiziert. Nach der Entwicklung des Assessments wurde in einem Workshop die Praxistaug- lichkeit des Frameworks überprüft. Abschließend werden Ansatzpunkte für künftige Weiter- entwicklungen des Frameworks dargestellt.
Recent years have been commanded by a cascade of unpredictable incidents, that have redefined new standards in our private, but also in our professional life. Events like the financial crisis, the COVID-19 pandemic, the energy crisis in Europe, resource scarcity and so forth have caused instability, forcing companies towards flexibility, constantly adapting their operative structures according to the needs of the moment. The effective adaptation to this environment is the key for reacting the dynamism of the market, and for guaranteeing future success. However, the introduction of these crucial changes on a stable company organisation is challenging. Furthermore, due to digitalisation, boundaries between countries have been removed, and the daily cooperation with co-workers and customers all around the globe became the new standard. The establishment of a good corporate culture where diverse people can work in harmony and, is a difficulty that comes ahead.
This master thesis developed from a professional perspective. The topics of change management and corporate culture where combined, and the relationship between these two concepts was studied. This master thesis aims utilising corporate culture as an instrument in managements favour, to implement strategical changes easily and successfully in a more efficient way. The relation between corporate culture and the resistance to change, focusing on the initiation of the change process, was the main area of study. Research questions and hypothesis, formulated with a solid theoretical background, are to be answered based firstly on literature, and secondly on the results of empirical quantitative re-search. To conclude, a set of recommendations for corporates were suggested with the intention of guiding companies how to use corporate culture as an instrument for change management.
Der Klimawandel und der damit einhergehende Temperaturanstieg stellen den Gebäudesektor in Bezug auf die sommerliche Überhitzung vor erhebliche Herausforderungen. Zur Abschätzung der Auswirkungen ist es relevant, Klimadaten für einen angemessenen Zeitraum zu verwenden, um geeignete Maßnahmen zur Hitzeminderung ergreifen zu können.Die sommerliche Überhitzung variiert je nach Gebäudetyp, Standort und örtlichen Gegebenheiten. Aus diesem Grund werden in dieser wissenschaftlichen Untersuchung Wohngebäude mit mehr als zehn Wohneinheiten für das Klimaszenario RCP4.5 im Jahr 2060 in Österreich analysiert. Zur Beurteilung des Wohnkomforts wurden umfangreiche Messungen im Rahmen einer Studie des Energieinstituts Vorarlberg an einem repräsentativen Gebäude über einen längeren Zeitraum durchgeführt. Basierend auf den gewonnenen Messwerten wird ein Referenzgebäude im Gebäudesimulationsprogramm IDA ICE konstruiert und simuliert. Um verschiedene Klimazonen angemessen abzubilden, werden die Standorte Bregenz, Klagenfurt und Wien für das Gebäude im Jahr 2022 betrachtet. Diese Ergebnisse bilden die Grundlage, um den Einfluss des Klimawandels auf die sommerliche Überhitzung abschätzen zu können. Im nächsten Schritt werden die neuen Klimadatensätze für das Klimaszenario RCP4.5 im Jahr 2060 für dieselben Standorte implementiert und mit den Ergebnissen von 2022 verglichen. Dadurch können verschiedene Kennziffern wie maximale Temperaturen, Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C und die Häufigkeit von Übertemperaturgradstunden herangezogen werden, um die zukünftige Hitzebelastung zu bewerten. Die Ergebnisse zeigen, dass mit einer Erhöhung der maximalen Temperatur, der mittleren Temperatur zwischen Mai und September sowie der Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C zu rechnen ist. Der Grenzwert von 25 °C wird dabei um 12 bis 29 Prozent überschritten. Die Maximaltem-peratur steigt um vier bis neun Prozent, während sich der Wert für die mittlere Temperatur um zwei bis drei Prozent erhöht. Besonders stark nimmt die Häufigkeit von Übertemperaturen über einen längeren Zeitraum zu. Für die Umsetzung passiver Maßnahmen zeigt sich, dass diese zu einer signifikanten Reduk-tion der Stundenanzahl mit Temperaturen über den Grenzwerten führen können. Auch durch simple Maßnahmen, wie die Integration einer Nachtlüftung, kann eine Absenkung der Tem-peraturen und folglich der Stundenanzahl über den Grenzwerten erreicht werden. Ein thermischer Komfort basierend ausschließlich auf passiven Maßnahmen kann nicht für sämtliche Standorte in der Zukunft gewährleistet werden.
In den letzten Jahren wurde den technischen Aspekten der Datenanalyse viel Aufmerksamkeit gewidmet, den organisatorischen Implikationen jedoch nur wenig, was dazu geführt hat, dass eine Reihe von Unternehmen nicht in der Lage war, den vollen Nutzen aus ihren Data Analytics-Investitionen zu ziehen was u.a. dazu führte das die Potenziale von Data Analytics nicht vollständig ausgeschöpft wurden. Ziel dieser Arbeit ist es, die organisatorischen Herausforderungen aus der Sicht des Managements, der Kultur und der Organisation zu beleuchten und unter der theoretischen Orientierung des „Dynamic Capability View“ die Haupttreiber für die organisatorische Verankerung von Data Analytics zu beleuchten, um die Potenziale der evidenzbasierten Entscheidungsfindung in einer datengetriebenen Organisation voll auszuschöpfen. Die Literaturarbeit zu Data Analytics und ihren organisatorischen Auswirkungen, die auf der Grundlage einer theoretisch-konzeptionellen Forschungsarbeit durchgeführt wurde, zeigt, dass es in diesem Kontext eine Vielzahl von Parametern gibt, die sich gegenseitig beeinflussen. Diese Studie hat gezeigt, dass Unternehmen einen ganzheitlichen Ansatz verfolgen müssen, um die Vorteile der modernen Data-Analytics-Methoden voll ausschöpfen zu können. Die Ergebnisse deuten darauf hin, dass die Hauptantriebskräfte für Datenanalysefähigkeiten gut ausgebildete Manager mit einem ausgeprägten analytischen Verständnis sind, die von klar definierten evidenzbasierten Prozessen geleitet werden, welche in einer hoch kultivierten datengetriebenen Kultur eingebettet sind. Dies ist die Grundlage für Wettbewerbsvorteile in hochdynamischen Umgebungen und führt in weiterer Folge zu einem höheren Niveau der Wertschöpfung.
Die Umsetzung von Konzepten der Industrial Internet of Things (IIoT) stellt Unternehmen vor große Herausforderungen. Ein Kernaspekt dabei ist das Vernetzen maschineller und menschlicher Akteure, sodass sich diese gegenseitig verstehen und dadurch sinnvolle Entscheidun-gen treffen können. Dieses Verstehen setzt eine semantische Interoperabilität der Akteure voraus, die meist mithilfe von Ontologien und Ontologie Matching ermöglicht werden soll. Ziel dieser Arbeit ist es, die Grundkonzepte zum Ermöglichen semantischer Interoperabilität zusammenzufassen und aktuelle Anwendungsbeispiele und Herangehensweisen zu besprechen, um darauf aufbauend bestimmen zu können, wie weit Forschung und Unternehmen noch von der Umsetzung der semantischen Interoperabilität im Kontext der IIoT entfernt sind. Dazu wurde ein theoretisch-konzeptionelles Vorgehen gewählt. Die Ergebnisse der vorliegenden Arbeit weisen darauf hin, dass in naher Zukunft nicht mit einer erfolgreichen Umset-zung zu rechnen ist, welche generisch genug ist, in unterschiedlichen Bereichen der IIoT eingesetzt zu werden. Dafür konnte gezeigt werden, dass sich mehrere, mitunter gegenseitig beeinflussende Trends in der Herangehensweise zur Lösung der semantischen Interoperabilität ausgebildet haben, nämlich hybride Alignmentarchitekturen, ein modularer Aufbau von Ontologien, das Erstellen von maschinenlesbaren Standards und dazu gehörenden Ontologien sowie ein Trend zur Verwendung von Wissensgraph Embeddings. Besonders der letzte Trend ist dabei kritisch zu betrachten. Darüber hinaus konnten in dieser Arbeit offene Problemfelder bestimmt werden, die aus derzeitiger Sicht einer erfolgreichen Umsetzung semantischer Interoperabilität entgegenstehen. Dies betrifft einerseits das Fehlen einer Harmonisierung von IIoT-Standards und andererseits den Mangel an Alignmentdatenbanken und Benchmarks für Ontologie Alignments im Bereich der IIoT. Darüber hinaus bedarf es eines abgestimmten, strategischen Vorgehens der derzeit laufenden und zukünftigen Initiativen, um vorhandene Erkenntnisse besser zu nutzen und um sich wiederholende Probleme nachhaltig zu lösen.
This thesis focuses on implementing and testing communication over a private 5G standalone network in an industrial environment, with a specific emphasis on communication between two articulated robots. The main objective is to examine machine-to-machine communication behavior in various test scenarios. Initially, the 5G core and radio access network components are described, along with their associated interfaces, to establish foundational knowledge. Subsequently, a use case involving two articulated robots is implemented, and essential metrics are defined for testing, including round-trip time, packet and inter-packet delay, and packet error rate. The tests investigate the impact of 5G quality of service, packet size, and transmission interval on communication between the robots, focusing on the effects of network traffic. The results highlight the significance of prioritizing network resources based on the assigned quality of service identifier (5QI), demonstrate the influence of packet sizes on communication performance, and underscore the importance of transmission intervals for automation purposes. Additionally, the study examines how network disturbances influence the movements of a robot controlled via 5G, establishing a direct relationship between network metrics and the resulting deviations in the robot’s trajectory. The work concludes that while machine-to-machine communication can be successfully implemented with 5G SA, tradeoffs must be carefully considered, especially concerning packet error rate, and emphasizes the importance of understanding the required resources before implementation to ensure feasibility. Future research directions include investigating network slicing, secure remote control of robots, and exploring the use of higher frequency bands. The study highlights the significance of aligning theoretical standards with practical implementation options in the evolving landscape of 5G Networks.
New Work 2025–2030
(2023)
Unternehmen stehen vor der Herausforderung, durch passende Arbeitsbedingungen die bestehenden Mitarbeitenden zu binden und neue Talente zu finden. Eine mögliche Lösung für diese Herausforderungen kann ‚New Work‘ sein. Es ist notwendig zu verstehen, was New Work für die Region Vorarlberg bedeutet und was bei der Konzeption von neuen Arbeitsbe-dingungen zu berücksichtigen ist. Das Ziel der vorliegenden Arbeit ist es, eine Antwort auf die Frage zu finden, was New Work für die Region Vorarlberg in den Jahren 2025–2030 bedeutet und eine entsprechende Standortbestimmung durchzuführen. Dazu wird die folgende Forschungsfrage vertieft untersucht: ‚Was bedeutet New Work für die Region Vorarlberg in den Jahren 2025–2030?‘ Die Vertiefung dieser Fragestellung erfolgt über weitere Unterfragen. Um Antworten auf die Forschungsfrage zu erhalten, wurde ein Mixed-Methods-Ansatz gewählt. Für eine Standortbestimmung zum Thema ‚New Work‘ in Vorarlberg wurden im ersten Schritt Befragungen zweier Fokusgruppen, als qualitativer Teil der Forschung, durchgeführt. Die Ergebnisse dieser Befragung wurden ausgewertet. Aus den Ergebnissen und dem theoretischen Input wurden Hypothesen sowie ein Fragebogen zur quantitativen Untersuchung erstellt. Die qualitative Forschung ist die Grundlage für die anschließende quantitative Untersuchung. Durch diese Vorgehensweise sind sowohl eine Vertiefung und eine Ergänzung der qualitativen als auch der quantitativen Daten möglich. Die Ergebnisse zeigen, dass New Work ein generationenübergreifendes Thema ist. Es gibt keine nennenswerten Unterschiede zwischen den Generationen. Jedoch gibt es Unterschiede zwischen jüngeren und älteren Personen bezüglich der unterschiedlichen New-Work-Methoden. Die Antworten zeigen auf, dass es vor allem zwischen Frauen und Männern Unterschiede in den Vorstellungen der Arbeitsbedingungen gibt. Frauen legen vor allem Wert auf Flexibilität, psychologisches Empowerment und motivationale Faktoren. Weiterführende Forschung im Bereich ‚New Work‘ könnte sich mit den Unterschieden zwischen Frauen und Männern befassen und was die passenden Rahmenbedingungen sind, um die Leistung und Motivation dieser beiden Personengruppen zu steigern.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.
In einer Zeit allgegenwärtiger Online-Interaktionen sind Datenschutzbedenken für Nutzer:innen von sozialen Medien und Messenger-Diensten zu einem wichtigen Thema geworden. Obwohl es wichtig ist, die Inhalte von Datenschutzrichtlinien bzw. Datenschutzerklärungen zu erfassen, haben Benutzer:innen Schwierigkeiten, den Umfang, die komplexe Rechtssprache und die technischen Details in diesen Dokumenten zu verstehen. Dies führt dazu, dass sie sich diesen Datenschutzrisiken, die mit ihren Online-Aktivitäten verbunden sind, nicht bewusst sind. Diese Masterarbeit beschäftigt sich mit der Frage, inwieweit Informationen von Social-Me- dia-Datenschutzrichtlinien durch eine einheitliche Struktur einem breiten Nutzer:innenkreis leichter zugänglich gemacht werden können. Diese sollen dabei nicht nur gekürzt, sondern durch den Einsatz gestalterischer Mittel vereinfacht, sprich simplifiziert, werden, ohne den jeweiligen Inhalt zu verfälschen. Die Studie wird einen benutzer:innenzentrierten Designansatz verwenden, der die Zusammenarbeit von Teilnehmer:innen mit unterschiedlichen demografischen Merkmalen und unterschied- lichen technologischen Kompetenzniveaus beinhaltet. Durch einen iterativen Prozess wird ein Zeichensystem in Form verschiedener Icons entworfen, verfeinert und bewertet, um die effektivsten Formate für die Übermittlung von Datenschutzinformationen zu ermitteln. Hierbei spielen wahrnehmungspsychologische Aspekte eine wesentliche Rolle. Um die Auswirkungen der Visualisierungen auf das Bewusstsein und das Verständnis der Datenschutzerklärungen der Benutzer:innen zu bewerten, wird ein gemischter Methodenansatz eingesetzt. Quantitative Daten werden durch Befragungen vor und nach der Intervention gesammelt, um das Wissen und Verständnis der Teilnehmer:innen über Datenschutzkonzepte zu bewerten. Darüber hinaus werden durch Interviews und der Erstellung sowie des Testings eines Prototypens qualitative Daten gesammelt, um tiefere Einblicke in die Wahrnehmungen und Erfahrungen der Teilnehmer:innen zu gewinnen. Für die Umsetzung des Prototypens ist eine Webseite angedacht, die Nutzer:innen einen Überblick der wichtigsten Inhalte der Datenschutzrichtlinien ermöglicht und in reduzierter Form, durch den Einsatz von Icons, darstellt (z. B. Was wird gesammelt? Welche Risiken sind damit verbunden? usw.). Die Ergebnisse dieser Forschungsarbeit werden zum Bereich der Informationsvisualisierung beitragen, indem sie Strategien ermöglicht, um komplexe Datenschutzerklärungen zu vereinfachen und sie für Nutzer:innen sozialer Medien und Messenger-Dienste zugänglicher zu machen. Durch die Förderung des Bewusstseins und des Verständnisses für Datenschutzpraktiken soll die Zielgruppe in die Lage versetzt werden, fundierte Entscheidungen bezüglich ihrer persönlichen Daten zu treffen und Datenschutzrisiken zu mindern. Die Entwicklung benutzer:innen-freundlicher bzw. menschenzentrierter Datenschutzschnittstellen fördert dabei nicht nur die Transparenz, sondern auch das Vertrauen in neue Technologien und Medien. Zusammenfassend setzt sich diese Masterarbeit mit der entscheidenden Herausforderung, das Datenschutzbewusstsein durch Vereinfachung und Visualisierung von Datenschutzrichtlinien sozialer Medien zu stärken. Durch die Kombination von Prinzipien der Informationsvisualisierung mit den teils schwer zugänglichen Inhalten dieser Texte versucht diese Arbeit, die Lücke zwischen dem Verständnis/Bewusstsein der Nutzer:innen und den rechtlichen Komplexitäten zu schließen und letztendlich eine datenschutzbewusstere digitale Gesellschaft zu fördern.
Die Gewinnung von motivierten und qualifizierten Mitarbeitenden stellt aufgrund verschiedenster aktueller Einflussfaktoren wie demografische Veränderungen oder der Fachkräftemangel eine große Herausforderung für das Recruiting dar. Eine umso wichtigere Rolle spielt daher die Bindung des Personals ans Unternehmen. Die interne Rekrutierung bietet in diesem Zusammenhang eine Möglichkeit, die im Unternehmen bereits vorhandenen Ressourcen zu nutzen, wobei sich im Vergleich zur externen Personalbeschaffung Chancen wie auch Risiken ergeben. Es haben sich kritische Erfolgsfaktoren gezeigt, die erkannt und in weiterer Folge berücksichtigt werden sollten. Diese sind für das Vorgehen beim internen Recruiting von Bedeutung, um möglichst das volle Potenzial ausschöpfen zu können. Im Rahmen dieser Masterarbeit wurde eine ausführliche Literaturrecherche durchgeführt, sodass in weiterer Folge eine Forschungsfrage abgeleitet werden konnte. Es wurden sieben Interviews mit ausgewählten HR-Expertinnen und HR-Experten geführt, die in Unternehmen arbeiten, die der Vorarlberger Industrie zugehörig sind. Anschließend wurden die Interviews nach der qualitativen Inhaltsanalyse ausgewertet. Im Zuge der Diskussion wurden die Interviewergebnisse der Literaturrecherche gegenübergestellt, wobei die Forschungsfrage beantwortet werden konnte. Schlussendlich wurden Handlungsimplikationen für das interne Recruiting abgleitet. Die Forschungsergebnisse deuten darauf hin, dass es im Hinblick auf die interne Rekrutierung verschiedene Erfolgsfaktoren gibt, die Unternehmen für das eigene Vorgehen berücksichtigen können. Dazu zählen beispielsweise die Bedeutung der Kommunikation während des gesamten Prozesses – Kündigungsfristen und Übergabeprozesse sollten ausreichend besprochen und umfassend geplant werden. Zudem ist es hilfreich, interne Absagen mit Bedacht auszusprechen und sachliche Gründe aufzuzeigen. Auch die involvierten Führungskräfte spielen im gesamten internen Personalbeschaffungsprozess eine bedeutende Rolle. Darüber hinaus haben sich weitere Aspekte gezeigt, die für das Vorgehen beim internen Recruiting von Bedeutung sind.
Minuten können in medizinischen Notfällen unmittelbar die Anwendbarkeit von Behandlungsmethoden, das Ausmaß von bleibenden Einschränkungen sowie die Überlebenschancen beeinflussen. Doch hat das präklinische Notfallmanagement heute mit steigenden Einsatzzahlen, zunehmenden Einsätzen ohne Dringlichkeit und dem demografischen Wandel bei gleichzeitigem Fachkräftemangel zu kämpfen. Entsprechend gewinnt das Prozessmanagement zur Gestaltung effizienter Rettungsketten an Bedeutung. Vor diesem Hintergrund ging die vorliegende Arbeit der Frage nach, welche Potentiale die Datenanalytik in vernetzten Rettungsketten für das Prozessmanagement hat, um wertvolle Zeit zu gewinnen. Zudem wurden die Herausforderungen der Datenanalytik in diesem Bereich betrachtet. Zur Beantwortung der Forschungsfrage wurde dabei eine theoretisch-konzeptionelle Vorgehensweise gewählt. Die Untersuchung zeigte, dass die Potentiale der Datenanalytik in diesem Kontext in der Entscheidungsunterstützung zur Standortwahl, zur Kapazitätsplanung und in der Abwicklung von Notfällen liegen. Zudem könnte diese bei der Prozessanalyse, sowie der Prävention und Vermeidung von Einsätzen unterstützen. Dahingegen liegen die Herausforderungen in der Notwendigkeit einer übergeordneten Strategie, der hinreichenden Datenqualität und Verfügbarkeit der Daten. Darüber hinaus bestehen Herausforderungen im Bereich der IT-Sicherheit und des Datenschutzes, sowie der oft fehlenden Vernetzung. Zusammenfassend wären die Potentiale der Datenanalytik zur Optimierung der Zeit in Rettungsketten vielversprechend, jedoch stehen dem Einsatz dieser aktuell noch eine Vielzahl an Herausforderungen gegenüber.
Die vorliegende Arbeit setzt sich mit Forschungstrends im Bereich der Entscheidungsfindung von Manager:innen auseinander. Dabei stehen komplexe Entscheidungen im Vordergrund. Im theoretischen Teil erfolgte eine Einführung in die Entscheidungstheorie. Anschließend wird die Funktion des Managements als Entscheidungsträger:in thematisiert. Anhand einer vertieften Literarturrecherche wurde eine Trendanalyse durchgeführt, um herauszufinden, welche Themenbereiche besonders viel Aufmerksamkeit in der Forschung über komplexe Managemententscheidungen erlangt haben. Herausgefunden wurde, dass besonders multikriterielle Entscheidungsmethoden beforscht wurden. Es wurde häufig im Bereich Energiewirtschaft, Nachhaltigkeit und Klimawandel geforscht, da hier die Voraussetzungen für komplexe Entscheidungen gegeben sind. Neben mathematisch fundierten Methoden kommen auch heuristische Ansätze zur Komplexitätsreduktion zur Anwendung, lässt sich aus den Forschungsergebnissen ableiten. Insgesamt wurden 12 Trends identifiziert, die sich teilweise überschneiden. Aus den gesichteten Forschungsarbeiten ließen sich Handlungsempfehlungen ableiten, die in einem eigenen Kapitel präsentiert werden.
Lack of transparency and traceability of products and their raw materials means that most products can only be thrown away or not properly recycled due to a lack of relevant data. This conflicts with the circular economy principles, which are demanded by several initiatives, including the European Union. The aim of this master thesis is to analyze this conflict and to propose a technical solution based on Distributed Ledger Technology that enables transparency and traceability of products and their materials. Therefore, the thesis addresses two central research questions: 1. How can traceability and transparency be enabled by integrating a DLT solution? 2. How would a prototype with the integration of smart contracts and DLT look like? To answer these questions, a blockchain solution is implemented using Hyperledger Fabric. The solution uses the immutability and decentralized nature of DLT to record and track the movement of products and their materials throughout their life cycle in the Circular Economy. Furthermore, with private data collections, confidentiality, and privacy are granted while ensuring transparency. The thesis contributes to the Circular Economy field by exploring the principles, models, and challenges of the Circular Economy and the circularity goals of a Digital Product Passport to develop a suitable technical solution. The chosen blockchain framework, Hyperledger Fabric, is presented, and its key components and features are highlighted. The thesis also delves into the design decisions and considerations behind the Digital Product Passport platform, explaining the architecture and transaction flow together with the prototype implementation and demonstration to showcase the functionality of the solution. Results and analysis provide insights into the challenges of the Circular Economy, sustainable resource management, and the Digital Product Passport, resulting in recommendations for future improvements and enhancements. Overall, this thesis offers a practical solution utilizing DLT to enable transparency and traceability in the Circular Economy, contributing to the realization of sustainable and efficient resource management practices to ultimately contribute to the set Circular Economy initiatives.
Der stationäre Handel ist von zunehmenden Unsicherheiten gekennzeichnet, wobei die wachsende Verlagerung des Einkaufs auf die digitalen Vertriebskanäle dabei eine zentrale Rolle spielt. Jenen Entwicklungen kann mitunter mit der Einführung eines Omnichannel-Geschäftsmodells entgegengewirkt werden, wodurch der Fortbestand der stationären Geschäfte unterstützt werden kann. Für die Omnichannel-Etablierung ist eine Umstrukturierung des Handels essenziell, vielfach hängt dies mit einer Neuausrichtung der Geschäftsarchitektur zusammen. In diesem Kontext werden die relevanten Geschäftsprozesse in Frage gestellt und gegebenenfalls neu definiert. Das Hauptziel dieser Arbeit war es daher, auf Basis einer theoretisch-konzeptionellen Methodik herauszufinden, wie der stationäre Handel durch die Ausrichtung der Geschäftsprozesse an einem Omnichannel-Geschäftsmodell langfristig und nachhaltig optimiert werden kann. Anhand der Ergebnisse konnte ein Leitfaden entwickelt werden, welcher sich an EinzelhändlerInnen richtet und bei der Omnichannel-Transformation Unterstützung gewährleisten soll. Aus den durchgeführten Analysen wurden schließlich dezidierte Fokuspunkte abgeleitet, denen in der Transformationsphase besondere Aufmerksamkeit zu schenken gilt. Hierzu zählt nicht nur die IT-Landschaft und die Datenanalytik, sondern auch die Organisation samt den involvierten Personen und den entsprechenden Kompetenzen. Die Berücksichtigung aller Aspekte kann die Chancen einer erfolgreichen Omnichannel-Integrierung erhöhen, aber aufgrund der Komplexität nicht garantieren.
Die Masterarbeit befasst sich mit der Neugestaltung öffentlicher Räume. Anhand einer qualita-tiven Studie wird die Parkanlage Superkilen, Kopenhagen untersucht. Es wird die Frage nachgegangen, ob Superkilen aus der Perspektive der postmigrantischen Gesellschaft und der Sozialraumarbeit als ein gelungenes Beispiel gilt. Als Datengrundlage der Analyse dienen ein systematisches Review und eine teilnehmende Beobachtung. Die Analyse erfolgt anhand einer qualitativen Inhaltsanalyse. Die induktiv herausgearbeiteten Codes werden anhand des St. Galler Modells dargelegt. Die Ergebnisse zeigen, dass die Grundidee der Gestalter:innen, nämlich die Vielfalt des Viertels durch konkrete internationale Objekte darzustellen, nicht mit der Lebenswelt der Bewohner:innen übereinstimmte. Unterschiedliche Grundverständnisse in Bezug auf Kultur und Diversity wurden hierbei erkannt. Gleichzeitig zeigen sich spielerische Designelemente als besonders förderliche Faktoren für alltägliche Begegnungen in Superkilen und Aneignungen finden statt. Die interkulturelle Soziale Arbeit kann mit ihrer Differenzsensi-bilität und ihrem Fokus auf die unmittelbare Lebenswelt von Menschen als Profession und Disziplin zur Bearbeitung dieser Thematik beitragen.
A rapid change to remote work during the beginning of the Covid-19 pandemic allowed many organizations to roll out new collaboration platforms to rapidly digitalize their workflows and processes in order to continue operation. This sudden shift to remote work revealed to employees the potential benefits of working remotely in the form of additional flexibility and also showed the challenges and barriers organizations could face by introducing such a strategy. This thesis aims to uncover the key considerations that the organizations of the industrial sector in Vorarlberg need to consider establishing a remote work strategy. According to the results from the research, the Covid-19 pandemic was as a paradigm change for the interviewed decision makers about how they thought about remote work and how they transformed their respective organizations too continue to operate. After the initial phase of Covid-19 restrictions organizations started to experiment with a remote work strategy of their own, based on their past experiences. For now, most of the interviewed organizations use already different remote work concepts and evaluate which one suits best their needs. The main considerations as to why an organization introduced a remote work strategy are to be an attractive employer and to stay ahead in the search for new talent. Further by introducing a remote work strategy, organizations need to change their rules of collaboration, adapt their core values to fit a remote workplace and to introduce collaboration platforms which are designed to support a remote workforce.
Das Wärmequartier wird als entscheidende räumliche Einheit betrachtet, um Effizienzsteigerungen zu ermöglichen. Dabei spielt die Nutzung regionaler Wärmequellen eine wichtige Rolle, um den steigenden Energiebedarf der Menschheit zu decken. Neben der vielversprechenden Nutzung der Erdwärme durch eine Erdwärmepumpe werden in Uferregionen zunehmend Seewasserwärmepumpen eingesetzt, denn diese nutzen die thermische Energie aus dem See, um den Heiz- und Kühlbedarf zu decken. Dabei ist der geschlossene Kreislauf im Vergleich zu dem offenen Kreislauf weniger effizient, aber dafür stabiler und zuverlässiger, da der Wärmeübertrager im See Vereisungs- und Korrosionsprobleme abmildern kann. Aus diesem Grund werden zunehmend Überlegungen an einem in den See eingetauchten Wärmeübertrager angesetzt. Allerdings wird dieses Potential im deutschsprachigen Raum kaum ausgeschöpft. In dieser Studie erfolgt anhand eines Referenzgebäudes eines Wärmequartiers ein simulativer Vergleich eines Erdwärmepumpensystems mit Erdsonden und eines Seewasserwärmepumpensystems mit einem in den See eingetauchten Rohrbündelwärmeübertrager. Für den Rohrbündelwärmeübertrager wurde die Auswirkungen von einer sich veränderten Übertragungsfläche auf die Effizienz analysiert und optimale Eigenschaften definiert. Der Effekt von einem veränderten Nennvolumen der Pufferspeicher auf die Effizienz, die Heizzyklen und die Vorlauftemperatur der Fußbodenheizung und Brauchwarmwassers wurde untersucht. Die Folgen von Temperaturänderungen des Erdreichs und des Seewassers auf die Effizienz des Gesamtsystems wurde zudem betrachtet. Die Ergebnisse zeigen, dass die Systemeffizienz durch die Übertragungsfläche und das Verhältnis zwischen Rohrbündelanzahl und -länge verbessert werden kann. Weitere Ergebnisse zeigen, dass die Seewasserwärmepumpe empfindlicher auf Temperaturänderungen der Wärmequelle reagiert als die Erdwärmepumpe. Es wurde ein abschließender jährlicher Vergleich basierend auf den Erkenntnissen aus den Analysen zu dem Rohrbündelwärmeübertrager und dem Nennvolumen der Pufferspeicher mit dem bestehenden geothermischen Referenzsystem durchgeführt. Die Untersuchung der Ergebnisse ergab, dass die Jahresarbeitszahl der Erdwärmepumpe für die Trinkwassererwärmung höher als die der Seewasserwärmepumpe ist. Für den Heizbetrieb wurde eine geringfügig höhere Jahresarbeitszahl bei der Erdwärmepumpe festgestellt. Dafür ist die Seewasserwärmepumpe robuster hinsichtlich der Effizienz und zuverlässiger bezüglich der Wärmebedarfsdeckung von Heizwärme- und Brauchwarmwasserbedarf.
This thesis evaluates the feasibility of conducting visual inspection tests on power industry constructions using object detection techniques. The introduction provides an overview of this field’s state-of-the-art technologies and approaches. For the implementation, a case study is then conducted, which is done in collaboration with the partner company OMICRON Electronics GmbH, focusing on power transformers as an example. The objective is to develop an inspection test using photographs to identify power transformers and their subcomponents and detect existing rust spots and oil leaks within these components. Three object detection models are trained: one for power transformers and sub-components, one for rust detection, and one for oil leak detection. The training process utilizes the implementation of the YOLOv5 algorithm on a Linux-based workstation with an NVIDIA Quadro RTX 4000 GPU. The power transformer model is trained on a dataset provided by the partner company, while open-source datasets are used for rust and oil leak detection. The study highlights the need for a more powerful GPU to enhance training experiments and utilizes an Azure DevOps Pipeline to optimize the workflow. The performance of the power transformer detection model is satisfactory but influenced by image angles and an imbalance of certain sub-components in the dataset. Multi-angle video footage is a proposed solution for the inspection test to address this limitation and increase the size of the dataset, focusing on reducing the imbalance. The models trained on open-source datasets demonstrate the potential for rust and oil leak detection but lack accuracy due to their generic nature. Therefore, the datasets must be adjusted with case-specific data to achieve the desired accuracy for reliable visual inspection tests. The results of the case study have been well-received by the partner company’s management, indicating future development opportunities. This case study will likely be a foundation for implementing visual inspection tests as a product.
Programmable Logic Controller (PLC) modules are used in industrial settings to control and monitor various manufacturing processes. Detecting these modules can be helpful during installation and maintenance. However, the limited availability of real annotated images to train an object detector poses a challenge. This thesis aims to research object detection of these modules on real images by using synthetic data during training. The synthetic images are generated from CAD models and improved with Generative Adversarial Networks (GANs). The CAD models are rendered in different scenes, and perfectly annotated images are automatically saved. A technique called domain randomization is applied during rendering. It renders the modules in different poses with constantly changing backgrounds. As the CAD models do not visually resemble the real modules, it is necessary to improve the synthetic images. This project researches StarGAN and CycleGAN for the task of image-to-image translation. A GAN is trained with real and synthetic images and can then translate between these domains. YOLOv8 and Faster R-CNN are tested for object detection. The best mean Average Precision (mAP) is achieved when training with a synthetic dataset where 50% of the images were improved with StarGAN. When trained with YOLOv8 and evaluated on a real dataset, it achieves a mAP of 84.4%. Overall, the accuracy depends on the quality of the CAD models. Using a GAN improves the detection rate for all modules, but especially for unrealistic CAD models.
Scrum has been a prominent project management framework for managing software development projects. The scrum team embodies values such as commitment, focus, respect, courage, and openness to develop trust, which serves as the foundation of the scrum framework. However, in recent years, scrum teams are shifting towards a work-from-home environment which is relatively new to most of them and known to present various challenges. Looking at the benefits of adhering to scrum values, this study aims to investigate the challenges scrum teams experience in adhering to scrum values while operating virtually, as well as to explore practical strategies to overcome the identified challenges, particularly during the storming stage of team development. This research employed a qualitative methodology using semi-structured interviews with scrum team members who have experience working in a virtual environment. Through qualitative content analysis of semi-structured interviews, this research identifies significant challenges within five main categories: communication, collaboration, interpersonal dynamics, the virtual work environment, and personal workspace issues. However, beyond the challenges, the study reveals practical strategies as well for successful team dynamics and higher efficiency. The strategies derived from team members' experiences are categorized into six categories: enhanced meeting management, leveraging in-person engagements, optimizing tools & technology, effective communication strategies, team-building, and nurturing a positive work culture.
Validierung der Stromnetzberechnungsansätze anhand realer Messungen in der Niederspannungsebene
(2023)
Die politischen Ziele der Energiewende und insbesondere der zunehmende Ausbau der Elektromobilität führt zu steigenden Belastungen in den Niederspannungsnetzen. Eines der Hauptprobleme besteht darin, dass die genauen Informationen über den Zeitpunkt und die Dauer der Ladevorgänge fehlen, was eine präzise Bestimmung des Netzzustandes erschwert - auch deshalb, weil dieser durch die statische Netzberechnung erhoben wird, welche weitestgehend auf Annahmen und nicht zeitreihenbasierten Werten beruht. Im Folgenden wird daher untersucht, wie groß die Abweichungen der Niederspannungsparameter zwischen Trafostation und letztem Kabelverteilschrank bei realen Messungen im Winter im Vergleich zur statischen Worst-Case Berechnung sind. Weiters wird ermittelt, welche Änderungen der Eingangsparameter zu einer Optimierung der Ergebnisse führen. Dafür werden reale Messungen in verschiedenen Niederspannungsspannungsnetzen realisiert und nach einer Analyse der Messergebnisse werden die Eingangsparameter für die Netzberechnung bestimmt. Auf Basis dieser Inputparameter werden vier verschiedene Szenarien gebildet und die Berechnung mit diesen Szenarien durchgeführt. Anschließend werden die Berechnungsergebnisse mit den Messergebnissen verglichen. Der Vergleich der Methoden zeigt, dass die Berechnung den Worst-Case-Fall im Netz sehr realistisch abbildet. Jedoch ist aufällig, dass dieser Fall nur selten vorkommt und die betrachteten Verteilernetze zum größten Teil viel geringer belastet sind. Die 95%-Szenario-Betrachtungen zeigen, dass eine Vernachlässigung der selten vorkommenden Ausreißer zu einer Änderung der Eingangsparameter und einer Optimierung der Netzberechnung führt. Aus der Untersuchung geht zusätzlich hervor, dass die Annahme des Leistungsfaktors cos ϕ mit 0,90 zu niedrig angesetzt ist. Es kann festgehalten werden, dass sich dieser bei allen Netzen zwischen 0,999 und 0,990 befindet. Dieser Eingangsparameter für die statische Worst-Case-Berechnung kann aufgrund der gewonnenen Erkenntnisse optimiert werden.
Purpose: In this thesis the viable system model (VSM) is used as a framework to develop a model for the management of a business alliance that contains the necessary and sufficient conditions for maintaining synergy of its constituent organisations and for adapting to a changing environment so that it can remain a long-term viable alliance. In addition, a model is developed that makes explicit the inherent link between the VSM and the core elements of knowledge management theory. Based then on the alliance management model and the link established between the VSM and knowledge management, an application framework is developed to guide practitioners in defining necessary alliance management functions and relationships, the knowledge required by that management to fulfill those functions, and the processes that need to be in place to manage that knowledge. Design/strategy: The research has been divided into four phases: theoretical construction, refinement with practitioners, real-world application, and evaluation of test case and toolset. The researcher has worked closely with practitioners actively involved in the formation of a new international alliance to develop a VSM model and application framework for the alliance management. Formally, the research strategy has been defined as an action research and the research philosophy as one of pragmatism. Findings/limitations: The developed application framework, has been successfully used to identify absent and incomplete roles, actions, and interactions within the management of the specific alliance test case. This has helped to demonstrate how the application framework and VSM model can be used to diagnose and, most importantly, to articulate and visualise management deficiencies to facilitate clear and unambiguous discussions. The timing of this cross-sectional research did not allow the application framework to be utilised from the outset of the alliance formation as an organisational planning tool and also not to its full extent to support the development of knowledge processes for the alliance management. However, the step-by-step approach used in developing the toolset and then explaining its application will allow the reader to judge its credability and generalisability for other practical applications. Practical implications: The developed toolset consists of a VSM for an alliance management, job descriptions for that management (responsibilities, interfaces, and core competencies), a visual model illustrating the link between the VSM and knowledge management, and an application framework to guide the filling of the alliance management job descriptions in phases of recruitment, onboarding, and development (of interfaces and activities processes). Overall, one could say that the conditions prescribed by the VSM are rather obvious and yet, as seen by the specific alliance test case, many of these conditions have been completely overlooked by a management that was more than capable, willing, and empowered to enact those conditions. This gives a good indication that the toolset which has been compiled in a visual and tabular systematic fashion may well be useful to practitioners for the organisational planning of an alliance management. The visual representation of a management role in the VSM as a set of knowledge episodes put forward by this research is significant. It forces the express recognition that knowledge management is an integral part of every interaction that takes place and every action performed that, according to the VSM, are necessary and altogether are sufficient for viability. It means that knowledge management cannot be considered as some abstract topic or unnecessary overhead or afterthought – it is entirely necessary, practical and forms a natural course of events during design of action/interaction processes. In other words, if an organisation is viable then, by definition, it does knowledge management whether or not it is formally recognised as such. The VSM, by defining necessary and sufficient actions and interactions for its roles, therefore provides a focus for relevant knowledge and serves as a tool for structured knowledge management. Originality/value: This research addresses a general academic call for hands-on insights of VSM applications by sharing real-world insights, artifacts and reflections generated by a practical and relevant organisational management application. It also addresses the potential, recognised by academics, for VSM as a framework for knowledge management by developing an intuitive model linking those theories and then using that model as part of a framework to guide its application. The introduction to aspects of knowledge management theory relevant to the model developed as well as the meticulousness and comprehensive explanation of the VSM provides a solid theoretical foundation for practitioners. The developed toolset is based on existing theories from multiple fields of research that have been logically linked and extended in an original and novel manner with a strong focus on practical application. This researcher’s hope is that this will stimulate interest for future research and practical application from academics and practitioners alike.
The implementation of direct-to-consumer (D2C) business models has become more important for companies trying to develop a competitive edge and improve consumer engagement in today's rapidly expanding e-commerce market. This master's thesis investigates the important success elements and problems of deploying D2C models in the e-commerce business. The research question focuses on identifying the factors that contribute to the successful transition to D2C models and the obstacles businesses encounter along the way. Through qualitative research using the Eisenhardt method and in-depth case studies with industry experts, this study provides valuable insights into key success factors for direct-to-consumer (D2C) business models in e-commerce.The findings highlight that businesses that effectively implement D2C models utilize key success factors such as a clear value proposition, customer engagement and relationship build- ing, seamless online experiences, targeted marketing and digital advertising, brand identity and storytelling, and flexibility and adaptability. However, they also face challenges related to operational adjustments, marketing and branding investments, competition, and market saturation. Based on these research outcomes, this thesis provides recommendations for businesses seeking to switch to or implement D2C models in e-commerce. These recommendations emphasize embracing a customer-centric mindset, developing digital capabilities, foster- ing strong leadership commitment, leveraging data and analytics, establishing direct customer relationships, optimizing operational processes, building brand trust and credibility, and allocating resources wisely. This master's thesis provides a comprehensive analysis of the key success factors and challenges associated with the transition to or implementation of D2C business models in the e-commerce industry. It provides advice to help companies successfully transition to D2C models.
Die aktuell eingesetzte Word-Antragsvorlage zur Erstellung und Einreichung von Ethikanträgen für die Forschungsethik-Kommission der Fachhochschule Vorarlberg entspricht nicht mehr den Anforderungen und Wünschen der Anwender:innen. Neben technischen Limitierungen stellen vor allem die eingeschränkten Möglichkeiten den Grund dar, weshalb anhand der Prinzipien sowie der vier Phasen des User-Centered Designs eine Software-Lösung ausgearbeitet wurde, die das bestehende System langfristig ablösen können soll. Die einzelnen Kapitel dieser Arbeit entsprechen jeweils einer der vier Phasen und stellen als Ganzes eine vollständig abgeschlossene Iteration des Prozesses dar. Die durchgeführte Analyse der Nutzerkontexte basiert auf der Aufarbeitung der Kriterien der Forschungsethik und vor allem einer detaillierten Analyse des bestehenden Systems und Prozesses der Forschungsethik-Kommission. Neben der Funktionsweise und dem inhaltlichen Aufbau werden im Zuge dessen gleichzeitig die Stärken und Schwächen erläutert. Ebenso findet eine breite Analyse von anderweitigen Systemen und Prozessen von Ethikkommissionen innerhalb Österreichs statt, um den Stand der Technik zu erheben. Die anschließende Definition von konkreten Anforderungen basiert auf der Umsetzung einer qualitativen Inhaltsanalyse der durchgeführten Interviews nach Kuckartz. Insgesamt können dabei neun Anforderungen definiert werden, die unterschiedlich priorisiert größtenteils in der eigens entwickelten EthicsVision Plattform umgesetzt werden konnten. Zum Einsatz kommen dabei sowohl Docker als auch das Symfony-Framework und die Angular-Plattform. Die abschließende Evaluation des Prototyps basiert auf Feedback der Antragsteller:innen und der Forschungsethik-Kommission. Der Proof of Concept wird dabei als gute Basis wahrgenommen, während bereits diverse Weiterentwicklungsmöglichkeiten aufgezeigt werden können. Das Ziel der Arbeit, die Neuentwicklung des Ethikantrag-Tools zu bewerkstelligen, konnte erreicht und ein Weg für die künftige Gestaltung des Prozesses aufgezeigt werden.
Die überdurchschnittlich hohe Akzeptanz von Frauen für Studiengänge der Veranstaltungsbranche
(2023)
Das ausgewiesene Ziel der vorliegenden Masterthesis ist die Formulierung eines möglichen, multiperspektivischen Erklärungsansatzes für die überdurchschnittlich hohe Akzeptanz von Frauen für Studiengänge der Veranstaltungswirtschaft. Das Resultat besteht in der Beantwortung der Hauptforschungsfrage: „Welche evidenten Gründe sind ausschlaggebend, dass sich mehr Frauen als Männer für ein duales Studium der Vertiefung ‚Betriebswirtschaftslehre – Messe-, Kongress- und Eventmanagement‘ an der Dualen Hochschule Baden-Württemberg Ravensburg entscheiden bzw. entschieden haben?“ Hierfür wurde die Strategie der Triangulation mit unterschiedlichen Methoden gewählt. Nach der Sekundärdatenrecherche wurden unabhängig voneinander qualitative Tiefeninterviews und eine standardisierte Online-Befragung mit direkter Fragestellung durchgeführt. Im Anschluss daran wurden die Einzelergebnisse als möglicher Erklärungsansatz zusammengefasst und interpretiert. Die Erkenntnisse zeigen, dass die Studienfachwahl eine Vielzahl unterschiedlicher Einflussfaktoren vorweist: Neben begrenzt rationalen Aspekten spielen die individuelle Persönlichkeit sowie die Interessen eine bedeutende Rolle. Des Weiteren könnte die Interaktion biologischer und soziokultureller Faktoren die Geschlechterverteilung erklären.
„Sozialraumarbeit“ und „Sozialraumorientierung“ sind Schlagworte der letzten Jahre, die die Wiederentdeckung des Sozialräumlichen nicht nur in der Sozialen Arbeit markieren. Das gesteigerte Interesse reicht weit über die Disziplin und Profession der Sozialen Arbeit hin-aus und findet ihren Niederschlag auch in der Sozialpolitik und Verwaltung, in kommunalen und regionalen Strukturen sowie in den Organisationen des Sozialwesens. Die Entstehungsgeschichte der Sozialen Arbeit in Vorarlberg ist eng verknüpft mit der sozialräumlichen Bearbeitung sozialer Probleme. Weniger Aufmerksamkeit in der Auseinandersetzung der letzten Jahre wird hierbei auf die Soziale Arbeit als Profession bzw. die Sozialarbeiten-den selbst gelegt. Die Studie soll hierzu im Hinblick auf die Gestaltung von kommunaler sowie sozialräumlicher Sozialer Arbeit und der Profession Soziale Arbeit einen Beitrag leisten. Grundlage der Studie ist die qualitative Inhaltsanalyse leitfadengestützter qualitativer Interviews mit Sozialarbeitenden der sozialräumlichen Sozialen Arbeit Vorarlbergs. Anhand der zentralen sowie theoretischen Dimensionen von Sozialer Arbeit und Konzepten der sozialräumlichen Sozialen Arbeit werden Faktoren für gelingende sozialräumliche Soziale Arbeit, im Speziellen im kommunalen Rahmen, sowie die Herausforderungen in der Praxis und als Profession identifiziert.
This thesis aims to determine how banks can prepare for fulfilling and implementing the IFRS S1 requirements, which have been published by the International Sustainability Standard Board. It also examines the extent to which banks in Liechtenstein and Switzerland have already implemented the existing regulatory requirements in the area of sustainability transparency and integrated them into their financial reporting. The focus is to determine whether, and to what extent, these requirements enable banks to disclose relevant information on sustainability aspects in their financial reports. In order to answer the research question appropriately, a qualitative research method according to Mayring was used, which included conducting expert interviews. In this context, it is important to analyze the possibilities of IFRS S1 concerning the identification, assessment, and disclosure of sustainability risks and opportunities. The thesis also analyzes the impact of the regulatory requirements on banks, including the challenges of implementing IFRS S1 and the potential benefits and opportunities for banks of complying with the sustainability transparency requirements. The results are intended to develop a better understanding of how the regulatory requirements for sustainability transparency can be effectively used by banks to improve the quality and comparability of sustainability-related financial information under IFRS S1.
Die vorliegende Masterarbeit untersucht die Rolle des Controllings für innovative Startups in Österreich, insbesondere in der Anfangsphase. Experteninterviews wurden durchgeführt, um Einsichten in die Herausforderungen, Chancen und Best Practices des Startup-Controllings zu gewinnen. Die gewonnenen Erkenntnisse wurden analysiert und in Kategorien zusammengefasst, um einen umfassenden Überblick über die wichtigsten Ergebnisse zu liefern. Die Arbeit betont die Bedeutung einer effektiven Controlling-Funktion für Startups, um fundierte Entscheidungen zu treffen, die finanzielle Leistungsfähigkeit zu verbessern und das langfristige Wachstum zu unterstützen.
Diese vorliegende Masterarbeit untersucht die Herausforderungen, vor denen kleine und mittlere Unternehmen (KMUs) stehen, um den künftigen ESG-Anforderungen (Umwelt, Soziales, Governance) von Banken bei der Kreditvergabe gerecht zu werden. Anhand einer umfassen-den Literaturanalyse sowie einer qualitativen Inhaltsanalyse mittels Experteninterviews werden verschiedene Aspekte beleuchtet, darunter bankenregulatorische Vorschriften, Auswirkungen der ESG-Implementierung auf Kreditkonditionen und Kreditwürdigkeit, Vorbereitungsstrategien für KMUs und abgeleitete Handlungsempfehlungen. Die Ergebnisse zeigen, dass eine Integration von ESG-Kriterien in den Kreditprüfungsprozess eine ganzheitlichere Bewertung der Rückzahlungsfähigkeit ermöglicht und positive Auswirkungen auf die Kreditwürdigkeit haben kann. Jedoch sind die praktischen Auswirkungen auf Kreditkonditionen und -entscheidungen noch begrenzt und erfordern weitere Untersuchungen. Die Arbeit verdeutlicht auch die Bedeutung von ESG-Kompetenzen, Datenmanagement und einer Anpassung der Geschäftsmodelle von KMUs, um den ESG-Anforderungen gerecht zu werden. Die Ergebnisse bieten wertvolle Erkenntnisse für KMUs, um proaktiv ESG-Aspekte zu berücksichtigen und zu managen.
Die vorliegende Masterarbeit untersucht die Auswirkungen der EU-Taxonomie auf das Controlling in Unternehmen. Die EU-Taxonomie stellt ein Klassifizierungssystem dar, das darauf abzielt, ökologisch nachhaltige wirtschaftliche Aktivitäten zu definieren und zu fördern. Im Rahmen dieser Arbeit wird analysiert, wie das Controlling von Unternehmen durch die Einführung der EU-Taxonomie beeinflusst wird und welche Herausforderungen und Chancen sich dadurch ergeben. Zunächst wird eine umfassende Literaturrecherche durchgeführt, um ein theoretisches Verständnis zum Thema Nachhaltigkeit und zur EU-Taxonomie sowie ihren Auswirkungen auf das Controlling zu entwickeln. Dabei wird auf relevante Studien, Richtlinien und Berichten eingegangen, um die aktuelle Diskussion in diesem Bereich zu erfassen. Im Anschluss daran werden qualitative Interviews mit Controlling-Experten ausgewählter Unternehmen durchgeführt. Diese Interviews dienen dazu, Einsichten in die konkreten Auswirkungen der EU-Taxonomie auf das Controlling zu gewinnen. Es werden Fragen zu Themen wie der Identifizierung nachhaltiger Aktivitäten, der Messung von Nachhaltigkeitskriterien und der Integration der EU-Taxonomie in bestehende Controlling-Prozesse gestellt. Die Analyse der erhobenen Daten erfolgt mittels qualitativer Inhaltsanalyse, um Muster, Themen und Schlüsselerkenntnisse zu identifizieren. Die Ergebnisse dieser Analyse werden anschließend interpretiert und in Bezug auf bestehende theoretische Ansätze und Modelle diskutiert. Die Ergebnisse liefern einen Einblick in die Auswirkungen der EU-Taxonomie auf das Controlling von Aktiengesellschaften und tragen zur aktuellen Diskussion über nachhaltiges Controlling bei. Da die EU-Taxonomie noch recht frisch ist, muss man auf weitere Einführungen sowie Anpassung warten, um die vollumfänglichen Auswirkungen zu spüren.
Im Vertriebscontrolling halten zunehmend Verfahren aus dem Bereich Predictive Analytics Einzug. Hierdurch verändern sich die klassischen Arbeitsweisen mehr und mehr. Doch welche Faktoren sind dabei zu berücksichtigen und welche Einsatzmöglichkeiten finden sich für Predictive Analytics im Umfeld des Vertriebscontrollings? Dieser Frage wird in der vorliegenden Arbeit nachgegangen. Hieraus ergibt sich das Ziel, Einsatzmöglichkeiten für Predictive Analytics im Vertriebscontrolling herauszustellen und Schlüsselfaktoren herauszuarbeiten, die in diesem Kontext zu berücksichtigen sind. Außerdem sollen diesbezügliche Handlungsempfehlungen benannt werden. Dabei liegt der Fokus auf der Branche des Maschinen- und Anlagenbaus. Um diese Forschungsfragen zu beantworten, wurde mittels einer Literaturanalyse ein Reifegradmodell erarbeitet, das die verschiedenen Reifegrade über die relevanten Dimensionen Daten, Technologie, Prozesse, Methoden und Kompetenzen darstellt. Zudem wurden Bei-spiele für die Nutzung der häufigsten Methoden aus dem Bereich Predictive Analytics im Controlling-Umfeld zusammengetragen. Vor diesem Hintergrund konnten die Schlüsselfaktoren für den erfolgreichen Einsatz von Predictive Analytics im Vertriebscontrolling abgeleitet wer-den. Des Weiteren wurde eine qualitative Befragung in Form von Experteninterviews durch-geführt, wobei die in den Interviews thematisierten Unternehmen in das genannte Reifegradmodell eingruppiert wurden. Es zeigten sich bei der Analyse im Allgemeinen niedrige Reifegrade in den Dimensionen Methoden, Kompetenz und Technologie. Hieraus ergeben sich die folgenden Handlungsempfehlungen: die Einführung geeigneter Software aus dem Predictive-Analytics-Bereich, eine erste Anwendung von Predictive-Analytics-Methoden sowie der Aufbau von Wissen in den Bereichen Data-Science und Business-Analytics in Form von Fortbildungsmaßnahmen. Werden diese Empfehlungen befolgt, kann in Unternehmen aus dem Maschinen- und Anlagenbau ein erfolgreicher Einsatz von Predictive Analytics im Vertriebscontrolling gelingen. Hierdurch wiederum können die betreffenden Unternehmen bei der Prognose zukünftiger Entwicklungen unterstützt und wertvolle Entscheidungshilfen erlangt werden, was in weitergehend Forschungsarbeiten aufgegriffen werden kann.
Die makroökonomischen Entwicklungen, insbesondere ausgelöst durch die Corona-Pandemie und den Ukraine/Russland-Krieg, stellen die Wirtschaftsakteure vor große Herausforderungen. Die Unsicherheiten im aktuellen Marktumfeld wirken sich auch auf Leveraged Buyout Transaktionen von Private Equity Investoren im deutschen Mittelstand und deren Finanzierungen aus. Ziel der Masterarbeit war es, die Auswirkungen dieser Entwicklungen auf die Akquisitionsfinanzierung durch Banken zu untersuchen und daraus Handlungsempfehlungen für Private Equity Investoren und Banken abzuleiten. Nach der Schaffung der theoretischen Grundlagen wurde für die empirische Untersuchung ein Mixed-Methods-Ansatz verfolgt, der die Durchführung von fünf Expert*inneninterviews und eine anschließende Online-Umfrage mit insgesamt 121 Teilnehmer*innen zur Verifizierung der qualitativen Ergebnisse und zur statistischen Überprüfung der gebildeten Hypothesen umfasste. Die Ergebnisse zeigen diverse Auswirkungen für den Finanzierungsprozess, die Strukturierung sowie die Syndizierung von Akquisitionsfinanzierungen, die aber je nach Branche, Geschäftsmodell und Transaktionsgröße unterschiedlich stark ausgeprägt sind.
Die gemeinsame Betrachtung der zwei Megatrends „Nachhaltigkeit“ und „Digitalisierung“ findet derzeit bedingt in Großunternehmen statt, wenngleich Tomorrow’s Leaders Vorreiterunternehmen in beiden Bereichen sein werden. Die Zielsetzung dieser Masterarbeit besteht darin, den Einfluss der Digitalisierung auf die nachhaltige Entwicklung bei ATX-, DAX- und SMI-Unternehmen zu untersuchen. Auf Basis eines Mixed-Methods-Ansatzes wird quantitativ der lineare Zusammenhang zwischen offengelegten Informationen im Bereich Digitalisierung und dem ESG-Rating bzw. dem Rating der einzelnen ESG-Dimensionen empirisch erforscht. Diese Resultate wurden mithilfe von Experteninterviews vertiefend validiert sowie mit Handlungsempfehlungen für die erfolgreiche Berücksichtigung von Digitainability in Großunternehmen erweitert. Anhand der Regressionsanalyse wurde jedoch kein signifikanter Zusammenhang zwischen offengelegten Digitalisierungsinformationen und dem ESG-Rating sowie E-, S- und G-Rating bzw. eine Scheinkorrelation aufgrund der Marktkapitalisierung als Indikator für die Unternehmensgröße festgestellt. Laut den Experteneinschätzungen sind diese Forschungsergebnisse nachvollziehbar, da Digitalisierung bei Großunternehmen lediglich als Hilfsmittel zur Umsetzung der Nachhaltigkeit wahrgenommen wird. Das aktive Zusammendenken beider Megatrends ist aber aufgrund des regulatorischen Drucks sowie der Wahrung der Wettbewerbsfähigkeit anzutreiben und zu pflegen, womit die formulierten Handlungsempfehlungen als Unterstützung für Großunternehmen dienen.
Activation of heat pump flexibilities is a viable solution to support balancing the grid via Demand Side Management measures and fulfill the need for flexibility options. Aggregators as interface between prosumers, distribution system operators and balance responsible parties face the challenge due to data privacy and technical restrictions to transform prosumer information into aggregated available flexibility to enable trading thereof. Thereby, literature lacks a generic, applicable and widely accepted flexibility estimation method for heat pumps,which incorporates reduced sensor and system information, system- and demand-dependent behaviour. In this paper, we adapt and extend a method from literature, by incorporating domain knowledge to overcome reduced sensor and system information. We apply data of five real-world heat pump systems, distinguish operation modes, estimate power and energy flexibility of each single heat pump system, proof transferability of the method, and aggregate the flexibilities available to showcase a small HP pool as a proof of concept.
Der Unternehmensbewertung kommt seit jeher ein hoher Stellenwert unter den Disziplinen der Betriebswirtschaftslehre zu. Obwohl die Unternehmensbewertung als gut erforschtes Fachgebiet bezeichnet werden kann, gibt es durchaus noch Teilbereiche, denen bisher noch keine ausreichende Beachtung geschenkt worden ist. Hierzu zählt insbesondere die Fragestellung, inwiefern Steuern Einfluss auf das Wertwachstum bei der Bewertung ausüben. Die vorliegende Arbeit versucht diesen Bereich durch eine umfassende Analyse näher zu beleuchten. Dabei werden zunächst die wichtigsten Grundlagen von Unternehmensbewertung, Wachstum und Steuern dargelegt. Die erlangten Erkenntnisse werden anschließend in einem Bewertungsmodell zusammengeführt und interpretiert. Es erfolgt dabei stets eine Gegenüberstellung der steuerlichen Rahmenbedingungen vor und nach der Unternehmenssteuerreform 2008. Um nicht nur den Bedürfnissen der Wissenschaft, sondern ebenfalls denen der Praxis gerecht zu werden, werden die Grundsätze zur Durchführung von Unternehmensbewertungen des Instituts der Wirtschaftsprüfer (IDW S 1) kritisch in die Analyse mit einbezogen.
In den letzten Jahren lässt sich insbesondere in den Industrienationen ein wachsendes Interesse für Umweltfragen feststellen. In der betriebswirtschaftlichen Praxis äußert sich dies in der Initiierung verschiedener unternehmerischer Umweltinitiativen, über die regelmäßig in der einschlägigen Wirtschaftspresse zu lesen ist. Zugleich findet sich im Bereich der Wirtschaftswissenschaften ein breiter Literaturkörper, der die Auswirkungen einer verstärkten unternehmerischen Umweltorientierung auf den finanzwirtschaftlichen Erfolg kontrovers diskutiert. So existieren unterschiedlichste Theorien, die von einem positiven oder aber negativen Zusammenhang ausgehen. Empirische Untersuchungen zu dieser Fragestellung sind für Deutschland hingegen kaum auffindbar. Die Studie nimmt sich dieser Lücke an. Dabei werden zu Beginn wesentliche Begrifflichkeiten und Konzepte erläutert. Zudem erfolgt eine ausführliche Diskussion des aktuellen theoretischen Forschungsstands über mögliche Zusammenhänge von unternehmerischer Umweltleistung und finanzwirtschaftlichem Erfolg. Dem werden bisherige empirische Erkenntnisse gegenübergestellt. Den Kern der Untersuchung bilden zwei empirische Analysen am deutschen (Kapital-)Markt. Zunächst wird im Rahmen einer Ereignisstudie für den Zeitraum von 1993 bis 2008 untersucht, inwiefern sich Unternehmenswertänderungen am Aktienmarkt nach der Verleihung von Umweltpreisen feststellen lassen. Innerhalb der zweiten Analyse wird anhand von Querschnittsdaten der Jahre 2006 bis 2008 überprüft, ob ein Zusammenhang zwischen bilanziellen bzw. kapitalmarktbasierten Kennzahlen und sogenannten Umweltratings besteht. Besonderer Wert wird bei beiden Untersuchungen auf die Robustheit der Ergebnisse gelegt, weshalb u. a. der robuste MM-Schätzer sowie Bootstrap-Testverfahren Verwendung finden. Das Buch trägt dazu bei, eine häufig polemisch geführte Diskussion auf eine wissenschaftlich fundierte Basis zu stellen. Anleger erhalten zudem Anhaltspunkte, ob eine Investition in verhältnismäßig "grüne" Unternehmen mit finanziellen Nachteilen verbunden sein muss.
Open tracing tools
(2023)
Background: Coping with the rapid growing complexity in contemporary software architecture, tracing has become an increasingly critical practice and been adopted widely by software engineers. By adopting tracing tools, practitioners are able to monitor, debug, and optimize distributed software architectures easily. However, with excessive number of valid candidates, researchers and practitioners have a hard time finding and selecting the suitable tracing tools by systematically considering their features and advantages. Objective: To such a purpose, this paper aims to provide an overview of popular Open tracing tools via comparison. Methods: Herein, we first identified 30 tools in an objective, systematic, and reproducible manner adopting the Systematic Multivocal Literature Review protocol. Then, we characterized each tool looking at the 1) measured features, 2) popularity both in peer-reviewed literature and online media, and 3) benefits and issues. We used topic modeling and sentiment analysis to extract and summarize the benefits and issues. Specially, we adopted ChatGPT to support the topic interpretation. Results: As a result, this paper presents a systematic comparison amongst the selected tracing tools in terms of their features, popularity, benefits and issues. Conclusion: The result mainly shows that each tracing tool provides a unique combination of features with also different pros and cons. The contribution of this paper is to provide the practitioners better understanding of the tracing tools facilitating their adoption.
Flexibility estimation is the first step necessary to incorporate building energy systems into demand side management programs. We extend a known method for temporal flexibility estimation from literature to a real-world residential heat pump system, solely based on historical cloud data. The method proposed relies on robust simplifications and estimates employing process knowledge, energy balances and manufacturer's information. Resulting forced and delayed temporal flexibility, covering both domestic hot water and space heating demands as constraints, allows to derive a flexibility range for the heat pump system. The resulting temporal flexibility lay within the range of 24 minutes and 6 hours for forced and delayed flexibility, respectively. This range provides new insights into the system's behaviour and is the basis for estimating power and energy flexibility - the first step necessary to incorporate building energy systems into demand side management programs.
Hot water heat pumps are well suited for demand side management, as the heat pump market faced a rapid growth in the past years with the trend to decentralized domestic hot water use. Sales were accelerated through wants and needs of energy conservation, energy efficiency, and less restrictive rules regarding Legionella. While in literature the model predictive control potential for heat pumps is commonly shown in simulations, the share of experimental studies is relatively low. To this day, experimental studies considering solely domestic hot water use are not available. In this paper, the realistic achievable model predictive control potential of a hot water heat pump is compared to the standard hysteresis control, to provide an experimental proof. We show for the first time, how state-of-the-art approaches (model predictive control, system identification, live state estimation, and demand prediction) can be transferred from electric hot water heaters to hot water heat pumps, combined, and implemented into a real-world hot water heat pump setup. The optimization approach, embedded in a realistic experimental setting, leads to a decrease in electric energy demand and cost per unit electricity by approximately 12% and 14%, respectively. Further, an increase in efficiency by approximately 13% has been achieved.
Immersive educational spaces
(2023)
"If only we had had such opportunities to grasp history like this when I was young" – words by an almost 80-year-old woman holding an iPad on which both, the buildings in the background and a tower in the form of a virtual 3D object, appear within reach. To "grasp" history - what an apt use of this action-oriented word for an augmented reality application built on considerations of thinking and acting in history. This telling image emerged during the first test run of the app i.appear which will be the focus of this article's considerations on the use of immersive learning environments. The application i.appear has been used in the city of Dornbirn (Austria) for a year now to teach historical content through location-based augmented reality and other interactive and multimedia technologies. After a brief description of the potential of such applications, the epistemological structure of the hosting app i.appear and its functionality will be outlined. This article will focus on the “Baroque Master Builders” tour of the hosting app that was created and tested as part of the current research.
This paper presents design, simulation, and optimization of the three-dimensional 1×4 optical multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding. The splitter was simulated by using beam propagation method in BeamPROP simulation engine of RSoft photonic tool and optimized for an operating wavelength of 1.55 µm. According to the minimum insertion loss, the dimensions of the MMI coupler and the length of the whole MMI splitter structure were optimized applying a waveguide with a core size of 4×4 µm2. The objective of the study is to create a design for fabrication by three-dimensional direct laser writing optical lithography.
We present design of planar 16-channel, 100-GHz multi-mode polymer-based AWG. This AWG was designed for central wavelength of 1550 nm applying AWG-Parameters tool. The AWG structure was created and simulated in the commercial photonic tool PHASAR from Optiwave. Achieved transmission characteristics were evaluated by AWG-Analyzer tool. For the design, multi-mode waveguides having a cross-section of (4x4) µm2 were used. The simulated results show strong worsening of the transmission characteristics in comparison when using single-mode waveguides. Nevertheless, the transmitting channels are clearly separated. The reason for using thicker multi-mode waveguides in the design is possibility to fabricate the AWG structure on polymer basis using direct laser writing lithography.
Coupling is one of the most frequently mentioned metric in software systems. However, to measure logical coupling between microservices, runtime information is needed or the availability of service-log files to analyze the calls between services is required. This work presents our emerging results, in which we propose a metric to statically calculate logical coupling between microservices based on commits to versioning systems. We performed an initial validation of the proposed metric with a dataset containing 145 open-source microservices projects. The results illustrate how logical coupling affects every system and increases overtime. However, we did not find a correlation between the number of commits or the number of developers and the introduction of logical coupling. In future, we investigate why, how, and when logical coupling is introduced in a system.
Die persönliche Black-Box
(2023)
Redundanz und Varietät
(2023)
The paper deals with designing and numerical modelling a 2 x 2 optical switch for photonic integrated circuits based on 2 x 2 MMI elements and phase modulators. The 2 x 2 optical switch was modelled in the RsoftCAD with the simulation tool BeamPROP. The 2 x 2 optical switch is a common element for creating more complex 1 x N or N x N optical switches in all-optical signal processing.
In this paper, the design of three-dimensional configuration of Y-branch splitter is compared with Multimode Interference splitter. Both splitters use the IP-Dip polymer as a standard material for 3D laser lithography. The optical properties of the splitters for both approaches are discussed and compared.
In this work, we investigated the influence of different etch depths of the rib waveguides on the performance of SiN-based AWGs. For this purpose, an 8-channel 100 GHz AWG was designed for a center wavelength of 850 nm. The design parameters entered were calculated using the AWG-Parameters tool. The simulations were performed with a commercial photonic tool PHASAR from Optiwave. The simulated performance was evaluated using the AWG-Analyzer tool. For the AWG design, we used three identical rib waveguides with different etch depths to simulate possible etch imperfection. The simulations show the wavelength shift and degradation of the AWG performance.
Optoelectronic system based on photonic integrated circuits to miniaturize spectral domain OCT
(2023)
We present a miniaturized optical coherence tomography (OCT) setup based on photonic integrated circuits (PIC) for the 850 nm range. We designed a 512-channel arrayed waveguide grating (AWG) on a PIC for spectral domain OCT (SD-OCT) that is co-integrated with PIN-photodiodes and analog-to-digital-converters on one single chip. This image sensor is combined with all the necessary electronics to act as a camera. It is integrated into a fiber-based OCT system, achieving a sensitivity of >80dB and various samples are imaged. This optoelectronic system will allow building small and cost-effective OCT systems to monitor retinal diseases.
Diese Arbeit verfolgt das Interesse, Einblicke in die Kontextualisierung Klinischer Sozialer Arbeit zu geben, die im rehabilitativen, stationären Setting in Rehabilitationseinrichtungen in Süddeutschland angesiedelt ist. Zu Beginn wird die Entwicklung Klinischer Sozialer Arbeit mit ihren sozialtherapeutischen und sozialpsychologischen Ansätzen sowie das Forschungsfeld Rehabilitation betrachtet. Darauf folgt die Formulierung der Forschungsfrage, in dessen Fokus die Erkundung des Erlebens Klinischer Sozialer Arbeit und Klinischer Psychotherapie im Setting steht. Von Interesse sind vorzufindende Kontextbedingungen sowie mögliche Überschneidungen von Zuständigkeiten und Kompetenzen innerhalb der Interdisziplinarität. Die Befragung der Professionen erhebt die Perspektiven über Einschätzungen, Haltungen und das Tätigkeitsverständnis im Arbeitsalltag aus der Selbst- und Fremdwahrnehmung. Zuletzt werden die Ergebnisse zusammengeführt und um die evidenzbasierte Perspektive ergänzt. Durch den Vergleich wird deutlich, dass Klinische Soziale Arbeit im Forschungsfeld als unentbehrlich angesehen wird. Sie kann Klient:innen aufgrund ihrer bestehenden Expertise und sozial-interventiven Angeboten bei der Lebensbewältigung in deren Lebenswelt unterstützen sowie eine selbstbestimmte Lebensführung und gesellschaftliche Integration und Teilhabe ermöglichen.
Ansätze des maschinellen Lernens werden sowohl in der Forschung als auch in der Praxis eingesetzt, um gewünschte Ausgabedaten anhand bekannter Eingabedaten vorherzusagen. In dieser Masterarbeit wird die Anwendung des maschinellen Lernens in der Batteriedatenanalyse zur Bestimmung des Alterungsstatus von Lithium-Ionen-Batterien untersucht. Das Ziel dieser Arbeit besteht in der Vorhersage von Alterungskurven (englisch state of health - SoH) für Lithium-Ionen Batterien über die Anzahl der Entladezyklen (Zeitachse). Dies erfolgt auf der Grundlage zuvor erfasster Daten für drei Typen von Lithium-Ionen-Batterien, die bei Temperaturen von 15 °C, 25 °C und 35 °C sowie C-Raten von 0,5C, 1C und 2C aufgenommen wurden. Im Zuge dessen wurden die angewandten Methoden des maschinellen Lernens analysiert und ihre Ergebnisse verglichen. Der Umfang dieser Arbeit hebt sich von anderen Ansätzen des maschinellen Lernens in der Batteriedatenanalyse ab, da dieselben Methoden in einem breiteren Spektrum von Daten mit unterschiedlichen Temperaturen und Kathodenmaterialien verwendet wurden. Dies ist für die Analyse von Unterschieden im Verhalten in der Praxis relevant. Nach dem Erwerb und der Vorbereitung der Daten wurden Modelle mit vier ausgewählten Regressionsverfahren (lineare Regression, Ridge-Regression, Random-Forest-Regression und KNN-Regression) des überwachten Lernens trainiert und die Vorhersagen durchgeführt. Aus den Ergebnissen kann eine allgemeingültige Auslegungsgrundlage für weitere Untersuchungen und die praktische Anwendung abgeleitet werden, bei der die Vorhersagen von SoH-Kurven für Lithium-Ionen-Batterien mit linearer Regression und Ridge-Regression die höchste Genauigkeit aufweisen.
Erneuerbare Energiegemeinschaften (eEG) sind ein neues, innovatives und in der Entwicklung befindendes Thema bzw. Projekt. Entstanden ist es dadurch, dass Österreich die Vorschläge und neuen Gesetze aus dem Clean energy for all Europeans package mit der Verabschiedung des Erneuerbaren-Ausbau-Gesetz Ende 2021 in nationales Recht umgesetzt hat. In dem Leitfaden Energiegemeinschaften Ausschreibung 2021 ist in der Pionierphase und Integrationsphase klar vorgegeben, dass ein Monitoring über zwei Betriebsjahre zu betreiben ist. Das Monitoring von erneuerbaren Energiegemeinschaften wird in dieser Arbeit erstmalig behandelt. Es wurden Key Performance Indicators entwickelt, spezifiziert und erste Probeerhebungen durchgeführt. In dieser Arbeit wurde untersucht, welche Monitoring-Bereiche es geben könnte, mit welchem Erfolgsindikatoren-Set zum aktuellen Zeitpunkt ein sinnvolles Monitoring betrieben werden kann und welche Erfolgsindikatoren im Allgemeinen in Österreich erforderlich sind, um eine Aussage über den Erfolg von erneuerbaren Energiegemeinschaften treffen zu können. Hierfür wurde eine Grundlagenforschung im Bereich erneuerbare Energiegemeinschaften, ein normativer Vergleich zu ähnlichen Förderprogrammen und Experteninterviews durchgeführt. Anhand der daraus resultierenden Ergebnisse wurden finale KPIs spezifiziert. Mit diesen KPIs wurde in einem Monitoring-Tool ein Erfolgsindikatoren-Set angelegt und mit entsprechenden Zielwerten in Kontext gebracht. Zusätzlich wurden Daten von verschiedenen eEG angefragt und anhand dessen wurden in dem Tool erste Probeerhebungen durchgeführt, um die Machbarkeit zu untersuchen.
Herausforderungen im Umgang mit Präventionsmaßnahmen von sexueller Gewalt an Frauen mit Fokus auf die Clubbingszene am Beispiel Vorarlberg. Theoretischer Hintergrund: Sexuelle Gewalt in der Clubbingszene ist bisher nur wenig erforscht und es existiert eine hohe Dunkelziffer an sexuellen Übergriffen. Die körperlichen, psychischen und sozialen Auswirkungen für Betroffene können massiv sein. Um geeignete Präventionsmaßnahmen für sexuelle Gewalt zu entwickeln, müssen die unterschiedlichen Faktoren, die zur Ausübung von sexueller Gewalt führen, beleuchtet und auf gesamtgesellschaftlicher Ebene behandelt werden. Ziel der Arbeit: Ziel dieser Arbeit ist es, herauszufinden welche Herausforderungen sich bei der Umsetzung von Präventionsmaßnahmen für Institutionen und Clubbetreiber:innen ergeben und wie diese behoben werden können. Zudem soll die Zusammenarbeit und die Umsetzung dieser zwischen sozialen Institutionen und den Clubbetreiber:innen erforscht werden. Dazu wird folgende Forschungsfrage entwickelt: Welche Herausforderungen stellen sich in der Implementierung der vorhandenen Präventionsmaßnahmen von sexueller Gewalt an Frauen seitens der klinischen Sozialen Arbeit in Zusammenarbeit mit der Clubbingszene in Vorarlberg? Methode: Zur Beantwortung der Forschungsfrage wurden insgesamt zehn problemzentrierte Interviews durchgeführt. Zum einen wurden fünf Expert:innen aus unterschiedlichen Berufssparten befragt, zum anderen fünf Clubnutzer:innen, die in der Clubbingszene Vorarlberg aktiv sind. Ergebnisse: Die Ergebnisse zeigen, dass beim Großteil der befragten Personen ein hohes Bewusstsein für das Thema haben. Trotzdem wird sexuelle Gewalt in der Clubbingszene sehr häufig bagatellisiert und nicht als solche wahrgenommen. Die gesellschaftlich verankerten Geschlechterrollen sind dabei nicht förderlich. Schlussfolgerung: Es besteht Handlungsbedarf in Bezug auf Präventionsmaßnahmen von sexueller Gewalt in der Clubbingszene. Dies kann nur geschehen, wenn eine zunehmende Sensibilisierung und Bewusstseinsschaffung für sexuelle Gewalt in der Gesellschaft stattfinden.
Virtual Reality im Golfsport
(2023)
Die Möglichkeiten des Einsatzes von Virtual Reality (VR) abseits des Unterhaltungssektors sind sehr umfangreich. Die Technologie kann als Wiedergabemedium von klassischen audiovisuellen Inhalten oder speziell für VR entwickelten Inhalten verwendet werden, jeweils mit oder ohne Interaktion der benutzenden Person. Um die in dieser Arbeit gestellte Forschungsfrage „Wie kann VR im Golfsport unterstützend beim Training eingesetzt werden?“ zu beantworten wurde VR als Medium auf seine Anwendungsmöglichkeiten hin überprüft und aufgezeigt, wo diese Technologie im Bereich „Training“ wirkungsvoll eingesetzt werden kann. Die Verwendung einer Mind Map ergab eine erste Produktidee: Golfplätze mittels VR zu besuchen, bevor die Spielenden selbst zu einem Turnier anreisen. Durch Literaturrecherchen, Experteninterview, die qualitative Auswertung von Interviews von Golfspielenden und eine Analyse der am Markt befindlichen digitalen „Helfer“ für Golfer:innen wurden Hinweise gesammelt, um sowohl eine Hypothese zur möglichen Zielgruppe aufzustellen, als auch die Forschungsfrage, durch Konkretisieren der Produktidee, zu beantworten.
Erkenntnisse über die am Markt befindlichen Produkte und Hinweise aus der Sportpsychologie führten zu der Hypothese, dass die Effektivität des Produktes im Einsatz des mentalen Trainings verbessert werden könnte, wenn neben dem visuellen Kanal ein Audiokanal die Darstellung der virtuellen Umgebung unterstützt. Auch wenn diese Hypothese in einer Feldstudie mit 7 Teilnehmern weder wiederlegt noch bestätigt werden konnte, zeigt die Auswertung einer Onlineumfrage zum Produkt und die erarbeitete Theorie großes Potential für den Einsatz von VR als Unterstützung im mentalen Training und für weitere Forschung auf diesem Gebiet auf. Als Produktidee ging aus der Arbeit eine VR-Applikation, zur mentalen Vorbereitung auf wenig bekannte Golfplätze, für gute und professionelle Golfspieler:innen hervor.
Die CO2 Abscheidung ist ein Schlüsselprozess für die Dekarbonisierung der Wirtschaft und Industrie. Die Entwicklungspfade der IEA und des IPCC zur Erreichung des CO2 Nettonulle-missionsziel bis 2050 oder 2070 beinhalten alle eine Form von Carbon Capture, (CC). Als vielversprechende CC-Technologie gerät die gashydratbasierte CO2 Abscheidung, hbCC, aufgrund der hohen Speicherkapazität bei moderaten Druck- und Temperaturniveau und des unproblematischen Arbeitsmediums Wasser zusehends ins Interesse der Forschung und In-dustrie. Gashydrate sind unstöchiometrische Einschlussverbindungen, bei denen die Gasmo-leküle in einem Wirtsgitter aus Wassermolekülen gespeichert werden können. In einem m3 Gashydrat können 170 Nm3 Gas gespeichert werden. Die statischen Eigenschaften von Gas-hydrat sind gut verstanden. Die Dynamik der Synthese und Dissoziation, die intrinsische Re-aktionskinetik der Hydratformation, die Nukleation von initialen Kristallisationskeimen und der Einfluss von Wärme- und Stofftransportphänomenen auf die Dynamik ist noch nicht geklärt. Ein profundes Verständnis der Synthese- und Dissoziationsdynamik, inklusive dem Zusam-menhang mit den p,T-Prozessbedingungen, gilt als Voraussetzung für die Entwicklung effizi-enter hbCC-Verfahren. Üblicherweise wird Gashydrat synthetisiert indem flüssiges Wasser mit der Gasphase in Kontakt gebracht wird. Der initial gebildete Hydratfilm auf der Phasen-grenzfläche hemmt in weiter Folge den Stofftransport für das weitere Hydratwachstum. Die CO2 Gasphasenabscheidung durch thermisches Verdampfen unter Druck, (engl. pressurized thermal evaporation, PTE), unterliegt keinem gehemmten Stofftransport, weil Wasserdampf und Gasmoleküle an einer kalten Substratoberfläche kontinuierlich für die Synthese vorliegen. In vorhergehenden Studien wurden subsequente Synthese- und Dissoziationsexperimente durch PTE aus reiner CO2 oder CH4 Gasphase zur Untersuchung der Dynamik durchgeführt. Für diese Arbeit werden erstmals subsequente PTE Synthese- und Dissoziationsexperimente aus einem binären 0,85 N2 + 0,15 CO2 Synthesegasgemisch umgesetzt. Das durch die Syn-these abgeschiedene Gas wird nach der Dissoziation mit einem Massenspektrometer auf seine Zusammensetzung untersucht. Hydratspeicherkapazität, Abscheiderate und die Selek-tivität der CO2 Gasphasenabscheidung wird für eine Synthesetemperaturvariation, (- 40 °C bis - 15 °C), und einen Synthesedruck von 40 bar(a) bestimmt. Durch Zeitrafferauf-nahmen der Hydratformation und Dissoziation wird die Auswirkung der p,T-Prozessbedingun-gen auf die Synthese- und Dissoziationsdynamik untersucht und der optimale Betriebspunkt für die CO2 Gasphasenabscheidung durch thermisches Verdampfen unter Druck bestimmt. Aus den Ergebnissen lässt sich ein klarer Zusammenhang zwischen Synthesetemperatur, Ab-scheiderate und Selektivität ableiten. Ein tiefere Synthesetemperatur führt zu einer effiziente-ren CO2 Abscheidung. Außerdem zeigt sich bei der Beobachtung der Synthesedynamik eine direkte Resublimation des Gashydrats auf der Wachstumsoberfläche. Es bildet sich keine flüssige Übergangsphase vor der Nukleation. Die neuen Erkenntnisse sind wichtige Faktoren für das Design zukünftiger PTE-Verfahren und Prototypen.
Chatbots für Alle
(2023)
Digitale Barrierefreiheit ist eine der großen Aufgaben in unserer Gesellschaft, um die Gleichstellung aller Menschen zu gewährleisten. Für unterschiedliche Personengruppen stellt die Anwesenheit von Barrieren ein Problem dar, daher hat sich diese Arbeit zur Fragestellung gesetzt, welche konkreten Gestaltungsempfehlungen exemplarisch zum Abbau kognitiver Barrieren bei textbasierten Gesprächsschnittstellen beitragen können. Wie Menschen mit kognitiven Einschränkungen, mit beispielsweise Lernschwierigkeiten, Gestaltung innerhalb von Dialog-Systemen wahrnehmen, ist weitgehendst unerforscht. Denn das Web wird vornehmlich für Nutzende mit durchschnittlichen Fähigkeiten und Anforderungen gestaltet. Um Barrierefreiheit im Digitalen zu gewährleisten, bieten die Web Content Accessibility Guidelines (WCAG) eine Referenz für die gesetzliche Grundlage. Allerdings sind die darin enthaltenden Erfolgskriterien allgemein fürs Web und nicht konkret genug für textbasierte Chatbots formuliert und lassen für Designer:innen und Entwickler:innen großen Interpretationsspielraum in der Umsetzung offen. Digitale Barrieren sind Hindernisse, die Menschen teilweise oder vollkommen behindern etwas zu tun. Vor allem erleben marginalisierte Personengruppen, wie ältere Menschen oder Menschen mit Einschränkungen, Ausschlussmechanismen aus digitalen Produkten und Services. Zeitgleich zu dieser Ungerechtigkeit schreitet der demografische Wandel voran. Parallel damit steigt die Wahrscheinlichkeit mit einer Einschränkung psychischer oder physischer Natur zu leben – beispielsweise eine Demenz im Alter zu haben. Die Nichtteilnahme im Digitalen führt in einer Gesamtbetrachtung in Folge zu einer mehr oder weniger ausgeprägten sozialen und gesellschaftlichen Spaltung. Zudem ist die Frage, wer für die Umsetzung von Barrierefreiheit verantwortlich ist weitgehend ungeklärt. Zugrundeliegende Faktoren für Ausschlussmechanismen ist z. B. die personelle Homogenität in Entwicklungsteams und damit zusammenhängend die Reproduktion der privilegierten Sichtweisen in gestaltete Artefakte. Offensichtlich ist, dass Entwickler:innen und Designer:innen zur Konstruktion und damit zur Dekonstruktion von Barrieren beitragen können. Das Ziel des Forschungsvorhabens ist es, einen Beitrag zum aktuellen Wissensstand zu leisten und reale Nutzende zu partizipieren. Dazu wurden gestalterische Experimente und Usability Tests durchgeführt und die exemplarischen Ergebnisse in konkreten Gestaltungsempfehlungen in einem Empfehlungskatalog synthetisiert.
Mit dem Namen Coachly wird eine elektronische Lernplattform bezeichnet, welche im Rahmen eines neuen Lernkonzeptes die Wissensaneignung bzw. Wissensvermittlung für Lernende und Lehrende im schulischen Unterricht erleichtern und effizienter gestalten soll. Dies wird vor allem durch fest integrierte individuelle Coaching-Einheiten und ein konstantes Monitoring des Lernprozesses gewährleistet. Die vorliegende Arbeit beschäftigt sich in ihrer theoretischen Auseinandersetzung mit den Themenbereichen „Lernen“ und „Unterricht“. Während bei Ersterem unter anderem Lernziele und verschiedene Lerntheorien behandelt werden, widmet sich das Kapitel „Unterricht“ den Unterrichtsarten „Klassischer Unterricht“, „E-Learning“ und „Blended Learning“. Auch Unterrichtsmethoden und innovative Ansätze der Wissensaneignung werden hier abgehandelt. Darüber hinaus dokumentiert die Arbeit die verwendete Forschungsmethode und deren Ergebnisse sowie die Konzeption und Umsetzung des entstandenen Lernkonzeptes und der integrierten Lernplattform. Ausgangspunkt der Forschungsarbeit war dabei die Frage, wie eine Lernumgebung geschaffen werden kann, die die Lernenden bei der Wissensaneignung und Lehrende bei der Wissensvermittlung unterstützt.
Die berührungslose Bedienung stellt in der Mensch-Computer-Interaktion (HCI) eine wichtige Alternative gegenüber berührungsbasierter Bedienung dar. Expertinnen und Experten gehen davon aus, dass dadurch berührungsbasierte Bedienung in bestimmten Anwendungsfällen, wie in Operationssälen oder der Automobilbranche, abgelöst wird. Allerdings weisen gestenbasierte Systeme Inkonsistenzen bei der Bedienung auf, da diese für unterschiedliche Technologien, in verschiedenen Nutzungskontexten und gezielt durch Markendifferenzierung entwickelt werden. Eine weitere Herausforderung stellt die Uneinigkeit potenzieller Endnutzer:innen über geeignete Gesten dar (Gesture Disagreement Problem). Dies hat zur Folge, dass sich bisher kein allgemeingültiges Gestenset etablieren konnte. Um ein Gestenset für die berührungslose Bedienung für der HoloLens 2 in der mobilen Vermessung zu entwickeln, wurden kontextspezifische Anforderungen identifiziert und im Gestenerhebungsprozess berücksichtigt. Zur Identifizierung wurden in dieser Arbeit Interviews und eine Beobachtung der Nutzer:innen während des Arbeitsprozesses durchgeführt. Zudem untersucht diese Arbeit, ob und wie das oben genannte Problem der Uneinigkeit sowie die Voreingenommenheit im Gestenerhebungsprozess vermieden werden kann. Durch die Anwendung von zwei verschiedenen Priming-strategien sowie der Produktionsstrategie sollte diesen Problemen entgegengewirkt werden. Anhand der Auswertung ist zu erkennen, dass das Gesture Dis-agrement Problem nicht vollständig gelöst werden konnte. In der Gestenerhebung wurden 355 unterschiedliche Gesten für 19 Aufgaben erhoben. Bedienbefehle, die eine Assoziation zur berührungsbasierten Bedienung mit Bildschirmgeräten darstellten, wurden kaum erhoben. Dies beweist, dass die Voreingenommenheit vermieden werden konnte. Um die Auswahl der Gestenvorschläge einzuschränken wurden die Gesten von den Probandinnen und Probanden anhand der zwei Usability Kriterien „Einprägsamkeit“ und „Auffindbarkeit“ bewertet. Anhand von wissenschaftlichen Veröffentlichungen zur einhändigen Bedienung von Infotainmentsystemen zeigt sich, dass die Einprägsamkeit von Gestenbefehlen begrenzt ist. Im Kontext der mobilen Vermessung ist angedacht, Gestenbefehle als Shortcuts einzusetzen, um grafische Schnittstellen zu reduzieren. Dies hat zur Folge, dass die Probandinnen und Probanden eine Reihe von Gestenbefehlen lernen und sich einprägen müssen. Da aufgrund der hohen Anzahl der Gesten die Bewertungen nicht ausreichen, wurde die Auswahl anhand von zwei Auswertungsverfahren eingegrenzt. Zum einen wurde die Taxonomie für berührungslose Handgesten von Piumsomboon et al. (2013) herangezogen, um die Merkmale der Gesten zu gruppieren. Die Merkmale der Gesten wurden in einer Matrix, die die Bewertungen zur Einprägsamkeit und Auffindbarkeit berücksichtigen, eingeordnet. Zudem wird die prozentuale Menge dieser Merkmale berücksichtigt, um herauszufinden ob bestimmte Aufgaben spezifische Gestenmerkmale aufweisen. Zum anderen wurde ein Ansatz verfolgt, bei dem ähnliche Gesten zusammengefasst werden, um als Vorlage für die Expertenmeinung zu dienen. Unter Berücksichtigung ergonomischer, technischer und logischer Anforderungen wurde aus den resultierenden Gesten ein konsistentes Gestenset entwickelt, das zur berührungslosen, einhändigen Bedienung auf der HoloLens 2 und im Kontext der mobilen Vermessung angewendet werden kann. Weitere Untersuchungen sind notwendig um die Einprägsamkeit des Gestensets zu überprüfen. Zudem muss ein Konzept entwickelt werden, wie dieses Gestenset erlernt werden kann.
Vor über 25 Jahren, im Mai 1997 wurde mit dem Gewaltschutzgesetzes in Österreich eine klare Haltung gegen Gewalt an Frauen gesetzt. Dennoch sind die Zahlen von häuslicher Gewalt gegen Frauen bis heute erschreckend hoch. Die Gesetzeslage in Österreich gilt als fortschrittlich, die Umsetzung der Gesetze steht dabei jedoch immer wieder in Kritik. (Baer 2010, S. 556). Um herauszufinden, was es für einen gelingenden Gewaltschutz von Frauen bedarf, muss mit den Expert*innen aus diesem Feld gesprochen werden. In vorliegender Arbeit wurde daher erforscht, wie sich die multi-institutionelle Zusammenarbeit zum Schutz und der Unterstützung von gewaltbetroffenen Frauen in Vorarlberg gestaltet und welche Faktoren aus Sicht der Expert*innen die Unterstützung von gewaltbetroffenen Frauen erschweren, beziehungsweise erleichtern. Um dies zu erforschen, wurden Expert*inneninterviews im Bereich der Sozialen Arbeit, Justiz, Polizei und dem Gesundheitswesen geführt. Da häusliche Gewalt gegen Frauen ein gesamtgesellschaftliches Problem darstellt (Carstensen 2018, S. 52), wurde die vorliegende Forschungsarbeit anhand der Kritischen Diskursanalyse nach Jäger durchgeführt. (Jäger 2015) Die Arbeit gibt einen Überblick über die Organisation der multi-institutionellen Zusammenarbeit gegen häusliche Gewalt an Frauen in Vorarlberg. Zudem zeigt sie gelingende und hemmende Faktoren im Interventionssystem und in der Zusammenarbeit auf. Dabei werden zum einen die positiven Entwicklungen und Errungenschaften im Interventionssystem verdeutlicht als auch die bestehenden Defizite und Möglichkeiten der Verbesserung aufgezeigt. Dabei zeigt sich u.a. der Bedarf an Schulungen für die verschiedenen Professionsgruppen im Interventionssystem als auch ein Defizit an Zugängen und Vernetzungen im medizinischen Bereich.
Reporting der Zukunft
(2023)
Das Reporting als Kernkompetenz des Controllings befindet sich in einem Prozess der Veränderung. Die Digitalisierung und sich ändernde Anforderungen an das Controlling erfordern eine Weiterentwicklung und den Einsatz neuer Analysemethoden. Die deskriptiv ausgerichtete Welt des Reportings erfährt durch den Einsatz von Business Analytics eine Erweiterung um prädiktive und präskriptive Methoden, die Unternehmen in der Entscheidungsfindung unterstützen sollen. Voraussetzungen für den Einsatz von Business Analytics sind die in den Unternehmen eingesetzten Technologien zur Digitalisierung der Geschäftsprozesse und die für die Analyse verwendbaren Datengrundlagen. Neben sich ändern-den Prozessen innerhalb des Reportings, gilt es auch (Analyse-)Kompetenzen zu entwickeln.
Im Rahmen der Business Analytics kommen statistische Methoden zum Einsatz, die reale Umwelten modellierbar und somit quantifizier- und berechenbar machen. Doch welche Methoden werden im Bereich Business Analytics heute verwendet und dienen bereits jetzt oder zukünftig einer Datenanalyse und -aufbereitung im Sinne einer Advanced Analytics? Anhand einer Case Study mit vier befragten Unternehmen der Region wurde der aktuelle Entwicklungsstand des Reportings in eine fünfstufige Matrix eingestuft.
Die vorliegende Arbeit lässt sich im Bereich der Bonitätsbewertung einordnen. Es gibt bisweilen kein gängiges System, mit welchem eine Debt Capacity oder eine Bonitätsbewertung ermittelt wird. In der Praxis erfolgt oftmals die Vereinfachung dieser Bewertung anhand des EBITDA. Mit dieser Arbeit soll untersucht werden, ob diese Vereinfachung sinnvoll ist. Dazu werden neben dem EBITDA auch der Free Cashflow und die Debt Capacity von Unternehmen genauer untersucht. Für 69 Unternehmen werden die Jahresabschlussdaten und Credit Ratings der Big Three zusammengestellt. Anhand der Korrelations- und Regressionsanalyse werden die Werte verglichen. Das EBITDA unterliegt dem Free Cashflow sowohl bei der Abschätzung der Debt Capacity als auch bei der Ermittlung von Credit Ratings. Beide besitzen jedoch zu wenig Aussagekraft, um nur aufgrund dieser Daten Managemententscheidungen treffen zu können. Die Vereinfachung kann in dieser Form nicht unterstützt werden, und es sollte immer eine detailliertere Prüfung vorgezogen werden. Es gibt jedoch statistisch signifikante Zusammenhänge, weshalb das EBITDA und der Free Cashflow zumindest einen Anhaltspunkt für die Bewertung bieten können.
Durch das Voranschreiten der Digitalisierung hat die Technologie Robotic Process Automtion innerhalb der letzten Jahre an Bedeutung gewonnen und findet bereits in Bereichen des Rechnungswesens Anwendung. Ein Hauptargument für die Nutzung von sogenannten Software Robotern ist die dadurch generierte Steigerung der Prozesseffizienz. Dies ermöglich die Freisetzung von Mitarbeiterkapazitäten für wertschöpfende Tätigkeiten. Durch Automatisierung im Bereich des Cash Conversion Cycles kann der Geldumschlag in Tagen verringert werden, was wiederum zu mehr Liquidität führt. Trotzdem wird Robotic Process Automation in vielen Unternehmen noch nicht verwendet. Ziel dieser Arbeit ist es, die Gründe für oder auch gegen eine Implementierung von Robotic Process Automation zu untersuchen. Die Beantwortung der Forschungsfrage erfolgt mittels leitfadengestützter Experteninterviews. Dazu wurden Sieben Personen in leitenden Funktionen im Finanzbereich befragt. Die Ergebnisse der Untersuchung ergaben, dass einerseits die Eliminierung von manuellen Tätigkeiten und andererseits die Verringerung von Fehlerpotentialen als Gründe für eine Implementierung von Robotic Process Automation sprechen. Allerdings wurden auf der Gegenseite Gründe wie mangelnde Ressourcen und die skeptische Haltung seitens Mitarbeitenden und Management gegenüber der Technologie genannt. Einer der wesentlichen Gründe gegen die Einführung, welcher aus den Ergebnissen hervorging, war der bereits hohe Grad der Automatisierung.
Die digitale Geschäftstransformation forciert Unternehmen regelrecht, grundlegende sowie neue Fähigkeiten zu entwickeln, um weiterhin wettbewerbsfähig zu bleiben. Unter anderem auch in der Supply Chain. Die Integration digitaler Anwendungen in diesem Bereich ist aller-dings äußerst mangelhaft. Aus diesem Grund wird zunächst der aktuelle Grad der Digitalisierung von global agierenden Unternehmen eruiert. Als ein weiteres Ziel dieser Arbeit wird die Erreichung einer nachhaltigen Wettbewerbsfähigkeit hinsichtlich einer Supply-Chain-4.0-Integration anhand der Theorie der Business Capabilities untersucht. Dazu wird die Forschungsfrage wie folgt definiert: „Was lässt sich fundiert über den Grad der Digitalisierung von global agierenden Unternehmen in ihrer Supply Chain sagen und welche Rolle spielt dabei das Business Capability Manage-ment?” Um die Forschungsfrage erfolgreich beantworten zu können, wird ein theoretisch-konzeptio-nelles Vorgehen angewendet. In Verbindung mit der Methode der konzentrischen Kreise wird eine umfassende Literaturrecherche ermöglicht. Die Auseinandersetzung mit der Literatur zeigt auf, dass die Anwendung der Digitalisierung in diesem Bereich in einer Vielzahl neuer Business Capabilities mit weiterführenden positiven Auswirkungen resultiert.
Einfluss verhaltensökonomischer Faktoren auf die Nutzung neuer Technologien im Prozessmanagement
(2023)
Process Mining ist ein effektives Werkzeug, um bestehende Lücken in der Prozessüberwachung eines im Unternehmen integrierten Prozessmanagements zu verringern. Trotz dem weitverbreiteten Bewusstsein über diesen Umstand, wird Process Mining bisher in wenigen Unternehmen erfolgreich eingesetzt. Da die Einführung einer neuen Technologie als Change-Projekt einzustufen ist, ist die soziale Ebene in Form der Mitarbeitenden zu berücksichtigen. Da Menschen nicht ausschließlich rational entscheiden und handeln, ist davon auszugehen, dass auch Erkenntnisse aus der Verhaltensökonomie in diesem Zusammenhang eine Rolle spielen. Die vorliegende Arbeit beschäftigt sich insbesondere mit möglichen verhaltensökonomischen Faktoren, die für die Nutzung neuer Technologien im Prozessmanagement relevant sind. Für die Beantwortung dieser Frage wurde als Anwendungsbeispiel das Feld des Process Mining und ein theoretisch-konzeptionelles Vorgehen gewählt. Dabei werden zunächst die Forschungsfelder Process Mining, Change Management und Verhaltensökonomie theoretisch aufgearbeitet und mit verschiedenen Eigenschaften charakterisiert, um dann mögliche verhaltensökonomische Faktoren abzuleiten. Diese Masterarbeit zeigt, dass verhaltensökonomischen Faktoren in Form von kognitiven Verzerrungen entscheidend zum Erfolg bei der Einführung neuer Technologien beitragen. Von den drei ermittelten Charakteristika der „Neuartigkeit“, der „Komplexität der Technologie“ und den mit der Technologie einhergehenden „Ängsten und Unsicherheiten“ lassen sich folgende kognitive Verzerrungen ableiten: Der Status-Quo-Bias, die Verlustaversion, der Confirmation Bias, der Appeal to Novelty und der Pessimism Bias. Für jede kognitive Verzerrung wurden Gegenmaßnahmen aufgezeigt.
Einfluss staatlicher Fördermaßnahmen auf Investitionsentscheidungen von Unternehmen – Eine Untersuchung der Wirksamkeit der AWS-Investitionsprämie auf Vorarlberger Unternehmen. Die Investitionsförderung ist ein wichtiges Instrument der österreichischen Politik. Dabei soll durch Zuschüsse bei Investitionen in Digitalisierung, Ökologisierung, bauliche Anlagen oder auch technische Einrichtungen die weltweite Wettbewerbsfähigkeit gestärkt und österreichische Arbeitsplätze gesichert werden.
Ziel dieser Arbeit ist es, den Einfluss der staatlichen Fördermaßnahmen auf Investitionsentscheidungen von Vorarlberger Unternehmen zu untersuchen. Anhand von Experteninterviews und der Auswertung des AWS-Leistungsberichtes soll festgestellt werden, ob diese Förderungen die gewünschte Wirksamkeit aufweisen können.
Zunächst werden die verschiedenen Investitionsrechenverfahren ausführlich erklärt und er-läutert. In weiterer Folge behandelt diese Arbeit die staatlichen Förderungen und weitere Anreize der Politik. Darüber hinaus werden die Experteninterviews miteinander verglichen und analysiert, um Erkenntnisse über die Auswirkung staatlicher Fördermaßnahmen zu gewinnen. Definitiv ist ein Einfluss staatlicher Fördermaßnahmen gegeben. Einerseits hat sich das Volumen der Investitionen stark erhöht, anderseits sind diese in den Zeitraum der Förderungen verlegt worden. Ein weiterer wichtiger Aspekt ist, dass die staatlichen Fördermaßnahmen die Basis der Investitionsrechenverfahren verändern.
Operative Exzellenz wird als Sammelbegriff für strategische Managementansätze angesehen, welche anhand von Optimierungsinitiativen die Geschäftsprozesse des Unternehmens auf Kundenbedürfnisse, Qualität wie auch auf Effizienz ausrichten. Exzellenzmodelle kombinieren sowohl technische als auch soziale Faktoren im Streben nach nachhaltiger Verbesserung und basieren nicht nur auf dem Betriebsmanagement und den technischen Prozessen, sondern widmen auch den Menschen und ihrem Einfluss auf die erfolgreiche Umsetzung eines Optimierungsprogramms besondere Aufmerksamkeit. Ziel dieser Masterarbeit ist es, die entscheidende Rolle von Führungskräften und deren Führungsstile zu diskutieren, welche laut der ausgewerteten akademischen Literatur, sich für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 als erfolgsversprechend nennen lassen, indem die gewünschte Organisationskultur durch gezielte Anwendung von Führungskonzepten gefördert wird. Die Fragestellung der Masterarbeit wird anhand eines theoretisch-konzeptionellen Vorgehens beantwortet. Die Untersuchungen haben die Erkenntnisse zu Tage gebracht, dass sich mit dem Wandel der Anforderungen an die Unternehmen, auch die Führungskonzepte an die Anforderungen angepasst haben und somit auch die Führungsphilosophie von „Command and Control“ zu „Empowerment“, „agiler Führung“ und „transformationaler Führung“ übergegangen ist. Für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 konnten die Führungskonzepte „Transformationale Führung“, „Symbolische Führung“, „Mitarbeiter empowern“ und „Agile Führung“ identifiziert werden. Es besteht Grund zur Annahme, dass eine Kombination der vorgestellten Führungskonzepte die besten Ergebnisse liefern würde, insofern das geeignetste Führungskonzept situationsadäquat angewendet wird.
Als Folge des demographischen Wandels müssen Unternehmen in Österreich und ganz Europa lernen, mit einer alternden Belegschaft, dem Fachkräftemangel und Problemen bei der Rekrutierung von Mitarbeitenden umzugehen. Um erfolgreich wirtschaften zu können, sind Unternehmen daher gezwungen, solche Arbeitsbedingungen zu bieten, dass Mitarbei-tende aller Generationen gesund und leistungsfähig ihre Arbeit tun können. Die generatio-nenspezifische Gestaltung der Betrieblichen Gesundheitsförderung setzt an diesem Punkt an und hilft den Unternehmen, der demographischen Entwicklung gut gerüstet zu begeg-nen. Die vorliegende Arbeit beschäftigt sich mit der generationenspezifischen Betrieblichen Ge-sundheitsförderung. Im Rahmen einer qualitativen Untersuchung werden Chancen und Ri-siken identifiziert, die in einer generationenspezifischen Betrieblichen Gesundheitsförderung liegen. Dabei werden die Bedürfnisse der unterschiedlichen Generationen an die Betriebli-che Gesundheitsförderung berücksichtigt. Am Ende der Arbeit steht ein Maßnahmenkatalog für generationenspezifische Betriebliche Gesundheitsförderung, der die Chancen und Risiken die darin liegen, miteinbezieht und eine Unterstützung in der praktischen Arbeit im Unternehmen bieten soll.
Semiconducting metal oxides are widely used for solar cells, poto-catalysis, bio-active materials and gas sensors. Besides the material properties of the used semiconductor,the specific surface topology of the sensor determines the device performance. We investigate the preparation and transfer suitable metals onto LIPPS structures on glass for gas sensing applications.
Deep etched structures in GaAs with high aspect ratio have promising applications in optoelectronics and MEMS devices. The key factors in their fabrication process are the choosing of proper mask material and etching conditions which results in high selectivity and an anisotropic etch profile with smooth sidewalls. In this work, we studied several types of mask materials (Al, Ni, Cr, SiO2) for deep reactive ion etching of GaAs using inductively coupled plasma system. Thus, several sets of experiments were performed with varying gas mixture, pressure and ICP/RF power. As a result, we find optimized conditions and minimal thickness of mask material for achieving deep etched (>140 m) GaAs structures.