Refine
Year of publication
Document Type
- Master's Thesis (408)
- Article (11)
- Preprint (5)
- Other (2)
- Bachelor Thesis (1)
- Book (1)
- Conference Proceeding (1)
Institute
- Forschungszentrum Mikrotechnik (12)
- Soziales & Gesundheit (4)
- Forschungszentrum Energie (3)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (3)
- Wirtschaft (3)
- Forschungsgruppe Empirische Sozialwissenschaften (1)
- Forschungszentrum Digital Factory Vorarlberg (1)
- Forschungszentrum Human Centred Technologies (1)
- Geschäftsführung (1)
- Gestaltung (1)
Language
- German (300)
- English (128)
- Multiple languages (1)
Is part of the Bibliography
- no (429) (remove)
Keywords
- Digitalisierung (11)
- Controlling (6)
- Digitale Transformation (6)
- Machine learning (6)
- Industrie 4.0 (5)
- Demand Side Management (4)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Photovoltaik (4)
- Soziale Arbeit (4)
Alleviating the curse of dimensionality in minkowski sum approximations of storage flexibility
(2023)
Many real-world applications require the joint optimization of a large number of flexible devices over some time horizon. The flexibility of multiple batteries, thermostatically controlled loads, or electric vehicles, e.g., can be used to support grid operations and to reduce operation costs. Using piecewise constant power values, the flexibility of each device over d time periods can be described as a polytopic subset in power space. The aggregated flexibility is given by the Minkowski sum of these polytopes. As the computation of Minkowski sums is in general demanding, several approximations have been proposed in the literature. Yet, their application potential is often objective-dependent and limited by the curse of dimensionality. In this paper, we show that up to 2d vertices of each polytope can be computed efficiently and that the convex hull of their sums provides a computationally efficient inner approximation of the Minkowski sum. Via an extensive simulation study, we illustrate that our approach outperforms ten state-of-the-art inner approximations in terms of computational complexity and accuracy for different objectives. Moreover, we propose an efficient disaggregation method applicable to any vertex-based approximation. The proposed methods provide an efficient means to aggregate and to disaggregate typical battery storages in quarter-hourly periods over an entire day with reasonable accuracy for aggregated cost and for peak power optimization.
Die Suche nach geeigneten Maßnahmen im Kampf gegen den Pflegefachkräftemangel geht lange Zeit zurück. Immer mehr schnelle und nicht abgestimmte Lösungen kommen dabei auf. Um wirksam die Personallücke schließen zu können, muss an den Problemursachen angeknüpft werden.
In dieser Masterthesis wird der Personalmangel aus einer neuartigen Perspektive betrachtet. Mit Hilfe des Prozessfokus werden die existierenden Ideen mit folgender Fragestellung näher begutachtet: „Inwieweit spielt Business Process Management (BPM) eine Rolle bei den bisherigen Ideen? Kann BPM einen Beitrag zur Arbeitsentlastung der Pflegekräfte und damit zur Linderung des Personalmangels leisten?“
Um diese Frage beantworten zu können, ist eine zweiteilige Methodik erforderlich. Die Literaturrecherche wird mit dem Wissen aus einer Prozessbegehung ergänzt. Da die Kombination verschiedener Methoden ein Basisfachwissen voraussetzt, ist die Zielgruppe durch dieses Faktum definiert.
Am Ende kann die Digitalisierung in Verbindung mit organisatorischen Umstrukturierungen als geeigneter BPM-Lösungsansatz betitelt werden. Dieser knüpft an den Basisanforderungen an, um auf lange Sicht den Pflegemangel beherrschbar machen zu können.
Lohngerechtigkeit ist ein Thema, mit dem jede Person im Laufe des Lebens mehrmals konfrontiert wird. Sehr häufig wird dieses Thema auch in der Öffentlichkeit debattiert, vor allem wenn es um die „Gender Pay Gap“ geht, also die Lohnlücke zwischen Mann und Frau. Das Ziel dieser Masterthesis ist es deshalb herauszufinden, welche Faktoren für die Bestimmung eines fairen Entgelts laut unselbstständig erwerbstätiger Personen in Vorarlberg berücksichtigt werden sollen. Dabei wird nicht nur auf die gängigen Faktoren Berufserfahrung und Ausbildung eingegangen, sondern eine Vielzahl an Faktoren berücksichtigt. Mit Hilfe eines Fragebogens wurde dann hauptsächlich die Meinung von Angestellten mit einem Durchschnittsalter von 32,4 Jahren erhoben. Dabei hat sich gezeigt, dass die bedeutendsten vier Faktoren Leistung, Berufserfahrung, Position (inklusive der damit verbundenen Aufgaben und Verantwortung) und Ausbildung sind. Am unbedeutendsten werden Geschlecht, Unternehmensgröße und Familienstand erachtet. Außerdem konnte belegt werden, dass sich das Lohngerechtigkeitsempfinden stark an den eigenen Lebensumständen orientiert.
Die Digitalisierung und Mediatisierung haben einen bedeutenden Einfluss auf das Leben von Ju- gendlichen. Obwohl ihnen aufgrund ihrer Generationszugehörigkeit oft eine hohe digitale Kom- petenz zugeschrieben wird, ist dies nur teilweise zutreffend. Um Jugendlichen eine erfolgreiche Bewältigung ihres digitalen Lebens, vor allem in Bezug auf krisenhafte Situationen, zu ermögli- chen, sind Unterstützungsangebote auf allen Ebenen der digitalen Lebenswelt erforderlich. In Vorarlberg hat sich der medienpädagogische Stammtisch gegründet, um wertvolle Unterstüt- zungsangebote für Jugendliche in diesem Bereich eine Vernetzungs- und Kooperationsplattform zu bieten. Die Forschungsfrage dieser Masterarbeit lautet: Wie gestaltet sich das Unterstützungsnetzwerk für die Bewältigung von Krisensituationen in der digitalen Lebenswelt von Jugendlichen in Vorarlberg? Um diese Frage möglichst umfassend zu beantworten, werden verschiedene Unterfragen untersucht, da- runter die Zugangsmöglichkeiten für bestimmte Zielgruppen, die beteiligte Akteur*innen, die Be- ziehungen zwischen den Angeboten sowie die Expert*innenwahrnehmungen zur Vorarlberger Soziallandschaft. Als Ausgangspunkt der Forschung dient der medienpädagogische Stammtisch, welcher im No- vember 2020 gegründet wurde, um den Bedarf an medienpädagogischen Angeboten für junge Menschen in Vorarlberg zu ermitteln und um eine Vernetzungsplattform zu bieten. Vertreter*in- nen verschiedener Einrichtungen schlossen sich zusammen, um die durch die Coronamaßnah- men verschärfte Situation zu verbessern. Der Stammtisch dient als Netzwerk und ermöglicht den Austausch zwischen den Akteur*innen. Die Bedeutung digitaler Unterstützungsnetzwerke für Jugendliche wird durch verschiedene Studien untermauert. So ermöglichen Digitale Netzwerke den Aufbau sozialer Beziehungen, den Austausch von Erfahrungen und Interessen sowie die Verbesserung der psychischen Gesundheit von Jugendlichen. Sowohl die Angebotslandschaft Vorarlbergs als auch die Unterstützungsangebote in krisenhaften Lebenssituation wurde durch die Unterstützung von Netzwerkkarten erhoben und bieten damit eine Visualisierung der Ak- teur*innen und deren Beziehungen als Unterstützungsnetzwerk. Im Rahmen der Forschungserkenntnisse betonen die Expert*innen, dass der medienpädagogi- sche Stammtisch eine wertvolle Ressource ist und Unterstützung in der Entwicklung digitaler Kompetenzen bietet. Sie sehen die digitale Lebenswelt als Erweiterung der realen Lebenswelt und plädieren für eine ganzheitliche Betrachtung beider Räume. Die Expert*innen betonen die Bedeutung einer Vernetzung von Akteur*innen auf verschiedenen Ebenen und die Notwendig- keit einer gemeinsamen Bewältigung der digitalen Herausforderungen. Digitale Unterstützungs- netzwerke können Jugendlichen in Krisensituationen helfen und ihre psychische Gesundheit stärken. Eine enge Zusammenarbeit zwischen den Akteur*innen, die Verbesserung der digitalen Bildung und Qualifizierung von Fachkräften sowie präventive Maßnahmen sind entscheidend, um Jugendliche im digitalen Raum zu unterstützen. Insgesamt zeigt sich, dass eine ganzheitliche und koordinierte Herangehensweise erforderlich ist, um Jugendlichen in der digitalen Lebenswelt effektive Unterstützung zu bieten. Die Evaluation und Weiterentwicklung des Unterstützungsnetzwerks sind von großer Bedeutung, um den sich wandelnden Bedürfnissen gerecht zu werden. Zudem ist die Einbeziehung des sozialen Umfelds der Jugendlichen ebenfalls unerlässlich. Die Digitalisierung bringt sowohl Risiken als auch Chancen mit sich, was maßgeblich zur Rele- vanz beiträgt, ein starkes und effektives Unterstützungsnetzwerk aufzubauen, das Jugendliche auf ihrem Weg durch das digitale Zeitalter begleitet und unterstützt.
Die Entwicklungen im Bereich der Algorithmen, Machine Learning und Künstlicher Intelligenz sind rasant und halten Einzug in immer mehr Bereichen des alltäglichen Lebens, insbesondere in den Unternehmen. Aus diesem Grund wird in dieser Arbeit der Frage nachgegangen, inwiefern dieser Trend Auswirkungen auf die benötigten Management-Kompetenzen hat. Zur Beantwortung dieser Frage wird zuerst die klassische Management-Lehre mit ihren zentralen Begrifflichkeiten und bestehenden Kompetenzmodellen beleuchtet und basierend auf diesen Erkenntnissen ein Analyse-Hilfsmodell entwickelt. Im Anschluss werden die wichtigsten Grundlagen zum Themenkomplex Algorithmus, Machine Learning und Künstliche Intelligenz behandelt und auf dieser Basis benötigte Management-Kompetenzen abgeleitet. Zusätzlich werden aktuelle Studien großer Beratungsunternehmen und Fachartikel analysiert und ebenfalls Kompetenzen für den Einsatz von Machine Learning und Künstlicher Intelligenz identifiziert. Schliesslich wird eine Gap-Analyse durchgeführt mit dem Resultat, dass keine grundsätzlich neuen Kompetenzen notwendig sind, diese jedoch teils erweitert werden müssen und sich deren Wichtigkeit verschiebt.
This thesis evaluates the feasibility of conducting visual inspection tests on power industry constructions using object detection techniques. The introduction provides an overview of this field’s state-of-the-art technologies and approaches. For the implementation, a case study is then conducted, which is done in collaboration with the partner company OMICRON Electronics GmbH, focusing on power transformers as an example. The objective is to develop an inspection test using photographs to identify power transformers and their subcomponents and detect existing rust spots and oil leaks within these components. Three object detection models are trained: one for power transformers and sub-components, one for rust detection, and one for oil leak detection. The training process utilizes the implementation of the YOLOv5 algorithm on a Linux-based workstation with an NVIDIA Quadro RTX 4000 GPU. The power transformer model is trained on a dataset provided by the partner company, while open-source datasets are used for rust and oil leak detection. The study highlights the need for a more powerful GPU to enhance training experiments and utilizes an Azure DevOps Pipeline to optimize the workflow. The performance of the power transformer detection model is satisfactory but influenced by image angles and an imbalance of certain sub-components in the dataset. Multi-angle video footage is a proposed solution for the inspection test to address this limitation and increase the size of the dataset, focusing on reducing the imbalance. The models trained on open-source datasets demonstrate the potential for rust and oil leak detection but lack accuracy due to their generic nature. Therefore, the datasets must be adjusted with case-specific data to achieve the desired accuracy for reliable visual inspection tests. The results of the case study have been well-received by the partner company’s management, indicating future development opportunities. This case study will likely be a foundation for implementing visual inspection tests as a product.
Die schnelllebige und sich verändernde Welt, in der die Menschen gegenwärtig leben, stellt Unternehmen ständig vor neue Herausforderungen. Der Wettbewerb wird immer anspruchsvoller und das Hervorstechen in jeder Branche ist von zahlreichen Faktoren abhängig. Einer davon, der zweifellos einen der grundlegenden Schlüssel zum Erfolg darstellt, ist die Entscheidungsfindung. Um letztere zu unterstützen, werden verschiedene Systeme geschaffen. Unter diesen Systemen lassen sich Business-Analytics-Systeme finden, deren Aufgabe sich auf die Umwandlung von Daten in Informationen konzentriert, um Evidenzen zu schaffen, die es den Managern ermöglicht, Entscheidungen auf der Grundlage von Daten – und nicht auf derjenigen von Intuition – zu treffen. Es ist jedoch Folgendes festzustellen: Obwohl diese Systeme immer besser werden, ist die Mehrheit der Manager in vielen Unternehmen nicht in der Lage, effektive Entscheidungen zu treffen.
Daher ist es das Ziel dieser Arbeit, den Personen in der Wirtschaftswelt eine Untersuchung und Analyse der kognitiven verhaltenspsychologischen Phänomene zur Verfügung zu stellen, um festzulegen, welche dieser Phänomene beim Treffen von Entscheidungen im Rahmen von Business Analytics auftreten und ein Problem verursachen können. Dazu wird die folgende Forschungsfrage gestellt: Welchen Einfluss haben die kognitionspsychologischen Phänomene des Verhaltens in der Business Analytics?
Um diese zu beantworten, ist eine systematische Literaturrecherche durchgeführt worden. Die Analyse der Phänomene anhand eines Data-Mining-Vorgehensmodells (CRISP-DM) zeigte, dass der Einfluss der Phänomene auf Business Analytics signifikant ist und sich auf mehrere Aspekte der Analytik bezieht.
In Anbetracht der zahlreichen Herausforderungen und Entwicklungen, denen mittlere und große Unternehmen ausgesetzt sind, besteht heute oft die Situation, dass zwischen der Geschäftsprozessarchitektur und IT-Architektur ein architektonisches Misalignment herrscht. Dieses architektonische Misalignment macht sich heute vor allem bei den voneinander getrennt verwalteten Prozesslandkarten und IT-Landkarten bemerkbar. Um jedoch bessere Erkenntnisse für erfolgsrelevante Managemententscheidungen bereitstellen zu können, bedarf es einer sogenannten Alignment-Architektur, die beide Teilarchitekturen zu einer Sichtweise und Informationsbasis integriert. Das übergeordnete Ziel der vorliegenden Masterarbeit liegt darin, Antworten auf die Forschungsfrage zu geben, wie die Geschäftsprozessarchitektur mit der IT-Architektur integriert bzw. beide Welten miteinander harmonisiert werden können, um insbesondere daraus bessere Erkenntnisse für Managemententscheidungen im Rahmen der durch das ökonomische Umfeld angetriebenen Unternehmensentwicklung zu gewinnen. Um dieses Ziel erreichen und die Forschungsfrage beantworten zu können, wurde eine theoretisch-konzeptionelle Forschungsarbeit im Rahmen eines erweiterten Literaturstudiums betrieben, indem mit Hilfe von bestehender Literatur theoretische Erklärungsmuster zum vorliegenden Thema gesammelt, analysiert und in ein eigenes sowie neues Erklärungsmuster eingeordnet wurden. Durch diese neue Einordung und die grundsätzliche Theoriearbeit charakterisiert sich die durchgeführte Forschungsarbeit zudem als eine gestaltungsorientierte und qualitative Forschung. Die Ergebnisse dieser Forschungsarbeit sind fünf meta-kognitive Ansätze zur Integration der Geschäftsprozessarchitektur und der IT-Architektur. Diese sind der ursachenbasierte, der erfolgsbasierte, der denkbasierte, der granular-iterative und der interarchitektonische Integrationsansatz. Die vorliegende Masterarbeit demonstriert anhand von fundierten theoretischen Erkenntnissen, wie eine Integration zu einer Alignment-Architektur zwischen der Geschäftsprozessarchitektur und IT-Architektur erfolgen und inwiefern daraus bessere Erkenntnisse für Managemententscheidungen gewonnen werden können. Schließlich zeigen diese Erkenntnisse auf, wie ein Architekturmanagement aus einer anderen Gesamtperspektive betrachtet werden kann, um eine erfolgreiche Architekturintegration zu ermöglichen.
In unserer digitalen Welt haben es einige Technologie-Marken bis ganz nach oben geschafft. Große Tech-Unternehmen wie Apple, Amazon, Microsoft und Google belegen die ersten Plätze der Best Global Brands im Jahr 2021 (Interbrand, 2021). Aber auch Automobilhersteller wie Toyota, Mercedes-Benz und BMW spielen ganz oben mit.
Wir möchten zunehmend mit unserer Außenwelt vernetzt sein, auch während dem Autofahren (Ulrich, 2015). So haben wir die Möglichkeit, unser Smartphone über eine Integrations-Schnittstelle, wie z.B. Apple CarPlay, in das vorhandene Infotainment-System des Autos zu integrieren. Durch die Integration werden zwei Systeme von unterschiedlichen Marken, basierend auf verschiedenen Styleguides, auf einem Bildschirm abwechselnd genutzt und dargestellt. Man kann zwischen den beiden Systemen hin und her wechseln, je nachdem, welche Funktionen man gerade nutzen möchte. Dabei entsteht einerseits ein heterogenes Benutzererlebnis für die Nutzerinnen und Nutzer, und auch für Designerinnen und Designer entstehen gewisse Herausforderungen. Lassen sich die Systeme unterschiedlicher Marken bis zu einem gewissen Punkt visuell aneinander annähern, und kann dadurch die Usability für die Nutzerinnen und Nutzer erhöht werden? Mit diesen Herausforderungen im Design beschäftigt sich diese Arbeit.
Ergebnis ist die Konzeption eines Gestaltungssystems, welches einen Vorschlag für die Annäherung zwei heterogener grafischer Benutzeroberflächen von zwei unterschiedlichen Marken bietet, wenn diese zusammen auf einem Bildschirm dargestellt und von den Nutzerinnen und Nutzern genutzt werden können. Anhand des Systems können die Interfaces aneinander angenähert werden, und sich dennoch über identifizierte Gestaltungselemente differenzieren.
The fact that services have emerged a driving force and the fastest growing sector in international trade attracts researchers to follow the changes taking place in the service industry. This study extends the scientific discussion on internationalization of service firms. Unlike previous research that examined factors that influence a single firm’s decision to internationalize, I acknowledge the heterogeneity of services, and based on the results obtained from secondary analysis of primary qualitative data sets, answer the main research question how internationalization motives differ between people-processing services, possession-processing services, and information-based services. This research goes beyond identification of variation in internationalization motives and analyses the service characteristics that might be responsible for the differences. In addition, I assess the key trends in the service sector and predict the possible future internationalization motives that are likely to emerge from the current trends.
Findings of this study reveal two major issues. First, it is evident that reasons for internationalization differ among hotel, retail firms and Higher education institutions representing people-processing services, possession-processing services, and information-based services respectively. Second, a few motives are common across sub-sectors, however the significance of the motives vary from sub-sector to sub-sector. I conclude that the differences in underlying structures of the respective service sub-sectors is the fundamental cause for the variation in internationalization motives among service sub-sectors. Other factors such as distinctive characteristics of service, firm’s competitive strategies, income elasticity of demand, and life-cycle stage of the service sub-sector also contribute to the differences in internationalization motives.
This paper also presents three different factors, which are likely to emerge as significant factors that influence service firm internationalization decision in future. (1) Company’s urge to be socially responsible and the need to contribute towards the environmental well-being (2) The need to sell regional products and services to neighbouring nations and respond to consumers’ demand for sustainable consumerism (3) Decision to penetrate foreign markets facilitated by the low risks and low cost of internationalization.
Operative Exzellenz wird als Sammelbegriff für strategische Managementansätze angesehen, welche anhand von Optimierungsinitiativen die Geschäftsprozesse des Unternehmens auf Kundenbedürfnisse, Qualität wie auch auf Effizienz ausrichten. Exzellenzmodelle kombinieren sowohl technische als auch soziale Faktoren im Streben nach nachhaltiger Verbesserung und basieren nicht nur auf dem Betriebsmanagement und den technischen Prozessen, sondern widmen auch den Menschen und ihrem Einfluss auf die erfolgreiche Umsetzung eines Optimierungsprogramms besondere Aufmerksamkeit. Ziel dieser Masterarbeit ist es, die entscheidende Rolle von Führungskräften und deren Führungsstile zu diskutieren, welche laut der ausgewerteten akademischen Literatur, sich für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 als erfolgsversprechend nennen lassen, indem die gewünschte Organisationskultur durch gezielte Anwendung von Führungskonzepten gefördert wird. Die Fragestellung der Masterarbeit wird anhand eines theoretisch-konzeptionellen Vorgehens beantwortet. Die Untersuchungen haben die Erkenntnisse zu Tage gebracht, dass sich mit dem Wandel der Anforderungen an die Unternehmen, auch die Führungskonzepte an die Anforderungen angepasst haben und somit auch die Führungsphilosophie von „Command and Control“ zu „Empowerment“, „agiler Führung“ und „transformationaler Führung“ übergegangen ist. Für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 konnten die Führungskonzepte „Transformationale Führung“, „Symbolische Führung“, „Mitarbeiter empowern“ und „Agile Führung“ identifiziert werden. Es besteht Grund zur Annahme, dass eine Kombination der vorgestellten Führungskonzepte die besten Ergebnisse liefern würde, insofern das geeignetste Führungskonzept situationsadäquat angewendet wird.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.
Thank god it's friday
(2022)
Das Ziel der vorliegenden Masterarbeit ist es zu untersuchen, welche Rolle Design im Kontext gesellschaftspolitischer Bewegungen spielt und in welchen Zeichen sich der Protest der Klimabewegung Fridays for Future äußert. Ebenfalls untersucht wird, inwiefern sich diese einst subversiven Elemente der Klimabewegung wiederum in den Mainstream der Werbeindustrie eingliedern.
Dazu wird die folgende Forschungsfrage gestellt: In welchen Zeichen manifestiert sich der aktuelle Klimaprotest und welche Zeichen finden sich in der Werbung wieder? Lässt sich für den Betrachtenden noch dechiffrieren wo der Protest aufhört und der Konsum beginnt?
Das Erkenntnisinteresse besteht darin, Bilder aus dem Aktionsrepertoire der Fridays for Future Bewegung über den Zeitraum 2019-2021 zu sammeln, die Ausbildung ihrer visuellen und sprachlichen Ausdrucksformen zu analysieren und zu dechiffrieren.
Zur Untersuchung des Bildmaterials werden Methoden aus unterschiedlichen Disziplinen eingesetzt. Protestäußerungen, die über Plakate, Fotografien und andere Medien zum Ausdruck kommen, werden gesammelt und mit bildwissenschaftlichen und rhetorischen Methoden untersucht. Die Argumentation erfolgt anhand der Untersuchung dreier konkreter Beispiele aus der Werbung mittels der dokumentarischen Methode der Bildinterpretation nach Bohnsack. In der Analyse der Kampagnen geht es um das Wechselverhältnis zwischen der ästhetischen Selbstdarstellung der Bewegung und ihrer Rezeption bzw. Re-Inszenierung in der Werbung.
Die Ergebnisse der Analyse zeigen, wie sich Werbung durch die Aneignung der Klimasymbolik vom klassischen Kommunikationsinstrument der Wirtschaft zunehmend zu einer Kommunikation auf nicht-ökonomischer und gesamtgesellschaftlicher Ebene entwickelt.
Bezugnehmend auf die Re-Inszenierung der Protestcodes in der Werbung werden diese in der praktischen Ausarbeitung durch die Antiwerbung-Aktionsform des Culture Jammings selbst noch einmal zitiert und ironisiert. Dabei werden die Medien und Mittel der Werbung verwendet, wodurch sich ein Dreisatz aus Aneignung, Manipulation und Wiedereinspeisung ergibt.
Erfolgreiche Personalarbeit zeichnet sich durch gute, datenbasierte Kenntnisse und Verknüpfungen über alle Geschäftsbereiche, mit Fokus auf die Menschen im Unternehmen, aus. In vielen Unternehmen werden relevante Personalentscheidungen noch immer aus dem Bauch heraus getroffen, anstatt durch eine fundierte Grundlage von Daten. People Analytics ist einer der wichtigsten Trends im Personalmanagement und dennoch wird es kaum in einer Personalabteilung der DACH-Region eingesetzt. Ziel dieser Masterarbeit ist es, die Chancen und Herausforderungen von People Analytics auszuarbeiten und Einsatzmöglichkeiten für Industrieunternehmen der DACH-Region aufzuzeigen. Dafür werden die theoretischen Grundlagen und Anwendungsprozesse von People Analytics dargelegt und die Herausforderungen und Hindernisse sowie die Möglichkeiten und Chancen ausgearbeitet. Im Rahmen von zwei Experteninterviews mit HR-Spezialisten werden die aktuellen Gegebenheiten der DACH-Region eruiert. Dabei wurde ersichtlich, dass die größten Chancen von People Analytics sowohl in der Literatur als auch den befragten Personen zufolge, in der datenbasierten Entscheidungsfindung, der strategischen Personalentwicklung sowie in der strategischen Personalplanung liegen. Die größten Herausforderungen werden in der Akzeptanz der Mitarbeitenden, der IT-Infrastruktur sowie in der fehlenden analytischen Kompetenz der Mitarbeitenden im Personalbereich gesehen. Einsatzmöglichkeiten, abseits der derzeit bereits ausgewerteten Unternehmenskennzahlen, sind aufgrund der oben genannten Herausforderungen sowie den marginal vorhandenen Daten in den Unternehmen der DACH-Region derzeit keine gegeben.
Unbegreiflich? Begreif mich!
(2022)
Fehlendes Wissen führt zu fehlendem Verständnis und beeinträchtigt die Empathie gegenüber Menschen mit Behinderungen und deren Lebensumständen.
Diese Arbeit untersucht bisherige Methoden zur medialen Verständnisvermittlung chronischer Krankheiten mittels Seznografie. Der Fokus liegt dabei auf rheumatischen Erkrankungen. Die Analyse beinhaltet Aspekte der Wahrnemungsvermittlung, welche bislang noch nicht oder ungenügend erforscht wurden. Es werden Beispiele zu verschiedenen Inszenierungen von Krankheit und deren Auswirkungen auf die Betroffenen gesammelt und analysiert. Dabei wird beurteilt, welche Methoden zur Vermittlung eingesetzt werden können, um durch das Erlebnis von Objekten die Empathie gegenüber körperbehinderten Menschen zu steigern und in weiterer Folge deren Inklusion in die Gesellschaft zu verbessern. Die Kombination aus faktischem Wissen gekoppelt mit einer Selbsterfahrung verstärkt den Lerneffekt und kann das Verhalten nachhaltig beeinflussen. Durch das immersive verstehen einer Situation besteht die Möglichkeit Empathie aufzubauen und zu stärken. Diese Faktoren werden bei der Konzipierung mit einbezogen und sind maßgeblich für die Struktur der Ausstellung.
Das erarbeitete Austellungskonzept baut auf bisherigen best practice Beispielen, sowie recherchierten Methoden auf, wobei die Besucher:innen immersiv mit dem Thema Behinderung und chronische Krankheiten konfrontiert werden. Dieses Konzept ist in Form einer Partitur dieser Arbeit beigelegt, um den Erlebnispfad durch die erarbeiteten Inhalte und Darstellungen übersichtlich zu präsentieren. Die entwickelten Objekte wurden durch Recherche und anhand von Interviews auf ihre Eignung geprüft und in ihrer Wirkung und Relevanz bestätigt.
Das Betriebliche Gesundheitsmanagement (BGM) bildet einen bedeutenden Bestandteil in Unternehmen, um die Gesundheit von Mitarbeitenden zu bewahren, wiederherzustellen oder zu fördern. Die Gesundheit der Mitarbeitenden trägt maßgeblich zum Erfolg von Unternehmen bei, da Mitarbeitende eine essenzielle Ressource im Unternehmen darstellen. Speziell während der Coronapandemie stehen Unternehmen vor der Herausforderung das Betriebliche Gesundheitsmanagement auch im Home-Office oder bei dem Mobilen Arbeiten zu gewährleisten. Die vorliegende Arbeit beschäftigt sich mit den BGM-Maßnahmen im Home-Office in Großunternehmen in Deutschland und der Frage, welche BGM-Maßnahmen die Gesundheit der Mitarbeitenden im Home-Office positiv beeinflussen und somit eine Handlungsempfehlung darstellen. Hierzu wurde sowohl eine systematische Literaturrecherche als auch eine empirische und qualitative Studie mit sechs Experten und Expertinnen in deutschen Großunternehmen durchgeführt. Die Ergebnisse zeigen, dass die analysierten Großunternehmen in Deutschland vor allem Maßnahmen im Bereich der Betrieblichen Gesundheitsförderung zur Abwendung psychischer Krankheiten einsetzen. Auch Maßnahmen zur Ergonomie spielen eine zentrale Rolle. Besonders virtuelle Maßnahmen, wie eine Aktive Pause, virtuelle Kurse zur Stressbewältigung und Achtsamkeit sowie Apps, werden in den Unternehmen eingesetzt. Das BGM wird bei den meisten Befragten im Rahmen des Mobilen Arbeitens angeboten, da hierbei unter anderem eine höhere Flexibilität möglich ist und weniger rechtliche Vorgaben seitens der Arbeitgebenden im Vergleich zum Home-Office beachtet werden müssen.
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
Although pilot projects are an accepted means of entry into prospects, research on the object of startups selling SaaS and use pilots to enter and to further scale within their prospect’s organization is limited. The reader can expect a collection of key practices of SaaS startups in the field of Decision Support Software. These combine the main sales-oriented elements within pilot projects that are reflected on by Customer Success Management, Change Management as well as cultural dimensions. Explorative interviews, mainly with stakeholders in Decision Support Software startups, were conducted to further gain an understanding of the research object. Results indicate that pilots are strategically used in the sales of such startups to simultaneously deal with their customer’s uncertainties and as a means for the startups to get commitment and increase their value proposition through the additional service that they offer in order to acquire an internal support basis. Customer Success Management as well as Change Management are furthermore advantageous in quickly achieving measurable results that leverage buyers and seller’s justification for further sales.
Offline speech to text engine for delimited context in combination with an offline speech assistant
(2022)
The inatura museum in Dornbirn had planned an interactive speech assistant-like exhibit. The concept was that visitors could ask the exhibit several questions that they would like to ask a flower. Solution requirements regarding the functionalities were formulated, such as the capacity to run offline because of privacy reasons. Due to the similarity of the exhibit, open-source offline Speech To Text (STT) engines and speech assistants were examined. Proprietary cloud-based STT engines associated with the corresponding speech assistants were also researched. The aim behind this was to evaluate the hypothesis of whether an open-source offline STT engine can compete with a proprietary cloud-based STT engine. Additionally, a suitable STT engine or speech assistant would need to be evaluated. Furthermore, analysis regarding the adaption possibilities of the STT models took place. After the technical analysis, the decision in favour of the STT engines called "Vosk" was made. This analysis was followed by attempts to adapt the model of Vosk. Vosk was compared to proprietary cloud-based Google Cloud Speech to Text to evaluate the hypothesis. The comparison resulted in not much of a significant difference between Vosk and Google Cloud Speech to Text. Due to this result, a recommendation to use Vosk for the exhibit was given. Due to the lack of intent parsing functionality, two algorithms called "text matching algorithm" and "text and keyword matching algorithm" were implemented and tested. This test proved that the text and keyword matching algorithm performed better, with an average success rate of 83.93 %. Consequently, this algorithm was recommended for the intent parsing of the exhibit. In the end, potential adaption possibilities for the algorithms were given, such as using a different string matching library. Some improvements regarding the exhibit were also presented.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Das Ziel der vorliegenden Masterarbeit ist der Nachweis einer signifikanten Korrelation zwischen der ausgewiesenen Position des derivativen Firmenwertes und der Marktkapitalisierung kurz nach Veröffentlichung der Finanzberichte von börsennotierten Unternehmen in der Dachregion. Darauf basierend ist das zweite Ziel die Hervorhebung von Problemen und Risiken für Investoren, die basierend auf den momentan geltenden IFRS-Richtlinien durch den derivativen Firmenwert entstehen. Außerdem veranschaulicht die Masterarbeit für Investoren relevante Informationen und Indikatoren zur Risikoabschätzung von derivativen Firmenwert Positionen. Die Masterarbeit basiert auf einem Datensatz von 1631 IFRS-basierten Jahresabschlüssen innerhalb der Jahre 2016 bis 2021, erhalten durch die reputable Osiris-Datenbank. Des Weiteren wurde facheinschlägige Literatur zur Identifikation von Problemen und Risiken basierend auf den momentan gültigen IFRS-Richtlinien analysiert. Die Studie zeigte einen hoch signifikanten Zusammenhang zwischen der Position des derivativen Firmenwertes und der Marktkapitalisierung drei Monate nach dem Jahresabschluss. Des Weiteren hat die Literaturrecherche gezeigt, dass erhebliche Risiken basierend auf der Intransparenz, Möglichkeiten zur Gewinnmanipulation und der Überbewertung des derivativen Firmenwertes sowie des übernommenen Vermögens im Rahmen von Unternehmenszusammenschlüssen existieren. Basierend auf dem limitierten Zeitfenster und der regionalen Einschränkung der Studie, kann diese nur beschränkt Einsichten für Märkte außerhalb der „DACH“-Region bieten. Zusätzlich sind die Schlussfolgerungen durch die Anwendbarkeit eines multiplen linearen Regressionsmodells auf das Problem limitiert. Diese Masterarbeit leistet durch die Bereitstellung tiefergehender Einsichten in die Ausmaße und Einflüsse des derivativen Firmenwertes, innerhalb von IFRS-basierten Finanzberichten börsennotierter Unternehmen, einen Beitrag zur existierenden Literatur. Des Weiteren untersucht und konsolidiert sie fachspezifische Literatur hinsichtlich Risiken und Probleme des derivativen Firmenwertes, entstehend aus den Ansatz-, Bewertungs- und Informationsoffenlegungsrichtlinien in den IFRS.
Wärmepumpen werden als vielversprechende Lösung zur Dekarbonisierung des Gebäudesektors angesehen. Konventionelle Kältemittel, die als direkte Emissionen aus Wärmepumpensystemen austreten, stellen insbesondere vor dem Hintergrund steigender Installationszahlen ein relevantes Treibhauspotenzial dar. Natürliche Kältemittel verfügen über ein geringes Treibhauspotenzial und können daher zur Substitution konventioneller Kältemittel verwendet werden. Dennoch werden sie bislang nicht im großen Maßstab eingesetzt. Es bedarf weiterer Studien und Anreize, um den Einsatz natürlicher Kältemittel voranzubringen. In dieser Fallstudie erfolgt anhand eines Referenzprojektes ein simulativer Vergleich zweier reversibler Luft-Wasser-Wärmepumpen. Im Referenzfall wird das konventionelle Kältemittel R32 verwendet, als Alternative dient das natürliche Kältemittel R290. Die beiden Systeme werden hinsichtlich ihrer Effizienz, Klimawirksamkeit und Wirtschaftlichkeit verglichen. Die notwendigen Berechnungen basieren auf einem kalibrierten Simulationsmodell des Gebäudes und der Anlage. Die Ergebnisse zeigen einen energetischen und ökologischen Vorteil für R290. Im Heizbetrieb, der den Hauptteil des thermischen Energiebedarfs im Referenzprojekt ausmacht, erreicht die Wärmepumpe mit R290 eine um 9% höhere Jahresarbeitszahl. Im Gegensatz dazu erzielt die R32-Wärmepumpe eine um 12% höhere Jahresarbeitszahl im Kühlbetrieb. Durch die höhere Effizienz im Heizbetrieb und das niedrigere Treibhauspotenzial des Kältemittels liegen die Emissionen durch den Betrieb der R290-Wärmepumpe um 17% unter denen der R32-Wärmepumpe. Der wirtschaftliche Vergleich der beiden Systeme fällt aufgrund höherer Investitionskosten zum Nachteil der R290-Wärmepumpe aus.
Cultural Due Diligence
(2020)
Much research has been conducted in recent years to discover the reasons for the high failure rate of M&As, whereas one frequently cited reason is the incompatibility of the corporate cultures. In order to minimize this risk and to be able to react to these differences already at an early stage, Cultural Due Diligence offers itself as part of the due diligence process. Unlike existing, more general research, I emphasize the cultural challenges companies face when investing transnationally with this thesis. Using the results of a single case study with inductive character, I answer the question how to conduct Cultural Due Diligence in cross-border M&As and propose an appropriate model. The findings reveal that especially in cross-border M&As, cultural incompatibility poses a risk for failure. I was able to find out that companies that seek to grow internationally with M&As deal with similar issues in terms of corporate culture as pointed out in existing Cultural Due Diligence methods. The present study, however, shows that national culture has a great influence on corporate culture, which is why it is essential to include it in the cultural assessment in cross-border acquisitions. This provides information about why there are differences, besides the fact that they exist. Only this understanding puts a company in the appropriate starting position to recognize differences, understand them, assess whether these differ-ences are acceptable, as well as to develop appropriate strategies to address them in the integration phase.
Für die Digitale Fabrik an der FH Vorarlberg sollen Intrusion-Detection-Systeme (IDS) zur Erkennung von Angriffen auf Hosts sowie im Netzwerk evaluiert werden. Außerdem sollen die aus den IDS erhaltenen Resultate so dargestellt werden, damit Systemadministratorinnen rapide Entscheidungen bezüglich der generierten Alarme treffen können. Um dies zu gewährleisten sollen neben den IDS zusätzlich entsprechende Visualisierungstools evaluiert werden. In dieser Arbeit werden dazu unterschiedliche signatur- sowie auch anomaliebasierte Netzwerk- und Host-IDS technisch beschrieben und anhand von Kriterien, welche aus den Anforderungen abgeleitet werden, bewertet. Zusätzlich wird die Genauigkeit der IDS durch Testen von spezifischen Angriffen ermittelt. Außerdem werden potenzielle Tools für die Darstellung von Alarmen aus den IDS vorgestellt und ebenfalls anhand den Anforderungen aufgezeigt, welches am geeignetsten ist. Abschließend werden alle Probleme sowie Erkenntnisse aufgezeigt, welche während der Evaluierung auftraten und erläutert, wie diese Arbeit fortgeführt werden kann.
Die Digitalisierung in Unternehmen und somit der Vormarsch von Industrie 4.0 zählen zu den am häufigsten besprochenen Themenfeldern der letzten Jahre. Mit Industrie 4.0 fallen auch Schlagwörter wie ‚Internet of Things‘ oder ‚Big Data‘. Diese Technologien sind dafür zuständig, die Produktion zu vernetzen, Daten aufzubereiten und somit einen Wettbewerbsvorteil zu erlangen. Dem gegenüber steht die altbewährte ‚Lean Six Sigma‘-Methode, die große Beliebtheit in Unternehmen genießt und weltweit angewandt wird.
Das Ziel der vorliegenden Arbeit ist, die Auswirkungen des digitalen Wandels auf die Methode Lean Six Sigma zu untersuchen. Daraus resultiert auch die Forschungsfrage: Welche Chancen und Risiken birgt der digitale Wandel durch Industrie 4.0 für die Nutzung von Lean Six Sigma in Unternehmen?.
Um die Forschungsfrage beantworten zu können, wird in dieser Masterarbeit auf mehrere Fachquellen Bezug genommen, in denen der Zusammenhang zwischen Industrie 4.0 und Lean Six Sigma sowohl theoretisch als auch praktisch untersucht wird. Damit bewegt sich die Arbeit im theoretisch-konzeptionellen Bereich. Insgesamt 47 relevante Beiträge wurden dabei identifiziert.
Aus den Beiträgen ergeben sich vier Technologien, die den größten Einfluss auf Lean Six Sigma und den DMAIC-Zyklus (Define, Measure, Analyze, Improve, Control) haben. Diese Technologien sind Big Data, Data-Mining, Process-Mining und Simulation. Durch eine genaue Analyse der Literatur wird gezeigt, dass sich ein Zusammenspiel der beiden Methoden lohnt; es wird aber auch darauf hingewiesen, dass Risiken zu beachten sind.
Keywords: Lean Six Sigma, Industrie 4.0, Big Data, Data-Mining, Process-Mining, Simulation
Die vorliegende Arbeit beschäftigt sich mit der Positionsbestimmung in Innenräumen mittels der Ultra Breitband Technologie, deren Genauigkeit sowie der Positionierung solcher Systeme in relevanten Beleuchtungsmodulen. Im ersten Teil der Arbeit wird die Ultrabreitband Technologie beschrieben, die sich für Ortbarkeit in Innenräumen durch die große Bandbreite, relativ gut eignet. Hierbei wird auf das UWB-Signal, die Regulierung bezüglich Frequenznutzung für Europa und USA sowie auf die UWB-Standards eingegangen. Im weiteren Verlauf der Arbeit werden die gegenwärtigen Positionsbestimmungs Verfahren beschrieben. Beispiele hierfür sind das Time of Flight (ToF), das Time of Arrival sowie nicht funkbasierte Methoden wie z. B. die Inertial Measurement Unit (IMU). Die Positionsbestimmung in der UWB-Technologie wird häufig mittels ToF und ToA bewerkstelligt. Im darauffolgenden Kapitel werden die gegenwärtigen Lokalisierungssysteme erklärt. Real Time Locating Systems (RTLS) kommen in vielen Lebensbereichen zum Einsatz, von Krankenhäusern bis zum Sport. Der zweite Teil der Arbeit besteht aus der Ausarbeitung von verschiedenen Konzepten zur Realisierung eines Demonstrators sowie der Ausarbeitung eines Simulationsmodells für die Positionsbestimmung, mit dem eine Ortungsgenauigkeit von 30 bis 50 cm erreicht werden kann.
Purpose: In this thesis the viable system model (VSM) is used as a framework to develop a model for the management of a business alliance that contains the necessary and sufficient conditions for maintaining synergy of its constituent organisations and for adapting to a changing environment so that it can remain a long-term viable alliance. In addition, a model is developed that makes explicit the inherent link between the VSM and the core elements of knowledge management theory. Based then on the alliance management model and the link established between the VSM and knowledge management, an application framework is developed to guide practitioners in defining necessary alliance management functions and relationships, the knowledge required by that management to fulfill those functions, and the processes that need to be in place to manage that knowledge. Design/strategy: The research has been divided into four phases: theoretical construction, refinement with practitioners, real-world application, and evaluation of test case and toolset. The researcher has worked closely with practitioners actively involved in the formation of a new international alliance to develop a VSM model and application framework for the alliance management. Formally, the research strategy has been defined as an action research and the research philosophy as one of pragmatism. Findings/limitations: The developed application framework, has been successfully used to identify absent and incomplete roles, actions, and interactions within the management of the specific alliance test case. This has helped to demonstrate how the application framework and VSM model can be used to diagnose and, most importantly, to articulate and visualise management deficiencies to facilitate clear and unambiguous discussions. The timing of this cross-sectional research did not allow the application framework to be utilised from the outset of the alliance formation as an organisational planning tool and also not to its full extent to support the development of knowledge processes for the alliance management. However, the step-by-step approach used in developing the toolset and then explaining its application will allow the reader to judge its credability and generalisability for other practical applications. Practical implications: The developed toolset consists of a VSM for an alliance management, job descriptions for that management (responsibilities, interfaces, and core competencies), a visual model illustrating the link between the VSM and knowledge management, and an application framework to guide the filling of the alliance management job descriptions in phases of recruitment, onboarding, and development (of interfaces and activities processes). Overall, one could say that the conditions prescribed by the VSM are rather obvious and yet, as seen by the specific alliance test case, many of these conditions have been completely overlooked by a management that was more than capable, willing, and empowered to enact those conditions. This gives a good indication that the toolset which has been compiled in a visual and tabular systematic fashion may well be useful to practitioners for the organisational planning of an alliance management. The visual representation of a management role in the VSM as a set of knowledge episodes put forward by this research is significant. It forces the express recognition that knowledge management is an integral part of every interaction that takes place and every action performed that, according to the VSM, are necessary and altogether are sufficient for viability. It means that knowledge management cannot be considered as some abstract topic or unnecessary overhead or afterthought – it is entirely necessary, practical and forms a natural course of events during design of action/interaction processes. In other words, if an organisation is viable then, by definition, it does knowledge management whether or not it is formally recognised as such. The VSM, by defining necessary and sufficient actions and interactions for its roles, therefore provides a focus for relevant knowledge and serves as a tool for structured knowledge management. Originality/value: This research addresses a general academic call for hands-on insights of VSM applications by sharing real-world insights, artifacts and reflections generated by a practical and relevant organisational management application. It also addresses the potential, recognised by academics, for VSM as a framework for knowledge management by developing an intuitive model linking those theories and then using that model as part of a framework to guide its application. The introduction to aspects of knowledge management theory relevant to the model developed as well as the meticulousness and comprehensive explanation of the VSM provides a solid theoretical foundation for practitioners. The developed toolset is based on existing theories from multiple fields of research that have been logically linked and extended in an original and novel manner with a strong focus on practical application. This researcher’s hope is that this will stimulate interest for future research and practical application from academics and practitioners alike.
In den 13 Jahren seit Einführung der IFRS für KMU in Deutschland belegen mehrere Studien, dass dieser Standard, entgegen der Erwartungen, keine Erfolge im Bereich der Anwenderzahlen erzielen konnte. Trotz der Entwicklung eines international angepassten und auf die Bedürfnisse der KMU fokussierten Rechnungslegungsstandards, blieb eine Etablierung innerhalb der KMU aus.
Ziel dieser Arbeit ist die Analyse, inwiefern eine doppelte Rechnungslegung nach IFRS und HGB wirtschaftliche und geschäftsanalytische Vorteile für die Anteilseigner deutscher KMU generiert. Aufbauend auf der beschriebenen Zielsetzung gilt es zu überprüfen, welche Anteilseigner deutscher KMU von dem doppelten Rechnungslegungsstandard adressiert werden und ferner, in welchem Ausmaß eine höhere Bedürfnisbefriedigung resultiert. Zunächst erfolgt im Rahmen einer umfassenden Literaturrecherche eine Untersuchung der Anteilseigner deutscher KMU und deren Anforderungen an ein Rechnungslegungssystem. Anschließend findet eine Überprüfung möglicher Vorteile statt, welche die Anwendung der IFRS für KMU befürworten würden. Darüber hinaus wurden zehn Experteninterviews durchgeführt mit der Intention, erworbene Erkenntnisse zu revidieren und überdies neue zu generieren. In einer abschließenden Inhaltsextraktion werden die gewonnen Annahmen artikuliert und anschließend interpretiert, um die zugrundeliegende Forschungsfrage zu beantworten.
The research focused on the wood pellet market for private consumers in Germany and has the objective to understand the factors affecting the purchase decisions of wood pellets buy-ers. The aims of the research were achieved by applying the Engel, Kollat, Blackwell model of consumer behaviour, by conducting in-depth interviews and deriving the grounded theory. The application of EKB model revealed that the following groups of factors may influence the con-sumers: cultural (culture and social class), social (family influence), personal (age and lifecycle stage), psychological (believes, motives, attitudes) and unexpected circumstances. In-depth interviews with the buyers of wood pellets helped specify the influencing factors to finally an-swer the research question. The analysis showed that the buyers of wood pellets are influ-enced by family, personal believes and attitudes, and the unexpected circumstances. The most important factors for the buyers are the quality of the pellets and reliability of the supplier. If they are satisfied with the quality of product and service, they will be reluctant to look for an alternative. And on the opposite side, in case the quality of the product or the service is unsat-isfactory this is a limiting factor and will stop the buyer from purchasing this product. Price is an important factor for the buyers of pellets in bags. However, in the situation of volatile mar-ket and exploding prices, the price factor will play a bigger role. Thus, the strategic factors for marketing of pellets is to concentrate on quality and price communication, and to focus on the quality of pellet delivery service.
Diese Arbeit hat die Untersuchung der Frage, wie Mitarbeiter:innen agile Führung inmitten der COVID-19-Krise wahrnehmen, zum Ziel. Die leitende Forschungsfrage lautet: „Wie erfolgreich ist agile Führung in Zeiten der COVID-19-Pandemie aus Mitarbeitendensicht?“ Hierbei wird die Führungssituation anhand der aktuellen Veränderungstreiber und der COVID-19-Pandemie kontextualisiert. Daraufhin wird nach einem Aufriss der Historie verschiedener Führungstheorien, die agile Führung näher betrachtet. Im Rahmen dieser Aufarbeitung wird agiles Führungsverhalten definiert, welches für die fortführende quantitative Empirie von zentraler Bedeutung ist. Anschließend werden die erlangten Daten aus einer durchgeführten Onlinebefragung ausgewertet und analysiert. Als Gegenstand der Untersuchung werden verschiedene Hypothesen im Hinblick auf Wirkungszusammenhänge zwischen agilem Führungsverhalten und der Zufriedenheit der Mitarbeitenden aufgestellt.
Mit der VRV 2015 wurde die österreichische Voranschlags- und Rechnungsabschlussverordnung reformiert. Die vorangegangene VRV 1997 wurde dadurch großteils abgelöst. Grundstruktur bildet dabei der Drei-Komponenten-Haushalt bzw. das Drei-Komponenten-Rechnungssystem bestehend aus Vermögens-, Finanzierungs- und Ergebnishaushalt. In diesen Haushalten werden die Finanzdaten der einzelnen österreichischen Gemeinden gesammelt.
Ziel der vorliegenden Arbeit ist es, unter Verwendung dieser Finanzdaten relevante Finanzkennzahlen zu identifizieren, welche Rückschlüsse auf die Finanzlage einer Gemeinde ermöglichen. Somit wurden die öffentlich auf der Onlineplattform www.offenerhaushalt.at zur Verfügung stehenden Daten von 1.327 der insgesamt 2.095 österreichischen Gemeinden verwendet. Da der Fokus in dieser Arbeit ausschließlich auf Gemeinden liegt, wurden nur Marktgemeinden und Gemeinden ohne Status berücksichtigt, um die Forschungsfrage beantworten zu können. Dafür wurden in einem ersten Schritt sorgfältig ausgewählte Kennzahlen berechnet und für jede Kennzahl wurde ein Bewertungsschema erstellt. Anschließend wurden die Gemeinden in verschiedene Gruppen eingeteilt und mittels verschiedener Methoden der deskriptiven und multivariaten Statistik analysiert. Die Gemeinden wurden anhand ihrer Einwohnerzahl, ihrer Kennzahlbewertung und ihrer Ähnlichkeit in jeweils drei Gruppen eingeteilt. Die Analysen anhand dieser Einteilungen führten zum Ergebnis, dass vor allem größere Gemeinden eine bessere Finanzlage aufweisen als kleine und mittelgroße Gemeinden. Zudem konnten einzelne Kennzahlen (Eigenertragsquote, Quote freie Finanzspitze und Nettovermögensquote) als relevante Einflussfaktoren für die Beschreibung der Finanzlage einer Gemeinde identifiziert werden. Ein Zusammenhang zwischen Bundesland und Finanzlage konnte nicht hergestellt werden. Zusammenfassend lässt sich sagen, dass die VRV 2015 die Transparenz und Vergleichbarkeit der Finanzdaten der Gemeinden erhöht. Auch die Berechnung aussagekräftiger Kennzahlen bietet zusätzliche Möglichkeiten die Gemeinden zu vergleichen. Auch wenn der zur Verfügung stehende Datensatz (noch) nicht vollständig ist, birgt die VRV 2015 und die damit verbundene verbesserte Übersicht großes Potenzial zur Vereinfachung der Bewertung und Vergleichbarkeit von Gemeinden.
Mit dem Namen Coachly wird eine elektronische Lernplattform bezeichnet, welche im Rahmen eines neuen Lernkonzeptes die Wissensaneignung bzw. Wissensvermittlung für Lernende und Lehrende im schulischen Unterricht erleichtern und effizienter gestalten soll. Dies wird vor allem durch fest integrierte individuelle Coaching-Einheiten und ein konstantes Monitoring des Lernprozesses gewährleistet. Die vorliegende Arbeit beschäftigt sich in ihrer theoretischen Auseinandersetzung mit den Themenbereichen „Lernen“ und „Unterricht“. Während bei Ersterem unter anderem Lernziele und verschiedene Lerntheorien behandelt werden, widmet sich das Kapitel „Unterricht“ den Unterrichtsarten „Klassischer Unterricht“, „E-Learning“ und „Blended Learning“. Auch Unterrichtsmethoden und innovative Ansätze der Wissensaneignung werden hier abgehandelt. Darüber hinaus dokumentiert die Arbeit die verwendete Forschungsmethode und deren Ergebnisse sowie die Konzeption und Umsetzung des entstandenen Lernkonzeptes und der integrierten Lernplattform. Ausgangspunkt der Forschungsarbeit war dabei die Frage, wie eine Lernumgebung geschaffen werden kann, die die Lernenden bei der Wissensaneignung und Lehrende bei der Wissensvermittlung unterstützt.
Die Psychologie beschreibt Lernen als dauerhafte Veränderung des individuellen Wesens oder Verhaltens, basierend auf Erfahrungen. Multimediale Lernmethoden ermöglichen hierbei, den Prozess in der betrieblichen Weiterbildung zu unterstützen und zu optimieren, um den steigenden Anforderungen, gerade im Bereich der Fachkräfteentwicklung, standhalten zu können. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen der Personalentwicklung, mit Fokus auf der betrieblichen Weiterbildung, sowie des Lernens umfassend erläutert. Im zweiten Teil werden die Ergebnisse einer qualitativen Forschung anhand drei verschiedener Perspektiven über die Lernmethoden E-Learning, Präsenztraining und Blended Learning in fünf Vorarlberger Industrieunternehmen präsentiert. Eine Schlussbetrachtung mit dem Ergebnis der Forschungsfrage sowie einem Ausblick für mögliche weiterführende Forschungsansätze runden die Arbeit ab. Ziel dieser Masterarbeit ist die praxisorientierte Anwendbarkeit der Erkenntnisse für Vorarlberger Industriebetriebe in Bezug auf die interne Weiterbildung, insbesondere bei der Entwicklung von Fachkräften.
In Anbetracht einer immer größer werdenden Diskussion über den Klimaschutz und einer anvisierten Energiewende finden umweltschonende Energietechniken immer mehr an Aufmerksamkeit in der Gesellschaft. Die Kombination von Stromerzeugung und gleichzeitiger Wärmeproduktion macht die Biomassevergasung zu einem interessanten Untersuchungsobjekt. Die anfallenden Biokohlestäube versprechen in Zukunft von großem Nutzen zu sein, um zum Beispiel Kohlenstoff in der Erde abzuspeichern. Die sogenannten ”Terra Preta“ Böden steigerten merklich das Interesse am Einsatz von Kohle in der Landwirtschaft, um in Böden verbessernde Eigenschaften zu erzielen. In dieser Masterarbeit wird die Auswirkung der Biokohle einer Schwebefestbettvergaseranlage auf das Pflanzenwachstum, die verfügbaren Nährstoffe und auf die Anzahl der Mikroorganismen untersucht. Hierfür wurden zwei verschiedene Versuchspflanzen herangezogen. Es wurde auf Hafer und Rübse zurückgegriffen. Der Versuch fand unter Laborbedingungen in einem Wachstumsschrank statt. Es wurden Böden mit unterschiedlichen Kohlegehalten hergestellt (0 %, 2,5 % 5 %, 12,5 %). Des Weiteren wurde auf zwei verschiedene Arten eine oberflächenaktivierte Kohle hergestellt. Einmal erfolgte dies durch Ko-Kompostierung der Biokohle in Grünschnitt und das zweite Mal durch die Beladungmit künstlichem Dünger. Die chemische Aktivierung erfolgte über einen Rührversuch. Dabei wurde die Kohle über einen längeren Zeitraum mit dem künstlichen Dünger in einem Gefäß gerührt.
Die Versuchsdauer erstreckte sich jeweils über einen Zeitraum von ca. 3 Wochen. Am Ende der Versuche wurden die Pflanzen geerntet. Anschließend wurde ihre Wuchshöhe und deren Durchmesser erfasst und statistisch ausgewertet. Die Nährstoffe im Boden wurden mittels Macherey Nagel Schnelltest ermittelt. Hierfür wurden Proben sowohl am Anfang als auch am Ende des Experiments genommen und anschließend aufbereitet und ebenfalls statistisch ausgewertet. Es konnte durch den Zusatz von Kohle einen signifikant höherer Mittelwert des Pflanzenwachstums erzielt werden. Und auch bei den Nährstoffen konnten Unterschiede zum Referenzboden nachgewiesen werden. Im Gegensatz dazu konnte bei den Mikroorganismen statistisch kein Unterschied festgestellt werden. Leider traten während des Versuches vermehrt Probleme auf, die aber entsprechend in der Arbeit adressiert und dokumentiert werden. Aus diesem Grund muss darauf verwiesen werden, dass einige Ergebnisse nicht verwertbar waren.
The number of electric vehicles will increase rapidly in the coming years. Studies suggest that most owners prefer to charge their electric vehicle at home, which will fuel the need for charging stations in residential complexes where vehicles can be charged overnight. Currently, there already are over 100 such residential complexes, with another 70 added every year in Vorarlberg alone. In most existing residential complexes, however, the grid connections are not sufficient to charge all vehicles at the same time with maximum power. In addition, it is also desirable for grid operators and electricity producers that the power demand be as smooth and predictable as possible. To achieve this, ways to manage flexible loads need to be found, which can operate within the technical constraints. Therefore, the most common scenarios how the load can be made grid-friendly with the help of optional battery storage and/or photovoltaics using optimization methods of linear and stochastic programming were examined. At the same time, the needs of the vehicle owners for charging comfort - namely to find their vehicles reliably charged at the time of their respective departure - were addressed by combining both objectives using suitable weights. The algorithms determined were verified in practice on an existing Vlotte prototype installation. For this purpose, the necessary programs were implemented in Python, so that the data obtained during the test operation, which lasted one month, could be subjected to a well-founded analysis. In addition, simulation studies helped to further reveal the influence of PV and BESS sizing on the achievable optimums and confirm that advanced optimization algorithms such as the ones discussed are a vital contribution in reducing the charging stations’ peak load while at the same time maintaining high satisfaction levels.
Der Fachkräftemangel stellt ein weit verbreitetes und zunehmendes Problem dar, das alle Wirtschaftsbereiche betrifft. Besonders in technischen Berufen gestaltet sich die Rekrutierung qualifizierter Mitarbeitenden als äußerst herausfordernd. Es wird immer deutlicher, dass es nicht ausreicht, lediglich Mitarbeiter:innen anzuwerben; vielmehr ist es von entscheidender Bedeutung, sie gezielt zu Fachkräften auszubilden. Trainee-Programme bieten eine Möglichkeit, diese Entwicklung zu fördern. Die vorliegende Masterarbeit widmet sich den Gestaltungselementen von Trainee- Programmen und bietet einen umfassenden Überblick über Definitionen, Methoden und Ausbildungselemente innerhalb dieser Programme. Diese Arbeit konzentriert sich auf die Identifikation kritischer Erfolgsfaktoren technischer Trainee-Programme, indem sowohl in der qualitativen Forschung untersucht wird, inwiefern Vorarlberger Industrieunternehmen diese Gestaltungselemente in ihren bereits implementierten technischen Trainee-Programmen berücksichtigen und welche Erfahrungswerte bisher gesammelt wurden, als auch in der quantitativen Forschung speziell technische Hochschülerinnen und -studenten als Zielgruppe herangezogen werden. Die Ergebnisse dieser Forschungsarbeit liefern wertvolle Erkenntnisse und praxisorientierte Handlungsempfehlungen für Unternehmen bei der Gestaltung ihrer Trainee-Programme. Besonders betont wird die Bedeutung der individuellen Anpassung an die Bedürfnisse und Interessen der potenziellen Trainees, einschließlich ihrer fachlichen Schwerpunkte, Karriereziele und Lernpräferenzen. Mentoring, Networking und interne Zusammenarbeit werden als wichtige Elemente für eine umfassende Entwicklung der Trainees innerhalb des Programms hervorgehoben. Darüber hinaus wird empfohlen, ein flexibles Framework einzusetzen, das Standards und Richtlinien für die Trainee-Programme festlegt, aber gleichzeitig Raum für Anpassungen und individuelle Entwicklungsmöglichkeiten bietet. Diese Masterarbeit trägt dazu bei, das Verständnis für die Gestaltungselemente von Trainee- Programmen zu vertiefen und liefert wertvolle Erkenntnisse für Unternehmen in Vorarlberg und darüber hinaus. Durch die Ergänzung des Phasenmodells der Trainee-Programme mit den Ergebnissen der qualitativen und quantitativen Forschung werden praxisnah e Empfehlungen abgeleitet, um Trainee-Programme attraktiver zu gestalten. Dadurch wird eine gezielte Entwicklung von Fachkräften im Unternehmen ermöglicht und eine langfristige Bindung an das Unternehmen gefördert.
Auswirkungen der DSGVO auf das Vertriebscontrolling eines Software-as-a-Service Geschäftsmodells
(2020)
Diese Arbeit untersucht die Auswirkungen eines SaaS Geschäftsmodells auf das Vertriebscontrolling. Dazu werden mittels Literatur die Kennzahlen und Instrumente des klassischen Vertriebscontrollings besprochen. Ein SaaS Geschäftsmodell hat spezifische Charakteristika, Herausforderungen und Erfolgsfaktoren, welche im Anschluss eingeführt werden. Diese beeinflussen das Vertriebscontrolling eines SaaS Geschäftsmodells. Die DSGVO schränkt das Vertriebscontrolling dabei, in der Nutzung von personenbezogenen Daten, ein. Diese Arbeit zeigt, dass die Grundelemente des Vertriebscontrollings bestehen bleiben, jedoch andere Kennzahlen verwendet werden müssen. Zusätzlich kommen neue Aufgaben auf das Vertriebscontrolling zu. Abschließend werden Handlungsempfehlungen für das Vertriebscontrolling eines SaaS Geschäftsmodells entwickelt. Mittels einer systematischen Literaturrecherche werden diese Handlungsempfehlungen bestätigt.
Ritualgestaltung
(2021)
Bei dem Begriff ‚Ritualgestaltung‘ handelt es sich um eine vergleichsweise junge Wortkombination, die einerseits in einem wissenschaftlichen Rahmen diskutiert wird und andererseits in der gegenwärtigen Praxis der Ritualgestaltung aufzufinden ist. Die vorliegende Arbeit thematisiert das Ritualverständnis und verschafft einen Überblick über die verschiedenen Aspekte der Ritualgestaltung. Hierbei steht die praktische Arbeit am Beispiel eines Übergangsrituals für Jugendliche zum Erwachsenwerden im Fokus. Die Diskussion der Ritualgestaltung umfasst einen wissenschaftlichen Diskurs sowie die Darstellung der gegenwärtigen Praxis der Ritualgestaltung. Dabei wird Ritualgestaltung aus der Perspektive des Fachbereichs Design analysiert. Mit der Betrachtung aus der Designperspektive soll zum einen die Theorie über die gegenwärtige Ritualgestaltung erweitert und zum anderen eine Grundlage für eine Praxisanwendung der Ritualgestaltung gegeben werden. Ziel der vorliegenden Arbeit ist es, einen Beitrag zur Verortung von Ritualgestaltung zu leisten. Für die Theorieerweiterung wird das Feld Ritualgestaltung mithilfe der Bildung von Kategorien und Tätigkeiten aus dem Fachbereich Design wie beispielsweise Re-Design, Adaption und Formatierung interpretiert. Diese Interpretation findet anhand von vier Modalitäten der Ritualgestaltung statt, welche auf Grundlagen von Theorie und mithilfe von Beispielen kritisch diskutiert werden. Die Praxisanwendung der Ritualgestaltung erfolgt am Beispiel eines Übergangsrituals für Jugendliche zum Erwachsenwerden. Es wird ein Überblick über bestehende Übergangsrituale gegeben sowie die Relevanz für ein solches Übergangsritual dargelegt. Anhand eines klassischen Entwurfsprozesses wird ein fiktives Ritual gestaltet, diskutiert und evaluiert.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
Um die Nachhaltigkeitsziele der Vereinten Nationen in Österreich zu erreichen, wird ab Juli 2022 die CO2-Steuer erhoben. In diesem Kontext fehlen für den Standort Vorarlberg jedoch Aussagen über das Nachhaltigkeitscontrolling im Allgemeinen und die Auswirkungen der CO2-Steuer im Speziellen.
Zur Beantwortung der Forschungsfragen wurde eine Online-Umfrage konzipiert, durchgeführt und statistisch quantitativ ausgewertet. Das entwickelte Nachhaltigkeits-Scoring-System soll klären, inwieweit die teilnehmenden Unternehmen, ein Nachhaltigkeitscontrolling implementiert haben. Zudem wurde geprüft, ob die CO2-Steuer einen Zusammenhang mit dem ermittelten Nachhaltigkeitsscore hat.
Der Mittelwert des Nachhaltigkeitsscore betrug 56,23 %, wobei die Ergebnisse eine hohe Variabilität (10 % bis 100 %) aufwiesen. In einigen Unternehmen wird nur ein rudimentäres Nachhaltigkeitscontrolling durchgeführt, während andere bereits sehr aktiv sind. Die Wirkung der CO2-Steuer ist sehr unterschiedlich. Der Korrelationskoeffizient nach Pearson ergibt zwar 0,053 und ist damit positiv (r > 0), dieser ist aber sehr schwach. Die Signifikanz (1-seitig) liegt bei p = 0,352. Somit wurde nachgewiesen, dass kein eindeutiger Zusammenhang zwischen der CO2-Bepreisung und dem Nachhaltigkeitsscore in Vorarlberg besteht.
Die vorliegende Arbeit befasst sich mit der Untersuchung von dezentralen Warmwasserbereitungssystemen, wobei der Fokus auf Energieeffizienz liegt. Als Vergleichs- und Referenzobjekt wird das Wohngebäude „KliNaWo“ mit 19 Wohneinheiten am Standort Feldkirch herangezogen, in welchem eine zentrale Warmwasserbereitung realisiert wurde. Als ersten Schritt werden die theoretischen Grundlagen hinsichtlich der zentralen und dezentralen Warmwasserbereitungs-systeme sowie der unterschiedlichen Wärmeerzeuger, Speichertechnologien und Verteilsysteme erarbeitet. Anschließend erfolgt eine Erläuterung der aktuellen Normensituation und den wichtigsten Fakten bezüglich Trinkwasserhygiene.
Des Weiteren wird das Referenzobjekt „KliNaWo“ sowie die verwendeten Messdaten zur Kalibrierung der Simulationsmodelle beschrieben. Im nachfolgenden Kapitel erfolgt eine detaillierte Darstellung der zu untersuchenden Systeme, wobei es sich um das Wohnungssatellitensystem sowohl mit kontinuierlicher Beladung als auch im Ladefensterbetrieb sowie um dezentrale Boiler-Wärmepumpen handelt. Anschließend wird die verwendete Simulationssoftware Polysun erläutert und erklärt wie die Systeme in der Software abgebildet und welche Ersatzmodelle angewendet werden.
Die Nutzenergie in Bezug auf das Warmwasser beträgt bei der zentralen Variante 20.584 kWh und ist bei allen dezentralen Systemen mit 20.142 kWh etwas geringer, da die Verteilverluste der Warmwasser-Einzelleitungen aufgrund des niedrigeren Temperaturniveaus geringer ausfallen. Da die rückgewinnbaren Wärmeverluste berücksichtigt werden, ergeben sich auch für den Heizwärmebedarf in Abhängigkeit der Variante unterschiedliche Werte im Bereich von 54.322 kWh bis 58.104 kWh. Als Vergleichsgröße wird der gesamte Stromverbrauch der Wärmepumpen inklusive der Förderpumpen herangezogen, welcher für die Deckung des Heizwärmebedarfs, der Verluste sowie des Energiebedarfs bezüglich Warmwasser notwendig ist.
Aus dem Vergleich der Varianten ergibt sich, dass der Stromverbrauch des zentralen Systems mit 14.109 kWh am geringsten ausfällt und das Wohnungssatellitensystem im Ladefensterbetrieb mit einem Strombedarf von 14.441 kWh nur wenig darüber liegt. Beim Wohnungssatellitensystem mit kontinuierlicher Beladung und bei den Boiler-Wärmepumpen-Systemen liegen die Stromverbräuche deutlich höher. Anhand der Simulationsergebnisse kann festgestellt werden, dass die dezentralen Anlagenkonfigurationen unter Berücksichtigung der ÖNROM B 2531 nicht effizienter sind als das zentrale System, wobei das Wohnungssatellitensystem im Ladefensterbetrieb in derselben Größenordnung wie das zentrale System liegt. Allerdings sind beim Wohnungssatellitensystem höhere Investitionskosten gegenüber der zentralen Variante zu erwarten, wodurch das System wirtschaftlich schlechter abschneidet.
Projects, in which software products, services, systems and solutions are developed, all rely on the right requirements to be established. Software requirements are the expression of user wants or needs that have to be addressed, business objectives that have to be met, as well as capabilities and functionality that has to be developed. Meanwhile, practice shows that very often incorrect, unclear or incomplete requirements are established, which causes major problems for such projects. It could lead to budget overruns, missed deadlines and overall failure in worst-case scenarios.
The field of requirements engineering emerged as an answer to these shortcomings, aiming to systematize and streamline the process that
establishes requirements. Requirements elicitation is a key component of this process, and one of its starting points. The current thesis attempts to outline best practices in requirements elicitation, as well as what issues, obstacles and challenges are currently faced, and then present this through the lens of national culture. In this way its effects on the practice, if any, could be highlighted and studied further. The way this was achieved was by interviewing practitioners from two nations, which are shown to be
culturally different, and then comparing and contrasting the findings.
Meanwhile, the validity of those findings was enhanced by comparisons with existing literature.
Even though the findings were not compelling enough to form generalizations or concrete conclusions about the effects of national culture on requirements elicitation, these findings revealed patterns that could be worth exploring further. When it comes to requirements elicitation itself, it was observed to benefit from a structured and systematic approach, and be
most effective with one-on-one, instead of group interactions. The main pain points of the process stem from the complexity of communication, but are not always obvious. Practitioners are also advised to carefully plan the gathering of requirements, as the source may not have them readily available, and could even be unclear about what exactly is needed. Overall, this thesis research could be considered successful in its goal to shed a modicum of light on the issue at hand from a different, underexplored angle. By following a systematic and methodical approach, this research has also been made easier to expand or replicate.
Die Anforderungen an gute Prognosen im Energiehandel der illwerke vkw AG steigen kontinuierlich an, da diese dazu verwendet werden, die richtigen Energiemengen auf dem Day-Ahead-Markt zu kaufen oder zu verkaufen. Zusätzliche Herausforderungen wie Wettereinflüsse und der steigende Energiebedarf von E-Autos erschweren die Prognose. Darüber hinaus gestaltet es sich mit den herkömmlichen Prognosebewertungen schwierig, die Kostenaspekte angemessen abzubilden. Aus diesem Grund wird in dieser Masterarbeit eine neue Methode zur Bewertung der Prognosequalität implementiert und mit bewährten Kennzahlen wie R², MAE, MAPE und RMSE verglichen. Diese Methode nutzt einen Preisverlauf, der die durchschnittlichen Marktpreise der Ausgleichsenergiepreise als Bewertungsmaßstab widerspiegelt. Die neue Bewertungsmethode wird mit Algorithmen wie dem Artificial Neural Network von Tensorflow, dem Decision Tree Regressor, der Linearen Regression, dem Multi-Layer Perception und dem Random Forest Regressor von Scikit-Learn verglichen. Zudem wird ein eigens erstelltes Gurobi-Modell, welches die Ausgleichsenergiepreise für die Gewichtung der absoluten Prognosefehler heranzieht, als Lineare Regression implementiert. Die genannten Modelle werden mithilfe von Python implementiert. Es werden tägliche Vorhersagen basierend auf viertelstündlichen Daten für Zeiträume von bis zu einem Jahr unter Verwendung eines Sliding-Window-Verfahrens mit unterschiedlichen Trainingsdaten erstellt. Die neue Bewertungsmethode mit der Einbeziehung von Kostenfaktoren, konnte sich im Vergleich zu MAPE, MAE, RMSE und R² nicht deutlich von den anderen unterscheiden. Die besten Ergebnisse wurden mit der Linearen Regression von Scikit-Learn und dem Gurobi-Modell mit der preisgewichteten Minimierung erzielt. Dabei sind die anderen Algorithmen nicht weit von den Resultaten der LR und GP entfernt. Unter dem Aspekt, dass das eigene Modell die Kosten minimieren soll, konnte es aber nicht als die beste Methode bewertet werden. Deswegen müssen das Modell und die gewählten Ausgleichsenergiepreise optimiert werden. Hierzu erzielte unter den sieben verwendeten Methoden die Lineare Regression das beste Ergebnis.
Der Fachkräftemangel und eine immer älter werdende Gesellschaft stellen auch Vorarlberger Unternehmen vor eine große Herausforderung. Um dieser entgegenzuwirken, setzen Unternehmen auf die Lehrlingsausbildung im eigenen Betrieb. Unternehmen müssen sich daher mit der Frage auseinandersetzen, wie sie potenzielle Lehrlinge auf sich aufmerksam machen können. Dies ist Aufgabe des Lehrlingsmarketings, welches eine Subdisziplin des Personalmarketings und somit Teil des Employer Brandings eines Unternehmens ist. Im Rahmen des Lehrlingsmarketings können verschiedenste Methoden eingesetzt werden, um zukünftige Lehrlinge auf ein Unternehmen bzw. einen Lehrberuf aufmerksam zu machen. Welche Aspekte bei der Lehrstellensuche und bei der schlussendlichen Entscheidung für einen Lehrberuf bzw. -betrieb entscheidend sind, werden in dieser Arbeit thematisiert und mithilfe empirischer Forschung untersucht. Der Fokus der empirischen Untersuchung lag dabei auf analogen sowie digitalen Lehrlingsmarketingmethoden, aber auch auf bestimmten Personengruppen und deren Einfluss. Zu diesem Zweck wurde eine Online-Umfrage mit 117 Lehrlingen aus fünf Vorarlberg Industrieunternehmen durchgeführt. Auf Basis der Umfrageergebnisse wurden Vorschläge bzw. Handlungsempfehlungen für das zukünftige Lehrlingsmarketing erarbeitet.
Diese Forschungsarbeit analysiert die Konfliktfähigkeit der Generation Z im Rahmen des Projektma-nagements und strebt die Entwicklung individuelle Konfliktmanagementstrategien an, die den Bedürf-nissen und Präferenzen dieser Generation gerecht werden. Angesichts der sich ständig wandelnden Arbeitswelt, stellt die effektive Bewältigung von Konflikten eine zentrale Herausforderung für Unter-nehmen dar. Die zentrale Frage lautet: „Wie können Unternehmen wirkungsvolle Strategien für das Konfliktma-nagement entwickeln, um im Rahmen des Projektmanagements die Konfliktfähigkeit der Generation Z angemessen zu berücksichtigen?“ Die Beantwortung erfolgt durch die Anwendung qualitativer For-schungsmethoden, inklusive Experteninterviews von Führungskräften und Projektleiter:innen, die be-reits mit dieser Altersgruppe, in Bezug auf das Projektmanagement zusammengearbeitet oder im Team angeleitet haben. Die Ergebnisse verdeutlichen spezifische Konfliktmuster und Präferenzen innerhalb der Generation Z, die sich klar von den Generationen zuvor unterscheiden. Massgeschneiderte Konfliktmanagement-strategien tragen dazu bei, Konflikte effizienter zu bewältigen und ein harmonisches Arbeitsumfeld zu schaffen. Die Strategien umfassen Insbesondere eine stärkere Einbindung von digitalen Kommunika-tionsmöglichkeiten, flexiblere Arbeitsstrukturen und gezielte Schulungen zur Konfliktlösung. Demzufolge wird offensichtlich, dass die Integration dieser Strategien essenziell ist, um die Konflikt-bewältigung und die Arbeitsatmosphäre zu optimieren. Daher richtet sich diese Arbeit besonders an Interessierte, die tiefere Einsichten in die Gestaltung von Konfliktbewältigung und das Potenzial dieser Altersgruppe suchen. Die Masterarbeit stützt sich auf eine umfassende Recherche, die auf einer sorgfältigen Analyse von Büchern, Fachzeitschriften, Forschungsarbeiten und Onlinequellen basiert. Unabhängig von meiner eigenen individuellen Perspektive und den Erfahrungen, die ich in Projekten mit der Generation Z gesammelt habe, verfolgt diese Arbeit das Ziel, einen eingehenden Einblick in den Umgang mit Kon-flikten sowie das Potential dieser spezifischen Altersgruppe zu vermitteln. Dieser Forschungsansatz trägt dazu bei, die Erkenntnisse dieser Masterarbeit in einen umfassenden Kontext zu setzen und ihre Relevanz für die praxisorientierte Gestaltung von Konfliktmanagement zu unterstreichen
Diese Arbeit beschäftigt sich mit der Analyse von Blasenindikatoren speziell des Immobilienbereichs, aber auch von Aktienmärkten. Im ersten Teil der Arbeit wird versucht, vergangene Blasenbildungen aufzuzeigen und zu erläutern, weshalb sich diese bilden konnten und schlussendlich geplatzt sind. Dies soll einem besseren Verständnis der restlichen Arbeit dienen. Weiters werden Indikatoren, die üblicherweise genutzt werden, um einen Markt einzuschätzen aufgezeigt und erläutert. Ebenfalls werden diese teilweise zueinander in Relation gestellt, um Zusammenhänge der einzelnen Indikatoren zu erkennen. Im Anschluss dieser Aufstellung werden bekannte, vom internationalen Markt anerkannte, Indikatoren aufgezeigt und erläutert und mit Beispielen unterlegt. Den Abschluss der Arbeit bildet das Einsetzen von ausgewählten Indikatoren für die Märkte Schweiz und Österreich und ein daraus abgeleitetes Fazit, ob eine Blase in diesen Ländern als Wahrscheinlich gilt oder nicht. Auch wird erläutert, dass ein einzelner Indikator wenig bis keine Aussagekraft zur Einschätzung einer Blasensituation hat, sondern Indikatorensets dazu benötigt werden.
Kultur und Werte sind allgegenwärtig in unseren Leben. Sie prägen uns Menschen nicht nur im persönlichen und privaten Umfeld, sondern sind auch Teil von Gesellschaftsstrukturen und Unternehmen. Das Ziel dieser Masterthesis ist es deshalb, herauszufinden, welchen Zusammenhang es zwischen den Themen Unternehmenskultur und Mitarbeiterbindung gibt und ob die Unternehmenskultur in Familienunternehmen dazu beitragen kann eine höhere Mitarbeiterbindung zu schaffen. Dabei werden eine Vielzahl an Motivationsfaktoren, sowie Werten berücksichtigt, welche in einer quantitativen Forschung Aufschluss darüber geben sollen, was den Mitarbeitenden in Vorarlberger Unternehmen wichtig ist und wie diese die Unternehmenskultur in ihren Betrieben wahrnehmen. Mit Hilfe eines standardisierten Fragebogens konnten 151 Personen mit einem Durchschnittsalter von 34,93 Jahren erreicht werden. Dabei wurde ersichtlich, dass die Faktoren angenehme Arbeitsatmosphäre, Jobsicherheit, Weiterbildung/Entwicklung, Führung und Work-Life-Balance die wichtigsten Motivationsfaktoren darstellen. Im Bereich Werte sind Verlässlichkeit, Ehrlichkeit, Verantwortungsbewusstsein, Respekt und Fairness am wichtigsten. Diese Erkenntnisse konnten unabhängig von der Unternehmensform erlangt werden.
In dieser Arbeit werden die Emissionsvermeidungspotenziale verschiedener Maßnahmen für einen Milchviehbetrieb in Vorarlberg analysiert. Es werden verschiedene Möglichkeiten beleuchtet, wie diese Treibhausgaseinsparungen auf dem freiwilligen Emissionsmarkt handelbar gemacht und dadurch finanziert werden können. Hintergrund ist, dass der Milchviehbetrieb eine Biogasanlage besitzt, für welche die Förderperiode ausgelaufen ist. Da die Biogasanlage ohne geförderten Einspeisetarif nicht mehr wirtschaftlich ist, wurde, um den Einspeisetarif anzuheben, das Pilotprojekt einer Erneuerbare-Energie-Gemeinschaft gestartet. Aus diesem Grund wird auch die Möglichkeit der Integration des Treibhausgasemissionshandels in die Erneuerbare-Energie-Gemeinschaft geprüft. Dies soll in Form einer Umlegung der Mehrkosten für die Emissionsminderungsmaßnahmen auf den Strompreis innerhalb der Erneuerbare-Energie-Gemeinschaft geschehen. Ergebnis ist, dass die Höhe des Aufschlags stark vom Umsetzungserfolg (Menge der Emissionseinsparungen), den Umsetzungskosten (Gestehungskosten der Klimaschutzmaßnahmen) und von den Transaktionskosten (Verwaltung) abhängt. Der Aufschlag steht für eine Ökologisierung des erneuerbaren Stroms. In dieser Weise wird regional erzeugter erneuerbarer Strom zum lokal klimawirksamen „Ökostrom“. Die Erneuerbare-Energie-Gemeinschaft ist somit mehr als Stromhandel unter Nachbarn, nämlich eine Synergie zwischen Land- und Energiewirtschaft und steht für eine Sektorenkopplung auf dem Weg zur klimaneutralen Wirtschaft.
Mit Kunst und Kultur in Kontakt zu kommen, weckt idealerweise die Lust daran, mehr wissen zu wollen. Interesse an kulturell relevanten Themen hervorzurufen und Rezipient:innen anzuregen, sich mit gesellschaftlich dringlichen Fragestellungen auseinanderzusetzen, um auch an aktuellen Diskursen teilzuhaben, ist die Aufgabe der Kulturarbeiter:innen, Künstler:innen, Kurator:innen, Kunst- und Kulturvermittler:innen von heute. Die von ihnen entwickelten Konzepte und angebotenen Formate fungieren als Schnittstellen aller möglichen gesellschaftsrelevanten Themenbereiche, können Dialoge des Wissenstransfers eröffnen, und einem fruchtbaren interdisziplinären Austausch den Weg ebnen.
Die bislang entwickelten Vermittlungstools hatten nicht immer den gewünschten Erfolg. Der Grund liegt vermutlich auch zum Teil an zu vielen diskursiven und exklusiven Formaten, in denen u. a. zu viel Vorwissen vorausgesetzt wird. Sofern Rezipient:innen Interesse an zeitgenössischer Kunst verspüren, die Zeit und den Mut aufbringen, einem angebotenen Vermittlungsprogramm auch tatsächlich beizuwohnen, wird nicht selten jeglicher Wiederholungswunsch im Keim erstickt, wenn es den Veranstalter:innen nicht gelingt, mit ihren Inhalten direkte Bezüge zum Besucher bzw. zur Besucherin herzustellen. Um diese Menschen nicht „alleine zu lassen“ oder vor den Kopf zu stoßen, und ihnen kulturelle Teilhabe zu ermöglichen, braucht es dringend ein größeres Repertoire an qualitativ hochwertigen sowie niederschwelligen Vermittlungsangeboten.
In meinen Forschungsbemühungen widme ich mich daher der Suche nach neuen Wegen in der Vermittlungsarbeit für zeitgenössische bildende Kunst, mittels derer Kunstrezeption geübt werden kann, in der Annahme, dadurch könne im Laufe der Zeit eine bewusstere Wahrnehmung unserer bilderdominierten Welt entwickelt werden. Eine versierte Kunstrezeption kann – so meine Hypothese – maßgeblich zur visuellen Kompetenz (sowie zu einem unabhängigeren Denken) und folglich zu allgemein geringerer Manipulierbarkeit beitragen. Konkret gehe ich der Frage nach, ob visuelle Kompetenz durch eine achtsame Kunstrezeption unterstützt werden kann.
Insbesondere (Vermittlungs-)Projekte, die Kunst oder Kultur gleichermaßen emotional wie intellektuell erfahrbar machen, können bleibende Eindrücke entfalten. Der bewusste Einsatz nonverbaler Techniken in der (traditionellerweise) sprachlich verankerten Praxis der Kunstvermittlung ermöglicht den Rezipient:innen ein Erlebnis, das innere Zustände, Gefühle mit äußeren Eindrücken und einer umfassenden ästhetischen Erfahrung in Verbindung bringt. Erfahrungen solcher Vielfalt prägen sich bei Personen jeden Alters in einer Art und Weise im Netzwerk der Erinnerungen ein, wie es der Sprache allein nur in sehr seltenen Fällen zu gelingen vermag. In Hinblick auf den Bildungsauftrag kultureller Einrichtungen ermöglichen Vermittlungsprogramme mit Erfahrungs- und Erlebnischarakter demnach ein nachhaltiges Lernen sowie ein bleibendes Verständnis und regen darüber hinaus transformatorische Selbst-Bildungsprozesse an.
The purpose of an energy model is to predict the energy consumption of a real system and to use this information to address challenges such as rising energy costs, emission reduction or variable energy availability. Industrial robots account for an important share of electrical energy consumption in production, which makes the creating of energy models for industrial robots desirable. Currently, energy modeling methods for industrial robots are often based on physical modeling methods. However, due to the increased availability of data and improved computing capabilities, data-driven modeling methods are also increasingly used in areas such as modeling and system identification of dynamic systems. This work investigates the use of current data-driven modeling methods for the creation of energy models focusing on the energy consumption of industrial robots.
For this purpose, a robotic system is excited with various trajectories to obtain meaningful data about the system behavior. This data is used to train different artificial neural network (ANN) structures, where the structures used can be categorized into (i) Long Short Term Memory Neural Network (LSTM) with manual feature engineering, where meaningful features are extracted using deeper insights into the system under consideration, and (ii) LSTM with Convolutional layers for automatic feature extraction. The results show that models with automatic feature extraction are competitive with those using manually extracted features. In addition to the performance comparison, the learned filter kernels were further investigated, whereby similarities between the manually and automatically extracted features could be observed. Finally, to determine the usefulness of the derived models, the best-performing model was selected for demonstrating its performance on a real use case.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
This study deals with the energy situation in Ny-Ålesund, an Arctic research station on the archipelago Svalbard, and aims at analysing the technical feasability of a transition to renewable energies by taking into consideration both the environmental and climatic impediments.
The analysis is based on a 27 year long collection of authentic meteorological data with all its strong fluctuations, seasonal as well as yearly. Great emphasis was put on the discussion of tried-and-tested renewable technologies that were compared to a new wind-based energy device that has yet to be tested for its reliability in the harsh environment of notably the Arctic winter. Meticulous calculations lead to the result that bifacial solar modules are an efficient means even in months when the sun stands low and their combination with wind-based devices prove to generate a maximum output. Geothermal energy seems to be promising in the region, but could not be evaluated due to a crucial lack of relevant data.
The study comes to the conclusion that the research station of Ny-Ålesund could well rely on a combination of renewable energy devices to cover its energy load, but needs to keep a back-up system of diesel run generators to bridge short periods of possible dysfunctions or standstills due to meteorological circumstances. Battery storage could only contribute to solve the problem of an unfortunate interruption of the energy supply, but it cannot serve as the entire back-up system since, at present, the need would go beyond all possible dimensions.
Diese vorliegende Masterarbeit untersucht die Herausforderungen, vor denen kleine und mittlere Unternehmen (KMUs) stehen, um den künftigen ESG-Anforderungen (Umwelt, Soziales, Governance) von Banken bei der Kreditvergabe gerecht zu werden. Anhand einer umfassen-den Literaturanalyse sowie einer qualitativen Inhaltsanalyse mittels Experteninterviews werden verschiedene Aspekte beleuchtet, darunter bankenregulatorische Vorschriften, Auswirkungen der ESG-Implementierung auf Kreditkonditionen und Kreditwürdigkeit, Vorbereitungsstrategien für KMUs und abgeleitete Handlungsempfehlungen. Die Ergebnisse zeigen, dass eine Integration von ESG-Kriterien in den Kreditprüfungsprozess eine ganzheitlichere Bewertung der Rückzahlungsfähigkeit ermöglicht und positive Auswirkungen auf die Kreditwürdigkeit haben kann. Jedoch sind die praktischen Auswirkungen auf Kreditkonditionen und -entscheidungen noch begrenzt und erfordern weitere Untersuchungen. Die Arbeit verdeutlicht auch die Bedeutung von ESG-Kompetenzen, Datenmanagement und einer Anpassung der Geschäftsmodelle von KMUs, um den ESG-Anforderungen gerecht zu werden. Die Ergebnisse bieten wertvolle Erkenntnisse für KMUs, um proaktiv ESG-Aspekte zu berücksichtigen und zu managen.
Heutzutage gewinnen visuelle und akustische Eingabemethoden für die Interaktion mit Anwendungen oder Komponenten zunehmend an Bedeutung und sollen die klassische Maus oder Tastatur gegebenenfalls ersetzen. Abgesehen von der Sprachsteuerung benötigen jedoch auch die neuen Methoden für das Absetzen eines Befehls größtenteils die Hände. Es bleibt jedoch die Frage bestehen was passiert, wenn keine freie Hand zur Verfügung steht und ein Sprachbefehl aufgrund des Lärmpegels nicht erkannt wird. Diese Arbeit beschreibt das Konzept einer alternativen Anwendungssteuerung mit Fußgesten und verwendet dafür die Einlegesohlen ‚stapp one‘, die mit Druck- und Beschleunigungssensoren ausgestattet sind. Aufgrund der Durchführung einer Umfrage mit Mehrheitsvotum lassen sich verschiedene Fußgesten für entsprechende Aktionen der gesteuerten Komponenten definieren. Diese wirken auf die Anwender und Anwenderinnen intuitiv und weisen folglich eine hohe Akzeptanz bei der Benutzung auf. Mit einer Verbindungskombination aus Bluetooth und ‚User-Datagram-Protocol‘ (UDP) werden die Sensordaten von der Sohle, über ein Smartphone, zu einem Computer weitergeleitet, um eine Gestenerkennung mit Machine-Learning umzusetzen. Über ein Datenfluss-System werden die empfangenen Werte der Sensoren aufbereitet und eine Feature-Extraktion durchgeführt, sodass diese für eine Klassifizierung von Fußgesten dienen. Basierend auf ‚Deeplearning4j‘ wird ein Algorithmus mit ‚Long Short-Term Memory‘ implementiert und zusammen mit dem Datenfluss-System als ‚Java‘-Bibliothek zur Verfügung gestellt. Zusätzlich werden Datensätze von Fußgesten einer Person erstellt und zum Training sowie zur Evaluierung der Gestenerkennung verwendet. In einer letzten Umfrage wird die implementierte Bibliothek in zwei Applikationen integriert. Zudem wird die Funktion des definierten ‚Gesten-Aktionen-Mapping‘ in drei Anwendungsszenarien analysiert. Die Forschungsergebnisse zeigen eine zuverlässige Klassifizierung der Fußgesten mit einer Genauigkeit von 82 %, wobei unter realen Bedingungen auch Werte zwischen 85 % und 100 % erreicht werden.
Zeros can cause many issues in data analysis and dealing with them requires specialized procedures. We differentiate between rounded zeros, structural zeros and missing values. Rounded zeros occur when the true value of a variable is hidden because of a detection limit in whatever mechanism was used to acquire the data. Structural zeros are values which are truly zero, often coming about due to a hidden mechanism separate from the one which generates values greater than 0. Missing values are values that are completely missing for unknown or known reasons. This thesis outlines various methods for dealing with different kinds of zeros in different contexts. Many of these methods are very specific in their ideal usecase. They are separated based on which kind of zero they are intended for and if they are better suited for compositional or for standard data.
For rounded zeros we impute the zeros with an estimated value below the detection limit. The author describes multiplicative replacement, a simple procedure that imputes values at a fixed fraction of the detection limit. As a more advanced technique, the author describes Kaplan Meier smoothing spline replacement, which interpolates a spline on a Kaplan Meier curve and uses the spline below the detection limit to impute values in a more natural distribution. Rounded zeros cannot be imputed with the same techniques that would be used for regular missing values, since there is more information available on the true value of a rounded zero than there would be for a regular missing value.
Structural zeros cannot be imputed since they are a true zero. Imputing them would falsify their values and produce a value where there should be none. Because of this, we apply modelling techniques that can work around structural zeros and incorporate them. For standard data, the zero inflated Poisson model is presented. This model utilizes a mixture of a logistic and a Poisson distribution to accurately model data with a large amount of structural zeros. While the Poisson distribution is only applicable to count data, the zero inflation concept can be applied to different kinds of distributions. For compositional data, the zero adjusted Dirichlet model is introduced. This model mixes Dirichlet distributions for every pattern of zeros found within the data. Non-algorithmic techniques to reduce the amount of structural zeros present are also shown. These techniques being amalgamation, which combines columns with structural zeros into more broad descriptors and classification, which changes columns into categorical values based on a structural zero being present or not.
Missing values are values that are completely missing for various known or unknown reasons. Different imputation techniques are introduced. For standard data, MissForest imputation is introduced, which utilizes a RandomForest regression to impute mixed type missing values. Another imputation technique shown utilizes both a genetic algorithm and a neural network to impute values based on the genetic algorithm minimizing the error of an autoencoder neural network. In the case of compositional data, knn imputation is presented, which utilizes the knn concept also found in knn clustering to impute the values based on the closest samples with a value available.
All of these methods are explained and demonstrated to give readers a guide to finding the suitable methods to use in different scenarios.
The thesis also provides a general guide on dealing with zeros in data, with decision flowcharts and more detailed descriptions for both compositional and standard data being presented. General tips on getting better results when zeros are involved are also given and explained. This general guide was then applied to a dataset to show it in action.
Menschen in desorganisierten Wohnformen erleben, aufgrund der Normvorstellung von Ordnung, Abwertung und Unverständnis. Dabei entsteht eine desorganisierte Wohnung nicht allein durch Passivität, sondern zeigt sich als innerpsychischen Konflikt nach außen. Die Komplexität des desorganisierten Wohnens umfasst sowohl die Wohnform selbst wie auch die Ursachen und Auswirkungen.
Um bedürfnisgerecht handeln zu können, benötigt es seitens des professionellen Unterstützungssystems eine umfassende Kenntnis des Phänomens. Die Erforschung der Auswirkungen aus der Perspektive der betroffenen Menschen soll Aufschluss darüber geben, wie adäquat interveniert werden kann.
Anhand einer Einzelfallstudie sollen die Diversität und Komplexität dargestellt werden, woraus sich die Flexibilität professioneller Helfer*innen ableiten lässt. Die Grounded Theory und der damit verbundene zirkuläre Prozess ermöglichen es, trotz geringer Erforschung des Phänomens, die erhobenen Daten zu erfassen und zu kategorisieren.
Packaging has important functions, such as the marketing function or protecting the product from spoilage. However, the supply in the supermarket must be viewed critically, as the majority of packaging is designed for single use. The question of how producers and retailers can increase customer acceptance of sustainable packaging in supermarkets has particular relevance in terms of the environmental impact of packaging waste. Although more and more customers are interested in the topic of sustainability, a gap between their attitude and behavior is apparent. This is addressed in more detail on the basis of two product categories. Expert interviews with international producers and retailers as well as a consumer survey allow the views of these three decision-makers to be taken into account. At the end, concrete recommendations for action are presented. These show that, among other things, information and transparency are essential in order to be able to influence consumers' purchasing decisions. In addition, the responsibility of all decision-makers is seen as the key to success.
Although workplace climate has been already extensively studied, the research has not led to firm conclusions regarding leadership trainings referring to the awareness of psychological safety in a company and its influence on existing teams and the general work climate. The author used the already existing model of Carr, Schmidt, Ford, & DeShon (2003) and adjusted it with psychological safety as 4th climate item to develop hypothesen which can also be seen as a path analytic model. The model posied that climate affects individual level outcomes through its impact on cognitive and affective states. Therefore, the author wants to show the correlation between the 4 higher order facets of climate affect the individual levels of job performance, psychological well-being and withdrawal through their impact on orangizational commitment and job saitsfaction (Carr, Schmidt, Ford, & DeShon, 2003).
Die Finanz- und Wirtschaftskrise 2008/09 ist Anlass für die Hinterfragung bestehender Anreizsysteme. Die vorliegende Arbeit untersucht die Beteiligung des Controllings bei der Anreizgestaltung ab diesem Zeitpunkt. Die Methodik ist eine systematische Literaturrecherche und Experteninterviews, die entlang der Gestaltungselemente des Anreizsystems ausgewertet werden. Seit dem Betrachtungszeitraum sind wesentliche Entwicklungen festzustellen von Individual- zu Gruppen-Incentivierung, vom Einsatz monetärer Anreize zu gemischten Anreizen (monetär und immateriell). Letzteres spiegelt sich in den Bemessungsgrundlagen wider, welche finanzielle und nicht-finanzielle Kennzahlen nutzen. Zur Generierung einer nachhaltigen Unternehmensentwicklung werden Long-Term-Incentives forciert. Das Controlling ist bei der Anreizgestaltung, beim Definieren von ‚Bemessungsgrundlagen‘ und ‚Anreizfunktionen‘, stark eingebunden. Die Aufgabenfelder des Controllings sind weit-gefächert: Reporting, Übersetzung von Geschäftszielen in Bemessungsgrundlagen, Wissensvermittlung, der Harmonisierung von Zielen bis zur Steuerungsfunktion bei Entscheidungen. Aus dieser Perspektive betrachtet übernimmt das Controlling zusätzliche Verantwortung und unterstützt das Management bei der Anreizgestaltung, was den Schluss nahelegt, dass eine Rollentransformation des Controllers zum Business Partner stattfindet.
Die sichtbare Digitalisierung des Bankensektors beruht im Kern auf der Steigerung des Qualitätserlebnisses für Kund*innen. Als ein Symbol dessen hat sich das Videoidentifizierungsverfahren etabliert, durch welches ein digitales Onboarding von Neukund*innen in Banken möglich gemacht wird. Gefördert wird die Implementierung dieser Technologie am Markt im Wesentlichen durch den Entwicklungseinsatz von Direktbanken. Das Setup dieses Verfahrens steht im Kontrast zu den Kernelementen – Kundenberatung und physische Eröffnung – welche eng mit klassischen Banken verbunden wird. Digitalisierung hat sich zu einem Synonym von Fortschritt entwickelt, viele positive Aspekte, aber vor allem eine Effizienzsteigerung im Prozesse sind beobachtbar. Erfolge wie unter anderem die geografische Markterweiterung samt einem ertragssteigernden Marktsegment, verbesserte Kundenzufriedenheit und Prozessexzellenz, die den heutigen Anforderungen gerecht wird sind zu verzeichnen. Welche weiteren Chancen und Risiken zwei der bedeutendsten Finanzplätze in Europa – Liechtenstein und Deutschland – im Detail mit dieser Technologie verbinden, ist Ziel dieser Forschungsarbeit, an wessen Ende eine konkrete Handlungsempfehlung kommuniziert werden wird.
This thesis focuses on implementing and testing communication over a private 5G standalone network in an industrial environment, with a specific emphasis on communication between two articulated robots. The main objective is to examine machine-to-machine communication behavior in various test scenarios. Initially, the 5G core and radio access network components are described, along with their associated interfaces, to establish foundational knowledge. Subsequently, a use case involving two articulated robots is implemented, and essential metrics are defined for testing, including round-trip time, packet and inter-packet delay, and packet error rate. The tests investigate the impact of 5G quality of service, packet size, and transmission interval on communication between the robots, focusing on the effects of network traffic. The results highlight the significance of prioritizing network resources based on the assigned quality of service identifier (5QI), demonstrate the influence of packet sizes on communication performance, and underscore the importance of transmission intervals for automation purposes. Additionally, the study examines how network disturbances influence the movements of a robot controlled via 5G, establishing a direct relationship between network metrics and the resulting deviations in the robot’s trajectory. The work concludes that while machine-to-machine communication can be successfully implemented with 5G SA, tradeoffs must be carefully considered, especially concerning packet error rate, and emphasizes the importance of understanding the required resources before implementation to ensure feasibility. Future research directions include investigating network slicing, secure remote control of robots, and exploring the use of higher frequency bands. The study highlights the significance of aligning theoretical standards with practical implementation options in the evolving landscape of 5G Networks.
Der stationäre Handel ist von zunehmenden Unsicherheiten gekennzeichnet, wobei die wachsende Verlagerung des Einkaufs auf die digitalen Vertriebskanäle dabei eine zentrale Rolle spielt. Jenen Entwicklungen kann mitunter mit der Einführung eines Omnichannel-Geschäftsmodells entgegengewirkt werden, wodurch der Fortbestand der stationären Geschäfte unterstützt werden kann. Für die Omnichannel-Etablierung ist eine Umstrukturierung des Handels essenziell, vielfach hängt dies mit einer Neuausrichtung der Geschäftsarchitektur zusammen. In diesem Kontext werden die relevanten Geschäftsprozesse in Frage gestellt und gegebenenfalls neu definiert. Das Hauptziel dieser Arbeit war es daher, auf Basis einer theoretisch-konzeptionellen Methodik herauszufinden, wie der stationäre Handel durch die Ausrichtung der Geschäftsprozesse an einem Omnichannel-Geschäftsmodell langfristig und nachhaltig optimiert werden kann. Anhand der Ergebnisse konnte ein Leitfaden entwickelt werden, welcher sich an EinzelhändlerInnen richtet und bei der Omnichannel-Transformation Unterstützung gewährleisten soll. Aus den durchgeführten Analysen wurden schließlich dezidierte Fokuspunkte abgeleitet, denen in der Transformationsphase besondere Aufmerksamkeit zu schenken gilt. Hierzu zählt nicht nur die IT-Landschaft und die Datenanalytik, sondern auch die Organisation samt den involvierten Personen und den entsprechenden Kompetenzen. Die Berücksichtigung aller Aspekte kann die Chancen einer erfolgreichen Omnichannel-Integrierung erhöhen, aber aufgrund der Komplexität nicht garantieren.
In recent years, numerous studies around the world have examined the environmental potential of biochar to determine whether it can help address climate challenges. Several of these studies have used the Life Cycle Assessment (LCA) method to evaluate the environmental impacts of biochar systems. However, studies focus mainly on biochar obtained from pyrolysis, while the number of studies on biochar from gasification is small.
To contribute to the current state of LCA research on biochar from gasification, LCA was performed for biochar, electricity, and heat from a wood gasification plant in Vorarlberg, Austria. Woodchips from local woods are used as biomass feedstock to produce energy, i.e., electricity and heat. Thereby, biochar is obtained as a side product from gasification. The production of syngas and biochar takes place in a floating fixed-bed gasifier. Eventually, the syngas is converted to electricity in a gas engine and fed to the power grid. Throughout different stages within the gasification process, heat is obtained and fed into local heat grid to be delivered to customers. The biochar produced complies with the European Biochar Industry (EBI) guidelines and is used on a nearby farm for manure treatment and eventually for soil application. Thereby, the effect of biochar used for manure treatment is considered to reduce emissions occurring from manure, i.e., nitrogen monoxide (N2O). Further, the CO2 sequestration potential of biochar, i.e., removal of CO2 from the atmosphere and long-term storage, is considered. Several constructions, such as the construction of the gasification system and the heating grid, are included in the evaluation.
As input related reference flow, 1 kg of woodchips with water content of 40 % is used. Three functionals units are eventually obtained, i.e., 0.17 kg of biochar applied to soil, 4.47 MJ of heat and 2.82 MJ of electricity, each per reference flow. The results for Global Warming Potential (GWP) for biochar is – 274.7*10 - 3 kg CO2eq per functional unit, which corresponds to – 1.6 kg CO2eq per 1 kg biochar applied to soil. The GWP for heat results in 17.1*10 - 3 CO2eq per functional unit, which corresponds to 3.6*10 - 3 kg CO2eq per 1 MJ. For electricity, a GWP of 38.1*10 - 3 kg CO2eq per functional unit is obtained, which is equivalent to 13.5*10 - 3 kg CO2eq per 1 MJ.
The calculation was performed using SimaPro Version 9.1 and the ReCiPe method with hierarchist perspective.
In den letzten Jahrzehnten gewann Aluminium als vielseitig einsetzbarer Werkstoff immer mehr an Bedeutung. Das Vorarlberger Unternehmen Hydro Extrusion Nenzing ist Teil der Aluminiumverarbeitungsindustrie und stellt stranggepresste Aluminiumprofile her. Beim Strangpressen werden Aluminiumstangen in einem Durchlaufinduktionsofen auf bis zu 520 °C erhitzt und anschließend durch ein formgebendes Werkzeug gepresst. Nach dem induktivem Aufwärmen wird ein Teil der Stange aus dem Ofen gefahren und abgeschert. Die erzeugte Temperaturverteilung an diesem abgescherten Bolzen ist der sogenannte Taper. Das induktive Aufwärmen ist ein wichtiger Teil der Extrusion und steht im Fokus dieser Forschungsarbeit. Ziel dieser Arbeit ist es, den Aufwärmprozess der Aluminiumstangen, mithilfe einer Kombination aus explorativer Datenanalyse und Methoden des maschinellen Lernens, genauer zu verstehen und den resultierenden Taper vorherzusagen. Außerdem werden parallel die signifikanten Einflussparameter, ohne Berücksichtigung von Materialparametern, untersucht.
Nach der explorativen Datenanalyse wurden mithilfe eines k-means-Clusterverfahren zwei Klassifizierungsvarianten entwickelt. In der ersten Variante liegen die Taper nach ihrer Bolzenlänge und Form gegliedert vor. Es zeigte sich, dass die Taper der Bolzen mit ähnlicher Länge auch ähnliche Formen annehmen. Ein einfacher Entscheidungsbaum konnte die 13 Zielklassen zu etwa 85 % vorhersagen. Die Bolzenlänge spielt bei der Vorhersage eine wichtige Rolle. Die zweite Klassifizierungsvariante basiert hingegen ausschließlich auf der Taperform. Die angewendeten Modelle (k-Nearest-Neighbor, Decision Tree, Random Forest) waren jedoch kaum in der Lage, die 11 Klassen abzubilden. Grund für die unzureichende Vorhersageleistung können die vielen Unsicherheiten in der Datenstruktur sein. Die anschließende detaillierte, explorative Analyse der formabweichenden Taper deutet fehlende Merkmale im Datensatz an. Einige Bolzen setzen sich aus zwei Stangenenden zusammen. Diese geteilten Bolzen führen zu abweichenden Aufwärmverhalten, wodurch auffällige Taper entstehen. Die Information ob sich ein Bolzen aus zwei Stangen zusammensetzt fehlt jedoch im Datensatz. Der Aufwärmvorgang der Stangen wird demnach durch ein Wechselspiel der aktuellen Regelung und zwei maßgeblichen Faktoren beeinflusst: die Bolzenlänge und das Auftreten von geteilten Bolzen. Diese Faktoren bestimmen die Stangentemperatur im Ofen, den induzierten Strom und somit den resultierenden Taper. Aufgrund dieser Ergebnisse könnte die temperaturbasierte Regelung zukünftig durch eine Steuerung hinsichtlich des induzierten Stroms ersetzt, dadurch Energie eingespart und Schrott vermieden werden.
In den Justizanstalten Österreichs arbeiten Menschen unterschiedlicher Berufsgruppen zusammen. Sie haben jeweils eigene Ausbildungen durchlaufen und gehören unterschiedlichen Berufen und Professionen an. Ihre gemeinsame Aufgabe besteht in der Resozialisierung der InsassInnen. Aufgrund ihres unterschiedlichen professionellen Werdegangs bestehen unterschiedliche Zugänge zur Arbeit mit den InsassInnen. Deshalb ist es von Bedeutung, welche Einstellungen die Vollzugsbediensteten zum Sinn der staatlichen Strafe vorweisen und welchen Theorien darüber, weshalb Menschen straffällig werden, sie anhängen. Ein weiterer wichtiger Gesichtspunkt ist ihre Haltung gegenüber GewalttäterInnen inklusive der Sexualstraftäter, da diese Personen durch ihre Delikte andere Menschen in ihrer körperlichen Integrität verletzt haben und somit in besonders verletzender Weise zu Opfern gemacht haben.
Das Forschungsziel dieser Masterarbeit besteht in der Erfassung der Theorien und Einstellungen von Vollzugsbediensteten bezüglich der oben genannten Thematik. Dabei soll herausgestellt werden, welche Auswirkungen die Ergebnisse auf die Soziale Arbeit im Justizvollzug haben und welche Konsequenzen die Soziale Arbeit hieraus ziehen könnte. Außerdem sollen die Ansichten zur Qualität der berufsübergreifenden Zusammenarbeit erfragt werden.
Im Rahmen der Arbeit wurden insgesamt 16 leitfadengestützte Experteninterviews mit Vollzugsbediensteten aus den folgenden Berufsgruppen durchgeführt: Anstaltsleitung, Justizwache, Sozialer Dienst, Psychologischer Dienst und Psychiatrischer Dienst. Allen Berufsgruppen ist gemeinsam, dass der Kontakt zu den InsassInnen in der Tätigkeitsbeschreibung beinhaltet ist.
Die Ergebnisse der Befragungen zeigen, dass die Einstellungen der verschiedenen Vollzugsbediensteten in vielen Aspekten harmonieren, dass es aber auch relevante Unterschiede gibt. Inwieweit diese Unterschiede für die Soziale Arbeit relevant sind und welche Schlüsse bzw. Handlungsempfehlungen daraus abzuleiten sind, soll diese Arbeit zeigen.
Dass die Zusammenarbeit der Vollzugsbediensteten noch überwiegend als gut bzw. harmonisch empfunden wird, haben die Befragungen erwiesen. Außerdem soll diese Arbeit aufzeigen, welche Anregungen anderer Berufsgruppen die Soziale Arbeit aufnehmen kann, um den Strafvollzug auch aus der Perspektive dieser Berufsgruppen besser nachvollziehen zu können.
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
In this paper, the design of three-dimensional configuration of Y-branch splitter is compared with Multimode Interference splitter. Both splitters use the IP-Dip polymer as a standard material for 3D laser lithography. The optical properties of the splitters for both approaches are discussed and compared.
Erneuerbare Energiegemeinschaften (eEG) sind ein neues, innovatives und in der Entwicklung befindendes Thema bzw. Projekt. Entstanden ist es dadurch, dass Österreich die Vorschläge und neuen Gesetze aus dem Clean energy for all Europeans package mit der Verabschiedung des Erneuerbaren-Ausbau-Gesetz Ende 2021 in nationales Recht umgesetzt hat. In dem Leitfaden Energiegemeinschaften Ausschreibung 2021 ist in der Pionierphase und Integrationsphase klar vorgegeben, dass ein Monitoring über zwei Betriebsjahre zu betreiben ist. Das Monitoring von erneuerbaren Energiegemeinschaften wird in dieser Arbeit erstmalig behandelt. Es wurden Key Performance Indicators entwickelt, spezifiziert und erste Probeerhebungen durchgeführt. In dieser Arbeit wurde untersucht, welche Monitoring-Bereiche es geben könnte, mit welchem Erfolgsindikatoren-Set zum aktuellen Zeitpunkt ein sinnvolles Monitoring betrieben werden kann und welche Erfolgsindikatoren im Allgemeinen in Österreich erforderlich sind, um eine Aussage über den Erfolg von erneuerbaren Energiegemeinschaften treffen zu können. Hierfür wurde eine Grundlagenforschung im Bereich erneuerbare Energiegemeinschaften, ein normativer Vergleich zu ähnlichen Förderprogrammen und Experteninterviews durchgeführt. Anhand der daraus resultierenden Ergebnisse wurden finale KPIs spezifiziert. Mit diesen KPIs wurde in einem Monitoring-Tool ein Erfolgsindikatoren-Set angelegt und mit entsprechenden Zielwerten in Kontext gebracht. Zusätzlich wurden Daten von verschiedenen eEG angefragt und anhand dessen wurden in dem Tool erste Probeerhebungen durchgeführt, um die Machbarkeit zu untersuchen.
Grey-Box-Modellierung einer Lüftungsanlage mit realen Betriebsdaten für die Optimierung des Reglers
(2022)
Oszillationen in Heizungs-, Lüftungs- und Klimaanlagen können die Lebensdauer
von Ventilen und Aktuatoren deutlich reduzieren und die Effizienz solcher
Anlagen negativ beeinflussen. Die hier betrachtete Lüftungsanlage eines Verkaufsraums zeigt deutlich schwingendes Verhalten, das höchst wahrscheinlich auf die Regelung zurückzuführen ist. Um dieses Verhalten zu untersuchen und ein
Testfeld für die Auslegung und Optimierung von alternativen Regelkonzepten
zu erstellen, wird ein Grey-Box-Modell der Anlage erstellt. Grey-Box-Modelle
sind physikalische Modelle, deren Parameter mit Messdaten identifiziert werden.
Die Ermittlung der Parameter (Systemidentifikation) des Grey-Box-Modells
wird hier mittels nichtlinearer Optimierung an dem realen Betriebsdatensatz
durchgeführt. Dieser Betriebsdatensatz hat im Vergleich zu anderen Arbeiten
aufgrund geringer Ausstattung der Anlage mit Sensorik und geringer Auflösung
der Messdaten eine niedrige Qualität. Aus diesem Grund können die einzelnen
Komponenten der Anlage (eine Wärmerückgewinnung, ein Heizregister und ein
Kühlregister) nicht separat identifiziert werden, sondern nur im Gesamtsystem.
Hieraus ergibt sich die Frage, welche physikalische Formulierung der Komponenten
der Anlage am besten geeignet ist. Konkret stellt sich die Frage, welche
Komplexität, welche Anzahl der zu identifizierenden Parameter und welche Annahmen, die für die Formulierung getroffen werden sinnvoll sind. Dazu werden
für die einzelnen Komponenten der Anlage jeweils verschiedene Modelle aus der
Literatur implementiert und verglichen. Untersucht wird, ob ein Zusammenhang
zwischen der Anzahl an Parametern, die sich durch eine bestimmte Formulierung
des Modells ergibt und der erreichten Güte des Modells zu beobachten ist.
Die Güte des Modells wir dabei mittels der Wurzel des mittleren quadratischen
Fehlers zwischen Modellausgang und Datensatz bewertet.
Die Ergebnisse dieser Fallstudie zeigen, dass ein möglicher Zusammenhang
zwischen der Anzahl an Parametern des Grey-Box-Modells und der Güte des
Modells besteht. Insbesondere zeigt sich mit diesem Datensatz ein deutlicher
Abfall der Modellgüte bei mehr als zehn Parametern. Es kann des Weiteren
bestätigt werden, dass bei der vorliegenden niedrigen Datenqualität die getroffenen
Annahmen für die Modellierung von erheblicher Bedeutung sind. Durch
bestimmte Formulierungen kann zwar die Güte des Modells erhöht werden, jedoch
wir dadurch die Generalisationsfähigkeit des Modells höchst wahrscheinlich
reduziert.
Der IAS 39 steht nach der Finanzkrise 2008 / 2009 in der Kritik: Wertberichtigungen seien „too little, and too late“ gebildet worden. Die Einführung des IFRS 9 soll die frühzeitige Bildung von Wertberichtigungen ermöglichen und Prozyklizität und Komplexität verringern. Die Bankenaufsicht begrüßt die Einführung des IFRS 9, ist sich aber einig mit der Wissenschaft: Die frühzeitige Erkennung von makroökonomischen Umschwüngen ist schwierig. Am Beginn der Covid-19 Pandemie fordern IASB und die Aufsichtsbehörden die Banken auf, Ermessensspielräume zu nützen, um übermäßige Prozyklizität zu vermeiden. Die Arbeit stellt zu Beginn den theoretischen Rahmen dar. Darauf aufbauend wird anhand von Abschlüssen von österreichischen Banken untersucht, ob die Erwartungen an den IFRS 9 in der Covid-19 Pandemie erfüllt worden sind. Eine wichtige Datenquelle ist das Transparency Exercise der EBA. Die Untersuchung lässt auf keine frühzeitige Erkennung der Krise schließen. Die überwiegend vergleichbaren Modelle und die Auswertung der Kennzahlen bestätigen die Gefahr von Prozyklizität. Die Offenlegungen sind in Teilen wenig transparent, außerdem schwankt ihre Qualität stark.
Effective lead management
(2023)
In the last few years the global interest on lead management has increased. This classic topic for marketing and sales departments is aimed at converting potential customers into sales. The following thesis identifies the challenges and solutions for marketing and sales departments in order to process effective lead management. Using data from a literature review and qualitative empirical research, conducted with representatives of marketing and sales departments, the results showed overall and task specific challenges and solutions. The research indicates that overall challenges and solutions regarding the gap between marketing and sales, new processes and data management including data quality, software and silos emerge. In addition task specific challenges and solutions concerning lead generation including purchased leads, lead qualification, lead nurturing and sales specific challenges and solutions conclusively the focus on existing customers, time famine and lead routing were identified. This thesis provides a framework for further studies regarding the challenges and solutions for marketing and sales departments processing lead management.
Pump-Probe-Elastographie
(2020)
Krebs ist die zweit häufigste Todesursache in Deutschland. Seine frühzeitige Detektion ist wichtig für eine erfolgreiche Behandlung. Die Detektion und Charakterisierung der Tumore kann unter anderem anhand ihrer mechanischen Eigenschaften erfolgen.
Die Pump-Probe-Elastographie (PPE) ist eine neue und vielversprechende Methode um die mechanischen Eigenschaften von Gewebe durch optische Anregung und Detektion der dadurch entstehenden akustischen Wellen zu charakterisieren.
In dieser Arbeit wurde ein PPE-Mikroskop aufgebaut und anschließend untersucht, wie die Wellenfronten möglichst deutlich sichtbar werden und welchen Einfluss die Pulsenergie auf die erzeugten Wellen hat. Dies geschah anhand zweier Proben – Wasser und Glas. Beide sind transparent und bieten daher auch die Möglichkeit der Messung im Volumen. Wasser unterscheidet sich zudem von Glas, da es kompressibel ist und somit die Entstehung von Stoßwellen erlaubt. In Glas wiederum können nicht nur Longitudinalwellen, sondern auch Transversalwellen und Rayleigh-Wellen entstehen.
Als Ergebnis dieser Arbeit wird gezeigt, dass die Messergebnisse in Wasser abhängig von der Pulsenergie sind, denn die entstehenden Stoßwellen breiten sich mit Überschallgeschwindigkeit aus, was bei zukünftigen Messungen mit Zellgewebe zu beachten ist. In Glas hat die Pulsenergie zwar keinen Einfluss auf die Wellengeschwindigkeit, jedoch werden die Messungen mit zunehmender Energie deutlicher. Auch ist bei Messungen im Volumen nur die Longitudinalwelle zu sehen. Misst man jedoch auf der Glasoberfläche, so entsteht auch eine Druckwelle in der Luft, welche wiederum abhängig von der Pulsenergie ist. Zusätzlich ist in einigen Messungen eine weitere Welle zu erkennen, welche unabhängig von der Pulsenergie ist und sich im Glas, oder auf dessen Oberfläche ausbreitet.
Als Folge des demographischen Wandels müssen Unternehmen in Österreich und ganz Europa lernen, mit einer alternden Belegschaft, dem Fachkräftemangel und Problemen bei der Rekrutierung von Mitarbeitenden umzugehen. Um erfolgreich wirtschaften zu können, sind Unternehmen daher gezwungen, solche Arbeitsbedingungen zu bieten, dass Mitarbei-tende aller Generationen gesund und leistungsfähig ihre Arbeit tun können. Die generatio-nenspezifische Gestaltung der Betrieblichen Gesundheitsförderung setzt an diesem Punkt an und hilft den Unternehmen, der demographischen Entwicklung gut gerüstet zu begeg-nen. Die vorliegende Arbeit beschäftigt sich mit der generationenspezifischen Betrieblichen Ge-sundheitsförderung. Im Rahmen einer qualitativen Untersuchung werden Chancen und Ri-siken identifiziert, die in einer generationenspezifischen Betrieblichen Gesundheitsförderung liegen. Dabei werden die Bedürfnisse der unterschiedlichen Generationen an die Betriebli-che Gesundheitsförderung berücksichtigt. Am Ende der Arbeit steht ein Maßnahmenkatalog für generationenspezifische Betriebliche Gesundheitsförderung, der die Chancen und Risiken die darin liegen, miteinbezieht und eine Unterstützung in der praktischen Arbeit im Unternehmen bieten soll.
„Sozialraumarbeit“ und „Sozialraumorientierung“ sind Schlagworte der letzten Jahre, die die Wiederentdeckung des Sozialräumlichen nicht nur in der Sozialen Arbeit markieren. Das gesteigerte Interesse reicht weit über die Disziplin und Profession der Sozialen Arbeit hin-aus und findet ihren Niederschlag auch in der Sozialpolitik und Verwaltung, in kommunalen und regionalen Strukturen sowie in den Organisationen des Sozialwesens. Die Entstehungsgeschichte der Sozialen Arbeit in Vorarlberg ist eng verknüpft mit der sozialräumlichen Bearbeitung sozialer Probleme. Weniger Aufmerksamkeit in der Auseinandersetzung der letzten Jahre wird hierbei auf die Soziale Arbeit als Profession bzw. die Sozialarbeiten-den selbst gelegt. Die Studie soll hierzu im Hinblick auf die Gestaltung von kommunaler sowie sozialräumlicher Sozialer Arbeit und der Profession Soziale Arbeit einen Beitrag leisten. Grundlage der Studie ist die qualitative Inhaltsanalyse leitfadengestützter qualitativer Interviews mit Sozialarbeitenden der sozialräumlichen Sozialen Arbeit Vorarlbergs. Anhand der zentralen sowie theoretischen Dimensionen von Sozialer Arbeit und Konzepten der sozialräumlichen Sozialen Arbeit werden Faktoren für gelingende sozialräumliche Soziale Arbeit, im Speziellen im kommunalen Rahmen, sowie die Herausforderungen in der Praxis und als Profession identifiziert.
The presented master thesis of the study subject International Marketing and Sales at the Fachhochschule Vorarlberg in Dornbirn deals with the influence of emotions on the attitude toward hydrogen cars and their purchase intention. For this purpose, an empirical analysis with a correlation analysis was conducted in order to be able to determine the correlations of the individual parameters.
At the beginning of the thesis the hydrogen technology was presented in more detail and by means of suitable criteria it was shown that the hydrogen car represents a certain potential, however, in comparison to the combustion cars and electric cars, the hydrogen car is currently in third place. The relatively long range, the fast-refueling and the sustainability were identified as advantages, while the current high price and the poorly developed refueling station network are currently the biggest ob-stacles to a hydrogen car. It can be seen that research and development of hydrogen cars is being driven forward in many countries around the world, including by the gov-ernment side through the provision of various subsidies. For this reason, the future development of the driving technology remains exciting and simultaneously uncertain.
In the second step of the work, emotions were examined in more detail. The aim was to find out which emotions exist and which of them are predominant when buying a car, and then to find out what influence emotions have on the cognitive process, the attitude, and the purchase intention. It turned out that the majority of the population is highly involved in the purchase of a car and therefore tries to make rational decisions, which makes the influence of emotions more difficult, but not impossible.
By presenting suitable marketing tools for measuring emotions, it was shown that measuring emotions is a difficult undertaking. Measurement is often difficult or expen-sive and involves a great deal of effort. For this reason, beside the presentation of marketing tools, the strategic approach for a marketing campaign was also presented.
Based on the conducted empirical analysis, the influence of emotions on attitude and purchase intention could not be significantly confirmed but it could be proven that the knowledge about hydrogen cars is currently low. One inside is that an increase in awareness increases the purchase intention of hydrogen cars. Furthermore, a signifi-cant correlation between the sustainable attitude and the purchase intention could be proven. In addition, people who like to follow new trends are more likely to buy a hy-drogen car than others. This paper concludes with a brief summary of the findings and an outlook on the potential for improvement of the hydrogen car market.
Keywords: Hydrogen Cars, Sustainability, Emotions in Marketing, Purchase Inten-tion, Attitude, Marketing Tool
Die cloud-basierte Verarbeitung von Datenströmen von IoT-Geräten ist aufgrund hoher Latenzzeiten für zeitkritische Anwendungen nur beschränkt möglich. Fog Computing soll durch Nutzung der Rechen- und Speicherkapazitäten von lokal vorhandenen Geräten eine zeitnahe Datenverarbeitung und somit eine Verringerung der Latenzzeit ermöglichen. In dieser Arbeit werden Anforderungen an ein Fog Computing-Framework erhoben, das die dynamische Zuweisung und Ausführung von Services auf ressourcen-beschränkten Geräten in einem lokalen Netzwerk zur dezentralen Datenverarbeitung ermöglicht. Zudem wird dieses Framework prototypisch für mehrere Transportkanäle, unterschiedliche Betriebssysteme und Plattformen realisiert. Dazu werden die Möglichkeiten der Skriptsprache Lua und des Kommunikationsmechanismus Remote Procedure Call genutzt. Das Resultat ist ein positiver Machbarkeitsnachweis für Fog Computing-Funktionalitäten auf ressourcenbeschränkten Systemen. Zudem werden eine geringere Latenz und eine Reduktion der Netzwerklast ermöglicht.
This master thesis investigates a Computational Intelligence-based method for solving PDEs. The proposed strategy formulates the residual of a PDE as a fitness function. The solution is approximated by a finite sum of Gauss kernels. An appropriate optimisation technique, in this case JADE, is deployed that searches for the best fitting parameters for these kernels. This field is fairly young, a comprehensive literature research reveals several past papers that investigate similar techniques.
To evaluate the performance of the solver, a comprehensive testbed is defined. It consists of 11 different Poisson equations. The solving time, the memory consumption and the approximation quality are compared to the state of the art open-source Finite Element solver NGSolve. The first experiment tests a serial JADE. The results are not as good as comparable work in the literature. Further, a strange behaviour is observed, where the fitness and the quality do not match. The second experiment implements a parallel JADE, which allows to make use of parallel hardware. This significantly speeds up the solving time. The third experiment implements a parallel JADE with adaptive kernels. It starts with one kernel and introduce more kernels along the solving process. A significant improvement is observed on one PDE, that is purposely built to be solvable. On all other testbed PDEs the quality-difference is not conclusive. The last experiment investigates the discrepancy between the fitness and the quality. Therefore, a new kernel is defined. This kernel inherits all features of the Gauss kernel and extends it with a sine function. As a result, the observed inconsistency between fitness and quality is mitigated.
The thesis closes with a proposal for further investigations. The concepts here should be reconsidered by using better performing optimisation algorithms from the literature, like CMA-ES. Beyond that, an adaptive scheme for the collocation points could be tested. Finally, the fitness function should be further examined.
Meine Masterarbeit beschreibt im Grunde einen Diskussionsprozess eines Begriffs. Es geht um den Versuch einer Kategorisierung und Bestimmung der Illustrationen, also darum, inwiefern Illustrationen kategorisiert werden können und anhand von welchen Merkmalen bestimmt werden kann, ob es sich um eine Illustration handelt. Diese Untersuchung findet in der Designforschung nämlich nur marginal statt. Julius Wiedemann und der Illustrator Raban Ruddigkeit erklären in ihren Büchern zwar, was eine Illustration ausmacht, jedoch wird weder eine Taxonomie bzw. Definition explizit angeführt oder darauf verwiesen, es kann aus dem Text aber ein Verständnis und damit eine implizite Definition explizit gemacht werden.
Laut Ruddigkeit sind Illustrationen mehr als bloß ein „Abbild der Wirklichkeit“ (Ruddigkeit 2021, Klappentext), denn eine Illustration „erhellt […] übertreibt […] mischt sich ein […] stößt […] Veränderung an […] interpretiert “ (Ruddigkeit 2021, Klappentext) Wiedemann verfolgt einen anderen Ansatz, denn laut ihm muss eine Illustration im Kontext funktionieren. (Vgl. Wiedemann 2007, 7f.)
Die Masterarbeit verfolgt die Methode der relationalen Bestimmung nach Wiesing. (Vgl. Wiesing 2015, Einleitung) Es erfolgt zusätzliche eine Analyse von Literatur, insbesondere liegt der Fokus auf den Theorien unter anderem von Sybille Krämer, Steffen-Peter Ballstaedt, Nelson Goodman, Hartmut Stöckl, Vilem Flusser, Ludwig Wittgenstein und Roland Barthes. Verorten lässt sich die Arbeit in den Bereichen der Bildwissenschaften bzw. der Kategoriensysteme. Ein Begriff wird diskutiert, es wird kein Versuch angestrebt, eine endgültige Lösung zu finden. Die Diskussion wird in einem passenden und übersichtlichen Layout in der Arbeit präsentiert und theoretisch weiter ausgearbeitet, sowie durchdiskutiert. Im besten Fall ergeben sich Vorschläge für eine Definition, eine Möglichkeit zur Kategorisierung bzw. Erhellungen zur Illustration, ohne sie endgültig definieren zu müssen.
Wir können von einem Theater der Begriffsbestimmung sprechen, welches am Fallbeispiel der Illustration inszeniert wird. Die Absicht der Masterarbeit ist somit nicht, eine endgültige Taxonomie aufzustellen, sondern die Diskussion zu eröffnen und Einsichten zu liefern. Mittels Überlegungen, Erkenntnissen aus Experimenten bzw. Analysen, Recherche und Forschung durch Design möchte ich versuchen, diesem komplexen Feld näher zu kommen. Diese Erkenntnisse sollen als Basis für weiterführende Forschung betrachtet werden. Fragen werden gestellt, diese müssen jedoch nicht im Zuge dieser Arbeit beantwortet werden.
Meine Forschungsfrage lautet somit folgendermaßen: Wie kann der Bestimmungsprozess zu einem Begriff offengelegt werden und zu einem fruchtbaren Ergebnis bzw. einer Einsicht führen, am Beispiel des Begriffs Illustration, ohne eine endgültige Lösung anzupeilen?
Lingerie
(2022)
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
The classification of waste with neural networks is already a topic in some scientific papers. An application in the embedded systems area with current AI processors to accelerate the inference has not yet been discussed. In this master work a prototype is created which classifies waste objects and automatically opens the appropriate container for the object. The area of application is in the public space.
For the classification a dataset with 25,681 images and 11 classes is created to re-train the Convolution Neuronal Networks EfficientNet-B0, MobileNet-v2 and NASNet-mobile. These Convolution Neuronal Networks run on the current Edge \acrshort{ai} processors from Google, Intel and Nvidia and are compared for performance, consumption and accuracy.
The master thesis evaluates the result of these comparisons and shows the advantages and disadvantages of the respective processors and the CNNs. For the prototype, the most suitable combination of hardware and AI architecture is used and exhibited at the university fair KasetFair2020. An opinion survey on the application of the machine is conducted.
Die Bedeutung des Goodwills in den Bilanzen der kapitalmarktorientierten Unternehmen hat in den letzten Jahren aufgrund der überteuerten Unternehmensübernahmen deutlich zugenommen. Aufgrund der zahlreichen Ermessenspielräume und den vergleichsweise geringen Abschreibungen wird der Impairment Only Approach häufig kritisiert. Das IASB hat eine Rückkehr zur planmäßigen Abschreibung offen zur Diskussion gestellt. Aus diesem Grund ist es notwendig zu verstehen, welche Auswirkungen die Wiedereinführung der planmäßigen Abschreibung auf die Unternehmen hat.
Das Ziel der vorliegenden Arbeit ist die Beantwortung folgender Forschungsfrage: Welchen Einfluss hat die mögliche Wiedereinführung einer planmäßigen Goodwill-Abschreibung auf die Erfolgsgrößen von Unternehmen der DACH-Regionen? Um die Forschungsfrage zu beantworten, wurde eine empirisch-theoretische Analyse durchgeführt. Hierzu wurde zunächst die Goodwill-Bilanzierungspraxis von 48 im DAX, ATX und SMI gelisteten Unternehmen im Zeitraum von 2015 bis 2019 analysiert und anschließend eine lineare Goodwill-Abschreibung für diesen Untersuchungszeitraum simuliert.
Die Ergebnisse der Studie zeigen, dass vor allem die im DAX gelisteten Unternehmen vom Impairment Only Approach profitiert haben. Die Wiedereinführung der planmäßigen Goodwill-Abschreibung würde die Vermögens- und Ertragslage der untersuchten Unternehmen deutlich verschlechtern. Insbesondere für ertragsschwache Unternehmen kann die Abkehr des Impairment Only Approachs kritische Folgen für die wirtschaftliche Lage haben.
Zum Abschluss werden alternative Abschreibungsmethoden und Ansätze diskutiert sowie Implikationen für die Diskussion des IASB abgeleitet.
Im Vertriebscontrolling halten zunehmend Verfahren aus dem Bereich Predictive Analytics Einzug. Hierdurch verändern sich die klassischen Arbeitsweisen mehr und mehr. Doch welche Faktoren sind dabei zu berücksichtigen und welche Einsatzmöglichkeiten finden sich für Predictive Analytics im Umfeld des Vertriebscontrollings? Dieser Frage wird in der vorliegenden Arbeit nachgegangen. Hieraus ergibt sich das Ziel, Einsatzmöglichkeiten für Predictive Analytics im Vertriebscontrolling herauszustellen und Schlüsselfaktoren herauszuarbeiten, die in diesem Kontext zu berücksichtigen sind. Außerdem sollen diesbezügliche Handlungsempfehlungen benannt werden. Dabei liegt der Fokus auf der Branche des Maschinen- und Anlagenbaus. Um diese Forschungsfragen zu beantworten, wurde mittels einer Literaturanalyse ein Reifegradmodell erarbeitet, das die verschiedenen Reifegrade über die relevanten Dimensionen Daten, Technologie, Prozesse, Methoden und Kompetenzen darstellt. Zudem wurden Bei-spiele für die Nutzung der häufigsten Methoden aus dem Bereich Predictive Analytics im Controlling-Umfeld zusammengetragen. Vor diesem Hintergrund konnten die Schlüsselfaktoren für den erfolgreichen Einsatz von Predictive Analytics im Vertriebscontrolling abgeleitet wer-den. Des Weiteren wurde eine qualitative Befragung in Form von Experteninterviews durch-geführt, wobei die in den Interviews thematisierten Unternehmen in das genannte Reifegradmodell eingruppiert wurden. Es zeigten sich bei der Analyse im Allgemeinen niedrige Reifegrade in den Dimensionen Methoden, Kompetenz und Technologie. Hieraus ergeben sich die folgenden Handlungsempfehlungen: die Einführung geeigneter Software aus dem Predictive-Analytics-Bereich, eine erste Anwendung von Predictive-Analytics-Methoden sowie der Aufbau von Wissen in den Bereichen Data-Science und Business-Analytics in Form von Fortbildungsmaßnahmen. Werden diese Empfehlungen befolgt, kann in Unternehmen aus dem Maschinen- und Anlagenbau ein erfolgreicher Einsatz von Predictive Analytics im Vertriebscontrolling gelingen. Hierdurch wiederum können die betreffenden Unternehmen bei der Prognose zukünftiger Entwicklungen unterstützt und wertvolle Entscheidungshilfen erlangt werden, was in weitergehend Forschungsarbeiten aufgegriffen werden kann.
Der Begriff der Nachhaltigkeit und der damit einhergehende Druck der Gesellschaft auf Unternehmen nimmt stetig zu. Unternehmen haben in den letzten Jahren damit begonnen, nachhaltige Ansätze im Rahmen ihrer wirtschaftlichen Tätigkeit zu integrieren und nach außen hin zu vertreten.
Das Ziel dieser Arbeit ist die Entwicklung eines sogenannten ESG-Leitfadens, welcher als zusätzliches Analysewerkzeug im Rahmen einer Unternehmensprüfung von Private-Equity-Gesellschaften eingesetzt werden kann. Der Leitfaden gilt als Leitlinie für die Einhaltung von ESG-Kriterien sowie den Bestimmungen der EU-Offenlegungsverordnung für nachhaltige Finanzprodukte.
Im Rahmen einer umfassenden Recherche wurden in einem ersten Schritt bestehende Due-Diligence-Prüfungen auf nachhaltige Aspekte untersucht. Anschließend wurden weitere Kriterien zur Erfüllung der ESG-Aspekte auf Basis einer entwickelten Methodik extrahiert und in den vorgesehenen Leitfaden implementiert. Weiters wurde sichergestellt, dass mit der Anwendung des Leitfadens die Grundzüge der EU-Offenlegungsverordnung eingehalten werden können.
In einem abschließend durchgeführten Anwendungstest wurde die Einsatzfähigkeit des Leitfadens bestätigt. Der Erfolg des ESG-Leitfadens, im Hinblick auf einen später darauf zurückzuführenden wirtschaftlichen Erfolg, kann lediglich in Kombination mit weiteren Prüfmethoden sichergestellt werden.
Interne Kontrollsysteme helfen Unternehmen bei der Steuerung und Überwachung risikobehafteter Prozesse und sind für Unternehmen bestimmter Größe und Rechtsform sogar verpflichtend. Der Gedanke eines spezifischen internen Kontrollsystems für Steuern ist dagegen recht neu. Da der Staat ein starkes Interesse an der korrekten und möglichst umfassenden Unternehmensbesteuerung hat, wurde das Prinzip des Horizontal Monitorings aufgegriffen und zur Begleitenden Kontrolle weiterentwickelt. Diese tritt anstelle der sonst üblichen Außenprüfung durch das zuständige Finanzamt. Zielgruppe für die begleitende Kontrolle sind besonders große, in Österreich ansässige Unternehmen und Unternehmensgruppen. Ein wesentliches Kriterium, um die begleitende Kontrolle beantragen zu können, ist das Vorhandensein eines funktionstüchtigen steuerlichen internen Kontrollsystems. Die Arbeit beschäftigt sich mit der Gestaltung und Funktionsweise eines steuerlichen internen Kontrollsystems, wie es für die begleitende Kontrolle erforderlich ist. Es thematisiert die für ein Unternehmen damit verbundenen Vor- und Nachteile, sowohl für das steuerliche interne Kontrollsystem selbst als auch die begleitende Kontrolle und vorhandenes Entwicklungspotenzial.
Um auf die Anforderungen der VUCA-Welt reagieren zu können, müssen Unternehmen sich zu anpassungsfähigeren Organismen entwickeln. Die agile Organisation bietet hier Lö-sungen, wobei HR in der agilen Transformation eine Schlüsselrolle einnimmt. Diese Arbeit beleuchtet Wirkungsfelder bzw. Rahmenbedingungen, die in Dienstleistungsunternehmen zur Befähigung der Agilität geschaffen werden müssen. Zudem werden die HR-Prozesse und -Instrumente auf notwendige Anpassungen analysiert, um Agilität zu fördern. Dabei wird ein Fokus auf die jeweiligen Wirkungen sowie Nebenwirkungen dieser Anpassungen gelegt. Basierend auf den Ergebnissen der theoretischen Ausarbeitungen sowie den durchgeführten Interviews mit Expertinnen und Experten werden Handlungsempfehlungen für HR-Verantwortliche zusammengetragen.
Es wird aufgezeigt, dass große Interdependenzen zwischen den einzelnen Wirkungsfeldern bestehen, die berücksichtigt und gezielt eingesetzt werden sollten. Zudem wird deutlich, dass die Anpassung der Prozesse Personalgewinnung, Personalentwicklung sowie insbesondere der Steuerungs- und Anreizsysteme wirkmächtige Hebel zur Förderung der Agilität darstellen.
Einfluss verhaltensökonomischer Faktoren auf die Nutzung neuer Technologien im Prozessmanagement
(2023)
Process Mining ist ein effektives Werkzeug, um bestehende Lücken in der Prozessüberwachung eines im Unternehmen integrierten Prozessmanagements zu verringern. Trotz dem weitverbreiteten Bewusstsein über diesen Umstand, wird Process Mining bisher in wenigen Unternehmen erfolgreich eingesetzt. Da die Einführung einer neuen Technologie als Change-Projekt einzustufen ist, ist die soziale Ebene in Form der Mitarbeitenden zu berücksichtigen. Da Menschen nicht ausschließlich rational entscheiden und handeln, ist davon auszugehen, dass auch Erkenntnisse aus der Verhaltensökonomie in diesem Zusammenhang eine Rolle spielen. Die vorliegende Arbeit beschäftigt sich insbesondere mit möglichen verhaltensökonomischen Faktoren, die für die Nutzung neuer Technologien im Prozessmanagement relevant sind. Für die Beantwortung dieser Frage wurde als Anwendungsbeispiel das Feld des Process Mining und ein theoretisch-konzeptionelles Vorgehen gewählt. Dabei werden zunächst die Forschungsfelder Process Mining, Change Management und Verhaltensökonomie theoretisch aufgearbeitet und mit verschiedenen Eigenschaften charakterisiert, um dann mögliche verhaltensökonomische Faktoren abzuleiten. Diese Masterarbeit zeigt, dass verhaltensökonomischen Faktoren in Form von kognitiven Verzerrungen entscheidend zum Erfolg bei der Einführung neuer Technologien beitragen. Von den drei ermittelten Charakteristika der „Neuartigkeit“, der „Komplexität der Technologie“ und den mit der Technologie einhergehenden „Ängsten und Unsicherheiten“ lassen sich folgende kognitive Verzerrungen ableiten: Der Status-Quo-Bias, die Verlustaversion, der Confirmation Bias, der Appeal to Novelty und der Pessimism Bias. Für jede kognitive Verzerrung wurden Gegenmaßnahmen aufgezeigt.
Durch künstliche Intelligenz gesteuerte Prozesse haben einen großen Einfluss auf unsere Wahrnehmung und auch umgekehrt beeinflussen sozio-kulturelle Vorstellungen digitale Prozesse. Technologien, die von einer durch geschlechtsspezifische Datenlücken geprägten Gesellschaft entwickelt werden, reproduzieren stereotype Narrative und Gender Biases. Die Arbeit mit der Forschungsfrage Wie tragen Suchmaschinen zu einer Fortschreitung von Gender Biases durch geschlechtsspezifische Datenlücken bei?, wird mit aus diversen Bereichen herangezogener Literatur, sowie eigenen experimentellen Ansätzen zur Erkenntnisgewinnung verfasst. Die Problemstellung wird in die folgenden Bereiche unterteilt und diskutiert: die Gender Data Gap, welche fehlende Daten über nicht-männliche Personen beschreibt, die Gender Gap, die das Fehlen nicht-männlicher Personen in Entwicklungsprozessen thematisiert und Algorithmische Biases, welche mit unterschiedlich starkem menschlichen Einfluss dargelegt werden. Die durchgeführten Untersuchungen befassen sich mit Darstellungen von Geschlecht durch die Suchmaschine Google. Es konnte bestätigt werden, dass stereotype Identitätsdarstellungen vorkommen und Google eine generisch-maskuline Sichtweise vertritt, wodurch geschlechtsspezifische Datenlücken verstärkt werden. Mit dem Ziel, Biases in digitalen Prozessen sichtbar zu machen, werden in dieser Arbeit gestalterische Lösungsansätze präsentiert, die an verschiedenen Punkten der Problemstellung anknüpfen.
In Europa und den USA werden rund 39 % des Energieverbrauchs durch den Betrieb von Gebäuden verursacht. Sie bieten somit großes Potential, den Gesamtenergieverbrauch zu verringern. Eine sinnvolle Möglichkeit dieser Umsetzung, ohne auf Gebäudekomfort verzichten zu müssen, liegt in der Optimierung der Gebäudeeffizienz. Dahingehend werden physikalische und datenbasierte Modelle als Planungstool für die Gebäudemodellierung verwendet, um frühzeitig Erkenntnisse über deren Energieverbrauch zu gewinnen. Während physikalische Modelle thermodynamische Prinzipien zur Modellierung des Energieverbrauchs einsetzen, verwenden datenbasierte Modelle historische oder allgemein verfügbare Daten, um ein Vorhersagemodell zu entwickeln. Das Ziel dieser Arbeit ist die Erstellung eines datenbasierten Modells, zur Prognose des Energieverbrauchs der Beleuchtung von Bürogebäuden. Es wurden bereits zahlreiche Studien hinsichtlich Prognosen des Energieverbrauchs erstellt. Die meisten beziehen sich jedoch auf den Gesamtenergieverbrauch oder jenen, welcher für Heizung, Kühlung oder Klimatechnik aufgewendet wird. Die Recherche des Autors ergab, dass vergleichsweise wenig Forschung für Vorhersagemodelle zur Ermittlung des Energieverbrauchs für die Beleuchtung betrieben wurde. Zur Umsetzung der Analyse stehen dem Autor Daten aus der Beleuchtungsinfrastruktur sowie Wetter-, Zeit- und Gebäudedaten zur Verfügung. Anhand dieser Arbeit soll eruiert werden, ob diese Daten hinreichend aussagekräftig sind, um ein geeignetes Modell zu entwickeln.
Die vorliegende Arbeit setzt sich mit Forschungstrends im Bereich der Entscheidungsfindung von Manager:innen auseinander. Dabei stehen komplexe Entscheidungen im Vordergrund. Im theoretischen Teil erfolgte eine Einführung in die Entscheidungstheorie. Anschließend wird die Funktion des Managements als Entscheidungsträger:in thematisiert. Anhand einer vertieften Literarturrecherche wurde eine Trendanalyse durchgeführt, um herauszufinden, welche Themenbereiche besonders viel Aufmerksamkeit in der Forschung über komplexe Managemententscheidungen erlangt haben. Herausgefunden wurde, dass besonders multikriterielle Entscheidungsmethoden beforscht wurden. Es wurde häufig im Bereich Energiewirtschaft, Nachhaltigkeit und Klimawandel geforscht, da hier die Voraussetzungen für komplexe Entscheidungen gegeben sind. Neben mathematisch fundierten Methoden kommen auch heuristische Ansätze zur Komplexitätsreduktion zur Anwendung, lässt sich aus den Forschungsergebnissen ableiten. Insgesamt wurden 12 Trends identifiziert, die sich teilweise überschneiden. Aus den gesichteten Forschungsarbeiten ließen sich Handlungsempfehlungen ableiten, die in einem eigenen Kapitel präsentiert werden.
Der Übergang zu erneuerbaren Energiesystemen und deren optimale Betriebsweise ist entscheidend für die Reduzierung des Energieverbrauchs und der damit verbundenen Einsparung von CO2-Emissionen. In privaten Haushalten dominiert traditionell die Hystereseregelung bei der Wärmeerzeugung. Neuere Bauten, ausgestattet mit Wärmepumpen und Photovoltaikanlagen, bieten jedoch beachtliches Potenzial zur Effizienzsteigerung durch angepasste Regelungsstrategien. Eine intelligente Laststeuerung ermöglicht erhebliche Kosteneinsparungen und eine Erhöhung des Autarkiegrades. Vorhandene literarische Ansätze liefern Methoden zur Systemmodellierung und -identifikation. Darüber hinaus demonstrieren sie das Potenzial der Optimierung durch den Model Predictive Control (MPC) Ansatz. Eine spezifische Evaluierung anhand von Realdaten eines Energiesystems mit Abluft-Wärmepumpe fehlt jedoch. Daher bedarf es der Bewertung des Lastverschiebungspotentials dieser Systemkonfiguration. Die Systemidentifikation erfolgt basierend auf Messdaten, welche gleichzeitig als Referenz für den Vergleich des traditionellen Hysteresebetriebs mit der MPC-Steuerung dienen. Die Analyse offenbart das Lastverschiebungspotential durch die optimierte Betriebsweise einschließlich einer Gesamtkosteneinsparung von bis zu 42% und einer Steigerung des Autarkiegrades um bis zu 10%. Diese Potentiale variieren saisonal, sind jedoch das ganze Jahr über vorhanden.
This paper analyses an electrical test tower of the OMCIRON electronics GmbH and evaluates whether a Predictive Maintenance (PdM) strategy can be implemented for the test towers. The company OMICRON electronics GmbH performs unit tests for its devices on test towers. Those tests consist of a multitude of subtests which all return a measurement value. Those results are tracked and stored in a database. The goal is to analyze the data of the test towers subtests and evaluate the possibility of implementing a predictive maintenance system in order to be able to predict the RUL and quantify the degradation of the test tower.
By assuming that the main degradation source are the relays of the test tower, a reliability modelling is performed which is the model-driven approach. The data-driven modelling process of the test tower consists of multiple steps. Firstly, the data is cleaned and compromised by removing redundances and optimizing for the best subtests where a subtest is rated as good if the trendability and monotonicity metric values are above a specific threshold. In a second step, the trend behaviours of the subtests are analyzed and ranked which illustrates that none of the subtests contained usable trend behaviour thus making an implementation of a PdM system impossible.
By using the ranking, the data-driven model is compared with the reliability model which shows that the assumption of the relays being the main error source is inaccurate.
An analysis of a possible anomaly detection model for a PdM is evaluated which shows that an anomaly detection is not possible for the test towers as well. The implementability of PdM for test towers and other OMICRON devices is discussed and followed up with proposals for future PdM implementations as well as additional analytical analyses that can be performed for the test towers.