Refine
Year of publication
Document Type
- Master's Thesis (409)
- Article (70)
- Conference Proceeding (23)
- Report (14)
- Part of a Book (4)
- Book (3)
- Other (3)
- Doctoral Thesis (2)
- Working Paper (2)
- Bachelor Thesis (1)
Institute
- Forschungszentrum Business Informatics (27)
- Forschungszentrum Mikrotechnik (27)
- Forschungszentrum Energie (22)
- Soziales & Gesundheit (18)
- Technik | Engineering & Technology (13)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (12)
- Forschungszentrum Human Centred Technologies (11)
- Forschungsgruppe Empirische Sozialwissenschaften (10)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (7)
- Wirtschaft (7)
Language
- German (329)
- English (201)
- Multiple languages (2)
Has Fulltext
- yes (532) (remove)
Keywords
- Digitalisierung (11)
- Controlling (7)
- Digitale Transformation (7)
- Machine learning (6)
- Demand Side Management (5)
- Industrie 4.0 (5)
- Soziale Arbeit (5)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Kultur (4)
Traditional power grids are mainly based on centralized power generation and subsequent distribution. The increasing penetration of distributed renewable energy sources and the growing number of electrical loads is creating difficulties in balancing supply and demand and threatens the secure and efficient operation of power grids. At the same time, households hold an increasing amount of flexibility, which can be exploited by demand-side management to decrease customer cost and support grid operation. Compared to the collection of individual flexibilities, aggregation reduces optimization complexity, protects households’ privacy, and lowers the communication effort. In mathematical terms, each flexibility is modeled by a set of power profiles, and the aggregated flexibility is modeled by the Minkowski sum of individual flexibilities. As the exact Minkowski sum calculation is generally computationally prohibitive, various approximations can be found in the literature. The main contribution of this paper is a comparative evaluation of several approximation algorithms in terms of novel quality criteria, computational complexity, and communication effort using realistic data. Furthermore, we investigate the dependence of selected comparison criteria on the time horizon length and on the number of households. Our results indicate that none of the algorithms perform satisfactorily in all categories. Hence, we provide guidelines on the application-dependent algorithm choice. Moreover, we demonstrate a major drawback of some inner approximations, namely that they may lead to situations in which not using the flexibility is impossible, which may be suboptimal in certain situations.
Alleviating the curse of dimensionality in minkowski sum approximations of storage flexibility
(2023)
Many real-world applications require the joint optimization of a large number of flexible devices over some time horizon. The flexibility of multiple batteries, thermostatically controlled loads, or electric vehicles, e.g., can be used to support grid operations and to reduce operation costs. Using piecewise constant power values, the flexibility of each device over d time periods can be described as a polytopic subset in power space. The aggregated flexibility is given by the Minkowski sum of these polytopes. As the computation of Minkowski sums is in general demanding, several approximations have been proposed in the literature. Yet, their application potential is often objective-dependent and limited by the curse of dimensionality. In this paper, we show that up to 2d vertices of each polytope can be computed efficiently and that the convex hull of their sums provides a computationally efficient inner approximation of the Minkowski sum. Via an extensive simulation study, we illustrate that our approach outperforms ten state-of-the-art inner approximations in terms of computational complexity and accuracy for different objectives. Moreover, we propose an efficient disaggregation method applicable to any vertex-based approximation. The proposed methods provide an efficient means to aggregate and to disaggregate typical battery storages in quarter-hourly periods over an entire day with reasonable accuracy for aggregated cost and for peak power optimization.
Die Suche nach geeigneten Maßnahmen im Kampf gegen den Pflegefachkräftemangel geht lange Zeit zurück. Immer mehr schnelle und nicht abgestimmte Lösungen kommen dabei auf. Um wirksam die Personallücke schließen zu können, muss an den Problemursachen angeknüpft werden.
In dieser Masterthesis wird der Personalmangel aus einer neuartigen Perspektive betrachtet. Mit Hilfe des Prozessfokus werden die existierenden Ideen mit folgender Fragestellung näher begutachtet: „Inwieweit spielt Business Process Management (BPM) eine Rolle bei den bisherigen Ideen? Kann BPM einen Beitrag zur Arbeitsentlastung der Pflegekräfte und damit zur Linderung des Personalmangels leisten?“
Um diese Frage beantworten zu können, ist eine zweiteilige Methodik erforderlich. Die Literaturrecherche wird mit dem Wissen aus einer Prozessbegehung ergänzt. Da die Kombination verschiedener Methoden ein Basisfachwissen voraussetzt, ist die Zielgruppe durch dieses Faktum definiert.
Am Ende kann die Digitalisierung in Verbindung mit organisatorischen Umstrukturierungen als geeigneter BPM-Lösungsansatz betitelt werden. Dieser knüpft an den Basisanforderungen an, um auf lange Sicht den Pflegemangel beherrschbar machen zu können.
Lohngerechtigkeit ist ein Thema, mit dem jede Person im Laufe des Lebens mehrmals konfrontiert wird. Sehr häufig wird dieses Thema auch in der Öffentlichkeit debattiert, vor allem wenn es um die „Gender Pay Gap“ geht, also die Lohnlücke zwischen Mann und Frau. Das Ziel dieser Masterthesis ist es deshalb herauszufinden, welche Faktoren für die Bestimmung eines fairen Entgelts laut unselbstständig erwerbstätiger Personen in Vorarlberg berücksichtigt werden sollen. Dabei wird nicht nur auf die gängigen Faktoren Berufserfahrung und Ausbildung eingegangen, sondern eine Vielzahl an Faktoren berücksichtigt. Mit Hilfe eines Fragebogens wurde dann hauptsächlich die Meinung von Angestellten mit einem Durchschnittsalter von 32,4 Jahren erhoben. Dabei hat sich gezeigt, dass die bedeutendsten vier Faktoren Leistung, Berufserfahrung, Position (inklusive der damit verbundenen Aufgaben und Verantwortung) und Ausbildung sind. Am unbedeutendsten werden Geschlecht, Unternehmensgröße und Familienstand erachtet. Außerdem konnte belegt werden, dass sich das Lohngerechtigkeitsempfinden stark an den eigenen Lebensumständen orientiert.
We have investigated the ablation behaviour of single crystal SrTiO3 <100> with focus on the influence of the pulse duration at a wavelength of 248 nm. The experiments were performed with KrF-excimer lasers with pulse durations of 34 ns and 500 fs, respectively. Femtosecond-ablation turns out to be more efficient by one order of magnitude and to eliminate the known problem of cracking of SrTiO3 during laser machining with longer pulses. In addition, the cavities ablated with femtosecond pulses display a smoother surface with no indication of melting and well-defined, sharp edges. These effects can be explained by the reduced thermal shock effect on the material by using ultrashort pulses.
Die Digitalisierung und Mediatisierung haben einen bedeutenden Einfluss auf das Leben von Ju- gendlichen. Obwohl ihnen aufgrund ihrer Generationszugehörigkeit oft eine hohe digitale Kom- petenz zugeschrieben wird, ist dies nur teilweise zutreffend. Um Jugendlichen eine erfolgreiche Bewältigung ihres digitalen Lebens, vor allem in Bezug auf krisenhafte Situationen, zu ermögli- chen, sind Unterstützungsangebote auf allen Ebenen der digitalen Lebenswelt erforderlich. In Vorarlberg hat sich der medienpädagogische Stammtisch gegründet, um wertvolle Unterstüt- zungsangebote für Jugendliche in diesem Bereich eine Vernetzungs- und Kooperationsplattform zu bieten. Die Forschungsfrage dieser Masterarbeit lautet: Wie gestaltet sich das Unterstützungsnetzwerk für die Bewältigung von Krisensituationen in der digitalen Lebenswelt von Jugendlichen in Vorarlberg? Um diese Frage möglichst umfassend zu beantworten, werden verschiedene Unterfragen untersucht, da- runter die Zugangsmöglichkeiten für bestimmte Zielgruppen, die beteiligte Akteur*innen, die Be- ziehungen zwischen den Angeboten sowie die Expert*innenwahrnehmungen zur Vorarlberger Soziallandschaft. Als Ausgangspunkt der Forschung dient der medienpädagogische Stammtisch, welcher im No- vember 2020 gegründet wurde, um den Bedarf an medienpädagogischen Angeboten für junge Menschen in Vorarlberg zu ermitteln und um eine Vernetzungsplattform zu bieten. Vertreter*in- nen verschiedener Einrichtungen schlossen sich zusammen, um die durch die Coronamaßnah- men verschärfte Situation zu verbessern. Der Stammtisch dient als Netzwerk und ermöglicht den Austausch zwischen den Akteur*innen. Die Bedeutung digitaler Unterstützungsnetzwerke für Jugendliche wird durch verschiedene Studien untermauert. So ermöglichen Digitale Netzwerke den Aufbau sozialer Beziehungen, den Austausch von Erfahrungen und Interessen sowie die Verbesserung der psychischen Gesundheit von Jugendlichen. Sowohl die Angebotslandschaft Vorarlbergs als auch die Unterstützungsangebote in krisenhaften Lebenssituation wurde durch die Unterstützung von Netzwerkkarten erhoben und bieten damit eine Visualisierung der Ak- teur*innen und deren Beziehungen als Unterstützungsnetzwerk. Im Rahmen der Forschungserkenntnisse betonen die Expert*innen, dass der medienpädagogi- sche Stammtisch eine wertvolle Ressource ist und Unterstützung in der Entwicklung digitaler Kompetenzen bietet. Sie sehen die digitale Lebenswelt als Erweiterung der realen Lebenswelt und plädieren für eine ganzheitliche Betrachtung beider Räume. Die Expert*innen betonen die Bedeutung einer Vernetzung von Akteur*innen auf verschiedenen Ebenen und die Notwendig- keit einer gemeinsamen Bewältigung der digitalen Herausforderungen. Digitale Unterstützungs- netzwerke können Jugendlichen in Krisensituationen helfen und ihre psychische Gesundheit stärken. Eine enge Zusammenarbeit zwischen den Akteur*innen, die Verbesserung der digitalen Bildung und Qualifizierung von Fachkräften sowie präventive Maßnahmen sind entscheidend, um Jugendliche im digitalen Raum zu unterstützen. Insgesamt zeigt sich, dass eine ganzheitliche und koordinierte Herangehensweise erforderlich ist, um Jugendlichen in der digitalen Lebenswelt effektive Unterstützung zu bieten. Die Evaluation und Weiterentwicklung des Unterstützungsnetzwerks sind von großer Bedeutung, um den sich wandelnden Bedürfnissen gerecht zu werden. Zudem ist die Einbeziehung des sozialen Umfelds der Jugendlichen ebenfalls unerlässlich. Die Digitalisierung bringt sowohl Risiken als auch Chancen mit sich, was maßgeblich zur Rele- vanz beiträgt, ein starkes und effektives Unterstützungsnetzwerk aufzubauen, das Jugendliche auf ihrem Weg durch das digitale Zeitalter begleitet und unterstützt.
Die Entwicklungen im Bereich der Algorithmen, Machine Learning und Künstlicher Intelligenz sind rasant und halten Einzug in immer mehr Bereichen des alltäglichen Lebens, insbesondere in den Unternehmen. Aus diesem Grund wird in dieser Arbeit der Frage nachgegangen, inwiefern dieser Trend Auswirkungen auf die benötigten Management-Kompetenzen hat. Zur Beantwortung dieser Frage wird zuerst die klassische Management-Lehre mit ihren zentralen Begrifflichkeiten und bestehenden Kompetenzmodellen beleuchtet und basierend auf diesen Erkenntnissen ein Analyse-Hilfsmodell entwickelt. Im Anschluss werden die wichtigsten Grundlagen zum Themenkomplex Algorithmus, Machine Learning und Künstliche Intelligenz behandelt und auf dieser Basis benötigte Management-Kompetenzen abgeleitet. Zusätzlich werden aktuelle Studien großer Beratungsunternehmen und Fachartikel analysiert und ebenfalls Kompetenzen für den Einsatz von Machine Learning und Künstlicher Intelligenz identifiziert. Schliesslich wird eine Gap-Analyse durchgeführt mit dem Resultat, dass keine grundsätzlich neuen Kompetenzen notwendig sind, diese jedoch teils erweitert werden müssen und sich deren Wichtigkeit verschiebt.
This thesis evaluates the feasibility of conducting visual inspection tests on power industry constructions using object detection techniques. The introduction provides an overview of this field’s state-of-the-art technologies and approaches. For the implementation, a case study is then conducted, which is done in collaboration with the partner company OMICRON Electronics GmbH, focusing on power transformers as an example. The objective is to develop an inspection test using photographs to identify power transformers and their subcomponents and detect existing rust spots and oil leaks within these components. Three object detection models are trained: one for power transformers and sub-components, one for rust detection, and one for oil leak detection. The training process utilizes the implementation of the YOLOv5 algorithm on a Linux-based workstation with an NVIDIA Quadro RTX 4000 GPU. The power transformer model is trained on a dataset provided by the partner company, while open-source datasets are used for rust and oil leak detection. The study highlights the need for a more powerful GPU to enhance training experiments and utilizes an Azure DevOps Pipeline to optimize the workflow. The performance of the power transformer detection model is satisfactory but influenced by image angles and an imbalance of certain sub-components in the dataset. Multi-angle video footage is a proposed solution for the inspection test to address this limitation and increase the size of the dataset, focusing on reducing the imbalance. The models trained on open-source datasets demonstrate the potential for rust and oil leak detection but lack accuracy due to their generic nature. Therefore, the datasets must be adjusted with case-specific data to achieve the desired accuracy for reliable visual inspection tests. The results of the case study have been well-received by the partner company’s management, indicating future development opportunities. This case study will likely be a foundation for implementing visual inspection tests as a product.
Die schnelllebige und sich verändernde Welt, in der die Menschen gegenwärtig leben, stellt Unternehmen ständig vor neue Herausforderungen. Der Wettbewerb wird immer anspruchsvoller und das Hervorstechen in jeder Branche ist von zahlreichen Faktoren abhängig. Einer davon, der zweifellos einen der grundlegenden Schlüssel zum Erfolg darstellt, ist die Entscheidungsfindung. Um letztere zu unterstützen, werden verschiedene Systeme geschaffen. Unter diesen Systemen lassen sich Business-Analytics-Systeme finden, deren Aufgabe sich auf die Umwandlung von Daten in Informationen konzentriert, um Evidenzen zu schaffen, die es den Managern ermöglicht, Entscheidungen auf der Grundlage von Daten – und nicht auf derjenigen von Intuition – zu treffen. Es ist jedoch Folgendes festzustellen: Obwohl diese Systeme immer besser werden, ist die Mehrheit der Manager in vielen Unternehmen nicht in der Lage, effektive Entscheidungen zu treffen.
Daher ist es das Ziel dieser Arbeit, den Personen in der Wirtschaftswelt eine Untersuchung und Analyse der kognitiven verhaltenspsychologischen Phänomene zur Verfügung zu stellen, um festzulegen, welche dieser Phänomene beim Treffen von Entscheidungen im Rahmen von Business Analytics auftreten und ein Problem verursachen können. Dazu wird die folgende Forschungsfrage gestellt: Welchen Einfluss haben die kognitionspsychologischen Phänomene des Verhaltens in der Business Analytics?
Um diese zu beantworten, ist eine systematische Literaturrecherche durchgeführt worden. Die Analyse der Phänomene anhand eines Data-Mining-Vorgehensmodells (CRISP-DM) zeigte, dass der Einfluss der Phänomene auf Business Analytics signifikant ist und sich auf mehrere Aspekte der Analytik bezieht.
Adult muscle carnitine palmitoyltransferase (CPT) II deficiency is a rare autosomal recessive disorder of long-chain fatty acid metabolism. It is typically associated with recurrent episodes of exercise-induced rhabdomyolysis and myoglobinuria, in most cases caused by a c.338C > T mutation in the CPT2 gene. Here we present the pedigree of one of the largest family studies of CPT II deficiency caused by the c.338C > T mutation, documented so far. The pedigree comprises 24 blood relatives
of the index patient, a 32 year old female with genetically proven CPT II deficiency. In total, the mutation was detected in 20 family members, among them five homozygotes and 15 heterozygotes. Among all homozygotes, first symptoms of CPT II deficiency occurred during childhood. Additionally, two already deceased relatives of the index patient were carriers of at least one copy of the genetic variant, revealing a remarkably high prevalence of the c.338C > T mutation within the tested family. Beside the index patient, only one individual had been diagnosed with CPT II deficiency prior to this study and three cases of CPT II deficiency were newly detected by this family study, pointing
to a general underdiagnosis of the disease. Therefore, this study emphasizes the need to raise awareness of CPT II deficiency for correct diagnosis and accurate management of the disease.
In Anbetracht der zahlreichen Herausforderungen und Entwicklungen, denen mittlere und große Unternehmen ausgesetzt sind, besteht heute oft die Situation, dass zwischen der Geschäftsprozessarchitektur und IT-Architektur ein architektonisches Misalignment herrscht. Dieses architektonische Misalignment macht sich heute vor allem bei den voneinander getrennt verwalteten Prozesslandkarten und IT-Landkarten bemerkbar. Um jedoch bessere Erkenntnisse für erfolgsrelevante Managemententscheidungen bereitstellen zu können, bedarf es einer sogenannten Alignment-Architektur, die beide Teilarchitekturen zu einer Sichtweise und Informationsbasis integriert. Das übergeordnete Ziel der vorliegenden Masterarbeit liegt darin, Antworten auf die Forschungsfrage zu geben, wie die Geschäftsprozessarchitektur mit der IT-Architektur integriert bzw. beide Welten miteinander harmonisiert werden können, um insbesondere daraus bessere Erkenntnisse für Managemententscheidungen im Rahmen der durch das ökonomische Umfeld angetriebenen Unternehmensentwicklung zu gewinnen. Um dieses Ziel erreichen und die Forschungsfrage beantworten zu können, wurde eine theoretisch-konzeptionelle Forschungsarbeit im Rahmen eines erweiterten Literaturstudiums betrieben, indem mit Hilfe von bestehender Literatur theoretische Erklärungsmuster zum vorliegenden Thema gesammelt, analysiert und in ein eigenes sowie neues Erklärungsmuster eingeordnet wurden. Durch diese neue Einordung und die grundsätzliche Theoriearbeit charakterisiert sich die durchgeführte Forschungsarbeit zudem als eine gestaltungsorientierte und qualitative Forschung. Die Ergebnisse dieser Forschungsarbeit sind fünf meta-kognitive Ansätze zur Integration der Geschäftsprozessarchitektur und der IT-Architektur. Diese sind der ursachenbasierte, der erfolgsbasierte, der denkbasierte, der granular-iterative und der interarchitektonische Integrationsansatz. Die vorliegende Masterarbeit demonstriert anhand von fundierten theoretischen Erkenntnissen, wie eine Integration zu einer Alignment-Architektur zwischen der Geschäftsprozessarchitektur und IT-Architektur erfolgen und inwiefern daraus bessere Erkenntnisse für Managemententscheidungen gewonnen werden können. Schließlich zeigen diese Erkenntnisse auf, wie ein Architekturmanagement aus einer anderen Gesamtperspektive betrachtet werden kann, um eine erfolgreiche Architekturintegration zu ermöglichen.
In unserer digitalen Welt haben es einige Technologie-Marken bis ganz nach oben geschafft. Große Tech-Unternehmen wie Apple, Amazon, Microsoft und Google belegen die ersten Plätze der Best Global Brands im Jahr 2021 (Interbrand, 2021). Aber auch Automobilhersteller wie Toyota, Mercedes-Benz und BMW spielen ganz oben mit.
Wir möchten zunehmend mit unserer Außenwelt vernetzt sein, auch während dem Autofahren (Ulrich, 2015). So haben wir die Möglichkeit, unser Smartphone über eine Integrations-Schnittstelle, wie z.B. Apple CarPlay, in das vorhandene Infotainment-System des Autos zu integrieren. Durch die Integration werden zwei Systeme von unterschiedlichen Marken, basierend auf verschiedenen Styleguides, auf einem Bildschirm abwechselnd genutzt und dargestellt. Man kann zwischen den beiden Systemen hin und her wechseln, je nachdem, welche Funktionen man gerade nutzen möchte. Dabei entsteht einerseits ein heterogenes Benutzererlebnis für die Nutzerinnen und Nutzer, und auch für Designerinnen und Designer entstehen gewisse Herausforderungen. Lassen sich die Systeme unterschiedlicher Marken bis zu einem gewissen Punkt visuell aneinander annähern, und kann dadurch die Usability für die Nutzerinnen und Nutzer erhöht werden? Mit diesen Herausforderungen im Design beschäftigt sich diese Arbeit.
Ergebnis ist die Konzeption eines Gestaltungssystems, welches einen Vorschlag für die Annäherung zwei heterogener grafischer Benutzeroberflächen von zwei unterschiedlichen Marken bietet, wenn diese zusammen auf einem Bildschirm dargestellt und von den Nutzerinnen und Nutzern genutzt werden können. Anhand des Systems können die Interfaces aneinander angenähert werden, und sich dennoch über identifizierte Gestaltungselemente differenzieren.
Zu Beginn wurde im eigenen beruflichen Umfeld beobachtet, dass Informationen und Wissen, die heutzutage im Arbeitsalltag in Fülle ausgetauscht werden, häufig nicht die gewünschte Aufmerksamkeit und Offenheit erhalten. Diese Masterarbeit untersucht, wie bei dieser Art von Beobachtungen, deren komplexe Natur die Identifizierung von Lösungsansätzen erschwert, das eigentliche Problem erkannt werden kann. Frederic Vester zufolge ermöglicht ein vernetztes Denken dabei, Erkenntnisse vor allem aus den miteinander verknüpften Faktoren zu gewinnen. Diese Denkweise lässt sich in einer systemischen wie auch einer transdisziplinären Betrachtungsweise finden, wobei diese der Herausforderung gegenüberstehen vielfältige Perspektiven auf das Problem miteinander in Einklang zu bringen. Dies wirft die Frage auf, inwiefern eine gestalterische Zwischeninstanz dazu beitragen kann, einen gemeinsamen Denkraum zu eröffnen. Das Ziel dieser Arbeit ist, einen Entwurfsvorschlag für die Gestaltung eines Erkenntnisprozesses zu erarbeiten. Der Forschungsansatz dieser Arbeit – (FÜR+ÜBER)DURCH – leitet sich aus Christopher Fraylings Kategorien zur Designforschung ab. Die ‚Recherche FÜR‘ führt dazu, ein Problem als ein System zu betrachten, für das Wolfgang Jonas ein Problem-Design vorschlägt. In der ‚Recherche ÜBER‘ zeigt sich, dass es explizites wie auch implizites Wissen für eine umfassende Problembetrachtung braucht. Dafür wurde die Spuren-sicherung der Kunst auf das Design übertragen, um vorhandenes Wissen visuell zu dokumentieren. Mit Charles S. Peirce visuelles Entwurfs- und Erkenntnisverfahren lässt sich zudem ein anschauliches Denken durch diagrammatisches Schlussfolgern fördern. Die theoretischen Erkenntnisse münden in der ‚Transformation DURCH‘ in einen Vorschlag für ein diagrammatisches Problem-Design. Diesen gilt es in Bezug zu dem praxisbasierten Gestaltungsentwurf aus dem Masterprojekt zu reflektieren. In einer Werkshalle wurden Prototypische Beobachtungen zum ‚Zusammenspiel von Aufmerksamkeit und Offenheit‘ physisch in Beziehung gesetzt und anschließend mit zwei Testgruppen daraufhin untersucht, ob sich daraus neue Erkenntnisse ergeben. Es zeigte sich, das Design auf diese Weise einen gemeinsamen Austausch fördern kann. Gleichzeitig wurde deutlich, dass der Gestaltungsprozess die Vernetztheit eines Problems darstellen kann, jedoch ein vernetztes Denken aktiv initiiert werden muss, wofür im Entwurfsvorschlag dieser Arbeit ein visuelles Verfahren vorgestellt wird.
The utilization of lasers in dentistry expands greatly in recent years. For instance, fs-lasers are effective for both drilling and caries prevention, while cw-lasers are useful for adhesive hardening. A cutting-edge application of lasers in dentistry is the debonding of veneers. While there are pre-existing tools for this purpose, there is still potential for improvement. Initial efforts to investigate laser assisted debonding mechanisms with measurements of the optical and mechanical properties of teeth and prosthetic ceramics are presented. Preliminary tests conducted with a laser system used for debonding that is commercially available showed differences in the output power set at the systems console to that at specified distances from the handpiece. Furthermore, the optical properties of the samples (human teeth and ceramics) were characterised. The optical properties of the ceramics should closely resemble those of teeth in terms of look and feel, but they also influence the laser assisted debonding technique and thus must be taken into account. In addition first attempts were performed to investigate the mechanical properties of the samples by means of pump-probe-elastography under a microscope. By analyzing the sample surface up to 20 ns after a fs-laser pulse impact, pressure and shock waves could be detected, which can be utilized to determine the elastic constants of specific materials. Together such investigations are needed to shape the basis for a purely optical approach of debonding of veneers utilizing acoustic waves.
The fact that services have emerged a driving force and the fastest growing sector in international trade attracts researchers to follow the changes taking place in the service industry. This study extends the scientific discussion on internationalization of service firms. Unlike previous research that examined factors that influence a single firm’s decision to internationalize, I acknowledge the heterogeneity of services, and based on the results obtained from secondary analysis of primary qualitative data sets, answer the main research question how internationalization motives differ between people-processing services, possession-processing services, and information-based services. This research goes beyond identification of variation in internationalization motives and analyses the service characteristics that might be responsible for the differences. In addition, I assess the key trends in the service sector and predict the possible future internationalization motives that are likely to emerge from the current trends.
Findings of this study reveal two major issues. First, it is evident that reasons for internationalization differ among hotel, retail firms and Higher education institutions representing people-processing services, possession-processing services, and information-based services respectively. Second, a few motives are common across sub-sectors, however the significance of the motives vary from sub-sector to sub-sector. I conclude that the differences in underlying structures of the respective service sub-sectors is the fundamental cause for the variation in internationalization motives among service sub-sectors. Other factors such as distinctive characteristics of service, firm’s competitive strategies, income elasticity of demand, and life-cycle stage of the service sub-sector also contribute to the differences in internationalization motives.
This paper also presents three different factors, which are likely to emerge as significant factors that influence service firm internationalization decision in future. (1) Company’s urge to be socially responsible and the need to contribute towards the environmental well-being (2) The need to sell regional products and services to neighbouring nations and respond to consumers’ demand for sustainable consumerism (3) Decision to penetrate foreign markets facilitated by the low risks and low cost of internationalization.
Operative Exzellenz wird als Sammelbegriff für strategische Managementansätze angesehen, welche anhand von Optimierungsinitiativen die Geschäftsprozesse des Unternehmens auf Kundenbedürfnisse, Qualität wie auch auf Effizienz ausrichten. Exzellenzmodelle kombinieren sowohl technische als auch soziale Faktoren im Streben nach nachhaltiger Verbesserung und basieren nicht nur auf dem Betriebsmanagement und den technischen Prozessen, sondern widmen auch den Menschen und ihrem Einfluss auf die erfolgreiche Umsetzung eines Optimierungsprogramms besondere Aufmerksamkeit. Ziel dieser Masterarbeit ist es, die entscheidende Rolle von Führungskräften und deren Führungsstile zu diskutieren, welche laut der ausgewerteten akademischen Literatur, sich für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 als erfolgsversprechend nennen lassen, indem die gewünschte Organisationskultur durch gezielte Anwendung von Führungskonzepten gefördert wird. Die Fragestellung der Masterarbeit wird anhand eines theoretisch-konzeptionellen Vorgehens beantwortet. Die Untersuchungen haben die Erkenntnisse zu Tage gebracht, dass sich mit dem Wandel der Anforderungen an die Unternehmen, auch die Führungskonzepte an die Anforderungen angepasst haben und somit auch die Führungsphilosophie von „Command and Control“ zu „Empowerment“, „agiler Führung“ und „transformationaler Führung“ übergegangen ist. Für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 konnten die Führungskonzepte „Transformationale Führung“, „Symbolische Führung“, „Mitarbeiter empowern“ und „Agile Führung“ identifiziert werden. Es besteht Grund zur Annahme, dass eine Kombination der vorgestellten Führungskonzepte die besten Ergebnisse liefern würde, insofern das geeignetste Führungskonzept situationsadäquat angewendet wird.
Industrial demand side management has shown significant potential to increase the efficiency of industrial energy systems via flexibility management by model-driven optimization methods. We propose a grey-box model of an industrial food processing plant. The model relies on physical and process knowledge and mass and energy balances. The model parameters are estimated using a predictive error method. Optimization methods are applied to separately reduce the total energy consumption, total energy costs and the peak electricity demand of the plant. A viable potential for demand side management in the plant is identified by increasing the energy efficiency, shifting cooling power to low price periods or by peak load reduction.
Pooled data from published reports on infants with clinically diagnosed vitamin B12 (B12) deficiency were analyzed with the purpose of describing the presentation, diagnostic approaches, and risk factors for the condition to inform prevention strategies. An electronic (PubMed database) and manual literature search following the PRISMA approach was conducted (preregistration with the Open Science Framework, accessed on 15 February 2023). Data were described and analyzed using correlation analyses, Chi-square tests, ANOVAs, and regression analyses, and 102 publications (292 cases) were analyzed. The mean age at first symptoms (anemia, various neurological symptoms) was four months; the mean time to diagnosis was 2.6 months. Maternal B12 at diagnosis, exclusive breastfeeding, and a maternal diet low in B12 predicted infant B12, methylmalonic acid, and total homocysteine. Infant B12 deficiency is still not easily diagnosed. Methylmalonic acid and total homocysteine are useful diagnostic parameters in addition to B12 levels. Since maternal B12 status predicts infant B12 status, it would probably be advantageous to target women in early pregnancy or even preconceptionally to prevent infant B12 deficiency, rather than to rely on newborn screening that often does not reliably identify high-risk children.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.
Thank god it's friday
(2022)
Das Ziel der vorliegenden Masterarbeit ist es zu untersuchen, welche Rolle Design im Kontext gesellschaftspolitischer Bewegungen spielt und in welchen Zeichen sich der Protest der Klimabewegung Fridays for Future äußert. Ebenfalls untersucht wird, inwiefern sich diese einst subversiven Elemente der Klimabewegung wiederum in den Mainstream der Werbeindustrie eingliedern.
Dazu wird die folgende Forschungsfrage gestellt: In welchen Zeichen manifestiert sich der aktuelle Klimaprotest und welche Zeichen finden sich in der Werbung wieder? Lässt sich für den Betrachtenden noch dechiffrieren wo der Protest aufhört und der Konsum beginnt?
Das Erkenntnisinteresse besteht darin, Bilder aus dem Aktionsrepertoire der Fridays for Future Bewegung über den Zeitraum 2019-2021 zu sammeln, die Ausbildung ihrer visuellen und sprachlichen Ausdrucksformen zu analysieren und zu dechiffrieren.
Zur Untersuchung des Bildmaterials werden Methoden aus unterschiedlichen Disziplinen eingesetzt. Protestäußerungen, die über Plakate, Fotografien und andere Medien zum Ausdruck kommen, werden gesammelt und mit bildwissenschaftlichen und rhetorischen Methoden untersucht. Die Argumentation erfolgt anhand der Untersuchung dreier konkreter Beispiele aus der Werbung mittels der dokumentarischen Methode der Bildinterpretation nach Bohnsack. In der Analyse der Kampagnen geht es um das Wechselverhältnis zwischen der ästhetischen Selbstdarstellung der Bewegung und ihrer Rezeption bzw. Re-Inszenierung in der Werbung.
Die Ergebnisse der Analyse zeigen, wie sich Werbung durch die Aneignung der Klimasymbolik vom klassischen Kommunikationsinstrument der Wirtschaft zunehmend zu einer Kommunikation auf nicht-ökonomischer und gesamtgesellschaftlicher Ebene entwickelt.
Bezugnehmend auf die Re-Inszenierung der Protestcodes in der Werbung werden diese in der praktischen Ausarbeitung durch die Antiwerbung-Aktionsform des Culture Jammings selbst noch einmal zitiert und ironisiert. Dabei werden die Medien und Mittel der Werbung verwendet, wodurch sich ein Dreisatz aus Aneignung, Manipulation und Wiedereinspeisung ergibt.
Erfolgreiche Personalarbeit zeichnet sich durch gute, datenbasierte Kenntnisse und Verknüpfungen über alle Geschäftsbereiche, mit Fokus auf die Menschen im Unternehmen, aus. In vielen Unternehmen werden relevante Personalentscheidungen noch immer aus dem Bauch heraus getroffen, anstatt durch eine fundierte Grundlage von Daten. People Analytics ist einer der wichtigsten Trends im Personalmanagement und dennoch wird es kaum in einer Personalabteilung der DACH-Region eingesetzt. Ziel dieser Masterarbeit ist es, die Chancen und Herausforderungen von People Analytics auszuarbeiten und Einsatzmöglichkeiten für Industrieunternehmen der DACH-Region aufzuzeigen. Dafür werden die theoretischen Grundlagen und Anwendungsprozesse von People Analytics dargelegt und die Herausforderungen und Hindernisse sowie die Möglichkeiten und Chancen ausgearbeitet. Im Rahmen von zwei Experteninterviews mit HR-Spezialisten werden die aktuellen Gegebenheiten der DACH-Region eruiert. Dabei wurde ersichtlich, dass die größten Chancen von People Analytics sowohl in der Literatur als auch den befragten Personen zufolge, in der datenbasierten Entscheidungsfindung, der strategischen Personalentwicklung sowie in der strategischen Personalplanung liegen. Die größten Herausforderungen werden in der Akzeptanz der Mitarbeitenden, der IT-Infrastruktur sowie in der fehlenden analytischen Kompetenz der Mitarbeitenden im Personalbereich gesehen. Einsatzmöglichkeiten, abseits der derzeit bereits ausgewerteten Unternehmenskennzahlen, sind aufgrund der oben genannten Herausforderungen sowie den marginal vorhandenen Daten in den Unternehmen der DACH-Region derzeit keine gegeben.
Unbegreiflich? Begreif mich!
(2022)
Fehlendes Wissen führt zu fehlendem Verständnis und beeinträchtigt die Empathie gegenüber Menschen mit Behinderungen und deren Lebensumständen.
Diese Arbeit untersucht bisherige Methoden zur medialen Verständnisvermittlung chronischer Krankheiten mittels Seznografie. Der Fokus liegt dabei auf rheumatischen Erkrankungen. Die Analyse beinhaltet Aspekte der Wahrnemungsvermittlung, welche bislang noch nicht oder ungenügend erforscht wurden. Es werden Beispiele zu verschiedenen Inszenierungen von Krankheit und deren Auswirkungen auf die Betroffenen gesammelt und analysiert. Dabei wird beurteilt, welche Methoden zur Vermittlung eingesetzt werden können, um durch das Erlebnis von Objekten die Empathie gegenüber körperbehinderten Menschen zu steigern und in weiterer Folge deren Inklusion in die Gesellschaft zu verbessern. Die Kombination aus faktischem Wissen gekoppelt mit einer Selbsterfahrung verstärkt den Lerneffekt und kann das Verhalten nachhaltig beeinflussen. Durch das immersive verstehen einer Situation besteht die Möglichkeit Empathie aufzubauen und zu stärken. Diese Faktoren werden bei der Konzipierung mit einbezogen und sind maßgeblich für die Struktur der Ausstellung.
Das erarbeitete Austellungskonzept baut auf bisherigen best practice Beispielen, sowie recherchierten Methoden auf, wobei die Besucher:innen immersiv mit dem Thema Behinderung und chronische Krankheiten konfrontiert werden. Dieses Konzept ist in Form einer Partitur dieser Arbeit beigelegt, um den Erlebnispfad durch die erarbeiteten Inhalte und Darstellungen übersichtlich zu präsentieren. Die entwickelten Objekte wurden durch Recherche und anhand von Interviews auf ihre Eignung geprüft und in ihrer Wirkung und Relevanz bestätigt.
Over the last years, polymers have gained great attention as substrate material, because of the possibility to produce low-cost sensors in a high-throughput manner or for rapid prototyping and the wide variety of polymeric materials available with different features (like transparency, flexibility, stretchability, etc.). For almost all biosensing applications, the interaction between biomolecules (for example, antibodies, proteins or enzymes) and the employed substrate surface is highly important. In order to realize an effective biomolecule immobilization on polymers, different surface activation techniques, including chemical and physical methods, exist. Among them, plasma treatment offers an easy, fast and effective activation of the surfaces by micro/nanotexturing and generating functional groups (including carboxylic acids, amines, esters, aldehydes or hydroxyl groups). Hence, here we present a systematic and comprehensive plasma activation study of various polymeric surfaces by optimizing different parameters, including power, time, substrate temperature and gas composition. Thereby, the highest immobilization efficiency along with a homogenous biomolecule distribution is achieved with a 5-min plasma treatment under a gas composition of 50% oxygen and nitrogen, at a power of 1000 W and a substrate temperature of 80 C. These results are also confirmed by different surface characterization methods, including SEM, XPS and contact angle measurements.
Das Betriebliche Gesundheitsmanagement (BGM) bildet einen bedeutenden Bestandteil in Unternehmen, um die Gesundheit von Mitarbeitenden zu bewahren, wiederherzustellen oder zu fördern. Die Gesundheit der Mitarbeitenden trägt maßgeblich zum Erfolg von Unternehmen bei, da Mitarbeitende eine essenzielle Ressource im Unternehmen darstellen. Speziell während der Coronapandemie stehen Unternehmen vor der Herausforderung das Betriebliche Gesundheitsmanagement auch im Home-Office oder bei dem Mobilen Arbeiten zu gewährleisten. Die vorliegende Arbeit beschäftigt sich mit den BGM-Maßnahmen im Home-Office in Großunternehmen in Deutschland und der Frage, welche BGM-Maßnahmen die Gesundheit der Mitarbeitenden im Home-Office positiv beeinflussen und somit eine Handlungsempfehlung darstellen. Hierzu wurde sowohl eine systematische Literaturrecherche als auch eine empirische und qualitative Studie mit sechs Experten und Expertinnen in deutschen Großunternehmen durchgeführt. Die Ergebnisse zeigen, dass die analysierten Großunternehmen in Deutschland vor allem Maßnahmen im Bereich der Betrieblichen Gesundheitsförderung zur Abwendung psychischer Krankheiten einsetzen. Auch Maßnahmen zur Ergonomie spielen eine zentrale Rolle. Besonders virtuelle Maßnahmen, wie eine Aktive Pause, virtuelle Kurse zur Stressbewältigung und Achtsamkeit sowie Apps, werden in den Unternehmen eingesetzt. Das BGM wird bei den meisten Befragten im Rahmen des Mobilen Arbeitens angeboten, da hierbei unter anderem eine höhere Flexibilität möglich ist und weniger rechtliche Vorgaben seitens der Arbeitgebenden im Vergleich zum Home-Office beachtet werden müssen.
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
Although pilot projects are an accepted means of entry into prospects, research on the object of startups selling SaaS and use pilots to enter and to further scale within their prospect’s organization is limited. The reader can expect a collection of key practices of SaaS startups in the field of Decision Support Software. These combine the main sales-oriented elements within pilot projects that are reflected on by Customer Success Management, Change Management as well as cultural dimensions. Explorative interviews, mainly with stakeholders in Decision Support Software startups, were conducted to further gain an understanding of the research object. Results indicate that pilots are strategically used in the sales of such startups to simultaneously deal with their customer’s uncertainties and as a means for the startups to get commitment and increase their value proposition through the additional service that they offer in order to acquire an internal support basis. Customer Success Management as well as Change Management are furthermore advantageous in quickly achieving measurable results that leverage buyers and seller’s justification for further sales.
Offline speech to text engine for delimited context in combination with an offline speech assistant
(2022)
The inatura museum in Dornbirn had planned an interactive speech assistant-like exhibit. The concept was that visitors could ask the exhibit several questions that they would like to ask a flower. Solution requirements regarding the functionalities were formulated, such as the capacity to run offline because of privacy reasons. Due to the similarity of the exhibit, open-source offline Speech To Text (STT) engines and speech assistants were examined. Proprietary cloud-based STT engines associated with the corresponding speech assistants were also researched. The aim behind this was to evaluate the hypothesis of whether an open-source offline STT engine can compete with a proprietary cloud-based STT engine. Additionally, a suitable STT engine or speech assistant would need to be evaluated. Furthermore, analysis regarding the adaption possibilities of the STT models took place. After the technical analysis, the decision in favour of the STT engines called "Vosk" was made. This analysis was followed by attempts to adapt the model of Vosk. Vosk was compared to proprietary cloud-based Google Cloud Speech to Text to evaluate the hypothesis. The comparison resulted in not much of a significant difference between Vosk and Google Cloud Speech to Text. Due to this result, a recommendation to use Vosk for the exhibit was given. Due to the lack of intent parsing functionality, two algorithms called "text matching algorithm" and "text and keyword matching algorithm" were implemented and tested. This test proved that the text and keyword matching algorithm performed better, with an average success rate of 83.93 %. Consequently, this algorithm was recommended for the intent parsing of the exhibit. In the end, potential adaption possibilities for the algorithms were given, such as using a different string matching library. Some improvements regarding the exhibit were also presented.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Das Ziel der vorliegenden Masterarbeit ist der Nachweis einer signifikanten Korrelation zwischen der ausgewiesenen Position des derivativen Firmenwertes und der Marktkapitalisierung kurz nach Veröffentlichung der Finanzberichte von börsennotierten Unternehmen in der Dachregion. Darauf basierend ist das zweite Ziel die Hervorhebung von Problemen und Risiken für Investoren, die basierend auf den momentan geltenden IFRS-Richtlinien durch den derivativen Firmenwert entstehen. Außerdem veranschaulicht die Masterarbeit für Investoren relevante Informationen und Indikatoren zur Risikoabschätzung von derivativen Firmenwert Positionen. Die Masterarbeit basiert auf einem Datensatz von 1631 IFRS-basierten Jahresabschlüssen innerhalb der Jahre 2016 bis 2021, erhalten durch die reputable Osiris-Datenbank. Des Weiteren wurde facheinschlägige Literatur zur Identifikation von Problemen und Risiken basierend auf den momentan gültigen IFRS-Richtlinien analysiert. Die Studie zeigte einen hoch signifikanten Zusammenhang zwischen der Position des derivativen Firmenwertes und der Marktkapitalisierung drei Monate nach dem Jahresabschluss. Des Weiteren hat die Literaturrecherche gezeigt, dass erhebliche Risiken basierend auf der Intransparenz, Möglichkeiten zur Gewinnmanipulation und der Überbewertung des derivativen Firmenwertes sowie des übernommenen Vermögens im Rahmen von Unternehmenszusammenschlüssen existieren. Basierend auf dem limitierten Zeitfenster und der regionalen Einschränkung der Studie, kann diese nur beschränkt Einsichten für Märkte außerhalb der „DACH“-Region bieten. Zusätzlich sind die Schlussfolgerungen durch die Anwendbarkeit eines multiplen linearen Regressionsmodells auf das Problem limitiert. Diese Masterarbeit leistet durch die Bereitstellung tiefergehender Einsichten in die Ausmaße und Einflüsse des derivativen Firmenwertes, innerhalb von IFRS-basierten Finanzberichten börsennotierter Unternehmen, einen Beitrag zur existierenden Literatur. Des Weiteren untersucht und konsolidiert sie fachspezifische Literatur hinsichtlich Risiken und Probleme des derivativen Firmenwertes, entstehend aus den Ansatz-, Bewertungs- und Informationsoffenlegungsrichtlinien in den IFRS.
Wärmepumpen werden als vielversprechende Lösung zur Dekarbonisierung des Gebäudesektors angesehen. Konventionelle Kältemittel, die als direkte Emissionen aus Wärmepumpensystemen austreten, stellen insbesondere vor dem Hintergrund steigender Installationszahlen ein relevantes Treibhauspotenzial dar. Natürliche Kältemittel verfügen über ein geringes Treibhauspotenzial und können daher zur Substitution konventioneller Kältemittel verwendet werden. Dennoch werden sie bislang nicht im großen Maßstab eingesetzt. Es bedarf weiterer Studien und Anreize, um den Einsatz natürlicher Kältemittel voranzubringen. In dieser Fallstudie erfolgt anhand eines Referenzprojektes ein simulativer Vergleich zweier reversibler Luft-Wasser-Wärmepumpen. Im Referenzfall wird das konventionelle Kältemittel R32 verwendet, als Alternative dient das natürliche Kältemittel R290. Die beiden Systeme werden hinsichtlich ihrer Effizienz, Klimawirksamkeit und Wirtschaftlichkeit verglichen. Die notwendigen Berechnungen basieren auf einem kalibrierten Simulationsmodell des Gebäudes und der Anlage. Die Ergebnisse zeigen einen energetischen und ökologischen Vorteil für R290. Im Heizbetrieb, der den Hauptteil des thermischen Energiebedarfs im Referenzprojekt ausmacht, erreicht die Wärmepumpe mit R290 eine um 9% höhere Jahresarbeitszahl. Im Gegensatz dazu erzielt die R32-Wärmepumpe eine um 12% höhere Jahresarbeitszahl im Kühlbetrieb. Durch die höhere Effizienz im Heizbetrieb und das niedrigere Treibhauspotenzial des Kältemittels liegen die Emissionen durch den Betrieb der R290-Wärmepumpe um 17% unter denen der R32-Wärmepumpe. Der wirtschaftliche Vergleich der beiden Systeme fällt aufgrund höherer Investitionskosten zum Nachteil der R290-Wärmepumpe aus.
Cultural Due Diligence
(2020)
Much research has been conducted in recent years to discover the reasons for the high failure rate of M&As, whereas one frequently cited reason is the incompatibility of the corporate cultures. In order to minimize this risk and to be able to react to these differences already at an early stage, Cultural Due Diligence offers itself as part of the due diligence process. Unlike existing, more general research, I emphasize the cultural challenges companies face when investing transnationally with this thesis. Using the results of a single case study with inductive character, I answer the question how to conduct Cultural Due Diligence in cross-border M&As and propose an appropriate model. The findings reveal that especially in cross-border M&As, cultural incompatibility poses a risk for failure. I was able to find out that companies that seek to grow internationally with M&As deal with similar issues in terms of corporate culture as pointed out in existing Cultural Due Diligence methods. The present study, however, shows that national culture has a great influence on corporate culture, which is why it is essential to include it in the cultural assessment in cross-border acquisitions. This provides information about why there are differences, besides the fact that they exist. Only this understanding puts a company in the appropriate starting position to recognize differences, understand them, assess whether these differ-ences are acceptable, as well as to develop appropriate strategies to address them in the integration phase.
Für die Digitale Fabrik an der FH Vorarlberg sollen Intrusion-Detection-Systeme (IDS) zur Erkennung von Angriffen auf Hosts sowie im Netzwerk evaluiert werden. Außerdem sollen die aus den IDS erhaltenen Resultate so dargestellt werden, damit Systemadministratorinnen rapide Entscheidungen bezüglich der generierten Alarme treffen können. Um dies zu gewährleisten sollen neben den IDS zusätzlich entsprechende Visualisierungstools evaluiert werden. In dieser Arbeit werden dazu unterschiedliche signatur- sowie auch anomaliebasierte Netzwerk- und Host-IDS technisch beschrieben und anhand von Kriterien, welche aus den Anforderungen abgeleitet werden, bewertet. Zusätzlich wird die Genauigkeit der IDS durch Testen von spezifischen Angriffen ermittelt. Außerdem werden potenzielle Tools für die Darstellung von Alarmen aus den IDS vorgestellt und ebenfalls anhand den Anforderungen aufgezeigt, welches am geeignetsten ist. Abschließend werden alle Probleme sowie Erkenntnisse aufgezeigt, welche während der Evaluierung auftraten und erläutert, wie diese Arbeit fortgeführt werden kann.
Varying mindsets in Design Thinking. Why they change during the process and how to nudge them
(2019)
Die Digitalisierung in Unternehmen und somit der Vormarsch von Industrie 4.0 zählen zu den am häufigsten besprochenen Themenfeldern der letzten Jahre. Mit Industrie 4.0 fallen auch Schlagwörter wie ‚Internet of Things‘ oder ‚Big Data‘. Diese Technologien sind dafür zuständig, die Produktion zu vernetzen, Daten aufzubereiten und somit einen Wettbewerbsvorteil zu erlangen. Dem gegenüber steht die altbewährte ‚Lean Six Sigma‘-Methode, die große Beliebtheit in Unternehmen genießt und weltweit angewandt wird.
Das Ziel der vorliegenden Arbeit ist, die Auswirkungen des digitalen Wandels auf die Methode Lean Six Sigma zu untersuchen. Daraus resultiert auch die Forschungsfrage: Welche Chancen und Risiken birgt der digitale Wandel durch Industrie 4.0 für die Nutzung von Lean Six Sigma in Unternehmen?.
Um die Forschungsfrage beantworten zu können, wird in dieser Masterarbeit auf mehrere Fachquellen Bezug genommen, in denen der Zusammenhang zwischen Industrie 4.0 und Lean Six Sigma sowohl theoretisch als auch praktisch untersucht wird. Damit bewegt sich die Arbeit im theoretisch-konzeptionellen Bereich. Insgesamt 47 relevante Beiträge wurden dabei identifiziert.
Aus den Beiträgen ergeben sich vier Technologien, die den größten Einfluss auf Lean Six Sigma und den DMAIC-Zyklus (Define, Measure, Analyze, Improve, Control) haben. Diese Technologien sind Big Data, Data-Mining, Process-Mining und Simulation. Durch eine genaue Analyse der Literatur wird gezeigt, dass sich ein Zusammenspiel der beiden Methoden lohnt; es wird aber auch darauf hingewiesen, dass Risiken zu beachten sind.
Keywords: Lean Six Sigma, Industrie 4.0, Big Data, Data-Mining, Process-Mining, Simulation
Die vorliegende Arbeit beschäftigt sich mit der Positionsbestimmung in Innenräumen mittels der Ultra Breitband Technologie, deren Genauigkeit sowie der Positionierung solcher Systeme in relevanten Beleuchtungsmodulen. Im ersten Teil der Arbeit wird die Ultrabreitband Technologie beschrieben, die sich für Ortbarkeit in Innenräumen durch die große Bandbreite, relativ gut eignet. Hierbei wird auf das UWB-Signal, die Regulierung bezüglich Frequenznutzung für Europa und USA sowie auf die UWB-Standards eingegangen. Im weiteren Verlauf der Arbeit werden die gegenwärtigen Positionsbestimmungs Verfahren beschrieben. Beispiele hierfür sind das Time of Flight (ToF), das Time of Arrival sowie nicht funkbasierte Methoden wie z. B. die Inertial Measurement Unit (IMU). Die Positionsbestimmung in der UWB-Technologie wird häufig mittels ToF und ToA bewerkstelligt. Im darauffolgenden Kapitel werden die gegenwärtigen Lokalisierungssysteme erklärt. Real Time Locating Systems (RTLS) kommen in vielen Lebensbereichen zum Einsatz, von Krankenhäusern bis zum Sport. Der zweite Teil der Arbeit besteht aus der Ausarbeitung von verschiedenen Konzepten zur Realisierung eines Demonstrators sowie der Ausarbeitung eines Simulationsmodells für die Positionsbestimmung, mit dem eine Ortungsgenauigkeit von 30 bis 50 cm erreicht werden kann.
Purpose: In this thesis the viable system model (VSM) is used as a framework to develop a model for the management of a business alliance that contains the necessary and sufficient conditions for maintaining synergy of its constituent organisations and for adapting to a changing environment so that it can remain a long-term viable alliance. In addition, a model is developed that makes explicit the inherent link between the VSM and the core elements of knowledge management theory. Based then on the alliance management model and the link established between the VSM and knowledge management, an application framework is developed to guide practitioners in defining necessary alliance management functions and relationships, the knowledge required by that management to fulfill those functions, and the processes that need to be in place to manage that knowledge. Design/strategy: The research has been divided into four phases: theoretical construction, refinement with practitioners, real-world application, and evaluation of test case and toolset. The researcher has worked closely with practitioners actively involved in the formation of a new international alliance to develop a VSM model and application framework for the alliance management. Formally, the research strategy has been defined as an action research and the research philosophy as one of pragmatism. Findings/limitations: The developed application framework, has been successfully used to identify absent and incomplete roles, actions, and interactions within the management of the specific alliance test case. This has helped to demonstrate how the application framework and VSM model can be used to diagnose and, most importantly, to articulate and visualise management deficiencies to facilitate clear and unambiguous discussions. The timing of this cross-sectional research did not allow the application framework to be utilised from the outset of the alliance formation as an organisational planning tool and also not to its full extent to support the development of knowledge processes for the alliance management. However, the step-by-step approach used in developing the toolset and then explaining its application will allow the reader to judge its credability and generalisability for other practical applications. Practical implications: The developed toolset consists of a VSM for an alliance management, job descriptions for that management (responsibilities, interfaces, and core competencies), a visual model illustrating the link between the VSM and knowledge management, and an application framework to guide the filling of the alliance management job descriptions in phases of recruitment, onboarding, and development (of interfaces and activities processes). Overall, one could say that the conditions prescribed by the VSM are rather obvious and yet, as seen by the specific alliance test case, many of these conditions have been completely overlooked by a management that was more than capable, willing, and empowered to enact those conditions. This gives a good indication that the toolset which has been compiled in a visual and tabular systematic fashion may well be useful to practitioners for the organisational planning of an alliance management. The visual representation of a management role in the VSM as a set of knowledge episodes put forward by this research is significant. It forces the express recognition that knowledge management is an integral part of every interaction that takes place and every action performed that, according to the VSM, are necessary and altogether are sufficient for viability. It means that knowledge management cannot be considered as some abstract topic or unnecessary overhead or afterthought – it is entirely necessary, practical and forms a natural course of events during design of action/interaction processes. In other words, if an organisation is viable then, by definition, it does knowledge management whether or not it is formally recognised as such. The VSM, by defining necessary and sufficient actions and interactions for its roles, therefore provides a focus for relevant knowledge and serves as a tool for structured knowledge management. Originality/value: This research addresses a general academic call for hands-on insights of VSM applications by sharing real-world insights, artifacts and reflections generated by a practical and relevant organisational management application. It also addresses the potential, recognised by academics, for VSM as a framework for knowledge management by developing an intuitive model linking those theories and then using that model as part of a framework to guide its application. The introduction to aspects of knowledge management theory relevant to the model developed as well as the meticulousness and comprehensive explanation of the VSM provides a solid theoretical foundation for practitioners. The developed toolset is based on existing theories from multiple fields of research that have been logically linked and extended in an original and novel manner with a strong focus on practical application. This researcher’s hope is that this will stimulate interest for future research and practical application from academics and practitioners alike.
In den 13 Jahren seit Einführung der IFRS für KMU in Deutschland belegen mehrere Studien, dass dieser Standard, entgegen der Erwartungen, keine Erfolge im Bereich der Anwenderzahlen erzielen konnte. Trotz der Entwicklung eines international angepassten und auf die Bedürfnisse der KMU fokussierten Rechnungslegungsstandards, blieb eine Etablierung innerhalb der KMU aus.
Ziel dieser Arbeit ist die Analyse, inwiefern eine doppelte Rechnungslegung nach IFRS und HGB wirtschaftliche und geschäftsanalytische Vorteile für die Anteilseigner deutscher KMU generiert. Aufbauend auf der beschriebenen Zielsetzung gilt es zu überprüfen, welche Anteilseigner deutscher KMU von dem doppelten Rechnungslegungsstandard adressiert werden und ferner, in welchem Ausmaß eine höhere Bedürfnisbefriedigung resultiert. Zunächst erfolgt im Rahmen einer umfassenden Literaturrecherche eine Untersuchung der Anteilseigner deutscher KMU und deren Anforderungen an ein Rechnungslegungssystem. Anschließend findet eine Überprüfung möglicher Vorteile statt, welche die Anwendung der IFRS für KMU befürworten würden. Darüber hinaus wurden zehn Experteninterviews durchgeführt mit der Intention, erworbene Erkenntnisse zu revidieren und überdies neue zu generieren. In einer abschließenden Inhaltsextraktion werden die gewonnen Annahmen artikuliert und anschließend interpretiert, um die zugrundeliegende Forschungsfrage zu beantworten.
The research focused on the wood pellet market for private consumers in Germany and has the objective to understand the factors affecting the purchase decisions of wood pellets buy-ers. The aims of the research were achieved by applying the Engel, Kollat, Blackwell model of consumer behaviour, by conducting in-depth interviews and deriving the grounded theory. The application of EKB model revealed that the following groups of factors may influence the con-sumers: cultural (culture and social class), social (family influence), personal (age and lifecycle stage), psychological (believes, motives, attitudes) and unexpected circumstances. In-depth interviews with the buyers of wood pellets helped specify the influencing factors to finally an-swer the research question. The analysis showed that the buyers of wood pellets are influ-enced by family, personal believes and attitudes, and the unexpected circumstances. The most important factors for the buyers are the quality of the pellets and reliability of the supplier. If they are satisfied with the quality of product and service, they will be reluctant to look for an alternative. And on the opposite side, in case the quality of the product or the service is unsat-isfactory this is a limiting factor and will stop the buyer from purchasing this product. Price is an important factor for the buyers of pellets in bags. However, in the situation of volatile mar-ket and exploding prices, the price factor will play a bigger role. Thus, the strategic factors for marketing of pellets is to concentrate on quality and price communication, and to focus on the quality of pellet delivery service.
Diese Arbeit hat die Untersuchung der Frage, wie Mitarbeiter:innen agile Führung inmitten der COVID-19-Krise wahrnehmen, zum Ziel. Die leitende Forschungsfrage lautet: „Wie erfolgreich ist agile Führung in Zeiten der COVID-19-Pandemie aus Mitarbeitendensicht?“ Hierbei wird die Führungssituation anhand der aktuellen Veränderungstreiber und der COVID-19-Pandemie kontextualisiert. Daraufhin wird nach einem Aufriss der Historie verschiedener Führungstheorien, die agile Führung näher betrachtet. Im Rahmen dieser Aufarbeitung wird agiles Führungsverhalten definiert, welches für die fortführende quantitative Empirie von zentraler Bedeutung ist. Anschließend werden die erlangten Daten aus einer durchgeführten Onlinebefragung ausgewertet und analysiert. Als Gegenstand der Untersuchung werden verschiedene Hypothesen im Hinblick auf Wirkungszusammenhänge zwischen agilem Führungsverhalten und der Zufriedenheit der Mitarbeitenden aufgestellt.
Mit der VRV 2015 wurde die österreichische Voranschlags- und Rechnungsabschlussverordnung reformiert. Die vorangegangene VRV 1997 wurde dadurch großteils abgelöst. Grundstruktur bildet dabei der Drei-Komponenten-Haushalt bzw. das Drei-Komponenten-Rechnungssystem bestehend aus Vermögens-, Finanzierungs- und Ergebnishaushalt. In diesen Haushalten werden die Finanzdaten der einzelnen österreichischen Gemeinden gesammelt.
Ziel der vorliegenden Arbeit ist es, unter Verwendung dieser Finanzdaten relevante Finanzkennzahlen zu identifizieren, welche Rückschlüsse auf die Finanzlage einer Gemeinde ermöglichen. Somit wurden die öffentlich auf der Onlineplattform www.offenerhaushalt.at zur Verfügung stehenden Daten von 1.327 der insgesamt 2.095 österreichischen Gemeinden verwendet. Da der Fokus in dieser Arbeit ausschließlich auf Gemeinden liegt, wurden nur Marktgemeinden und Gemeinden ohne Status berücksichtigt, um die Forschungsfrage beantworten zu können. Dafür wurden in einem ersten Schritt sorgfältig ausgewählte Kennzahlen berechnet und für jede Kennzahl wurde ein Bewertungsschema erstellt. Anschließend wurden die Gemeinden in verschiedene Gruppen eingeteilt und mittels verschiedener Methoden der deskriptiven und multivariaten Statistik analysiert. Die Gemeinden wurden anhand ihrer Einwohnerzahl, ihrer Kennzahlbewertung und ihrer Ähnlichkeit in jeweils drei Gruppen eingeteilt. Die Analysen anhand dieser Einteilungen führten zum Ergebnis, dass vor allem größere Gemeinden eine bessere Finanzlage aufweisen als kleine und mittelgroße Gemeinden. Zudem konnten einzelne Kennzahlen (Eigenertragsquote, Quote freie Finanzspitze und Nettovermögensquote) als relevante Einflussfaktoren für die Beschreibung der Finanzlage einer Gemeinde identifiziert werden. Ein Zusammenhang zwischen Bundesland und Finanzlage konnte nicht hergestellt werden. Zusammenfassend lässt sich sagen, dass die VRV 2015 die Transparenz und Vergleichbarkeit der Finanzdaten der Gemeinden erhöht. Auch die Berechnung aussagekräftiger Kennzahlen bietet zusätzliche Möglichkeiten die Gemeinden zu vergleichen. Auch wenn der zur Verfügung stehende Datensatz (noch) nicht vollständig ist, birgt die VRV 2015 und die damit verbundene verbesserte Übersicht großes Potenzial zur Vereinfachung der Bewertung und Vergleichbarkeit von Gemeinden.
Mit dem Namen Coachly wird eine elektronische Lernplattform bezeichnet, welche im Rahmen eines neuen Lernkonzeptes die Wissensaneignung bzw. Wissensvermittlung für Lernende und Lehrende im schulischen Unterricht erleichtern und effizienter gestalten soll. Dies wird vor allem durch fest integrierte individuelle Coaching-Einheiten und ein konstantes Monitoring des Lernprozesses gewährleistet. Die vorliegende Arbeit beschäftigt sich in ihrer theoretischen Auseinandersetzung mit den Themenbereichen „Lernen“ und „Unterricht“. Während bei Ersterem unter anderem Lernziele und verschiedene Lerntheorien behandelt werden, widmet sich das Kapitel „Unterricht“ den Unterrichtsarten „Klassischer Unterricht“, „E-Learning“ und „Blended Learning“. Auch Unterrichtsmethoden und innovative Ansätze der Wissensaneignung werden hier abgehandelt. Darüber hinaus dokumentiert die Arbeit die verwendete Forschungsmethode und deren Ergebnisse sowie die Konzeption und Umsetzung des entstandenen Lernkonzeptes und der integrierten Lernplattform. Ausgangspunkt der Forschungsarbeit war dabei die Frage, wie eine Lernumgebung geschaffen werden kann, die die Lernenden bei der Wissensaneignung und Lehrende bei der Wissensvermittlung unterstützt.
Die Psychologie beschreibt Lernen als dauerhafte Veränderung des individuellen Wesens oder Verhaltens, basierend auf Erfahrungen. Multimediale Lernmethoden ermöglichen hierbei, den Prozess in der betrieblichen Weiterbildung zu unterstützen und zu optimieren, um den steigenden Anforderungen, gerade im Bereich der Fachkräfteentwicklung, standhalten zu können. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen der Personalentwicklung, mit Fokus auf der betrieblichen Weiterbildung, sowie des Lernens umfassend erläutert. Im zweiten Teil werden die Ergebnisse einer qualitativen Forschung anhand drei verschiedener Perspektiven über die Lernmethoden E-Learning, Präsenztraining und Blended Learning in fünf Vorarlberger Industrieunternehmen präsentiert. Eine Schlussbetrachtung mit dem Ergebnis der Forschungsfrage sowie einem Ausblick für mögliche weiterführende Forschungsansätze runden die Arbeit ab. Ziel dieser Masterarbeit ist die praxisorientierte Anwendbarkeit der Erkenntnisse für Vorarlberger Industriebetriebe in Bezug auf die interne Weiterbildung, insbesondere bei der Entwicklung von Fachkräften.
In Anbetracht einer immer größer werdenden Diskussion über den Klimaschutz und einer anvisierten Energiewende finden umweltschonende Energietechniken immer mehr an Aufmerksamkeit in der Gesellschaft. Die Kombination von Stromerzeugung und gleichzeitiger Wärmeproduktion macht die Biomassevergasung zu einem interessanten Untersuchungsobjekt. Die anfallenden Biokohlestäube versprechen in Zukunft von großem Nutzen zu sein, um zum Beispiel Kohlenstoff in der Erde abzuspeichern. Die sogenannten ”Terra Preta“ Böden steigerten merklich das Interesse am Einsatz von Kohle in der Landwirtschaft, um in Böden verbessernde Eigenschaften zu erzielen. In dieser Masterarbeit wird die Auswirkung der Biokohle einer Schwebefestbettvergaseranlage auf das Pflanzenwachstum, die verfügbaren Nährstoffe und auf die Anzahl der Mikroorganismen untersucht. Hierfür wurden zwei verschiedene Versuchspflanzen herangezogen. Es wurde auf Hafer und Rübse zurückgegriffen. Der Versuch fand unter Laborbedingungen in einem Wachstumsschrank statt. Es wurden Böden mit unterschiedlichen Kohlegehalten hergestellt (0 %, 2,5 % 5 %, 12,5 %). Des Weiteren wurde auf zwei verschiedene Arten eine oberflächenaktivierte Kohle hergestellt. Einmal erfolgte dies durch Ko-Kompostierung der Biokohle in Grünschnitt und das zweite Mal durch die Beladungmit künstlichem Dünger. Die chemische Aktivierung erfolgte über einen Rührversuch. Dabei wurde die Kohle über einen längeren Zeitraum mit dem künstlichen Dünger in einem Gefäß gerührt.
Die Versuchsdauer erstreckte sich jeweils über einen Zeitraum von ca. 3 Wochen. Am Ende der Versuche wurden die Pflanzen geerntet. Anschließend wurde ihre Wuchshöhe und deren Durchmesser erfasst und statistisch ausgewertet. Die Nährstoffe im Boden wurden mittels Macherey Nagel Schnelltest ermittelt. Hierfür wurden Proben sowohl am Anfang als auch am Ende des Experiments genommen und anschließend aufbereitet und ebenfalls statistisch ausgewertet. Es konnte durch den Zusatz von Kohle einen signifikant höherer Mittelwert des Pflanzenwachstums erzielt werden. Und auch bei den Nährstoffen konnten Unterschiede zum Referenzboden nachgewiesen werden. Im Gegensatz dazu konnte bei den Mikroorganismen statistisch kein Unterschied festgestellt werden. Leider traten während des Versuches vermehrt Probleme auf, die aber entsprechend in der Arbeit adressiert und dokumentiert werden. Aus diesem Grund muss darauf verwiesen werden, dass einige Ergebnisse nicht verwertbar waren.
The number of electric vehicles will increase rapidly in the coming years. Studies suggest that most owners prefer to charge their electric vehicle at home, which will fuel the need for charging stations in residential complexes where vehicles can be charged overnight. Currently, there already are over 100 such residential complexes, with another 70 added every year in Vorarlberg alone. In most existing residential complexes, however, the grid connections are not sufficient to charge all vehicles at the same time with maximum power. In addition, it is also desirable for grid operators and electricity producers that the power demand be as smooth and predictable as possible. To achieve this, ways to manage flexible loads need to be found, which can operate within the technical constraints. Therefore, the most common scenarios how the load can be made grid-friendly with the help of optional battery storage and/or photovoltaics using optimization methods of linear and stochastic programming were examined. At the same time, the needs of the vehicle owners for charging comfort - namely to find their vehicles reliably charged at the time of their respective departure - were addressed by combining both objectives using suitable weights. The algorithms determined were verified in practice on an existing Vlotte prototype installation. For this purpose, the necessary programs were implemented in Python, so that the data obtained during the test operation, which lasted one month, could be subjected to a well-founded analysis. In addition, simulation studies helped to further reveal the influence of PV and BESS sizing on the achievable optimums and confirm that advanced optimization algorithms such as the ones discussed are a vital contribution in reducing the charging stations’ peak load while at the same time maintaining high satisfaction levels.
Der Fachkräftemangel stellt ein weit verbreitetes und zunehmendes Problem dar, das alle Wirtschaftsbereiche betrifft. Besonders in technischen Berufen gestaltet sich die Rekrutierung qualifizierter Mitarbeitenden als äußerst herausfordernd. Es wird immer deutlicher, dass es nicht ausreicht, lediglich Mitarbeiter:innen anzuwerben; vielmehr ist es von entscheidender Bedeutung, sie gezielt zu Fachkräften auszubilden. Trainee-Programme bieten eine Möglichkeit, diese Entwicklung zu fördern. Die vorliegende Masterarbeit widmet sich den Gestaltungselementen von Trainee- Programmen und bietet einen umfassenden Überblick über Definitionen, Methoden und Ausbildungselemente innerhalb dieser Programme. Diese Arbeit konzentriert sich auf die Identifikation kritischer Erfolgsfaktoren technischer Trainee-Programme, indem sowohl in der qualitativen Forschung untersucht wird, inwiefern Vorarlberger Industrieunternehmen diese Gestaltungselemente in ihren bereits implementierten technischen Trainee-Programmen berücksichtigen und welche Erfahrungswerte bisher gesammelt wurden, als auch in der quantitativen Forschung speziell technische Hochschülerinnen und -studenten als Zielgruppe herangezogen werden. Die Ergebnisse dieser Forschungsarbeit liefern wertvolle Erkenntnisse und praxisorientierte Handlungsempfehlungen für Unternehmen bei der Gestaltung ihrer Trainee-Programme. Besonders betont wird die Bedeutung der individuellen Anpassung an die Bedürfnisse und Interessen der potenziellen Trainees, einschließlich ihrer fachlichen Schwerpunkte, Karriereziele und Lernpräferenzen. Mentoring, Networking und interne Zusammenarbeit werden als wichtige Elemente für eine umfassende Entwicklung der Trainees innerhalb des Programms hervorgehoben. Darüber hinaus wird empfohlen, ein flexibles Framework einzusetzen, das Standards und Richtlinien für die Trainee-Programme festlegt, aber gleichzeitig Raum für Anpassungen und individuelle Entwicklungsmöglichkeiten bietet. Diese Masterarbeit trägt dazu bei, das Verständnis für die Gestaltungselemente von Trainee- Programmen zu vertiefen und liefert wertvolle Erkenntnisse für Unternehmen in Vorarlberg und darüber hinaus. Durch die Ergänzung des Phasenmodells der Trainee-Programme mit den Ergebnissen der qualitativen und quantitativen Forschung werden praxisnah e Empfehlungen abgeleitet, um Trainee-Programme attraktiver zu gestalten. Dadurch wird eine gezielte Entwicklung von Fachkräften im Unternehmen ermöglicht und eine langfristige Bindung an das Unternehmen gefördert.
Auswirkungen der DSGVO auf das Vertriebscontrolling eines Software-as-a-Service Geschäftsmodells
(2020)
Diese Arbeit untersucht die Auswirkungen eines SaaS Geschäftsmodells auf das Vertriebscontrolling. Dazu werden mittels Literatur die Kennzahlen und Instrumente des klassischen Vertriebscontrollings besprochen. Ein SaaS Geschäftsmodell hat spezifische Charakteristika, Herausforderungen und Erfolgsfaktoren, welche im Anschluss eingeführt werden. Diese beeinflussen das Vertriebscontrolling eines SaaS Geschäftsmodells. Die DSGVO schränkt das Vertriebscontrolling dabei, in der Nutzung von personenbezogenen Daten, ein. Diese Arbeit zeigt, dass die Grundelemente des Vertriebscontrollings bestehen bleiben, jedoch andere Kennzahlen verwendet werden müssen. Zusätzlich kommen neue Aufgaben auf das Vertriebscontrolling zu. Abschließend werden Handlungsempfehlungen für das Vertriebscontrolling eines SaaS Geschäftsmodells entwickelt. Mittels einer systematischen Literaturrecherche werden diese Handlungsempfehlungen bestätigt.
Immersive educational spaces
(2023)
"If only we had had such opportunities to grasp history like this when I was young" – words by an almost 80-year-old woman holding an iPad on which both, the buildings in the background and a tower in the form of a virtual 3D object, appear within reach. To "grasp" history - what an apt use of this action-oriented word for an augmented reality application built on considerations of thinking and acting in history. This telling image emerged during the first test run of the app i.appear which will be the focus of this article's considerations on the use of immersive learning environments. The application i.appear has been used in the city of Dornbirn (Austria) for a year now to teach historical content through location-based augmented reality and other interactive and multimedia technologies. After a brief description of the potential of such applications, the epistemological structure of the hosting app i.appear and its functionality will be outlined. This article will focus on the “Baroque Master Builders” tour of the hosting app that was created and tested as part of the current research.
Ritualgestaltung
(2021)
Bei dem Begriff ‚Ritualgestaltung‘ handelt es sich um eine vergleichsweise junge Wortkombination, die einerseits in einem wissenschaftlichen Rahmen diskutiert wird und andererseits in der gegenwärtigen Praxis der Ritualgestaltung aufzufinden ist. Die vorliegende Arbeit thematisiert das Ritualverständnis und verschafft einen Überblick über die verschiedenen Aspekte der Ritualgestaltung. Hierbei steht die praktische Arbeit am Beispiel eines Übergangsrituals für Jugendliche zum Erwachsenwerden im Fokus. Die Diskussion der Ritualgestaltung umfasst einen wissenschaftlichen Diskurs sowie die Darstellung der gegenwärtigen Praxis der Ritualgestaltung. Dabei wird Ritualgestaltung aus der Perspektive des Fachbereichs Design analysiert. Mit der Betrachtung aus der Designperspektive soll zum einen die Theorie über die gegenwärtige Ritualgestaltung erweitert und zum anderen eine Grundlage für eine Praxisanwendung der Ritualgestaltung gegeben werden. Ziel der vorliegenden Arbeit ist es, einen Beitrag zur Verortung von Ritualgestaltung zu leisten. Für die Theorieerweiterung wird das Feld Ritualgestaltung mithilfe der Bildung von Kategorien und Tätigkeiten aus dem Fachbereich Design wie beispielsweise Re-Design, Adaption und Formatierung interpretiert. Diese Interpretation findet anhand von vier Modalitäten der Ritualgestaltung statt, welche auf Grundlagen von Theorie und mithilfe von Beispielen kritisch diskutiert werden. Die Praxisanwendung der Ritualgestaltung erfolgt am Beispiel eines Übergangsrituals für Jugendliche zum Erwachsenwerden. Es wird ein Überblick über bestehende Übergangsrituale gegeben sowie die Relevanz für ein solches Übergangsritual dargelegt. Anhand eines klassischen Entwurfsprozesses wird ein fiktives Ritual gestaltet, diskutiert und evaluiert.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
During two studies the influence of technologies on sleep were analyzed. The first one is about the effect of light on the circadian rhythm and as a consequence on sleep quality of persons in a vegetative state. The second one, which is still running, surveys the influence of several technologies on the sleep of elderly people living in a nursing home.
Um die Nachhaltigkeitsziele der Vereinten Nationen in Österreich zu erreichen, wird ab Juli 2022 die CO2-Steuer erhoben. In diesem Kontext fehlen für den Standort Vorarlberg jedoch Aussagen über das Nachhaltigkeitscontrolling im Allgemeinen und die Auswirkungen der CO2-Steuer im Speziellen.
Zur Beantwortung der Forschungsfragen wurde eine Online-Umfrage konzipiert, durchgeführt und statistisch quantitativ ausgewertet. Das entwickelte Nachhaltigkeits-Scoring-System soll klären, inwieweit die teilnehmenden Unternehmen, ein Nachhaltigkeitscontrolling implementiert haben. Zudem wurde geprüft, ob die CO2-Steuer einen Zusammenhang mit dem ermittelten Nachhaltigkeitsscore hat.
Der Mittelwert des Nachhaltigkeitsscore betrug 56,23 %, wobei die Ergebnisse eine hohe Variabilität (10 % bis 100 %) aufwiesen. In einigen Unternehmen wird nur ein rudimentäres Nachhaltigkeitscontrolling durchgeführt, während andere bereits sehr aktiv sind. Die Wirkung der CO2-Steuer ist sehr unterschiedlich. Der Korrelationskoeffizient nach Pearson ergibt zwar 0,053 und ist damit positiv (r > 0), dieser ist aber sehr schwach. Die Signifikanz (1-seitig) liegt bei p = 0,352. Somit wurde nachgewiesen, dass kein eindeutiger Zusammenhang zwischen der CO2-Bepreisung und dem Nachhaltigkeitsscore in Vorarlberg besteht.
Die vorliegende Arbeit befasst sich mit der Untersuchung von dezentralen Warmwasserbereitungssystemen, wobei der Fokus auf Energieeffizienz liegt. Als Vergleichs- und Referenzobjekt wird das Wohngebäude „KliNaWo“ mit 19 Wohneinheiten am Standort Feldkirch herangezogen, in welchem eine zentrale Warmwasserbereitung realisiert wurde. Als ersten Schritt werden die theoretischen Grundlagen hinsichtlich der zentralen und dezentralen Warmwasserbereitungs-systeme sowie der unterschiedlichen Wärmeerzeuger, Speichertechnologien und Verteilsysteme erarbeitet. Anschließend erfolgt eine Erläuterung der aktuellen Normensituation und den wichtigsten Fakten bezüglich Trinkwasserhygiene.
Des Weiteren wird das Referenzobjekt „KliNaWo“ sowie die verwendeten Messdaten zur Kalibrierung der Simulationsmodelle beschrieben. Im nachfolgenden Kapitel erfolgt eine detaillierte Darstellung der zu untersuchenden Systeme, wobei es sich um das Wohnungssatellitensystem sowohl mit kontinuierlicher Beladung als auch im Ladefensterbetrieb sowie um dezentrale Boiler-Wärmepumpen handelt. Anschließend wird die verwendete Simulationssoftware Polysun erläutert und erklärt wie die Systeme in der Software abgebildet und welche Ersatzmodelle angewendet werden.
Die Nutzenergie in Bezug auf das Warmwasser beträgt bei der zentralen Variante 20.584 kWh und ist bei allen dezentralen Systemen mit 20.142 kWh etwas geringer, da die Verteilverluste der Warmwasser-Einzelleitungen aufgrund des niedrigeren Temperaturniveaus geringer ausfallen. Da die rückgewinnbaren Wärmeverluste berücksichtigt werden, ergeben sich auch für den Heizwärmebedarf in Abhängigkeit der Variante unterschiedliche Werte im Bereich von 54.322 kWh bis 58.104 kWh. Als Vergleichsgröße wird der gesamte Stromverbrauch der Wärmepumpen inklusive der Förderpumpen herangezogen, welcher für die Deckung des Heizwärmebedarfs, der Verluste sowie des Energiebedarfs bezüglich Warmwasser notwendig ist.
Aus dem Vergleich der Varianten ergibt sich, dass der Stromverbrauch des zentralen Systems mit 14.109 kWh am geringsten ausfällt und das Wohnungssatellitensystem im Ladefensterbetrieb mit einem Strombedarf von 14.441 kWh nur wenig darüber liegt. Beim Wohnungssatellitensystem mit kontinuierlicher Beladung und bei den Boiler-Wärmepumpen-Systemen liegen die Stromverbräuche deutlich höher. Anhand der Simulationsergebnisse kann festgestellt werden, dass die dezentralen Anlagenkonfigurationen unter Berücksichtigung der ÖNROM B 2531 nicht effizienter sind als das zentrale System, wobei das Wohnungssatellitensystem im Ladefensterbetrieb in derselben Größenordnung wie das zentrale System liegt. Allerdings sind beim Wohnungssatellitensystem höhere Investitionskosten gegenüber der zentralen Variante zu erwarten, wodurch das System wirtschaftlich schlechter abschneidet.
Projects, in which software products, services, systems and solutions are developed, all rely on the right requirements to be established. Software requirements are the expression of user wants or needs that have to be addressed, business objectives that have to be met, as well as capabilities and functionality that has to be developed. Meanwhile, practice shows that very often incorrect, unclear or incomplete requirements are established, which causes major problems for such projects. It could lead to budget overruns, missed deadlines and overall failure in worst-case scenarios.
The field of requirements engineering emerged as an answer to these shortcomings, aiming to systematize and streamline the process that
establishes requirements. Requirements elicitation is a key component of this process, and one of its starting points. The current thesis attempts to outline best practices in requirements elicitation, as well as what issues, obstacles and challenges are currently faced, and then present this through the lens of national culture. In this way its effects on the practice, if any, could be highlighted and studied further. The way this was achieved was by interviewing practitioners from two nations, which are shown to be
culturally different, and then comparing and contrasting the findings.
Meanwhile, the validity of those findings was enhanced by comparisons with existing literature.
Even though the findings were not compelling enough to form generalizations or concrete conclusions about the effects of national culture on requirements elicitation, these findings revealed patterns that could be worth exploring further. When it comes to requirements elicitation itself, it was observed to benefit from a structured and systematic approach, and be
most effective with one-on-one, instead of group interactions. The main pain points of the process stem from the complexity of communication, but are not always obvious. Practitioners are also advised to carefully plan the gathering of requirements, as the source may not have them readily available, and could even be unclear about what exactly is needed. Overall, this thesis research could be considered successful in its goal to shed a modicum of light on the issue at hand from a different, underexplored angle. By following a systematic and methodical approach, this research has also been made easier to expand or replicate.
Die Anforderungen an gute Prognosen im Energiehandel der illwerke vkw AG steigen kontinuierlich an, da diese dazu verwendet werden, die richtigen Energiemengen auf dem Day-Ahead-Markt zu kaufen oder zu verkaufen. Zusätzliche Herausforderungen wie Wettereinflüsse und der steigende Energiebedarf von E-Autos erschweren die Prognose. Darüber hinaus gestaltet es sich mit den herkömmlichen Prognosebewertungen schwierig, die Kostenaspekte angemessen abzubilden. Aus diesem Grund wird in dieser Masterarbeit eine neue Methode zur Bewertung der Prognosequalität implementiert und mit bewährten Kennzahlen wie R², MAE, MAPE und RMSE verglichen. Diese Methode nutzt einen Preisverlauf, der die durchschnittlichen Marktpreise der Ausgleichsenergiepreise als Bewertungsmaßstab widerspiegelt. Die neue Bewertungsmethode wird mit Algorithmen wie dem Artificial Neural Network von Tensorflow, dem Decision Tree Regressor, der Linearen Regression, dem Multi-Layer Perception und dem Random Forest Regressor von Scikit-Learn verglichen. Zudem wird ein eigens erstelltes Gurobi-Modell, welches die Ausgleichsenergiepreise für die Gewichtung der absoluten Prognosefehler heranzieht, als Lineare Regression implementiert. Die genannten Modelle werden mithilfe von Python implementiert. Es werden tägliche Vorhersagen basierend auf viertelstündlichen Daten für Zeiträume von bis zu einem Jahr unter Verwendung eines Sliding-Window-Verfahrens mit unterschiedlichen Trainingsdaten erstellt. Die neue Bewertungsmethode mit der Einbeziehung von Kostenfaktoren, konnte sich im Vergleich zu MAPE, MAE, RMSE und R² nicht deutlich von den anderen unterscheiden. Die besten Ergebnisse wurden mit der Linearen Regression von Scikit-Learn und dem Gurobi-Modell mit der preisgewichteten Minimierung erzielt. Dabei sind die anderen Algorithmen nicht weit von den Resultaten der LR und GP entfernt. Unter dem Aspekt, dass das eigene Modell die Kosten minimieren soll, konnte es aber nicht als die beste Methode bewertet werden. Deswegen müssen das Modell und die gewählten Ausgleichsenergiepreise optimiert werden. Hierzu erzielte unter den sieben verwendeten Methoden die Lineare Regression das beste Ergebnis.
Der Fachkräftemangel und eine immer älter werdende Gesellschaft stellen auch Vorarlberger Unternehmen vor eine große Herausforderung. Um dieser entgegenzuwirken, setzen Unternehmen auf die Lehrlingsausbildung im eigenen Betrieb. Unternehmen müssen sich daher mit der Frage auseinandersetzen, wie sie potenzielle Lehrlinge auf sich aufmerksam machen können. Dies ist Aufgabe des Lehrlingsmarketings, welches eine Subdisziplin des Personalmarketings und somit Teil des Employer Brandings eines Unternehmens ist. Im Rahmen des Lehrlingsmarketings können verschiedenste Methoden eingesetzt werden, um zukünftige Lehrlinge auf ein Unternehmen bzw. einen Lehrberuf aufmerksam zu machen. Welche Aspekte bei der Lehrstellensuche und bei der schlussendlichen Entscheidung für einen Lehrberuf bzw. -betrieb entscheidend sind, werden in dieser Arbeit thematisiert und mithilfe empirischer Forschung untersucht. Der Fokus der empirischen Untersuchung lag dabei auf analogen sowie digitalen Lehrlingsmarketingmethoden, aber auch auf bestimmten Personengruppen und deren Einfluss. Zu diesem Zweck wurde eine Online-Umfrage mit 117 Lehrlingen aus fünf Vorarlberg Industrieunternehmen durchgeführt. Auf Basis der Umfrageergebnisse wurden Vorschläge bzw. Handlungsempfehlungen für das zukünftige Lehrlingsmarketing erarbeitet.
The importance of Agent-Based Simulation (ABS) as scientific method to generate data for scientific models in general and for informed policy decisions in particular has been widely recognised. However, the important technique of code testing of implementations like unit testing has not generated much research interested so far. As a possible solution, in previous work we have explored the conceptual use of property-based testing. In this code testing method, model specifications and invariants are expressed directly in code and tested through automated and randomised test data generation. This paper expands on our previous work and explores how to use property-based testing on a technical level to encode and test specifications of ABS. As use case the simple agent-based SIR model is used, where it is shown how to test agent behaviour, transition probabilities and model invariants. The outcome are specifications expressed directly in code, which relate whole classes of random input to expected classes of output. During test execution, random test data is generated automatically, potentially covering the equivalent of thousands of unit tests, run within seconds on modern hardware. This makes property-based testing in the context of ABS strictly more powerful than unit testing, as it is a much more natural fit due to its stochastic nature.
Diese Forschungsarbeit analysiert die Konfliktfähigkeit der Generation Z im Rahmen des Projektma-nagements und strebt die Entwicklung individuelle Konfliktmanagementstrategien an, die den Bedürf-nissen und Präferenzen dieser Generation gerecht werden. Angesichts der sich ständig wandelnden Arbeitswelt, stellt die effektive Bewältigung von Konflikten eine zentrale Herausforderung für Unter-nehmen dar. Die zentrale Frage lautet: „Wie können Unternehmen wirkungsvolle Strategien für das Konfliktma-nagement entwickeln, um im Rahmen des Projektmanagements die Konfliktfähigkeit der Generation Z angemessen zu berücksichtigen?“ Die Beantwortung erfolgt durch die Anwendung qualitativer For-schungsmethoden, inklusive Experteninterviews von Führungskräften und Projektleiter:innen, die be-reits mit dieser Altersgruppe, in Bezug auf das Projektmanagement zusammengearbeitet oder im Team angeleitet haben. Die Ergebnisse verdeutlichen spezifische Konfliktmuster und Präferenzen innerhalb der Generation Z, die sich klar von den Generationen zuvor unterscheiden. Massgeschneiderte Konfliktmanagement-strategien tragen dazu bei, Konflikte effizienter zu bewältigen und ein harmonisches Arbeitsumfeld zu schaffen. Die Strategien umfassen Insbesondere eine stärkere Einbindung von digitalen Kommunika-tionsmöglichkeiten, flexiblere Arbeitsstrukturen und gezielte Schulungen zur Konfliktlösung. Demzufolge wird offensichtlich, dass die Integration dieser Strategien essenziell ist, um die Konflikt-bewältigung und die Arbeitsatmosphäre zu optimieren. Daher richtet sich diese Arbeit besonders an Interessierte, die tiefere Einsichten in die Gestaltung von Konfliktbewältigung und das Potenzial dieser Altersgruppe suchen. Die Masterarbeit stützt sich auf eine umfassende Recherche, die auf einer sorgfältigen Analyse von Büchern, Fachzeitschriften, Forschungsarbeiten und Onlinequellen basiert. Unabhängig von meiner eigenen individuellen Perspektive und den Erfahrungen, die ich in Projekten mit der Generation Z gesammelt habe, verfolgt diese Arbeit das Ziel, einen eingehenden Einblick in den Umgang mit Kon-flikten sowie das Potential dieser spezifischen Altersgruppe zu vermitteln. Dieser Forschungsansatz trägt dazu bei, die Erkenntnisse dieser Masterarbeit in einen umfassenden Kontext zu setzen und ihre Relevanz für die praxisorientierte Gestaltung von Konfliktmanagement zu unterstreichen
Diese Arbeit beschäftigt sich mit der Analyse von Blasenindikatoren speziell des Immobilienbereichs, aber auch von Aktienmärkten. Im ersten Teil der Arbeit wird versucht, vergangene Blasenbildungen aufzuzeigen und zu erläutern, weshalb sich diese bilden konnten und schlussendlich geplatzt sind. Dies soll einem besseren Verständnis der restlichen Arbeit dienen. Weiters werden Indikatoren, die üblicherweise genutzt werden, um einen Markt einzuschätzen aufgezeigt und erläutert. Ebenfalls werden diese teilweise zueinander in Relation gestellt, um Zusammenhänge der einzelnen Indikatoren zu erkennen. Im Anschluss dieser Aufstellung werden bekannte, vom internationalen Markt anerkannte, Indikatoren aufgezeigt und erläutert und mit Beispielen unterlegt. Den Abschluss der Arbeit bildet das Einsetzen von ausgewählten Indikatoren für die Märkte Schweiz und Österreich und ein daraus abgeleitetes Fazit, ob eine Blase in diesen Ländern als Wahrscheinlich gilt oder nicht. Auch wird erläutert, dass ein einzelner Indikator wenig bis keine Aussagekraft zur Einschätzung einer Blasensituation hat, sondern Indikatorensets dazu benötigt werden.
Investigation of non-uniformly emitting optical fiber diffusers on the light distribution in tissue
(2020)
Kultur und Werte sind allgegenwärtig in unseren Leben. Sie prägen uns Menschen nicht nur im persönlichen und privaten Umfeld, sondern sind auch Teil von Gesellschaftsstrukturen und Unternehmen. Das Ziel dieser Masterthesis ist es deshalb, herauszufinden, welchen Zusammenhang es zwischen den Themen Unternehmenskultur und Mitarbeiterbindung gibt und ob die Unternehmenskultur in Familienunternehmen dazu beitragen kann eine höhere Mitarbeiterbindung zu schaffen. Dabei werden eine Vielzahl an Motivationsfaktoren, sowie Werten berücksichtigt, welche in einer quantitativen Forschung Aufschluss darüber geben sollen, was den Mitarbeitenden in Vorarlberger Unternehmen wichtig ist und wie diese die Unternehmenskultur in ihren Betrieben wahrnehmen. Mit Hilfe eines standardisierten Fragebogens konnten 151 Personen mit einem Durchschnittsalter von 34,93 Jahren erreicht werden. Dabei wurde ersichtlich, dass die Faktoren angenehme Arbeitsatmosphäre, Jobsicherheit, Weiterbildung/Entwicklung, Führung und Work-Life-Balance die wichtigsten Motivationsfaktoren darstellen. Im Bereich Werte sind Verlässlichkeit, Ehrlichkeit, Verantwortungsbewusstsein, Respekt und Fairness am wichtigsten. Diese Erkenntnisse konnten unabhängig von der Unternehmensform erlangt werden.
In recent years, ultrashort pulsed lasers have increased their applicability for industrial requirements, as reliable femtosecond and picosecond laser sources with high output power are available on the market. Compared to conventional laser sources, high quality processing of a large number of material classes with different mechanical and optical properties is possible. In the field of laser cutting, these properties enable the cutting of multilayer substrates with changing material properties. In this work, the femtosecond laser cutting of phosphor sheets is demonstrated. The substrate contains a 230 micrometer thick silicone layer filled with phosphor, which is embedded between two glass plates. Due to the softness and thermal sensitivity of the silicone layer in combination with the hard and brittle dielectric material, the separation of such a material combination is challenging for both mechanical separation processes and cutting with conventional laser sources. In our work, we show that the femtosecond laser is suitable to cut the substrate with a high cutting edge quality. In addition to the experimental results of the laser dicing process, we present a universal model that allows predicting the final cutting edge geometry of a multilayer substrate.
In dieser Arbeit werden die Emissionsvermeidungspotenziale verschiedener Maßnahmen für einen Milchviehbetrieb in Vorarlberg analysiert. Es werden verschiedene Möglichkeiten beleuchtet, wie diese Treibhausgaseinsparungen auf dem freiwilligen Emissionsmarkt handelbar gemacht und dadurch finanziert werden können. Hintergrund ist, dass der Milchviehbetrieb eine Biogasanlage besitzt, für welche die Förderperiode ausgelaufen ist. Da die Biogasanlage ohne geförderten Einspeisetarif nicht mehr wirtschaftlich ist, wurde, um den Einspeisetarif anzuheben, das Pilotprojekt einer Erneuerbare-Energie-Gemeinschaft gestartet. Aus diesem Grund wird auch die Möglichkeit der Integration des Treibhausgasemissionshandels in die Erneuerbare-Energie-Gemeinschaft geprüft. Dies soll in Form einer Umlegung der Mehrkosten für die Emissionsminderungsmaßnahmen auf den Strompreis innerhalb der Erneuerbare-Energie-Gemeinschaft geschehen. Ergebnis ist, dass die Höhe des Aufschlags stark vom Umsetzungserfolg (Menge der Emissionseinsparungen), den Umsetzungskosten (Gestehungskosten der Klimaschutzmaßnahmen) und von den Transaktionskosten (Verwaltung) abhängt. Der Aufschlag steht für eine Ökologisierung des erneuerbaren Stroms. In dieser Weise wird regional erzeugter erneuerbarer Strom zum lokal klimawirksamen „Ökostrom“. Die Erneuerbare-Energie-Gemeinschaft ist somit mehr als Stromhandel unter Nachbarn, nämlich eine Synergie zwischen Land- und Energiewirtschaft und steht für eine Sektorenkopplung auf dem Weg zur klimaneutralen Wirtschaft.
Mit Kunst und Kultur in Kontakt zu kommen, weckt idealerweise die Lust daran, mehr wissen zu wollen. Interesse an kulturell relevanten Themen hervorzurufen und Rezipient:innen anzuregen, sich mit gesellschaftlich dringlichen Fragestellungen auseinanderzusetzen, um auch an aktuellen Diskursen teilzuhaben, ist die Aufgabe der Kulturarbeiter:innen, Künstler:innen, Kurator:innen, Kunst- und Kulturvermittler:innen von heute. Die von ihnen entwickelten Konzepte und angebotenen Formate fungieren als Schnittstellen aller möglichen gesellschaftsrelevanten Themenbereiche, können Dialoge des Wissenstransfers eröffnen, und einem fruchtbaren interdisziplinären Austausch den Weg ebnen.
Die bislang entwickelten Vermittlungstools hatten nicht immer den gewünschten Erfolg. Der Grund liegt vermutlich auch zum Teil an zu vielen diskursiven und exklusiven Formaten, in denen u. a. zu viel Vorwissen vorausgesetzt wird. Sofern Rezipient:innen Interesse an zeitgenössischer Kunst verspüren, die Zeit und den Mut aufbringen, einem angebotenen Vermittlungsprogramm auch tatsächlich beizuwohnen, wird nicht selten jeglicher Wiederholungswunsch im Keim erstickt, wenn es den Veranstalter:innen nicht gelingt, mit ihren Inhalten direkte Bezüge zum Besucher bzw. zur Besucherin herzustellen. Um diese Menschen nicht „alleine zu lassen“ oder vor den Kopf zu stoßen, und ihnen kulturelle Teilhabe zu ermöglichen, braucht es dringend ein größeres Repertoire an qualitativ hochwertigen sowie niederschwelligen Vermittlungsangeboten.
In meinen Forschungsbemühungen widme ich mich daher der Suche nach neuen Wegen in der Vermittlungsarbeit für zeitgenössische bildende Kunst, mittels derer Kunstrezeption geübt werden kann, in der Annahme, dadurch könne im Laufe der Zeit eine bewusstere Wahrnehmung unserer bilderdominierten Welt entwickelt werden. Eine versierte Kunstrezeption kann – so meine Hypothese – maßgeblich zur visuellen Kompetenz (sowie zu einem unabhängigeren Denken) und folglich zu allgemein geringerer Manipulierbarkeit beitragen. Konkret gehe ich der Frage nach, ob visuelle Kompetenz durch eine achtsame Kunstrezeption unterstützt werden kann.
Insbesondere (Vermittlungs-)Projekte, die Kunst oder Kultur gleichermaßen emotional wie intellektuell erfahrbar machen, können bleibende Eindrücke entfalten. Der bewusste Einsatz nonverbaler Techniken in der (traditionellerweise) sprachlich verankerten Praxis der Kunstvermittlung ermöglicht den Rezipient:innen ein Erlebnis, das innere Zustände, Gefühle mit äußeren Eindrücken und einer umfassenden ästhetischen Erfahrung in Verbindung bringt. Erfahrungen solcher Vielfalt prägen sich bei Personen jeden Alters in einer Art und Weise im Netzwerk der Erinnerungen ein, wie es der Sprache allein nur in sehr seltenen Fällen zu gelingen vermag. In Hinblick auf den Bildungsauftrag kultureller Einrichtungen ermöglichen Vermittlungsprogramme mit Erfahrungs- und Erlebnischarakter demnach ein nachhaltiges Lernen sowie ein bleibendes Verständnis und regen darüber hinaus transformatorische Selbst-Bildungsprozesse an.
The purpose of an energy model is to predict the energy consumption of a real system and to use this information to address challenges such as rising energy costs, emission reduction or variable energy availability. Industrial robots account for an important share of electrical energy consumption in production, which makes the creating of energy models for industrial robots desirable. Currently, energy modeling methods for industrial robots are often based on physical modeling methods. However, due to the increased availability of data and improved computing capabilities, data-driven modeling methods are also increasingly used in areas such as modeling and system identification of dynamic systems. This work investigates the use of current data-driven modeling methods for the creation of energy models focusing on the energy consumption of industrial robots.
For this purpose, a robotic system is excited with various trajectories to obtain meaningful data about the system behavior. This data is used to train different artificial neural network (ANN) structures, where the structures used can be categorized into (i) Long Short Term Memory Neural Network (LSTM) with manual feature engineering, where meaningful features are extracted using deeper insights into the system under consideration, and (ii) LSTM with Convolutional layers for automatic feature extraction. The results show that models with automatic feature extraction are competitive with those using manually extracted features. In addition to the performance comparison, the learned filter kernels were further investigated, whereby similarities between the manually and automatically extracted features could be observed. Finally, to determine the usefulness of the derived models, the best-performing model was selected for demonstrating its performance on a real use case.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
This study deals with the energy situation in Ny-Ålesund, an Arctic research station on the archipelago Svalbard, and aims at analysing the technical feasability of a transition to renewable energies by taking into consideration both the environmental and climatic impediments.
The analysis is based on a 27 year long collection of authentic meteorological data with all its strong fluctuations, seasonal as well as yearly. Great emphasis was put on the discussion of tried-and-tested renewable technologies that were compared to a new wind-based energy device that has yet to be tested for its reliability in the harsh environment of notably the Arctic winter. Meticulous calculations lead to the result that bifacial solar modules are an efficient means even in months when the sun stands low and their combination with wind-based devices prove to generate a maximum output. Geothermal energy seems to be promising in the region, but could not be evaluated due to a crucial lack of relevant data.
The study comes to the conclusion that the research station of Ny-Ålesund could well rely on a combination of renewable energy devices to cover its energy load, but needs to keep a back-up system of diesel run generators to bridge short periods of possible dysfunctions or standstills due to meteorological circumstances. Battery storage could only contribute to solve the problem of an unfortunate interruption of the energy supply, but it cannot serve as the entire back-up system since, at present, the need would go beyond all possible dimensions.
Diese vorliegende Masterarbeit untersucht die Herausforderungen, vor denen kleine und mittlere Unternehmen (KMUs) stehen, um den künftigen ESG-Anforderungen (Umwelt, Soziales, Governance) von Banken bei der Kreditvergabe gerecht zu werden. Anhand einer umfassen-den Literaturanalyse sowie einer qualitativen Inhaltsanalyse mittels Experteninterviews werden verschiedene Aspekte beleuchtet, darunter bankenregulatorische Vorschriften, Auswirkungen der ESG-Implementierung auf Kreditkonditionen und Kreditwürdigkeit, Vorbereitungsstrategien für KMUs und abgeleitete Handlungsempfehlungen. Die Ergebnisse zeigen, dass eine Integration von ESG-Kriterien in den Kreditprüfungsprozess eine ganzheitlichere Bewertung der Rückzahlungsfähigkeit ermöglicht und positive Auswirkungen auf die Kreditwürdigkeit haben kann. Jedoch sind die praktischen Auswirkungen auf Kreditkonditionen und -entscheidungen noch begrenzt und erfordern weitere Untersuchungen. Die Arbeit verdeutlicht auch die Bedeutung von ESG-Kompetenzen, Datenmanagement und einer Anpassung der Geschäftsmodelle von KMUs, um den ESG-Anforderungen gerecht zu werden. Die Ergebnisse bieten wertvolle Erkenntnisse für KMUs, um proaktiv ESG-Aspekte zu berücksichtigen und zu managen.
Heutzutage gewinnen visuelle und akustische Eingabemethoden für die Interaktion mit Anwendungen oder Komponenten zunehmend an Bedeutung und sollen die klassische Maus oder Tastatur gegebenenfalls ersetzen. Abgesehen von der Sprachsteuerung benötigen jedoch auch die neuen Methoden für das Absetzen eines Befehls größtenteils die Hände. Es bleibt jedoch die Frage bestehen was passiert, wenn keine freie Hand zur Verfügung steht und ein Sprachbefehl aufgrund des Lärmpegels nicht erkannt wird. Diese Arbeit beschreibt das Konzept einer alternativen Anwendungssteuerung mit Fußgesten und verwendet dafür die Einlegesohlen ‚stapp one‘, die mit Druck- und Beschleunigungssensoren ausgestattet sind. Aufgrund der Durchführung einer Umfrage mit Mehrheitsvotum lassen sich verschiedene Fußgesten für entsprechende Aktionen der gesteuerten Komponenten definieren. Diese wirken auf die Anwender und Anwenderinnen intuitiv und weisen folglich eine hohe Akzeptanz bei der Benutzung auf. Mit einer Verbindungskombination aus Bluetooth und ‚User-Datagram-Protocol‘ (UDP) werden die Sensordaten von der Sohle, über ein Smartphone, zu einem Computer weitergeleitet, um eine Gestenerkennung mit Machine-Learning umzusetzen. Über ein Datenfluss-System werden die empfangenen Werte der Sensoren aufbereitet und eine Feature-Extraktion durchgeführt, sodass diese für eine Klassifizierung von Fußgesten dienen. Basierend auf ‚Deeplearning4j‘ wird ein Algorithmus mit ‚Long Short-Term Memory‘ implementiert und zusammen mit dem Datenfluss-System als ‚Java‘-Bibliothek zur Verfügung gestellt. Zusätzlich werden Datensätze von Fußgesten einer Person erstellt und zum Training sowie zur Evaluierung der Gestenerkennung verwendet. In einer letzten Umfrage wird die implementierte Bibliothek in zwei Applikationen integriert. Zudem wird die Funktion des definierten ‚Gesten-Aktionen-Mapping‘ in drei Anwendungsszenarien analysiert. Die Forschungsergebnisse zeigen eine zuverlässige Klassifizierung der Fußgesten mit einer Genauigkeit von 82 %, wobei unter realen Bedingungen auch Werte zwischen 85 % und 100 % erreicht werden.
Zeros can cause many issues in data analysis and dealing with them requires specialized procedures. We differentiate between rounded zeros, structural zeros and missing values. Rounded zeros occur when the true value of a variable is hidden because of a detection limit in whatever mechanism was used to acquire the data. Structural zeros are values which are truly zero, often coming about due to a hidden mechanism separate from the one which generates values greater than 0. Missing values are values that are completely missing for unknown or known reasons. This thesis outlines various methods for dealing with different kinds of zeros in different contexts. Many of these methods are very specific in their ideal usecase. They are separated based on which kind of zero they are intended for and if they are better suited for compositional or for standard data.
For rounded zeros we impute the zeros with an estimated value below the detection limit. The author describes multiplicative replacement, a simple procedure that imputes values at a fixed fraction of the detection limit. As a more advanced technique, the author describes Kaplan Meier smoothing spline replacement, which interpolates a spline on a Kaplan Meier curve and uses the spline below the detection limit to impute values in a more natural distribution. Rounded zeros cannot be imputed with the same techniques that would be used for regular missing values, since there is more information available on the true value of a rounded zero than there would be for a regular missing value.
Structural zeros cannot be imputed since they are a true zero. Imputing them would falsify their values and produce a value where there should be none. Because of this, we apply modelling techniques that can work around structural zeros and incorporate them. For standard data, the zero inflated Poisson model is presented. This model utilizes a mixture of a logistic and a Poisson distribution to accurately model data with a large amount of structural zeros. While the Poisson distribution is only applicable to count data, the zero inflation concept can be applied to different kinds of distributions. For compositional data, the zero adjusted Dirichlet model is introduced. This model mixes Dirichlet distributions for every pattern of zeros found within the data. Non-algorithmic techniques to reduce the amount of structural zeros present are also shown. These techniques being amalgamation, which combines columns with structural zeros into more broad descriptors and classification, which changes columns into categorical values based on a structural zero being present or not.
Missing values are values that are completely missing for various known or unknown reasons. Different imputation techniques are introduced. For standard data, MissForest imputation is introduced, which utilizes a RandomForest regression to impute mixed type missing values. Another imputation technique shown utilizes both a genetic algorithm and a neural network to impute values based on the genetic algorithm minimizing the error of an autoencoder neural network. In the case of compositional data, knn imputation is presented, which utilizes the knn concept also found in knn clustering to impute the values based on the closest samples with a value available.
All of these methods are explained and demonstrated to give readers a guide to finding the suitable methods to use in different scenarios.
The thesis also provides a general guide on dealing with zeros in data, with decision flowcharts and more detailed descriptions for both compositional and standard data being presented. General tips on getting better results when zeros are involved are also given and explained. This general guide was then applied to a dataset to show it in action.
Menschen in desorganisierten Wohnformen erleben, aufgrund der Normvorstellung von Ordnung, Abwertung und Unverständnis. Dabei entsteht eine desorganisierte Wohnung nicht allein durch Passivität, sondern zeigt sich als innerpsychischen Konflikt nach außen. Die Komplexität des desorganisierten Wohnens umfasst sowohl die Wohnform selbst wie auch die Ursachen und Auswirkungen.
Um bedürfnisgerecht handeln zu können, benötigt es seitens des professionellen Unterstützungssystems eine umfassende Kenntnis des Phänomens. Die Erforschung der Auswirkungen aus der Perspektive der betroffenen Menschen soll Aufschluss darüber geben, wie adäquat interveniert werden kann.
Anhand einer Einzelfallstudie sollen die Diversität und Komplexität dargestellt werden, woraus sich die Flexibilität professioneller Helfer*innen ableiten lässt. Die Grounded Theory und der damit verbundene zirkuläre Prozess ermöglichen es, trotz geringer Erforschung des Phänomens, die erhobenen Daten zu erfassen und zu kategorisieren.
Packaging has important functions, such as the marketing function or protecting the product from spoilage. However, the supply in the supermarket must be viewed critically, as the majority of packaging is designed for single use. The question of how producers and retailers can increase customer acceptance of sustainable packaging in supermarkets has particular relevance in terms of the environmental impact of packaging waste. Although more and more customers are interested in the topic of sustainability, a gap between their attitude and behavior is apparent. This is addressed in more detail on the basis of two product categories. Expert interviews with international producers and retailers as well as a consumer survey allow the views of these three decision-makers to be taken into account. At the end, concrete recommendations for action are presented. These show that, among other things, information and transparency are essential in order to be able to influence consumers' purchasing decisions. In addition, the responsibility of all decision-makers is seen as the key to success.
Although workplace climate has been already extensively studied, the research has not led to firm conclusions regarding leadership trainings referring to the awareness of psychological safety in a company and its influence on existing teams and the general work climate. The author used the already existing model of Carr, Schmidt, Ford, & DeShon (2003) and adjusted it with psychological safety as 4th climate item to develop hypothesen which can also be seen as a path analytic model. The model posied that climate affects individual level outcomes through its impact on cognitive and affective states. Therefore, the author wants to show the correlation between the 4 higher order facets of climate affect the individual levels of job performance, psychological well-being and withdrawal through their impact on orangizational commitment and job saitsfaction (Carr, Schmidt, Ford, & DeShon, 2003).
Die Finanz- und Wirtschaftskrise 2008/09 ist Anlass für die Hinterfragung bestehender Anreizsysteme. Die vorliegende Arbeit untersucht die Beteiligung des Controllings bei der Anreizgestaltung ab diesem Zeitpunkt. Die Methodik ist eine systematische Literaturrecherche und Experteninterviews, die entlang der Gestaltungselemente des Anreizsystems ausgewertet werden. Seit dem Betrachtungszeitraum sind wesentliche Entwicklungen festzustellen von Individual- zu Gruppen-Incentivierung, vom Einsatz monetärer Anreize zu gemischten Anreizen (monetär und immateriell). Letzteres spiegelt sich in den Bemessungsgrundlagen wider, welche finanzielle und nicht-finanzielle Kennzahlen nutzen. Zur Generierung einer nachhaltigen Unternehmensentwicklung werden Long-Term-Incentives forciert. Das Controlling ist bei der Anreizgestaltung, beim Definieren von ‚Bemessungsgrundlagen‘ und ‚Anreizfunktionen‘, stark eingebunden. Die Aufgabenfelder des Controllings sind weit-gefächert: Reporting, Übersetzung von Geschäftszielen in Bemessungsgrundlagen, Wissensvermittlung, der Harmonisierung von Zielen bis zur Steuerungsfunktion bei Entscheidungen. Aus dieser Perspektive betrachtet übernimmt das Controlling zusätzliche Verantwortung und unterstützt das Management bei der Anreizgestaltung, was den Schluss nahelegt, dass eine Rollentransformation des Controllers zum Business Partner stattfindet.
Die sichtbare Digitalisierung des Bankensektors beruht im Kern auf der Steigerung des Qualitätserlebnisses für Kund*innen. Als ein Symbol dessen hat sich das Videoidentifizierungsverfahren etabliert, durch welches ein digitales Onboarding von Neukund*innen in Banken möglich gemacht wird. Gefördert wird die Implementierung dieser Technologie am Markt im Wesentlichen durch den Entwicklungseinsatz von Direktbanken. Das Setup dieses Verfahrens steht im Kontrast zu den Kernelementen – Kundenberatung und physische Eröffnung – welche eng mit klassischen Banken verbunden wird. Digitalisierung hat sich zu einem Synonym von Fortschritt entwickelt, viele positive Aspekte, aber vor allem eine Effizienzsteigerung im Prozesse sind beobachtbar. Erfolge wie unter anderem die geografische Markterweiterung samt einem ertragssteigernden Marktsegment, verbesserte Kundenzufriedenheit und Prozessexzellenz, die den heutigen Anforderungen gerecht wird sind zu verzeichnen. Welche weiteren Chancen und Risiken zwei der bedeutendsten Finanzplätze in Europa – Liechtenstein und Deutschland – im Detail mit dieser Technologie verbinden, ist Ziel dieser Forschungsarbeit, an wessen Ende eine konkrete Handlungsempfehlung kommuniziert werden wird.
This thesis focuses on implementing and testing communication over a private 5G standalone network in an industrial environment, with a specific emphasis on communication between two articulated robots. The main objective is to examine machine-to-machine communication behavior in various test scenarios. Initially, the 5G core and radio access network components are described, along with their associated interfaces, to establish foundational knowledge. Subsequently, a use case involving two articulated robots is implemented, and essential metrics are defined for testing, including round-trip time, packet and inter-packet delay, and packet error rate. The tests investigate the impact of 5G quality of service, packet size, and transmission interval on communication between the robots, focusing on the effects of network traffic. The results highlight the significance of prioritizing network resources based on the assigned quality of service identifier (5QI), demonstrate the influence of packet sizes on communication performance, and underscore the importance of transmission intervals for automation purposes. Additionally, the study examines how network disturbances influence the movements of a robot controlled via 5G, establishing a direct relationship between network metrics and the resulting deviations in the robot’s trajectory. The work concludes that while machine-to-machine communication can be successfully implemented with 5G SA, tradeoffs must be carefully considered, especially concerning packet error rate, and emphasizes the importance of understanding the required resources before implementation to ensure feasibility. Future research directions include investigating network slicing, secure remote control of robots, and exploring the use of higher frequency bands. The study highlights the significance of aligning theoretical standards with practical implementation options in the evolving landscape of 5G Networks.
Der stationäre Handel ist von zunehmenden Unsicherheiten gekennzeichnet, wobei die wachsende Verlagerung des Einkaufs auf die digitalen Vertriebskanäle dabei eine zentrale Rolle spielt. Jenen Entwicklungen kann mitunter mit der Einführung eines Omnichannel-Geschäftsmodells entgegengewirkt werden, wodurch der Fortbestand der stationären Geschäfte unterstützt werden kann. Für die Omnichannel-Etablierung ist eine Umstrukturierung des Handels essenziell, vielfach hängt dies mit einer Neuausrichtung der Geschäftsarchitektur zusammen. In diesem Kontext werden die relevanten Geschäftsprozesse in Frage gestellt und gegebenenfalls neu definiert. Das Hauptziel dieser Arbeit war es daher, auf Basis einer theoretisch-konzeptionellen Methodik herauszufinden, wie der stationäre Handel durch die Ausrichtung der Geschäftsprozesse an einem Omnichannel-Geschäftsmodell langfristig und nachhaltig optimiert werden kann. Anhand der Ergebnisse konnte ein Leitfaden entwickelt werden, welcher sich an EinzelhändlerInnen richtet und bei der Omnichannel-Transformation Unterstützung gewährleisten soll. Aus den durchgeführten Analysen wurden schließlich dezidierte Fokuspunkte abgeleitet, denen in der Transformationsphase besondere Aufmerksamkeit zu schenken gilt. Hierzu zählt nicht nur die IT-Landschaft und die Datenanalytik, sondern auch die Organisation samt den involvierten Personen und den entsprechenden Kompetenzen. Die Berücksichtigung aller Aspekte kann die Chancen einer erfolgreichen Omnichannel-Integrierung erhöhen, aber aufgrund der Komplexität nicht garantieren.
In recent years, numerous studies around the world have examined the environmental potential of biochar to determine whether it can help address climate challenges. Several of these studies have used the Life Cycle Assessment (LCA) method to evaluate the environmental impacts of biochar systems. However, studies focus mainly on biochar obtained from pyrolysis, while the number of studies on biochar from gasification is small.
To contribute to the current state of LCA research on biochar from gasification, LCA was performed for biochar, electricity, and heat from a wood gasification plant in Vorarlberg, Austria. Woodchips from local woods are used as biomass feedstock to produce energy, i.e., electricity and heat. Thereby, biochar is obtained as a side product from gasification. The production of syngas and biochar takes place in a floating fixed-bed gasifier. Eventually, the syngas is converted to electricity in a gas engine and fed to the power grid. Throughout different stages within the gasification process, heat is obtained and fed into local heat grid to be delivered to customers. The biochar produced complies with the European Biochar Industry (EBI) guidelines and is used on a nearby farm for manure treatment and eventually for soil application. Thereby, the effect of biochar used for manure treatment is considered to reduce emissions occurring from manure, i.e., nitrogen monoxide (N2O). Further, the CO2 sequestration potential of biochar, i.e., removal of CO2 from the atmosphere and long-term storage, is considered. Several constructions, such as the construction of the gasification system and the heating grid, are included in the evaluation.
As input related reference flow, 1 kg of woodchips with water content of 40 % is used. Three functionals units are eventually obtained, i.e., 0.17 kg of biochar applied to soil, 4.47 MJ of heat and 2.82 MJ of electricity, each per reference flow. The results for Global Warming Potential (GWP) for biochar is – 274.7*10 - 3 kg CO2eq per functional unit, which corresponds to – 1.6 kg CO2eq per 1 kg biochar applied to soil. The GWP for heat results in 17.1*10 - 3 CO2eq per functional unit, which corresponds to 3.6*10 - 3 kg CO2eq per 1 MJ. For electricity, a GWP of 38.1*10 - 3 kg CO2eq per functional unit is obtained, which is equivalent to 13.5*10 - 3 kg CO2eq per 1 MJ.
The calculation was performed using SimaPro Version 9.1 and the ReCiPe method with hierarchist perspective.
In den letzten Jahrzehnten gewann Aluminium als vielseitig einsetzbarer Werkstoff immer mehr an Bedeutung. Das Vorarlberger Unternehmen Hydro Extrusion Nenzing ist Teil der Aluminiumverarbeitungsindustrie und stellt stranggepresste Aluminiumprofile her. Beim Strangpressen werden Aluminiumstangen in einem Durchlaufinduktionsofen auf bis zu 520 °C erhitzt und anschließend durch ein formgebendes Werkzeug gepresst. Nach dem induktivem Aufwärmen wird ein Teil der Stange aus dem Ofen gefahren und abgeschert. Die erzeugte Temperaturverteilung an diesem abgescherten Bolzen ist der sogenannte Taper. Das induktive Aufwärmen ist ein wichtiger Teil der Extrusion und steht im Fokus dieser Forschungsarbeit. Ziel dieser Arbeit ist es, den Aufwärmprozess der Aluminiumstangen, mithilfe einer Kombination aus explorativer Datenanalyse und Methoden des maschinellen Lernens, genauer zu verstehen und den resultierenden Taper vorherzusagen. Außerdem werden parallel die signifikanten Einflussparameter, ohne Berücksichtigung von Materialparametern, untersucht.
Nach der explorativen Datenanalyse wurden mithilfe eines k-means-Clusterverfahren zwei Klassifizierungsvarianten entwickelt. In der ersten Variante liegen die Taper nach ihrer Bolzenlänge und Form gegliedert vor. Es zeigte sich, dass die Taper der Bolzen mit ähnlicher Länge auch ähnliche Formen annehmen. Ein einfacher Entscheidungsbaum konnte die 13 Zielklassen zu etwa 85 % vorhersagen. Die Bolzenlänge spielt bei der Vorhersage eine wichtige Rolle. Die zweite Klassifizierungsvariante basiert hingegen ausschließlich auf der Taperform. Die angewendeten Modelle (k-Nearest-Neighbor, Decision Tree, Random Forest) waren jedoch kaum in der Lage, die 11 Klassen abzubilden. Grund für die unzureichende Vorhersageleistung können die vielen Unsicherheiten in der Datenstruktur sein. Die anschließende detaillierte, explorative Analyse der formabweichenden Taper deutet fehlende Merkmale im Datensatz an. Einige Bolzen setzen sich aus zwei Stangenenden zusammen. Diese geteilten Bolzen führen zu abweichenden Aufwärmverhalten, wodurch auffällige Taper entstehen. Die Information ob sich ein Bolzen aus zwei Stangen zusammensetzt fehlt jedoch im Datensatz. Der Aufwärmvorgang der Stangen wird demnach durch ein Wechselspiel der aktuellen Regelung und zwei maßgeblichen Faktoren beeinflusst: die Bolzenlänge und das Auftreten von geteilten Bolzen. Diese Faktoren bestimmen die Stangentemperatur im Ofen, den induzierten Strom und somit den resultierenden Taper. Aufgrund dieser Ergebnisse könnte die temperaturbasierte Regelung zukünftig durch eine Steuerung hinsichtlich des induzierten Stroms ersetzt, dadurch Energie eingespart und Schrott vermieden werden.
In den Justizanstalten Österreichs arbeiten Menschen unterschiedlicher Berufsgruppen zusammen. Sie haben jeweils eigene Ausbildungen durchlaufen und gehören unterschiedlichen Berufen und Professionen an. Ihre gemeinsame Aufgabe besteht in der Resozialisierung der InsassInnen. Aufgrund ihres unterschiedlichen professionellen Werdegangs bestehen unterschiedliche Zugänge zur Arbeit mit den InsassInnen. Deshalb ist es von Bedeutung, welche Einstellungen die Vollzugsbediensteten zum Sinn der staatlichen Strafe vorweisen und welchen Theorien darüber, weshalb Menschen straffällig werden, sie anhängen. Ein weiterer wichtiger Gesichtspunkt ist ihre Haltung gegenüber GewalttäterInnen inklusive der Sexualstraftäter, da diese Personen durch ihre Delikte andere Menschen in ihrer körperlichen Integrität verletzt haben und somit in besonders verletzender Weise zu Opfern gemacht haben.
Das Forschungsziel dieser Masterarbeit besteht in der Erfassung der Theorien und Einstellungen von Vollzugsbediensteten bezüglich der oben genannten Thematik. Dabei soll herausgestellt werden, welche Auswirkungen die Ergebnisse auf die Soziale Arbeit im Justizvollzug haben und welche Konsequenzen die Soziale Arbeit hieraus ziehen könnte. Außerdem sollen die Ansichten zur Qualität der berufsübergreifenden Zusammenarbeit erfragt werden.
Im Rahmen der Arbeit wurden insgesamt 16 leitfadengestützte Experteninterviews mit Vollzugsbediensteten aus den folgenden Berufsgruppen durchgeführt: Anstaltsleitung, Justizwache, Sozialer Dienst, Psychologischer Dienst und Psychiatrischer Dienst. Allen Berufsgruppen ist gemeinsam, dass der Kontakt zu den InsassInnen in der Tätigkeitsbeschreibung beinhaltet ist.
Die Ergebnisse der Befragungen zeigen, dass die Einstellungen der verschiedenen Vollzugsbediensteten in vielen Aspekten harmonieren, dass es aber auch relevante Unterschiede gibt. Inwieweit diese Unterschiede für die Soziale Arbeit relevant sind und welche Schlüsse bzw. Handlungsempfehlungen daraus abzuleiten sind, soll diese Arbeit zeigen.
Dass die Zusammenarbeit der Vollzugsbediensteten noch überwiegend als gut bzw. harmonisch empfunden wird, haben die Befragungen erwiesen. Außerdem soll diese Arbeit aufzeigen, welche Anregungen anderer Berufsgruppen die Soziale Arbeit aufnehmen kann, um den Strafvollzug auch aus der Perspektive dieser Berufsgruppen besser nachvollziehen zu können.
We present the technological verification of a size-optimized 160-channel, 50-GHz silicon nitride-based AWG-spectrometer. The spectrometer was designed for TM-polarized light with a central wavelength of 850 nm applying our proprietary “AWG-Parameters” tool. For the simulations of AWG layout, the WDM PHASAR photonics tool from Optiwave was used. The simulated results show satisfying optical properties of the designed AWG-spectrometer. However, the high-channel count causes a large AWG size with standard design approaches. To solve this problem we designed a special taper enabling the reduction of AWG structure by about 15% while keeping the same optical properties. The AWG design was fabricated and the measured spectra not only confirm the proposed size-reduction but also the improvement of optical properties of the size-optimized AWG.
Introducing 3D sub-micrometer technologies based on polymers opened new possibilities of design and fabrication of photonic devices and components in 3D arrangement. 3D laser lithography is direct writing process based on two photon polymerization exhibiting high accuracy and versatility, where numerous resists and even polymer ceramic mixtures can be used. We present design and simulation of polymer based photonic components with a focus on arrayed waveguide gratings (AWG) based on optical multiplexers/demultiplexers and optical splitters. All optical components were designed for 1550 nm operating wavelength, applying two commercial photonics tools. This study creates a basis for the design of optical components in 3D arrangement, which will be fabricated by 3D laser lithography.
Today, optics and photonics is widely regarded as one of the most important key technologies for this century. Many experts even anticipate that the 21st century will be century of photon much as the 20th century was the century of electron. Optics and photonics technologies affect almost all areas of our life and cover a wide range of applications in science and industry, e.g. in information and communication technology, in medicine, life science engineering as well as in energy and environmental technology. However even so attractive, the photonics is not well known by most people. To motivate especially young generation for optics and photonics we worked out a lecture related to the “light” for children aged eight to twelve years. We have prepared many experiments to explain the nature of light and its applications in our everyday life. Finally, we focused on the optical data transmission, i.e. how modern communication over optical networks works. To reach many children at home we recorded this lecture and offered it as a video online in the frame of children’s university at Vorarlberg University of Applied Sciences. By combining the hands-on teaching with having a fun while learning about the basic optics concepts we aroused interest of many children with a very positive feedback.
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
In this paper, low-loss Y-branch splitters up to 128 splitting ratio are designed, simulated, and optimized by using 2D beam propagation method in OptiBPM tool by Optiwave. For an optical waveguide, a silica-on-silicon material platform is used. The splitters were designed as a planar structure for a telecommunication operating wavelength of 1.55 m. According to the minimum insertion loss and minimum non-uniformity, the optimum length for each Y-branch is determined. The influence of the pre-defined S-Bend waveguide shapes (Arc, Cosine, Sine) and of the waveguide core size reduction on the splitter performance has been also studied. The obtained simulation results of all designed splitters with different S-Bend shape waveguides together with the different waveguide core sizes are discussed and compared with each other.
Design and optimization of 1x2N Y-branch optical splitters for telecommunication applications
(2020)
This paper presents the design and optimization of 1x2N Y-branch optical splitters for telecom applications. A waveguide channel profile, used in the splitter design, is based on a standard silica-on-silicon material platform. Except for the lengths of the used Y-branches, design parameters such as port pitch between the waveguides and simulation parameters for all splitters were considered fixed. For every Y-branch splitter, insertion loss, non-uniformity, and background crosstalk are calculated. According to the minimum insertion loss and minimum non-uniformity, the optimum length for each Y-branch is determined. Finally, the individual Y-branches are cascade joined to design various Y-branch optical splitters, from 1x2 to 1x64.
Erneuerbare Energiegemeinschaften (eEG) sind ein neues, innovatives und in der Entwicklung befindendes Thema bzw. Projekt. Entstanden ist es dadurch, dass Österreich die Vorschläge und neuen Gesetze aus dem Clean energy for all Europeans package mit der Verabschiedung des Erneuerbaren-Ausbau-Gesetz Ende 2021 in nationales Recht umgesetzt hat. In dem Leitfaden Energiegemeinschaften Ausschreibung 2021 ist in der Pionierphase und Integrationsphase klar vorgegeben, dass ein Monitoring über zwei Betriebsjahre zu betreiben ist. Das Monitoring von erneuerbaren Energiegemeinschaften wird in dieser Arbeit erstmalig behandelt. Es wurden Key Performance Indicators entwickelt, spezifiziert und erste Probeerhebungen durchgeführt. In dieser Arbeit wurde untersucht, welche Monitoring-Bereiche es geben könnte, mit welchem Erfolgsindikatoren-Set zum aktuellen Zeitpunkt ein sinnvolles Monitoring betrieben werden kann und welche Erfolgsindikatoren im Allgemeinen in Österreich erforderlich sind, um eine Aussage über den Erfolg von erneuerbaren Energiegemeinschaften treffen zu können. Hierfür wurde eine Grundlagenforschung im Bereich erneuerbare Energiegemeinschaften, ein normativer Vergleich zu ähnlichen Förderprogrammen und Experteninterviews durchgeführt. Anhand der daraus resultierenden Ergebnisse wurden finale KPIs spezifiziert. Mit diesen KPIs wurde in einem Monitoring-Tool ein Erfolgsindikatoren-Set angelegt und mit entsprechenden Zielwerten in Kontext gebracht. Zusätzlich wurden Daten von verschiedenen eEG angefragt und anhand dessen wurden in dem Tool erste Probeerhebungen durchgeführt, um die Machbarkeit zu untersuchen.
Grey Box models provide an important approach for control analysis in the Heating, Ventilation and Air Conditioning (HVAC) sector. Grey Box models consist of physical models where parameters are estimated from data. Due to the vast amount of component models that can be found in literature, the question arises, which component models perform best on a given system or dataset? This question is investigated systematically using a test case system with real operational data. The test case system consists of a HVAC system containing an energy recovery unit (ER), a heating coil (HC) and a cooling coil (CC). For each component, several suitable model variants from the literature are adapted appropriately and implemented. Four model variants are implemented for the ER and five model variants each for the HC and CC. Further, three global optimization algorithms and four local optimization algorithms to solve the nonlinear least squares system identification are implemented, leading to a total of 700 combinations. The comparison of all variants shows that the global optimization algorithms do not provide significantly better solutions. Their runtimes are significantly higher. Analysis of the models shows a dependency of the model accuracy on the number of total parameters.
Grey-Box-Modellierung einer Lüftungsanlage mit realen Betriebsdaten für die Optimierung des Reglers
(2022)
Oszillationen in Heizungs-, Lüftungs- und Klimaanlagen können die Lebensdauer
von Ventilen und Aktuatoren deutlich reduzieren und die Effizienz solcher
Anlagen negativ beeinflussen. Die hier betrachtete Lüftungsanlage eines Verkaufsraums zeigt deutlich schwingendes Verhalten, das höchst wahrscheinlich auf die Regelung zurückzuführen ist. Um dieses Verhalten zu untersuchen und ein
Testfeld für die Auslegung und Optimierung von alternativen Regelkonzepten
zu erstellen, wird ein Grey-Box-Modell der Anlage erstellt. Grey-Box-Modelle
sind physikalische Modelle, deren Parameter mit Messdaten identifiziert werden.
Die Ermittlung der Parameter (Systemidentifikation) des Grey-Box-Modells
wird hier mittels nichtlinearer Optimierung an dem realen Betriebsdatensatz
durchgeführt. Dieser Betriebsdatensatz hat im Vergleich zu anderen Arbeiten
aufgrund geringer Ausstattung der Anlage mit Sensorik und geringer Auflösung
der Messdaten eine niedrige Qualität. Aus diesem Grund können die einzelnen
Komponenten der Anlage (eine Wärmerückgewinnung, ein Heizregister und ein
Kühlregister) nicht separat identifiziert werden, sondern nur im Gesamtsystem.
Hieraus ergibt sich die Frage, welche physikalische Formulierung der Komponenten
der Anlage am besten geeignet ist. Konkret stellt sich die Frage, welche
Komplexität, welche Anzahl der zu identifizierenden Parameter und welche Annahmen, die für die Formulierung getroffen werden sinnvoll sind. Dazu werden
für die einzelnen Komponenten der Anlage jeweils verschiedene Modelle aus der
Literatur implementiert und verglichen. Untersucht wird, ob ein Zusammenhang
zwischen der Anzahl an Parametern, die sich durch eine bestimmte Formulierung
des Modells ergibt und der erreichten Güte des Modells zu beobachten ist.
Die Güte des Modells wir dabei mittels der Wurzel des mittleren quadratischen
Fehlers zwischen Modellausgang und Datensatz bewertet.
Die Ergebnisse dieser Fallstudie zeigen, dass ein möglicher Zusammenhang
zwischen der Anzahl an Parametern des Grey-Box-Modells und der Güte des
Modells besteht. Insbesondere zeigt sich mit diesem Datensatz ein deutlicher
Abfall der Modellgüte bei mehr als zehn Parametern. Es kann des Weiteren
bestätigt werden, dass bei der vorliegenden niedrigen Datenqualität die getroffenen
Annahmen für die Modellierung von erheblicher Bedeutung sind. Durch
bestimmte Formulierungen kann zwar die Güte des Modells erhöht werden, jedoch
wir dadurch die Generalisationsfähigkeit des Modells höchst wahrscheinlich
reduziert.
Der IAS 39 steht nach der Finanzkrise 2008 / 2009 in der Kritik: Wertberichtigungen seien „too little, and too late“ gebildet worden. Die Einführung des IFRS 9 soll die frühzeitige Bildung von Wertberichtigungen ermöglichen und Prozyklizität und Komplexität verringern. Die Bankenaufsicht begrüßt die Einführung des IFRS 9, ist sich aber einig mit der Wissenschaft: Die frühzeitige Erkennung von makroökonomischen Umschwüngen ist schwierig. Am Beginn der Covid-19 Pandemie fordern IASB und die Aufsichtsbehörden die Banken auf, Ermessensspielräume zu nützen, um übermäßige Prozyklizität zu vermeiden. Die Arbeit stellt zu Beginn den theoretischen Rahmen dar. Darauf aufbauend wird anhand von Abschlüssen von österreichischen Banken untersucht, ob die Erwartungen an den IFRS 9 in der Covid-19 Pandemie erfüllt worden sind. Eine wichtige Datenquelle ist das Transparency Exercise der EBA. Die Untersuchung lässt auf keine frühzeitige Erkennung der Krise schließen. Die überwiegend vergleichbaren Modelle und die Auswertung der Kennzahlen bestätigen die Gefahr von Prozyklizität. Die Offenlegungen sind in Teilen wenig transparent, außerdem schwankt ihre Qualität stark.
Effective lead management
(2023)
In the last few years the global interest on lead management has increased. This classic topic for marketing and sales departments is aimed at converting potential customers into sales. The following thesis identifies the challenges and solutions for marketing and sales departments in order to process effective lead management. Using data from a literature review and qualitative empirical research, conducted with representatives of marketing and sales departments, the results showed overall and task specific challenges and solutions. The research indicates that overall challenges and solutions regarding the gap between marketing and sales, new processes and data management including data quality, software and silos emerge. In addition task specific challenges and solutions concerning lead generation including purchased leads, lead qualification, lead nurturing and sales specific challenges and solutions conclusively the focus on existing customers, time famine and lead routing were identified. This thesis provides a framework for further studies regarding the challenges and solutions for marketing and sales departments processing lead management.