Refine
Year of publication
Document Type
- Master's Thesis (407)
- Article (11)
- Preprint (5)
- Other (2)
- Bachelor Thesis (1)
- Book (1)
- Conference Proceeding (1)
Institute
- Forschungszentrum Mikrotechnik (12)
- Soziales & Gesundheit (4)
- Forschungszentrum Energie (3)
- Wirtschaft (3)
- Forschungsgruppe Empirische Sozialwissenschaften (1)
- Forschungszentrum Digital Factory Vorarlberg (1)
- Forschungszentrum Human Centred Technologies (1)
- Geschäftsführung (1)
- Gestaltung (1)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (1)
Language
- German (299)
- English (128)
- Multiple languages (1)
Is part of the Bibliography
- no (428) (remove)
Keywords
- Digitalisierung (11)
- Controlling (6)
- Digitale Transformation (6)
- Machine learning (6)
- Industrie 4.0 (5)
- Demand Side Management (4)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Photovoltaik (4)
- leadership (4)
Modern portable electronic devices have seen component heat load increasing, while the space available for heat dissipation has decreased. This requires the thermal management system to be optimized to attain the high performance heat sink. Heat sinks plays a major role for dissipating heat in electronic devices. Phase change material (PCM) is used to enhance the heat dissipation in heat sink. This paper reports the results of an experimental investigation of the performance of Pin fin heat sinks filled with phase change materials for thermal management of electronic devices. The experimental set ups are prepared with the graphical programming language with Lab VIEW (Laboratory Virtual Instruments for Engineering Workbench. Three different types of Pin fin Heat sink with and without PCM are investigated based on different operational timings and the temperature is acquired with the help of Data Acquisition Card (DAQ). The results indicated that the inclusion of the PCM could stabilize the temperature for a longer period and reduce the heating rates and peak temperatures of heat sink with increasing the number of fins can enhance the thermal performance of electronic devices.
This paper presents a project developed at the K.S.Rangasamy College of Technology (Tamilnadu,India) aimed at designing, implementing, and testing an autonomous multipurpose vehicle with safe, efficient, and economic operation. This autonomous vehicle moves through the crop lines of a Agricultural land and performs tasks that are tedious and/or hazardous to the farmers. First, it has been equipped for spraying, but other configurations have also been designed, such as: a seeding ,plug platform to reach the top part of the plants to perform different tasks (pruning, harvesting, etc.), and a trailer to transport the fruits, plants, and crop waste.
Der Befeuchtungs-Entfeuchtungs-Prozess (HDH) wird zur Meerwasserentsalzung eingesetzt und bietet Vorteile wie die Nutzung von Wärme auf einem geringen Temperaturniveau sowie die Realisierbarkeit dezentraler Anlagen. Bei diesem Prozess wird Luft im Kontakt mit warmem Salzwasser im Optimalfall bis zur Sättigung befeuchtet. Die feuchte Luft wird anschließend abgekühlt, um das in ihr befindliche Wasser wieder zu kondensieren. Obwohl der HDH-Prozess bereits mehrfach Gegenstand der Forschung war, besitzt die Effizienz des Prozesses nach wie vor ein hohes Steigerungspotential. Das Ziel dieser Masterarbeit besteht in der Konzeption und der Realisierung eines Versuchsaufbaus zur Analyse der Befeuchtung von Luft in Wasser. Dabei soll der Untersuchungsgegenstand zukünftiger Versuche die Befeuchtereinheit sein, die ein hohes Potential hinsichtlich der Effizienzsteigerung von HDH-Systemen bietet. In neueren Publikationen wurden zum Einsatz in HDH-Systemen Blasensäulenbefeuchter als eine bessere Alternative zu Festbettbefeuchtern oder Sprühtürmen vorgeschlagen, weswegen die Befeuchtung in solchen Aggregaten näher untersucht werden muss. Das Hauptziel dieser Masterarbeit ist ein Versuchsaufbau, der die Möglichkeit bietet, die Parameter, die die Befeuchtung von Luft in einer Blasensäule maßgeblich beeinflussen, mit einer ausreichenden Genauigkeit zu messen, um aus diesen Messungen semiempirische Korrelationen ableiten zu können. Die die Befeuchtung von Luft maßgeblich beeinflussenden Parameter sind die Wassertemperatur, der Füllstand im Befeuchter, die Luftgeschwindigkeit sowie die Blasengröße.
Zum aktuellen Stand ist ein HDH-System, bestehend aus einem Blasensäulenbefeuchter, einem Querstromwärmetauscher sowie einer Dosierpumpe errichtet. Mit diesem System können wissenschaftlich notwendige empirische Zusammenhänge zwischen den die Befeuchtung beeinflussenden Parametern und der Befeuchtung von Luft aus Versuchen abgeleitet werden. Die im Versuchsaufbau verbaute Messtechnik wurde derart ausgewählt, dass deren Einfluss auf das System so gering wie möglich gehalten werden kann.
Mit dem Versuchsaufbau ist es darüber hinaus möglich, invasive Messmethoden mit nicht invasiven Messmethoden direkt zu vergleichen. Um eine für die Messungen optimale Befeuchtergeometrie zu finden, sind zwei Blasensäulenbefeuchtereinheiten aufgebaut, davon eine mit planarem und eine mit zylindrischem Querschnitt. So ist es möglich, im Direktvergleich die Vor- und Nachteile der Querschnittsanordnungen nachzuweisen. Die Komponenten der beiden HDH-Systeme wurden anhand von wissenschaftlich akzeptierten Modellen bezüglich der dazugehörigen Wärmeübertragungsraten, der Wärmeverluste und der Druckverluste ausgelegt.
Eine Modellierung des Stoffübergangs in der Blasensäule ist durchgeführt. Anhand dieser Modellierung konnte der Stoffübergangskoeffizient in der Grenzschicht zwischen Luftblase und Flüssigkeitssäule ermittelt werden. Anhand einer Massenbilanz konnte über den Stoffübergangskoeffizienten die Austrittswasserbeladung der feuchten Luft modelliert werden.
Die Funktionalität des Versuchsaufbaus ist gegeben. Messungen des Gasgehalts zeigen eine sehr gute Übereinstimmung mit wissenschaftlich anerkannten Korrelationen zum Gasgehalt. Die optische Zugänglichkeit des Versuchsaufbaus ist evaluiert und lässt die Tendenz ableiten, dass sich ein planarer Befeuchterquerschnitt in Verbindung mit Fotoaufnahmen von den durchgeführten Varianten am besten zur digitalen Bildanalyse eignet.
Aus den Experimenten, die am realisierten Versuchsaufbau durchgeführt werden, kann sich eine allgemeingültige Auslegungsgrundlage für Versuchsaufbauten ergeben, mit denen Messungen der Befeuchtung von Luft in Blasensäulenbefeuchtern durchgeführt werden sollen.
The master thesis concentrates on two different cases to generate energy from MSW. In the first case, the MSW is incinerated in an incineration plant. This approach represents the present situation in the waste treatment in large parts of the UK.
In the second case, the OFMSW is separated in a treatment facility and used in a fermentation plant. The remaining waste is again used as a feedstock in an incineration plant. The difference in the net energy yield between these two cases is investigated in this thesis.
To calculate the difference in the energy yield of case 1 and case 2, a research of the existing literature about comparisons of incineration and fermentation plants and their results are reflected and data about the MSW in the UK is collected. With the input of the literature and the researched data, a model is built which compares the two different cases of waste treatment. The results of the comparisons are then examined by varying different parameters. This step is repeated by using different input parameters. Afterwards, the results are compared and analysed.
In the next part of the thesis, an economic analysis of the incineration and fermentation combined technology plant is made. In this analysis, the investment costs, the annual profits and the annual costs of an additional fermentation plant are discussed and calculated. The result of the analysis is displayed as an amortization time calculation. The results are then analysed by varying the parameters in a sensitivity analysis.
Finally, the research question is answered and a forecast for possible plant designs with an incineration and a fermentation plant in combination are discussed.
Durch den vermehrten Ausbau dezentraler Energieerzeugungsanlagen gewinnt verbraucherseitiges Lastmanagement für die Netzbetreiber immer mehr an Bedeutung. Neue Möglichkeiten zur Laststeuerung bei Haushalten ergeben sich durch den Einsatz von intelligenten Stromzählern, sogenannten Smart Metern, da sie über eine Kommunikationsschnittstelle mit fernparametrierbarem Schaltrelais verfügen und den Stromverbrauch im Viertelstundenraster aufzeichnen können. Diese Masterarbeit untersucht eine Methode, mit der Lastverschiebungsmaßnahmen bei elektrischen Warmwasserspeichern durchgeführt werden können. Die Lastverschiebung wird lediglich durch die Funktionalitäten eines Smart Meter bewerkstelligt. Dabei ist das Ziel, eine Lastverschiebungsmethode zu finden, die vom Netzbetreiber simpel implementiert werden kann und mindestens den gleichen Komfortansprüchen genügt, die eine traditionelle Nachttarifschaltung aufweist. Die Schwierigkeit liegt hierbei in der Einschränkung, dass der Netzbetreiber vom Stromverbrauch der Speicher auf den Warmwasserbedarf der Kunden schließen muss.
Mit Hilfe eines thermodynamischen Modells werden verschiedene Lastverschiebungsszenarien bei mehreren Haushalten angewendet. Über die Simulation des Temperaturverlaufs wird ferner auf die Qualität der Warmwasserbereitung geschlossen und mit jener der klassischen Nachttarifsteuerung verglichen. Liegt die Temperatur häufiger unter einem bestimmten Mindestniveau als jene bei der Nachttarifschaltung, gilt die Qualität als nicht ausreichend. Die Ergebnisse der Untersuchung zeigen, dass mit der vorgestellten Methode für jeden Haushalt eine Lastverschiebung gefunden werden kann, die für den Netzbetreiber Vorteile bringt und die Mindestanforderungen an den Kundenkomfort erfüllt oder teilweise sogar verbessert. Es konnte festgestellt werden, dass mit der vorgestellten Methode der Großteil der Heizenergie (mindestens 60% bei allen Haushalten) in der ersten Tageshälfte zur Verfügung gestellt werden muss. Zusätzlich ergeben sich Energieeinsparungen, da die Beheizung des Speichers und der Warmwasserbedarf besser aufeinander abgestimmt werden. Mit der gezeigten Methode könnten Lastverschiebungsmaßnahmen schnell und einfach vom Netzbetreiber eingeführt werden, jedoch gilt es davor Einschränkungen wie die Legionellen-Problematik und Kundenkommunikation oder -akzeptanz zu klären.
In the residential construction industry, the focus on energy efficiency and cost effectiveness has been gaining importance. In order to achieve these contradicting objectives, a shift towards a reduced complexity in building practices can be observed.
Within the HVAC sector, the Tempering method for space heating has received particular attention as an alternative way to heat museums and buildings worthy of preservation.
In spite of the simplified design, this space heating system is claimed to offer significant advantages in its present field of application.
This study evaluates the implementation of Tempering in the residential context. So far, there is no scientific research on the implementation of Tempering in energy efficient-dwellings.
This master thesis provides initial results on achievable heat flux values, the impact on heat generation efficiency, the inherent installation costs as well as the particular
consequences in terms of end energy consumption of the building as a whole. The findings are compared to the individual performances of well-established heat emission approaches.
By means of a numerical analysis and a case study on a real-case single-family home, it is found that the heat flux values of Tempering systems suffice for the implementation within buildings, which comply with the low-energy building standard. Comparing radiant walls, radiant floors and radiators, the inherent installation costs are lowest for Tempering and radiant floors. The impact on the end energy consumption depends largely on the utilised heat generation system. With a gas-condensing boiler, Tempering performs equal to the radiant systems. When a ground source heat pump system is installed, however, Tempering performs poorly and accounts for a significantly increased energy consumption. Radiator systems are found to be the most energy-efficient method for space heating in both cases.
Obwohl der Energiebedarf eines Krankenhauses nur ca. 1,2% der Gesamtkosten ausmacht, werden Energieeinsparmaßnahmen und -optimierungen immer wichtiger. Neben dem steigenden Umweltbewusstsein wird auch der Kostendruck in diesem Dienstleistungssektor immer größer. Trotz der in vielen Krankenhäusern vorhandenen und gut ausgebauten Gebäudeleittechnik fehlt oft das Detailwissen über den Energieverbrauch und deren Verursacher.
Aufgrund der großen Anzahl an verwendeten Geräten und Kleinverbrauchern sowie der vielen gebäudetechnischen Großgeräte ist eine genaue Ursachensuche kein leichtes Unterfangen. Auch im Krankenhaus Feldkirch sind eine Vielzahl automatischer Stromzähler installiert und im Energiemonitoringsystem aufgeschaltet. Dennoch ist aktuell nur der Gesamtstromverbrauch bekannt und verwertbar. Analysen auf Gebäude oder Anlagen-Ebene werden nur sehr wenige durchgeführt.
In dieser Arbeit soll untersucht werden, wie die wesentlichen Einflussfaktoren auf den Stromverbrauch mithilfe der installierten automatischen Zähler identifiziert werden können.
Um herauszufinden, mit welchen Methoden der größte Informationsgehalt gewonnen werden kann, kommen verschiedene Methoden wie Kennzahlenvergleiche, die Darstellung als Sankey-Diagramm, objektspezifische Vergleiche und statistische Analysen sowie Energieganganalysen zur Anwendung.
Die erarbeiteten Auswertungen und Darstellungen zeigen sehr schnell, dass ohne eine Vielzahl an Subzählern keine sinnvollen Analysen möglich sind. Die große Anzahl an angeschlossenen Verbrauchern und deren variables Regelverhalten lassen aus den Daten (z. B. Summenzählern) anhand zusammengefasster Stromverläufe kaum Schlüsse für einzelne Gebäude zu. Es zeigt sich auch, dass eine einzelne Darstellungsform für alle Auswertungen keinen Sinn macht. In dieser Arbeit werden mögliche Einbauorte für die Stromzähler vorgeschlagen sowie Verfahren für eine durchdachte Auswertung der Energieverbräuche und Umsetzung in die Praxis angeführt.
In Europa und den USA werden rund 39 % des Energieverbrauchs durch den Betrieb von Gebäuden verursacht. Sie bieten somit großes Potential, den Gesamtenergieverbrauch zu verringern. Eine sinnvolle Möglichkeit dieser Umsetzung, ohne auf Gebäudekomfort verzichten zu müssen, liegt in der Optimierung der Gebäudeeffizienz. Dahingehend werden physikalische und datenbasierte Modelle als Planungstool für die Gebäudemodellierung verwendet, um frühzeitig Erkenntnisse über deren Energieverbrauch zu gewinnen. Während physikalische Modelle thermodynamische Prinzipien zur Modellierung des Energieverbrauchs einsetzen, verwenden datenbasierte Modelle historische oder allgemein verfügbare Daten, um ein Vorhersagemodell zu entwickeln. Das Ziel dieser Arbeit ist die Erstellung eines datenbasierten Modells, zur Prognose des Energieverbrauchs der Beleuchtung von Bürogebäuden. Es wurden bereits zahlreiche Studien hinsichtlich Prognosen des Energieverbrauchs erstellt. Die meisten beziehen sich jedoch auf den Gesamtenergieverbrauch oder jenen, welcher für Heizung, Kühlung oder Klimatechnik aufgewendet wird. Die Recherche des Autors ergab, dass vergleichsweise wenig Forschung für Vorhersagemodelle zur Ermittlung des Energieverbrauchs für die Beleuchtung betrieben wurde. Zur Umsetzung der Analyse stehen dem Autor Daten aus der Beleuchtungsinfrastruktur sowie Wetter-, Zeit- und Gebäudedaten zur Verfügung. Anhand dieser Arbeit soll eruiert werden, ob diese Daten hinreichend aussagekräftig sind, um ein geeignetes Modell zu entwickeln.
In times of global climate change, it is increasingly important to investigate emissions and resource consumption of all machines and, if possible, to improve them. This includes within the transport sector car ferries.
In order to reduce the environmental impacts of car ferries, the electrification has penetrated into this sector, which has led to the world's first fully electric car ferry. One of the most important components to operate this ferry is the energy storage. Not only the battery storage of the ferry itself is needed, but also an onshore battery storage system is needed to support the electrical grid.
The present study examines how storage technologies and concepts can impact the environment considering the world's first all-electric car ferry, MF Ampere, which operates in Norway.
To examine this, the current onshore battery storage system is compared to a concrete sphere storage system. For this purpose, data from the first test run of this new storage technology, which was successfully carried out by the Fraunhofer Institute in 2016, is considered. Subsequently, a life cycle assessment of the two storage systems is carried out to compare the environmental impacts.
The concrete sphere storage system performs better for 15 of 17 impact categories compared to the existing onshore battery storage system. Depending on the impact category the impact reduction is about 2% to 8%.
Nevertheless, it is difficult to estimate how long the useful life and how good the efficiency of the concrete ball storage will be, since no system of this size has been tested yet. Also, the costs of the concrete sphere storage system have not been considered.
Das Ziel der Masterarbeit ist es, ausgewählte Tankstellen an der A96 unter Voraussetzung einer vollständigen Elektrifizierung des deutschen PKW-Straßenverkehrs analog des heutigen Tankverhaltens zu dimensionieren.
Zu Beginn der Masterarbeit wird die elektrische Leistung berechnet, welche die deutschen PKW bei vollständiger Elektrifizierung des deutschen PKW-Straßenverkehrs benötigen werden. Um das Ergebnis auf Plausibilität überprüfen zu können, wird die Berechnung mit zwei verschiedenen Ansätzen vollzogen. Einerseits werden als Grundlage durchschnittliche Jahresfahrstrecken der Autofahrer/-innen verwendet und andererseits wird über den Primärenergiebedarf, den Fahrzeugbestand und den Wirkungsgraden von Ottomotoren und Elektromotoren die zu bestimmende Leistung berechnet.
Öffentliche Daten aus Verkehrszählungen sollen im weiteren Verlauf der Masterarbeit ausgewertet werden. Unter anderem erfolgt mit diesen Werten eine Modellbildung des Verkehrs, um den Verkehrsfluss mathematisch darzustellen und zu simulieren.
Die Durchführung einer Live-Messung an der Tankstelle Lechwiesen Nord sowie die nachträglich erlangten Daten zum tatsächlich stattgefundenen Verkehrsaufkommen sind für die Auswertung des in AnyLogic hinterlegtem mathematischen Modells essentiell. Auch für die Frage nach den zu tankenden Autos eines bekannten Verkehrsaufkommens sind diese hilfreich. Zur Bestimmung der Anzahl von Elektrozapfsäulen erfolgt eine iterative Annäherung an die Kurve des Tankverhaltens von Diesel- und Benzinautos. Als abschließendes Ergebnis werden für die Tankstelle Lechwiesen Nord und Lechwiesen Süd jeweils 20 Elektrozapfsäulen gefunden. Für den Autohof Aichstetten ergeben sich unter Berücksichtigung des Verkehrsaufkommens 27 zu installierende Elektrozapfsäulen, sodass ein identisches Tankverhalten von Elektroautos bei vollständiger Elektrifizierung des deutschen PKW-Straßenverkehrs angenommen werden kann.
Die nachfolgende Arbeit befasst sich mit Hochstromwandlern für Schutzzwecke. Laut Aussage von Paul Scherrer finden sich diese in jedem Verteilnetz und tragen einen erheblichen Teil zur Sicherheit des Netzes bei. Im ersten Teil der Arbeit wird beschrieben, wie man bei der Dimensionierung bzw. der Auswahl eines Hochstromwandlers für Schutzzwecke vorgeht und welche technischen Parameter dafür notwendig sind. Der zweite Teil der Arbeit befasst sich damit, wie man die Auswahl sowohl wirtschaftlich als auch technisch im Bezug auf fiktive Zukunftsszenarien optimieren kann. Dafür liegen aktuelle Netzdaten der Energienetze Vorarlberg GmbH vor, welche für diese Arbeit anonymisiert wurden. Die fiktiven Zukunftsdaten sind Annahmen. Für den Prozess der Optimierung wurde ein Tool in Python angefertigt, welches eine optimierte Auswahl von Hochstromwandler für Schutzzwecke durchführt und diesen Prozess erleichtern soll. Dieses wird nach eigener Einschätzungen keine Verwendung in der Praxis finden, da es nur relevant sein wird, wenn man ein Stromnetz wie wir es heute in größeren Städten und Gemeinden finden, von null an neu aufbauen möchte.
Damit eine möglichst ausfallsichere Energieversorgung und Energieübertragung gewährleistet werden kann, werden verschiedene Betriebsmittel benötigt. Diese Betriebsmittel müssen gewisse Genauigkeitsgrenzwerte einhalten. In dieser Masterarbeit wird die Prüfung der Genauigkeit von Stromwandlern diskutiert. Die Ermittlung der Genauigkeit kann durch das Einspeisen eines Primärnennstroms (einige kA) und eine Messung des Sekundärstroms erfolgen. Daraus wird der Übertragungsfehler bestimmt. Die Genauigkeit wird unter anderem durch den Übertragungsfehler beschrieben, welcher sich aus dem Übersetzungsfehler und dem Phasenfehler zusammensetzt. Es wird bei diesem Verfahren von der Primärmethode oder auch Primärstrommethode gesprochen, dies ist die Referenzmessung nach den Normen IEC 61869-2 und IEEE C57.13. Die Firma OMICRON electronics GmbH entwickelte ein modellbasiertes Messverfahren, das den Einsatz eines mobilen und leichten Messgeräts erlaubt. Das Messgerät wird CT Analyzer genannt. Bei Verwendung dieser Methode werden keine hohen Ströme verwendet, was den BenutzerInnen zusätzlich eine höhere Sicherheit für die Bedienung des Geräts bietet. Mit diesem Messverfahren werden die einzelnen Komponenten des elektrischen Ersatzschaltbildes des Transformators bestimmt. Mit den ermittelten Komponenten kann dann der Übertragungsfehler berechnet werden. Das modellbasierte Messverfahren beruht auf Messungen, die von der Sekundärseite des Stromwandlers her durchgeführt werden. Man spricht bei diesem Messverfahren von der Sekundärspannungsmethode, welche inzwischen in der Norm IEC 61869-2 als alternative Messung angeführt ist. Der Vorteil der Primärmethode ist die Hoch-Präzisionsmessung, da die Prüfung unter realen Bedingungen und mit einer direkten Messung durchgeführt wird. Die Genauigkeit dieser Methode wird durch die Messtechnik selbst bestimmt, sie ist sehr genau und daher als Referenz gültig. Das Ziel der Sekundärspannungsmethode ist es, den Vorteil der Hoch- Präzisionsmessung für die Sekundärspannung zu nützen. Da es sich um ein modellbasiertes Messverfahren handelt, wird die Messgenauigkeit bei diesem Verfahren durch das angewandte Modell bestimmt und nicht durch die Messtechnik wie bei der Primärmethode. Daher sind Untersuchungen am Modell notwendig. Es gibt einige wenige Stromwandlertypen, bei denen es größere nicht akzeptable Differenzen zwischen der Primärmethode und der Sekundärspannungsmethode gibt. Diese Masterarbeit befasst sich deshalb mit Untersuchungen von Möglichkeiten und Grenzen der Sekundärspannungsmethode. Zu Beginn wird eine theoretische Sensitivitätsanalyse mathematisch erarbeitet. In diesem Zusammenhang wird der komplexe Fehlervektor eines Stromwandlers eingeführt. Diese Sensitivitätsanalyse dient der Ermittlung des Einflusses auf den komplexen Fehler in Abhängigkeit von verschiedenen Parametern und zur Auswahl von Stromwandler-Testobjekten. Des Weiteren wird die Sensitivitätsanalyse durch Messungen an verschiedenen Stromwandlern verifiziert. Die Untersuchungen basieren auf MATLAB-Simulationen und Messungen mit dem OMICRON Messgerät CT Analyzer, welches die Sekundärspannungsmethode anwendet. Die Ergebnisse werden mit den Herstellerdaten (Primärmethode) verglichen und analysiert werden.
Das Energieinstitut Vorarlberg hat zusammen mit mehreren Regionen in Vorarlberg das Sanierungslotsenprojekt gestartet, um die Beratungssituation bei der Gebäudesanierung zu verbessern. Durch wiederholten Kundenkontakt wurde festgestellt, dass es ein Beratungsdefizit für Besitzer älterer Einfamilienhäuser gibt. Zwischen der Erkenntnis, dass eine Sanierung des Gebäudes notwendig ist und dem Zeitpunkt, an dem die ersten Leistungen bestellt werden, gibt es keine sachkundige Betreuung in den Fragestellungen der zukünftigen Gebäudenutzung. In den bisher angebotenen Beratungen werden zwar auch unterschiedliche Sanierungsvarianten miteinander verglichen. Jedoch bezieht sich der Vergleich auf Variationen von Sanierungsmaßnahmen, wie beispielsweise Dämmstoff - und Fensterqualität oder die Auswahl eines Heizungssystems. Darüber hinaus gehende Fragen über altersgerechtes Wohnen, Generationenwohnen, Nachverdichtung und Vermietung werden in diesen Beratungen nicht behandelt. In allen Fragen der zukünftigen Nutzung und den zukünftigen Anforderungen an das Gebäude, den darauf abgestimmten Sanierungszielen und der zugehörigen Kostenschätzung mit Finanzierungsberechnung sind die Besitzer auf sich gestellt.
Deshalb ist der Bedarf nach einem einfachen Rechentool, welches in einer frühen Phase der Sanierungsberatung, eine schnelle Berechnung der in Betracht kommenden Sanierungsvarianten ermöglicht, entstanden. In dieser frühen Phase ist es bislang nicht üblich eine Kostenschätzung abzugeben. Für diese Berechnungen wird eine Datenbank mit Sanierungs - und Umbaukostenelementen benötigt, sodass mit einer abgesicherten Basisdaten kalkuliert werden kann.
In der vorliegenden Masterarbeit werden eine auf Microsoft Excel basierende Datenbank und das dazugehörige Rechentool vorgestellt, die die beschriebenen Anforderungen erfüllen. Mit Hilfe der Datenbank wird eine Grundlage geschaffen, an denen sich die Sanierungslotsen orientieren können. Zusätzlich zu den Netto- und Bruttokosten, die bei den einzelnen Sanierungsmaßnahmen anfallen, werden auch Einheitskosten angegeben, die in das Rechentool eingetragen werden können.
Das Rechentool ermöglicht den Vergleich von fünf unterschiedlichen Sanierungsvarianten. Durch die freie Eingabe der Flächen können auch Varianten mit unterschiedlichen Nutzungskonzepten und unterschiedlichen Grundrissen verglichen werden. Neben einer Grobkostenrechnung der Sanierungskosten erfolgt im Tool auch die Berechnung der Förderung laut der Wohnaussanierungsrichtlinie und Energieförderungsrichtlinie des Landes Vorarlberg. Weitere Förderungen können als Einmalzuschüsse eingetragen werden. Eine vereinfachte Wirtschaftlichkeitsbetrachtung erfolgt über die Berechnung der Finanzierung der Sanierung. Hierbei werden auch Einnahmen durch Vermietung berücksichtigt.
Da konventionelle Kältemittel im Vergleich zu CO2 ein großes Treibhauspotential (GWP) aufweisen, gewinnen neue, alternative Kältemittel, sogenannte low-GWP Kältemittel, stärker an Bedeutung. Zu diesen low-GWP Kältemitteln gehören u.a. die Fluide der HFO und HCFO Kältemittel. Durch ihre thermophysikalischen Eigenschaften eignen sie sich insbesondere für die Anwendung in industriellen Hochtemperaturwärmepumpen (HTWP), die im Temperaturbereich von 100 °C bis 160 °C ein großes Potenzial in der Nahrungsmittel-, Papier- und Chemieindustrie zur Prozesswärmebereitstellung aufweisen. In dieser Masterarbeit werden die Kältemittel R1336mzz(Z), R1233zd(E), R1224yd(Z), R1234ze(Z) und R514A auf ihre Anwendbarkeit in drei verschiedenen Kältekreiskonfigurationen untersucht. Dabei soll herausgefunden werden, welches Kältemittel sich unter Berücksichtigung des COPs, der volumetrischen Heizleistung, der Verdichtungsverhältnisse und Verdichtungsendtemperaturen am besten eignet. Der Kreislauf mit internem Wärmeübertrager (IHX) findet bereits Anwendung in HTWP und dient zum grundlegenden Vergleich der Kältemittel. Die beiden neuen Kreisläufe eignen sich u.a. für große Spreizungen an der Senke. Eine in dieser Arbeit betrachteten Kältekreiskonfiguration besteht aus zwei parallel angeordneten IHX Kreisläufen (2KP) und die andere aus einer zweistufigen Kreislaufkonfiguration (2SE).
Mithilfe des Programms EES wird für die Kreisläufe ein Modell erstellt, mithilfe dessen der Senkentemperaturbereich von 100 °C bis 160 °C und der Quellentemperaturbereich von 40 °C bis 80 °C untersucht werden kann. Die Auswertung der Simulationen kam zu dem Ergebnis, dass R514A bis zu einer Senkentemperatur von 130 °C und R1336mzz(Z) ab dieser Senkentemperaturen im IHX und 2SE Kreislauf die besten COP Werte aufweist. Zudem sind die Verdichtungsendtemperaturen und das Verdichtungsverhältnis günstig, die volumetrische Heizleistung hingegen am geringsten. Im 2KP Kreislauf besitzt die Kältemittelkombination R1336mzz(Z)/R514A die besten COP Werte. Der 2KP Kreislauf weist die besten COP Werte der betrachteten Kältekreiskonfigurationen auf. Im Betriebspunkt bei einer Senkentemperatur von 130 °C (ΔT Senke 60 K) und einer Quellentemperatur von 60 °C (ΔT Quelle 10 K) liegt der COP des IHX bei 3,95, der des 2SE bei 4,05 und der des 2KP bei 4,26. R1233zd(E) überzeugt im IHX und 2SE Kreislauf mit einer deutlich höheren VHC im Vergleich zu R1336mzz(Z), bei etwas geringeren COP Werten. Die Untersuchung zeigt auch, dass die Auswahl einer Kältekreiskonfiguration und eines Kältemittels stark von den Betriebstemperaturen abhängt.
In Benin werden einerseits große Mengen verschiedenster Abfallarten häufig in der Landschaft entsorgt und unter freiem Himmel verbrannt. Andererseits ist Energie in Benin sehr knapp und muss zu einem hohen Prozentsatz aus Nachbarländern
importiert werden. Hier setzt die vorliegende Arbeit an mit der Frage: Welche Varianten der Müllverbrennung mit Nutzung thermischer Energie sind hinsichtlich ökonomischer, technischer und ökologischer Kriterien in Benin realisierbar? Zur Beantwortung dieser Frage werden zunächst die Rahmenbedingungen vor Ort analysiert, um Anforderungen an eine solche Müllverbrennungsanlage abzuleiten. Als Kern der Arbeit wird eine Müllverbrennungsanlage mit anschließender Abgasreinigung konzipiert, die auf einem bereits vor Ort erprobten Ofen aufsetzt, der zur Verbrennung medizinischer Abfälle konstruiert wurde. Anhand einer detaillierten Analyse von Abgasreinigungstechnik wird aufgezeigt, wie dieser Basisofen zur Verbrennung von landwirtschaftlichen Abfällen und Kunststoffen angepasst werden kann. Konkrete Beispiele zur Nutzung thermischer Energie zur Kälteerzeugung, Salzherstellung und Palmölherstellung zeigen auf, dass das vorgestellte Konzept praxistauglich ist.
Das exakte Messen der aktuellen Spannung ist ein essenzieller Baustein sowohl für die Versorgungssicherheit als auch die Verrechnung von Leistung in der elektrischen Energietechnik. Dazu werden verschiedene Geräte verwendet, welche die Spannung auf einen normierten Wert teilen, sodass diese problemlos gemessen werden kann. In dieser Masterarbeit werden in weiterer Folge lediglich die konventionellen Spannungswandler und deren Übertragungsfehler, genauer gesagt die kapazitiven Spannungswandler, im Detail analysiert. Das übergeordnete Ziel dieser Arbeit ist es, jene Parameter der modellbasierten Messung von kapazitiven Spannungswandlern zu finden, welche die größte Sensitivität im Bezug auf den Spannungsübersetzungs-und Phasenfehler sind. Dabei werden zuallererst die zwei gängigsten Messmethoden zur Prüfung der Genauigkeit von konventionellen Spannungswandlern diskutiert. Des Weiteren wird die Arbeit anhand der CIGRE Umfragen im Bezug auf die Ausfälle der konventionellen Wandler motiviert. Des Weiteren wird der Stand der Technik ermittelt und dargelegt.
Für die Dauer der Untersuchung wurde ein kapazitiver Spannungswandler in seine beiden Hauptkomponenten (induktiver und kapazitiver Teil), zwecks besserer Analysierbarkeit der einzelnen Komponenten, zerlegt. Somit konnten sowohl die einzelnen CVT Komponenten als auch der gesamte kapazitive Spannungswandler frequenzabhängig und spannungsabhängig untersucht werden. Mittels dieser und der modellbasierten Messungen wurden die einzelnen Parameter für die Simulationsumgebung des kapazitiven Spannungswandlers ermittelt. Im Anschluss wurde dieses zum einen mittels vier verschiedener Betriebszustände und zum anderen mittels Messergebnissen sowohl der modellbasierten Prüfung als auch der Primärprüfung (EPRO Kalibrierung) verifiziert. Mit dieser Grundlage wurden anschließend die verschiedenen Sensitivitätsanalysen durchgeführt.
In this thesis the effect of dc voltage bias on the equivalent series resistance (ESR) of capacitors and especially ferroelectric dielectric ceramic capacitors (FDCC) is analysed. Further the influence of the dc biased ESR on the losses of capacitors is investigated. Also piezoelectric resonances (PR) occurring in FDCCs with applied dc bias and their influence on the losses are analysed.
Therefore a measurement circuit to measure the impedance and thus the ESR of capacitors in combination with a vector network analyser (VNA) is developed. Using the developed circuit the ESR of capacitors of different technologies is measured and their behaviour with dc bias is evaluated. The losses of an FDCC are measured in a power electronic (PE) circuit with a developed calorimetric measurement system (CMS). The influence of the PR is investigated by tuning the switching frequency of the PE system and thus the frequency of the capacitor current exactly into the PR. The measured losses are then compared to a calculation based on the capacitor current harmonics and the respective ESR.
The measurements show an increase of the ESR with dc bias for all measured FDCCs. The loss measurements show a significant increase of the losses in an FDCC if the current frequency matches the PR frequency. Consequently a decrease of the PE system's efficiency is measured. The loss calculations do not exactly match the measurements but there is a systematic deviation of the same order for all measurements.
Aktuell beschäftigen steigende Energiepreise, zunehmend knappe Ressourcenvorkommen und der Klimawandel die Energiebranche mehr denn je. Aber auch andere Organisationen wie Unternehmen und Kommunen, die einen erheblichen Beitrag zum Energieverbrauch leisten, sind davon betroffen. Ein Instrument, das sich dieser Themen angenommen hat und eine Möglichkeit zur Steuerung bietet, ist das Energiemanagement.
Ungenutztes Energieeffizienzpotential kann mit einem gut aufgebauten und strukturierten Energiemanagement nutzbar gemacht werden. Gerade weil das Angebot technischer Lösungen sehr groß ist, liegt die Vermutung nahe, dass die Umsetzung oft durch strukturelle oder organisationsbedingte Barrieren erschwert wird.
Aus diesem Grund ist der Forschungsgegenstand dieser Arbeit eine ausführliche Untersuchung der Umsetzung von betrieblichem und kommunalem Energiemanagement. Es konnten Erkenntnisse gewonnen werden, welche Themen beim Energiemanagement eine Herausforderung darstellen und welche Aspekte spezifisch bei Unternehmen oder Kommunen wichtige Stellschrauben im Umsetzungsprozess sind.
Die Ergebnisse der Expertenbefragung und der Literaturanalyse haben gezeigt, dass Energiemanagement derzeit zu wenig Interesse geschenkt wird und deshalb die Investitionen, vor allem in ausreichend Personalressourcen, fehlen. Die größte Hürde ist die wirtschaftliche Darstellbarkeit von Maßnahmen, die insbesondere bei wenig energieintensiven Organisationen Schwierigkeiten bereitet beziehungsweise kaum durchsetzbar ist. Dies wiederum fordert ein Umdenken von Politik und Wirtschaft, was sich auch in anderen Einflussfaktoren deutlich wiederspiegelt.
Aber nicht nur in den entscheidenden Reihen einer Organisation muss ein Umdenken stattfinden. Nur wenn das Bewusstsein für Energie bei allen Beteiligten steigt und alle bei Strategie und Umsetzung an einem Strang ziehen, kann die Energiewende mithilfe von Energiemanagement gelingen.
Um ein möglichst kostengünstiges Laden von Elektrofahrzeugen zu erreichen, ist es nötig, diese möglichst in Zeiten zu laden, an denen die Kosten für die Energie geringer sind und die Entstehung von Leistungsspitzen vermieden wird. Aus diesem Grund wird in dieser Arbeit anhand des Verbrauches und den tariflichen Bedingungen eines Betriebes in Österreich die Kostenentwicklung von drei verschiedenen Ladeszenarien untersucht und verglichen. Dabei handelt es sich um das einfache Laden, intelligente Laden und das intelligente Laden mit Vehicle to Grid Erweiterung, wobei hierbei die Energie aus den Fahrzeugen ausschließlich zur Eigenverbrauchsoptimierung und Spitzenlastreduktion eines Betriebes dient und somit nicht in das Netz gespeist wird. Die Ergebnisse werden durch eine lineare Optimierung errechnet wobei bis zu vier Fahrzeuge simuliert werden.
Die Ergebnisse zeigen, dass es durch das intelligente Laden zu keinen neuen Leistungsspitzen kommt und es zusätzlich zu einem erhöhten Eigenverbrauch aus der vorhandenen Photovoltaikanlage kommt.
Dadurch reduzieren sich die Ladekosten in jedem Szenario. Auch in Betrachtung auf die Anschaffungskosten, ist eine Verbesserung ersichtlich. Beim Vehicle to Grid Laden werden die Arbeits- und Leistungskosten noch weiter gesenkt, wobei die Leistungskosten bei zwei Fahrzeugen ihren Tiefpunkt erreicht haben. Zusätzlich kann der Eigenverbrauch aus der Photovoltaikanlage noch weiter erhöht werden. Nachdem hierbei die Investitionskosten noch berücksichtigt wurden, kommt der Autor zum Schluss, dass es nur mit einem Fahrzeug zu einer Verringerung der gesamten Kosten kommt. Dies kommt durch die erhöhten Investitionskosten und dem mit höher werdender Anzahl an Fahrzeugen geringer werdenden Vehicle to Grid Einsatz zustande.
Weltweit hatten 2017 840 Millionen Menschen keinen Zugang zu Strom. Hinzu kommen Millionen weitere Menschen, die an unzuverlässige Stromquellen angeschlossen sind. Für das Wirtschaftswachstum, die menschliche Entwicklung und ökologische Nachhaltigkeit ist eine zuverlässige Stromversorgung jedoch von großer Bedeutung.
Die vorliegende Arbeit beschäftigt sich daher mit der Konzeptionierung einer zuverlässigen Stromversorgung für eine Hochschule in Benin (Westafrika), die sich mit einem unzuverlässigen Netzanschluss konfrontiert sieht. Die Konzeptionierung erfolgt mithilfe der Software HOMER.
Aufgrund unsicherer Systembedingungen wurden mehrere Szenarien und der Einfluss verschiedener Systemparameter untersucht.
Die Ergebnisse zeigen, dass eine zuverlässige Stromversorgung durch die Implementierung eines Mini-Grids erreicht werden kann. Dabei hat die Ausgangssituation einen bedeutenden Einfluss auf die Systemauslegung. Für das untersuchte Szenario, in dem die Hochschule keine Stromkosten bezahlte, erwies sich ein PV/Dieselgenerator/Batterien-Mini-Grid als geeignet. Dabei entstehen Stromkosten von mindestens 0,013 USD pro kWh, was leicht erhöhte Kosten gegenüber den Bezugskosten bedeutet. Dieser Kostenzuwachs lässt sich aber mit der erhöhten Zuverlässigkeit rechtfertigen. Auch unter der Annahme, dass die offiziellen Bezugskosten bezahlt werden müssen, erwies sich ein PV/Dieselgenerator/Batterie-Mini-Grid als geeignet. Die Größe der PV-Anlage fällt in diesem Fall deutlich größer aus, was zu einem reduzierten Einsatz des Dieselgenerators führt. Ein untersuchtes Off-Grid erwies sich als unwirtschaftlich.
Somit enthält die Arbeit wichtige Erkenntnisse darüber, wie sich verschiedene Parameter auf ein geeignetes System auswirken. Zudem wurde ein Systemvorschlag ausgearbeitet. Diese Informationen sollen nicht nur den beteiligten Personen vor Ort helfen, sondern auch als Grundlage für zukünftige Projekte dienen.
In den letzten Jahrzehnten gewann Aluminium als vielseitig einsetzbarer Werkstoff immer mehr an Bedeutung. Das Vorarlberger Unternehmen Hydro Extrusion Nenzing ist Teil der Aluminiumverarbeitungsindustrie und stellt stranggepresste Aluminiumprofile her. Beim Strangpressen werden Aluminiumstangen in einem Durchlaufinduktionsofen auf bis zu 520 °C erhitzt und anschließend durch ein formgebendes Werkzeug gepresst. Nach dem induktivem Aufwärmen wird ein Teil der Stange aus dem Ofen gefahren und abgeschert. Die erzeugte Temperaturverteilung an diesem abgescherten Bolzen ist der sogenannte Taper. Das induktive Aufwärmen ist ein wichtiger Teil der Extrusion und steht im Fokus dieser Forschungsarbeit. Ziel dieser Arbeit ist es, den Aufwärmprozess der Aluminiumstangen, mithilfe einer Kombination aus explorativer Datenanalyse und Methoden des maschinellen Lernens, genauer zu verstehen und den resultierenden Taper vorherzusagen. Außerdem werden parallel die signifikanten Einflussparameter, ohne Berücksichtigung von Materialparametern, untersucht.
Nach der explorativen Datenanalyse wurden mithilfe eines k-means-Clusterverfahren zwei Klassifizierungsvarianten entwickelt. In der ersten Variante liegen die Taper nach ihrer Bolzenlänge und Form gegliedert vor. Es zeigte sich, dass die Taper der Bolzen mit ähnlicher Länge auch ähnliche Formen annehmen. Ein einfacher Entscheidungsbaum konnte die 13 Zielklassen zu etwa 85 % vorhersagen. Die Bolzenlänge spielt bei der Vorhersage eine wichtige Rolle. Die zweite Klassifizierungsvariante basiert hingegen ausschließlich auf der Taperform. Die angewendeten Modelle (k-Nearest-Neighbor, Decision Tree, Random Forest) waren jedoch kaum in der Lage, die 11 Klassen abzubilden. Grund für die unzureichende Vorhersageleistung können die vielen Unsicherheiten in der Datenstruktur sein. Die anschließende detaillierte, explorative Analyse der formabweichenden Taper deutet fehlende Merkmale im Datensatz an. Einige Bolzen setzen sich aus zwei Stangenenden zusammen. Diese geteilten Bolzen führen zu abweichenden Aufwärmverhalten, wodurch auffällige Taper entstehen. Die Information ob sich ein Bolzen aus zwei Stangen zusammensetzt fehlt jedoch im Datensatz. Der Aufwärmvorgang der Stangen wird demnach durch ein Wechselspiel der aktuellen Regelung und zwei maßgeblichen Faktoren beeinflusst: die Bolzenlänge und das Auftreten von geteilten Bolzen. Diese Faktoren bestimmen die Stangentemperatur im Ofen, den induzierten Strom und somit den resultierenden Taper. Aufgrund dieser Ergebnisse könnte die temperaturbasierte Regelung zukünftig durch eine Steuerung hinsichtlich des induzierten Stroms ersetzt, dadurch Energie eingespart und Schrott vermieden werden.
Aufgrund des fortschreitenden Klimawandels müssen neue Wege gefunden werden, um diesen zu verlangsamen, bzw. die Emission von Treibhausgasen zu reduzieren. Ein Weg dieses Ziel zu erreichen ist das CO2-Recycling direkt an der Quelle. Durch die hohe thermische und chemische Beanspruchung der hierfür eingesetzten Elektroden bieten sich gerade technische Keramiken als Elektrodenmaterialien an. Eine jener in Frage kommenden Keramiken ist Siliziumkarbid (SiC). Bei SiC handelt es sich um einen Wide-Bandgap-Halbleiter mit hoher thermischer und chemischer Stabilität. Da die Herstellung, des für Elektroden benötigten, hochreinen, porösen SiC sehr aufwendig und damit auch teuer ist, wird schon seit einiger Zeit nach anderen Verfahren, als den industriell eingesetzten Standardverfahren, zur Herstellung von hochreinem SiC geforscht. In der vorliegenden Arbeit wird die Bildung von Siliziumkarbid in isostatisch gepressten Graphiten mittels karbothermischer Reduktion verschieden dotierter Sol-Gel-Granulaten und cerschiedener poröser Graphite untersucht. Zu diesem Zweck werden die Proben unterschiedlichen Anzahlen an Zyklen des in einem Induktionsofen, durchgeführten Hochtemperaturprozesses ausgesetzt. Dabei wird das Granulat thermisch zersetzt, wobei es unter anderem zu einer Gasphasenreaktion mit dem Kohlenstoff der Graphittemplates kommt und damit zur Umwandlung von Kohlenstoff zu SIC. Von den so gewonnenen Proben werden in einem Micro-CT Schichtaufnahmen erstellt. Das Ergebnis soll ein Erkenntnisgewinn bezüglich der Umwandlungstiefe und entstandenen Strukturen in den unterschiedlichen Graphittemplates, je nach Anzahl der durchlaufenen Zyklen und verwendetem Precursorgranulat, sein. Nicht untersucht wird das elektrische Verhalten der unterschiedlichen, auf diese Weise örtlich dotierten, Templates.
In Anbetracht einer immer größer werdenden Diskussion über den Klimaschutz und einer anvisierten Energiewende finden umweltschonende Energietechniken immer mehr an Aufmerksamkeit in der Gesellschaft. Die Kombination von Stromerzeugung und gleichzeitiger Wärmeproduktion macht die Biomassevergasung zu einem interessanten Untersuchungsobjekt. Die anfallenden Biokohlestäube versprechen in Zukunft von großem Nutzen zu sein, um zum Beispiel Kohlenstoff in der Erde abzuspeichern. Die sogenannten ”Terra Preta“ Böden steigerten merklich das Interesse am Einsatz von Kohle in der Landwirtschaft, um in Böden verbessernde Eigenschaften zu erzielen. In dieser Masterarbeit wird die Auswirkung der Biokohle einer Schwebefestbettvergaseranlage auf das Pflanzenwachstum, die verfügbaren Nährstoffe und auf die Anzahl der Mikroorganismen untersucht. Hierfür wurden zwei verschiedene Versuchspflanzen herangezogen. Es wurde auf Hafer und Rübse zurückgegriffen. Der Versuch fand unter Laborbedingungen in einem Wachstumsschrank statt. Es wurden Böden mit unterschiedlichen Kohlegehalten hergestellt (0 %, 2,5 % 5 %, 12,5 %). Des Weiteren wurde auf zwei verschiedene Arten eine oberflächenaktivierte Kohle hergestellt. Einmal erfolgte dies durch Ko-Kompostierung der Biokohle in Grünschnitt und das zweite Mal durch die Beladungmit künstlichem Dünger. Die chemische Aktivierung erfolgte über einen Rührversuch. Dabei wurde die Kohle über einen längeren Zeitraum mit dem künstlichen Dünger in einem Gefäß gerührt.
Die Versuchsdauer erstreckte sich jeweils über einen Zeitraum von ca. 3 Wochen. Am Ende der Versuche wurden die Pflanzen geerntet. Anschließend wurde ihre Wuchshöhe und deren Durchmesser erfasst und statistisch ausgewertet. Die Nährstoffe im Boden wurden mittels Macherey Nagel Schnelltest ermittelt. Hierfür wurden Proben sowohl am Anfang als auch am Ende des Experiments genommen und anschließend aufbereitet und ebenfalls statistisch ausgewertet. Es konnte durch den Zusatz von Kohle einen signifikant höherer Mittelwert des Pflanzenwachstums erzielt werden. Und auch bei den Nährstoffen konnten Unterschiede zum Referenzboden nachgewiesen werden. Im Gegensatz dazu konnte bei den Mikroorganismen statistisch kein Unterschied festgestellt werden. Leider traten während des Versuches vermehrt Probleme auf, die aber entsprechend in der Arbeit adressiert und dokumentiert werden. Aus diesem Grund muss darauf verwiesen werden, dass einige Ergebnisse nicht verwertbar waren.
Synthese von Gashydraten
(2019)
Bei Clathraten handelt es sich um Einschlussverbindungen, bei denen beliebige Gastmoleküle in einem Käfig bzw. Gitter von beliebigen Wirtsmolekülen eingeschlossen sind. Bei hohem Druck und niedriger Temperatur können beispielsweise Gasmoleküle in einem Wirtsgitter aus Wassermolekülen eingelagert werden. Natürlich vorkommende Hydrate in den Tiefeneisfeldern der Schelfmeere und in Permafrostgebieten zu finden und haben hauptsächlich Methan als Gastgas. Im Forschungsbereich Energie der Fachhochschule Vorarlberg (FHV) werden die Bildungs- und Zerfallsprozesse von Gashydraten erforscht. Für die Herstellung dieser Proben ist ein Mikroreaktor vorhanden, mit dem keine zufriedenstellenden Ergebnisse erzielt werden können, da die Dauer der Bildung von ausreichenden Mengen an Hydratproben hoch ist. Obwohl die Synthese von Hydraten bereits mehrfach Gegenstand der Forschung war und es weiterhin ist, besteht nach wie vor ein großes Potential in der Beschleunigung des Wachstumsprozesses von Hydraten. Da der Beginn des Hydratwachstums durch einen stochastischen Prozess ausgelöst wird, kann die Dauer der Keimbildung bzw. bis zum Beginn des Kristallwachstums viel Zeit in Anspruch nehmen. Für weitere Forschungsarbeiten im Forschungsbereich Energie der FHV ist eine beschleunigte und technisch einfache Herstellung von Hydraten von hoher Wichtigkeit. Deshalb ist der Fokus bzw. das Thema dieser Arbeit die Entwicklung eines neuartigen Versuchsreaktors, der die Möglichkeit bietet, verschiedene bekannte sowie neue Methoden für die Synthese von Gashydrat anzuwenden und für die Herstellung von Hydratproben untereinander zu kombinieren. Der im Zuge dieser Arbeit entwickelte Versuchsreaktor ist so aufgebaut, dass mehrere aus der Literatur bekannte Synthesemethoden, sowohl einzeln wie auch in Kombination untereinander, verwendet werden können. Als zusätzliche und neuartige Synthesemethode ist eine Baugruppe des Aufbaus darauf ausgelegt, das Hydratwachstum ausschließlich aus der Gasphase zu ermöglichen. Der Versuchsaufbau verfügt über mehrere Temperaturfühler und einen Druckaufnehmer, die über ein Datenerfassungssystem eine Steuerung und eine Überwachung des Herstellungsprozesses erlauben. Es wurden neben verschiedenen Inbetriebnahmetests insgesamt drei Versuche zur Ermittlung der Tauglichkeit des Systems zur Hydratsynthese durchgeführt. In jeder dieser drei Versuchsreihen konnten neue Erkenntnisse bezüglich des Wachstumsprozesses von Hydraten gewonnen werden, die auch in der gesichteten Literatur bisher nicht dokumentiert sind. Weiters wurde die neuartige Synthesemethode aus der Gasphase erprobt. Obwohl diese grundsätzlich funktioniert, sind die erreichbaren Produktionsraten prozessbedingt niedrig. Das Ziel, Hydratproben einfach und schnell erzeugen zu können, konnte mit dem entwickelten Versuchsreaktor erreicht werden.
Alterungsvorgänge in einer Lithium-Ionen Akkumulatorzelle beeinflussen deren Eigenschaften und sind daher von besonderen Bedeutung für den Einsatz dieser Technologie. Diese Masterarbeit untersucht mikrostrukturelle Veränderung in zwei zylindrischen Lithium-Ionen Zellen (Type 26650) ohne Zentrierstift, die in Powerbanks verbaut sind. An den beiden Akkumulatoren, mit unterschiedlichen Alterungszustands, wird vergleichend beobachtet welche Unterschiede sich über die Alterung ergeben. Mittels Computertomographie und elektrischen Messungen wurden Daten während der zyklischen Alterung der Zellen gesammelt und ausgewertet. Es konnte gezeigt werden, dass der Verlauf des Kapazitätsverlustes abhängig vom Alterungszustand ist. Insgesamt ergab sich nach 507 Zyklen bei der Powerbank „Neu“ eine Reduzierung der aufgenommenen Energie um 16 % und der abgegebenen Energie um 20 %. Die Powerbank „Alt“ zeigte nach 317 Zyklen eine Reduzierung der aufgenommenen Energie von 19% und der abgegebenen Energie von 27% zum Ausgangswert. Der gemessene Kapazitätsverlust konnte nicht auf mikrostrukturelle Veränderungen während der Alterung zurückgeführt werden. Es zeigten sich besonders in der bereits gealterten Zelle (Powerbank „Alt“) deformierte Elektrodenschichten im Zellinneren und in der Näher der Stromableiter. Hinzukommt bei der Powerbank „Alt“, dass Kathode und Anode gegeneinander verschoben sind. Es konnte ebenfalls in der Powerbank „Alt“ eine neu entstandene Deformierung während der zyklischen Alterung beobachtet werden. Des Weiteren konnten auch Schweißgrate bei beiden Powerbanks auf den Stromableitern visualisiert werden.
Low cost Solar Forecast
(2019)
In der vorliegenden Arbeit wird der Fokus auf die Konzeption eines kostengünstigen Systems zur Vorhersage der solaren Einstrahlung mittels stochastischer Methoden gelegt. Der Vorhersagezeitraum liegt zwischen einer und drei Stunden. Es wird auf die Gefahren der Stochastik und das Aufarbeiten von Daten für stochastische Methoden eingegangen. Bereits die zur Vorhersage verschiedener meteorologischer Daten verwendeten Methoden werden analysiert, angewendet und mittels des relativen Fehlers, dem Root Mean Square Error (Wurzel der mittleren Fehlerquadratsumme) (RMSE) und des Mean Absolute Deviation (MAD) untereinander verglichen. Es werden Kriterien zur Auswahl der zur Aufgabenstellung am besten passenden Methode ausgearbeitet. Die Recherche der vorhandenen stochastischen Methoden und die Anwendung dieser Methoden haben das Artificial Neural Network (künstliches neuronales Netzwerk) (ANN), das mit der Softwarebibliothek Tensorflow erstellt wurde, als die beste Methode hervorgebracht. Die Programmierung der einzelnen Methoden mittels Scikit-learn, Python und Tensorflow wird beschrieben und eine Vorhersage berechnet. Als Hardware wird einerseits ein kostengünstiger Einplatinencomputer, ein Raspberry Pi 3, und andererseits ein leistungsstarkes Notebook verwendet. Die jeweils benötigte Rechenzeit weist keine gravierenden Unterschiede auf. Anschließend wurden die berechneten Vorhersagen mit den vorhandenen Messdaten, der Persistence Method (Persistenz Methode) (PM) und der Vorhersage der Meteo-Schweiz verglichen. Die unterschiedlichen Diagramme der Vorhersagen und deren Genauigkeiten kommen im Verlauf zur Darstellung. Die relative Abweichung der Vorhersage des Artificial Neural Network (künstliches neuronales Netzwerk)(Tensorflow) (ANNT) von den Messdaten liegt über das Jahr 2017 gesehen bei 8.52% oder auf die Jahresenergie bezogen bei 87.3 kWh/m2 . Im Vergleich zur PM Methode weicht die ANNT Methode um 83.5 kWh/m2 und Jahr ab. Abschließend wird auf Verbesserungsmöglichkeiten und weiterführende Arbeiten eingegangen.
Die Gebäudeenergieversorgung mittels kombinierter Erneuerbarer Energiesysteme wird in Zukunft häufiger realisiert werden. Dies liegt unter anderem am Fokus der aktuellen Energiepolitik, an der wachsenden Akzeptanz der Bevölkerung und an einer ständigen Verbesserung der Wohngebäudeeigenschaften. Die volatile Charakteristik des erneuerbaren Energieangebots stellt eine Herausforderung dar. Thermische Lastverschiebung ermöglicht es, durch die Speicherung thermischer Energie, Zeiten mit geringem Energieertrag zu überbrücken. Es werden in dieser Masterarbeit drei Methoden zur Lastverschiebung mittels Simulation einer Referenzwohnanlage mit 31 Wohnungen untersucht. Die Gebäudesimulation wird hierfür mit TRNSYS durchgeführt, die Simulation zum Vergleich der unterschiedlichen Methoden mit Polysun. Die untersuchten Methoden sind die Regeneration des Erdsondenfeldes einer Geothermiewärmepumpe, die Anhebung der Maximaltemperatur sensibler Wärmespeicher, sowie die Anhebung der Raumtemperatur in der Referenzwohnanlage. Die Ergebnisse zeigen, dass die Sondenregeneration eine effektive Methode zur Steigerung der Jahresarbeitszahl (JAZ) der Wärmepumpe und des solaren Deckungsbeitrags darstellt. Die Sondentemperatur kann im Referenzfall zeitweise sogar auf ein höheres Niveau angehoben werden. Durch die zusätzliche Kombination mit einer Erhöhung der Speichermaximaltemperatur, bei hohem solarthermischem Ertrag, kann eine weitere Steigerung der JAZ erreicht werden. Die Solarthermieanlage kann so den größten Temperaturbereich nutzen, was auch die solare Deckungsrate weiter anhebt. Die thermische Gebäudeaktivierung weist das größte Potential für die Steigerung des PV-Eigenverbrauchs auf und verbessert die JAZ der Wärmepumpe durch den vermehrten Betrieb im Niedertemperaturbereich bedeutend; Jedoch wächst der Heizwärmebedarf (HWB) für die untersuchte Referenzwohnanlage aufgrund der Raumtemperaturüberhöhung (RTÜ) dermaßen, dass sie den Benefit der zusätzlich genutzten erneuerbaren Energie übersteigt und diese Methode zur thermischen Lastverschiebung daher nicht empfehlenswert ist. Da die thermische Gebäudeaktivierung in dieser Studie für bestimmte Gebäudeeigenschaften und mittels Fußbodenheizung realisiert ist, wird darauf hingewiesen, dass die Ergebnisse nur bedingt übertragbar sind und bei veränderten Gebäudeeigenschaften stark abweichen können.
Heimische Ladevorgänge von Elektroautos sind ein zusätzlicher Faktor in dem Wandel, dem Verteilnetze ausgesetzt sind. Aufgrund der typischen langen Parkzeiten bietet das Laden von Elektroautos jedoch einen hohen Grad an Flexibilität, mit deren Hilfe die Netzbelastung entscheidend verringert werden kann und weitere Dienstleistungen, auch in höheren Netzebenen, erbracht werden können. Die vorliegende Arbeit bewertet mit dem Instrument der Nutzwertanalyse fünf Ladestrategien, wie die Koordinierung von Ladevorgängen nutzbringend eingesetzt werden kann. Dazu werden im ersten Schritt Kriterien auf Basis der Literaturrecherche sowie der gegebenen Informationsgrundlagen der betrachteten Systeme definiert. Um eine neutralere Bewertung zu ermöglichen, wird die Gewichtung der Kriterien zusätzlich von einem Vertreter eines Verteilernetzbetreibers und einem Energieversorger vorgenommen. Mit den Ergebnissen der Bewertung werden die Systeme hinsichtlich ihres Nutzens unter Berücksichtigung der Bedeutung für die jeweiligen Parteien verglichen. Dabei werden die Stärken und Schwächen der Systeme herausgestellt und mögliche Interessenskonflikte lokalisiert. Ebenfalls wird auf die Eignung der Nutzwertanalyse als Werkzeug zur Bewertung der Systemkonzepte eingegangen. Im Anschluss wird der Grundaufbau eines Systems vorgestellt, welches aufgedecktes Potential zur Weiterentwicklung der bewerteten Systeme nutzt und damit zu einem größeren Gesamtnutzen führen kann.
Die Aktualität des Klimawandels fordert Maßnahmen in privaten und wirtschaftlichen Bereichen. Die Veränderungen des Klimas führen dazu, dass Regelungen und Gesetze für das Energiewesen der Unternehmen entwickelt werden. Die Gesetze verpflichten die Unternehmen für Energie- und Umweltaudits. Viele Unternehmen führen noch zusätzliche Maßnahmen für eine Verbesserung der Energieeffizienz und des Emissionsausstoßes ein. Die Maßnahmen werden immer relevanter.
Die Norm ISO 50001 unterstützt Unternehmen bei der Einführung und bei der Aufrechterhaltung eines Energiemanagementsystems. Das Energiemanagement hilft dabei, die energiebezogene Leistung zu verbessern und einen kontinuierlichen Verbesserungsprozess umzusetzen. Eine weitere freiwillige Möglichkeit ist das Klimaneutralitätsbündnis 2025. Das Bündnis soll den Mitgliedern helfen, den Emissionsausstoß zu verbessern. Die Mitglieder werden über einen definierten Zeitraum von 12 Jahren begleitet, um die Geschäftsprozesse anschließend klimaneutral zu gestalten.
Diese Arbeit beschäftigt sich mit den Anforderungen der Norm ISO 50001 und dem Klimaneutralitätsbündnis. Beides sind freiwillige Instrumente, welche Unternehmen verwenden können, um das eigene Energiewesen zu optimieren und etwas zum Klimaschutz beizutragen. Die Forschung dieser Arbeit beschäftigt sich mit dem Zusammenwirken der beiden Instrumente. Es wird untersucht, ob eine parallele Einführung und Bearbeitung in den Unternehmen möglich ist. Zusätzlich werden die Inhalte und die Anforderungen gegenübergestellt. Mögliche Überschneidungen werden zu Zwecken einer Erleichterung für die Unternehmen überprüft.
Im Zuge dieser Arbeit wird ein Energiemonitoring beim Logistikunternehmen Gebrüder Weiss GmbH eingeführt. Das Unternehmen mit Sitz in Lauterach (Vorarlberg) betreibt weltweit rund 165 Standorte. Die Niederlassung in Lauterach bildet den Versuchsstandort für das Energiemonitoring. Es werden geeignete Partnerunternehmen gesucht, welche ein Energiemonitoringsystem anbieten. Im Zuge der Partnersuche wird ein Pilotprojekt umgesetzt, welches dem Unternehmen erste Einblicke in die Materie bietet. Nach dem erfolgreichen Abschluss des Pilotprojektes folgt die Implementierung des Energiemonitorings. Die einzelnen Schritte und Herausforderungen des Projektes werden dargelegt und die abschließende Umsetzung wird beschrieben. Nach der Einführung in Lauterach folgt die weltweite Ausrollung des Energiemonitorings in allen Standorten.
Erfolgreiche Personalarbeit zeichnet sich durch gute, datenbasierte Kenntnisse und Verknüpfungen über alle Geschäftsbereiche, mit Fokus auf die Menschen im Unternehmen, aus. In vielen Unternehmen werden relevante Personalentscheidungen noch immer aus dem Bauch heraus getroffen, anstatt durch eine fundierte Grundlage von Daten. People Analytics ist einer der wichtigsten Trends im Personalmanagement und dennoch wird es kaum in einer Personalabteilung der DACH-Region eingesetzt. Ziel dieser Masterarbeit ist es, die Chancen und Herausforderungen von People Analytics auszuarbeiten und Einsatzmöglichkeiten für Industrieunternehmen der DACH-Region aufzuzeigen. Dafür werden die theoretischen Grundlagen und Anwendungsprozesse von People Analytics dargelegt und die Herausforderungen und Hindernisse sowie die Möglichkeiten und Chancen ausgearbeitet. Im Rahmen von zwei Experteninterviews mit HR-Spezialisten werden die aktuellen Gegebenheiten der DACH-Region eruiert. Dabei wurde ersichtlich, dass die größten Chancen von People Analytics sowohl in der Literatur als auch den befragten Personen zufolge, in der datenbasierten Entscheidungsfindung, der strategischen Personalentwicklung sowie in der strategischen Personalplanung liegen. Die größten Herausforderungen werden in der Akzeptanz der Mitarbeitenden, der IT-Infrastruktur sowie in der fehlenden analytischen Kompetenz der Mitarbeitenden im Personalbereich gesehen. Einsatzmöglichkeiten, abseits der derzeit bereits ausgewerteten Unternehmenskennzahlen, sind aufgrund der oben genannten Herausforderungen sowie den marginal vorhandenen Daten in den Unternehmen der DACH-Region derzeit keine gegeben.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
Flexibilität, Anpassungsfähigkeit und eine schnelle Reaktionsfähigkeit ist der Anspruch an die Arbeitswelt von heute und wird in Zukunft weiter an Dynamik gewinnen. Durch die Entwicklung agiler Ansätze wurden hierfür Lösungsansätze gefunden. Diese können an die Anforderungen der eigenen Arbeitsumgebung adaptiert werden und unterstützen die Unternehmen dabei, auch bei zukünftigen Veränderungen der Arbeitswelt erfolgreich agieren können. Für eine effektive Nutzung agiler Ansätze ist eine stetige Weiterentwicklung der Kompetenzen der Mitarbeitenden unumgänglich. Klassische Methoden zum Erwerb neuer Kompetenzen hinken dem Wandel hinterher. Der Einsatz agiler Ansätze im Arbeitsalltag erfordert daher agile Kompetenzentwicklungsansätze. Ob agile Ansätze selbst ein Erfolgsfaktor beim Erwerb von Kompetenzen darstellen, wird in dieser Studie behandelt.
Das Teach Pendant wird dazu genutzt um Industrierobotern Zielposen beizubringen, damit diese die Zielposen daraufhin autonom anfahren können. Durch den auf dem Teach Pendant zur Eingabe verbauten Joystick oder die 3D-Maus ist es möglich mit geringem Rechenaufwand Bewegungen und somit Zielposen präzise vorzugeben.
Durch den rasanten Anstieg der Rechenkapazität und den stetigen Erfolgen bei der Erforschung von künstlichen neuronalen Netzwerken sind heutzutage Gestenerkennungssysteme in das Blickfeld der Forschung gelangt. Gestenerkennungssysteme versprechen intuitive und leicht zu erlernende Bedienungskonzepte. Durch den Einsatz von Gesten kann zudem auf ein zusätzliches Gerät in den Händen verzichtet werden, wodurch das Nutzererlebnis gesteigert werden kann. Dies kann bei schweren Eingabgeräten nicht nur die Arme sondern auch die Hände vor Ermüdungserscheinungen schonen.
Das Ziel dieser Arbeit soll es daher darstellen, ein Gestenerkennungssystem mit und ohne ROS-Anbindung zu erstellen, testen und analysieren. Die Gesteninformationen werden von einer Tiefenkamera vom Typ Azure Kinect bereitgestellt. Als Industrieroboter wird hierbei der "WidowX 200"-Lernroboter eingesetzt, da dieser aufgrund seiner kleinen Bauform einfach und effizient zum Testen von neuen Funktionalitäten eingesetzt werden kann. Die Tiefenkamera- und Roboter-Komponente sollen austauschbar bleiben. Die zu entwickelnden Gesten sollen vor allem hohe Ergonomie bereitstellen und vor unbeabsichtigter Durchführung gesichert sein. Die Genauigkeit der Gestenerkennung wird analysiert, um die Zuverlässigkeit der ausgewählten Gesten zu evaluieren. Die Genauigkeit der erreichten Zielposen des "WidowX 200"-Lernroboters wird analysiert und Latenztests werden durchgeführt um das Gestensystem als Gesamtes bewerten zu können.
Betriebliche Inklusion
(2020)
Rund 15% der österreichischen Bevölkerung haben eine dauerhafte Behinderung. In Vorarlberg allein leben ca. 5.000 Personen, welche nach dem Behinderteneinstellungsgesetz dem Kreis der begünstigt Behinderten angehörig sind, aber nur 51% dieser sind auch erwerbstätig, so der Stand 2018. Gleichzeitig gab es im Jahr 2018 in Vorarlberg 3.773 zu besetzende Pflichtstellen für begünstigt Behinderte Arbeitnehmende. Tatsächlich besetzt waren von diesen aber nur 52,64%. Es stellt sich somit die Frage, warum fast die Hälfte der zu besetzenden Pflichtstellen nicht besetzt ist, zumal das „Recht auf Arbeit“ als Menschenrecht in der UN-Menschenrechtskonvention verankert ist. Denn die Teilhabe am gesellschaftlichen und beruflichen Leben ist ein wichtiger Punkt für das Selbstwertgefühl eines jeden Menschen. Ziel dieser Masterarbeit ist daher aufzudecken, wie die betriebliche Inklusion in mittelständischen und großen Industrieunternehmen, sowie dem öffentlichen Sektor in Vorarlberg gehandhabt wird und welche Einflussfaktoren auf die Handhabung einwirken. Näher betrachtet werden diesbezüglich die Unterschiede in der Handhabung zwischen den privaten und den öffentlichen Einrichtungen sowie die internen und externen Faktoren, welche die Handhabung beeinflussen. Darüber hinaus soll in Erfahrung gebracht werden, welche Maßnahmen die Vorarlberger Unternehmen bereits ergreifen und wo Verbesserungsbedarf besteht. Um die Forschungsfrage zu beantworten wird im Anschluss an die Literaturrecherche ein Methodenmix aus qualitativen Experteninterviews und einer quantitativen Onlineumfrage eingesetzt. Die Ergebnisse aus den zwei Untersuchungen werden im weiteren Verlauf ausgewertet, kritisch reflektiert und in einem Fazit zusammengefasst. Betrachtet man die Forschungsfrage und die Ergebnisse der Untersuchung, so lässt sich zusammenfassen, das Vorarlberg bereits auf einem guten Stand der betrieblichen Inklusion ist. Die Entwicklung der letzten Jahre zeigt einen Paradigmenwandel, durch welchen sich das Bild vom „Armen Behinderten“ hin zur Selbstbestimmung und Chancengleichheit wandelt. Dieser ist noch nicht vollständig abgeschlossen, weswegen weiter in die Sensibilisierung und Aufklärung der Gesellschaft investiert werden muss, um Vorurteile und Unsicherheiten in Bezug auf Rechte und Pflichten abzubauen. Als externe Faktoren werden der rechtliche Rahmen, die Digitalisierung, sowie die Sichtbarkeit betrieblicher Inklusion und der Diversität von Behinderungen in der Gesellschaft genannt. Einfluss auf die Handhabung hat zudem die Vielfalt an Arten von Beeinträchtigungen, da die zu ergreifenden Maßnahmen auf diese abgestimmt werden müssen. Interne Faktoren stellen die Barrierefreiheit, sowie die persönlichen Haltungen und die Beweggründe der Unternehmer und ihren Mitarbeitenden dar. Abschließend lässt sich feststellen, dass betriebliche Inklusion dann gelingen kann, wenn jede Person unabhängig davon, ob sie eine Beeinträchtigung hat, oder nicht, als Individuum mit individuellen Stärken, Schwächen, Charakterzügen und Eigenschaften verstanden wird. Aufbauend auf diesem Menschenbild gilt es für jede Person auf Grund ihrer individuellen Eigenschaften die passende berufliche Tätigkeit zu finden.
Auswirkungen der DSGVO auf das Vertriebscontrolling eines Software-as-a-Service Geschäftsmodells
(2020)
Diese Arbeit untersucht die Auswirkungen eines SaaS Geschäftsmodells auf das Vertriebscontrolling. Dazu werden mittels Literatur die Kennzahlen und Instrumente des klassischen Vertriebscontrollings besprochen. Ein SaaS Geschäftsmodell hat spezifische Charakteristika, Herausforderungen und Erfolgsfaktoren, welche im Anschluss eingeführt werden. Diese beeinflussen das Vertriebscontrolling eines SaaS Geschäftsmodells. Die DSGVO schränkt das Vertriebscontrolling dabei, in der Nutzung von personenbezogenen Daten, ein. Diese Arbeit zeigt, dass die Grundelemente des Vertriebscontrollings bestehen bleiben, jedoch andere Kennzahlen verwendet werden müssen. Zusätzlich kommen neue Aufgaben auf das Vertriebscontrolling zu. Abschließend werden Handlungsempfehlungen für das Vertriebscontrolling eines SaaS Geschäftsmodells entwickelt. Mittels einer systematischen Literaturrecherche werden diese Handlungsempfehlungen bestätigt.
Die Psychologie beschreibt Lernen als dauerhafte Veränderung des individuellen Wesens oder Verhaltens, basierend auf Erfahrungen. Multimediale Lernmethoden ermöglichen hierbei, den Prozess in der betrieblichen Weiterbildung zu unterstützen und zu optimieren, um den steigenden Anforderungen, gerade im Bereich der Fachkräfteentwicklung, standhalten zu können. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen der Personalentwicklung, mit Fokus auf der betrieblichen Weiterbildung, sowie des Lernens umfassend erläutert. Im zweiten Teil werden die Ergebnisse einer qualitativen Forschung anhand drei verschiedener Perspektiven über die Lernmethoden E-Learning, Präsenztraining und Blended Learning in fünf Vorarlberger Industrieunternehmen präsentiert. Eine Schlussbetrachtung mit dem Ergebnis der Forschungsfrage sowie einem Ausblick für mögliche weiterführende Forschungsansätze runden die Arbeit ab. Ziel dieser Masterarbeit ist die praxisorientierte Anwendbarkeit der Erkenntnisse für Vorarlberger Industriebetriebe in Bezug auf die interne Weiterbildung, insbesondere bei der Entwicklung von Fachkräften.
Diese Arbeit resultiert in einem Leitfaden, der zur verbesserten Wirksamkeit von Lernmaßnahmen in Organisationen beitragen soll. Inbesondere die Verkürzung der Halbwertszeit von Wissen gab Anlass zur vorliegenden Untersuchung. In den Kapiteln zwei und drei wurde das theoretische Fundament durch Bearbeitung der Themen Personal-/Kompetenzentwicklung, allgemeine und individuelle Lerntheorie, sowie Lernbedarfsanalyse, Lerntransfer und Lernevaluation gebildet. Darauf aufbauend wurde mit der Methodik (Kapitel 4) der Experteninterviews der aktuelle Stand definierter Organisationen im Raum Ostschweiz, Westösterreich und Liechtenstein hinsichtlich Lernbedarfsanalyse, Lerntransfer und Lernevaluation erhoben. Diese Ergebnisse wurden in Kapitel 5 mit der Literaturstudie aus Kapitel 2 und 3 verglichen. Der Leitfaden besteht für Lernbedarfsanalyse, Lerntransfer und Lernevaluation aus unterschiedlichen Schritten, die in Tabellenformat dargestellt und beschrieben sind (Kapitel 6). In Kapitel 7 wurden, neben einer Zusammenfassung und einem Fazit, weiterführende Forschungsansätze zur Thematik angeführt.
Veränderungen im gesellschaftlichen Wertesystem, das Vordringen kommerzieller Privatwirtschaft in Bereiche, die über lange Zeit von Non-Profit-Organisationen abgedeckt worden sind, und die Finanzkrise der öffentlichen Haushalte gelten als große Ursachen für die vielfältige und kontroversielle Diskussion der Social Impact-Orientierung im deutschsprachigen Raum. Diese Arbeit konzentriert sich auf die Frage, wie sich Social Impact-Orientierung auf Instrumente der Unternehmenssteuerung auswirkt. Dazu wird ein Theorieüberblick über gesellschaftliche Wirkungsanalyse erarbeitet und ausgewählte Instrumente der Unternehmenssteuerung vorgestellt. Daraufhin werden fünf Hypothesen gebildet, die in einer Einzelfallstudie anhand eines jungen Sozialunternehmens in Österreich überprüft werden. In diesem Praxisteil ist ein Vergleich hinsichtlich der Impact-Orientierung im untersuchten Sozialunternehmen zu jener, die in der Literatur dargestellt wird, zentral. Weiters wird die Frage untersucht, wie die in der Literatur angegebenen Managementinstrumente für Wirkungsorientierung in diesem Unternehmen angewendet werden und zu welchen Ergebnissen diese führen. Schließlich wird erforscht, ob Wirkungsziele und passende Managementinstrumente einen Beitrag zur Lösung des angenommenen Zielkonfliktes zwischen gesellschaftlichen und ökonomischen Zielen beitragen können. Die Ergebnisse und Erkenntnisse der Einzelfallstudie werden abschließend im Gespräch mit einer übergeordneten Einrichtung einer ersten Verifikation unterzogen. Diese Arbeit kommt zum Schluss, dass Impact-Orientierung eine sehr langfristige Ausrichtung der Unternehmenssteuerung bedarf. Die Impact-Ziele und Indikatoren müssen sich in den gewählten Instrumenten wiederfinden. Nur dadurch ist sichergestellt, dass Unternehmenssteuerung und Impact-Orientierung stringent zusammenwirken. Bei aller Unsicherheit zum WIE der Umsetzung, hat die Impact-Orientierung zentrale Auswirkungen auf die Unternehmenssteuerung.
Cultural Due Diligence
(2020)
Much research has been conducted in recent years to discover the reasons for the high failure rate of M&As, whereas one frequently cited reason is the incompatibility of the corporate cultures. In order to minimize this risk and to be able to react to these differences already at an early stage, Cultural Due Diligence offers itself as part of the due diligence process. Unlike existing, more general research, I emphasize the cultural challenges companies face when investing transnationally with this thesis. Using the results of a single case study with inductive character, I answer the question how to conduct Cultural Due Diligence in cross-border M&As and propose an appropriate model. The findings reveal that especially in cross-border M&As, cultural incompatibility poses a risk for failure. I was able to find out that companies that seek to grow internationally with M&As deal with similar issues in terms of corporate culture as pointed out in existing Cultural Due Diligence methods. The present study, however, shows that national culture has a great influence on corporate culture, which is why it is essential to include it in the cultural assessment in cross-border acquisitions. This provides information about why there are differences, besides the fact that they exist. Only this understanding puts a company in the appropriate starting position to recognize differences, understand them, assess whether these differ-ences are acceptable, as well as to develop appropriate strategies to address them in the integration phase.
In einer Zeit, in der Daten eine immer größere Rolle spielen, nehmen Schlagwörter wie Big Data, Data Analytics oder Data Mining auch in Organisationen eine große Rolle ein. Daten werden zum neuen digitalen Öl, das durch alle Systeme der Unternehmen und externe Quellen fließt. Richtig eingesetzt, unterstützen sie bei der Strategiefindung, bei der Umsetzung neuer Geschäftsmodelle, beim Gestalten neuer Abläufe und Prozesse und insbesondere bei der Entscheidungsfindung.
Die vorliegende Arbeit beschäftigt sich mit den Themen Daten und Unternehmenssystemen. Von diesen Themen ausgehend wird versucht, eine Brücke zu den Themenfeldern Prozessmanagement und Prozessinnovation zu schlagen. Die Arbeit soll aufzeigen, welche strategischen und operativen Ansätze die Nutzung von Daten als Treiber für Prozessinnovation zulassen. Aufbauend auf einer theoretischen Einordnung der vier skizzierten Gebiete, bildet ein empirischer Teil das Herzstück dieser Arbeit. In diesem Teil werden Aussagen von ExpertInnen darüber zusammengetragen, welche Ansätze zur datengetriebenen Prozessinnovation sie in ihren jeweiligen Unternehmen anwenden. Diese Aufarbeitung ist gegliedert in die drei Ebenen Rahmenbedingungen, Faktoren und Ansätze. Abgeschlossen wird diese Arbeit durch konkrete Handlungsempfehlungen für Unternehmen.
This master thesis investigates a Computational Intelligence-based method for solving PDEs. The proposed strategy formulates the residual of a PDE as a fitness function. The solution is approximated by a finite sum of Gauss kernels. An appropriate optimisation technique, in this case JADE, is deployed that searches for the best fitting parameters for these kernels. This field is fairly young, a comprehensive literature research reveals several past papers that investigate similar techniques.
To evaluate the performance of the solver, a comprehensive testbed is defined. It consists of 11 different Poisson equations. The solving time, the memory consumption and the approximation quality are compared to the state of the art open-source Finite Element solver NGSolve. The first experiment tests a serial JADE. The results are not as good as comparable work in the literature. Further, a strange behaviour is observed, where the fitness and the quality do not match. The second experiment implements a parallel JADE, which allows to make use of parallel hardware. This significantly speeds up the solving time. The third experiment implements a parallel JADE with adaptive kernels. It starts with one kernel and introduce more kernels along the solving process. A significant improvement is observed on one PDE, that is purposely built to be solvable. On all other testbed PDEs the quality-difference is not conclusive. The last experiment investigates the discrepancy between the fitness and the quality. Therefore, a new kernel is defined. This kernel inherits all features of the Gauss kernel and extends it with a sine function. As a result, the observed inconsistency between fitness and quality is mitigated.
The thesis closes with a proposal for further investigations. The concepts here should be reconsidered by using better performing optimisation algorithms from the literature, like CMA-ES. Beyond that, an adaptive scheme for the collocation points could be tested. Finally, the fitness function should be further examined.
Companies develop and implement strategies with the aim to address the needs of their customers. Acquisition is one market expansion strategy that companies can use to acquire new market access, technologies and/or to grow organically. In recent years, Chinese companies have been active in acquiring companies all over the globe to develop their strategic position. This caused certain contra reaction in Europe and as well in the Swiss media against cross-border acquisitions of Swiss companies.
Swiss companies and particularly the Swiss-MEM (Machinery, Electrical and Mechanical) industry is highly export oriented and their value proposition builds on attributes like knowledge, technology, and differentiating products. Among them are many “hidden champions” and niche players who successfully dominate the market segment.
As observed with Chinese companies, Indian companies also started to become more active outside of their domestic markets by increasing their foreign direct investments into Europe, Asia and North America, over the last decades. The lasting and good relationship of India and Switzerland might trigger the wish for Indian companies to acquire Swiss and particularly Swiss-MEM companies for acquisitions.
This Master’s Thesis assesses how often Indian investments into public and privately owned Swiss-MEM companies by acquisition happen, how are the attempts of acquisitions perceived by the stakeholders and what measures Swiss and Swiss-MEM companies can take, to protect themselves from being acquired. To access the research topic, several sub-questions will be analysed with the aid of primary and secondary research to assess the situation.
The research topic is of particular interested to the author since he spent over 20 years working in the Swiss-MEM industry, involved in international affairs and in recent years specifically with India. The observation of Chinese acquisition activities and insight into the size and potential of India were the drivers for researching whether India might follow China’s example.
In conclusion, Indian companies are not explicitly targeting Swiss and Swiss-MEM companies, but there are reasons to believe that it would make sense for Indian companies to look into the acquisition of Swiss and Swiss-MEM companies. The perception of such acquisitions varies, but there are arguments for and against them. Companies must take strategic and organisational measures in order to prevent themselves from becoming the target of an acquisition. However, it is known that the state should not interfere in the market and a discussion at a political level, planning how to deal with cross-border acquisition, is needed.
Further areas for research based on this Master’s Thesis could be the review of how the targeting of Swiss and Swiss-MEM companies by Indian companies would look, and also the topic of the succession planning in Swiss secondary sector in conjunction with Indian targeting for acquisitions. A third area to research might be investigating the political aspects involved in the research questions.
Many test drives are carried out in the automotive environment. During these test drives many signals are recorded. The task of the test engineers is to find certain patterns (e.g. an emergency stop) in these long time series. Finding these interesting patterns is currently done with rule based processing. This procedure is very time consuming and requires a test engineer with expertise. In this thesis it is examined if the emerging field of machine learning can be used to support the engineers in this task. Active Learning, a subarea of machine learning, is used to train a classifier during the labeling process. Thereby it proposes similar windows to the already labeled ones. This saves the annotator time for searching or formulating rules for the problem. A data generator is worked out to replace the missing labeled data for tests. The custom performance measure “proportion of seen samples” is developed to make the success measurable. A modular software architecture is designed. With that, several combinations of Time Series Classification algorithms and query strategies are compared on artificial data. The results are verified on real datasets, which are open source available. The best performing, but computational intensive solution is an adapted RandOm Convolutional KErnel Transform (ROCKET). The custom query strategy “certainty sampling” shows the best results for highly imbalanced datasets.
The purpose of this work is to explore implicit schemes underlying the market segmentation analysis process. Boosting transparency for and in the new discipline of healthcare marketing, the work offers a toolbox of both primary and secondary methods to identify the accurate target market. This is crucial, since resource allocation in B2C segmentation and targeting is still often misleading. An Austrian, internationally present niche player serves as a research object to turn theoretical insights into practical verification. Data for the thesis are collected through company-internal data analysis and desk research, grounded in a multi-method approach with primary and secondary research. On the one hand, the work assesses the most effective segmentation and attractiveness/knock-out criteria according to scientific sources. Delving into the topic of a priori and a posteriori segmentation, an overview of suitable techniques is going to be offered. On the other hand, the thesis illustrates how the accurate target segment in the healthcare industry can be evaluated and determined through companyinternal consumer and market data.
Primary research on demographics (age, gender), psychographics (preferred channels), behavioral criteria (new/existing, CLC) and product categories is found to be particularly meaningful for the healthcare player. Results vary between countries, which is why an international-marketing strategy instead of a domestic-marketing approach is advisable.
Secondary research shows that socio-demographic and behavioral criteria are most used as a priori criteria, whereas a posteriori segmentation is promising to reveal psychographic clusters. One of the author’s recommendations is to niche down accurate market segments such as LOHAS or “best agers” by refining psychographics/socio-demographics with behavioral segmentation through “occasions” (e.g. back pain, depression, injuries). Novel approaches such as outcome-based segmentation or emphasizing “promoters” are discussed too.
The findings pave marketing managers the way for identifying the accurate target segments in the B2C health industry, selecting accurate methods grounded in profound scientific research and with concepts suitable for SMEs. The thesis proves that marketing segmentation is no longer a “nice-to-have” but a “must” in the health(care) industry.
In vielen Ländern gibt es eine stetige Verschiebung von Bargeld zu Kartenzahlung. Dieser Umstand könnte darauf hinweisen, dass Bargeld irgendwann verschwinden wird. Der Bargeldumlauf ist in den meisten Ländern, einschließlich Österreich, jedoch seit Jahrzehnten stabil oder stark gestiegen. Im Gegensatz dazu gilt Schweden als eine Vorreiternation auf dem Weg in die bargeldlose Gesellschaft. In der vorliegenden Masterthesis werden die Unterschiede zwischen Österreich und Schweden erläutert, indem die Zahlungsmärkte als auch das Potenzial der Länder aufgezeigt werden. Weiters werden die möglichen Einflüsse wie Bargeldversorgung, Technologie und Infrastruktur, Regulierungen und das unterschiedliche Zahlungsverhalten und die Mentalität der Konsumenten untersucht. Daraus werden dann Schlussfolgerungen gezogen, wohin sich die verschiedenen Zahlungsmärkte in Zukunft bewegen werden. Die Daten basieren auf Sekundärdaten, die aus Büchern, Zeitschriften, verschiedenen Forschungsarbeiten und Onlinequellen stammen. Egal, welchen Standpunkt Sie in Bezug auf die Zukunft des Bargeldes einnehmen, soll diese Masterthesis einen besseren Einblick über die Transformation unserer Volkswirtschaft und den Mechanismus von unbaren Zahlungen geben.
Throughout history, a variety of influences have changed the way we sell our products. Starting with the Industrial Revolution up to the first saturation phase in the 1970s. The question now arises as to whether the heating industry is currently back on an evolutionary development path with the increasing digitalisation of distribution. How the sales process in the B2B sector will change with increasing digitalisation and what effects this will have on sales personnel is only documented by a few sources which do not allow any conclusions to be drawn about the craft or even the heating industry. This results in a research gap which is to be closed in the context of this thesis. The aim of this research project is to find out the effects of a further digitalisation of the sales process on the sales force in the defined environment of the heating industry in Central Europe. For this purpose the following research questions are asked: Which steps in the sales process in the heating industry in Central Europe should be digitalised? How will the digitalisation of the sales process affect the sales force in the heating industry in Central Europe? A case study, according to Yin was chosen as the research method. The data were collected by means of in-depth interviews and analysed qualitatively, according to Mayring. The increasing digitalisation will have a large effect on the sales force, tasks will disappear, new tasks will be added and new ones will replace conventional working methods. In summary, automation will simply make tasks superfluous, software tools will improve quality and increase efficiency, and personal selling will become a premium skill. Companies will try to automate as many backoffice activities as possible and reduce the number of office staff if necessary.
The present research had compared how Uppsala and Bartlett & Ghoshal (B&G) models explain the internationalization process of the Brazilian pulp producer Fibria.
The Uppsala model describes the developments of capabilities that enable the firm to move towards higher commitments abroad. Despite its sine-qua-non dependence on foreign markets, it is unlikely that Fibria will internationalize its production to another country, given the country-specific advantages that the company has in Brazil. Nevertheless, Fibria set its structure abroad even when the direct exports would suffice to reach the markets without any foreign direct investment.
B&G deals with the aspects of the organizational structure and described the Transnational type as the evolution of the international firm. In their typology, Fibria was a Global and Ethnocentric type, but interestingly, elements of Transnational and Geocentric models were also observed in the company.
Both theories overlap or complement each other in many aspects. However, they could not explain the peculiarities of the internationalization of Fibria. One reason is the lack of country-related elements in these models.
Eventually, comparisons between theories such as those presented enable decision-makers to align the corporate strategy using suitable models, bearing in mind the limitations that each method entails.
Nowadays, the area of customer management strives for omni-channel and state-of-the-art CRM concepts including Artificial Intelligence and the approach of Customer Experience. As a result, modern CRM solutions are essential tools for supporting customer processes in Marketing, Sales and Service. AI-driven CRM accelerates sales cycles, improves lead generation and qualification, and enables highly personalized marketing. The focus of this thesis is to present the basics of Customer Relationship Management, to show the latest Gartner insights about CRM and CX, and to demonstrate an AI Business Framework, which introduces AI use cases that are used as a basis for the expert interviews conducted in an international B2B company. AI will transform CX through a better understanding of customer behavior. The following research questions are answered in this thesis: In which AI use cases can Sales and CRM be improved? How can Customer Experience be improved with AI-driven CRM?
Sustainable distribution
(2020)
This master thesis gives an insight into the topic of sustainability in the banking industry and focuses on distribution. In the first part of the thesis, the terms and concepts of sustainability and sustainable distribution are being explained and existing methods for measuring sustainability are presented on the basis of an extensive literature research.
Subsequently, the banking industry is introduced, the distribution of financial services is explained, and the specifics of sustainable distribution in the banking industry are elaborated.
An empirical study in form of expert interviews was used to show to what extent sustainability currently plays or will play a role in the banking sector. For this purpose, experts from six banks were interviewed.
In the final part of the paper, the hypotheses formulated at the beginning of the paper as well as additional questions are examined or answered and a model for evaluating the effects of selected distribution channels on ecological and social sustainability is being presented.
Mit dem entwickelten, gemischt-ganzzahligen linearen Optimierungsmodell wird ein grosser Beitrag geleistet, das die wichtigen Betriebskennzahlen einer PV-Speicheranlage, wie der Eigenverbrauchsanteil um bis zu 89 % und der Autarkiegrad um bis zu 73 % durch eine variable Grenzkostenoptimierung bei zusätzlicher E-Auto Berücksichtigung gesteigert werden können. Der Eigenverbrauch der PV-Erzeugung wird durch den stationären Batteriespeicher auf 71 % mehr als verdoppelt. Das beispielhafte Szenario hat einen Haushaltsverbrauch von 5 MWh pro Jahr und besteht aus einer 5 kWp PV-Anlage, mit einem 5 kWh Batteriespeicher und dem Tesla Model 3 mit einer Jahresfahrleistung von 16778 km.
Das erstellte Softwareprogramm kann einfach auf weitere verschiedene Anlagenkonstellationen und mit eigenen Eingangszeitreihenprofile der Haushaltslast, der PV-Erzeugung und der E-Auto Nutzung parametriert werden. Neben der Kennzahlenberechnung des konkreten Szenarios wird der jeweilige Einfluss einer Anlagenkomponente, wie PV, Batterie und Last bei deren Variation, auf die Kennzahlen grafisch gut sichtbar dargestellt.
Die Ergebnisse bestätigen bisherige Arbeiten, dass die Dimensionierung der Anlagenkomponenten nach der einfachen Faust-Formel 1:1:1 erfolgen soll: Der stationäre Batteriespeicher und die PV-Anlage sollen gleich gross sein und ihre Grösse in kWh soll der Jahreslast in MWh entsprechen. Damit wird nahezu schon ein gutes Optimum von Eigenverbrauch, Eigenverbrauchsanteil und Autarkiegrad bei minimalen Energiekosten gefunden und die Netzbelastung durch Bezug und Einspeisung kann reduziert werden.
Graphite substrates underwent two methods of creating doped silicon carbide films via carbothermal reduction; the first method being liquid-phase processing, or dip-coating, and the second gas-phase processing, otherwise referred to as the solid-vapour reaction. The dip-coating procedure resulted in flaky coatings, while the solid-vapour reaction resulted in polycrystalline films with columnar growth that displayed promising morphological and electrical properties. The films were tested on their performance as semiconductor diodes, and proved that carbothermal reduction in the gas phase is a promising technique for creating polycrystalline silicon carbide films for the application of light-emitting diodes.
Eindimensionales Siliziumkarbid-Faserwachstum ohne Katalysator über karbothermische Reduktion
(2020)
In dieser Arbeit werden eindimensionale Siliziumkarbid-Fasern über die karbothermische Reduktion von stickstoffdotiertem Siliziumoxykarbid-Glas, welches über einen Sol-Gel-Prozess synthetisiert wurde, hergestellt. Als Wachstumssubstrat für die Fasern werden drei Arten von Kohlenstofffasern verwendet, die entweder in Sol eingelegt sind oder erst bei der karbothermischen Reduktion mit dem Precursor im Graphittiegel eingelegt werden. Es werden vier Formen von eindimensionalem Siliziumkarbid produziert, bei denen Durchmesser und Länge von <100 nm bis zu mehreren µm variieren. Die Charakterisierung der synthetisierten Fasern erfolgt über optische Mikroskopie, Rasterelektronenmikroskopie und Raman-Spektroskopie. Der Einfluss der Druckentwicklung während der karbothermischen Reduktion auf das Faserwachstum wird anhand von Druck-Temperatur-Verläufen ermittelt.
In recent years, much research has been done on medical laser applications inside the human body, as they are minimally invasive and therefore have fewer side effects and are less expensive than conventional therapies. In order to bring the laser light into the human body, a glass fibre with a diffuser is needed. The goal of this master thesis is the characterization and production of fibre optic diffusers that can be used for the three therapeutic applications: photodynamic therapy, laser-induced thermotherapy and endovenous laser therapy. For this purpose the following goals have to be achieved:
- Optimization of the efficiency and homogeneity of internally structured diffusers
- Examine damage thresholds of the diffusers in the tissue using a crash test
- Achieving a better understanding of the decouple mechanism with a simulation
Using an ultra-short pulse laser, modifications could be introduced into the fibre in this way that the radiation profile is homogeneous and the decoupling efficiency is 68.3 %. It was discovered that the radiation profile depends on the wavelength. Attempts have been made to improve the decoupling efficiency by mirroring the distal end of the fibre. The mirror reflects the remaining light back into the fibre, so that it is also decoupled lateral on the modifications. Vapor-deposited aluminum with physical vapor deposition is a promising approach. However, the adhesion of the coating must be improved or the coating must be protected by a mechanical cover, otherwise it will flake off too quickly.
In a crash test, it was shown that the glass fibre diffusers can withstand 20 W laser power for 300 s without visible change. In an ex vivo test, the coagulation zone in the tissue was examined and it was showed that the diffusers radiate radially homogeneously. Using a ray trace simulation, the course of the light rays in the fibre was examined and the correlation of modification width and length with the decoupling efficiency was investigated. It was discovered that there are helical light rays in the fibre, which cannot be decoupled by modifications in the fibre centre.
Although pilot projects are an accepted means of entry into prospects, research on the object of startups selling SaaS and use pilots to enter and to further scale within their prospect’s organization is limited. The reader can expect a collection of key practices of SaaS startups in the field of Decision Support Software. These combine the main sales-oriented elements within pilot projects that are reflected on by Customer Success Management, Change Management as well as cultural dimensions. Explorative interviews, mainly with stakeholders in Decision Support Software startups, were conducted to further gain an understanding of the research object. Results indicate that pilots are strategically used in the sales of such startups to simultaneously deal with their customer’s uncertainties and as a means for the startups to get commitment and increase their value proposition through the additional service that they offer in order to acquire an internal support basis. Customer Success Management as well as Change Management are furthermore advantageous in quickly achieving measurable results that leverage buyers and seller’s justification for further sales.
Zeros can cause many issues in data analysis and dealing with them requires specialized procedures. We differentiate between rounded zeros, structural zeros and missing values. Rounded zeros occur when the true value of a variable is hidden because of a detection limit in whatever mechanism was used to acquire the data. Structural zeros are values which are truly zero, often coming about due to a hidden mechanism separate from the one which generates values greater than 0. Missing values are values that are completely missing for unknown or known reasons. This thesis outlines various methods for dealing with different kinds of zeros in different contexts. Many of these methods are very specific in their ideal usecase. They are separated based on which kind of zero they are intended for and if they are better suited for compositional or for standard data.
For rounded zeros we impute the zeros with an estimated value below the detection limit. The author describes multiplicative replacement, a simple procedure that imputes values at a fixed fraction of the detection limit. As a more advanced technique, the author describes Kaplan Meier smoothing spline replacement, which interpolates a spline on a Kaplan Meier curve and uses the spline below the detection limit to impute values in a more natural distribution. Rounded zeros cannot be imputed with the same techniques that would be used for regular missing values, since there is more information available on the true value of a rounded zero than there would be for a regular missing value.
Structural zeros cannot be imputed since they are a true zero. Imputing them would falsify their values and produce a value where there should be none. Because of this, we apply modelling techniques that can work around structural zeros and incorporate them. For standard data, the zero inflated Poisson model is presented. This model utilizes a mixture of a logistic and a Poisson distribution to accurately model data with a large amount of structural zeros. While the Poisson distribution is only applicable to count data, the zero inflation concept can be applied to different kinds of distributions. For compositional data, the zero adjusted Dirichlet model is introduced. This model mixes Dirichlet distributions for every pattern of zeros found within the data. Non-algorithmic techniques to reduce the amount of structural zeros present are also shown. These techniques being amalgamation, which combines columns with structural zeros into more broad descriptors and classification, which changes columns into categorical values based on a structural zero being present or not.
Missing values are values that are completely missing for various known or unknown reasons. Different imputation techniques are introduced. For standard data, MissForest imputation is introduced, which utilizes a RandomForest regression to impute mixed type missing values. Another imputation technique shown utilizes both a genetic algorithm and a neural network to impute values based on the genetic algorithm minimizing the error of an autoencoder neural network. In the case of compositional data, knn imputation is presented, which utilizes the knn concept also found in knn clustering to impute the values based on the closest samples with a value available.
All of these methods are explained and demonstrated to give readers a guide to finding the suitable methods to use in different scenarios.
The thesis also provides a general guide on dealing with zeros in data, with decision flowcharts and more detailed descriptions for both compositional and standard data being presented. General tips on getting better results when zeros are involved are also given and explained. This general guide was then applied to a dataset to show it in action.
Digitalisation poses great challenges for regional tourism management. However, many organisations are currently undergoing a transformation from a marketing to a destination management organisation (DMO), which is why only a few have managed to adopt new digital approaches and to assert themselves as DMOs within the destination and against ever growing global platforms.
The presented master thesis therefore deals with this issue and aims to pave the way for DMOs to develop and use digital business models themselves.
The objective of the thesis is to develop a systematic process for the development of own DMO business models and to evaluate whether the establishment of a multi-sided platform as the recipe for the success of global platform providers is also suitable for DMOs. For this purpose, an extensive literature research was conducted and semi-structured expert interviews were evaluated. In addition, the Anchor Point Canvas was developed as a supporting framework for the modelling of business models for companies with historically grown structures and constraints.
Menschen in desorganisierten Wohnformen erleben, aufgrund der Normvorstellung von Ordnung, Abwertung und Unverständnis. Dabei entsteht eine desorganisierte Wohnung nicht allein durch Passivität, sondern zeigt sich als innerpsychischen Konflikt nach außen. Die Komplexität des desorganisierten Wohnens umfasst sowohl die Wohnform selbst wie auch die Ursachen und Auswirkungen.
Um bedürfnisgerecht handeln zu können, benötigt es seitens des professionellen Unterstützungssystems eine umfassende Kenntnis des Phänomens. Die Erforschung der Auswirkungen aus der Perspektive der betroffenen Menschen soll Aufschluss darüber geben, wie adäquat interveniert werden kann.
Anhand einer Einzelfallstudie sollen die Diversität und Komplexität dargestellt werden, woraus sich die Flexibilität professioneller Helfer*innen ableiten lässt. Die Grounded Theory und der damit verbundene zirkuläre Prozess ermöglichen es, trotz geringer Erforschung des Phänomens, die erhobenen Daten zu erfassen und zu kategorisieren.
Kultur und Werte sind allgegenwärtig in unseren Leben. Sie prägen uns Menschen nicht nur im persönlichen und privaten Umfeld, sondern sind auch Teil von Gesellschaftsstrukturen und Unternehmen. Das Ziel dieser Masterthesis ist es deshalb, herauszufinden, welchen Zusammenhang es zwischen den Themen Unternehmenskultur und Mitarbeiterbindung gibt und ob die Unternehmenskultur in Familienunternehmen dazu beitragen kann eine höhere Mitarbeiterbindung zu schaffen. Dabei werden eine Vielzahl an Motivationsfaktoren, sowie Werten berücksichtigt, welche in einer quantitativen Forschung Aufschluss darüber geben sollen, was den Mitarbeitenden in Vorarlberger Unternehmen wichtig ist und wie diese die Unternehmenskultur in ihren Betrieben wahrnehmen. Mit Hilfe eines standardisierten Fragebogens konnten 151 Personen mit einem Durchschnittsalter von 34,93 Jahren erreicht werden. Dabei wurde ersichtlich, dass die Faktoren angenehme Arbeitsatmosphäre, Jobsicherheit, Weiterbildung/Entwicklung, Führung und Work-Life-Balance die wichtigsten Motivationsfaktoren darstellen. Im Bereich Werte sind Verlässlichkeit, Ehrlichkeit, Verantwortungsbewusstsein, Respekt und Fairness am wichtigsten. Diese Erkenntnisse konnten unabhängig von der Unternehmensform erlangt werden.
Die vorliegende Arbeit befasst sich mit der Untersuchung von dezentralen Warmwasserbereitungssystemen, wobei der Fokus auf Energieeffizienz liegt. Als Vergleichs- und Referenzobjekt wird das Wohngebäude „KliNaWo“ mit 19 Wohneinheiten am Standort Feldkirch herangezogen, in welchem eine zentrale Warmwasserbereitung realisiert wurde. Als ersten Schritt werden die theoretischen Grundlagen hinsichtlich der zentralen und dezentralen Warmwasserbereitungs-systeme sowie der unterschiedlichen Wärmeerzeuger, Speichertechnologien und Verteilsysteme erarbeitet. Anschließend erfolgt eine Erläuterung der aktuellen Normensituation und den wichtigsten Fakten bezüglich Trinkwasserhygiene.
Des Weiteren wird das Referenzobjekt „KliNaWo“ sowie die verwendeten Messdaten zur Kalibrierung der Simulationsmodelle beschrieben. Im nachfolgenden Kapitel erfolgt eine detaillierte Darstellung der zu untersuchenden Systeme, wobei es sich um das Wohnungssatellitensystem sowohl mit kontinuierlicher Beladung als auch im Ladefensterbetrieb sowie um dezentrale Boiler-Wärmepumpen handelt. Anschließend wird die verwendete Simulationssoftware Polysun erläutert und erklärt wie die Systeme in der Software abgebildet und welche Ersatzmodelle angewendet werden.
Die Nutzenergie in Bezug auf das Warmwasser beträgt bei der zentralen Variante 20.584 kWh und ist bei allen dezentralen Systemen mit 20.142 kWh etwas geringer, da die Verteilverluste der Warmwasser-Einzelleitungen aufgrund des niedrigeren Temperaturniveaus geringer ausfallen. Da die rückgewinnbaren Wärmeverluste berücksichtigt werden, ergeben sich auch für den Heizwärmebedarf in Abhängigkeit der Variante unterschiedliche Werte im Bereich von 54.322 kWh bis 58.104 kWh. Als Vergleichsgröße wird der gesamte Stromverbrauch der Wärmepumpen inklusive der Förderpumpen herangezogen, welcher für die Deckung des Heizwärmebedarfs, der Verluste sowie des Energiebedarfs bezüglich Warmwasser notwendig ist.
Aus dem Vergleich der Varianten ergibt sich, dass der Stromverbrauch des zentralen Systems mit 14.109 kWh am geringsten ausfällt und das Wohnungssatellitensystem im Ladefensterbetrieb mit einem Strombedarf von 14.441 kWh nur wenig darüber liegt. Beim Wohnungssatellitensystem mit kontinuierlicher Beladung und bei den Boiler-Wärmepumpen-Systemen liegen die Stromverbräuche deutlich höher. Anhand der Simulationsergebnisse kann festgestellt werden, dass die dezentralen Anlagenkonfigurationen unter Berücksichtigung der ÖNROM B 2531 nicht effizienter sind als das zentrale System, wobei das Wohnungssatellitensystem im Ladefensterbetrieb in derselben Größenordnung wie das zentrale System liegt. Allerdings sind beim Wohnungssatellitensystem höhere Investitionskosten gegenüber der zentralen Variante zu erwarten, wodurch das System wirtschaftlich schlechter abschneidet.
Einkauf 4.0
(2020)
Traditionelle Einkaufsprozesse haben viele Fehlerquellen und ungenütztes Potential. Viele Konzepte, die meist im Zusammenhang mit Digitalisierung und Industrie 4.0 stehen, versprechen Optimierungen. Diese Vielfalt führt jedoch in der Praxis zu Unklarheiten, da fraglich ist, was tatsächlich hinter den Konzepten steckt. Insbesondere der sogenannte „Einkauf 4.0“, der mehr als eine Digitalisierung der Beschaffungsprozesse verspricht, wirft viele Fragen auf.
Das Ziel der vorliegenden Forschungsarbeit ist es festzulegen, welche Merkmale dem „Einkauf 4.0“ zugeschrieben werden können und ob sich diese in Praxis wiederfinden. Dazu werden folgende Forschungsfragen gestellt:
1. Welche Merkmale können eindeutig dem Begriff „Einkauf 4.0“ zugeordnet werden, um eine aktuell gültige Umfangsdefinition zu erstellen?
2. Werden die gefundenen Merkmale des Einkauf 4.0 in der Praxis als relevant erachtet und umgesetzt? Falls ja, welche?
Um die erste Forschungsfrage zu beantworten wurden eine qualitative und eine quantitative Inhaltsanalyse durchgeführt. Die Merkmale des Begriff Einkauf 4.0 konnten dadurch eindeutig festlegt und abgrenzt werden. Die zweite Forschungsfrage wurde beantwortet in dem ein Vergleich der gefundenen Merkmale mit der Studie „BME-Barometer Elektronische Beschaffung 2020“ des BME e. V. erfolgte.
Die Auswertung der Inhaltsanalysen zeigt, dass sich Merkmale für den Einkauf 4.0 finden lassen, diese jedoch kritisch zu hinterfragen sind. Der Vergleich der Merkmale mit der Studie des BME e.V., ergibt, dass einige Merkmale in der Praxis wiederzufinden sind; Sie sind jedoch von unterschiedlicher Relevanz. Weiterführende Forschung ausgehend von der hier formulierten Definition würden tiefere Einblicke in das Konzept des Einkauf 4.0 ermöglichen.
Predictive maintenance
(2020)
Das Ziel dieser Arbeit ist es aufzuzeigen, wie Predictive Maintenance in Vorarlberger Unternehmen verbreitet ist und wie sich dies mit dem aktuellen Stand der Forschung deckt. Dazu werden die folgenden Forschungsfragen gestellt: Wie ist der aktuelle Stand der Forschung auf dem Gebiet Predictive Maintenance? Wie deckt sich der Stand der Forschung im Bereich Predictive Maintenance mit der Verbreitung in Vorarlberger Unternehmen? Um die erste Forschungsfrage zu beantworten, wurde eine Literaturrecherche und -analyse durchgeführt. Um die zweite Forschungsfrage zu beantworten, wurden zwölf Interviews mit Vorarlberger Unternehmen durchgeführt. Die Ergebnisse der qualitativen Forschung wurden mit den Erkenntnissen aus der Literatur verglichen. Predictive Maintenance wird in Vorarlberger Unternehmen noch nicht oft angewendet. Die qualitative Forschung hat gezeigt, dass vor allem Engineering-Unternehmen ein Interesse am Einsatz von Predictive Maintenance habe, da sie damit ihre Produkte verbessern und Wartungskosten senken können. Produktionsunternehmen haben ein weniger starkes Interesse an der Umsetzung von Predictive Maintenance.
Die vier Tage Arbeitswoche
(2020)
Das Ziel der vorliegenden Masterarbeit war es, den Nutzen einer 4-Tage-Woche einerseits für Mitarbeiter, aber auch für Unternehmen herauszufinden. Dazu wurde als erstes herausgefunden, welche Auswirkungen die Arbeitszeit auf Mitarbeiter haben kann und inwiefern das immer wichtiger werdende Thema Work-Life-Balance davon betroffen ist.
Als nächster Schritt wurden Erfahrungsberichte von Unternehmen, sowie derer Mitarbeiter analysiert. Derzeit gibt es noch nicht viele Länder und Unternehmen, welche sich für eine 4-Tage-Woche einsetzen, weshalb diejenigen, die eine 4-Tage-Woche befürworten oder eingeführt haben, große mediale Aufmerksamkeit erhalten und regelmäßig interviewt werden.
Daraufhin wurden weitere Arbeitszeitmodelle analysiert, welche als Alternative für den Zweck einer besseren Work-Life-Balance und auch bessere Wettbewerbsfähigkeit für Unternehmen eingesetzt werden können.
Dann folgte die empirische Analyse, wobei Experteninterviews und auch eine quantitative Umfrage in Vorarlberg durchgeführt wurden. Dabei wurden einerseits Kenner der 4-Tage-Woche, aber auch Nicht-Kenner befragt und diese Umfrageergebnisse miteinander verglichen.
Als letzter Schritt wurde Kontakt mit einer bekannten Unternehmensberaterin aufgenommen, welche Spezialistin im Bereich Change-Management und Organisationsentwicklung ist. Somit wurde eine Handlungsempfehlung zur Implementierung einer 4-Tage-Woche ausgearbeitet.
Diese Masterarbeit ist sowohl für Entscheidungsträger im Personalbereich, als auch für all jene Dienstnehmer, welche ihre Work-Life-Balance für wichtig erachten.
Die Bedeutung der betrieblichen Gesundheitsförderung (BGF) ist in den letzten Jahren aufgrund des Wandels der Arbeitswelt durch Technologien, der Globalisierung sowie des demografischen Wandels stark gestiegen. Gesunde und motivierte Mitarbeitende sind essenziell für ein erfolgreiches Unternehmen. Deshalb rückt der Erhalt der Gesundheit der Mitarbeitenden und die Steigerung des Wohlbefindens am Arbeitsplatz für Firmen immer mehr in den Vordergrund. Zahlreiche Betriebe sind somit zunehmend gezwungen, sich mit verschiedenen gesundheitsfördernden Interventionen zu beschäftigen. Die vorliegende Studie beschäftigt sich mit der Frage, welche gesundheitsfördernden Maßnahmen in Vorarlberger Unternehmen und öffentlichen Einrichtungen genutzt werden. Daraus lässt sich ableiten, welche Maßnahmen vorrangig angeboten werden. Die theoretische Grundlage bildet eine Literaturrecherche. Insgesamt wurden 312 Vorarlberger Arbeitnehmende mit einem Durchschnittsalter von 33,79 Jahren mittels einem vollstandardisierten Fragebogen befragt. Als meist genutzte Interventionen stellten sich besonders die verhältnispräventiven Maßnahmen, wie flexible Arbeitszeitmodelle, ergonomische Bürostühle und regelmäßige Pausen, heraus. Der Wunsch nach zusätzlichen verhaltenspräventiven Maßnahmen (prägen den individuellen Lebensstil), wie bspw. gesunde Ernährungsangebote und Obstkörbe, spiegeln sich jedoch in den Ergebnissen wider. Generell lässt sich sagen, dass auch aufgrund der rechtlichen Vorgaben vermehrt Maßnahmen zur gesunden Gestaltung des Arbeitsverhältnisses, also verhältnispräventive Maßnahmen, angeboten und daher auch genutzt werden.
This thesis aims to support the product development process. Therefore, an approach is developed, implemented as a prototype and evaluated, for automated solution space exploration of formally predefined design automation tasks holding the product knowledge of engineers. For this reason, a classification of product development tasks related to the representation of the mathematical model is evaluated based on the parameters defined in this thesis. In a second step, the mathematical model should be solved. A Solver is identified able to handle the given problem class.
Due to the context of this work, System Modelling Language (SysML) is chosen for the product knowledge formalisation. In the next step the given SysML model has to be translated into an object-oriented model. This translation is implemented by extracting information of a ".xml"-file using the XML Metadata Interchanging (XMI) standard. The information contained in the file is structured using the Unified Modelling Language (UML) profile for SysML. Afterwards a mathematical model in MiniZinc language is generated. MiniZinc is a mathematical modelling language interpretable by many different Solvers. The generated mathematical model is classified related to the Variable Type and Linearity of the Constraints and Objective of the generated mathematical model. The output is stored in a ".txt"-file.
To evaluate the functionality of the prototype, time consumption of the different performed procedures is measured. This data shows that models containing Continuous Variables need a longer time to be classified and optimised. Another observation shows that the transformation into an object-oriented model and the translation of this model into a mathematical representation are dependent on the number of SysML model elements. Using MiniZinc resulted in the restriction that models which use non-linear functions and Boolean Expressions cannot be solved. This is because the implementation of non-linear Solvers at MiniZinc is still in the development phase. An investigation of the optimally of the results, provided by the Solvers, was left for further work.
Increasing international competition and accelerated technological change characterize the environment in which companies must maintain and, if possible, expand their competitive advantage. In this context, the new, popular keyword innovation management is often mentioned. Many corporations propagate and use it for marketing purposes. As a result, the companies have to evaluate, develop and launch innovations increasingly faster, which poses great challenges for many and requires a high degree of adaptability.
This master thesis analyzes innovation management (IM) in the automotive industry and in other industries (material manufacturers, service providers, medicine, ...) depending on the number of employees and turnover. In addition, the maturity levels of the IMs and the innovation management systems (IMS) are examined. It also tries to determine which design or "building blocks" are necessary for a successful innovation management. Furthermore, factual and monetary guidelines by the management are evaluated. The thesis also aims to find out how the success of IM is measured. Therefore, guideline-based expert interviews were conducted with responsible people from the innovation departments and then systematically analyzed.
In the literature, expenses for innovations are often wrongly equated with the R&D rate. In this master thesis, it could be shown that this ratio is highest in the automotive industry. However, it does not correlate with the number of employees, turnover, maturity level, success or design of the IM. Furthermore, it could be shown that larger companies have a higher degree of maturity. The reason for this is that more people are usually involved in innovation and that a holistic understanding of innovation is better anchored in large corporations. When designing the IM or the roles of the innovation department, large companies use several different types. While the IM departments in small and medium-sized companies are usually incubators and accelerators, large companies also use corporate venture capital to support start-ups and develop new business models. In this thesis, the success of IM was determined by the number of innovations implemented in customer projects. It was found that, regardless of the size of the company, a higher degree of maturity of the IM and the accelerator role seem to have a positive influence.
Unfortunately, there are rarely concrete goals and targets set by the management although these, along with a holistic understanding of innovation in the company, are without doubt the most important part of a successful innovation management.
Die cloud-basierte Verarbeitung von Datenströmen von IoT-Geräten ist aufgrund hoher Latenzzeiten für zeitkritische Anwendungen nur beschränkt möglich. Fog Computing soll durch Nutzung der Rechen- und Speicherkapazitäten von lokal vorhandenen Geräten eine zeitnahe Datenverarbeitung und somit eine Verringerung der Latenzzeit ermöglichen. In dieser Arbeit werden Anforderungen an ein Fog Computing-Framework erhoben, das die dynamische Zuweisung und Ausführung von Services auf ressourcen-beschränkten Geräten in einem lokalen Netzwerk zur dezentralen Datenverarbeitung ermöglicht. Zudem wird dieses Framework prototypisch für mehrere Transportkanäle, unterschiedliche Betriebssysteme und Plattformen realisiert. Dazu werden die Möglichkeiten der Skriptsprache Lua und des Kommunikationsmechanismus Remote Procedure Call genutzt. Das Resultat ist ein positiver Machbarkeitsnachweis für Fog Computing-Funktionalitäten auf ressourcenbeschränkten Systemen. Zudem werden eine geringere Latenz und eine Reduktion der Netzwerklast ermöglicht.
Die Forschungsfrage dieser Masterarbeit wird beantwortet, indem die Erfolgsfaktoren umsetzbarer Entscheidungen im Projekt herausgearbeitet und mittels Checkliste für die Projektleitung anwendbar werden. Die Checkliste unterstützt, dass das definierte Projektziel unter effizienter Ressourcennutzung erreicht wird, indem das Zustandekommen von Entscheidungen prozesshaft ausgestaltet wird. Die Checkliste baut auf einer managementorientierten Sicht der BWL auf und berücksichtigt die Erkenntnisse des aktuellen Sankt Galler Management-Modells mit seiner Aufgaben- und Praxisperspektive. Durch die Einsicht in die Rhomberg Bahntechnik GmbH soll dem/der Leser/in aufgezeigt werden, welche Rahmenbedingungen und Ziele ein Projekt hat und wie ein Projektmanagement in der Praxis gestaltet werden kann. Die wesentliche Erkenntnis ist, dass komplexe Entscheidungen nur von Menschen getroffen werden können. Die personale Existenzanalyse enthält anwendungsfähige Methoden, mit derer sich die Menschen zu umsetzbaren Entscheidungen führen können. Deshalb wird im Ausblick auf die personale Existenzanalyse kurz eingegangen.
Influencer Marketing has been discussed by various marketing experts for years and is already a fixed component of the marketing strategy in many companies. These are mainly companies from the B2C sector. Recently, more and more companies are asking themselves about possible areas of application within the B2B structure. This phenomenon is influenced by the increase in digitalization and the ever-higher hurdles in reaching target groups using traditional marketing tools.
The topic of this master’s thesis was the result of professional and personal development. Various modules attended during the study inspired a deeper interest in the subject. Furthermore, the topic was always a point of discussion in the professional environment, resulting in the realisation that there is currently very little knowledge in B2B companies regarding Influencer Marketing.
The aim of the research was to discover how to systematically find end users for the use of Influencer Marketing in B2B companies in the tool and hardware industry. Furthermore, the success factors for a long-term cooperation between influencers and companies from this industry will be identified and presented.
Research questions were created in order to realise the above-mentioned objectives. Therefore, the primary research question and three sub-research questions were created for both the theoretical and empirical part of the work. To answer these questions, eight experts from B2B companies in the tool and hardware industry were interviewed. The evaluation was based on the qualitative content analysis according to Mayring.
From the research results, a possible selection procedure could be identified, which would enable companies to systematically select influencers for marketing purposes. Furthermore, success criteria for a long-term cooperation between influencers and companies were also identified.
Die Finanz- und Wirtschaftskrise 2008/09 ist Anlass für die Hinterfragung bestehender Anreizsysteme. Die vorliegende Arbeit untersucht die Beteiligung des Controllings bei der Anreizgestaltung ab diesem Zeitpunkt. Die Methodik ist eine systematische Literaturrecherche und Experteninterviews, die entlang der Gestaltungselemente des Anreizsystems ausgewertet werden. Seit dem Betrachtungszeitraum sind wesentliche Entwicklungen festzustellen von Individual- zu Gruppen-Incentivierung, vom Einsatz monetärer Anreize zu gemischten Anreizen (monetär und immateriell). Letzteres spiegelt sich in den Bemessungsgrundlagen wider, welche finanzielle und nicht-finanzielle Kennzahlen nutzen. Zur Generierung einer nachhaltigen Unternehmensentwicklung werden Long-Term-Incentives forciert. Das Controlling ist bei der Anreizgestaltung, beim Definieren von ‚Bemessungsgrundlagen‘ und ‚Anreizfunktionen‘, stark eingebunden. Die Aufgabenfelder des Controllings sind weit-gefächert: Reporting, Übersetzung von Geschäftszielen in Bemessungsgrundlagen, Wissensvermittlung, der Harmonisierung von Zielen bis zur Steuerungsfunktion bei Entscheidungen. Aus dieser Perspektive betrachtet übernimmt das Controlling zusätzliche Verantwortung und unterstützt das Management bei der Anreizgestaltung, was den Schluss nahelegt, dass eine Rollentransformation des Controllers zum Business Partner stattfindet.
Moving from one country to another, from one cultural context to a different one comes with many challenges and problems. The expatriate adjustment process, in general, has been evaluated extensively in the literature. Little is known if the knowledge in the literature is also valid for the situation of expatriates in rural Vorarlberg. In this paper was examined, which are the most common problems for highly skilled immigrants that are moving to Vorarlberg. In a mixed-method approach, information was gathered with an online questionnaire whose results served as a basis for a series of semi-structured interviews. In addition, an expert talk with a local relocation consultant was conducted. It was found that by far, the most severe difficulty is based on the domestic language situation. An expatriate needs to talk and understand German, but the local language is an Alemannic subsection of the German language that is not easy to understand. Additional difficulties that cause culture shock are limited opening hours, mobility troubles, and several others. The awareness about the composing of these problems might help to find the appropriate measures to support expatriates to come in the future.
Das Ziel dieser Masterarbeit war die Untersuchung der Einflussgrößen Wassertemperatur, Füllstand, Gasleerrohrgeschwindigkeit und Blasengröße auf die Befeuchtung von Luft in einer mit Salzwasser befüllten Blasensäule. Dazu wurde eine umfangreiche Versuchsreihe durchgeführt, um die Auswirkungen zu untersuchen. Großer Wert wurde dabei auf die Reproduzierbarkeit der Ergebnisse gelegt. Es wurde eine große Anzahl Datensätze während den Versuchszeiten geloggt und analysiert. Die Auswertung hat ergeben, dass die Wassertemperatur ein wesentlicher Einflussfaktor auf die Befeuchtung von Luft ist. Die Wassertemperatur zeigt gemäß des Antoine-Gesetzes exponentielle Auswirkungen auf die Kondensatproduktion auf. Hohe Füllstände in der Blasensäule wiesen im Vergleich zu niedrigeren Füllständen eine erhöhte Kondensatproduktion auf. Eine Steigerung der Gasleerrohrgeschwindigkeit in den Versuchen führte zu einer Zunahme der produzierten Kondensatströme. Die in dieser Arbeit untersuchten Spargerplatten der Variation des Lochdurchmessers konnten keine klaren Erkenntnisse auf die Befeuchtung von Luft liefern. Insgesamt sind die Forschungen an der Versuchsanlage noch nicht abgeschlossen und weitere Erkenntnisse zu dieser Thematik sollen in Zukunft gewonnen werden.
Die EU-Ziele umfassen die Steigerung des Anteils an erneuerbaren Energien an der Energieerzeugung um 32 % bis 2030. Doch erneuerbare Energien bringen neben den Vorteilen für den Umweltschutz auch Probleme mit sich. Ihre Schwankungen und Unkontrollierbarkeit stellen große Herausforderungen für das Stromnetz dar. Um die Netz- und damit die Versorgungssicherheit weiterhin gewährleisten zu können, braucht es Lösungen, die weder das Stromnetz, die Verbraucher noch die Energieversorger benachteiligen. Eine Möglichkeit wäre es, zusätzliche Kraftwerke und Infrastruktur (Redundanzen) aufzubauen, welche potenzielle Schwankungen ausgleichen können. Dieser Lösungsansatz gilt als traditioneller Weg, der hohe Kosten und negative Umweltauswirkungen mit sich bringt. Demand Side Management hat das Potenzial, effiziente Lösungen diesbezüglich anzubieten. Welche Vorteile der Einsatz von DSM auf Ebene der Haushaltsverbraucher für die Energieversorger in Bezug auf den Abruf von Ausgleichsenergie bringt, wird in dieser Arbeit behandelt. Dafür wurde ein agentenbasiertes Modell entwickelt, welches darauf abzielt, die Abweichung zwischen dem von dem Energieversorger prognostizierten Verbrauch und dem realen Verbrauch seiner Haushaltskunden zu verringern. Jeder Haushalt in dem vorgestellten Modell ist mit einer Flexibilität in Form eines Batteriespeichers ausgestattet. Die Speicherbewirtschaftung wird basierend auf einem Signal, welches der Energieversorger übermittelt, automatisch vom Haushalt für jeden Tag im Betrachtungszeitraum optimiert. Jede Abweichung zwischen der vom Energieversorger erstellten Prognose und der tatsächlich bezogenen Strommenge stellt dabei einen Bezug von Ausgleichsenergie dar. Untersucht werden die Auswirkungen der Anzahl an Haushalten sowie ein unterschiedlicher Wissensstand auf die Prognose. Weiters werden zwei unterschiedliche Arten von Demand Side Management analysiert. Einmal die Einflussnahme auf die Last der Haushalte durch ein Preissignal, einmal durch das Vorgeben eines Lastgangs. Um die Effektivität der beiden Varianten bestimmen zu können, wird auch die Menge an Ausgleichsenergie erhoben, welche ohne das Vorhandensein eines Batteriespeichers (also ohne Steuerung) anfallen würde. Das Modell wurde entwickelt, um einen Trend aufzuzeigen und keine spezifische Einsparungsmenge zu ermitteln, da dies von der jeweiligen Situation des Energieversorgers abhängt. Die Erstellung der unterschiedlichen Wissensstände basiert auf den österreichischen rechtlichen Vorgaben bezüglich der Datenübertragung bei intelligenten Messgeräten. Dabei ist einmal der Jahresverbrauch, einmal der Tagesverbrauch und einmal die stündlichen Verbrauchswerte bekannt. Das Preissignal ist negativ korreliert zu den am Day-Ahead-Markt gehandelten Mengen und das Lastsignal basiert auf einer der Prognosen des Energieversorgers, je nach Variante, die untersucht wird. Es zeigte sich, dass ein besserer Wissensstand nur teilweise eine Verbesserung der Prognose erzielte. Wobei die unterschiedlichen Wissensstände auf den realen Werten der nicht verwendeten Haushalte aus dem gleichen Datensatz aufbauen und so beispielsweise Wettereinflüsse in der Prognose schon bekannt waren, was die Prognose basierend auf Jahreswerten sehr genau machte. Der Aggregationseffekt von mehreren Haushalten beeinflusst die Prognose positiv. Auf einzelner Haushaltsebene schneiden die Vorhersagen deutlich schlechter ab als bei Prognosen des Gesamtverbrauchs aller Haushalte. Die Optimierung basierend auf dem Lastsignal generiert eine geringere Menge an Ausgleichsenergie als das Preissignal. Das liegt unter anderem daran, dass die Prognose nur die Verbräuche der Haushaltskunden berücksichtigt und nicht die Mengen, die am Markt gehandelt werden. In den untersuchten Varianten stellte sich heraus, dass am wenigsten Ausgleichsenergie über alle Haushalte erzeugt wird, wenn kein Demand Side Management betrieben wird, also keine Batteriespeicher vorhanden sind und die Prognose des Energieversorgers auf Stundenwerten basiert. Auf einzelner Haushaltsebene fällt bei der Optimierung mittels Lastsignal am wenigsten Ausgleichsenergie an.
A novel calorimetric technique for the analysis of gas-releasing endothermic dissociation reactions
(2020)
Die Integration von suchterkrankten Menschen in die soziale Gemeinschaft stellt für die Klinische Soziale Arbeit einer große Herausforderung dar. Sie agiert hier in einem Spannungsfeld zwischen individuellem Verhalten der Klienten_innen und den strukturellen Verhältnissen der Gesellschaft. Auf die Befähigung einer sinnstiftenden und ein daseinsmächtiges Leben ermöglichender Arbeit nachgehen zu können, wird von Martha Nussbaum in ihren Schriften zum Capability Approach sehr deutlich hingewiesen und sie sieht darin einen gewichtigen Faktor der gesellschaftlichen Teilhabe.
In der vorliegenden explorativen Studie wurden vor dem theoretischen Hintergrund des Capability Approach Teilnehmer_innen und Nichtteilnehmer_innen des niederschwelligen, von der Caritas in Vorarlberg betriebenen Arbeitsprojekts „Wald“, hinsichtlich ihrer Lebenszufriedenheit, ihrer Haltung zum Arbeitsprojekt als solchem und nach von ihnen bemerkten Veränderungen in den, den Big Five zuzuordnenden Persönlichkeitsmerkmalen, befragt. Die aus den quantitativen Befragungen gewonnenen Daten wurden in Hinblick auf die Fragestellungen empirisch ausgewertet.
In seiner Konzeption setzt das Arbeitsprojekt, ganz im Sinne der internationalen Definition der Sozialen Arbeit, auf Selbstbestimmung und Partizipation der Teilnehmer_innen. Die Klinische Soziale Arbeit erfüllt in diesem Kontext nicht nur ihren per Definition direkt behandelnden Ansatz in der Unterstützung von schwer erreichbaren Klienten_innen, sondern schafft zusätzlich die Bedingungen, um diesen die benötigten Befähigungsräume bereitzustellen. Die Studie legt nahe, dass sowohl das Schaffen von befähigenden Strukturen als auch der Einsatz von verhaltensorientierten Methoden passende Mittel für die Soziale Arbeit sind, Menschen in ihrer Entwicklung hin zu einem daseinsmächtige Leben zu unterstützen.
Autonome Steuerung für das Demand Side Management von Wärmepumpenboilern mit linearer Optimierung
(2020)
Wärmepumpen, im Speziellen Wärmepumpenboiler, stellen mit ihrer thermischen Speicherkapazität eine gute Möglichkeit für autonome verbraucherseitige Laststeuerung (Autonomes Demand Side Management ADSM) dar. Zudem gewinnt diese Art der Brauchwarmwassererzeugung durch ihren dezentralen Ansatz und das Auskommen ohne fossile Energieträger im privaten Wohnbau immer mehr an Bedeutung. In Kombination mit staatlichen Fördergeldern ist die Anzahl verkaufter Einheiten in den letzten 5 Jahren am deutschen Markt um circa 25 % gestiegen. Obwohl das Lastverschiebungspotenzial von Wärmepumpenboilern unter Anwendung von Optimierungsalgorithmen in der Literatur theoretisch nachgewiesen ist, fehlen Verifikationen unter realen Bedingungen. Diese Arbeit will einerseits das theoretische Potential aufzeigen und andererseits mit dem vorgestellten Laborversuch einen Beitrag dazu liefern, die Verifikationslücke zu schließen. Für die Untersuchung im Labor wird ein handelsüblicher Wärmepumpenboiler bestehend aus einer Luft-Wärmepumpe und einem 300 Liter Warmwasserspeicher mit Sensoren und Aktoren ausgestattet. Insgesamt vier Temperatursensoren befinden sich am Speicherzulauf und -ablauf, sowie nahe der Speichermitte. Für die Aufzeichnung des Volumenstroms wird ein magnetisch-induktiver Messsensor am Speichereingang installiert. Zusätzlich wird mithilfe eines Proportionalventils am Speicherausgang das gewünschte Zapfprofil realisiert. Die Datenakquisition wird durch einen Datenlogger durchgeführt und die Optimierungsroutine auf dem PC implementiert. Die autonome Steuerung basiert auf einer von Day-Ahead-Marktpreisen der Energy Exchange Austria (EXAA) getriebenen linearen Optimierung mit dem Ziel, die Kosten der elektrischen Energie zu minimieren. Das Warmwasserverbrauchsprofil bildet den Verbrauch eines 4- Personen-Haushalts ab. Alle Mess- und Simulationsreihen basieren auf den gleichen Day-Ahead Preisfunktionen und Nutzerprofilen. Zur Verifikation des Lastverschiebungspotentials werden die Kosten pro MWh elektrischer Energie und die Kosten pro MWh thermischer Nutzenergie im Hysteresebetrieb (Normalbetrieb) denen des optimierten Betriebs gegenübergestellt. Durch eine Jahressimulation konnte das theoretische Potential nachgewiesen werden. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von rund 18 %. Die Kosten pro MWh thermischer Nutzenergie konnten durch die Optimierung um rund 19 % gesenkt werden. Die thermische Effizienz konnte somit um rund 1 % gesteigert werden. Der Wärmepumpenboiler wurde insgesamt zwei Wochen betrieben; eine Messreihe davon fand dabei im Normalbetrieb statt. In einer weiteren Messreihe wurde die Wärmepumpe mit der Optimierungsroutine betrieben. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von circa 23 %. Ebenso konnten die Kosten pro MWh thermischer Nutzenergie um 19 % gesenkt werden. Gleichzeitig sank die thermische Effizienz um 6 %.
ÖKOPROFIT ist ein Kooperationsprojekt zwischen den örtlichen Gemeindenund der lokalenWirtschaft.Die Teilnahme ist für die Betriebe freiwillig. Ziel ist die Betriebskostensenkung bei gleichzeitiger Schonung der Ressourcen. In Vorarlberg sind derzeit circa170 Betriebe zertifiziert. Im Rahmen der Rezertifizierung, die jedes Jahr stattfindet, wird von den Betrieben ein Umweltbericht erstellt. Die Berichte werden derzeit in Word verfasst, in eine Cloud geladen und dort von den Auditoren geprüft. Dies ist jedoch nicht mehr zeitgemäß. Im Rahmen des CESBA-AlpsInterreg Alpine Projektes (2016-2019) wurde ein Tool entwickelt, mit dem Ziel Nachhaltigkeit und Energieeffizienz im Alpenraum zu verbessern. In dieser Arbeit wird nun geprüft, inwiefern das bestehende CESBA-Alps-Tool in Wert gesetzt und somit in den Rezertifizierungsprozess von ÖKOPROFIT integriert werden kann. Das Tool wird zunächst so eingerichtet, dass die Betriebe mit ihren dazugehörigenIndikatoren sowie passende Indikatoren-Sets angelegt werden können. Für den Test werden historische Daten bis zum Jahr 2013von zwei Pilot-Clustern (Landeskrankenhäuser und Landesregierungsgebäude) mit unterschiedlichen Indikatoren-Sets eingepflegt. Es wird untersucht, inwiefern die Auswertungen und Exporte für den Rezertifizierungsprozess bereits tauglich sind. Jegliche Auffälligkeiten, Fehler oder Verbesserungsvorschläge werden gesammelt. Es wird klar, dass die Export-Dateien verschlankt und optimiert werden müssen, damit sie ohne Mehraufwand verwertet werdenkönnen. Die wichtigste Handlungsempfehlung ist die automatisierte Berichtlegungsfunktion. Es sollte ein Texteditor in das Tool eingearbeitet werden, in den Unternehmen einzelne Textbausteine einpflegen können, sodass mithilfe des Tools nicht nur das Kennzahlenkapitel des Umweltberichts, sondern alle Kapitel standardisiert erarbeitet werden können. Nur so kann sichergestellt werden, dass das Tool für die Betriebe eine Arbeitserleichterung und somit Zeitersparnis generiert. In einem weiteren Arbeitspaketwurden ähnliche Online-Tools anhand von im Vorhinein ausgewählten und priorisierten Kriterien, die ein optimales Tool erfüllen sollte, mithilfe einer gewichteten Entscheidungsmatrix semiquantitativ verglichen. Hierbei schnitt das in dieser Arbeit getestete Tool selbst ohne die Verbesserungen am besten ab. Es stellt sich heraus, dass es bereits die Hälfte der ausgewählten Kriterien in einer sehr guten Weise erfüllt. Die Kriterien wurden von der ÖKOPROFIT-Programmleitung definiert. Werden die Handlungsempfehlungen in der Zukunft noch umgesetzt, könnte mit dem Tool tatsächlich eine Verbesserung des derzeitigen ÖKOPROFIT-Rezertifizierungsprozesses erwirkt werden.
Diese Arbeit untersucht ARM und DSP Multiprozessor Ein-Chip-Systeme von Analog Devices hinsichtlich deren Programmierung, Fähigkeiten und Limitierungen. Durch die Integrierung von unterschiedlichen Hardware-Beschleunigern und Prozessoren in Ein-Chip-Systeme wird echte Nebenläufigkeit ermöglicht. Allerdings wird durch die Integrierung mehrerer Prozessoren die Komplexität der Programmierung von Ein-Chip-Systemen erhöht. Im Zuge dieser Arbeit wird untersucht, was bei der Programmierung von ARM und DSP Ein-Chip-Systemen hinsichtlich der heterogenen Prozessoren und Peripheriebausteinen beachtet werden muss. Dabei werden zuerst die Gründe für heterogenes Rechnen und die Trendwende zu Multiprozessorsystemen erläutert. Anschließend wird der aktuelle Stand der Technik erarbeitet und Programmiermodelle beschrieben, die das Programmieren von heterogenen Multiprozessorsystemen vereinfachen. Überdies werden zwei Fallbeispiele gewählt, mit denen bedeutsame Eigenheiten der Programmierung eines Ein-Chip-Systems erarbeitet werden. Im ersten Fallbeispiel werden anhand der UART-Peripherie Erkenntnisse des Ein-ChipSystems dargelegt, die praktische Auswirkungen auf die Verwendung des Systems haben. Im zweiten Fallbeispiel wird bei der Berechnung der schnellen Fourier Transformation das heterogene System auf dessen Rechenleistung untersucht. Dabei wird die Performanz des Hardware-Beschleunigers gegenüber unterschiedlichen Software-Bibliotheken verglichen und die verschiedenartigen Implementierungen analysiert. Zudem werden durch die Performanzanalyse die Einflüsse der Speicherhierachie des Ein-Chip-Systems ermittelt. Weiterhin wird gezeigt, dass sich die Bibliotheken von Analog Devices in deren Anwendung und Performanz voneinander unterscheiden. Außerdem wird veranschaulicht, dass je nach Anwendungsfall eine nicht für DSPs ausgelegte quelloffene Implementierung konkurrenzfähig zu den optimierten Bibliotheken von Analog Devices und dem Hardware-Beschleuniger ist. Zudem wird durch die Analyse der Mehraufwand ermittelt, der für die Konfiguration des Hardware-Beschleunigers aufgebracht werden muss. Dabei wird gezeigt, dass die Verwendung des Hardware-Beschleunigers erst ab einer bestimmten Anzahl an Abtastwerten rentabel ist. Abschließend werden die zwei Fallbeispiele für einen Konzeptnachweis verknüpft, der die Möglichkeiten des heterogenen Rechnens veranschaulicht.
Musik im Alltag
(2020)
Musikschülerinnen und Musikschüler finden besonders im Alter von 9 bis 15 Jahren in ihrem Alltag oft keine Zeit, um sich mit ihrem Musikinstrument zu beschäftigen. Dadurch bleibt ihr Spielniveau auf der Stelle und sie verspüren keinen Lernfortschritt, wodurch ihnen langfristig auch die Freude am Musizieren vergeht. Durch den fehlenden Lernfortschritt wiederholt sich auch der wöchentliche Musikunterricht und wirkt auf Dauer eintönig und langweilig. Statistisch gesehen kommt es am häufigsten im Alter von entweder 11 oder 14 Jahren zu einer Abmeldung vom Musikschulunterricht aus Mangel an Zeit und Interesse.
Um den Kindern die Freude am Musizieren zurückzugeben, wurde eine Herangehensweise entwickelt, in der die Kinder ein eigenes Ziel definieren und dieses mithilfe eines Coachinggesprächs in kleinere Aufgaben unterteilen. Ein auditives Benachrichtigungssystem unterstützt die Kinder dabei, im Alltag den passenden Zeitpunkt für diese musikalischen Aufgaben zu finden, damit sie sowohl einen Lernerfolg verspüren als auch Spaß mit dem eigenen Instrument haben.
In dieser Arbeit werden die Anforderungen an ein auditives Benachrichtigungssystem analysiert und der unterschiedliche Einfluss von zeit und kontextbasierten Benachrichtigungen durch Nutzertests eruiert.
The humidification dehumidification (HDH) cycle is a process for thermal water treatment. Many studies were carried out investigating operation of an HDH cycle with water and seawater as working liquid. Currently research into other areas of application is limited. Exchanging the working liquid in the humidifier from seawater to a water oil emulsion and investigating its behavioural changes is the basis for the expansion into applications such as bilge water treatment. This master’s thesis covers analysis of the behaviour of an HDH cycle operated with a water oil emulsion. The main elements are (1) proof of concept for operation of the HDH cycle with a water oil emulsion, (2) comparison of measurements and thermodynamic calculations, (3) investigation of the impact of operating parameters and (4) optical analysis of the bubbly flow in water and oil.
Operation of the HDH cycle using water oil emulsion was shown to be feasible with a small change to the setup previously used for investigations with seawater as working liquid. To keep the emulsion from separating into its individual parts, constant movement of the working liquid needs to be ensured. For this a magnetic stirrer was introduced into the bubble column humidifier (BCH) used. In a batch process an oil concentration of >97 % was reached without visible traces of oil in the produced condensate.
Comparison of the measured and thermodynamically evaluated productivity shows that measured productivity is higher. The proposed explanation for this is supersaturation of air at the BCH exit. Further investigation into this phenomenon is needed to confirm this hypothesis.
Influential parameters investigated are (1) liquid temperature, (2) superficial air velocity and (3) sieve plate orifice diameter. Increase of liquid temperature results in an exponential increase in productivity. At superficial air velocities up to 3 cm/s productivity increases with superficial air velocity. For superficial air velocities higher than 3 cm/s productivity plateaus. At low superficial air velocity, an increase of sieve plate orifice diameter results in increasing productivity. Further increase of the sieve plate orifice diameter inverses this phenomenon.
Bubbly flow in water and oil is influenced by the different viscosities of the liquids. Water creates small bubbles of similar size at low superficial air velocities. At superficial air velocities >2 cm/s turbulences start to increase and finely dispersed bubbles are present in the water. Bubbly flow in oil creates larger bubbles at all superficial air velocities. The airflow transitions to plug flow at velocities of 3 cm/s and above.
Result from this master’s thesis can be used for as a basis to broaden the understanding of the HDH cycle and find new areas of applications.
Integration of an industrial robot manipulator in ROS to enhance its spatial perception capabilities
(2020)
Robots without any external sensors are not capable of sensing their environment, often leading to damaging collisions. These collisions could potentially be avoided if the robot had a way to sense its environment in the first place. This thesis attempts to tackle this problem by equipping such a robot with extra sensor hardware for perceiving environmental objects. The robot used within this thesis is a KUKA LBR iiwa 7 R800. The goal is a robot capable of moving in an unseen environment without colliding with obstacles nearby.
The research covers different sensor options, robots in cramped areas as well as algorithms and simulation topics. Software platforms and libraries used for the implementation are briefly introduced.
Multiple infrared sensors are directly installed onto the robot manipulator. The extra sensors and the robot are integrated into the ROS middleware to create an application capable of sensing the robots’ environment and plan collision-free paths accordingly.
The experiments show, that the low amount of available sensor data can not map the robots’ environment with enough detail. Additional problems, such as sensor noise corrupting parts of the generated map or the robot recognizing itself as an obstacle, lead to a negative result in total. In future work, the choice of sensors shall be reconsidered and tested upfront via simulation software.
People Analytics
(2020)
People Analytics wird derzeit in der Fachliteratur und in zahlreichen Studien als eines der Schlüsselthemen für die Zukunft des Personalmanagement behandelt. Analysen sollen helfen, menschliche Arbeitsleistung quantifizierbar zu machen, damit sie besser in die Wertschöpfungskette integriert werden kann. Die technischen Entwicklungen der letzten Jahre, vor allem im Bereich der Künstlichen Intelligenz, dringen auch in die Personalabteilungen vor und immer mehr Produkte kommen auf den Markt, die auf Basis von bestehenden Datensammlungen teils automatisierte und sogar autonome Auswertungen vornehmen können. Die vorliegende Arbeit gibt einen Überblick auf die technischen, rechtlichen und ethischen Faktoren, die beim Einsatz von People Analytics derzeit diskutiert werden. Darüber hinaus wurde - in einem auf Vorarlberg eingegrenzten Survey - den Fragen nachgegangen, ob die hiesigen Unternehmen bereits People Analytics in ihren Personalmanagementprozessen implementiert haben und welche Vor- und Nachteile sie darin sehen. Als Ergebnis wird der Status Quo zum Einsatz von People Analytics in Vorarlberger Unternehmen präsentiert
Die digitale Transformation stellt Führungskräfte vor neue Aufgaben. Sie sind aufgefordert, einen Lernweg zu beschreiten und nehmen dabei eine Vorbildfunktion ein.
Diese Masterarbeit widmet sich der Fragestellung, welche Kompetenzen Führungskräfte im Zeitalter der digitalen Transformation benötigen und welche Auswirkungen das auf Leadership-Entwicklungsprogramme hat. Nach der theoretischen Bearbeitung der Thematik wurden qualitative Interviews mit Expertinnen und Experten im Bereich Leadership durchgeführt. Es folgte eine Online-Befragung von Führungskräften, die quantitativ ausgewertet wurde.
Die Ergebnisse zeigen, dass analoge Kompetenzen im digitalen Zeitalter weiterhin die Hauptrolle in der Führungsarbeit spielen. Eine starke Ausprägung der digitalen Kenntnisse führt jedoch zu einer höheren Profitabilität. Die Untersuchung zeigte bei den Befragten Unterschiede bei den Herausforderungen, Kompetenzen und Weiterbildungswünschen in Bezug auf Geschlecht, Alter, digitale Reife und Größe der geführten Teams. Daraus folgt, dass Programme in der Führungskräfteentwicklung individuelle Anpassungen erfordern.
Diese Masterarbeit richtet sich an Interessierte, die das Spannungsfeld von Führenden in der digitalen Transformation verstehen wollen.
Die Entwicklungen im Bereich der Algorithmen, Machine Learning und Künstlicher Intelligenz sind rasant und halten Einzug in immer mehr Bereichen des alltäglichen Lebens, insbesondere in den Unternehmen. Aus diesem Grund wird in dieser Arbeit der Frage nachgegangen, inwiefern dieser Trend Auswirkungen auf die benötigten Management-Kompetenzen hat. Zur Beantwortung dieser Frage wird zuerst die klassische Management-Lehre mit ihren zentralen Begrifflichkeiten und bestehenden Kompetenzmodellen beleuchtet und basierend auf diesen Erkenntnissen ein Analyse-Hilfsmodell entwickelt. Im Anschluss werden die wichtigsten Grundlagen zum Themenkomplex Algorithmus, Machine Learning und Künstliche Intelligenz behandelt und auf dieser Basis benötigte Management-Kompetenzen abgeleitet. Zusätzlich werden aktuelle Studien großer Beratungsunternehmen und Fachartikel analysiert und ebenfalls Kompetenzen für den Einsatz von Machine Learning und Künstlicher Intelligenz identifiziert. Schliesslich wird eine Gap-Analyse durchgeführt mit dem Resultat, dass keine grundsätzlich neuen Kompetenzen notwendig sind, diese jedoch teils erweitert werden müssen und sich deren Wichtigkeit verschiebt.
Die morphologische Beurteilung menschlicher Embryos ist ein zeitaufwändiger Prozess in der assistierten Reproduktionsmedizin. Etwa fünf Tage entwickeln sich die Embryos bei einer IVF-Behandlung außerhalb des menschlichen Körpers, bevor Embryologinnen und Embryologen die Entscheidung über die zu transferierenden – also die für die Einleitung einer künstlich herbeigeführten Schwangerschaft zu verwendenden – Embryos anhand unterschiedlicher Bewertungskriterien treffen. Im Anschluss an eine Einführung in die Embryologie werden in dieser Arbeit mögliche Methoden zur automatisierten Embryoselektion besprochen, implementiert, miteinander verknüpft und abschließend evaluiert. Die Arbeit beschränkt sich mit dem EmbryoScope auf einen Zeitrafferinkubator, welcher in den IVF Zentren Prof. Zech in Bregenz in den letzten Jahren viele Millionen Bilder tausender befruchteter Eizellen und den daraus entstehenden Embryos aufgenommen hat. Dieses Gerät diente als Datenquelle zur Unterstützung bei der Entwicklung des Analysetools. Das entstandene Softwareprodukt wurde so programmiert, dass gegebenen Daten vorverarbeitet und unter Anwendung von Bildmanipulationsverfahren und komplexer neuronaler Netze analysiert werden können. Das Ergebnis ist eine Software zur Erkennung und Bewertung unterschiedlicher Parameter der Embryoentwicklung, um daraus Vorschläge für die Selektion der zu transferierenden Embryos generieren und übersichtlich präsentieren zu können.
Zur Evaluierung des Systems konnten drei Embryologinnen und Embryologen aus drei IVF Kliniken unterschiedlicher europäischer Länder gewonnen werden, um anhand einer eigens entwickelten Annotationssoftware Vergleichsdaten zu generieren. Als Endergebnis der Arbeit wurde die Einheitlichkeit dieser erhaltenen Annotationsdaten mit den errechneten Vorschläge anhand unterschiedlicher Kriterien berechnet. Die Transferierbarkeit eines einzelnen Embryos konnte im Vergleich zur Entscheidung des Laborpersonals in 73 % der Fälle korrekt erkannt werden. Bezogen auf eine gesamte IVF Behandlung konnte bei den tatsächlich zu transferierenden Embryos eine vollumfängliche Einheitlichkeit von 26 % mit den Embryologinnen und Embryologen erreicht werden. Embryos, welche von dem entstandenen Analysetool als transferierbar erkannt und unter Beachtung weiterer vorhandener Embryos für die weitere Behandlung vorgeschlagen wurden, sind in 63 % der Fälle für einen Transfer geeignet.
Das entstandene Vorschlagsystem ist als Proof of Concept zu verstehen, welches in späteren Arbeiten durch tiefgreifendere Analysen erweitert werden kann. Ein Einsatz des Systems ist aufgrund der geringen Analysesicherheit, sowie technischen und rechtlichen Einschränkungen zum Abschluss der vorliegenden Arbeit nicht vorgesehen.
Business Intelligence (BI) beschreibt den Bereich, der für die Auswertung betrieblicher Geschäftsdaten verantwortlich ist und von Unternehmen jeder Größe verwendet wird. Die erhaltenen Informationen unterstützen die Entscheidungsfindung von Unternehmen und können sich positiv auf die Geschäftsentwicklung auswirken. Die Hexagon Geosystems hat seit mehreren Jahren Lösungen im Einsatz, mit welchen die systematische Analyse von Geschäftsdaten abgewickelt wird. Für Unternehmen dieser Größe sind leicht zugängliche und benutzerfreundliche BI-Lösungen unerlässlich - über die Jahre und der wachsenden Menge an Analysen und Berichten haben sich aber Probleme in der Verwendung und Verständlichkeit gebildet, welche im Rahmen dieser Masterarbeit untersucht werden.
Zum Beginn werden die theoretischen Inhalte der Arbeit erläutert und eine Wissensgrundlage geschaffen. Aus der in der Ist-Analyse gegebenen Beschaffenheit im Unternehmen werden die Probleme der aktuellen Lösung im Rahmen einer Problemerläuterung aufgewiesen. Die daraus resultierenden Erkenntnisse bilden die Grundlage für die Konzipierung eines Proof of Concepts in den darauf folgenden Kapiteln. In dem Proof of Concept wird ein Vorschlag für ein Baukastensystem zur Erstellung von Berichten und dessen Dokunentationen präsentiert. Eine mittels der System Usability Scale durchgeführten Evaluation zeigte, dass eine benutzungsfreundliche Applikation entstanden ist, welche neben Vorteilen für die Endanwender des Business Warehouses auch Vorteile für die Administratorinnen bei der Erstellung von Berichten mit sich bringt. Eine Zusammenfassung und ein abschließender Ausblick weist diverse Arbeitsschritte auf, welche zur Integration der Applikation in die produktive Landschaft des Unternehmens benötigt werden.
Das Management eines Unternehmens kann Mithilfe von bilanzpolitischen Maßnahmen bewusst Einfluss auf das Unternehmensergebnis nehmen. Durch Ausnutzung von Ermessenspielräumen bei der Bildung und Auflösung von Rückstellungen können stille Reserven gebildet und in späteren Perioden wieder aufgelöst werden.
In dieser Masterarbeit wurde untersucht ob die Unternehmen des M-DAX mithilfe der Big-Bath-Accounting-Methode oder der Income-Smoothing-Methode bewusst Einfluss auf das Jahresergebnis genommen haben. Hierfür wurden die Geschäftsberichte der Zielgruppe im Zeitraum von 2009 – 2018 empirisch untersucht. Um die Gültigkeit der Hypothesen zu überprüfen wurde das ausgewiesene EBIT mit einem bereinigten EBIT verglichen. Für die Ermittlung des bereinigten EBITs wurden die tatsächlichen Rückstellungsbildungen bzw. Rückstellungsauflösungen durch die über den Betrachtungszeitraum durchschnittlichen Rückstellungsbildung bzw. Rückstellungsauflösung ersetzt.
Die Ergebnisse der empirischen Untersuchung haben gezeigt, dass die Unternehmen der Zielgruppe Mithilfe von Rückstellungen großen Einfluss auf das EBIT nehmen können. Weiter konnte belegt werden, dass die meisten Unternehmen bei der Rückstellungsbewertung grundsätzlich vorsichtig agieren und höhere Beträge in Rückstellungen bilanzieren.
Pump-Probe-Elastographie
(2020)
Krebs ist die zweit häufigste Todesursache in Deutschland. Seine frühzeitige Detektion ist wichtig für eine erfolgreiche Behandlung. Die Detektion und Charakterisierung der Tumore kann unter anderem anhand ihrer mechanischen Eigenschaften erfolgen.
Die Pump-Probe-Elastographie (PPE) ist eine neue und vielversprechende Methode um die mechanischen Eigenschaften von Gewebe durch optische Anregung und Detektion der dadurch entstehenden akustischen Wellen zu charakterisieren.
In dieser Arbeit wurde ein PPE-Mikroskop aufgebaut und anschließend untersucht, wie die Wellenfronten möglichst deutlich sichtbar werden und welchen Einfluss die Pulsenergie auf die erzeugten Wellen hat. Dies geschah anhand zweier Proben – Wasser und Glas. Beide sind transparent und bieten daher auch die Möglichkeit der Messung im Volumen. Wasser unterscheidet sich zudem von Glas, da es kompressibel ist und somit die Entstehung von Stoßwellen erlaubt. In Glas wiederum können nicht nur Longitudinalwellen, sondern auch Transversalwellen und Rayleigh-Wellen entstehen.
Als Ergebnis dieser Arbeit wird gezeigt, dass die Messergebnisse in Wasser abhängig von der Pulsenergie sind, denn die entstehenden Stoßwellen breiten sich mit Überschallgeschwindigkeit aus, was bei zukünftigen Messungen mit Zellgewebe zu beachten ist. In Glas hat die Pulsenergie zwar keinen Einfluss auf die Wellengeschwindigkeit, jedoch werden die Messungen mit zunehmender Energie deutlicher. Auch ist bei Messungen im Volumen nur die Longitudinalwelle zu sehen. Misst man jedoch auf der Glasoberfläche, so entsteht auch eine Druckwelle in der Luft, welche wiederum abhängig von der Pulsenergie ist. Zusätzlich ist in einigen Messungen eine weitere Welle zu erkennen, welche unabhängig von der Pulsenergie ist und sich im Glas, oder auf dessen Oberfläche ausbreitet.
Die Kompetenzentwicklung im Umgang mit Veränderungsprozessen für Mitarbeitende aller Hierarchieebenen ist essentiell, da diese zu einem festen Bestandteil des Alltags zählen. Durch speziell erstellte Planspiele für diesen Themenbereich werden Führungskräfte und Mitarbeitende für den Veränderungsprozess sensibilisiert. „SysTeamsChange“ stellt eines der marktführenden Planspiele in diesem Themenbereich dar. In diesem Tool werden die Teilnehmenden in die Lage versetzt, mit diversen Situationen richtig umzugehen. Die vorliegende Masterarbeit erörtert die Bedingungen, unter welchen das Planspiel „SysTeamsChange“ effektiv in Veränderungsprozessen eingesetzt werden kann. Zudem wird analysiert, ob es sich bei diesem Spiel um eine wirkungsvolle Methode für die Kompetenzentwicklung für Führungskräfte handelt und in welchen anderen Einsatzbereichen das Tool erfolgreich verwendet werden kann. Basierend auf den Ergebnissen der theoretischen Ausarbeitungen und durchgeführten Experteninterviews werden Handlungsempfehlungen zum verbesserten Einsatz von „SysTeamsChange“ abgeleitet. Dadurch soll den Unternehmen eine leichtere und effizientere Handhabung mit dem Einsatz dieses Tools ermöglicht werden.
Alter und Recruiting
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Problematik von Arbeitssuchenden 45 plus in Vorarlberg.
Zum Verständnis werden die Fachbegriffe Diversity, Generationen und Altersklassen, Altersdiskriminierung und Work Ability Index erläutert. Die Umfeld- und Einflussfaktoren beschäftigen sich mit den demografischen Grundlagen, den Potenzialen älterer Arbeitnehmender, dem alter(n)s-gerechten Arbeiten, möglicher Herausforderungen im Recruiting und Ideen anderer Länder.
Im Abschnitt Methodologie und Methodik werden Grundlagen der qualitativen Forschung behandelt. Die Datenerhebung erfolgte durch Experteninterviews. Die Details dazu finden sich in den Passagen Sampling, Auswahl der Interviewpartner, Interview-Leitfaden, Auswertungsmethode und Gütekriterien. Die Arbeit fokussiert sich auf Industrieunternehmen in Vorarlberg sowie das AMS, die AK und die Caritas.
Die Antworten aus den Leitfaden-Interviews führen schlussendlich zu potenziellen Reformansätzen, um die Situation für Arbeitnehmende 45 plus zu verbessern. Es ergeben sich mehrere Aspekte, welche wider das Einstellen von älteren Bewerbenden vorliegen.
Die Suche nach geeigneten Maßnahmen im Kampf gegen den Pflegefachkräftemangel geht lange Zeit zurück. Immer mehr schnelle und nicht abgestimmte Lösungen kommen dabei auf. Um wirksam die Personallücke schließen zu können, muss an den Problemursachen angeknüpft werden.
In dieser Masterthesis wird der Personalmangel aus einer neuartigen Perspektive betrachtet. Mit Hilfe des Prozessfokus werden die existierenden Ideen mit folgender Fragestellung näher begutachtet: „Inwieweit spielt Business Process Management (BPM) eine Rolle bei den bisherigen Ideen? Kann BPM einen Beitrag zur Arbeitsentlastung der Pflegekräfte und damit zur Linderung des Personalmangels leisten?“
Um diese Frage beantworten zu können, ist eine zweiteilige Methodik erforderlich. Die Literaturrecherche wird mit dem Wissen aus einer Prozessbegehung ergänzt. Da die Kombination verschiedener Methoden ein Basisfachwissen voraussetzt, ist die Zielgruppe durch dieses Faktum definiert.
Am Ende kann die Digitalisierung in Verbindung mit organisatorischen Umstrukturierungen als geeigneter BPM-Lösungsansatz betitelt werden. Dieser knüpft an den Basisanforderungen an, um auf lange Sicht den Pflegemangel beherrschbar machen zu können.
This master thesis investigates effective leadership behaviour of multicultural teams during change management. Multicultural teams can be highly effective in dealing with complex change processes and can represent a key player to tackle today’s VUCA-world challenges.
Effectiveness of multicultural teams during change depends critically on leadership with a range of specific behaviours. Involvement and support of the employees in a coaching role is key. Leaders need to display behaviours such as continuous development of cultural and emotional intelligence, critical self-reflection, open-mindedness, and readiness to serve as authentic role models. Furthermore, the creation of a sense of unity based on good communication and common sense is essential to build multicultural teams, and to enable them to embrace their differences as opportunity. Trust, transparency and a holistic change process are vital. Effectiveness essentially depends on the following factors: the organization’s culture, the characteristics of the employees and of their leader, and on the external environment. Leaders should take these factors into consideration at all times.
Durch die Verfügbarkeit von Echtzeitinformationen wird das Produktionscontrolling und die Unternehmensorganisation zunehmend vor neue Herausforderungen gestellt. Die dynamische Unternehmensumwelt, die globale Orientierung der Wertschöpfung und neue Technologien führen zu einer Änderung des Fokus der Unternehmenssteuerung. Durch den Markt geforderte Informationen aus der Wertschöpfung sind durch neue Technologien transparent, prozessübergreifend und in großen Mengen verfügbar. Für die Entscheidungsstellen der Unternehmen müssen diese Informationen zusammengestellt und aufbereitet verfügbar sein. Diese neue Aufgabe fällt dem Controlling zu, wodurch es in den Fokus der Entscheidungsfindung gerät.
Das Ziel der Masterthesis ist es mögliche Auswirkungen und Herausforderungen der Echtzeitinformationen auf das Controlling, insbesondere auf das Produktionscontrolling, herauszuarbeiten. Dazu wird folgende Forschungsfrage gestellt: Welche Herausforderungen sowie Chancen und Risiken ergeben sich durch die Verfügbarkeit von Echtzeitinformationen auf das Produktionscontrolling der Zukunft? Zur Beantwortung der Forschungsfrage und der damit verbundenen Unterfragen wird eine systematische Literaturanalyse von internationalen Quellen aus den Jahren 2012 bis 2020 durchgeführt. Im Ergebnis verändert sich das Aufgabengebiet des Produktionscontrollers weitestgehend. Zudem wird die Wichtigkeit des Controllings durch die Präsenz der Echtzeitinformationen nicht abnehmen, sondern einen neuen Stellenwert in der Unternehmenssteuerung bekommen. Das Controlling als Businesspartner der Unternehmenssteuerung bekommt eine neue Stelle auf Augenhöhe des Managements.
Die vorliegende Masterarbeit enthält neue Erkenntnisse in Bezug auf die Frage, ob die Änderung einer Analystenempfehlung für Aktien neue Informationen enthält und ein Anleger eine abnormale Rendite erzielen kann. Darüber hinaus wird untersucht, ob in Phasen des konjunkturellen Abschwungs eine höhere abnormale Rendite im Vergleich zu einem konjunkturellen Aufschwung ausgewiesen wird. Die Ergebnisse zeigen, dass Aktienkurse signifikant positiv auf Kaufempfehlungen und signifikant negativ auf Verkaufsempfehlungen reagieren. Zusätzlich wird belegt, dass eine höhere und zeitlich längere Reaktion auf eine Verkaufsempfehlung gegenüber einer Kaufempfehlung stattfindet. Es wird außerdem festgestellt, dass auch bei isolierter Betrachtung der Konjunkturzyklen (Aufschwung und Abschwung) eine abnormale Rendite erzielt wird. Zudem verzeichnen negative Veränderungen der Analystenempfehlungen eine höhere abnormale Rendite als jene bei positiven Veränderungen.
Digitale Transformation ist heutzutage eine Pflichtaufgabe. Die Literatur zu dem Themengebiet bietet sehr viel Auswahl. Trotzdem fehlt es immer noch an einem gängigen Konzept, welches bei der digitalen Transformation unterstützten soll.
Dementsprechend beschäftigt sich die vorliegende Masterarbeit mit der Fragestellung, ob es sich beim Enterprise Architecture Management (EAM, auf Deu. Unternehmensarchitektur) um so ein gängiges Konzept handeln könnte.
Um dies zu beantworten und eine gewisse Übersicht in den Stand der aktuellen Forschung zu bringen, wurde eine Literaturrecherche durchgeführt. Diese beinhaltet neben den theoretischen Hintergründen zur digitalen Transformation und EAM auch noch ein Ausarbeiten der digitalen Anforderungen an das EAM.
Ein EA-Framework wird als Referenzmodell ausgewählt und anhand der neuen Anforderungen einer kritischen Betrachtung unterzogen. Die Arbeit soll zum einen Erkenntnisse darüber liefern ob es ich sich bei dem gewählten Framework um ein mögliches Werkzeug handelt, welches bei der digitalen Transformation einen Mehrwert liefert. Zum anderen soll sie zeigen ob mit EAM die Lücke zum fehlenden Konzept geschlossen werden kann.
This research seeks to explore the cultural impact in the development of a new product, and if operational CRM (CRM technologies) can bring these two concepts together. As an industrial designer, the researcher finds it fascinating to explore how the abilities that a designer uses can help to solve users' problems could be implemented into structural or strategic decision-making of a company. Therefore, the researcher believes that the results might bring value to the head of international teams in charge of Product Development, by bringing some ideas for what is essential to consider in these processes and how CRM could become a relevant tool to satisfy customers and users.
This research generates value to international management and leadership studies because it brings the management of new product development from an organizational point of view within an international context to the forefront. It also builds an understanding of what to consider when the value chain is decentralized and involves international collaboration in product development processes. And positive elements and/or problems that may arise concerning culture and the role of the CRM within this process.
Der mit dem Schlagwort Industrie 4.0 verbundene Begriff der Digitalisierung ist eine Herausforderung, der sich Unternehmen aktuell konfrontiert sehen. Allgemein betrachtet verschwimmt mit steigender Digitalisierung in Unternehmen die Abgrenzung zwischen wertschöpfenden und unterstützenden Prozessen. Die Industrie 4.0 verspricht dabei eine vernetzte Zukunft mit neuen Technologien und neuen Geschäftsmodellen. In der Forschung gibt es bisher nur sehr begrenzte Ansätze im Bereich der Industrie 4.0, welche direkt auf die Bauindustrie bzw. ein einzelnes Bauunternehmen ausgerichtet sind.
Die Masterarbeit soll dazu die Beantwortung folgender Fragestellung zum Thema haben: „Wie kann ein Referenzmodell zur reifegradbasierten Ermittlung des Digitalisierungsgrads in einem Unternehmen in der Bauindustrie aufgebaut sein?“
Zur Bearbeitung wird dabei der Ansatzpunkt gezählt, wie die Digitalisierung in der Industrie 4.0 im Kontext mit bisherigen Entwicklungen einzuordnen ist. Dabei wird den Fragestellungen nachgegangen, welche Reifegradmodelle bereits existieren und wie diese auf die Digitalisierung in der Industrie 4.0 adaptiert werden können. Daraus ergibt sich die nachgehende Fragestellung, wie ein Reifegradmodell zur Bewertung des Umsetzungsgrads in der Industrie 4.0 in einem Unternehmen der Bauindustrie aufgebaut sein kann.
Ziel dieser Masterarbeit ist es, ein kombiniertes Reifegradmodell zur entwickeln, welches auf ein Unternehmen in der Bauindustrie anwendbar ist. Damit soll eine Möglichkeit geschaffen werden, die Umsetzungsreife des Unternehmens im Bereich der Industrie 4.0 zu bewerten. Das entwickelte Modell soll dazu in der Lage sein, dem Unternehmen einen fundierten Überblick zu verschaffen, wie weit der Umsetzungsgrad fortgeschritten ist. Auch soll es dem Unternehmen aufzeigen, in welchen Bereichen es Entwicklungsmöglichkeiten gibt. Das Reifegradmodell soll außerdem in der Lage sein, sich auf Änderungen in der Unternehmensstrategie, Weiterentwicklung in der Technologie sowie veränderten Anforderungen in der Bauindustrie anpassen zu können.
For centuries, companies and institutions are working on the development of organisational project maturity models. The purpose of these models is to develop a path for improving an organisation’s capability of managing projects. Projects are the means by which companies implement their strategic objectives. Trends like globalisation and advances in IT lead to more geographically distributed teamwork. Therefore, this thesis gives a comprehensive answer to how project management maturity models address transnational project management.
For accomplishing the research objective, this thesis follows an integrated, qualitative literature review approach. Theoretical frameworks and applied research on project management maturity assessments were systematically collected and analysed. The results extracted from these two sources were synthesised to extract findings.
The main research result shows that models continuously adapt to transnational project management. They are doing this by aligning the organisational culture and values, focusing on organisational wide learning and gradually embedding behavioural and intercultural competencies. Maturity assessments need to follow this trend.
Furthermore, transnational convergence of the models’ dimensions was observed. This development leads to growth in size and complexity. To apply them internationally, the models should be simplified or easily adapted to specific countries and cultures.
The workplaces are changing with the increase in the use of technology, digital communication, the shift towards multicultural teams, and remote work due to COVID-19. Leaders need more collaboration and acceptance of digital communication tools such as Teams, Slack. This study aims to determine the influence of culture in the acceptance of digital tools in leadership communication. In the literature review, 3 cultures (organizational, national, Individual) were assumed. And Individual culture was tested using Schwartz (openness to change) value survey along with other qualitative questions in 1-1 interviews of Austrians and multinationals living in Austria. Analysis from findings suggests that culture plays an important role in technology acceptance of digital tools in leadership communication. This was confirmed by the Schein model and Schwartz value ratings. The culture comprises of organizational, national, regional, and individual culture. Individual culture plays an important role, but other cultural factors cannot be avoided. Key factors affecting the technology acceptance in Vorarlberg (Austria) are listed along with recommendations to leaders.
Für die Digitale Fabrik an der FH Vorarlberg sollen Intrusion-Detection-Systeme (IDS) zur Erkennung von Angriffen auf Hosts sowie im Netzwerk evaluiert werden. Außerdem sollen die aus den IDS erhaltenen Resultate so dargestellt werden, damit Systemadministratorinnen rapide Entscheidungen bezüglich der generierten Alarme treffen können. Um dies zu gewährleisten sollen neben den IDS zusätzlich entsprechende Visualisierungstools evaluiert werden. In dieser Arbeit werden dazu unterschiedliche signatur- sowie auch anomaliebasierte Netzwerk- und Host-IDS technisch beschrieben und anhand von Kriterien, welche aus den Anforderungen abgeleitet werden, bewertet. Zusätzlich wird die Genauigkeit der IDS durch Testen von spezifischen Angriffen ermittelt. Außerdem werden potenzielle Tools für die Darstellung von Alarmen aus den IDS vorgestellt und ebenfalls anhand den Anforderungen aufgezeigt, welches am geeignetsten ist. Abschließend werden alle Probleme sowie Erkenntnisse aufgezeigt, welche während der Evaluierung auftraten und erläutert, wie diese Arbeit fortgeführt werden kann.