Refine
Year of publication
Document Type
- Master's Thesis (409)
- Article (70)
- Conference Proceeding (23)
- Report (14)
- Part of a Book (4)
- Book (3)
- Other (3)
- Doctoral Thesis (2)
- Working Paper (2)
- Bachelor Thesis (1)
Institute
- Forschungszentrum Business Informatics (27)
- Forschungszentrum Mikrotechnik (27)
- Forschungszentrum Energie (22)
- Soziales & Gesundheit (18)
- Technik | Engineering & Technology (13)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (12)
- Forschungszentrum Human Centred Technologies (11)
- Forschungsgruppe Empirische Sozialwissenschaften (10)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (7)
- Wirtschaft (7)
Language
- German (329)
- English (201)
- Multiple languages (2)
Has Fulltext
- yes (532) (remove)
Keywords
- Digitalisierung (11)
- Controlling (7)
- Digitale Transformation (7)
- Machine learning (6)
- Demand Side Management (5)
- Industrie 4.0 (5)
- Soziale Arbeit (5)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Kultur (4)
We have demonstrated micromachining of bulk 3C silicon carbide (3C- SiC) wafers by employing 1028nm wavelength femtosecond laser pulses of energy less than 10 nJ directly from a femtosecond laser oscillator, thus eliminating the need for an amplified system and increasing the micromachining speed by more than four orders of magnitude.
We have investigated the ablation behaviour of single crystal SrTiO3 <100> with focus on the influence of the pulse duration at a wavelength of 248 nm. The experiments were performed with KrF-excimer lasers with pulse durations of 34 ns and 500 fs, respectively. Femtosecond-ablation turns out to be more efficient by one order of magnitude and to eliminate the known problem of cracking of SrTiO3 during laser machining with longer pulses. In addition, the cavities ablated with femtosecond pulses display a smoother surface with no indication of melting and well-defined, sharp edges. These effects can be explained by the reduced thermal shock effect on the material by using ultrashort pulses.
Modern portable electronic devices have seen component heat load increasing, while the space available for heat dissipation has decreased. This requires the thermal management system to be optimized to attain the high performance heat sink. Heat sinks plays a major role for dissipating heat in electronic devices. Phase change material (PCM) is used to enhance the heat dissipation in heat sink. This paper reports the results of an experimental investigation of the performance of Pin fin heat sinks filled with phase change materials for thermal management of electronic devices. The experimental set ups are prepared with the graphical programming language with Lab VIEW (Laboratory Virtual Instruments for Engineering Workbench. Three different types of Pin fin Heat sink with and without PCM are investigated based on different operational timings and the temperature is acquired with the help of Data Acquisition Card (DAQ). The results indicated that the inclusion of the PCM could stabilize the temperature for a longer period and reduce the heating rates and peak temperatures of heat sink with increasing the number of fins can enhance the thermal performance of electronic devices.
This paper presents a project developed at the K.S.Rangasamy College of Technology (Tamilnadu,India) aimed at designing, implementing, and testing an autonomous multipurpose vehicle with safe, efficient, and economic operation. This autonomous vehicle moves through the crop lines of a Agricultural land and performs tasks that are tedious and/or hazardous to the farmers. First, it has been equipped for spraying, but other configurations have also been designed, such as: a seeding ,plug platform to reach the top part of the plants to perform different tasks (pruning, harvesting, etc.), and a trailer to transport the fruits, plants, and crop waste.
The goal of this paper is to design a low-loss 1 x 32 Y-branch optical splitter for optical transmission systems, using two different design tools employing Beam Propagation Method. As a first step, a conventional 1 x 32 Y-branch splitter was designed and simulated in two-dimensional environment of OptiBPM photonic tool. The simulated optical properties feature high loss, high asymmetric splitting ratio and a large size of the designed structure, too. In the second step of this work we propose an optimization of the conventional splitter design leading to suppression of the asymmetric splitting ratio to one-third of its initial value and to the improvement of the losses by nearly 2 dB. In addition, 50% size reduction of the designed structure was also achieved. This length-optimized low-loss splitter was then modelled in a three-dimensional environment of RSoft photonic tool and the simulated results confirm the strong improvement of the optical properties.
Der Befeuchtungs-Entfeuchtungs-Prozess (HDH) wird zur Meerwasserentsalzung eingesetzt und bietet Vorteile wie die Nutzung von Wärme auf einem geringen Temperaturniveau sowie die Realisierbarkeit dezentraler Anlagen. Bei diesem Prozess wird Luft im Kontakt mit warmem Salzwasser im Optimalfall bis zur Sättigung befeuchtet. Die feuchte Luft wird anschließend abgekühlt, um das in ihr befindliche Wasser wieder zu kondensieren. Obwohl der HDH-Prozess bereits mehrfach Gegenstand der Forschung war, besitzt die Effizienz des Prozesses nach wie vor ein hohes Steigerungspotential. Das Ziel dieser Masterarbeit besteht in der Konzeption und der Realisierung eines Versuchsaufbaus zur Analyse der Befeuchtung von Luft in Wasser. Dabei soll der Untersuchungsgegenstand zukünftiger Versuche die Befeuchtereinheit sein, die ein hohes Potential hinsichtlich der Effizienzsteigerung von HDH-Systemen bietet. In neueren Publikationen wurden zum Einsatz in HDH-Systemen Blasensäulenbefeuchter als eine bessere Alternative zu Festbettbefeuchtern oder Sprühtürmen vorgeschlagen, weswegen die Befeuchtung in solchen Aggregaten näher untersucht werden muss. Das Hauptziel dieser Masterarbeit ist ein Versuchsaufbau, der die Möglichkeit bietet, die Parameter, die die Befeuchtung von Luft in einer Blasensäule maßgeblich beeinflussen, mit einer ausreichenden Genauigkeit zu messen, um aus diesen Messungen semiempirische Korrelationen ableiten zu können. Die die Befeuchtung von Luft maßgeblich beeinflussenden Parameter sind die Wassertemperatur, der Füllstand im Befeuchter, die Luftgeschwindigkeit sowie die Blasengröße.
Zum aktuellen Stand ist ein HDH-System, bestehend aus einem Blasensäulenbefeuchter, einem Querstromwärmetauscher sowie einer Dosierpumpe errichtet. Mit diesem System können wissenschaftlich notwendige empirische Zusammenhänge zwischen den die Befeuchtung beeinflussenden Parametern und der Befeuchtung von Luft aus Versuchen abgeleitet werden. Die im Versuchsaufbau verbaute Messtechnik wurde derart ausgewählt, dass deren Einfluss auf das System so gering wie möglich gehalten werden kann.
Mit dem Versuchsaufbau ist es darüber hinaus möglich, invasive Messmethoden mit nicht invasiven Messmethoden direkt zu vergleichen. Um eine für die Messungen optimale Befeuchtergeometrie zu finden, sind zwei Blasensäulenbefeuchtereinheiten aufgebaut, davon eine mit planarem und eine mit zylindrischem Querschnitt. So ist es möglich, im Direktvergleich die Vor- und Nachteile der Querschnittsanordnungen nachzuweisen. Die Komponenten der beiden HDH-Systeme wurden anhand von wissenschaftlich akzeptierten Modellen bezüglich der dazugehörigen Wärmeübertragungsraten, der Wärmeverluste und der Druckverluste ausgelegt.
Eine Modellierung des Stoffübergangs in der Blasensäule ist durchgeführt. Anhand dieser Modellierung konnte der Stoffübergangskoeffizient in der Grenzschicht zwischen Luftblase und Flüssigkeitssäule ermittelt werden. Anhand einer Massenbilanz konnte über den Stoffübergangskoeffizienten die Austrittswasserbeladung der feuchten Luft modelliert werden.
Die Funktionalität des Versuchsaufbaus ist gegeben. Messungen des Gasgehalts zeigen eine sehr gute Übereinstimmung mit wissenschaftlich anerkannten Korrelationen zum Gasgehalt. Die optische Zugänglichkeit des Versuchsaufbaus ist evaluiert und lässt die Tendenz ableiten, dass sich ein planarer Befeuchterquerschnitt in Verbindung mit Fotoaufnahmen von den durchgeführten Varianten am besten zur digitalen Bildanalyse eignet.
Aus den Experimenten, die am realisierten Versuchsaufbau durchgeführt werden, kann sich eine allgemeingültige Auslegungsgrundlage für Versuchsaufbauten ergeben, mit denen Messungen der Befeuchtung von Luft in Blasensäulenbefeuchtern durchgeführt werden sollen.
The master thesis concentrates on two different cases to generate energy from MSW. In the first case, the MSW is incinerated in an incineration plant. This approach represents the present situation in the waste treatment in large parts of the UK.
In the second case, the OFMSW is separated in a treatment facility and used in a fermentation plant. The remaining waste is again used as a feedstock in an incineration plant. The difference in the net energy yield between these two cases is investigated in this thesis.
To calculate the difference in the energy yield of case 1 and case 2, a research of the existing literature about comparisons of incineration and fermentation plants and their results are reflected and data about the MSW in the UK is collected. With the input of the literature and the researched data, a model is built which compares the two different cases of waste treatment. The results of the comparisons are then examined by varying different parameters. This step is repeated by using different input parameters. Afterwards, the results are compared and analysed.
In the next part of the thesis, an economic analysis of the incineration and fermentation combined technology plant is made. In this analysis, the investment costs, the annual profits and the annual costs of an additional fermentation plant are discussed and calculated. The result of the analysis is displayed as an amortization time calculation. The results are then analysed by varying the parameters in a sensitivity analysis.
Finally, the research question is answered and a forecast for possible plant designs with an incineration and a fermentation plant in combination are discussed.
Durch den vermehrten Ausbau dezentraler Energieerzeugungsanlagen gewinnt verbraucherseitiges Lastmanagement für die Netzbetreiber immer mehr an Bedeutung. Neue Möglichkeiten zur Laststeuerung bei Haushalten ergeben sich durch den Einsatz von intelligenten Stromzählern, sogenannten Smart Metern, da sie über eine Kommunikationsschnittstelle mit fernparametrierbarem Schaltrelais verfügen und den Stromverbrauch im Viertelstundenraster aufzeichnen können. Diese Masterarbeit untersucht eine Methode, mit der Lastverschiebungsmaßnahmen bei elektrischen Warmwasserspeichern durchgeführt werden können. Die Lastverschiebung wird lediglich durch die Funktionalitäten eines Smart Meter bewerkstelligt. Dabei ist das Ziel, eine Lastverschiebungsmethode zu finden, die vom Netzbetreiber simpel implementiert werden kann und mindestens den gleichen Komfortansprüchen genügt, die eine traditionelle Nachttarifschaltung aufweist. Die Schwierigkeit liegt hierbei in der Einschränkung, dass der Netzbetreiber vom Stromverbrauch der Speicher auf den Warmwasserbedarf der Kunden schließen muss.
Mit Hilfe eines thermodynamischen Modells werden verschiedene Lastverschiebungsszenarien bei mehreren Haushalten angewendet. Über die Simulation des Temperaturverlaufs wird ferner auf die Qualität der Warmwasserbereitung geschlossen und mit jener der klassischen Nachttarifsteuerung verglichen. Liegt die Temperatur häufiger unter einem bestimmten Mindestniveau als jene bei der Nachttarifschaltung, gilt die Qualität als nicht ausreichend. Die Ergebnisse der Untersuchung zeigen, dass mit der vorgestellten Methode für jeden Haushalt eine Lastverschiebung gefunden werden kann, die für den Netzbetreiber Vorteile bringt und die Mindestanforderungen an den Kundenkomfort erfüllt oder teilweise sogar verbessert. Es konnte festgestellt werden, dass mit der vorgestellten Methode der Großteil der Heizenergie (mindestens 60% bei allen Haushalten) in der ersten Tageshälfte zur Verfügung gestellt werden muss. Zusätzlich ergeben sich Energieeinsparungen, da die Beheizung des Speichers und der Warmwasserbedarf besser aufeinander abgestimmt werden. Mit der gezeigten Methode könnten Lastverschiebungsmaßnahmen schnell und einfach vom Netzbetreiber eingeführt werden, jedoch gilt es davor Einschränkungen wie die Legionellen-Problematik und Kundenkommunikation oder -akzeptanz zu klären.
In the residential construction industry, the focus on energy efficiency and cost effectiveness has been gaining importance. In order to achieve these contradicting objectives, a shift towards a reduced complexity in building practices can be observed.
Within the HVAC sector, the Tempering method for space heating has received particular attention as an alternative way to heat museums and buildings worthy of preservation.
In spite of the simplified design, this space heating system is claimed to offer significant advantages in its present field of application.
This study evaluates the implementation of Tempering in the residential context. So far, there is no scientific research on the implementation of Tempering in energy efficient-dwellings.
This master thesis provides initial results on achievable heat flux values, the impact on heat generation efficiency, the inherent installation costs as well as the particular
consequences in terms of end energy consumption of the building as a whole. The findings are compared to the individual performances of well-established heat emission approaches.
By means of a numerical analysis and a case study on a real-case single-family home, it is found that the heat flux values of Tempering systems suffice for the implementation within buildings, which comply with the low-energy building standard. Comparing radiant walls, radiant floors and radiators, the inherent installation costs are lowest for Tempering and radiant floors. The impact on the end energy consumption depends largely on the utilised heat generation system. With a gas-condensing boiler, Tempering performs equal to the radiant systems. When a ground source heat pump system is installed, however, Tempering performs poorly and accounts for a significantly increased energy consumption. Radiator systems are found to be the most energy-efficient method for space heating in both cases.
Obwohl der Energiebedarf eines Krankenhauses nur ca. 1,2% der Gesamtkosten ausmacht, werden Energieeinsparmaßnahmen und -optimierungen immer wichtiger. Neben dem steigenden Umweltbewusstsein wird auch der Kostendruck in diesem Dienstleistungssektor immer größer. Trotz der in vielen Krankenhäusern vorhandenen und gut ausgebauten Gebäudeleittechnik fehlt oft das Detailwissen über den Energieverbrauch und deren Verursacher.
Aufgrund der großen Anzahl an verwendeten Geräten und Kleinverbrauchern sowie der vielen gebäudetechnischen Großgeräte ist eine genaue Ursachensuche kein leichtes Unterfangen. Auch im Krankenhaus Feldkirch sind eine Vielzahl automatischer Stromzähler installiert und im Energiemonitoringsystem aufgeschaltet. Dennoch ist aktuell nur der Gesamtstromverbrauch bekannt und verwertbar. Analysen auf Gebäude oder Anlagen-Ebene werden nur sehr wenige durchgeführt.
In dieser Arbeit soll untersucht werden, wie die wesentlichen Einflussfaktoren auf den Stromverbrauch mithilfe der installierten automatischen Zähler identifiziert werden können.
Um herauszufinden, mit welchen Methoden der größte Informationsgehalt gewonnen werden kann, kommen verschiedene Methoden wie Kennzahlenvergleiche, die Darstellung als Sankey-Diagramm, objektspezifische Vergleiche und statistische Analysen sowie Energieganganalysen zur Anwendung.
Die erarbeiteten Auswertungen und Darstellungen zeigen sehr schnell, dass ohne eine Vielzahl an Subzählern keine sinnvollen Analysen möglich sind. Die große Anzahl an angeschlossenen Verbrauchern und deren variables Regelverhalten lassen aus den Daten (z. B. Summenzählern) anhand zusammengefasster Stromverläufe kaum Schlüsse für einzelne Gebäude zu. Es zeigt sich auch, dass eine einzelne Darstellungsform für alle Auswertungen keinen Sinn macht. In dieser Arbeit werden mögliche Einbauorte für die Stromzähler vorgeschlagen sowie Verfahren für eine durchdachte Auswertung der Energieverbräuche und Umsetzung in die Praxis angeführt.
In Europa und den USA werden rund 39 % des Energieverbrauchs durch den Betrieb von Gebäuden verursacht. Sie bieten somit großes Potential, den Gesamtenergieverbrauch zu verringern. Eine sinnvolle Möglichkeit dieser Umsetzung, ohne auf Gebäudekomfort verzichten zu müssen, liegt in der Optimierung der Gebäudeeffizienz. Dahingehend werden physikalische und datenbasierte Modelle als Planungstool für die Gebäudemodellierung verwendet, um frühzeitig Erkenntnisse über deren Energieverbrauch zu gewinnen. Während physikalische Modelle thermodynamische Prinzipien zur Modellierung des Energieverbrauchs einsetzen, verwenden datenbasierte Modelle historische oder allgemein verfügbare Daten, um ein Vorhersagemodell zu entwickeln. Das Ziel dieser Arbeit ist die Erstellung eines datenbasierten Modells, zur Prognose des Energieverbrauchs der Beleuchtung von Bürogebäuden. Es wurden bereits zahlreiche Studien hinsichtlich Prognosen des Energieverbrauchs erstellt. Die meisten beziehen sich jedoch auf den Gesamtenergieverbrauch oder jenen, welcher für Heizung, Kühlung oder Klimatechnik aufgewendet wird. Die Recherche des Autors ergab, dass vergleichsweise wenig Forschung für Vorhersagemodelle zur Ermittlung des Energieverbrauchs für die Beleuchtung betrieben wurde. Zur Umsetzung der Analyse stehen dem Autor Daten aus der Beleuchtungsinfrastruktur sowie Wetter-, Zeit- und Gebäudedaten zur Verfügung. Anhand dieser Arbeit soll eruiert werden, ob diese Daten hinreichend aussagekräftig sind, um ein geeignetes Modell zu entwickeln.
In times of global climate change, it is increasingly important to investigate emissions and resource consumption of all machines and, if possible, to improve them. This includes within the transport sector car ferries.
In order to reduce the environmental impacts of car ferries, the electrification has penetrated into this sector, which has led to the world's first fully electric car ferry. One of the most important components to operate this ferry is the energy storage. Not only the battery storage of the ferry itself is needed, but also an onshore battery storage system is needed to support the electrical grid.
The present study examines how storage technologies and concepts can impact the environment considering the world's first all-electric car ferry, MF Ampere, which operates in Norway.
To examine this, the current onshore battery storage system is compared to a concrete sphere storage system. For this purpose, data from the first test run of this new storage technology, which was successfully carried out by the Fraunhofer Institute in 2016, is considered. Subsequently, a life cycle assessment of the two storage systems is carried out to compare the environmental impacts.
The concrete sphere storage system performs better for 15 of 17 impact categories compared to the existing onshore battery storage system. Depending on the impact category the impact reduction is about 2% to 8%.
Nevertheless, it is difficult to estimate how long the useful life and how good the efficiency of the concrete ball storage will be, since no system of this size has been tested yet. Also, the costs of the concrete sphere storage system have not been considered.
Das Ziel der Masterarbeit ist es, ausgewählte Tankstellen an der A96 unter Voraussetzung einer vollständigen Elektrifizierung des deutschen PKW-Straßenverkehrs analog des heutigen Tankverhaltens zu dimensionieren.
Zu Beginn der Masterarbeit wird die elektrische Leistung berechnet, welche die deutschen PKW bei vollständiger Elektrifizierung des deutschen PKW-Straßenverkehrs benötigen werden. Um das Ergebnis auf Plausibilität überprüfen zu können, wird die Berechnung mit zwei verschiedenen Ansätzen vollzogen. Einerseits werden als Grundlage durchschnittliche Jahresfahrstrecken der Autofahrer/-innen verwendet und andererseits wird über den Primärenergiebedarf, den Fahrzeugbestand und den Wirkungsgraden von Ottomotoren und Elektromotoren die zu bestimmende Leistung berechnet.
Öffentliche Daten aus Verkehrszählungen sollen im weiteren Verlauf der Masterarbeit ausgewertet werden. Unter anderem erfolgt mit diesen Werten eine Modellbildung des Verkehrs, um den Verkehrsfluss mathematisch darzustellen und zu simulieren.
Die Durchführung einer Live-Messung an der Tankstelle Lechwiesen Nord sowie die nachträglich erlangten Daten zum tatsächlich stattgefundenen Verkehrsaufkommen sind für die Auswertung des in AnyLogic hinterlegtem mathematischen Modells essentiell. Auch für die Frage nach den zu tankenden Autos eines bekannten Verkehrsaufkommens sind diese hilfreich. Zur Bestimmung der Anzahl von Elektrozapfsäulen erfolgt eine iterative Annäherung an die Kurve des Tankverhaltens von Diesel- und Benzinautos. Als abschließendes Ergebnis werden für die Tankstelle Lechwiesen Nord und Lechwiesen Süd jeweils 20 Elektrozapfsäulen gefunden. Für den Autohof Aichstetten ergeben sich unter Berücksichtigung des Verkehrsaufkommens 27 zu installierende Elektrozapfsäulen, sodass ein identisches Tankverhalten von Elektroautos bei vollständiger Elektrifizierung des deutschen PKW-Straßenverkehrs angenommen werden kann.
Die nachfolgende Arbeit befasst sich mit Hochstromwandlern für Schutzzwecke. Laut Aussage von Paul Scherrer finden sich diese in jedem Verteilnetz und tragen einen erheblichen Teil zur Sicherheit des Netzes bei. Im ersten Teil der Arbeit wird beschrieben, wie man bei der Dimensionierung bzw. der Auswahl eines Hochstromwandlers für Schutzzwecke vorgeht und welche technischen Parameter dafür notwendig sind. Der zweite Teil der Arbeit befasst sich damit, wie man die Auswahl sowohl wirtschaftlich als auch technisch im Bezug auf fiktive Zukunftsszenarien optimieren kann. Dafür liegen aktuelle Netzdaten der Energienetze Vorarlberg GmbH vor, welche für diese Arbeit anonymisiert wurden. Die fiktiven Zukunftsdaten sind Annahmen. Für den Prozess der Optimierung wurde ein Tool in Python angefertigt, welches eine optimierte Auswahl von Hochstromwandler für Schutzzwecke durchführt und diesen Prozess erleichtern soll. Dieses wird nach eigener Einschätzungen keine Verwendung in der Praxis finden, da es nur relevant sein wird, wenn man ein Stromnetz wie wir es heute in größeren Städten und Gemeinden finden, von null an neu aufbauen möchte.
Damit eine möglichst ausfallsichere Energieversorgung und Energieübertragung gewährleistet werden kann, werden verschiedene Betriebsmittel benötigt. Diese Betriebsmittel müssen gewisse Genauigkeitsgrenzwerte einhalten. In dieser Masterarbeit wird die Prüfung der Genauigkeit von Stromwandlern diskutiert. Die Ermittlung der Genauigkeit kann durch das Einspeisen eines Primärnennstroms (einige kA) und eine Messung des Sekundärstroms erfolgen. Daraus wird der Übertragungsfehler bestimmt. Die Genauigkeit wird unter anderem durch den Übertragungsfehler beschrieben, welcher sich aus dem Übersetzungsfehler und dem Phasenfehler zusammensetzt. Es wird bei diesem Verfahren von der Primärmethode oder auch Primärstrommethode gesprochen, dies ist die Referenzmessung nach den Normen IEC 61869-2 und IEEE C57.13. Die Firma OMICRON electronics GmbH entwickelte ein modellbasiertes Messverfahren, das den Einsatz eines mobilen und leichten Messgeräts erlaubt. Das Messgerät wird CT Analyzer genannt. Bei Verwendung dieser Methode werden keine hohen Ströme verwendet, was den BenutzerInnen zusätzlich eine höhere Sicherheit für die Bedienung des Geräts bietet. Mit diesem Messverfahren werden die einzelnen Komponenten des elektrischen Ersatzschaltbildes des Transformators bestimmt. Mit den ermittelten Komponenten kann dann der Übertragungsfehler berechnet werden. Das modellbasierte Messverfahren beruht auf Messungen, die von der Sekundärseite des Stromwandlers her durchgeführt werden. Man spricht bei diesem Messverfahren von der Sekundärspannungsmethode, welche inzwischen in der Norm IEC 61869-2 als alternative Messung angeführt ist. Der Vorteil der Primärmethode ist die Hoch-Präzisionsmessung, da die Prüfung unter realen Bedingungen und mit einer direkten Messung durchgeführt wird. Die Genauigkeit dieser Methode wird durch die Messtechnik selbst bestimmt, sie ist sehr genau und daher als Referenz gültig. Das Ziel der Sekundärspannungsmethode ist es, den Vorteil der Hoch- Präzisionsmessung für die Sekundärspannung zu nützen. Da es sich um ein modellbasiertes Messverfahren handelt, wird die Messgenauigkeit bei diesem Verfahren durch das angewandte Modell bestimmt und nicht durch die Messtechnik wie bei der Primärmethode. Daher sind Untersuchungen am Modell notwendig. Es gibt einige wenige Stromwandlertypen, bei denen es größere nicht akzeptable Differenzen zwischen der Primärmethode und der Sekundärspannungsmethode gibt. Diese Masterarbeit befasst sich deshalb mit Untersuchungen von Möglichkeiten und Grenzen der Sekundärspannungsmethode. Zu Beginn wird eine theoretische Sensitivitätsanalyse mathematisch erarbeitet. In diesem Zusammenhang wird der komplexe Fehlervektor eines Stromwandlers eingeführt. Diese Sensitivitätsanalyse dient der Ermittlung des Einflusses auf den komplexen Fehler in Abhängigkeit von verschiedenen Parametern und zur Auswahl von Stromwandler-Testobjekten. Des Weiteren wird die Sensitivitätsanalyse durch Messungen an verschiedenen Stromwandlern verifiziert. Die Untersuchungen basieren auf MATLAB-Simulationen und Messungen mit dem OMICRON Messgerät CT Analyzer, welches die Sekundärspannungsmethode anwendet. Die Ergebnisse werden mit den Herstellerdaten (Primärmethode) verglichen und analysiert werden.
Breath analysis offers a non-invasive and rapid diagnostic method for detecting various volatile organic compounds that could be indicators for different diseases, particularly metabolic disorders including type 2 diabetes mellitus. The development of type 2 diabetes mellitus is closely linked to metabolic dysfunction of adipose tissue and adipocytes. However, the VOC profile of human adipocytes has not yet been investigated. Gas chromatography with mass spectrometric detection and head-space needle trap extraction (two-bed Carbopack X/Carboxen 1000 needle traps) were applied to profile VOCs produced and metabolised by human Simpson Golabi Behmel Syndrome adipocytes. In total, sixteen compounds were identified to be related to the metabolism of the cells. Four sulphur compounds (carbon disulphide, dimethyl sulphide, ethyl methyl sulphide and dimethyl disulphide), three heterocyclic compounds (2-ethylfuran, 2-methyl-5-(methyl-thio)-furan, and 2-pentylfuran), two ketones (acetone and 2-pentanone), two hydrocarbons (isoprene and n-heptane) and one ester (ethyl acetate) were produced, and four aldehydes (2-methyl-propanal, butanal, pentanal and hexanal) were found to be consumed by the cells of interest. This study presents the first profile of VOCs formed by human adipocytes, which may reflect the activity of the adipose tissue enzymes and provide evidence of their active role in metabolic regulation. Our data also suggest that a previously reported increase of isoprene and sulphur compounds in diabetic patients may be explained by their production by adipocytes. Moreover, the unique features of this profile, including a high emission of dimethyl sulphide and the production of furan-containing VOCs, increase our knowledge about metabolism in adipose tissue and provide diagnostic potential for future applications.
Product ion distributions resulting from the primary reactions of H3O+ with nine D-labeled volatile organic compounds and the subsequent sequential reactions with H2O have been determined using a Proton Transfer Reaction Time of Flight Mass Spectrometer (PTR-TOF 8000 (IONICON Analytik GmbH)) at various reduced electric field (E/N) values ranging from 80 up to 150 Td and for two different absolute humidity levels of air sample < 0.1% and 5%. The specific D-labeled compounds used in this study are acetone-d6, toluene-d8, benzene-d6, ethanol-d (C2H5OD), ethanol-d2 (CH3CD2OH), ethanol-d6, 2-propanol-d8, 2-propanol-d3 (CD3CH(OH)CH3), and isoprene-d5 (CH2CHC(CD2)CD3). With the exception of the two 2-propanol compounds, non-dissociative proton transfer is the dominant primary reaction pathway. For 2-propanol-d8 and 2-propanol-d3 the major primary reaction channel involved is dissociative proton transfer. However, unlike their undeuterated counterparts, the primary product ions undergo subsequent deuterium/hydrogen isotope exchange reactions with the ever present water in the drift tube, the extent of which of course depends on the humidity within that tube. This exchange leads to the generation of various isotopologue product ions, the product ion branching percentages of which are also
dependent on the humidity in the drift tube. This results in complex mass spectra and the distribution of product ions leads to issues of reduced sensitivity and accuracy. However, the effect of D/H exchange considerably varies between the compounds under study. In the case of acetone-d6 it is very weak (<1%), because the exchange process is not facile when the deuterium is in the methyl functional group. In comparison, the H3O+/ benzene-d6 (C6D6) reaction and sequential reactions with water result in the production of the isotopologue ions C6Dn(H7-n)+ (where n = 0–6). Changing the value of E/N and/or the humidity in the drift tube considerably affects the amount of the isotope exchange reactions and hence the resulting sequential product ion distributions. An important conclusion of the findings from this work is that care must be taken in the choice of an exogenous deuterated compound for use in breath pharmacokinetic studies using proton transfer reaction mass spectrometry; otherwise the resulting D/H exchange processes impose interpretative problems.
© 2018 The Authors. Published by Elsevier B.V. This is an open access article under the CC BY license
(http://creativecommons.org/licenses/by/4.0/).
Transparent laser-structured glasses with superhydrophilic properties for anti-fogging applications
(2019)
Ultrashort pulse laser structuring enables direct modification of glass surfaces to generate superhydrophilic properties for anti-fogging applications. This approach makes coatings dispensable and the generated surfaces remain thermally, mechanically, and chemically resistant. However, the laser-generated structures usually cause scattering, which decreases transmission and may disturb the vision through the modified glass in the dry state. The aim of this study was to find a laser-processing strategy to achieve superhydrophilic, anti-fogging properties on glass surfaces with maximum transmission and minimal visual perception of the generated structure. For this purpose, we used an ultrashort-pulsed laser to generate periodic patterns of rippled circles or rough holes with varying pitch. The water contact angle and transmission of the structured glasses were measured as a function of the structured area. It was found that a periodic pattern of holes, which covers less than 1% of the surface, is already sufficient to reach the superhydrophilic state (contact angle < 5°) and provides nearly the same transmission as pristine glass. Pictures of objects imaged through dry, structured glasses, which were placed close to the lens or object, showed in both cases only a minimal decrease of contrast. If this minor drawback can be accepted, this direct laser structuring approach could be an interesting alternative to coating-based techniques and leaves even room to apply additional coatings for the fabrication of multi-functional special glasses.
Das Energieinstitut Vorarlberg hat zusammen mit mehreren Regionen in Vorarlberg das Sanierungslotsenprojekt gestartet, um die Beratungssituation bei der Gebäudesanierung zu verbessern. Durch wiederholten Kundenkontakt wurde festgestellt, dass es ein Beratungsdefizit für Besitzer älterer Einfamilienhäuser gibt. Zwischen der Erkenntnis, dass eine Sanierung des Gebäudes notwendig ist und dem Zeitpunkt, an dem die ersten Leistungen bestellt werden, gibt es keine sachkundige Betreuung in den Fragestellungen der zukünftigen Gebäudenutzung. In den bisher angebotenen Beratungen werden zwar auch unterschiedliche Sanierungsvarianten miteinander verglichen. Jedoch bezieht sich der Vergleich auf Variationen von Sanierungsmaßnahmen, wie beispielsweise Dämmstoff - und Fensterqualität oder die Auswahl eines Heizungssystems. Darüber hinaus gehende Fragen über altersgerechtes Wohnen, Generationenwohnen, Nachverdichtung und Vermietung werden in diesen Beratungen nicht behandelt. In allen Fragen der zukünftigen Nutzung und den zukünftigen Anforderungen an das Gebäude, den darauf abgestimmten Sanierungszielen und der zugehörigen Kostenschätzung mit Finanzierungsberechnung sind die Besitzer auf sich gestellt.
Deshalb ist der Bedarf nach einem einfachen Rechentool, welches in einer frühen Phase der Sanierungsberatung, eine schnelle Berechnung der in Betracht kommenden Sanierungsvarianten ermöglicht, entstanden. In dieser frühen Phase ist es bislang nicht üblich eine Kostenschätzung abzugeben. Für diese Berechnungen wird eine Datenbank mit Sanierungs - und Umbaukostenelementen benötigt, sodass mit einer abgesicherten Basisdaten kalkuliert werden kann.
In der vorliegenden Masterarbeit werden eine auf Microsoft Excel basierende Datenbank und das dazugehörige Rechentool vorgestellt, die die beschriebenen Anforderungen erfüllen. Mit Hilfe der Datenbank wird eine Grundlage geschaffen, an denen sich die Sanierungslotsen orientieren können. Zusätzlich zu den Netto- und Bruttokosten, die bei den einzelnen Sanierungsmaßnahmen anfallen, werden auch Einheitskosten angegeben, die in das Rechentool eingetragen werden können.
Das Rechentool ermöglicht den Vergleich von fünf unterschiedlichen Sanierungsvarianten. Durch die freie Eingabe der Flächen können auch Varianten mit unterschiedlichen Nutzungskonzepten und unterschiedlichen Grundrissen verglichen werden. Neben einer Grobkostenrechnung der Sanierungskosten erfolgt im Tool auch die Berechnung der Förderung laut der Wohnaussanierungsrichtlinie und Energieförderungsrichtlinie des Landes Vorarlberg. Weitere Förderungen können als Einmalzuschüsse eingetragen werden. Eine vereinfachte Wirtschaftlichkeitsbetrachtung erfolgt über die Berechnung der Finanzierung der Sanierung. Hierbei werden auch Einnahmen durch Vermietung berücksichtigt.
Da konventionelle Kältemittel im Vergleich zu CO2 ein großes Treibhauspotential (GWP) aufweisen, gewinnen neue, alternative Kältemittel, sogenannte low-GWP Kältemittel, stärker an Bedeutung. Zu diesen low-GWP Kältemitteln gehören u.a. die Fluide der HFO und HCFO Kältemittel. Durch ihre thermophysikalischen Eigenschaften eignen sie sich insbesondere für die Anwendung in industriellen Hochtemperaturwärmepumpen (HTWP), die im Temperaturbereich von 100 °C bis 160 °C ein großes Potenzial in der Nahrungsmittel-, Papier- und Chemieindustrie zur Prozesswärmebereitstellung aufweisen. In dieser Masterarbeit werden die Kältemittel R1336mzz(Z), R1233zd(E), R1224yd(Z), R1234ze(Z) und R514A auf ihre Anwendbarkeit in drei verschiedenen Kältekreiskonfigurationen untersucht. Dabei soll herausgefunden werden, welches Kältemittel sich unter Berücksichtigung des COPs, der volumetrischen Heizleistung, der Verdichtungsverhältnisse und Verdichtungsendtemperaturen am besten eignet. Der Kreislauf mit internem Wärmeübertrager (IHX) findet bereits Anwendung in HTWP und dient zum grundlegenden Vergleich der Kältemittel. Die beiden neuen Kreisläufe eignen sich u.a. für große Spreizungen an der Senke. Eine in dieser Arbeit betrachteten Kältekreiskonfiguration besteht aus zwei parallel angeordneten IHX Kreisläufen (2KP) und die andere aus einer zweistufigen Kreislaufkonfiguration (2SE).
Mithilfe des Programms EES wird für die Kreisläufe ein Modell erstellt, mithilfe dessen der Senkentemperaturbereich von 100 °C bis 160 °C und der Quellentemperaturbereich von 40 °C bis 80 °C untersucht werden kann. Die Auswertung der Simulationen kam zu dem Ergebnis, dass R514A bis zu einer Senkentemperatur von 130 °C und R1336mzz(Z) ab dieser Senkentemperaturen im IHX und 2SE Kreislauf die besten COP Werte aufweist. Zudem sind die Verdichtungsendtemperaturen und das Verdichtungsverhältnis günstig, die volumetrische Heizleistung hingegen am geringsten. Im 2KP Kreislauf besitzt die Kältemittelkombination R1336mzz(Z)/R514A die besten COP Werte. Der 2KP Kreislauf weist die besten COP Werte der betrachteten Kältekreiskonfigurationen auf. Im Betriebspunkt bei einer Senkentemperatur von 130 °C (ΔT Senke 60 K) und einer Quellentemperatur von 60 °C (ΔT Quelle 10 K) liegt der COP des IHX bei 3,95, der des 2SE bei 4,05 und der des 2KP bei 4,26. R1233zd(E) überzeugt im IHX und 2SE Kreislauf mit einer deutlich höheren VHC im Vergleich zu R1336mzz(Z), bei etwas geringeren COP Werten. Die Untersuchung zeigt auch, dass die Auswahl einer Kältekreiskonfiguration und eines Kältemittels stark von den Betriebstemperaturen abhängt.
In Benin werden einerseits große Mengen verschiedenster Abfallarten häufig in der Landschaft entsorgt und unter freiem Himmel verbrannt. Andererseits ist Energie in Benin sehr knapp und muss zu einem hohen Prozentsatz aus Nachbarländern
importiert werden. Hier setzt die vorliegende Arbeit an mit der Frage: Welche Varianten der Müllverbrennung mit Nutzung thermischer Energie sind hinsichtlich ökonomischer, technischer und ökologischer Kriterien in Benin realisierbar? Zur Beantwortung dieser Frage werden zunächst die Rahmenbedingungen vor Ort analysiert, um Anforderungen an eine solche Müllverbrennungsanlage abzuleiten. Als Kern der Arbeit wird eine Müllverbrennungsanlage mit anschließender Abgasreinigung konzipiert, die auf einem bereits vor Ort erprobten Ofen aufsetzt, der zur Verbrennung medizinischer Abfälle konstruiert wurde. Anhand einer detaillierten Analyse von Abgasreinigungstechnik wird aufgezeigt, wie dieser Basisofen zur Verbrennung von landwirtschaftlichen Abfällen und Kunststoffen angepasst werden kann. Konkrete Beispiele zur Nutzung thermischer Energie zur Kälteerzeugung, Salzherstellung und Palmölherstellung zeigen auf, dass das vorgestellte Konzept praxistauglich ist.
Das exakte Messen der aktuellen Spannung ist ein essenzieller Baustein sowohl für die Versorgungssicherheit als auch die Verrechnung von Leistung in der elektrischen Energietechnik. Dazu werden verschiedene Geräte verwendet, welche die Spannung auf einen normierten Wert teilen, sodass diese problemlos gemessen werden kann. In dieser Masterarbeit werden in weiterer Folge lediglich die konventionellen Spannungswandler und deren Übertragungsfehler, genauer gesagt die kapazitiven Spannungswandler, im Detail analysiert. Das übergeordnete Ziel dieser Arbeit ist es, jene Parameter der modellbasierten Messung von kapazitiven Spannungswandlern zu finden, welche die größte Sensitivität im Bezug auf den Spannungsübersetzungs-und Phasenfehler sind. Dabei werden zuallererst die zwei gängigsten Messmethoden zur Prüfung der Genauigkeit von konventionellen Spannungswandlern diskutiert. Des Weiteren wird die Arbeit anhand der CIGRE Umfragen im Bezug auf die Ausfälle der konventionellen Wandler motiviert. Des Weiteren wird der Stand der Technik ermittelt und dargelegt.
Für die Dauer der Untersuchung wurde ein kapazitiver Spannungswandler in seine beiden Hauptkomponenten (induktiver und kapazitiver Teil), zwecks besserer Analysierbarkeit der einzelnen Komponenten, zerlegt. Somit konnten sowohl die einzelnen CVT Komponenten als auch der gesamte kapazitive Spannungswandler frequenzabhängig und spannungsabhängig untersucht werden. Mittels dieser und der modellbasierten Messungen wurden die einzelnen Parameter für die Simulationsumgebung des kapazitiven Spannungswandlers ermittelt. Im Anschluss wurde dieses zum einen mittels vier verschiedener Betriebszustände und zum anderen mittels Messergebnissen sowohl der modellbasierten Prüfung als auch der Primärprüfung (EPRO Kalibrierung) verifiziert. Mit dieser Grundlage wurden anschließend die verschiedenen Sensitivitätsanalysen durchgeführt.
In this thesis the effect of dc voltage bias on the equivalent series resistance (ESR) of capacitors and especially ferroelectric dielectric ceramic capacitors (FDCC) is analysed. Further the influence of the dc biased ESR on the losses of capacitors is investigated. Also piezoelectric resonances (PR) occurring in FDCCs with applied dc bias and their influence on the losses are analysed.
Therefore a measurement circuit to measure the impedance and thus the ESR of capacitors in combination with a vector network analyser (VNA) is developed. Using the developed circuit the ESR of capacitors of different technologies is measured and their behaviour with dc bias is evaluated. The losses of an FDCC are measured in a power electronic (PE) circuit with a developed calorimetric measurement system (CMS). The influence of the PR is investigated by tuning the switching frequency of the PE system and thus the frequency of the capacitor current exactly into the PR. The measured losses are then compared to a calculation based on the capacitor current harmonics and the respective ESR.
The measurements show an increase of the ESR with dc bias for all measured FDCCs. The loss measurements show a significant increase of the losses in an FDCC if the current frequency matches the PR frequency. Consequently a decrease of the PE system's efficiency is measured. The loss calculations do not exactly match the measurements but there is a systematic deviation of the same order for all measurements.
Aktuell beschäftigen steigende Energiepreise, zunehmend knappe Ressourcenvorkommen und der Klimawandel die Energiebranche mehr denn je. Aber auch andere Organisationen wie Unternehmen und Kommunen, die einen erheblichen Beitrag zum Energieverbrauch leisten, sind davon betroffen. Ein Instrument, das sich dieser Themen angenommen hat und eine Möglichkeit zur Steuerung bietet, ist das Energiemanagement.
Ungenutztes Energieeffizienzpotential kann mit einem gut aufgebauten und strukturierten Energiemanagement nutzbar gemacht werden. Gerade weil das Angebot technischer Lösungen sehr groß ist, liegt die Vermutung nahe, dass die Umsetzung oft durch strukturelle oder organisationsbedingte Barrieren erschwert wird.
Aus diesem Grund ist der Forschungsgegenstand dieser Arbeit eine ausführliche Untersuchung der Umsetzung von betrieblichem und kommunalem Energiemanagement. Es konnten Erkenntnisse gewonnen werden, welche Themen beim Energiemanagement eine Herausforderung darstellen und welche Aspekte spezifisch bei Unternehmen oder Kommunen wichtige Stellschrauben im Umsetzungsprozess sind.
Die Ergebnisse der Expertenbefragung und der Literaturanalyse haben gezeigt, dass Energiemanagement derzeit zu wenig Interesse geschenkt wird und deshalb die Investitionen, vor allem in ausreichend Personalressourcen, fehlen. Die größte Hürde ist die wirtschaftliche Darstellbarkeit von Maßnahmen, die insbesondere bei wenig energieintensiven Organisationen Schwierigkeiten bereitet beziehungsweise kaum durchsetzbar ist. Dies wiederum fordert ein Umdenken von Politik und Wirtschaft, was sich auch in anderen Einflussfaktoren deutlich wiederspiegelt.
Aber nicht nur in den entscheidenden Reihen einer Organisation muss ein Umdenken stattfinden. Nur wenn das Bewusstsein für Energie bei allen Beteiligten steigt und alle bei Strategie und Umsetzung an einem Strang ziehen, kann die Energiewende mithilfe von Energiemanagement gelingen.
Um ein möglichst kostengünstiges Laden von Elektrofahrzeugen zu erreichen, ist es nötig, diese möglichst in Zeiten zu laden, an denen die Kosten für die Energie geringer sind und die Entstehung von Leistungsspitzen vermieden wird. Aus diesem Grund wird in dieser Arbeit anhand des Verbrauches und den tariflichen Bedingungen eines Betriebes in Österreich die Kostenentwicklung von drei verschiedenen Ladeszenarien untersucht und verglichen. Dabei handelt es sich um das einfache Laden, intelligente Laden und das intelligente Laden mit Vehicle to Grid Erweiterung, wobei hierbei die Energie aus den Fahrzeugen ausschließlich zur Eigenverbrauchsoptimierung und Spitzenlastreduktion eines Betriebes dient und somit nicht in das Netz gespeist wird. Die Ergebnisse werden durch eine lineare Optimierung errechnet wobei bis zu vier Fahrzeuge simuliert werden.
Die Ergebnisse zeigen, dass es durch das intelligente Laden zu keinen neuen Leistungsspitzen kommt und es zusätzlich zu einem erhöhten Eigenverbrauch aus der vorhandenen Photovoltaikanlage kommt.
Dadurch reduzieren sich die Ladekosten in jedem Szenario. Auch in Betrachtung auf die Anschaffungskosten, ist eine Verbesserung ersichtlich. Beim Vehicle to Grid Laden werden die Arbeits- und Leistungskosten noch weiter gesenkt, wobei die Leistungskosten bei zwei Fahrzeugen ihren Tiefpunkt erreicht haben. Zusätzlich kann der Eigenverbrauch aus der Photovoltaikanlage noch weiter erhöht werden. Nachdem hierbei die Investitionskosten noch berücksichtigt wurden, kommt der Autor zum Schluss, dass es nur mit einem Fahrzeug zu einer Verringerung der gesamten Kosten kommt. Dies kommt durch die erhöhten Investitionskosten und dem mit höher werdender Anzahl an Fahrzeugen geringer werdenden Vehicle to Grid Einsatz zustande.
Weltweit hatten 2017 840 Millionen Menschen keinen Zugang zu Strom. Hinzu kommen Millionen weitere Menschen, die an unzuverlässige Stromquellen angeschlossen sind. Für das Wirtschaftswachstum, die menschliche Entwicklung und ökologische Nachhaltigkeit ist eine zuverlässige Stromversorgung jedoch von großer Bedeutung.
Die vorliegende Arbeit beschäftigt sich daher mit der Konzeptionierung einer zuverlässigen Stromversorgung für eine Hochschule in Benin (Westafrika), die sich mit einem unzuverlässigen Netzanschluss konfrontiert sieht. Die Konzeptionierung erfolgt mithilfe der Software HOMER.
Aufgrund unsicherer Systembedingungen wurden mehrere Szenarien und der Einfluss verschiedener Systemparameter untersucht.
Die Ergebnisse zeigen, dass eine zuverlässige Stromversorgung durch die Implementierung eines Mini-Grids erreicht werden kann. Dabei hat die Ausgangssituation einen bedeutenden Einfluss auf die Systemauslegung. Für das untersuchte Szenario, in dem die Hochschule keine Stromkosten bezahlte, erwies sich ein PV/Dieselgenerator/Batterien-Mini-Grid als geeignet. Dabei entstehen Stromkosten von mindestens 0,013 USD pro kWh, was leicht erhöhte Kosten gegenüber den Bezugskosten bedeutet. Dieser Kostenzuwachs lässt sich aber mit der erhöhten Zuverlässigkeit rechtfertigen. Auch unter der Annahme, dass die offiziellen Bezugskosten bezahlt werden müssen, erwies sich ein PV/Dieselgenerator/Batterie-Mini-Grid als geeignet. Die Größe der PV-Anlage fällt in diesem Fall deutlich größer aus, was zu einem reduzierten Einsatz des Dieselgenerators führt. Ein untersuchtes Off-Grid erwies sich als unwirtschaftlich.
Somit enthält die Arbeit wichtige Erkenntnisse darüber, wie sich verschiedene Parameter auf ein geeignetes System auswirken. Zudem wurde ein Systemvorschlag ausgearbeitet. Diese Informationen sollen nicht nur den beteiligten Personen vor Ort helfen, sondern auch als Grundlage für zukünftige Projekte dienen.
In den letzten Jahrzehnten gewann Aluminium als vielseitig einsetzbarer Werkstoff immer mehr an Bedeutung. Das Vorarlberger Unternehmen Hydro Extrusion Nenzing ist Teil der Aluminiumverarbeitungsindustrie und stellt stranggepresste Aluminiumprofile her. Beim Strangpressen werden Aluminiumstangen in einem Durchlaufinduktionsofen auf bis zu 520 °C erhitzt und anschließend durch ein formgebendes Werkzeug gepresst. Nach dem induktivem Aufwärmen wird ein Teil der Stange aus dem Ofen gefahren und abgeschert. Die erzeugte Temperaturverteilung an diesem abgescherten Bolzen ist der sogenannte Taper. Das induktive Aufwärmen ist ein wichtiger Teil der Extrusion und steht im Fokus dieser Forschungsarbeit. Ziel dieser Arbeit ist es, den Aufwärmprozess der Aluminiumstangen, mithilfe einer Kombination aus explorativer Datenanalyse und Methoden des maschinellen Lernens, genauer zu verstehen und den resultierenden Taper vorherzusagen. Außerdem werden parallel die signifikanten Einflussparameter, ohne Berücksichtigung von Materialparametern, untersucht.
Nach der explorativen Datenanalyse wurden mithilfe eines k-means-Clusterverfahren zwei Klassifizierungsvarianten entwickelt. In der ersten Variante liegen die Taper nach ihrer Bolzenlänge und Form gegliedert vor. Es zeigte sich, dass die Taper der Bolzen mit ähnlicher Länge auch ähnliche Formen annehmen. Ein einfacher Entscheidungsbaum konnte die 13 Zielklassen zu etwa 85 % vorhersagen. Die Bolzenlänge spielt bei der Vorhersage eine wichtige Rolle. Die zweite Klassifizierungsvariante basiert hingegen ausschließlich auf der Taperform. Die angewendeten Modelle (k-Nearest-Neighbor, Decision Tree, Random Forest) waren jedoch kaum in der Lage, die 11 Klassen abzubilden. Grund für die unzureichende Vorhersageleistung können die vielen Unsicherheiten in der Datenstruktur sein. Die anschließende detaillierte, explorative Analyse der formabweichenden Taper deutet fehlende Merkmale im Datensatz an. Einige Bolzen setzen sich aus zwei Stangenenden zusammen. Diese geteilten Bolzen führen zu abweichenden Aufwärmverhalten, wodurch auffällige Taper entstehen. Die Information ob sich ein Bolzen aus zwei Stangen zusammensetzt fehlt jedoch im Datensatz. Der Aufwärmvorgang der Stangen wird demnach durch ein Wechselspiel der aktuellen Regelung und zwei maßgeblichen Faktoren beeinflusst: die Bolzenlänge und das Auftreten von geteilten Bolzen. Diese Faktoren bestimmen die Stangentemperatur im Ofen, den induzierten Strom und somit den resultierenden Taper. Aufgrund dieser Ergebnisse könnte die temperaturbasierte Regelung zukünftig durch eine Steuerung hinsichtlich des induzierten Stroms ersetzt, dadurch Energie eingespart und Schrott vermieden werden.
Aufgrund des fortschreitenden Klimawandels müssen neue Wege gefunden werden, um diesen zu verlangsamen, bzw. die Emission von Treibhausgasen zu reduzieren. Ein Weg dieses Ziel zu erreichen ist das CO2-Recycling direkt an der Quelle. Durch die hohe thermische und chemische Beanspruchung der hierfür eingesetzten Elektroden bieten sich gerade technische Keramiken als Elektrodenmaterialien an. Eine jener in Frage kommenden Keramiken ist Siliziumkarbid (SiC). Bei SiC handelt es sich um einen Wide-Bandgap-Halbleiter mit hoher thermischer und chemischer Stabilität. Da die Herstellung, des für Elektroden benötigten, hochreinen, porösen SiC sehr aufwendig und damit auch teuer ist, wird schon seit einiger Zeit nach anderen Verfahren, als den industriell eingesetzten Standardverfahren, zur Herstellung von hochreinem SiC geforscht. In der vorliegenden Arbeit wird die Bildung von Siliziumkarbid in isostatisch gepressten Graphiten mittels karbothermischer Reduktion verschieden dotierter Sol-Gel-Granulaten und cerschiedener poröser Graphite untersucht. Zu diesem Zweck werden die Proben unterschiedlichen Anzahlen an Zyklen des in einem Induktionsofen, durchgeführten Hochtemperaturprozesses ausgesetzt. Dabei wird das Granulat thermisch zersetzt, wobei es unter anderem zu einer Gasphasenreaktion mit dem Kohlenstoff der Graphittemplates kommt und damit zur Umwandlung von Kohlenstoff zu SIC. Von den so gewonnenen Proben werden in einem Micro-CT Schichtaufnahmen erstellt. Das Ergebnis soll ein Erkenntnisgewinn bezüglich der Umwandlungstiefe und entstandenen Strukturen in den unterschiedlichen Graphittemplates, je nach Anzahl der durchlaufenen Zyklen und verwendetem Precursorgranulat, sein. Nicht untersucht wird das elektrische Verhalten der unterschiedlichen, auf diese Weise örtlich dotierten, Templates.
In Anbetracht einer immer größer werdenden Diskussion über den Klimaschutz und einer anvisierten Energiewende finden umweltschonende Energietechniken immer mehr an Aufmerksamkeit in der Gesellschaft. Die Kombination von Stromerzeugung und gleichzeitiger Wärmeproduktion macht die Biomassevergasung zu einem interessanten Untersuchungsobjekt. Die anfallenden Biokohlestäube versprechen in Zukunft von großem Nutzen zu sein, um zum Beispiel Kohlenstoff in der Erde abzuspeichern. Die sogenannten ”Terra Preta“ Böden steigerten merklich das Interesse am Einsatz von Kohle in der Landwirtschaft, um in Böden verbessernde Eigenschaften zu erzielen. In dieser Masterarbeit wird die Auswirkung der Biokohle einer Schwebefestbettvergaseranlage auf das Pflanzenwachstum, die verfügbaren Nährstoffe und auf die Anzahl der Mikroorganismen untersucht. Hierfür wurden zwei verschiedene Versuchspflanzen herangezogen. Es wurde auf Hafer und Rübse zurückgegriffen. Der Versuch fand unter Laborbedingungen in einem Wachstumsschrank statt. Es wurden Böden mit unterschiedlichen Kohlegehalten hergestellt (0 %, 2,5 % 5 %, 12,5 %). Des Weiteren wurde auf zwei verschiedene Arten eine oberflächenaktivierte Kohle hergestellt. Einmal erfolgte dies durch Ko-Kompostierung der Biokohle in Grünschnitt und das zweite Mal durch die Beladungmit künstlichem Dünger. Die chemische Aktivierung erfolgte über einen Rührversuch. Dabei wurde die Kohle über einen längeren Zeitraum mit dem künstlichen Dünger in einem Gefäß gerührt.
Die Versuchsdauer erstreckte sich jeweils über einen Zeitraum von ca. 3 Wochen. Am Ende der Versuche wurden die Pflanzen geerntet. Anschließend wurde ihre Wuchshöhe und deren Durchmesser erfasst und statistisch ausgewertet. Die Nährstoffe im Boden wurden mittels Macherey Nagel Schnelltest ermittelt. Hierfür wurden Proben sowohl am Anfang als auch am Ende des Experiments genommen und anschließend aufbereitet und ebenfalls statistisch ausgewertet. Es konnte durch den Zusatz von Kohle einen signifikant höherer Mittelwert des Pflanzenwachstums erzielt werden. Und auch bei den Nährstoffen konnten Unterschiede zum Referenzboden nachgewiesen werden. Im Gegensatz dazu konnte bei den Mikroorganismen statistisch kein Unterschied festgestellt werden. Leider traten während des Versuches vermehrt Probleme auf, die aber entsprechend in der Arbeit adressiert und dokumentiert werden. Aus diesem Grund muss darauf verwiesen werden, dass einige Ergebnisse nicht verwertbar waren.
Varying mindsets in Design Thinking. Why they change during the process and how to nudge them
(2019)
Stress testing is part of today’s bank risk management and often required by the governing regulatory authority. Performing such a stress test with stress scenarios derived from a distribution, instead of pre-defined expert scenarios, results in a systematic approach in which new severe scenarios can be discovered. The required scenario distribution is obtained from historical time series via a Vector-Autoregressive time series model. The worst-case search, i.e. finding the scenario yielding the most severe situation for the bank, can be stated as an optimization problem. The problem itself is a constrained optimization problem in a high-dimensional search space. The constraints are the box constraints on the scenario variables and the plausibility of a scenario.
The latter is expressed by an elliptic constraint. As the evaluation of the stress scenarios is performed with a simulation tool, the optimization problem can be seen as black-box optimization problem. Evolution Strategy, a well-known optimizer for black-box problems, is applied here. The necessary adaptations to the algorithm are explained and a set of different algorithm design choices are investigated. It is shown that a simple box constraint handling method, i.e. setting variables which violate a box constraint to the respective boundary of the feasible domain, in combination with a repair of implausible scenarios provides good results.
In engineering design, optimization methods are frequently used to improve the initial design of a product. However, the selection of an appropriate method is challenging since many
methods exist, especially for the case of simulation-based optimization. This paper proposes a systematic procedure to support this selection process. Building upon quality function deployment, end-user and design use case requirements can be systematically taken into account via a decision
matrix. The design and construction of the decision matrix are explained in detail. The proposed
procedure is validated by two engineering optimization problems arising within the design of box-type boom cranes. For each problem, the problem statement and the respectively applied optimization methods are explained in detail. The results obtained by optimization validate the use
of optimization approaches within the design process. The application of the decision matrix shows the successful incorporation of customer requirements to the algorithm selection.
Zusammenfassung: Eine umfassende Literaturrecherche (Comprehensive Literature Search, CLS) bezeichnet eine umfangreiche und aufwändige Recherche mit dem Ziel, möglichst alle Studien zur Beantwortung einer zugrundeliegenden Forschungsfrage im Rahmen einer systematischen Übersichtsarbeit zu identifizieren. Konkrete Empfehlungen oder eine Definition des Begriffs CLS gibt es jedoch nicht. Der vorliegende Beitrag führt in eine Rahmung der CLS ein, stellt die damit einhergehenden Herausforderungen dar und weist auf methodische Implikationen sowie mögliche zukünftige Forschungsbereiche hin.
Adult muscle carnitine palmitoyltransferase (CPT) II deficiency is a rare autosomal recessive disorder of long-chain fatty acid metabolism. It is typically associated with recurrent episodes of exercise-induced rhabdomyolysis and myoglobinuria, in most cases caused by a c.338C > T mutation in the CPT2 gene. Here we present the pedigree of one of the largest family studies of CPT II deficiency caused by the c.338C > T mutation, documented so far. The pedigree comprises 24 blood relatives
of the index patient, a 32 year old female with genetically proven CPT II deficiency. In total, the mutation was detected in 20 family members, among them five homozygotes and 15 heterozygotes. Among all homozygotes, first symptoms of CPT II deficiency occurred during childhood. Additionally, two already deceased relatives of the index patient were carriers of at least one copy of the genetic variant, revealing a remarkably high prevalence of the c.338C > T mutation within the tested family. Beside the index patient, only one individual had been diagnosed with CPT II deficiency prior to this study and three cases of CPT II deficiency were newly detected by this family study, pointing
to a general underdiagnosis of the disease. Therefore, this study emphasizes the need to raise awareness of CPT II deficiency for correct diagnosis and accurate management of the disease.
Breath analysis holds great promise for real-time and non-invasive medical diagnosis. Thus, there is a considerable need for simple-in-use and portable analyzers for rapid detection of breath indicators for different diseases in their early stages. Sensor technology meets all of these demands. However, miniaturized breath analyzers require adequate breath sampling methods. In this context, we propose non-contact sampling; namely the collection of breath samples by exhalation from a distance into a miniaturized collector without bringing the mouth into direct contact with the analyzing device. To evaluate this approach different breathing maneuvers have been tested in a real-time regime on a cohort of 23 volunteers using proton transfer reaction mass spectrometry. The breathing maneuvers embraced distinct depths of respiration, exhalation manners, size of the mouth opening and different sampling distances. Two inhalation modes (normal, relaxed breathing and deep breathing) and two exhalation manners (via smaller and wider lips opening) forming four sampling scenarios were selected. A sampling distance of approximately 2 cm was found to be a reasonable trade-off between sample dilution and requirement of no physical contact of the subject with the analyzer. All four scenarios exhibited comparable measurement reproducibility spread of around 10%. For normal, relaxed inspiration both dead-space and end-tidal phases of exhalation lasted approximately 1.5 s for both expiration protocols. Deep inhalation prolongs the end-tidal phase to about 3 s in the case of blowing via a small lips opening, and by 50% when the air is exhaled via a wide one. In conclusion, non-contact breath sampling can be considered as a promising alternative to the existing breath sampling methods, being relatively close to natural spontaneous breathing.
Synthese von Gashydraten
(2019)
Bei Clathraten handelt es sich um Einschlussverbindungen, bei denen beliebige Gastmoleküle in einem Käfig bzw. Gitter von beliebigen Wirtsmolekülen eingeschlossen sind. Bei hohem Druck und niedriger Temperatur können beispielsweise Gasmoleküle in einem Wirtsgitter aus Wassermolekülen eingelagert werden. Natürlich vorkommende Hydrate in den Tiefeneisfeldern der Schelfmeere und in Permafrostgebieten zu finden und haben hauptsächlich Methan als Gastgas. Im Forschungsbereich Energie der Fachhochschule Vorarlberg (FHV) werden die Bildungs- und Zerfallsprozesse von Gashydraten erforscht. Für die Herstellung dieser Proben ist ein Mikroreaktor vorhanden, mit dem keine zufriedenstellenden Ergebnisse erzielt werden können, da die Dauer der Bildung von ausreichenden Mengen an Hydratproben hoch ist. Obwohl die Synthese von Hydraten bereits mehrfach Gegenstand der Forschung war und es weiterhin ist, besteht nach wie vor ein großes Potential in der Beschleunigung des Wachstumsprozesses von Hydraten. Da der Beginn des Hydratwachstums durch einen stochastischen Prozess ausgelöst wird, kann die Dauer der Keimbildung bzw. bis zum Beginn des Kristallwachstums viel Zeit in Anspruch nehmen. Für weitere Forschungsarbeiten im Forschungsbereich Energie der FHV ist eine beschleunigte und technisch einfache Herstellung von Hydraten von hoher Wichtigkeit. Deshalb ist der Fokus bzw. das Thema dieser Arbeit die Entwicklung eines neuartigen Versuchsreaktors, der die Möglichkeit bietet, verschiedene bekannte sowie neue Methoden für die Synthese von Gashydrat anzuwenden und für die Herstellung von Hydratproben untereinander zu kombinieren. Der im Zuge dieser Arbeit entwickelte Versuchsreaktor ist so aufgebaut, dass mehrere aus der Literatur bekannte Synthesemethoden, sowohl einzeln wie auch in Kombination untereinander, verwendet werden können. Als zusätzliche und neuartige Synthesemethode ist eine Baugruppe des Aufbaus darauf ausgelegt, das Hydratwachstum ausschließlich aus der Gasphase zu ermöglichen. Der Versuchsaufbau verfügt über mehrere Temperaturfühler und einen Druckaufnehmer, die über ein Datenerfassungssystem eine Steuerung und eine Überwachung des Herstellungsprozesses erlauben. Es wurden neben verschiedenen Inbetriebnahmetests insgesamt drei Versuche zur Ermittlung der Tauglichkeit des Systems zur Hydratsynthese durchgeführt. In jeder dieser drei Versuchsreihen konnten neue Erkenntnisse bezüglich des Wachstumsprozesses von Hydraten gewonnen werden, die auch in der gesichteten Literatur bisher nicht dokumentiert sind. Weiters wurde die neuartige Synthesemethode aus der Gasphase erprobt. Obwohl diese grundsätzlich funktioniert, sind die erreichbaren Produktionsraten prozessbedingt niedrig. Das Ziel, Hydratproben einfach und schnell erzeugen zu können, konnte mit dem entwickelten Versuchsreaktor erreicht werden.
Alterungsvorgänge in einer Lithium-Ionen Akkumulatorzelle beeinflussen deren Eigenschaften und sind daher von besonderen Bedeutung für den Einsatz dieser Technologie. Diese Masterarbeit untersucht mikrostrukturelle Veränderung in zwei zylindrischen Lithium-Ionen Zellen (Type 26650) ohne Zentrierstift, die in Powerbanks verbaut sind. An den beiden Akkumulatoren, mit unterschiedlichen Alterungszustands, wird vergleichend beobachtet welche Unterschiede sich über die Alterung ergeben. Mittels Computertomographie und elektrischen Messungen wurden Daten während der zyklischen Alterung der Zellen gesammelt und ausgewertet. Es konnte gezeigt werden, dass der Verlauf des Kapazitätsverlustes abhängig vom Alterungszustand ist. Insgesamt ergab sich nach 507 Zyklen bei der Powerbank „Neu“ eine Reduzierung der aufgenommenen Energie um 16 % und der abgegebenen Energie um 20 %. Die Powerbank „Alt“ zeigte nach 317 Zyklen eine Reduzierung der aufgenommenen Energie von 19% und der abgegebenen Energie von 27% zum Ausgangswert. Der gemessene Kapazitätsverlust konnte nicht auf mikrostrukturelle Veränderungen während der Alterung zurückgeführt werden. Es zeigten sich besonders in der bereits gealterten Zelle (Powerbank „Alt“) deformierte Elektrodenschichten im Zellinneren und in der Näher der Stromableiter. Hinzukommt bei der Powerbank „Alt“, dass Kathode und Anode gegeneinander verschoben sind. Es konnte ebenfalls in der Powerbank „Alt“ eine neu entstandene Deformierung während der zyklischen Alterung beobachtet werden. Des Weiteren konnten auch Schweißgrate bei beiden Powerbanks auf den Stromableitern visualisiert werden.
Low cost Solar Forecast
(2019)
In der vorliegenden Arbeit wird der Fokus auf die Konzeption eines kostengünstigen Systems zur Vorhersage der solaren Einstrahlung mittels stochastischer Methoden gelegt. Der Vorhersagezeitraum liegt zwischen einer und drei Stunden. Es wird auf die Gefahren der Stochastik und das Aufarbeiten von Daten für stochastische Methoden eingegangen. Bereits die zur Vorhersage verschiedener meteorologischer Daten verwendeten Methoden werden analysiert, angewendet und mittels des relativen Fehlers, dem Root Mean Square Error (Wurzel der mittleren Fehlerquadratsumme) (RMSE) und des Mean Absolute Deviation (MAD) untereinander verglichen. Es werden Kriterien zur Auswahl der zur Aufgabenstellung am besten passenden Methode ausgearbeitet. Die Recherche der vorhandenen stochastischen Methoden und die Anwendung dieser Methoden haben das Artificial Neural Network (künstliches neuronales Netzwerk) (ANN), das mit der Softwarebibliothek Tensorflow erstellt wurde, als die beste Methode hervorgebracht. Die Programmierung der einzelnen Methoden mittels Scikit-learn, Python und Tensorflow wird beschrieben und eine Vorhersage berechnet. Als Hardware wird einerseits ein kostengünstiger Einplatinencomputer, ein Raspberry Pi 3, und andererseits ein leistungsstarkes Notebook verwendet. Die jeweils benötigte Rechenzeit weist keine gravierenden Unterschiede auf. Anschließend wurden die berechneten Vorhersagen mit den vorhandenen Messdaten, der Persistence Method (Persistenz Methode) (PM) und der Vorhersage der Meteo-Schweiz verglichen. Die unterschiedlichen Diagramme der Vorhersagen und deren Genauigkeiten kommen im Verlauf zur Darstellung. Die relative Abweichung der Vorhersage des Artificial Neural Network (künstliches neuronales Netzwerk)(Tensorflow) (ANNT) von den Messdaten liegt über das Jahr 2017 gesehen bei 8.52% oder auf die Jahresenergie bezogen bei 87.3 kWh/m2 . Im Vergleich zur PM Methode weicht die ANNT Methode um 83.5 kWh/m2 und Jahr ab. Abschließend wird auf Verbesserungsmöglichkeiten und weiterführende Arbeiten eingegangen.
Die Gebäudeenergieversorgung mittels kombinierter Erneuerbarer Energiesysteme wird in Zukunft häufiger realisiert werden. Dies liegt unter anderem am Fokus der aktuellen Energiepolitik, an der wachsenden Akzeptanz der Bevölkerung und an einer ständigen Verbesserung der Wohngebäudeeigenschaften. Die volatile Charakteristik des erneuerbaren Energieangebots stellt eine Herausforderung dar. Thermische Lastverschiebung ermöglicht es, durch die Speicherung thermischer Energie, Zeiten mit geringem Energieertrag zu überbrücken. Es werden in dieser Masterarbeit drei Methoden zur Lastverschiebung mittels Simulation einer Referenzwohnanlage mit 31 Wohnungen untersucht. Die Gebäudesimulation wird hierfür mit TRNSYS durchgeführt, die Simulation zum Vergleich der unterschiedlichen Methoden mit Polysun. Die untersuchten Methoden sind die Regeneration des Erdsondenfeldes einer Geothermiewärmepumpe, die Anhebung der Maximaltemperatur sensibler Wärmespeicher, sowie die Anhebung der Raumtemperatur in der Referenzwohnanlage. Die Ergebnisse zeigen, dass die Sondenregeneration eine effektive Methode zur Steigerung der Jahresarbeitszahl (JAZ) der Wärmepumpe und des solaren Deckungsbeitrags darstellt. Die Sondentemperatur kann im Referenzfall zeitweise sogar auf ein höheres Niveau angehoben werden. Durch die zusätzliche Kombination mit einer Erhöhung der Speichermaximaltemperatur, bei hohem solarthermischem Ertrag, kann eine weitere Steigerung der JAZ erreicht werden. Die Solarthermieanlage kann so den größten Temperaturbereich nutzen, was auch die solare Deckungsrate weiter anhebt. Die thermische Gebäudeaktivierung weist das größte Potential für die Steigerung des PV-Eigenverbrauchs auf und verbessert die JAZ der Wärmepumpe durch den vermehrten Betrieb im Niedertemperaturbereich bedeutend; Jedoch wächst der Heizwärmebedarf (HWB) für die untersuchte Referenzwohnanlage aufgrund der Raumtemperaturüberhöhung (RTÜ) dermaßen, dass sie den Benefit der zusätzlich genutzten erneuerbaren Energie übersteigt und diese Methode zur thermischen Lastverschiebung daher nicht empfehlenswert ist. Da die thermische Gebäudeaktivierung in dieser Studie für bestimmte Gebäudeeigenschaften und mittels Fußbodenheizung realisiert ist, wird darauf hingewiesen, dass die Ergebnisse nur bedingt übertragbar sind und bei veränderten Gebäudeeigenschaften stark abweichen können.
Heimische Ladevorgänge von Elektroautos sind ein zusätzlicher Faktor in dem Wandel, dem Verteilnetze ausgesetzt sind. Aufgrund der typischen langen Parkzeiten bietet das Laden von Elektroautos jedoch einen hohen Grad an Flexibilität, mit deren Hilfe die Netzbelastung entscheidend verringert werden kann und weitere Dienstleistungen, auch in höheren Netzebenen, erbracht werden können. Die vorliegende Arbeit bewertet mit dem Instrument der Nutzwertanalyse fünf Ladestrategien, wie die Koordinierung von Ladevorgängen nutzbringend eingesetzt werden kann. Dazu werden im ersten Schritt Kriterien auf Basis der Literaturrecherche sowie der gegebenen Informationsgrundlagen der betrachteten Systeme definiert. Um eine neutralere Bewertung zu ermöglichen, wird die Gewichtung der Kriterien zusätzlich von einem Vertreter eines Verteilernetzbetreibers und einem Energieversorger vorgenommen. Mit den Ergebnissen der Bewertung werden die Systeme hinsichtlich ihres Nutzens unter Berücksichtigung der Bedeutung für die jeweiligen Parteien verglichen. Dabei werden die Stärken und Schwächen der Systeme herausgestellt und mögliche Interessenskonflikte lokalisiert. Ebenfalls wird auf die Eignung der Nutzwertanalyse als Werkzeug zur Bewertung der Systemkonzepte eingegangen. Im Anschluss wird der Grundaufbau eines Systems vorgestellt, welches aufgedecktes Potential zur Weiterentwicklung der bewerteten Systeme nutzt und damit zu einem größeren Gesamtnutzen führen kann.
In dieser Arbeit wird Supervised Learning verwendet, um die Zuverlässigkeit von Schweißverbindungen zu evaluieren.
Um die Schweißqualität zu bestimmen, wurden End of Life Tests durchgeführt. Für die statistische Auswertung und Vorhersage der zu erwartenden Lebensdauer, wurden die Daten basierend auf einer logarithmischen Normalverteilung und mit einer multivariablen linearen Regression modelliert. Um die signifikanten Einflussfaktoren zu identifizieren, wurde eine schrittweise Regression genutzt. Die Ergebnisse zeigen, dass das entwickelte Modell die Zuverlässigkeit und Lebensdauer der Schweißverbindung akkurat abbildet und präzise Vorhersagen liefern kann.
Background: Peripheral arterial disease (PAD) is a common and severe disease with a highly increased cardiovascular morbidity and mortality. Through the circulatory disorder and the linked undersupply of oxygen carriers in the lower limbs, the ongoing decrease of the pain-free walking distance occurs with a significant reduction in patients’ quality of life. Studies including activity monitoring for patients with PAD are rare and digital support to increase activity via mobile health technologies is mainly targeted at patients with cardiovascular disease in general. The special requirement of patients with PAD is the need to reach a certain pain level to improve the pain-free walking distance. Unfortunately, both poor adherence and availability of institutional resources are major problems in patient-centered care.
Objective: The objective of this trackPAD pilot study is to evaluate the feasibility of a mobile phone–based self tracking app to promote physical activity and supervised exercise therapy (SET) in particular. We also aim for a subsequent patient centered adjustment of the app prototype based on the results of the app evaluation and process evaluation.
Methods: This study was designed as a closed user group trial, with assessors blinded, and parallel group study with face-to-face components for assessment with a follow-up of 3 months. Patients with symptomatic PAD (Fontaine stage IIa or IIb) and possession of a mobile phone were eligible. Eligible participants were randomly assigned into study and control group, stratified by their distance covered in the 6-min walk test, using the software TENALEA. Participants randomized to the study group received usual care and the mobile intervention (trackPAD) for the follow-up period of 3 months, whereas participants randomized to the control group received only usual care. TrackPAD records the frequency and duration of training sessions and pain level using manual user input. Clinical outcome data were collected at the baseline and after 3 months via validated tools (6-min walk test, ankle-brachial index, and duplex ultrasound at the lower arteries) and self-reported quality of life. Usability and quality of the app was determined using the user version of the Mobile Application Rating Scale.
Results: The study enrolled 45 participants with symptomatic PAD (44% male). Of these participants, 21 (47%) were randomized to the study group and 24 (53%) were randomized to the control group. The distance walked in the 6-min walk test was comparable in both groups at baseline (study group: mean 368.1m [SD 77.6] vs control group: mean 394.6m [SD 100.6]).
Conclusions: This is the first trial to test a mobile intervention called trackPAD that was designed especially for patients with PAD. Its results will provide important insights in terms of feasibility, effectiveness, and patient preferences of an app-based mobile intervention supporting SET for the conservative treatment of PAD.
Die Aktualität des Klimawandels fordert Maßnahmen in privaten und wirtschaftlichen Bereichen. Die Veränderungen des Klimas führen dazu, dass Regelungen und Gesetze für das Energiewesen der Unternehmen entwickelt werden. Die Gesetze verpflichten die Unternehmen für Energie- und Umweltaudits. Viele Unternehmen führen noch zusätzliche Maßnahmen für eine Verbesserung der Energieeffizienz und des Emissionsausstoßes ein. Die Maßnahmen werden immer relevanter.
Die Norm ISO 50001 unterstützt Unternehmen bei der Einführung und bei der Aufrechterhaltung eines Energiemanagementsystems. Das Energiemanagement hilft dabei, die energiebezogene Leistung zu verbessern und einen kontinuierlichen Verbesserungsprozess umzusetzen. Eine weitere freiwillige Möglichkeit ist das Klimaneutralitätsbündnis 2025. Das Bündnis soll den Mitgliedern helfen, den Emissionsausstoß zu verbessern. Die Mitglieder werden über einen definierten Zeitraum von 12 Jahren begleitet, um die Geschäftsprozesse anschließend klimaneutral zu gestalten.
Diese Arbeit beschäftigt sich mit den Anforderungen der Norm ISO 50001 und dem Klimaneutralitätsbündnis. Beides sind freiwillige Instrumente, welche Unternehmen verwenden können, um das eigene Energiewesen zu optimieren und etwas zum Klimaschutz beizutragen. Die Forschung dieser Arbeit beschäftigt sich mit dem Zusammenwirken der beiden Instrumente. Es wird untersucht, ob eine parallele Einführung und Bearbeitung in den Unternehmen möglich ist. Zusätzlich werden die Inhalte und die Anforderungen gegenübergestellt. Mögliche Überschneidungen werden zu Zwecken einer Erleichterung für die Unternehmen überprüft.
Im Zuge dieser Arbeit wird ein Energiemonitoring beim Logistikunternehmen Gebrüder Weiss GmbH eingeführt. Das Unternehmen mit Sitz in Lauterach (Vorarlberg) betreibt weltweit rund 165 Standorte. Die Niederlassung in Lauterach bildet den Versuchsstandort für das Energiemonitoring. Es werden geeignete Partnerunternehmen gesucht, welche ein Energiemonitoringsystem anbieten. Im Zuge der Partnersuche wird ein Pilotprojekt umgesetzt, welches dem Unternehmen erste Einblicke in die Materie bietet. Nach dem erfolgreichen Abschluss des Pilotprojektes folgt die Implementierung des Energiemonitorings. Die einzelnen Schritte und Herausforderungen des Projektes werden dargelegt und die abschließende Umsetzung wird beschrieben. Nach der Einführung in Lauterach folgt die weltweite Ausrollung des Energiemonitorings in allen Standorten.
Erfolgreiche Personalarbeit zeichnet sich durch gute, datenbasierte Kenntnisse und Verknüpfungen über alle Geschäftsbereiche, mit Fokus auf die Menschen im Unternehmen, aus. In vielen Unternehmen werden relevante Personalentscheidungen noch immer aus dem Bauch heraus getroffen, anstatt durch eine fundierte Grundlage von Daten. People Analytics ist einer der wichtigsten Trends im Personalmanagement und dennoch wird es kaum in einer Personalabteilung der DACH-Region eingesetzt. Ziel dieser Masterarbeit ist es, die Chancen und Herausforderungen von People Analytics auszuarbeiten und Einsatzmöglichkeiten für Industrieunternehmen der DACH-Region aufzuzeigen. Dafür werden die theoretischen Grundlagen und Anwendungsprozesse von People Analytics dargelegt und die Herausforderungen und Hindernisse sowie die Möglichkeiten und Chancen ausgearbeitet. Im Rahmen von zwei Experteninterviews mit HR-Spezialisten werden die aktuellen Gegebenheiten der DACH-Region eruiert. Dabei wurde ersichtlich, dass die größten Chancen von People Analytics sowohl in der Literatur als auch den befragten Personen zufolge, in der datenbasierten Entscheidungsfindung, der strategischen Personalentwicklung sowie in der strategischen Personalplanung liegen. Die größten Herausforderungen werden in der Akzeptanz der Mitarbeitenden, der IT-Infrastruktur sowie in der fehlenden analytischen Kompetenz der Mitarbeitenden im Personalbereich gesehen. Einsatzmöglichkeiten, abseits der derzeit bereits ausgewerteten Unternehmenskennzahlen, sind aufgrund der oben genannten Herausforderungen sowie den marginal vorhandenen Daten in den Unternehmen der DACH-Region derzeit keine gegeben.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
Flexibilität, Anpassungsfähigkeit und eine schnelle Reaktionsfähigkeit ist der Anspruch an die Arbeitswelt von heute und wird in Zukunft weiter an Dynamik gewinnen. Durch die Entwicklung agiler Ansätze wurden hierfür Lösungsansätze gefunden. Diese können an die Anforderungen der eigenen Arbeitsumgebung adaptiert werden und unterstützen die Unternehmen dabei, auch bei zukünftigen Veränderungen der Arbeitswelt erfolgreich agieren können. Für eine effektive Nutzung agiler Ansätze ist eine stetige Weiterentwicklung der Kompetenzen der Mitarbeitenden unumgänglich. Klassische Methoden zum Erwerb neuer Kompetenzen hinken dem Wandel hinterher. Der Einsatz agiler Ansätze im Arbeitsalltag erfordert daher agile Kompetenzentwicklungsansätze. Ob agile Ansätze selbst ein Erfolgsfaktor beim Erwerb von Kompetenzen darstellen, wird in dieser Studie behandelt.
Das Teach Pendant wird dazu genutzt um Industrierobotern Zielposen beizubringen, damit diese die Zielposen daraufhin autonom anfahren können. Durch den auf dem Teach Pendant zur Eingabe verbauten Joystick oder die 3D-Maus ist es möglich mit geringem Rechenaufwand Bewegungen und somit Zielposen präzise vorzugeben.
Durch den rasanten Anstieg der Rechenkapazität und den stetigen Erfolgen bei der Erforschung von künstlichen neuronalen Netzwerken sind heutzutage Gestenerkennungssysteme in das Blickfeld der Forschung gelangt. Gestenerkennungssysteme versprechen intuitive und leicht zu erlernende Bedienungskonzepte. Durch den Einsatz von Gesten kann zudem auf ein zusätzliches Gerät in den Händen verzichtet werden, wodurch das Nutzererlebnis gesteigert werden kann. Dies kann bei schweren Eingabgeräten nicht nur die Arme sondern auch die Hände vor Ermüdungserscheinungen schonen.
Das Ziel dieser Arbeit soll es daher darstellen, ein Gestenerkennungssystem mit und ohne ROS-Anbindung zu erstellen, testen und analysieren. Die Gesteninformationen werden von einer Tiefenkamera vom Typ Azure Kinect bereitgestellt. Als Industrieroboter wird hierbei der "WidowX 200"-Lernroboter eingesetzt, da dieser aufgrund seiner kleinen Bauform einfach und effizient zum Testen von neuen Funktionalitäten eingesetzt werden kann. Die Tiefenkamera- und Roboter-Komponente sollen austauschbar bleiben. Die zu entwickelnden Gesten sollen vor allem hohe Ergonomie bereitstellen und vor unbeabsichtigter Durchführung gesichert sein. Die Genauigkeit der Gestenerkennung wird analysiert, um die Zuverlässigkeit der ausgewählten Gesten zu evaluieren. Die Genauigkeit der erreichten Zielposen des "WidowX 200"-Lernroboters wird analysiert und Latenztests werden durchgeführt um das Gestensystem als Gesamtes bewerten zu können.
Betriebliche Inklusion
(2020)
Rund 15% der österreichischen Bevölkerung haben eine dauerhafte Behinderung. In Vorarlberg allein leben ca. 5.000 Personen, welche nach dem Behinderteneinstellungsgesetz dem Kreis der begünstigt Behinderten angehörig sind, aber nur 51% dieser sind auch erwerbstätig, so der Stand 2018. Gleichzeitig gab es im Jahr 2018 in Vorarlberg 3.773 zu besetzende Pflichtstellen für begünstigt Behinderte Arbeitnehmende. Tatsächlich besetzt waren von diesen aber nur 52,64%. Es stellt sich somit die Frage, warum fast die Hälfte der zu besetzenden Pflichtstellen nicht besetzt ist, zumal das „Recht auf Arbeit“ als Menschenrecht in der UN-Menschenrechtskonvention verankert ist. Denn die Teilhabe am gesellschaftlichen und beruflichen Leben ist ein wichtiger Punkt für das Selbstwertgefühl eines jeden Menschen. Ziel dieser Masterarbeit ist daher aufzudecken, wie die betriebliche Inklusion in mittelständischen und großen Industrieunternehmen, sowie dem öffentlichen Sektor in Vorarlberg gehandhabt wird und welche Einflussfaktoren auf die Handhabung einwirken. Näher betrachtet werden diesbezüglich die Unterschiede in der Handhabung zwischen den privaten und den öffentlichen Einrichtungen sowie die internen und externen Faktoren, welche die Handhabung beeinflussen. Darüber hinaus soll in Erfahrung gebracht werden, welche Maßnahmen die Vorarlberger Unternehmen bereits ergreifen und wo Verbesserungsbedarf besteht. Um die Forschungsfrage zu beantworten wird im Anschluss an die Literaturrecherche ein Methodenmix aus qualitativen Experteninterviews und einer quantitativen Onlineumfrage eingesetzt. Die Ergebnisse aus den zwei Untersuchungen werden im weiteren Verlauf ausgewertet, kritisch reflektiert und in einem Fazit zusammengefasst. Betrachtet man die Forschungsfrage und die Ergebnisse der Untersuchung, so lässt sich zusammenfassen, das Vorarlberg bereits auf einem guten Stand der betrieblichen Inklusion ist. Die Entwicklung der letzten Jahre zeigt einen Paradigmenwandel, durch welchen sich das Bild vom „Armen Behinderten“ hin zur Selbstbestimmung und Chancengleichheit wandelt. Dieser ist noch nicht vollständig abgeschlossen, weswegen weiter in die Sensibilisierung und Aufklärung der Gesellschaft investiert werden muss, um Vorurteile und Unsicherheiten in Bezug auf Rechte und Pflichten abzubauen. Als externe Faktoren werden der rechtliche Rahmen, die Digitalisierung, sowie die Sichtbarkeit betrieblicher Inklusion und der Diversität von Behinderungen in der Gesellschaft genannt. Einfluss auf die Handhabung hat zudem die Vielfalt an Arten von Beeinträchtigungen, da die zu ergreifenden Maßnahmen auf diese abgestimmt werden müssen. Interne Faktoren stellen die Barrierefreiheit, sowie die persönlichen Haltungen und die Beweggründe der Unternehmer und ihren Mitarbeitenden dar. Abschließend lässt sich feststellen, dass betriebliche Inklusion dann gelingen kann, wenn jede Person unabhängig davon, ob sie eine Beeinträchtigung hat, oder nicht, als Individuum mit individuellen Stärken, Schwächen, Charakterzügen und Eigenschaften verstanden wird. Aufbauend auf diesem Menschenbild gilt es für jede Person auf Grund ihrer individuellen Eigenschaften die passende berufliche Tätigkeit zu finden.
Auswirkungen der DSGVO auf das Vertriebscontrolling eines Software-as-a-Service Geschäftsmodells
(2020)
Diese Arbeit untersucht die Auswirkungen eines SaaS Geschäftsmodells auf das Vertriebscontrolling. Dazu werden mittels Literatur die Kennzahlen und Instrumente des klassischen Vertriebscontrollings besprochen. Ein SaaS Geschäftsmodell hat spezifische Charakteristika, Herausforderungen und Erfolgsfaktoren, welche im Anschluss eingeführt werden. Diese beeinflussen das Vertriebscontrolling eines SaaS Geschäftsmodells. Die DSGVO schränkt das Vertriebscontrolling dabei, in der Nutzung von personenbezogenen Daten, ein. Diese Arbeit zeigt, dass die Grundelemente des Vertriebscontrollings bestehen bleiben, jedoch andere Kennzahlen verwendet werden müssen. Zusätzlich kommen neue Aufgaben auf das Vertriebscontrolling zu. Abschließend werden Handlungsempfehlungen für das Vertriebscontrolling eines SaaS Geschäftsmodells entwickelt. Mittels einer systematischen Literaturrecherche werden diese Handlungsempfehlungen bestätigt.
Die Psychologie beschreibt Lernen als dauerhafte Veränderung des individuellen Wesens oder Verhaltens, basierend auf Erfahrungen. Multimediale Lernmethoden ermöglichen hierbei, den Prozess in der betrieblichen Weiterbildung zu unterstützen und zu optimieren, um den steigenden Anforderungen, gerade im Bereich der Fachkräfteentwicklung, standhalten zu können. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen der Personalentwicklung, mit Fokus auf der betrieblichen Weiterbildung, sowie des Lernens umfassend erläutert. Im zweiten Teil werden die Ergebnisse einer qualitativen Forschung anhand drei verschiedener Perspektiven über die Lernmethoden E-Learning, Präsenztraining und Blended Learning in fünf Vorarlberger Industrieunternehmen präsentiert. Eine Schlussbetrachtung mit dem Ergebnis der Forschungsfrage sowie einem Ausblick für mögliche weiterführende Forschungsansätze runden die Arbeit ab. Ziel dieser Masterarbeit ist die praxisorientierte Anwendbarkeit der Erkenntnisse für Vorarlberger Industriebetriebe in Bezug auf die interne Weiterbildung, insbesondere bei der Entwicklung von Fachkräften.
Diese Arbeit resultiert in einem Leitfaden, der zur verbesserten Wirksamkeit von Lernmaßnahmen in Organisationen beitragen soll. Inbesondere die Verkürzung der Halbwertszeit von Wissen gab Anlass zur vorliegenden Untersuchung. In den Kapiteln zwei und drei wurde das theoretische Fundament durch Bearbeitung der Themen Personal-/Kompetenzentwicklung, allgemeine und individuelle Lerntheorie, sowie Lernbedarfsanalyse, Lerntransfer und Lernevaluation gebildet. Darauf aufbauend wurde mit der Methodik (Kapitel 4) der Experteninterviews der aktuelle Stand definierter Organisationen im Raum Ostschweiz, Westösterreich und Liechtenstein hinsichtlich Lernbedarfsanalyse, Lerntransfer und Lernevaluation erhoben. Diese Ergebnisse wurden in Kapitel 5 mit der Literaturstudie aus Kapitel 2 und 3 verglichen. Der Leitfaden besteht für Lernbedarfsanalyse, Lerntransfer und Lernevaluation aus unterschiedlichen Schritten, die in Tabellenformat dargestellt und beschrieben sind (Kapitel 6). In Kapitel 7 wurden, neben einer Zusammenfassung und einem Fazit, weiterführende Forschungsansätze zur Thematik angeführt.
Veränderungen im gesellschaftlichen Wertesystem, das Vordringen kommerzieller Privatwirtschaft in Bereiche, die über lange Zeit von Non-Profit-Organisationen abgedeckt worden sind, und die Finanzkrise der öffentlichen Haushalte gelten als große Ursachen für die vielfältige und kontroversielle Diskussion der Social Impact-Orientierung im deutschsprachigen Raum. Diese Arbeit konzentriert sich auf die Frage, wie sich Social Impact-Orientierung auf Instrumente der Unternehmenssteuerung auswirkt. Dazu wird ein Theorieüberblick über gesellschaftliche Wirkungsanalyse erarbeitet und ausgewählte Instrumente der Unternehmenssteuerung vorgestellt. Daraufhin werden fünf Hypothesen gebildet, die in einer Einzelfallstudie anhand eines jungen Sozialunternehmens in Österreich überprüft werden. In diesem Praxisteil ist ein Vergleich hinsichtlich der Impact-Orientierung im untersuchten Sozialunternehmen zu jener, die in der Literatur dargestellt wird, zentral. Weiters wird die Frage untersucht, wie die in der Literatur angegebenen Managementinstrumente für Wirkungsorientierung in diesem Unternehmen angewendet werden und zu welchen Ergebnissen diese führen. Schließlich wird erforscht, ob Wirkungsziele und passende Managementinstrumente einen Beitrag zur Lösung des angenommenen Zielkonfliktes zwischen gesellschaftlichen und ökonomischen Zielen beitragen können. Die Ergebnisse und Erkenntnisse der Einzelfallstudie werden abschließend im Gespräch mit einer übergeordneten Einrichtung einer ersten Verifikation unterzogen. Diese Arbeit kommt zum Schluss, dass Impact-Orientierung eine sehr langfristige Ausrichtung der Unternehmenssteuerung bedarf. Die Impact-Ziele und Indikatoren müssen sich in den gewählten Instrumenten wiederfinden. Nur dadurch ist sichergestellt, dass Unternehmenssteuerung und Impact-Orientierung stringent zusammenwirken. Bei aller Unsicherheit zum WIE der Umsetzung, hat die Impact-Orientierung zentrale Auswirkungen auf die Unternehmenssteuerung.
Cultural Due Diligence
(2020)
Much research has been conducted in recent years to discover the reasons for the high failure rate of M&As, whereas one frequently cited reason is the incompatibility of the corporate cultures. In order to minimize this risk and to be able to react to these differences already at an early stage, Cultural Due Diligence offers itself as part of the due diligence process. Unlike existing, more general research, I emphasize the cultural challenges companies face when investing transnationally with this thesis. Using the results of a single case study with inductive character, I answer the question how to conduct Cultural Due Diligence in cross-border M&As and propose an appropriate model. The findings reveal that especially in cross-border M&As, cultural incompatibility poses a risk for failure. I was able to find out that companies that seek to grow internationally with M&As deal with similar issues in terms of corporate culture as pointed out in existing Cultural Due Diligence methods. The present study, however, shows that national culture has a great influence on corporate culture, which is why it is essential to include it in the cultural assessment in cross-border acquisitions. This provides information about why there are differences, besides the fact that they exist. Only this understanding puts a company in the appropriate starting position to recognize differences, understand them, assess whether these differ-ences are acceptable, as well as to develop appropriate strategies to address them in the integration phase.
In einer Zeit, in der Daten eine immer größere Rolle spielen, nehmen Schlagwörter wie Big Data, Data Analytics oder Data Mining auch in Organisationen eine große Rolle ein. Daten werden zum neuen digitalen Öl, das durch alle Systeme der Unternehmen und externe Quellen fließt. Richtig eingesetzt, unterstützen sie bei der Strategiefindung, bei der Umsetzung neuer Geschäftsmodelle, beim Gestalten neuer Abläufe und Prozesse und insbesondere bei der Entscheidungsfindung.
Die vorliegende Arbeit beschäftigt sich mit den Themen Daten und Unternehmenssystemen. Von diesen Themen ausgehend wird versucht, eine Brücke zu den Themenfeldern Prozessmanagement und Prozessinnovation zu schlagen. Die Arbeit soll aufzeigen, welche strategischen und operativen Ansätze die Nutzung von Daten als Treiber für Prozessinnovation zulassen. Aufbauend auf einer theoretischen Einordnung der vier skizzierten Gebiete, bildet ein empirischer Teil das Herzstück dieser Arbeit. In diesem Teil werden Aussagen von ExpertInnen darüber zusammengetragen, welche Ansätze zur datengetriebenen Prozessinnovation sie in ihren jeweiligen Unternehmen anwenden. Diese Aufarbeitung ist gegliedert in die drei Ebenen Rahmenbedingungen, Faktoren und Ansätze. Abgeschlossen wird diese Arbeit durch konkrete Handlungsempfehlungen für Unternehmen.
This master thesis investigates a Computational Intelligence-based method for solving PDEs. The proposed strategy formulates the residual of a PDE as a fitness function. The solution is approximated by a finite sum of Gauss kernels. An appropriate optimisation technique, in this case JADE, is deployed that searches for the best fitting parameters for these kernels. This field is fairly young, a comprehensive literature research reveals several past papers that investigate similar techniques.
To evaluate the performance of the solver, a comprehensive testbed is defined. It consists of 11 different Poisson equations. The solving time, the memory consumption and the approximation quality are compared to the state of the art open-source Finite Element solver NGSolve. The first experiment tests a serial JADE. The results are not as good as comparable work in the literature. Further, a strange behaviour is observed, where the fitness and the quality do not match. The second experiment implements a parallel JADE, which allows to make use of parallel hardware. This significantly speeds up the solving time. The third experiment implements a parallel JADE with adaptive kernels. It starts with one kernel and introduce more kernels along the solving process. A significant improvement is observed on one PDE, that is purposely built to be solvable. On all other testbed PDEs the quality-difference is not conclusive. The last experiment investigates the discrepancy between the fitness and the quality. Therefore, a new kernel is defined. This kernel inherits all features of the Gauss kernel and extends it with a sine function. As a result, the observed inconsistency between fitness and quality is mitigated.
The thesis closes with a proposal for further investigations. The concepts here should be reconsidered by using better performing optimisation algorithms from the literature, like CMA-ES. Beyond that, an adaptive scheme for the collocation points could be tested. Finally, the fitness function should be further examined.
Companies develop and implement strategies with the aim to address the needs of their customers. Acquisition is one market expansion strategy that companies can use to acquire new market access, technologies and/or to grow organically. In recent years, Chinese companies have been active in acquiring companies all over the globe to develop their strategic position. This caused certain contra reaction in Europe and as well in the Swiss media against cross-border acquisitions of Swiss companies.
Swiss companies and particularly the Swiss-MEM (Machinery, Electrical and Mechanical) industry is highly export oriented and their value proposition builds on attributes like knowledge, technology, and differentiating products. Among them are many “hidden champions” and niche players who successfully dominate the market segment.
As observed with Chinese companies, Indian companies also started to become more active outside of their domestic markets by increasing their foreign direct investments into Europe, Asia and North America, over the last decades. The lasting and good relationship of India and Switzerland might trigger the wish for Indian companies to acquire Swiss and particularly Swiss-MEM companies for acquisitions.
This Master’s Thesis assesses how often Indian investments into public and privately owned Swiss-MEM companies by acquisition happen, how are the attempts of acquisitions perceived by the stakeholders and what measures Swiss and Swiss-MEM companies can take, to protect themselves from being acquired. To access the research topic, several sub-questions will be analysed with the aid of primary and secondary research to assess the situation.
The research topic is of particular interested to the author since he spent over 20 years working in the Swiss-MEM industry, involved in international affairs and in recent years specifically with India. The observation of Chinese acquisition activities and insight into the size and potential of India were the drivers for researching whether India might follow China’s example.
In conclusion, Indian companies are not explicitly targeting Swiss and Swiss-MEM companies, but there are reasons to believe that it would make sense for Indian companies to look into the acquisition of Swiss and Swiss-MEM companies. The perception of such acquisitions varies, but there are arguments for and against them. Companies must take strategic and organisational measures in order to prevent themselves from becoming the target of an acquisition. However, it is known that the state should not interfere in the market and a discussion at a political level, planning how to deal with cross-border acquisition, is needed.
Further areas for research based on this Master’s Thesis could be the review of how the targeting of Swiss and Swiss-MEM companies by Indian companies would look, and also the topic of the succession planning in Swiss secondary sector in conjunction with Indian targeting for acquisitions. A third area to research might be investigating the political aspects involved in the research questions.
Many test drives are carried out in the automotive environment. During these test drives many signals are recorded. The task of the test engineers is to find certain patterns (e.g. an emergency stop) in these long time series. Finding these interesting patterns is currently done with rule based processing. This procedure is very time consuming and requires a test engineer with expertise. In this thesis it is examined if the emerging field of machine learning can be used to support the engineers in this task. Active Learning, a subarea of machine learning, is used to train a classifier during the labeling process. Thereby it proposes similar windows to the already labeled ones. This saves the annotator time for searching or formulating rules for the problem. A data generator is worked out to replace the missing labeled data for tests. The custom performance measure “proportion of seen samples” is developed to make the success measurable. A modular software architecture is designed. With that, several combinations of Time Series Classification algorithms and query strategies are compared on artificial data. The results are verified on real datasets, which are open source available. The best performing, but computational intensive solution is an adapted RandOm Convolutional KErnel Transform (ROCKET). The custom query strategy “certainty sampling” shows the best results for highly imbalanced datasets.
The purpose of this work is to explore implicit schemes underlying the market segmentation analysis process. Boosting transparency for and in the new discipline of healthcare marketing, the work offers a toolbox of both primary and secondary methods to identify the accurate target market. This is crucial, since resource allocation in B2C segmentation and targeting is still often misleading. An Austrian, internationally present niche player serves as a research object to turn theoretical insights into practical verification. Data for the thesis are collected through company-internal data analysis and desk research, grounded in a multi-method approach with primary and secondary research. On the one hand, the work assesses the most effective segmentation and attractiveness/knock-out criteria according to scientific sources. Delving into the topic of a priori and a posteriori segmentation, an overview of suitable techniques is going to be offered. On the other hand, the thesis illustrates how the accurate target segment in the healthcare industry can be evaluated and determined through companyinternal consumer and market data.
Primary research on demographics (age, gender), psychographics (preferred channels), behavioral criteria (new/existing, CLC) and product categories is found to be particularly meaningful for the healthcare player. Results vary between countries, which is why an international-marketing strategy instead of a domestic-marketing approach is advisable.
Secondary research shows that socio-demographic and behavioral criteria are most used as a priori criteria, whereas a posteriori segmentation is promising to reveal psychographic clusters. One of the author’s recommendations is to niche down accurate market segments such as LOHAS or “best agers” by refining psychographics/socio-demographics with behavioral segmentation through “occasions” (e.g. back pain, depression, injuries). Novel approaches such as outcome-based segmentation or emphasizing “promoters” are discussed too.
The findings pave marketing managers the way for identifying the accurate target segments in the B2C health industry, selecting accurate methods grounded in profound scientific research and with concepts suitable for SMEs. The thesis proves that marketing segmentation is no longer a “nice-to-have” but a “must” in the health(care) industry.
In vielen Ländern gibt es eine stetige Verschiebung von Bargeld zu Kartenzahlung. Dieser Umstand könnte darauf hinweisen, dass Bargeld irgendwann verschwinden wird. Der Bargeldumlauf ist in den meisten Ländern, einschließlich Österreich, jedoch seit Jahrzehnten stabil oder stark gestiegen. Im Gegensatz dazu gilt Schweden als eine Vorreiternation auf dem Weg in die bargeldlose Gesellschaft. In der vorliegenden Masterthesis werden die Unterschiede zwischen Österreich und Schweden erläutert, indem die Zahlungsmärkte als auch das Potenzial der Länder aufgezeigt werden. Weiters werden die möglichen Einflüsse wie Bargeldversorgung, Technologie und Infrastruktur, Regulierungen und das unterschiedliche Zahlungsverhalten und die Mentalität der Konsumenten untersucht. Daraus werden dann Schlussfolgerungen gezogen, wohin sich die verschiedenen Zahlungsmärkte in Zukunft bewegen werden. Die Daten basieren auf Sekundärdaten, die aus Büchern, Zeitschriften, verschiedenen Forschungsarbeiten und Onlinequellen stammen. Egal, welchen Standpunkt Sie in Bezug auf die Zukunft des Bargeldes einnehmen, soll diese Masterthesis einen besseren Einblick über die Transformation unserer Volkswirtschaft und den Mechanismus von unbaren Zahlungen geben.
Throughout history, a variety of influences have changed the way we sell our products. Starting with the Industrial Revolution up to the first saturation phase in the 1970s. The question now arises as to whether the heating industry is currently back on an evolutionary development path with the increasing digitalisation of distribution. How the sales process in the B2B sector will change with increasing digitalisation and what effects this will have on sales personnel is only documented by a few sources which do not allow any conclusions to be drawn about the craft or even the heating industry. This results in a research gap which is to be closed in the context of this thesis. The aim of this research project is to find out the effects of a further digitalisation of the sales process on the sales force in the defined environment of the heating industry in Central Europe. For this purpose the following research questions are asked: Which steps in the sales process in the heating industry in Central Europe should be digitalised? How will the digitalisation of the sales process affect the sales force in the heating industry in Central Europe? A case study, according to Yin was chosen as the research method. The data were collected by means of in-depth interviews and analysed qualitatively, according to Mayring. The increasing digitalisation will have a large effect on the sales force, tasks will disappear, new tasks will be added and new ones will replace conventional working methods. In summary, automation will simply make tasks superfluous, software tools will improve quality and increase efficiency, and personal selling will become a premium skill. Companies will try to automate as many backoffice activities as possible and reduce the number of office staff if necessary.
The present research had compared how Uppsala and Bartlett & Ghoshal (B&G) models explain the internationalization process of the Brazilian pulp producer Fibria.
The Uppsala model describes the developments of capabilities that enable the firm to move towards higher commitments abroad. Despite its sine-qua-non dependence on foreign markets, it is unlikely that Fibria will internationalize its production to another country, given the country-specific advantages that the company has in Brazil. Nevertheless, Fibria set its structure abroad even when the direct exports would suffice to reach the markets without any foreign direct investment.
B&G deals with the aspects of the organizational structure and described the Transnational type as the evolution of the international firm. In their typology, Fibria was a Global and Ethnocentric type, but interestingly, elements of Transnational and Geocentric models were also observed in the company.
Both theories overlap or complement each other in many aspects. However, they could not explain the peculiarities of the internationalization of Fibria. One reason is the lack of country-related elements in these models.
Eventually, comparisons between theories such as those presented enable decision-makers to align the corporate strategy using suitable models, bearing in mind the limitations that each method entails.
Nowadays, the area of customer management strives for omni-channel and state-of-the-art CRM concepts including Artificial Intelligence and the approach of Customer Experience. As a result, modern CRM solutions are essential tools for supporting customer processes in Marketing, Sales and Service. AI-driven CRM accelerates sales cycles, improves lead generation and qualification, and enables highly personalized marketing. The focus of this thesis is to present the basics of Customer Relationship Management, to show the latest Gartner insights about CRM and CX, and to demonstrate an AI Business Framework, which introduces AI use cases that are used as a basis for the expert interviews conducted in an international B2B company. AI will transform CX through a better understanding of customer behavior. The following research questions are answered in this thesis: In which AI use cases can Sales and CRM be improved? How can Customer Experience be improved with AI-driven CRM?
Sustainable distribution
(2020)
This master thesis gives an insight into the topic of sustainability in the banking industry and focuses on distribution. In the first part of the thesis, the terms and concepts of sustainability and sustainable distribution are being explained and existing methods for measuring sustainability are presented on the basis of an extensive literature research.
Subsequently, the banking industry is introduced, the distribution of financial services is explained, and the specifics of sustainable distribution in the banking industry are elaborated.
An empirical study in form of expert interviews was used to show to what extent sustainability currently plays or will play a role in the banking sector. For this purpose, experts from six banks were interviewed.
In the final part of the paper, the hypotheses formulated at the beginning of the paper as well as additional questions are examined or answered and a model for evaluating the effects of selected distribution channels on ecological and social sustainability is being presented.
Mit dem entwickelten, gemischt-ganzzahligen linearen Optimierungsmodell wird ein grosser Beitrag geleistet, das die wichtigen Betriebskennzahlen einer PV-Speicheranlage, wie der Eigenverbrauchsanteil um bis zu 89 % und der Autarkiegrad um bis zu 73 % durch eine variable Grenzkostenoptimierung bei zusätzlicher E-Auto Berücksichtigung gesteigert werden können. Der Eigenverbrauch der PV-Erzeugung wird durch den stationären Batteriespeicher auf 71 % mehr als verdoppelt. Das beispielhafte Szenario hat einen Haushaltsverbrauch von 5 MWh pro Jahr und besteht aus einer 5 kWp PV-Anlage, mit einem 5 kWh Batteriespeicher und dem Tesla Model 3 mit einer Jahresfahrleistung von 16778 km.
Das erstellte Softwareprogramm kann einfach auf weitere verschiedene Anlagenkonstellationen und mit eigenen Eingangszeitreihenprofile der Haushaltslast, der PV-Erzeugung und der E-Auto Nutzung parametriert werden. Neben der Kennzahlenberechnung des konkreten Szenarios wird der jeweilige Einfluss einer Anlagenkomponente, wie PV, Batterie und Last bei deren Variation, auf die Kennzahlen grafisch gut sichtbar dargestellt.
Die Ergebnisse bestätigen bisherige Arbeiten, dass die Dimensionierung der Anlagenkomponenten nach der einfachen Faust-Formel 1:1:1 erfolgen soll: Der stationäre Batteriespeicher und die PV-Anlage sollen gleich gross sein und ihre Grösse in kWh soll der Jahreslast in MWh entsprechen. Damit wird nahezu schon ein gutes Optimum von Eigenverbrauch, Eigenverbrauchsanteil und Autarkiegrad bei minimalen Energiekosten gefunden und die Netzbelastung durch Bezug und Einspeisung kann reduziert werden.
Graphite substrates underwent two methods of creating doped silicon carbide films via carbothermal reduction; the first method being liquid-phase processing, or dip-coating, and the second gas-phase processing, otherwise referred to as the solid-vapour reaction. The dip-coating procedure resulted in flaky coatings, while the solid-vapour reaction resulted in polycrystalline films with columnar growth that displayed promising morphological and electrical properties. The films were tested on their performance as semiconductor diodes, and proved that carbothermal reduction in the gas phase is a promising technique for creating polycrystalline silicon carbide films for the application of light-emitting diodes.
Eindimensionales Siliziumkarbid-Faserwachstum ohne Katalysator über karbothermische Reduktion
(2020)
In dieser Arbeit werden eindimensionale Siliziumkarbid-Fasern über die karbothermische Reduktion von stickstoffdotiertem Siliziumoxykarbid-Glas, welches über einen Sol-Gel-Prozess synthetisiert wurde, hergestellt. Als Wachstumssubstrat für die Fasern werden drei Arten von Kohlenstofffasern verwendet, die entweder in Sol eingelegt sind oder erst bei der karbothermischen Reduktion mit dem Precursor im Graphittiegel eingelegt werden. Es werden vier Formen von eindimensionalem Siliziumkarbid produziert, bei denen Durchmesser und Länge von <100 nm bis zu mehreren µm variieren. Die Charakterisierung der synthetisierten Fasern erfolgt über optische Mikroskopie, Rasterelektronenmikroskopie und Raman-Spektroskopie. Der Einfluss der Druckentwicklung während der karbothermischen Reduktion auf das Faserwachstum wird anhand von Druck-Temperatur-Verläufen ermittelt.
In recent years, much research has been done on medical laser applications inside the human body, as they are minimally invasive and therefore have fewer side effects and are less expensive than conventional therapies. In order to bring the laser light into the human body, a glass fibre with a diffuser is needed. The goal of this master thesis is the characterization and production of fibre optic diffusers that can be used for the three therapeutic applications: photodynamic therapy, laser-induced thermotherapy and endovenous laser therapy. For this purpose the following goals have to be achieved:
- Optimization of the efficiency and homogeneity of internally structured diffusers
- Examine damage thresholds of the diffusers in the tissue using a crash test
- Achieving a better understanding of the decouple mechanism with a simulation
Using an ultra-short pulse laser, modifications could be introduced into the fibre in this way that the radiation profile is homogeneous and the decoupling efficiency is 68.3 %. It was discovered that the radiation profile depends on the wavelength. Attempts have been made to improve the decoupling efficiency by mirroring the distal end of the fibre. The mirror reflects the remaining light back into the fibre, so that it is also decoupled lateral on the modifications. Vapor-deposited aluminum with physical vapor deposition is a promising approach. However, the adhesion of the coating must be improved or the coating must be protected by a mechanical cover, otherwise it will flake off too quickly.
In a crash test, it was shown that the glass fibre diffusers can withstand 20 W laser power for 300 s without visible change. In an ex vivo test, the coagulation zone in the tissue was examined and it was showed that the diffusers radiate radially homogeneously. Using a ray trace simulation, the course of the light rays in the fibre was examined and the correlation of modification width and length with the decoupling efficiency was investigated. It was discovered that there are helical light rays in the fibre, which cannot be decoupled by modifications in the fibre centre.
Although pilot projects are an accepted means of entry into prospects, research on the object of startups selling SaaS and use pilots to enter and to further scale within their prospect’s organization is limited. The reader can expect a collection of key practices of SaaS startups in the field of Decision Support Software. These combine the main sales-oriented elements within pilot projects that are reflected on by Customer Success Management, Change Management as well as cultural dimensions. Explorative interviews, mainly with stakeholders in Decision Support Software startups, were conducted to further gain an understanding of the research object. Results indicate that pilots are strategically used in the sales of such startups to simultaneously deal with their customer’s uncertainties and as a means for the startups to get commitment and increase their value proposition through the additional service that they offer in order to acquire an internal support basis. Customer Success Management as well as Change Management are furthermore advantageous in quickly achieving measurable results that leverage buyers and seller’s justification for further sales.
Zeros can cause many issues in data analysis and dealing with them requires specialized procedures. We differentiate between rounded zeros, structural zeros and missing values. Rounded zeros occur when the true value of a variable is hidden because of a detection limit in whatever mechanism was used to acquire the data. Structural zeros are values which are truly zero, often coming about due to a hidden mechanism separate from the one which generates values greater than 0. Missing values are values that are completely missing for unknown or known reasons. This thesis outlines various methods for dealing with different kinds of zeros in different contexts. Many of these methods are very specific in their ideal usecase. They are separated based on which kind of zero they are intended for and if they are better suited for compositional or for standard data.
For rounded zeros we impute the zeros with an estimated value below the detection limit. The author describes multiplicative replacement, a simple procedure that imputes values at a fixed fraction of the detection limit. As a more advanced technique, the author describes Kaplan Meier smoothing spline replacement, which interpolates a spline on a Kaplan Meier curve and uses the spline below the detection limit to impute values in a more natural distribution. Rounded zeros cannot be imputed with the same techniques that would be used for regular missing values, since there is more information available on the true value of a rounded zero than there would be for a regular missing value.
Structural zeros cannot be imputed since they are a true zero. Imputing them would falsify their values and produce a value where there should be none. Because of this, we apply modelling techniques that can work around structural zeros and incorporate them. For standard data, the zero inflated Poisson model is presented. This model utilizes a mixture of a logistic and a Poisson distribution to accurately model data with a large amount of structural zeros. While the Poisson distribution is only applicable to count data, the zero inflation concept can be applied to different kinds of distributions. For compositional data, the zero adjusted Dirichlet model is introduced. This model mixes Dirichlet distributions for every pattern of zeros found within the data. Non-algorithmic techniques to reduce the amount of structural zeros present are also shown. These techniques being amalgamation, which combines columns with structural zeros into more broad descriptors and classification, which changes columns into categorical values based on a structural zero being present or not.
Missing values are values that are completely missing for various known or unknown reasons. Different imputation techniques are introduced. For standard data, MissForest imputation is introduced, which utilizes a RandomForest regression to impute mixed type missing values. Another imputation technique shown utilizes both a genetic algorithm and a neural network to impute values based on the genetic algorithm minimizing the error of an autoencoder neural network. In the case of compositional data, knn imputation is presented, which utilizes the knn concept also found in knn clustering to impute the values based on the closest samples with a value available.
All of these methods are explained and demonstrated to give readers a guide to finding the suitable methods to use in different scenarios.
The thesis also provides a general guide on dealing with zeros in data, with decision flowcharts and more detailed descriptions for both compositional and standard data being presented. General tips on getting better results when zeros are involved are also given and explained. This general guide was then applied to a dataset to show it in action.
Digitalisation poses great challenges for regional tourism management. However, many organisations are currently undergoing a transformation from a marketing to a destination management organisation (DMO), which is why only a few have managed to adopt new digital approaches and to assert themselves as DMOs within the destination and against ever growing global platforms.
The presented master thesis therefore deals with this issue and aims to pave the way for DMOs to develop and use digital business models themselves.
The objective of the thesis is to develop a systematic process for the development of own DMO business models and to evaluate whether the establishment of a multi-sided platform as the recipe for the success of global platform providers is also suitable for DMOs. For this purpose, an extensive literature research was conducted and semi-structured expert interviews were evaluated. In addition, the Anchor Point Canvas was developed as a supporting framework for the modelling of business models for companies with historically grown structures and constraints.
Menschen in desorganisierten Wohnformen erleben, aufgrund der Normvorstellung von Ordnung, Abwertung und Unverständnis. Dabei entsteht eine desorganisierte Wohnung nicht allein durch Passivität, sondern zeigt sich als innerpsychischen Konflikt nach außen. Die Komplexität des desorganisierten Wohnens umfasst sowohl die Wohnform selbst wie auch die Ursachen und Auswirkungen.
Um bedürfnisgerecht handeln zu können, benötigt es seitens des professionellen Unterstützungssystems eine umfassende Kenntnis des Phänomens. Die Erforschung der Auswirkungen aus der Perspektive der betroffenen Menschen soll Aufschluss darüber geben, wie adäquat interveniert werden kann.
Anhand einer Einzelfallstudie sollen die Diversität und Komplexität dargestellt werden, woraus sich die Flexibilität professioneller Helfer*innen ableiten lässt. Die Grounded Theory und der damit verbundene zirkuläre Prozess ermöglichen es, trotz geringer Erforschung des Phänomens, die erhobenen Daten zu erfassen und zu kategorisieren.
Kultur und Werte sind allgegenwärtig in unseren Leben. Sie prägen uns Menschen nicht nur im persönlichen und privaten Umfeld, sondern sind auch Teil von Gesellschaftsstrukturen und Unternehmen. Das Ziel dieser Masterthesis ist es deshalb, herauszufinden, welchen Zusammenhang es zwischen den Themen Unternehmenskultur und Mitarbeiterbindung gibt und ob die Unternehmenskultur in Familienunternehmen dazu beitragen kann eine höhere Mitarbeiterbindung zu schaffen. Dabei werden eine Vielzahl an Motivationsfaktoren, sowie Werten berücksichtigt, welche in einer quantitativen Forschung Aufschluss darüber geben sollen, was den Mitarbeitenden in Vorarlberger Unternehmen wichtig ist und wie diese die Unternehmenskultur in ihren Betrieben wahrnehmen. Mit Hilfe eines standardisierten Fragebogens konnten 151 Personen mit einem Durchschnittsalter von 34,93 Jahren erreicht werden. Dabei wurde ersichtlich, dass die Faktoren angenehme Arbeitsatmosphäre, Jobsicherheit, Weiterbildung/Entwicklung, Führung und Work-Life-Balance die wichtigsten Motivationsfaktoren darstellen. Im Bereich Werte sind Verlässlichkeit, Ehrlichkeit, Verantwortungsbewusstsein, Respekt und Fairness am wichtigsten. Diese Erkenntnisse konnten unabhängig von der Unternehmensform erlangt werden.
Die vorliegende Arbeit befasst sich mit der Untersuchung von dezentralen Warmwasserbereitungssystemen, wobei der Fokus auf Energieeffizienz liegt. Als Vergleichs- und Referenzobjekt wird das Wohngebäude „KliNaWo“ mit 19 Wohneinheiten am Standort Feldkirch herangezogen, in welchem eine zentrale Warmwasserbereitung realisiert wurde. Als ersten Schritt werden die theoretischen Grundlagen hinsichtlich der zentralen und dezentralen Warmwasserbereitungs-systeme sowie der unterschiedlichen Wärmeerzeuger, Speichertechnologien und Verteilsysteme erarbeitet. Anschließend erfolgt eine Erläuterung der aktuellen Normensituation und den wichtigsten Fakten bezüglich Trinkwasserhygiene.
Des Weiteren wird das Referenzobjekt „KliNaWo“ sowie die verwendeten Messdaten zur Kalibrierung der Simulationsmodelle beschrieben. Im nachfolgenden Kapitel erfolgt eine detaillierte Darstellung der zu untersuchenden Systeme, wobei es sich um das Wohnungssatellitensystem sowohl mit kontinuierlicher Beladung als auch im Ladefensterbetrieb sowie um dezentrale Boiler-Wärmepumpen handelt. Anschließend wird die verwendete Simulationssoftware Polysun erläutert und erklärt wie die Systeme in der Software abgebildet und welche Ersatzmodelle angewendet werden.
Die Nutzenergie in Bezug auf das Warmwasser beträgt bei der zentralen Variante 20.584 kWh und ist bei allen dezentralen Systemen mit 20.142 kWh etwas geringer, da die Verteilverluste der Warmwasser-Einzelleitungen aufgrund des niedrigeren Temperaturniveaus geringer ausfallen. Da die rückgewinnbaren Wärmeverluste berücksichtigt werden, ergeben sich auch für den Heizwärmebedarf in Abhängigkeit der Variante unterschiedliche Werte im Bereich von 54.322 kWh bis 58.104 kWh. Als Vergleichsgröße wird der gesamte Stromverbrauch der Wärmepumpen inklusive der Förderpumpen herangezogen, welcher für die Deckung des Heizwärmebedarfs, der Verluste sowie des Energiebedarfs bezüglich Warmwasser notwendig ist.
Aus dem Vergleich der Varianten ergibt sich, dass der Stromverbrauch des zentralen Systems mit 14.109 kWh am geringsten ausfällt und das Wohnungssatellitensystem im Ladefensterbetrieb mit einem Strombedarf von 14.441 kWh nur wenig darüber liegt. Beim Wohnungssatellitensystem mit kontinuierlicher Beladung und bei den Boiler-Wärmepumpen-Systemen liegen die Stromverbräuche deutlich höher. Anhand der Simulationsergebnisse kann festgestellt werden, dass die dezentralen Anlagenkonfigurationen unter Berücksichtigung der ÖNROM B 2531 nicht effizienter sind als das zentrale System, wobei das Wohnungssatellitensystem im Ladefensterbetrieb in derselben Größenordnung wie das zentrale System liegt. Allerdings sind beim Wohnungssatellitensystem höhere Investitionskosten gegenüber der zentralen Variante zu erwarten, wodurch das System wirtschaftlich schlechter abschneidet.
Einkauf 4.0
(2020)
Traditionelle Einkaufsprozesse haben viele Fehlerquellen und ungenütztes Potential. Viele Konzepte, die meist im Zusammenhang mit Digitalisierung und Industrie 4.0 stehen, versprechen Optimierungen. Diese Vielfalt führt jedoch in der Praxis zu Unklarheiten, da fraglich ist, was tatsächlich hinter den Konzepten steckt. Insbesondere der sogenannte „Einkauf 4.0“, der mehr als eine Digitalisierung der Beschaffungsprozesse verspricht, wirft viele Fragen auf.
Das Ziel der vorliegenden Forschungsarbeit ist es festzulegen, welche Merkmale dem „Einkauf 4.0“ zugeschrieben werden können und ob sich diese in Praxis wiederfinden. Dazu werden folgende Forschungsfragen gestellt:
1. Welche Merkmale können eindeutig dem Begriff „Einkauf 4.0“ zugeordnet werden, um eine aktuell gültige Umfangsdefinition zu erstellen?
2. Werden die gefundenen Merkmale des Einkauf 4.0 in der Praxis als relevant erachtet und umgesetzt? Falls ja, welche?
Um die erste Forschungsfrage zu beantworten wurden eine qualitative und eine quantitative Inhaltsanalyse durchgeführt. Die Merkmale des Begriff Einkauf 4.0 konnten dadurch eindeutig festlegt und abgrenzt werden. Die zweite Forschungsfrage wurde beantwortet in dem ein Vergleich der gefundenen Merkmale mit der Studie „BME-Barometer Elektronische Beschaffung 2020“ des BME e. V. erfolgte.
Die Auswertung der Inhaltsanalysen zeigt, dass sich Merkmale für den Einkauf 4.0 finden lassen, diese jedoch kritisch zu hinterfragen sind. Der Vergleich der Merkmale mit der Studie des BME e.V., ergibt, dass einige Merkmale in der Praxis wiederzufinden sind; Sie sind jedoch von unterschiedlicher Relevanz. Weiterführende Forschung ausgehend von der hier formulierten Definition würden tiefere Einblicke in das Konzept des Einkauf 4.0 ermöglichen.
Predictive maintenance
(2020)
Das Ziel dieser Arbeit ist es aufzuzeigen, wie Predictive Maintenance in Vorarlberger Unternehmen verbreitet ist und wie sich dies mit dem aktuellen Stand der Forschung deckt. Dazu werden die folgenden Forschungsfragen gestellt: Wie ist der aktuelle Stand der Forschung auf dem Gebiet Predictive Maintenance? Wie deckt sich der Stand der Forschung im Bereich Predictive Maintenance mit der Verbreitung in Vorarlberger Unternehmen? Um die erste Forschungsfrage zu beantworten, wurde eine Literaturrecherche und -analyse durchgeführt. Um die zweite Forschungsfrage zu beantworten, wurden zwölf Interviews mit Vorarlberger Unternehmen durchgeführt. Die Ergebnisse der qualitativen Forschung wurden mit den Erkenntnissen aus der Literatur verglichen. Predictive Maintenance wird in Vorarlberger Unternehmen noch nicht oft angewendet. Die qualitative Forschung hat gezeigt, dass vor allem Engineering-Unternehmen ein Interesse am Einsatz von Predictive Maintenance habe, da sie damit ihre Produkte verbessern und Wartungskosten senken können. Produktionsunternehmen haben ein weniger starkes Interesse an der Umsetzung von Predictive Maintenance.
Die vier Tage Arbeitswoche
(2020)
Das Ziel der vorliegenden Masterarbeit war es, den Nutzen einer 4-Tage-Woche einerseits für Mitarbeiter, aber auch für Unternehmen herauszufinden. Dazu wurde als erstes herausgefunden, welche Auswirkungen die Arbeitszeit auf Mitarbeiter haben kann und inwiefern das immer wichtiger werdende Thema Work-Life-Balance davon betroffen ist.
Als nächster Schritt wurden Erfahrungsberichte von Unternehmen, sowie derer Mitarbeiter analysiert. Derzeit gibt es noch nicht viele Länder und Unternehmen, welche sich für eine 4-Tage-Woche einsetzen, weshalb diejenigen, die eine 4-Tage-Woche befürworten oder eingeführt haben, große mediale Aufmerksamkeit erhalten und regelmäßig interviewt werden.
Daraufhin wurden weitere Arbeitszeitmodelle analysiert, welche als Alternative für den Zweck einer besseren Work-Life-Balance und auch bessere Wettbewerbsfähigkeit für Unternehmen eingesetzt werden können.
Dann folgte die empirische Analyse, wobei Experteninterviews und auch eine quantitative Umfrage in Vorarlberg durchgeführt wurden. Dabei wurden einerseits Kenner der 4-Tage-Woche, aber auch Nicht-Kenner befragt und diese Umfrageergebnisse miteinander verglichen.
Als letzter Schritt wurde Kontakt mit einer bekannten Unternehmensberaterin aufgenommen, welche Spezialistin im Bereich Change-Management und Organisationsentwicklung ist. Somit wurde eine Handlungsempfehlung zur Implementierung einer 4-Tage-Woche ausgearbeitet.
Diese Masterarbeit ist sowohl für Entscheidungsträger im Personalbereich, als auch für all jene Dienstnehmer, welche ihre Work-Life-Balance für wichtig erachten.
Die Bedeutung der betrieblichen Gesundheitsförderung (BGF) ist in den letzten Jahren aufgrund des Wandels der Arbeitswelt durch Technologien, der Globalisierung sowie des demografischen Wandels stark gestiegen. Gesunde und motivierte Mitarbeitende sind essenziell für ein erfolgreiches Unternehmen. Deshalb rückt der Erhalt der Gesundheit der Mitarbeitenden und die Steigerung des Wohlbefindens am Arbeitsplatz für Firmen immer mehr in den Vordergrund. Zahlreiche Betriebe sind somit zunehmend gezwungen, sich mit verschiedenen gesundheitsfördernden Interventionen zu beschäftigen. Die vorliegende Studie beschäftigt sich mit der Frage, welche gesundheitsfördernden Maßnahmen in Vorarlberger Unternehmen und öffentlichen Einrichtungen genutzt werden. Daraus lässt sich ableiten, welche Maßnahmen vorrangig angeboten werden. Die theoretische Grundlage bildet eine Literaturrecherche. Insgesamt wurden 312 Vorarlberger Arbeitnehmende mit einem Durchschnittsalter von 33,79 Jahren mittels einem vollstandardisierten Fragebogen befragt. Als meist genutzte Interventionen stellten sich besonders die verhältnispräventiven Maßnahmen, wie flexible Arbeitszeitmodelle, ergonomische Bürostühle und regelmäßige Pausen, heraus. Der Wunsch nach zusätzlichen verhaltenspräventiven Maßnahmen (prägen den individuellen Lebensstil), wie bspw. gesunde Ernährungsangebote und Obstkörbe, spiegeln sich jedoch in den Ergebnissen wider. Generell lässt sich sagen, dass auch aufgrund der rechtlichen Vorgaben vermehrt Maßnahmen zur gesunden Gestaltung des Arbeitsverhältnisses, also verhältnispräventive Maßnahmen, angeboten und daher auch genutzt werden.
This thesis aims to support the product development process. Therefore, an approach is developed, implemented as a prototype and evaluated, for automated solution space exploration of formally predefined design automation tasks holding the product knowledge of engineers. For this reason, a classification of product development tasks related to the representation of the mathematical model is evaluated based on the parameters defined in this thesis. In a second step, the mathematical model should be solved. A Solver is identified able to handle the given problem class.
Due to the context of this work, System Modelling Language (SysML) is chosen for the product knowledge formalisation. In the next step the given SysML model has to be translated into an object-oriented model. This translation is implemented by extracting information of a ".xml"-file using the XML Metadata Interchanging (XMI) standard. The information contained in the file is structured using the Unified Modelling Language (UML) profile for SysML. Afterwards a mathematical model in MiniZinc language is generated. MiniZinc is a mathematical modelling language interpretable by many different Solvers. The generated mathematical model is classified related to the Variable Type and Linearity of the Constraints and Objective of the generated mathematical model. The output is stored in a ".txt"-file.
To evaluate the functionality of the prototype, time consumption of the different performed procedures is measured. This data shows that models containing Continuous Variables need a longer time to be classified and optimised. Another observation shows that the transformation into an object-oriented model and the translation of this model into a mathematical representation are dependent on the number of SysML model elements. Using MiniZinc resulted in the restriction that models which use non-linear functions and Boolean Expressions cannot be solved. This is because the implementation of non-linear Solvers at MiniZinc is still in the development phase. An investigation of the optimally of the results, provided by the Solvers, was left for further work.
Increasing international competition and accelerated technological change characterize the environment in which companies must maintain and, if possible, expand their competitive advantage. In this context, the new, popular keyword innovation management is often mentioned. Many corporations propagate and use it for marketing purposes. As a result, the companies have to evaluate, develop and launch innovations increasingly faster, which poses great challenges for many and requires a high degree of adaptability.
This master thesis analyzes innovation management (IM) in the automotive industry and in other industries (material manufacturers, service providers, medicine, ...) depending on the number of employees and turnover. In addition, the maturity levels of the IMs and the innovation management systems (IMS) are examined. It also tries to determine which design or "building blocks" are necessary for a successful innovation management. Furthermore, factual and monetary guidelines by the management are evaluated. The thesis also aims to find out how the success of IM is measured. Therefore, guideline-based expert interviews were conducted with responsible people from the innovation departments and then systematically analyzed.
In the literature, expenses for innovations are often wrongly equated with the R&D rate. In this master thesis, it could be shown that this ratio is highest in the automotive industry. However, it does not correlate with the number of employees, turnover, maturity level, success or design of the IM. Furthermore, it could be shown that larger companies have a higher degree of maturity. The reason for this is that more people are usually involved in innovation and that a holistic understanding of innovation is better anchored in large corporations. When designing the IM or the roles of the innovation department, large companies use several different types. While the IM departments in small and medium-sized companies are usually incubators and accelerators, large companies also use corporate venture capital to support start-ups and develop new business models. In this thesis, the success of IM was determined by the number of innovations implemented in customer projects. It was found that, regardless of the size of the company, a higher degree of maturity of the IM and the accelerator role seem to have a positive influence.
Unfortunately, there are rarely concrete goals and targets set by the management although these, along with a holistic understanding of innovation in the company, are without doubt the most important part of a successful innovation management.
Die cloud-basierte Verarbeitung von Datenströmen von IoT-Geräten ist aufgrund hoher Latenzzeiten für zeitkritische Anwendungen nur beschränkt möglich. Fog Computing soll durch Nutzung der Rechen- und Speicherkapazitäten von lokal vorhandenen Geräten eine zeitnahe Datenverarbeitung und somit eine Verringerung der Latenzzeit ermöglichen. In dieser Arbeit werden Anforderungen an ein Fog Computing-Framework erhoben, das die dynamische Zuweisung und Ausführung von Services auf ressourcen-beschränkten Geräten in einem lokalen Netzwerk zur dezentralen Datenverarbeitung ermöglicht. Zudem wird dieses Framework prototypisch für mehrere Transportkanäle, unterschiedliche Betriebssysteme und Plattformen realisiert. Dazu werden die Möglichkeiten der Skriptsprache Lua und des Kommunikationsmechanismus Remote Procedure Call genutzt. Das Resultat ist ein positiver Machbarkeitsnachweis für Fog Computing-Funktionalitäten auf ressourcenbeschränkten Systemen. Zudem werden eine geringere Latenz und eine Reduktion der Netzwerklast ermöglicht.
Die Forschungsfrage dieser Masterarbeit wird beantwortet, indem die Erfolgsfaktoren umsetzbarer Entscheidungen im Projekt herausgearbeitet und mittels Checkliste für die Projektleitung anwendbar werden. Die Checkliste unterstützt, dass das definierte Projektziel unter effizienter Ressourcennutzung erreicht wird, indem das Zustandekommen von Entscheidungen prozesshaft ausgestaltet wird. Die Checkliste baut auf einer managementorientierten Sicht der BWL auf und berücksichtigt die Erkenntnisse des aktuellen Sankt Galler Management-Modells mit seiner Aufgaben- und Praxisperspektive. Durch die Einsicht in die Rhomberg Bahntechnik GmbH soll dem/der Leser/in aufgezeigt werden, welche Rahmenbedingungen und Ziele ein Projekt hat und wie ein Projektmanagement in der Praxis gestaltet werden kann. Die wesentliche Erkenntnis ist, dass komplexe Entscheidungen nur von Menschen getroffen werden können. Die personale Existenzanalyse enthält anwendungsfähige Methoden, mit derer sich die Menschen zu umsetzbaren Entscheidungen führen können. Deshalb wird im Ausblick auf die personale Existenzanalyse kurz eingegangen.
Influencer Marketing has been discussed by various marketing experts for years and is already a fixed component of the marketing strategy in many companies. These are mainly companies from the B2C sector. Recently, more and more companies are asking themselves about possible areas of application within the B2B structure. This phenomenon is influenced by the increase in digitalization and the ever-higher hurdles in reaching target groups using traditional marketing tools.
The topic of this master’s thesis was the result of professional and personal development. Various modules attended during the study inspired a deeper interest in the subject. Furthermore, the topic was always a point of discussion in the professional environment, resulting in the realisation that there is currently very little knowledge in B2B companies regarding Influencer Marketing.
The aim of the research was to discover how to systematically find end users for the use of Influencer Marketing in B2B companies in the tool and hardware industry. Furthermore, the success factors for a long-term cooperation between influencers and companies from this industry will be identified and presented.
Research questions were created in order to realise the above-mentioned objectives. Therefore, the primary research question and three sub-research questions were created for both the theoretical and empirical part of the work. To answer these questions, eight experts from B2B companies in the tool and hardware industry were interviewed. The evaluation was based on the qualitative content analysis according to Mayring.
From the research results, a possible selection procedure could be identified, which would enable companies to systematically select influencers for marketing purposes. Furthermore, success criteria for a long-term cooperation between influencers and companies were also identified.
Die Finanz- und Wirtschaftskrise 2008/09 ist Anlass für die Hinterfragung bestehender Anreizsysteme. Die vorliegende Arbeit untersucht die Beteiligung des Controllings bei der Anreizgestaltung ab diesem Zeitpunkt. Die Methodik ist eine systematische Literaturrecherche und Experteninterviews, die entlang der Gestaltungselemente des Anreizsystems ausgewertet werden. Seit dem Betrachtungszeitraum sind wesentliche Entwicklungen festzustellen von Individual- zu Gruppen-Incentivierung, vom Einsatz monetärer Anreize zu gemischten Anreizen (monetär und immateriell). Letzteres spiegelt sich in den Bemessungsgrundlagen wider, welche finanzielle und nicht-finanzielle Kennzahlen nutzen. Zur Generierung einer nachhaltigen Unternehmensentwicklung werden Long-Term-Incentives forciert. Das Controlling ist bei der Anreizgestaltung, beim Definieren von ‚Bemessungsgrundlagen‘ und ‚Anreizfunktionen‘, stark eingebunden. Die Aufgabenfelder des Controllings sind weit-gefächert: Reporting, Übersetzung von Geschäftszielen in Bemessungsgrundlagen, Wissensvermittlung, der Harmonisierung von Zielen bis zur Steuerungsfunktion bei Entscheidungen. Aus dieser Perspektive betrachtet übernimmt das Controlling zusätzliche Verantwortung und unterstützt das Management bei der Anreizgestaltung, was den Schluss nahelegt, dass eine Rollentransformation des Controllers zum Business Partner stattfindet.
Moving from one country to another, from one cultural context to a different one comes with many challenges and problems. The expatriate adjustment process, in general, has been evaluated extensively in the literature. Little is known if the knowledge in the literature is also valid for the situation of expatriates in rural Vorarlberg. In this paper was examined, which are the most common problems for highly skilled immigrants that are moving to Vorarlberg. In a mixed-method approach, information was gathered with an online questionnaire whose results served as a basis for a series of semi-structured interviews. In addition, an expert talk with a local relocation consultant was conducted. It was found that by far, the most severe difficulty is based on the domestic language situation. An expatriate needs to talk and understand German, but the local language is an Alemannic subsection of the German language that is not easy to understand. Additional difficulties that cause culture shock are limited opening hours, mobility troubles, and several others. The awareness about the composing of these problems might help to find the appropriate measures to support expatriates to come in the future.
Das Ziel dieser Masterarbeit war die Untersuchung der Einflussgrößen Wassertemperatur, Füllstand, Gasleerrohrgeschwindigkeit und Blasengröße auf die Befeuchtung von Luft in einer mit Salzwasser befüllten Blasensäule. Dazu wurde eine umfangreiche Versuchsreihe durchgeführt, um die Auswirkungen zu untersuchen. Großer Wert wurde dabei auf die Reproduzierbarkeit der Ergebnisse gelegt. Es wurde eine große Anzahl Datensätze während den Versuchszeiten geloggt und analysiert. Die Auswertung hat ergeben, dass die Wassertemperatur ein wesentlicher Einflussfaktor auf die Befeuchtung von Luft ist. Die Wassertemperatur zeigt gemäß des Antoine-Gesetzes exponentielle Auswirkungen auf die Kondensatproduktion auf. Hohe Füllstände in der Blasensäule wiesen im Vergleich zu niedrigeren Füllständen eine erhöhte Kondensatproduktion auf. Eine Steigerung der Gasleerrohrgeschwindigkeit in den Versuchen führte zu einer Zunahme der produzierten Kondensatströme. Die in dieser Arbeit untersuchten Spargerplatten der Variation des Lochdurchmessers konnten keine klaren Erkenntnisse auf die Befeuchtung von Luft liefern. Insgesamt sind die Forschungen an der Versuchsanlage noch nicht abgeschlossen und weitere Erkenntnisse zu dieser Thematik sollen in Zukunft gewonnen werden.
Die EU-Ziele umfassen die Steigerung des Anteils an erneuerbaren Energien an der Energieerzeugung um 32 % bis 2030. Doch erneuerbare Energien bringen neben den Vorteilen für den Umweltschutz auch Probleme mit sich. Ihre Schwankungen und Unkontrollierbarkeit stellen große Herausforderungen für das Stromnetz dar. Um die Netz- und damit die Versorgungssicherheit weiterhin gewährleisten zu können, braucht es Lösungen, die weder das Stromnetz, die Verbraucher noch die Energieversorger benachteiligen. Eine Möglichkeit wäre es, zusätzliche Kraftwerke und Infrastruktur (Redundanzen) aufzubauen, welche potenzielle Schwankungen ausgleichen können. Dieser Lösungsansatz gilt als traditioneller Weg, der hohe Kosten und negative Umweltauswirkungen mit sich bringt. Demand Side Management hat das Potenzial, effiziente Lösungen diesbezüglich anzubieten. Welche Vorteile der Einsatz von DSM auf Ebene der Haushaltsverbraucher für die Energieversorger in Bezug auf den Abruf von Ausgleichsenergie bringt, wird in dieser Arbeit behandelt. Dafür wurde ein agentenbasiertes Modell entwickelt, welches darauf abzielt, die Abweichung zwischen dem von dem Energieversorger prognostizierten Verbrauch und dem realen Verbrauch seiner Haushaltskunden zu verringern. Jeder Haushalt in dem vorgestellten Modell ist mit einer Flexibilität in Form eines Batteriespeichers ausgestattet. Die Speicherbewirtschaftung wird basierend auf einem Signal, welches der Energieversorger übermittelt, automatisch vom Haushalt für jeden Tag im Betrachtungszeitraum optimiert. Jede Abweichung zwischen der vom Energieversorger erstellten Prognose und der tatsächlich bezogenen Strommenge stellt dabei einen Bezug von Ausgleichsenergie dar. Untersucht werden die Auswirkungen der Anzahl an Haushalten sowie ein unterschiedlicher Wissensstand auf die Prognose. Weiters werden zwei unterschiedliche Arten von Demand Side Management analysiert. Einmal die Einflussnahme auf die Last der Haushalte durch ein Preissignal, einmal durch das Vorgeben eines Lastgangs. Um die Effektivität der beiden Varianten bestimmen zu können, wird auch die Menge an Ausgleichsenergie erhoben, welche ohne das Vorhandensein eines Batteriespeichers (also ohne Steuerung) anfallen würde. Das Modell wurde entwickelt, um einen Trend aufzuzeigen und keine spezifische Einsparungsmenge zu ermitteln, da dies von der jeweiligen Situation des Energieversorgers abhängt. Die Erstellung der unterschiedlichen Wissensstände basiert auf den österreichischen rechtlichen Vorgaben bezüglich der Datenübertragung bei intelligenten Messgeräten. Dabei ist einmal der Jahresverbrauch, einmal der Tagesverbrauch und einmal die stündlichen Verbrauchswerte bekannt. Das Preissignal ist negativ korreliert zu den am Day-Ahead-Markt gehandelten Mengen und das Lastsignal basiert auf einer der Prognosen des Energieversorgers, je nach Variante, die untersucht wird. Es zeigte sich, dass ein besserer Wissensstand nur teilweise eine Verbesserung der Prognose erzielte. Wobei die unterschiedlichen Wissensstände auf den realen Werten der nicht verwendeten Haushalte aus dem gleichen Datensatz aufbauen und so beispielsweise Wettereinflüsse in der Prognose schon bekannt waren, was die Prognose basierend auf Jahreswerten sehr genau machte. Der Aggregationseffekt von mehreren Haushalten beeinflusst die Prognose positiv. Auf einzelner Haushaltsebene schneiden die Vorhersagen deutlich schlechter ab als bei Prognosen des Gesamtverbrauchs aller Haushalte. Die Optimierung basierend auf dem Lastsignal generiert eine geringere Menge an Ausgleichsenergie als das Preissignal. Das liegt unter anderem daran, dass die Prognose nur die Verbräuche der Haushaltskunden berücksichtigt und nicht die Mengen, die am Markt gehandelt werden. In den untersuchten Varianten stellte sich heraus, dass am wenigsten Ausgleichsenergie über alle Haushalte erzeugt wird, wenn kein Demand Side Management betrieben wird, also keine Batteriespeicher vorhanden sind und die Prognose des Energieversorgers auf Stundenwerten basiert. Auf einzelner Haushaltsebene fällt bei der Optimierung mittels Lastsignal am wenigsten Ausgleichsenergie an.
A novel calorimetric technique for the analysis of gas-releasing endothermic dissociation reactions
(2020)
The humidification-dehumidification process (HDH) for desalination is a promising technology to address water scarcity issues in rural regions. However, a low humidifier efficiency is a weakness of the process. Bubble column humidifiers (BCH) are promising for HDH, as they provide enhanced heat and mass transfer and have low maintenance requirements. Previous studies of HDH-systems with BCHs draw different conclusions regarding the impact of superficial air velocity and liquid height on the humidification. Furthermore, the impact of flow characteristics has never been investigated systematically at all. In this study, an optimized BCH test setup that allows for optical analysis of the humidifier is used and evaluated. Our test setup is validated, since the influence of water temperature on the humidification, which is exponential, is reproduced. Measurements with seawater show that the normalised system productivity is increased by about 56 % with an increase in superficial air velocity from 0.5 to 5 cm/s. Furthermore, the system productivity is increased by around 29 % with an increase in liquid height from 60 to 378 mm. While the impact of superficial air velocity can be traced back to temperature changes at the humidifier and dehumidifier outlets, the impact of liquid height is shown to be caused by a smaller heat loss surface in the humidifier with an increase in liquid height. For the impact of sieve plate orifice diameter, a clear influence on the humidification is not apparent, this parameter needs to be investigated further. Finally, our new test setup allows for analysing the humidification of air (1) in a systematic way, (2) in relevant measurement ranges and (3) in comparison with optical analyses of the flow characteristics.
Die Integration von suchterkrankten Menschen in die soziale Gemeinschaft stellt für die Klinische Soziale Arbeit einer große Herausforderung dar. Sie agiert hier in einem Spannungsfeld zwischen individuellem Verhalten der Klienten_innen und den strukturellen Verhältnissen der Gesellschaft. Auf die Befähigung einer sinnstiftenden und ein daseinsmächtiges Leben ermöglichender Arbeit nachgehen zu können, wird von Martha Nussbaum in ihren Schriften zum Capability Approach sehr deutlich hingewiesen und sie sieht darin einen gewichtigen Faktor der gesellschaftlichen Teilhabe.
In der vorliegenden explorativen Studie wurden vor dem theoretischen Hintergrund des Capability Approach Teilnehmer_innen und Nichtteilnehmer_innen des niederschwelligen, von der Caritas in Vorarlberg betriebenen Arbeitsprojekts „Wald“, hinsichtlich ihrer Lebenszufriedenheit, ihrer Haltung zum Arbeitsprojekt als solchem und nach von ihnen bemerkten Veränderungen in den, den Big Five zuzuordnenden Persönlichkeitsmerkmalen, befragt. Die aus den quantitativen Befragungen gewonnenen Daten wurden in Hinblick auf die Fragestellungen empirisch ausgewertet.
In seiner Konzeption setzt das Arbeitsprojekt, ganz im Sinne der internationalen Definition der Sozialen Arbeit, auf Selbstbestimmung und Partizipation der Teilnehmer_innen. Die Klinische Soziale Arbeit erfüllt in diesem Kontext nicht nur ihren per Definition direkt behandelnden Ansatz in der Unterstützung von schwer erreichbaren Klienten_innen, sondern schafft zusätzlich die Bedingungen, um diesen die benötigten Befähigungsräume bereitzustellen. Die Studie legt nahe, dass sowohl das Schaffen von befähigenden Strukturen als auch der Einsatz von verhaltensorientierten Methoden passende Mittel für die Soziale Arbeit sind, Menschen in ihrer Entwicklung hin zu einem daseinsmächtige Leben zu unterstützen.
Greater specific energy densities in lithium-ion batteries can be achieved by using three-dimensional (3D) porous current collectors, which allow for greater areal mass loadings of the electroactive material. In this paper, we present the use of embroidered current collectors for the preparation of thick, pouch-type Li-ion batteries. Experiments were performed on LiFePO 4 (LFP) water-based slurries using styrene-butadiene rubber (SBR) as binder and sodium carboxymethyl cellulose (CMC) as thickener, and formulations of different rheological characteristics were investigated. The electrochemical performance (cyclic voltammetry, rate capability) and morphological characteristics of the LFP half-pouch cells (X-ray micro computed tomography and scanning electron microscopy) were compared between the formulations. An optimum electrode formulation was identified, and a mechanism is proposed to explain differences between the formulations. With the optimum electrode formulation, 350 µm casted electrodes with high mechanical stability were achieved. Electrodes exhibited 4–6 times greater areal mass loadings (4–6 mAh cm −2 ) and 50% greater electroactive material weight than with foils. In tests of half- and full-pouch embroidered cells, a 50% capacity utilization at 1C-rate and 11% at 2C-rate were observed, with a full recovery at C/5-rate. The cycling stability was also maintained over 55 cycles.
Gas hydrates are usually synthesized by bringing together a pressurized gas and liquid or solid water. In both cases, the transport of gas or water to the hydrate growth site is hindered once an initial film of hydrate has grown at the water–gas interface. A seemingly forgotten gas-phase technique overcomes this problem by slowly depositing water vapor on a cold surface in the presence of the pressurized guest gas. Despite being used for the synthesis of low-formation-pressure hydrates, it has not yet been tested for hydrates of CO 2 and CH 4 . Moreover, the potential of the technique for the study of hydrate decomposition has not been recognized yet. We employ two advanced implementations of the condensation technique to form hydrates of CO 2 and CH 4 and demonstrate the applicability of the process for the study of hydrate decomposition and the phenomenon of self-preservation. Our results show that CO 2 and CH 4 hydrate samples deposited on graphite at 261–265 K are almost pure hydrates with an ice fraction of less than 8%. Rapid depressurization experiments with thin deposits (approx. 330 mm thickness) of CO 2 hydrate on an aluminum surface at 265 K yield identical dissociation curves when the deposition is done at identical pressure. However, hydrates deposited at 1 MPa almost completely withstand decomposition after rapid depressurization to 0.1 MPa, while samples deposited at 2 MPa decompose 7 times faster. Therefore, this synthesis technique is not only applicable for the study of hydrate decomposition but can also be used for the controlled deposition of a super-preserved hydrate.
Investigation of non-uniformly emitting optical fiber diffusers on the light distribution in tissue
(2020)
Autonome Steuerung für das Demand Side Management von Wärmepumpenboilern mit linearer Optimierung
(2020)
Wärmepumpen, im Speziellen Wärmepumpenboiler, stellen mit ihrer thermischen Speicherkapazität eine gute Möglichkeit für autonome verbraucherseitige Laststeuerung (Autonomes Demand Side Management ADSM) dar. Zudem gewinnt diese Art der Brauchwarmwassererzeugung durch ihren dezentralen Ansatz und das Auskommen ohne fossile Energieträger im privaten Wohnbau immer mehr an Bedeutung. In Kombination mit staatlichen Fördergeldern ist die Anzahl verkaufter Einheiten in den letzten 5 Jahren am deutschen Markt um circa 25 % gestiegen. Obwohl das Lastverschiebungspotenzial von Wärmepumpenboilern unter Anwendung von Optimierungsalgorithmen in der Literatur theoretisch nachgewiesen ist, fehlen Verifikationen unter realen Bedingungen. Diese Arbeit will einerseits das theoretische Potential aufzeigen und andererseits mit dem vorgestellten Laborversuch einen Beitrag dazu liefern, die Verifikationslücke zu schließen. Für die Untersuchung im Labor wird ein handelsüblicher Wärmepumpenboiler bestehend aus einer Luft-Wärmepumpe und einem 300 Liter Warmwasserspeicher mit Sensoren und Aktoren ausgestattet. Insgesamt vier Temperatursensoren befinden sich am Speicherzulauf und -ablauf, sowie nahe der Speichermitte. Für die Aufzeichnung des Volumenstroms wird ein magnetisch-induktiver Messsensor am Speichereingang installiert. Zusätzlich wird mithilfe eines Proportionalventils am Speicherausgang das gewünschte Zapfprofil realisiert. Die Datenakquisition wird durch einen Datenlogger durchgeführt und die Optimierungsroutine auf dem PC implementiert. Die autonome Steuerung basiert auf einer von Day-Ahead-Marktpreisen der Energy Exchange Austria (EXAA) getriebenen linearen Optimierung mit dem Ziel, die Kosten der elektrischen Energie zu minimieren. Das Warmwasserverbrauchsprofil bildet den Verbrauch eines 4- Personen-Haushalts ab. Alle Mess- und Simulationsreihen basieren auf den gleichen Day-Ahead Preisfunktionen und Nutzerprofilen. Zur Verifikation des Lastverschiebungspotentials werden die Kosten pro MWh elektrischer Energie und die Kosten pro MWh thermischer Nutzenergie im Hysteresebetrieb (Normalbetrieb) denen des optimierten Betriebs gegenübergestellt. Durch eine Jahressimulation konnte das theoretische Potential nachgewiesen werden. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von rund 18 %. Die Kosten pro MWh thermischer Nutzenergie konnten durch die Optimierung um rund 19 % gesenkt werden. Die thermische Effizienz konnte somit um rund 1 % gesteigert werden. Der Wärmepumpenboiler wurde insgesamt zwei Wochen betrieben; eine Messreihe davon fand dabei im Normalbetrieb statt. In einer weiteren Messreihe wurde die Wärmepumpe mit der Optimierungsroutine betrieben. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von circa 23 %. Ebenso konnten die Kosten pro MWh thermischer Nutzenergie um 19 % gesenkt werden. Gleichzeitig sank die thermische Effizienz um 6 %.
ÖKOPROFIT ist ein Kooperationsprojekt zwischen den örtlichen Gemeindenund der lokalenWirtschaft.Die Teilnahme ist für die Betriebe freiwillig. Ziel ist die Betriebskostensenkung bei gleichzeitiger Schonung der Ressourcen. In Vorarlberg sind derzeit circa170 Betriebe zertifiziert. Im Rahmen der Rezertifizierung, die jedes Jahr stattfindet, wird von den Betrieben ein Umweltbericht erstellt. Die Berichte werden derzeit in Word verfasst, in eine Cloud geladen und dort von den Auditoren geprüft. Dies ist jedoch nicht mehr zeitgemäß. Im Rahmen des CESBA-AlpsInterreg Alpine Projektes (2016-2019) wurde ein Tool entwickelt, mit dem Ziel Nachhaltigkeit und Energieeffizienz im Alpenraum zu verbessern. In dieser Arbeit wird nun geprüft, inwiefern das bestehende CESBA-Alps-Tool in Wert gesetzt und somit in den Rezertifizierungsprozess von ÖKOPROFIT integriert werden kann. Das Tool wird zunächst so eingerichtet, dass die Betriebe mit ihren dazugehörigenIndikatoren sowie passende Indikatoren-Sets angelegt werden können. Für den Test werden historische Daten bis zum Jahr 2013von zwei Pilot-Clustern (Landeskrankenhäuser und Landesregierungsgebäude) mit unterschiedlichen Indikatoren-Sets eingepflegt. Es wird untersucht, inwiefern die Auswertungen und Exporte für den Rezertifizierungsprozess bereits tauglich sind. Jegliche Auffälligkeiten, Fehler oder Verbesserungsvorschläge werden gesammelt. Es wird klar, dass die Export-Dateien verschlankt und optimiert werden müssen, damit sie ohne Mehraufwand verwertet werdenkönnen. Die wichtigste Handlungsempfehlung ist die automatisierte Berichtlegungsfunktion. Es sollte ein Texteditor in das Tool eingearbeitet werden, in den Unternehmen einzelne Textbausteine einpflegen können, sodass mithilfe des Tools nicht nur das Kennzahlenkapitel des Umweltberichts, sondern alle Kapitel standardisiert erarbeitet werden können. Nur so kann sichergestellt werden, dass das Tool für die Betriebe eine Arbeitserleichterung und somit Zeitersparnis generiert. In einem weiteren Arbeitspaketwurden ähnliche Online-Tools anhand von im Vorhinein ausgewählten und priorisierten Kriterien, die ein optimales Tool erfüllen sollte, mithilfe einer gewichteten Entscheidungsmatrix semiquantitativ verglichen. Hierbei schnitt das in dieser Arbeit getestete Tool selbst ohne die Verbesserungen am besten ab. Es stellt sich heraus, dass es bereits die Hälfte der ausgewählten Kriterien in einer sehr guten Weise erfüllt. Die Kriterien wurden von der ÖKOPROFIT-Programmleitung definiert. Werden die Handlungsempfehlungen in der Zukunft noch umgesetzt, könnte mit dem Tool tatsächlich eine Verbesserung des derzeitigen ÖKOPROFIT-Rezertifizierungsprozesses erwirkt werden.
The Digital Factory Vorarlberg is the youngest Research Center of Vorarlberg University of Applied Sciences. In the lab of the research center a research and learning factory has been established for educating students and employees of industrial partners. Showcases and best practice scenarios for various topics of digitalization in the manufacturing industry are demonstrated. In addition, novel methods and technologies for digital production, cloud-based manufacturing, data analytics, IT- and OT-security or digital twins are being developed. The factory comprises only a minimum core of logistics and fabrication processes to guarantee manageability within an academic setup. As a product, fidget spinners are being fabricated. A webshop allows customers to individually design their products and directly place orders in the factory. A centralized SCADA-System is the core data hub for the factory. Various data analytic tools and methods and a novel database for IoT-applications are connected to the SCADA-System. As an alternative to on premise manufacturing, orders can be pushed into a cloud-based manufacturing platform, which has been developed at the Digital Factory. A broker system allows fabrication in distributed facilities and offers various optimization services. Concepts, such as outsourcing product configuration to customers or new types of engineering services in cloud-based manufacturing can be explored and demonstrated. In this paper, we present the basic concept of the Digital Factory Vorarlberg, as well as some of the newly developed topics.
Daten werden heute oft auch als das «neue Gold» bezeichnet. Denn die letzten Jahre haben gezeigt, dass Daten die Grundlage erstaunlicher unter- nehmerischer Erfolgsgeschichten sein können. Dabei ist die Arbeit mit Daten nicht grundlegend neu. Vielmehr geht es heute im Vergleich zu früher um nahezu unendlich grossen Mengen an Daten, die im Rahmen nahezu aller denkbaren Prozesse oder Schnittstellen gesammelt, gespeichert und ausgewertet werden können. Unter anderem beinhaltet dies Maschinendaten, unternehmens- interne Prozesse oder Daten über Kunden und den Markt, welche die Grundlage für lernende Systeme (Künstliche Intelligenz) bilden. Wir können heute davon ausgehen, dass künftig nicht mehr die technische Machbarkeit, sondern die mensch- liche Vorstellungskraft die Grenzen des Möglichen definiert.
Bekannt sind vor allem etliche Erfolgsgeschichten von Grossunternehmen, die ihr Geschäft auf Daten aufbauen. Etablierte KMU sind hingegen noch zögerlicher, mit Daten zu arbeiten und diese wertschöpfend einzusetzen. Diese Broschüre geht auf die besondere Situation von KMU im Umgang mit Daten und Data Science ein. Denn auch für KMU kann es lohnend oder sogar zwingend notwendig sein, sich mit dem Thema «Data Science» zu beschäftigen. Daten und Data Science bieten grosse
Chancen, sie können aber auch zu einer Bedrohung im Wettbewerb werden. Und, zu lange warten sollten KMU nicht, die Zeit drängt. Denn Geschwindigkeit ist einer der zentralen Wettbewerbsfaktoren im digitalen Zeitalter. Das IBH-Lab KMUdigital unter- stützt KMU dabei, den herausfordernden Weg in eine digitale Zukunft schneller und einfacher zu gehen.
Diese Broschüre geht daher insbesondere auf die Rolle von Daten und Data Science für KMU in der Bodenseeregion ein. Sie stellt eine Zusammen- fassung ausgewählter Erkenntnisse und Handlungs- empfehlungen dar, die wir in einem zweijährigen Forschungsprojekt gemeinsam mit 16 Unternehmen aus der Bodenseeregion gewinnen konnten. Die Erkenntnisse sollen KMU bei der Nutzung von Daten anhand von Data Science unterstützen. Dabei ist es kein Ziel, dass KMU zu einem «kleinen Google» werden. Vielmehr braucht es KMU- spezifische Lösungen und Überlegungen, wie mit Daten sinnvoll, zielorientiert und ressourcen- schonend umgegangen werden kann. Wie kann das aussehen? Welche Chancen, Herausforderungen und Lösungen bieten sich KMU vor dem Hinter- grund ihrer besonderen Situation? Was muss dazu im Unternehmen verändert werden? Welche Unterschiede bestehen im Vergleich zu Gross- unternehmen auf diesem Weg?
Diese und weitere Fragen stehen im Mittelpunkt des vorliegenden Projektberichts zum Einzelprojekt «Data Science für KMU leicht gemacht» oder kurz «Data Science 4 KMU» bzw. «Data4KMU», welches unter dem Dach des IBH-Labs KMUdigital in den Jahren 2018 bis 2019 durchgeführt wurde. Dazu werden Daten und Data Science aus mehreren Perspektiven betrachtet, die nicht unabhängig voneinander sind: Strategie und Geschäftsmodell, Services und Prozesse, Leadership, HRM und
Organisation, Organisationskultur und Ganzheitichkeit, sowie Technologie. Diese Perspektiven greifen wir in den nachfolgenden Kapiteln auf.
Die vorliegende Broschüre wäre ohne die wertvolle Unterstützung der Praxispartner des Projektes, des Managements des IBH-Labs KMUdigital sowie ohne die finanzielle Projektförderung durch die Inter- nationale Bodenseehochschule (IBH) und Interreg nicht möglich gewesen. Ihnen allen gilt unser ganz besonderer Dank!