600 Technik, Medizin, angewandte Wissenschaften
Refine
Document Type
- Master's Thesis (70)
- Conference Proceeding (44)
- Article (38)
- Book (3)
- Part of a Book (2)
- Other (1)
- Report (1)
Institute
- Forschungszentrum Mikrotechnik (48)
- Forschungszentrum Energie (14)
- Forschungszentrum Human Centred Technologies (13)
- Technik | Engineering & Technology (9)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (7)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (7)
- Soziales & Gesundheit (7)
- Forschungszentrum Business Informatics (4)
- Department of Engineering (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (2)
- Forschung (2)
Language
- English (98)
- German (59)
- Multiple languages (1)
- Dutch (1)
Keywords
- Arrayed waveguide gratings (4)
- Demand side management (4)
- Machine learning (4)
- OCT (4)
- Optical coherence tomography (4)
- AWG-spectrometer (3)
- Demand response (3)
- Peripheral arterial disease (3)
- Wärmepumpe (3)
- Y-branch splitter (3)
In Zeiten zunehmenden Umweltbewusstseins und steigender Energiekosten gewinnt die Optimierung der Energieeffizienz von Anlagen und Gebäudetechnik zunehmend an Bedeutung. Insbesondere im Kontext nachhaltiger und ressourcenschonender Heizungs- und Warmwassersysteme haben sich Wärmepumpen als maßgebliche Technologien etabliert. Die effiziente Bereitstellung von Warmwasser nimmt dabei eine essenzielle Position ein, da sie einen erheblichen Anteil am Gesamtenergieverbrauch eines Gebäudes ausmacht. Die vorliegende Masterarbeit widmet sich der Fragestellung, welchen Einfluss Zirkulationsleitungen auf die Effizienz von Wärmepumpen haben und wie sich alternative dezentrale Warmwasserbereitungssysteme auf diese auswirken. Konkret wird diese Fragestellung am Beispiel einer Mittelschule in Frastanz untersucht. Die Untersuchung erfolgt mithilfe von Simulationen mit der Software GeoT*Sol, wodurch verschiedene Szenarien der Warmwasserbereitung und deren Auswirkungen auf die Jahresarbeitszahl (JAZ) der Wärmepumpe simuliert werden. Es werden sechs Varianten verglichen, darunter der Ist-Stand mit Zirkulationsleitung, eine zeitlich angepasste Zirkulation, eine Variante ohne Zirkulation sowie dezentrale Warmwasserbereitung mit und ohne Photovoltaik-Einbindung. Die Ergebnisse zeigen, dass die Zirkulationsleitung einen signifikanten Einfluss auf die JAZ einer Wärmepumpe hat, da permanent Wärmeverluste entstehen, selbst ohne Warmwasserbedarf. Die dezentrale Warmwasserbereitung mit PV-Einbindung erweist sich als vielversprechend, sowohl in Bezug auf energetische Einsparungen als auch auf finanzielle Rentabilität. Die Masterarbeit bietet somit wichtige Erkenntnisse und Handlungsempfehlungen für die Mittelschule Frastanz, um ihre Energieeffizienz zu steigern und Kosten einzusparen. Die Empfehlungen zur Beibehaltung der Bestandswärmepumpe, der Installation dezentraler Warmwasserbereitungsanlagen und der PV-Anlage können als Grundlage für zukünftige Investitionsentscheidungen dienen und einen Beitrag zum nachhaltigen Energiemanagement der Schule leisten.
Die vorliegende Arbeit beschäftigt sich mit verschiedenen Regelstrategien für eine nachträgliche Bauteilaktivierung zur Gebäudesanierung und deren Auswirkungen auf die Energieeffizienz. Im Rahmen einer Kooperation der Alpenländischen Gemeinnützigen Wohnbaugesellschaft und dem Energieinstitut Vorarlberg, wird ein Gebäude aus dem Altbestand der Südtiroler Siedlung in Bludenz saniert und mit einer nachtäglichen Bauteilaktivierung der Bestand-wand versehen. Um die Auswirkungen verschiedener Regelstrategien sowohl auf den Komfort in den Wohnungen als auch auf die Energieeffizienz des Gebäudes zu untersuchen, wird mithilfe der Simulationssoftware IDA ICE ein Gebäudemodell erstellt und verschiedene Regelungen simuliert. Dabei werden Parameter wie das Erreichen der Solltemperatur, der Komfort oder der benötigte Heizwärmebedarf als Bewertungskriterium herangezogen, um diese zu vergleichen. Zuerst werden Flächenregelungen untersucht, die anhand der Temperatur eines Raumes oder dem Mittelwert mehrerer Räume eine komplette Gebäudeseite regeln. Darauffolgend werden Etagen- und Einzelraumregelungen untersucht. Zur Anwendung kommen gewöhnliche Thermostat- und PI-Regler, sowie eine Rücklauftemperaturregelung und eine prädiktive Regelung, welche mithilfe einer idealen Wettervorhersage arbeitet. Ziel ist es, die Auswirkung der Regelungen auf die Raumtemperaturen zu untersuchen und eine geeignete Regelstrategie für das Gebäude zu finden.
This study presents different approaches to increase the sensing area of NiO based semiconducting metal oxide gas sensors. Micro- and nanopatterned laser induced periodic surface structures (LIPSS) are generated on silicon and Si/SiO2 substrates. The surface morphologies of the fabricated samples are examined by FE SEM. We select the silicon samples with an intermediate Si3N4 layer due to its superior isolation quality over the thermal oxide for evaluating the hydrogen and acetone sensitivity of a NiO based test sensor.
Die berührungslose Bedienung stellt in der Mensch-Computer-Interaktion (HCI) eine wichtige Alternative gegenüber berührungsbasierter Bedienung dar. Expertinnen und Experten gehen davon aus, dass dadurch berührungsbasierte Bedienung in bestimmten Anwendungsfällen, wie in Operationssälen oder der Automobilbranche, abgelöst wird. Allerdings weisen gestenbasierte Systeme Inkonsistenzen bei der Bedienung auf, da diese für unterschiedliche Technologien, in verschiedenen Nutzungskontexten und gezielt durch Markendifferenzierung entwickelt werden. Eine weitere Herausforderung stellt die Uneinigkeit potenzieller Endnutzer:innen über geeignete Gesten dar (Gesture Disagreement Problem). Dies hat zur Folge, dass sich bisher kein allgemeingültiges Gestenset etablieren konnte. Um ein Gestenset für die berührungslose Bedienung für der HoloLens 2 in der mobilen Vermessung zu entwickeln, wurden kontextspezifische Anforderungen identifiziert und im Gestenerhebungsprozess berücksichtigt. Zur Identifizierung wurden in dieser Arbeit Interviews und eine Beobachtung der Nutzer:innen während des Arbeitsprozesses durchgeführt. Zudem untersucht diese Arbeit, ob und wie das oben genannte Problem der Uneinigkeit sowie die Voreingenommenheit im Gestenerhebungsprozess vermieden werden kann. Durch die Anwendung von zwei verschiedenen Priming-strategien sowie der Produktionsstrategie sollte diesen Problemen entgegengewirkt werden. Anhand der Auswertung ist zu erkennen, dass das Gesture Dis-agrement Problem nicht vollständig gelöst werden konnte. In der Gestenerhebung wurden 355 unterschiedliche Gesten für 19 Aufgaben erhoben. Bedienbefehle, die eine Assoziation zur berührungsbasierten Bedienung mit Bildschirmgeräten darstellten, wurden kaum erhoben. Dies beweist, dass die Voreingenommenheit vermieden werden konnte. Um die Auswahl der Gestenvorschläge einzuschränken wurden die Gesten von den Probandinnen und Probanden anhand der zwei Usability Kriterien „Einprägsamkeit“ und „Auffindbarkeit“ bewertet. Anhand von wissenschaftlichen Veröffentlichungen zur einhändigen Bedienung von Infotainmentsystemen zeigt sich, dass die Einprägsamkeit von Gestenbefehlen begrenzt ist. Im Kontext der mobilen Vermessung ist angedacht, Gestenbefehle als Shortcuts einzusetzen, um grafische Schnittstellen zu reduzieren. Dies hat zur Folge, dass die Probandinnen und Probanden eine Reihe von Gestenbefehlen lernen und sich einprägen müssen. Da aufgrund der hohen Anzahl der Gesten die Bewertungen nicht ausreichen, wurde die Auswahl anhand von zwei Auswertungsverfahren eingegrenzt. Zum einen wurde die Taxonomie für berührungslose Handgesten von Piumsomboon et al. (2013) herangezogen, um die Merkmale der Gesten zu gruppieren. Die Merkmale der Gesten wurden in einer Matrix, die die Bewertungen zur Einprägsamkeit und Auffindbarkeit berücksichtigen, eingeordnet. Zudem wird die prozentuale Menge dieser Merkmale berücksichtigt, um herauszufinden ob bestimmte Aufgaben spezifische Gestenmerkmale aufweisen. Zum anderen wurde ein Ansatz verfolgt, bei dem ähnliche Gesten zusammengefasst werden, um als Vorlage für die Expertenmeinung zu dienen. Unter Berücksichtigung ergonomischer, technischer und logischer Anforderungen wurde aus den resultierenden Gesten ein konsistentes Gestenset entwickelt, das zur berührungslosen, einhändigen Bedienung auf der HoloLens 2 und im Kontext der mobilen Vermessung angewendet werden kann. Weitere Untersuchungen sind notwendig um die Einprägsamkeit des Gestensets zu überprüfen. Zudem muss ein Konzept entwickelt werden, wie dieses Gestenset erlernt werden kann.
Operative Exzellenz wird als Sammelbegriff für strategische Managementansätze angesehen, welche anhand von Optimierungsinitiativen die Geschäftsprozesse des Unternehmens auf Kundenbedürfnisse, Qualität wie auch auf Effizienz ausrichten. Exzellenzmodelle kombinieren sowohl technische als auch soziale Faktoren im Streben nach nachhaltiger Verbesserung und basieren nicht nur auf dem Betriebsmanagement und den technischen Prozessen, sondern widmen auch den Menschen und ihrem Einfluss auf die erfolgreiche Umsetzung eines Optimierungsprogramms besondere Aufmerksamkeit. Ziel dieser Masterarbeit ist es, die entscheidende Rolle von Führungskräften und deren Führungsstile zu diskutieren, welche laut der ausgewerteten akademischen Literatur, sich für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 als erfolgsversprechend nennen lassen, indem die gewünschte Organisationskultur durch gezielte Anwendung von Führungskonzepten gefördert wird. Die Fragestellung der Masterarbeit wird anhand eines theoretisch-konzeptionellen Vorgehens beantwortet. Die Untersuchungen haben die Erkenntnisse zu Tage gebracht, dass sich mit dem Wandel der Anforderungen an die Unternehmen, auch die Führungskonzepte an die Anforderungen angepasst haben und somit auch die Führungsphilosophie von „Command and Control“ zu „Empowerment“, „agiler Führung“ und „transformationaler Führung“ übergegangen ist. Für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 konnten die Führungskonzepte „Transformationale Führung“, „Symbolische Führung“, „Mitarbeiter empowern“ und „Agile Führung“ identifiziert werden. Es besteht Grund zur Annahme, dass eine Kombination der vorgestellten Führungskonzepte die besten Ergebnisse liefern würde, insofern das geeignetste Führungskonzept situationsadäquat angewendet wird.
Erneuerbare Energiegemeinschaften (eEG) sind ein neues, innovatives und in der Entwicklung befindendes Thema bzw. Projekt. Entstanden ist es dadurch, dass Österreich die Vorschläge und neuen Gesetze aus dem Clean energy for all Europeans package mit der Verabschiedung des Erneuerbaren-Ausbau-Gesetz Ende 2021 in nationales Recht umgesetzt hat. In dem Leitfaden Energiegemeinschaften Ausschreibung 2021 ist in der Pionierphase und Integrationsphase klar vorgegeben, dass ein Monitoring über zwei Betriebsjahre zu betreiben ist. Das Monitoring von erneuerbaren Energiegemeinschaften wird in dieser Arbeit erstmalig behandelt. Es wurden Key Performance Indicators entwickelt, spezifiziert und erste Probeerhebungen durchgeführt. In dieser Arbeit wurde untersucht, welche Monitoring-Bereiche es geben könnte, mit welchem Erfolgsindikatoren-Set zum aktuellen Zeitpunkt ein sinnvolles Monitoring betrieben werden kann und welche Erfolgsindikatoren im Allgemeinen in Österreich erforderlich sind, um eine Aussage über den Erfolg von erneuerbaren Energiegemeinschaften treffen zu können. Hierfür wurde eine Grundlagenforschung im Bereich erneuerbare Energiegemeinschaften, ein normativer Vergleich zu ähnlichen Förderprogrammen und Experteninterviews durchgeführt. Anhand der daraus resultierenden Ergebnisse wurden finale KPIs spezifiziert. Mit diesen KPIs wurde in einem Monitoring-Tool ein Erfolgsindikatoren-Set angelegt und mit entsprechenden Zielwerten in Kontext gebracht. Zusätzlich wurden Daten von verschiedenen eEG angefragt und anhand dessen wurden in dem Tool erste Probeerhebungen durchgeführt, um die Machbarkeit zu untersuchen.
Die Anforderungen an gute Prognosen im Energiehandel der illwerke vkw AG steigen kontinuierlich an, da diese dazu verwendet werden, die richtigen Energiemengen auf dem Day-Ahead-Markt zu kaufen oder zu verkaufen. Zusätzliche Herausforderungen wie Wettereinflüsse und der steigende Energiebedarf von E-Autos erschweren die Prognose. Darüber hinaus gestaltet es sich mit den herkömmlichen Prognosebewertungen schwierig, die Kostenaspekte angemessen abzubilden. Aus diesem Grund wird in dieser Masterarbeit eine neue Methode zur Bewertung der Prognosequalität implementiert und mit bewährten Kennzahlen wie R², MAE, MAPE und RMSE verglichen. Diese Methode nutzt einen Preisverlauf, der die durchschnittlichen Marktpreise der Ausgleichsenergiepreise als Bewertungsmaßstab widerspiegelt. Die neue Bewertungsmethode wird mit Algorithmen wie dem Artificial Neural Network von Tensorflow, dem Decision Tree Regressor, der Linearen Regression, dem Multi-Layer Perception und dem Random Forest Regressor von Scikit-Learn verglichen. Zudem wird ein eigens erstelltes Gurobi-Modell, welches die Ausgleichsenergiepreise für die Gewichtung der absoluten Prognosefehler heranzieht, als Lineare Regression implementiert. Die genannten Modelle werden mithilfe von Python implementiert. Es werden tägliche Vorhersagen basierend auf viertelstündlichen Daten für Zeiträume von bis zu einem Jahr unter Verwendung eines Sliding-Window-Verfahrens mit unterschiedlichen Trainingsdaten erstellt. Die neue Bewertungsmethode mit der Einbeziehung von Kostenfaktoren, konnte sich im Vergleich zu MAPE, MAE, RMSE und R² nicht deutlich von den anderen unterscheiden. Die besten Ergebnisse wurden mit der Linearen Regression von Scikit-Learn und dem Gurobi-Modell mit der preisgewichteten Minimierung erzielt. Dabei sind die anderen Algorithmen nicht weit von den Resultaten der LR und GP entfernt. Unter dem Aspekt, dass das eigene Modell die Kosten minimieren soll, konnte es aber nicht als die beste Methode bewertet werden. Deswegen müssen das Modell und die gewählten Ausgleichsenergiepreise optimiert werden. Hierzu erzielte unter den sieben verwendeten Methoden die Lineare Regression das beste Ergebnis.
Die Gewinnung von motivierten und qualifizierten Mitarbeitenden stellt aufgrund verschiedenster aktueller Einflussfaktoren wie demografische Veränderungen oder der Fachkräftemangel eine große Herausforderung für das Recruiting dar. Eine umso wichtigere Rolle spielt daher die Bindung des Personals ans Unternehmen. Die interne Rekrutierung bietet in diesem Zusammenhang eine Möglichkeit, die im Unternehmen bereits vorhandenen Ressourcen zu nutzen, wobei sich im Vergleich zur externen Personalbeschaffung Chancen wie auch Risiken ergeben. Es haben sich kritische Erfolgsfaktoren gezeigt, die erkannt und in weiterer Folge berücksichtigt werden sollten. Diese sind für das Vorgehen beim internen Recruiting von Bedeutung, um möglichst das volle Potenzial ausschöpfen zu können. Im Rahmen dieser Masterarbeit wurde eine ausführliche Literaturrecherche durchgeführt, sodass in weiterer Folge eine Forschungsfrage abgeleitet werden konnte. Es wurden sieben Interviews mit ausgewählten HR-Expertinnen und HR-Experten geführt, die in Unternehmen arbeiten, die der Vorarlberger Industrie zugehörig sind. Anschließend wurden die Interviews nach der qualitativen Inhaltsanalyse ausgewertet. Im Zuge der Diskussion wurden die Interviewergebnisse der Literaturrecherche gegenübergestellt, wobei die Forschungsfrage beantwortet werden konnte. Schlussendlich wurden Handlungsimplikationen für das interne Recruiting abgleitet. Die Forschungsergebnisse deuten darauf hin, dass es im Hinblick auf die interne Rekrutierung verschiedene Erfolgsfaktoren gibt, die Unternehmen für das eigene Vorgehen berücksichtigen können. Dazu zählen beispielsweise die Bedeutung der Kommunikation während des gesamten Prozesses – Kündigungsfristen und Übergabeprozesse sollten ausreichend besprochen und umfassend geplant werden. Zudem ist es hilfreich, interne Absagen mit Bedacht auszusprechen und sachliche Gründe aufzuzeigen. Auch die involvierten Führungskräfte spielen im gesamten internen Personalbeschaffungsprozess eine bedeutende Rolle. Darüber hinaus haben sich weitere Aspekte gezeigt, die für das Vorgehen beim internen Recruiting von Bedeutung sind.
This thesis focuses on implementing and testing communication over a private 5G standalone network in an industrial environment, with a specific emphasis on communication between two articulated robots. The main objective is to examine machine-to-machine communication behavior in various test scenarios. Initially, the 5G core and radio access network components are described, along with their associated interfaces, to establish foundational knowledge. Subsequently, a use case involving two articulated robots is implemented, and essential metrics are defined for testing, including round-trip time, packet and inter-packet delay, and packet error rate. The tests investigate the impact of 5G quality of service, packet size, and transmission interval on communication between the robots, focusing on the effects of network traffic. The results highlight the significance of prioritizing network resources based on the assigned quality of service identifier (5QI), demonstrate the influence of packet sizes on communication performance, and underscore the importance of transmission intervals for automation purposes. Additionally, the study examines how network disturbances influence the movements of a robot controlled via 5G, establishing a direct relationship between network metrics and the resulting deviations in the robot’s trajectory. The work concludes that while machine-to-machine communication can be successfully implemented with 5G SA, tradeoffs must be carefully considered, especially concerning packet error rate, and emphasizes the importance of understanding the required resources before implementation to ensure feasibility. Future research directions include investigating network slicing, secure remote control of robots, and exploring the use of higher frequency bands. The study highlights the significance of aligning theoretical standards with practical implementation options in the evolving landscape of 5G Networks.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.
Design, simulation, and optimization of the 1×4 optical three-dimensional multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding is demonstrated. The splitter was simulated by using beam propagation method in BeamPROP simulation module of RSoft photonic tool and optimized for an operating wavelength of 1.55 μm . According to the minimum insertion loss, the dimensions of the splitter were optimized for a waveguide with a core size of 4×4 μm2 . The objective of the study is to create the design for fabrication by three-dimensional direct laser writing optical lithography.
Optoelectronic system based on photonic integrated circuits to miniaturize spectral domain OCT
(2023)
We present a miniaturized optical coherence tomography (OCT) setup based on photonic integrated circuits (PIC) for the 850 nm range. We designed a 512-channel arrayed waveguide grating (AWG) on a PIC for spectral domain OCT (SD-OCT) that is co-integrated with PIN-photodiodes and analog-to-digital-converters on one single chip. This image sensor is combined with all the necessary electronics to act as a camera. It is integrated into a fiber-based OCT system, achieving a sensitivity of >80dB and various samples are imaged. This optoelectronic system will allow building small and cost-effective OCT systems to monitor retinal diseases.
In this paper, a 256-channel, 10-GHz arrayed waveguide gratings demultiplexer for ultra-dense wavelength division multiplexing was designed using an in-house developed tool called AWG-Parameters. The AWG demultiplexer was designed for a central wavelength of 1550 nm and the structure was simulated in PHASAR tool from Optiwave. Two different AWG designs were developed and the influence of the design parameters on the AWG performance was studied.
The production of liquid-gas mixtures with desired properties still places high demands on process technology and is usually realized in bubble columns. The physical calculation models used have individual dimensionless factors which, depending on the application, are only valid for small ranges consisting of flow velocity, nozzle geometry and test setup. An iterative but time-consuming design of such dispersion processes is used in industry for producing a liquid-gas mixture according to desired requirements. In the present investigation, we accelerate the necessary design loops by setting up a physical model, which consists of several subsystems that are enriched by dedicated experiments to realize liquid-gas dispersions with low volume fraction and small air bubble diameters in oil. Our approach allows the extraction of individual dimensionless factors from maps of the introduced subsystems. These maps allow for targeted corrective measures of a production process for keeping the quality. The calculation-based approach avoids the need for performing iterative design loops. Overall, this approach supports the controlled generation of liquid-gas mixtures.
Activation of heat pump flexibilities is a viable solution to support balancing the grid via Demand Side Management measures and fulfill the need for flexibility options. Aggregators as interface between prosumers, distribution system operators and balance responsible parties face the challenge due to data privacy and technical restrictions to transform prosumer information into aggregated available flexibility to enable trading thereof. Thereby, literature lacks a generic, applicable and widely accepted flexibility estimation method for heat pumps,which incorporates reduced sensor and system information, system- and demand-dependent behaviour. In this paper, we adapt and extend a method from literature, by incorporating domain knowledge to overcome reduced sensor and system information. We apply data of five real-world heat pump systems, distinguish operation modes, estimate power and energy flexibility of each single heat pump system, proof transferability of the method, and aggregate the flexibilities available to showcase a small HP pool as a proof of concept.
In this work, parametric excitation is introduced in a fully balanced flexible rotor mounted on two identical active gas foil bearings. The active gas foil bearings change the top foil shape harmonically with a specific amplitude and frequency. The deformable foil shape is approximated by an analytical function, while the gas pressure distribution is evaluated by the numerical solution of the Reynolds equation for compressible flow. The harmonic variation of the foil shape generates a respective variation in the bearings’ stiffness and damping properties and the system experiences parametric resonances and antiresonances in specific excitation frequencies. The nonlinear gas bearing forces generate bifurcations in the solutions of the system at certain rotating speeds and excitation frequencies; period doubling and Neimark-Sacker bifurcations are noticed in the examined system, and their progress is evaluated as the two bifurcation parameters (rotating speed and parametric excitation frequency) are changed, though a codimension-2 numerical continuation of limit cycles. It is found that at specific range of excitation frequency there are parametric anti-resonances and the bifurcations collide and vanish. Therefore, a bifurcation-free operating range is established and the system can operate stable at a wide speed range.
Pooled data from published reports on infants with clinically diagnosed vitamin B12 (B12) deficiency were analyzed with the purpose of describing the presentation, diagnostic approaches, and risk factors for the condition to inform prevention strategies. An electronic (PubMed database) and manual literature search following the PRISMA approach was conducted (preregistration with the Open Science Framework, accessed on 15 February 2023). Data were described and analyzed using correlation analyses, Chi-square tests, ANOVAs, and regression analyses, and 102 publications (292 cases) were analyzed. The mean age at first symptoms (anemia, various neurological symptoms) was four months; the mean time to diagnosis was 2.6 months. Maternal B12 at diagnosis, exclusive breastfeeding, and a maternal diet low in B12 predicted infant B12, methylmalonic acid, and total homocysteine. Infant B12 deficiency is still not easily diagnosed. Methylmalonic acid and total homocysteine are useful diagnostic parameters in addition to B12 levels. Since maternal B12 status predicts infant B12 status, it would probably be advantageous to target women in early pregnancy or even preconceptionally to prevent infant B12 deficiency, rather than to rely on newborn screening that often does not reliably identify high-risk children.
Hot water heat pumps are well suited for demand side management, as the heat pump market faced a rapid growth in the past years with the trend to decentralized domestic hot water use. Sales were accelerated through wants and needs of energy conservation, energy efficiency, and less restrictive rules regarding Legionella. While in literature the model predictive control potential for heat pumps is commonly shown in simulations, the share of experimental studies is relatively low. To this day, experimental studies considering solely domestic hot water use are not available. In this paper, the realistic achievable model predictive control potential of a hot water heat pump is compared to the standard hysteresis control, to provide an experimental proof. We show for the first time, how state-of-the-art approaches (model predictive control, system identification, live state estimation, and demand prediction) can be transferred from electric hot water heaters to hot water heat pumps, combined, and implemented into a real-world hot water heat pump setup. The optimization approach, embedded in a realistic experimental setting, leads to a decrease in electric energy demand and cost per unit electricity by approximately 12% and 14%, respectively. Further, an increase in efficiency by approximately 13% has been achieved.
Validierung der Stromnetzberechnungsansätze anhand realer Messungen in der Niederspannungsebene
(2023)
Die politischen Ziele der Energiewende und insbesondere der zunehmende Ausbau der Elektromobilität führt zu steigenden Belastungen in den Niederspannungsnetzen. Eines der Hauptprobleme besteht darin, dass die genauen Informationen über den Zeitpunkt und die Dauer der Ladevorgänge fehlen, was eine präzise Bestimmung des Netzzustandes erschwert - auch deshalb, weil dieser durch die statische Netzberechnung erhoben wird, welche weitestgehend auf Annahmen und nicht zeitreihenbasierten Werten beruht. Im Folgenden wird daher untersucht, wie groß die Abweichungen der Niederspannungsparameter zwischen Trafostation und letztem Kabelverteilschrank bei realen Messungen im Winter im Vergleich zur statischen Worst-Case Berechnung sind. Weiters wird ermittelt, welche Änderungen der Eingangsparameter zu einer Optimierung der Ergebnisse führen. Dafür werden reale Messungen in verschiedenen Niederspannungsspannungsnetzen realisiert und nach einer Analyse der Messergebnisse werden die Eingangsparameter für die Netzberechnung bestimmt. Auf Basis dieser Inputparameter werden vier verschiedene Szenarien gebildet und die Berechnung mit diesen Szenarien durchgeführt. Anschließend werden die Berechnungsergebnisse mit den Messergebnissen verglichen. Der Vergleich der Methoden zeigt, dass die Berechnung den Worst-Case-Fall im Netz sehr realistisch abbildet. Jedoch ist aufällig, dass dieser Fall nur selten vorkommt und die betrachteten Verteilernetze zum größten Teil viel geringer belastet sind. Die 95%-Szenario-Betrachtungen zeigen, dass eine Vernachlässigung der selten vorkommenden Ausreißer zu einer Änderung der Eingangsparameter und einer Optimierung der Netzberechnung führt. Aus der Untersuchung geht zusätzlich hervor, dass die Annahme des Leistungsfaktors cos ϕ mit 0,90 zu niedrig angesetzt ist. Es kann festgehalten werden, dass sich dieser bei allen Netzen zwischen 0,999 und 0,990 befindet. Dieser Eingangsparameter für die statische Worst-Case-Berechnung kann aufgrund der gewonnenen Erkenntnisse optimiert werden.
This thesis evaluates the feasibility of conducting visual inspection tests on power industry constructions using object detection techniques. The introduction provides an overview of this field’s state-of-the-art technologies and approaches. For the implementation, a case study is then conducted, which is done in collaboration with the partner company OMICRON Electronics GmbH, focusing on power transformers as an example. The objective is to develop an inspection test using photographs to identify power transformers and their subcomponents and detect existing rust spots and oil leaks within these components. Three object detection models are trained: one for power transformers and sub-components, one for rust detection, and one for oil leak detection. The training process utilizes the implementation of the YOLOv5 algorithm on a Linux-based workstation with an NVIDIA Quadro RTX 4000 GPU. The power transformer model is trained on a dataset provided by the partner company, while open-source datasets are used for rust and oil leak detection. The study highlights the need for a more powerful GPU to enhance training experiments and utilizes an Azure DevOps Pipeline to optimize the workflow. The performance of the power transformer detection model is satisfactory but influenced by image angles and an imbalance of certain sub-components in the dataset. Multi-angle video footage is a proposed solution for the inspection test to address this limitation and increase the size of the dataset, focusing on reducing the imbalance. The models trained on open-source datasets demonstrate the potential for rust and oil leak detection but lack accuracy due to their generic nature. Therefore, the datasets must be adjusted with case-specific data to achieve the desired accuracy for reliable visual inspection tests. The results of the case study have been well-received by the partner company’s management, indicating future development opportunities. This case study will likely be a foundation for implementing visual inspection tests as a product.
Der Klimawandel und der damit einhergehende Temperaturanstieg stellen den Gebäudesektor in Bezug auf die sommerliche Überhitzung vor erhebliche Herausforderungen. Zur Abschätzung der Auswirkungen ist es relevant, Klimadaten für einen angemessenen Zeitraum zu verwenden, um geeignete Maßnahmen zur Hitzeminderung ergreifen zu können.Die sommerliche Überhitzung variiert je nach Gebäudetyp, Standort und örtlichen Gegebenheiten. Aus diesem Grund werden in dieser wissenschaftlichen Untersuchung Wohngebäude mit mehr als zehn Wohneinheiten für das Klimaszenario RCP4.5 im Jahr 2060 in Österreich analysiert. Zur Beurteilung des Wohnkomforts wurden umfangreiche Messungen im Rahmen einer Studie des Energieinstituts Vorarlberg an einem repräsentativen Gebäude über einen längeren Zeitraum durchgeführt. Basierend auf den gewonnenen Messwerten wird ein Referenzgebäude im Gebäudesimulationsprogramm IDA ICE konstruiert und simuliert. Um verschiedene Klimazonen angemessen abzubilden, werden die Standorte Bregenz, Klagenfurt und Wien für das Gebäude im Jahr 2022 betrachtet. Diese Ergebnisse bilden die Grundlage, um den Einfluss des Klimawandels auf die sommerliche Überhitzung abschätzen zu können. Im nächsten Schritt werden die neuen Klimadatensätze für das Klimaszenario RCP4.5 im Jahr 2060 für dieselben Standorte implementiert und mit den Ergebnissen von 2022 verglichen. Dadurch können verschiedene Kennziffern wie maximale Temperaturen, Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C und die Häufigkeit von Übertemperaturgradstunden herangezogen werden, um die zukünftige Hitzebelastung zu bewerten. Die Ergebnisse zeigen, dass mit einer Erhöhung der maximalen Temperatur, der mittleren Temperatur zwischen Mai und September sowie der Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C zu rechnen ist. Der Grenzwert von 25 °C wird dabei um 12 bis 29 Prozent überschritten. Die Maximaltem-peratur steigt um vier bis neun Prozent, während sich der Wert für die mittlere Temperatur um zwei bis drei Prozent erhöht. Besonders stark nimmt die Häufigkeit von Übertemperaturen über einen längeren Zeitraum zu. Für die Umsetzung passiver Maßnahmen zeigt sich, dass diese zu einer signifikanten Reduk-tion der Stundenanzahl mit Temperaturen über den Grenzwerten führen können. Auch durch simple Maßnahmen, wie die Integration einer Nachtlüftung, kann eine Absenkung der Tem-peraturen und folglich der Stundenanzahl über den Grenzwerten erreicht werden. Ein thermischer Komfort basierend ausschließlich auf passiven Maßnahmen kann nicht für sämtliche Standorte in der Zukunft gewährleistet werden.
The Fast Average Current Mode control methodology is a novel method for the implementation of a current compensator in a switched-mode power supply. It does not require compensation against sub-harmonic instability and is inductor independent. In this work, the digital implementation of this topology is compared against an analog implementation using simulation. Additionally, a hardware prototype is created to validate the digital simulation's results. In a Simulink environment, parameters of the digital implementation, such as the digital-to-analog converter resolutions and the delay counter frequency are varied to research their impact on system performance. The simulations show that a digital current compensator has similar performance as an analog implementation when designed tailored to the application. When evaluating the whole control loop the digital system is inferior due to added delays caused by digital to analog conversion. By operating the Buck converter hardware implementation as a current source, the functionality of the current mode control implementation in a FPGA was proven. Voltage control cannot be validated due to hardware issues. Due to the successful simulation of the source code with a mixed signal model of the converter, it can be assumed that it is functional. Apart from performance, a digital implementation shows many benefits compared to an analog solution, such as configurability of control parameters and easy compensation of component variations and aging.
The advent of autonomous and self-driving cranes represents a significant advancement in industrial automation. One critical prerequisites for achieving this long-term goal is the accurate and reliable detection of tools guided by ropes in real-world environments. Since the tool is suspended by ropes, the tool pose cannot be controlled directly. This master’s thesis addresses the challenges of pose estimation for rope-guided tools using point cloud measurements. The proposed algorithm utilizes constraints imposed by the crane kinematics and information extracted during the segmentation process to efficiently infer the pose of the hook, therefore enabling the use of the pose for decision making in real-time critical applications. RANSAC (Random Sample and Consensus) is deployed in the segmentation process to extract geometric primitives from the point cloud which represent the ropes and distinctive parts of the tool. Since the point cloud is often to sparse for feature matching a bounding box is used to estimate the initial position of the tool. Two different methods are presented to improve the initial pose. A computationally expensive method with a high level of confidence, integrating the ICP (Iterative Closest Point) algorithm is used as a benchmark. A linear Kalman filter is used in the second method which is real-time capable. The benchmark is then used to evaluate the real-time capable approach. The core contributions of this research lie in the innovative utilization of bounding boxes for pose estimation. The findings and methodologies presented herein constitute an advancement towards the realization of autonomous and self-driving cranes.
Synthetic polymers, such as polyamide (PA), inherently possess a moderate number of surface functionalities compared to natural polymers, which negatively impacts the uniformity of metallic coatings obtained through wet-chemical methods like electroless plating. The paper presents the use of a siloxane interlayer formed from the condensation of the hydrolyzed 3-triethoxysilylpropyl succinic anhydride (TESPSA) precursor as a strategy to modify the surface properties of polyamide 6.6 (PA66) fabrics and improve the uniformity of the copper surface coating. The application of the siloxane intermediate coating demonstrates a significant improvement in electrical conductivity, up to 20 times higher than fabrics without the interlayer. The morphology of the coatings was investigated using scanning electron (SEM) and laser confocal scanning microscopy (LSM). In addition, dye adsorption, flexural rigidity, air permeability and contact angle measurements were conducted to monitor the change in the PA66 properties after the siloxane functionalization.
Der Übergang zu erneuerbaren Energiesystemen und deren optimale Betriebsweise ist entscheidend für die Reduzierung des Energieverbrauchs und der damit verbundenen Einsparung von CO2-Emissionen. In privaten Haushalten dominiert traditionell die Hystereseregelung bei der Wärmeerzeugung. Neuere Bauten, ausgestattet mit Wärmepumpen und Photovoltaikanlagen, bieten jedoch beachtliches Potenzial zur Effizienzsteigerung durch angepasste Regelungsstrategien. Eine intelligente Laststeuerung ermöglicht erhebliche Kosteneinsparungen und eine Erhöhung des Autarkiegrades. Vorhandene literarische Ansätze liefern Methoden zur Systemmodellierung und -identifikation. Darüber hinaus demonstrieren sie das Potenzial der Optimierung durch den Model Predictive Control (MPC) Ansatz. Eine spezifische Evaluierung anhand von Realdaten eines Energiesystems mit Abluft-Wärmepumpe fehlt jedoch. Daher bedarf es der Bewertung des Lastverschiebungspotentials dieser Systemkonfiguration. Die Systemidentifikation erfolgt basierend auf Messdaten, welche gleichzeitig als Referenz für den Vergleich des traditionellen Hysteresebetriebs mit der MPC-Steuerung dienen. Die Analyse offenbart das Lastverschiebungspotential durch die optimierte Betriebsweise einschließlich einer Gesamtkosteneinsparung von bis zu 42% und einer Steigerung des Autarkiegrades um bis zu 10%. Diese Potentiale variieren saisonal, sind jedoch das ganze Jahr über vorhanden.
Grey Box models provide an important approach for control analysis in the Heating, Ventilation and Air Conditioning (HVAC) sector. Grey Box models consist of physical models where parameters are estimated from data. Due to the vast amount of component models that can be found in literature, the question arises, which component models perform best on a given system or dataset? This question is investigated systematically using a test case system with real operational data. The test case system consists of a HVAC system containing an energy recovery unit (ER), a heating coil (HC) and a cooling coil (CC). For each component, several suitable model variants from the literature are adapted appropriately and implemented. Four model variants are implemented for the ER and five model variants each for the HC and CC. Further, three global optimization algorithms and four local optimization algorithms to solve the nonlinear least squares system identification are implemented, leading to a total of 700 combinations. The comparison of all variants shows that the global optimization algorithms do not provide significantly better solutions. Their runtimes are significantly higher. Analysis of the models shows a dependency of the model accuracy on the number of total parameters.
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
The number of electric vehicles will increase rapidly in the coming years. Studies suggest that most owners prefer to charge their electric vehicle at home, which will fuel the need for charging stations in residential complexes where vehicles can be charged overnight. Currently, there already are over 100 such residential complexes, with another 70 added every year in Vorarlberg alone. In most existing residential complexes, however, the grid connections are not sufficient to charge all vehicles at the same time with maximum power. In addition, it is also desirable for grid operators and electricity producers that the power demand be as smooth and predictable as possible. To achieve this, ways to manage flexible loads need to be found, which can operate within the technical constraints. Therefore, the most common scenarios how the load can be made grid-friendly with the help of optional battery storage and/or photovoltaics using optimization methods of linear and stochastic programming were examined. At the same time, the needs of the vehicle owners for charging comfort - namely to find their vehicles reliably charged at the time of their respective departure - were addressed by combining both objectives using suitable weights. The algorithms determined were verified in practice on an existing Vlotte prototype installation. For this purpose, the necessary programs were implemented in Python, so that the data obtained during the test operation, which lasted one month, could be subjected to a well-founded analysis. In addition, simulation studies helped to further reveal the influence of PV and BESS sizing on the achievable optimums and confirm that advanced optimization algorithms such as the ones discussed are a vital contribution in reducing the charging stations’ peak load while at the same time maintaining high satisfaction levels.
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
Industriebetriebe wie auch jene der Lebensmittelbranche sind zunehmend auf der Suche nach umweltfreundlichen Alternativen zur Wärmebereitstellung. Wo bislang Gas oder sogar Öl als Brennstoff verwendet wurde, gewinnen Wärmepumpen langsam an Akzeptanz. In dieser Arbeit wird gezeigt, wie eine Hochtemperaturwärmepumpe am Beispiel eines Schokoladeherstellers effizient betrieben werden kann. Zur Beschreibung der Ausgangslage wird zunächst der Wirkungsgrad des gegebenen Kesselhauseses berechnet, um anschließend die nötigen Lastprofile festzulegen. Nach der thermischen Modellierung möglicher Wärmequellen und einer gegebenen Wärmepumpe werden vier Jahressimulationen mit der Programmiersprache Python durchgeführt. Die Ergebnisse zeigen zum einen, mit welchen Wirkungsgraden und Verdichterleistungen zu rechnen ist und zum anderen wie sich diese auf die betrachteten Wärmequellen auswirken. Die abschließende Wirtschaftlichkeitsberechnung beinhaltet die Analyse monatlicher Betriebskosten unter Berücksichtigung der angekündigten CO2-Bepreisung, sowie die Amortisationsdauern der betrachteten Szenarien. Die Sensitivitätsanalyse der Amortisationsdauer zeigt außerdem, in welchem Verhältnis sich Strom- und Gaspreis entwickeln dürfen, damit eine Wärmepumpe dieser Art wirtschaftlich konkurrieren kann. Die Ergebnisse der Simulationen zeigen darüber hinaus welche Reduktion der CO2-Emissionen bezogen auf die Prozesswärmebereistellung möglich ist.
Durch die zunehmende Homogenität von Produkten ist der technologische Fortschritt des reinen Produktes kein Alleinstellungsmerkmal mehr. Die Entwicklung datenbasierter Services bietet die Option trotzdem langfristige Wettbewerbsvorteile zu erzielen. Ein Großteil der KMU ist sich dabei in der Methodik unsicher. Es wird erörtert, wie KMU Geschäftsmodelle mit datenbasierten Services weiterentwickeln können. Mit einer qualitativen Untersuchung werden Praxiserfahrungen aufgezeigt und theoretische Thesen validiert.
Die Weiterentwicklung zu einem datenbasierten Geschäftsmodell ist ein umfangreicher Prozess, der mit Chancen und Herausforderungen einhergeht. Als Herausforderung hat sich die Wahl relevanter Methoden und die Anpassung an die jeweiligen Rahmenbedingungen herausgestellt. Referenzprozesse strukturieren das Vorgehen und sollen gleichzeitig Flexibilität gewährleisten. Während des Prozesses ist die Kundenorientierung und Akzeptanz sicherzustellen. Aufgabe der Geschäftsführung ist es, die Weiterentwicklung zu fördern, Mitarbeitende einzubinden und Ressourcen bereitzustellen. Insgesamt konnte gezeigt werden, dass die Weiterentwicklung zur Veränderung der gesamten Unternehmenslogik sowie einem Paradigmenwechsel vom reinen Produktverkauf zum umfassenden Serviceangebot führt.
Kooperation setzt einen Informationsaustausch voraus. Die Veränderung der Kooperation durch die Globalisierung und Dezentralisierung von zusammenarbeitenden Personen und Organisationen ließen neue Kommunikationswege entstehen. Innerhalb der Jahre 1980 – 2022 wurden Technologien entwickelt, die den Informationsaustausch und die soziale Interaktion im digitalen Raum beeinflussen. Ein wesentliches Werkzeug dafür sind sogenannte Groupwares. Sie sind „[...] computer-based systems that support groups of people engaged in a common task (or goal) and that provide an interface to a shared environment.“ (Ellis; Gibbs; Rein 1991)
Das Ziel dieser Arbeit ist die Gestaltung einer solchen Groupware bzw. eines Kollaborationstools als Unterstützung für Meetings auf Basis gesellschaftlicher Einflüsse. Beginnend mit der aktuellen Beschaffenheit und Klärung der Begriffswelt, folgt darauf die Auseinandersetzung mit theoretischen Hintergründen, die eine Bearbeitung dieses Themas erst erlauben. Im nächsten Schritt wird die technische Realisierung mit all ihren Projektschritten, vom Grundgedanken bis hin zum Einsatz in unterschiedlichen Bereichen, erläutert. Die durchgeführte Evaluation in simulierten Umgebungen gibt Rückschlüsse auf eine Adaption.
Anschließend werden Empfehlungen für eine weitere Entwicklung und Untersuchungen abgegeben und zukünftige Möglichkeiten behandelt.
Smart HR - welchen Mehrwert erhalten Industrieunternehmen der Bodenseeregion durch HR Analytics?
(2022)
Das Thema HR Analytics bringt viele interessante Aspekte mit sich. Diese Aspekte werden in dieser Masterarbeit mit Hilfe einer gründlichen Literaturrecherche und zehn Expert:inneninterviews, detailliert beschrieben: angefangen von den zu erfüllenden technischen-organisatorischen Voraussetzungen bis hin zur rechtlichen-ethischen Betrachtung. Nicht zu vergessen sind die damit verbundenen Herausforderungen bei der Einführung und Nutzung von HR Ana- lytics, die es zu bewältigen gilt. Zudem werden verschieden Begriffe und Prozesse, die in Verbindung mit HR Analytics stehen näher erklärt und Zusammenhänge gebildet. Das Ziel dieser Masterarbeit ist es, aufzuzeigen, ob sich durch HR Analytics ein Mehrwert für Industrieunternehmen der Bodenseeregion ergibt und falls ja welcher. Schließlich werden Handlungsempfehlungen definiert, um Industrieunternehmen den Einstieg und die Hinführung zu HR Analytics zu erleichtern.
The detection of glucose is an essential part of diabetes management and can help to prevent secondary diseases, that can occur as a result of diabetes. For this reason, it is important to improve the current glucose monitoring by developing novel sensors with high efficiency, low cost and compact design. The use of microelectrodes with interdigitated array (IDA) structures reduces the total detector size while providing benefits such as large currents, high sensitivity, and fast response. The aim of this thesis is to develop a novel sensor based on platinum interdigitated array (IDA) electrodes and to investigate which method is most effective for the detection of glucose. This work is divided into two parts. The first part is focused on the design and the fabrication of the sensor chips. The second part is concerned with the electrochemical characterisation of the sensors. Two distinct sensor designs are created, each consisting of a four-electrode system arranged as an interdigitated array. For the fabrication of the sensors, two different manufacturing processes are used. A lift-off process is used to fabricate the 2 μm-Gap sensor chips, whereas a lift-off free process is applied to produce the nanogap sensor chips. The electrochemical characterisation of both sensor chips is achieved by the immobilisation of the enzyme glucose oxidase (GOx) on the electrode surface. This thesis investigates the immobilisation of GOx by reduction of diazonium salts and the direct immobilisation of GOx by cyclic voltammetry. As a result of this work, it has been demonstrated that glucose detection by reduction of diazonium salts is error-prone due to modification with a multi-step procedure and is not suitable for our sensors based on platinum IDA electrodes. The direct immobilisation of GOx by cyclic voltammetry, by contrast, demonstrates the successful detection of glucose. In glucose solutions ranging from 5 mM to 20 mM, a direct correlation between the glucose concentration and the measured current is obtained. The reproducibility of direct immobilization is demonstrated by repeated performance with various sensors.
Power cables play an important role in power grids. Insulation faults in cables can have adverse effects on the operating behaviour. These effects can be assessed through an AC withstand test by using a very-low frequency high voltage generator. This generator produces a sinusoidal voltage waveform at 0.1Hz with high voltage levels up to 65kV peak. During the quality assessment, the power cable is repeatedly charged and discharged. The discharging process is done by a discharging circuit where the energy is dissipated thermally. But to reuse the dissipated energy a novel extension in form of an energy storage system is presented. This thesis, therefore, describes the design process of an energy storage system that allows the temporary storage of the discharge energy. The developed system is composed of a bidirectional DC/DC converter and an aluminium electrolytic capacitor as storage type. Based on the maximum VLF system ratings the energy storage unit is dimensioned and sized. The effective power flow control between the storage system and the available discharge energy is done by a synchronous buck-boost converter. This bidirectional converter works in continuous conduction mode over the complete charging phase. Together with a theoretical analysis of the underlying problem and the use of converter analysis methods the selected synchronous buck-boost converter is dimensioned and sized. In addition, a state space AC modeling of the converter with its electrical uncertainties is conducted. With the converters AC model, the controller is designed. A closed-loop input converter current control scheme based on a proportional-integral controller is implemented. The system assessment is done by a model-based hardware implementation in Matlab Simulink and Plecs Blockset. The system is rated to store discharge energies up to 4.3kJ in a short charging period of 2.5s. The maximum peak power during the charging phase is 2.7kW. The digital proportional-integral controller is implemented through an emulation process of the designed analog controller. Based on a C-code implementation of the digital controller the gap between the real hardware is reduced. During the design process theoretical calculations are made and reveal that designing a capacitor storage unit has a direct impact on the peak system currents and also impose also limitations on permissible DC voltage ranges on electrical components. The developed energy storage system and its power flow control strategy were investigated through simulation studies. The results show proper charging of the energy storage medium. In addition, also a statement of the final technical feasibility is made. In total, this work summarizes a detailed design process of the energy storage system. This proof of concept is intended to further advance the system integration.
Development of a low pressure syringe pump for detecting cannabinoids through liquid chromatography
(2022)
The following thesis covers the miniaturization and characterization of a pneumatic syringe pump, which is used for applications in low-pressure liquid chromatography. For this purpose, the components of the prototype are dealt with in the first section. These include the membrane pump and the cylinder for pressure and force generation, the syringe used for sample preparation and the construction of the test column. Furthermore, the pressure preparation on the cylinder, the friction losses of the syringe and then the behavior of the syringe in various application scenarios are considered. In the second section, the focus is on the different behaviors when using water and ethanol as a solvent. Tests in normal applications, as well as with air pockets or leaking seals, show the different behavior and the resulting deviations in the test pressure of the column. In addition, the maximum forces that can be applied to the syringe are worked out in several tests and the different maximum pressures, which depend on the solvent contained, are evaluated. These different maximum pressures, which are due to the different sealing behavior in connection with the surface tension of the liquid, will be discussed in conclusion. An outlook follows, up to which test pressures the system can be used and how these can be achieved.
Ein weit verbreitetes Problem von Heizungs-, Lüftungs- und Kühlungsanlagen (HLK-Anlagen) ist das Schwingungsverhalten der Regelung. Dieses führt zu unerwünschten Taktzyklen und damit zu erhöhtem Energieverbrauch, sowie zu verringerter Lebensdauer der Anlagenkomponenten. Deshalb besteht ein wirtschaftliches und ökologisches Interesse an der Vermeidung des Schwingungsverhaltens. Zum Auffinden von Fehlern, sowie deren Ursachenanalyse, steht in der Literatur ein weites Spektrum an möglichen Werkzeugen zur Fehlerdetektion und -diagnose (FDD) zur Verfügung. Klassische FDD-Werkzeuge für den Bereich von HLK-Anlagen basieren auf umfangreichem Domänenwissen zur Bestimmung der Ursache-Wirkungs-Beziehung von Fehlertypen, wie zum Beispiel Schwingungen. Deren Anwendung im HLK-Bereich ist deshalb mit zeitaufwändigen Analysen durch Fachpersonal verbunden, was hohe Kosten zur Folge hat.
Im Zuge dieser Masterarbeit wird ein FDD-Werkzeug für den Fehlertyp Schwingungen entwickelt, welches den hohen Zeitaufwand der Ursachenanalyse des Schwingens von HLK-Anlagen verringert. Durch die Anwendung von Methoden des maschinellen Lernens werden potenzielle Ursachen lokalisiert. Außerdem wird gezeigt, wie mit Hilfe des maschinellen Lernens eine Abschätzung über Gegenmaßnahmen zur Behebung der Schwingungsursachen getroffen werden kann.
Die Herausforderung in der Umsetzung des FDD-Werkzeugs liegt dabei in der Auswahl der Methoden für die Implementierung des datenbasierten Modells. Zur Umsetzung werden Daten einer HLK-Anlage eines Gewerbebetriebs am Standort Vorarlberg verwendet. Das entwickelte FDD-Werkzeug dient der fortlaufenden Auswertung von Schwingungen und der Optimierung bestehender Anlagen. Schlussendlich soll damit der Erhöhung der Energieeffizienz und der Erhöhung der Lebensdauer der Komponenten von HLK-Anlagen beigetragen werden.
The ability of water to form cage-like structures and capture gas molecules under high pressure and low temperatures lead to problems in gas pipelines, especially in the mid-20th century. Also, there is an enormous amount of this so-called gas hydrate, captured in deep sea sediments or in terrestrial permafrost soils in which they reserve a possible degradable energy resource. On the other hand, they also maintain a high risk to enhance the ongoing climate change. At the same time, through their high energy storage ability, gas hydrates exhibit a high potential for industrial applications like alternative energy storage, carbon capture technologies or cleaning of exhaust emissions through separation and storage. But through their complex kinetics and ongoing dynamics through induction, synthesis and dissociation, the usage of hydrates is still far away from relevant industrial application. To make the potential capable there is still a huge amount of basic research necessary: Specially to shorten the induction time. An earlier thesis at FH-Vorarlberg exposed a potential method to shorten the induction time through a stirred reactor with an extremely high stirring rate without the usage of promotors. Therefore, this thesis is dedicated to expose the possible reasons for the witnessed effect through high stirring rates (>10000 rpm) at different pressure and tempera-ture conditions. The goal is to show possible physical effects to shorten the induction time of hy-drate synthesis. Therefore, a stirred reactor is used in which the possible effects should be investi-gated through the research with CO2 hydrates. In the research, there will be a closer look on phe-nomena like cavitation, increasing the phase interface through stirring or pressure fluctuations. The results of this thesis show an interesting connection between pressure, stirring rate and increased phase interface. Furthermore, there are also some exposed significances between stirring under spe-cial conditions which were exposed through statistical analyses. The results show that stirring could possibly be a new driving force when executed under the right conditions.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Die vorliegende Arbeit beschäftigt sich mit der Positionsbestimmung in Innenräumen mittels der Ultra Breitband Technologie, deren Genauigkeit sowie der Positionierung solcher Systeme in relevanten Beleuchtungsmodulen. Im ersten Teil der Arbeit wird die Ultrabreitband Technologie beschrieben, die sich für Ortbarkeit in Innenräumen durch die große Bandbreite, relativ gut eignet. Hierbei wird auf das UWB-Signal, die Regulierung bezüglich Frequenznutzung für Europa und USA sowie auf die UWB-Standards eingegangen. Im weiteren Verlauf der Arbeit werden die gegenwärtigen Positionsbestimmungs Verfahren beschrieben. Beispiele hierfür sind das Time of Flight (ToF), das Time of Arrival sowie nicht funkbasierte Methoden wie z. B. die Inertial Measurement Unit (IMU). Die Positionsbestimmung in der UWB-Technologie wird häufig mittels ToF und ToA bewerkstelligt. Im darauffolgenden Kapitel werden die gegenwärtigen Lokalisierungssysteme erklärt. Real Time Locating Systems (RTLS) kommen in vielen Lebensbereichen zum Einsatz, von Krankenhäusern bis zum Sport. Der zweite Teil der Arbeit besteht aus der Ausarbeitung von verschiedenen Konzepten zur Realisierung eines Demonstrators sowie der Ausarbeitung eines Simulationsmodells für die Positionsbestimmung, mit dem eine Ortungsgenauigkeit von 30 bis 50 cm erreicht werden kann.
Die Mensch-Roboter-Kollaboration verspricht, die Leistungsfähigkeit eines Roboters und die Stärken eines Menschen zu kombinieren. Das junge Thema bringt nicht nur Vorteile, sondern auch neue Sicherheitsbestimmungen und aufwändige Validierungsverfahren mit sich, was den Zeitbedarf für die Entwicklung neuer MRK-Applikationen erhöht. Oft ergibt sich erst bei der Validierung, dass die Sicherheitsbestimmungen (meist die biomechanischen Grenzwerte) nicht eingehalten werden können und dadurch Änderungen an der Applikation durchgeführt werden müssen. So bildet sich ein Kreislauf aus „Validieren“ und „Änderungen vornehmen“, der erst nach mehreren Zyklen beendet werden kann. Ziel der vorliegenden Masterarbeit ist es, Empfehlungen zu konzipieren, mit welchen dieser Kreislauf frühzeitig durchbrochen werden kann. Die Arbeit beschränkt sich dabei auf das Leistungs- und Kraftbegrenzungsschutzprinzip. Um den Einfluss unterschiedlicher Parameter, wie beispielsweise die maximale TCP-Geschwindigkeit oder die Greifergeometrie, auf die Kollisionskräfte und Drücke zu erforschen, wurde ein biofideles Messsystem und ein Roboter vom Typ ABB GoFa™ verwendet. Diese Untersuchungen dienen zusammen mit den Sicherheitsbestimmungen als Grundlage der Gestaltungsempfehlungen. Um eine Anwendung der Empfehlungen vorzuzeigen, wird in der vorliegenden Arbeit exemplarisch eine MRK-Applikation gestaltet und validiert
In unserer digitalen Welt haben es einige Technologie-Marken bis ganz nach oben geschafft. Große Tech-Unternehmen wie Apple, Amazon, Microsoft und Google belegen die ersten Plätze der Best Global Brands im Jahr 2021 (Interbrand, 2021). Aber auch Automobilhersteller wie Toyota, Mercedes-Benz und BMW spielen ganz oben mit.
Wir möchten zunehmend mit unserer Außenwelt vernetzt sein, auch während dem Autofahren (Ulrich, 2015). So haben wir die Möglichkeit, unser Smartphone über eine Integrations-Schnittstelle, wie z.B. Apple CarPlay, in das vorhandene Infotainment-System des Autos zu integrieren. Durch die Integration werden zwei Systeme von unterschiedlichen Marken, basierend auf verschiedenen Styleguides, auf einem Bildschirm abwechselnd genutzt und dargestellt. Man kann zwischen den beiden Systemen hin und her wechseln, je nachdem, welche Funktionen man gerade nutzen möchte. Dabei entsteht einerseits ein heterogenes Benutzererlebnis für die Nutzerinnen und Nutzer, und auch für Designerinnen und Designer entstehen gewisse Herausforderungen. Lassen sich die Systeme unterschiedlicher Marken bis zu einem gewissen Punkt visuell aneinander annähern, und kann dadurch die Usability für die Nutzerinnen und Nutzer erhöht werden? Mit diesen Herausforderungen im Design beschäftigt sich diese Arbeit.
Ergebnis ist die Konzeption eines Gestaltungssystems, welches einen Vorschlag für die Annäherung zwei heterogener grafischer Benutzeroberflächen von zwei unterschiedlichen Marken bietet, wenn diese zusammen auf einem Bildschirm dargestellt und von den Nutzerinnen und Nutzern genutzt werden können. Anhand des Systems können die Interfaces aneinander angenähert werden, und sich dennoch über identifizierte Gestaltungselemente differenzieren.
This master’s thesis provides an overview of a more efficient, future-oriented living concept in Dornbirn, Austria. The use of a combined heat and power unit (CHP), in combination with a thermal storage, as a heating system is specifically investigated. In order to make this heating system more attractive for the consumer, the sale of the generated electricity from the CHP is considered. The more efficient use of energy for heating increases the attractiveness by a minimisation of the living space. This master’s thesis aims to draw attention to the issue and to achieve a rethinking in the planning of future living space. For the research and elaboration of this thesis, statistics and trustworthy literature were used, and physical modelling was applied. This Master’s thesis can be assigned to the fields of energy technology, mechatronics, architecture and civil engineering. It contributes for students, researchers, and other interested person in these sectors.
Gesellschaftliche, wirtschaftliche und technologische Entwicklungen und Trends des organisationalen Kontextes haben nicht zu vernachlässigende Auswirkungen auf organisationales Lernen. Sie wirken sich auf Unternehmen und die Ausgestaltung ihrer Lernwelten aus. Die im Organisationsumfeld zu verzeichnenden, kontextuellen Entwicklungen führen zu einem möglichen Anpassungsbedarf organisationaler Lernwelten im Hinblick auf deren räumliche, zeitliche, inhaltliche und methodische Ausgestaltung. Aufgrund der steigenden Dynamik und Komplexität des Unternehmenskontextes wird ein Lernverständnis erforderlich, welches einen Umgang mit den Charakteristika der VUCA-Welt ermöglicht. Abseits des formalen Lernens erfolgt die Betrachtung neuer, informeller und kooperativer Lernformen, die für die Ausgestaltung organisationaler Lernwelten eine Rolle spielen können. Der New Learning Ansatz enthält Prinzipien, die als Orientierung für die Ausgestaltung organisationaler Lernwelten dienen können, um Organisationen in ihrer Dynamikrobustheit zu unterstützen. Im Rahmen der Forschungsarbeit wird aufgrund der Notwendigkeit der Anpassung an den Unternehmenskontext untersucht, wie organisationale Lernwelten gestaltet werden sollten, damit Unternehmen dynamikrobust bestehen können und durch erzeugten Marktdruck wettbewerbsfähig bleiben.
In today’s world, fiber optic networks for data transmission are an essential technology. This technology provides multiple advantages compared to conventional electrical data transmission. The simultaneous transmission of multiple optical signals in a single fiber is one of the main benefits of fiber optic cable. This is accomplished by directing the different optical signals into a single fibre and splitting them up after the transmission in order to obtain the individual signals. Arrayed Waveguide Gratings (AWGs) are used for this purpose in modern optical networks. Design and evaluation process are two components of AWG development. During the evaluation of several simulated and already manufactured AWGs for telecommunication applications, it was discovered that the channel spacing parameter does not conform telecommunication standards. The correct shift of the geometric parameter ”separation of the output waveguides” leads to the standard-conform channel spacing.
According to the current state of the art, no commercial tool is available which calculates the shift of this parameter correctly. The aim of this thesis is the development of a software tool to calculate the accurate shifting of the geometric parameter ”separation of the output waveguides” of an AWG. This tool operates as an interface between the design and evaluation processes and must be able to import the data format of the evaluation process and returns the data in a suitable data format for the design process. The Vorarlberg University of Applied Sciences uses three different methods for the shifting of the geometric parameter ”separation of the output waveguides”. These methods are evaluated and optimised as part of this thesis. Additionally, it has been determined that the shift of the geometric parameter ”separation of the output waveguides” has no significant impact on the performance of the AWG.
Ein neuer Ansatz um Kohlendioxid aus einem Verbrennungsprozess abzuscheiden, auch Carbon Capture (CC) genannt, basiert auf der Gashydratsynthese. Dabei wird das Gas in Einschlussverbindungen aus Wassermolekülen, sogenannte Clathrate, eingefangen. Bei der Gashydratsynthese aus flüssigem Wasser, wie es bei bisherigen Methoden der Fall ist, treten selbsthemmende Effekte auf, die den Abscheideprozess verlangsamen.
In dieser Arbeit wird daher eine neue Methode entwickelt, um die Gashydratsynthese aus dampfförmigem Wasser zu untersuchen. Realisiert wird dies mit einem eigens entwickelten Versuchsreaktor, wobei ein Fallfilmverdampfer im Zentrum kontinuierlich Wasser verdampft. Der Abscheideversuch wird bei 20 - 40 bar und einem CO2-N2-Prüfgasgemisch betrieben. Das Herunterkühlen des Reaktors, mit einer Vorlauftemperatur von bis zu -65 °C, sorgt für stabile Wachstumsbedingungen an der Innenwand. Die Versuchsdurchführung zeigt, dass bei einer Ausgangskonzentration von 11,8 mol% CO2 am Ende des Abscheideprozesses im Minimum 10,7 mol% erreicht werden. Der im Gashydrat angereicherte CO2-Gehalt im liegt bei ca. 89 mol%.
Damit ist die Funktionsfähigkeit der neuartigen CC-Methode bewiesen und die Grundlage für die Weiterentwicklung des Prozesses geschaffen.
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
Flexibility estimation is the first step necessary to incorporate building energy systems into demand side management programs. We extend a known method for temporal flexibility estimation from literature to a real-world residential heat pump system, solely based on historical cloud data. The method proposed relies on robust simplifications and estimates employing process knowledge, energy balances and manufacturer's information. Resulting forced and delayed temporal flexibility, covering both domestic hot water and space heating demands as constraints, allows to derive a flexibility range for the heat pump system. The resulting temporal flexibility lay within the range of 24 minutes and 6 hours for forced and delayed flexibility, respectively. This range provides new insights into the system's behaviour and is the basis for estimating power and energy flexibility - the first step necessary to incorporate building energy systems into demand side management programs.