600 Technik, Medizin, angewandte Wissenschaften
Refine
Document Type
- Master's Thesis (70)
- Conference Proceeding (44)
- Article (38)
- Book (3)
- Part of a Book (2)
- Other (1)
- Report (1)
Institute
- Forschungszentrum Mikrotechnik (48)
- Forschungszentrum Energie (14)
- Forschungszentrum Human Centred Technologies (13)
- Technik | Engineering & Technology (9)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (7)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (7)
- Soziales & Gesundheit (7)
- Forschungszentrum Business Informatics (4)
- Department of Engineering (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (2)
- Forschung (2)
Language
- English (98)
- German (59)
- Multiple languages (1)
- Dutch (1)
Keywords
- Arrayed waveguide gratings (4)
- Demand side management (4)
- Machine learning (4)
- OCT (4)
- Optical coherence tomography (4)
- AWG-spectrometer (3)
- Demand response (3)
- Peripheral arterial disease (3)
- Wärmepumpe (3)
- Y-branch splitter (3)
In Zeiten zunehmenden Umweltbewusstseins und steigender Energiekosten gewinnt die Optimierung der Energieeffizienz von Anlagen und Gebäudetechnik zunehmend an Bedeutung. Insbesondere im Kontext nachhaltiger und ressourcenschonender Heizungs- und Warmwassersysteme haben sich Wärmepumpen als maßgebliche Technologien etabliert. Die effiziente Bereitstellung von Warmwasser nimmt dabei eine essenzielle Position ein, da sie einen erheblichen Anteil am Gesamtenergieverbrauch eines Gebäudes ausmacht. Die vorliegende Masterarbeit widmet sich der Fragestellung, welchen Einfluss Zirkulationsleitungen auf die Effizienz von Wärmepumpen haben und wie sich alternative dezentrale Warmwasserbereitungssysteme auf diese auswirken. Konkret wird diese Fragestellung am Beispiel einer Mittelschule in Frastanz untersucht. Die Untersuchung erfolgt mithilfe von Simulationen mit der Software GeoT*Sol, wodurch verschiedene Szenarien der Warmwasserbereitung und deren Auswirkungen auf die Jahresarbeitszahl (JAZ) der Wärmepumpe simuliert werden. Es werden sechs Varianten verglichen, darunter der Ist-Stand mit Zirkulationsleitung, eine zeitlich angepasste Zirkulation, eine Variante ohne Zirkulation sowie dezentrale Warmwasserbereitung mit und ohne Photovoltaik-Einbindung. Die Ergebnisse zeigen, dass die Zirkulationsleitung einen signifikanten Einfluss auf die JAZ einer Wärmepumpe hat, da permanent Wärmeverluste entstehen, selbst ohne Warmwasserbedarf. Die dezentrale Warmwasserbereitung mit PV-Einbindung erweist sich als vielversprechend, sowohl in Bezug auf energetische Einsparungen als auch auf finanzielle Rentabilität. Die Masterarbeit bietet somit wichtige Erkenntnisse und Handlungsempfehlungen für die Mittelschule Frastanz, um ihre Energieeffizienz zu steigern und Kosten einzusparen. Die Empfehlungen zur Beibehaltung der Bestandswärmepumpe, der Installation dezentraler Warmwasserbereitungsanlagen und der PV-Anlage können als Grundlage für zukünftige Investitionsentscheidungen dienen und einen Beitrag zum nachhaltigen Energiemanagement der Schule leisten.
Die vorliegende Arbeit beschäftigt sich mit verschiedenen Regelstrategien für eine nachträgliche Bauteilaktivierung zur Gebäudesanierung und deren Auswirkungen auf die Energieeffizienz. Im Rahmen einer Kooperation der Alpenländischen Gemeinnützigen Wohnbaugesellschaft und dem Energieinstitut Vorarlberg, wird ein Gebäude aus dem Altbestand der Südtiroler Siedlung in Bludenz saniert und mit einer nachtäglichen Bauteilaktivierung der Bestand-wand versehen. Um die Auswirkungen verschiedener Regelstrategien sowohl auf den Komfort in den Wohnungen als auch auf die Energieeffizienz des Gebäudes zu untersuchen, wird mithilfe der Simulationssoftware IDA ICE ein Gebäudemodell erstellt und verschiedene Regelungen simuliert. Dabei werden Parameter wie das Erreichen der Solltemperatur, der Komfort oder der benötigte Heizwärmebedarf als Bewertungskriterium herangezogen, um diese zu vergleichen. Zuerst werden Flächenregelungen untersucht, die anhand der Temperatur eines Raumes oder dem Mittelwert mehrerer Räume eine komplette Gebäudeseite regeln. Darauffolgend werden Etagen- und Einzelraumregelungen untersucht. Zur Anwendung kommen gewöhnliche Thermostat- und PI-Regler, sowie eine Rücklauftemperaturregelung und eine prädiktive Regelung, welche mithilfe einer idealen Wettervorhersage arbeitet. Ziel ist es, die Auswirkung der Regelungen auf die Raumtemperaturen zu untersuchen und eine geeignete Regelstrategie für das Gebäude zu finden.
This study presents different approaches to increase the sensing area of NiO based semiconducting metal oxide gas sensors. Micro- and nanopatterned laser induced periodic surface structures (LIPSS) are generated on silicon and Si/SiO2 substrates. The surface morphologies of the fabricated samples are examined by FE SEM. We select the silicon samples with an intermediate Si3N4 layer due to its superior isolation quality over the thermal oxide for evaluating the hydrogen and acetone sensitivity of a NiO based test sensor.
Die berührungslose Bedienung stellt in der Mensch-Computer-Interaktion (HCI) eine wichtige Alternative gegenüber berührungsbasierter Bedienung dar. Expertinnen und Experten gehen davon aus, dass dadurch berührungsbasierte Bedienung in bestimmten Anwendungsfällen, wie in Operationssälen oder der Automobilbranche, abgelöst wird. Allerdings weisen gestenbasierte Systeme Inkonsistenzen bei der Bedienung auf, da diese für unterschiedliche Technologien, in verschiedenen Nutzungskontexten und gezielt durch Markendifferenzierung entwickelt werden. Eine weitere Herausforderung stellt die Uneinigkeit potenzieller Endnutzer:innen über geeignete Gesten dar (Gesture Disagreement Problem). Dies hat zur Folge, dass sich bisher kein allgemeingültiges Gestenset etablieren konnte. Um ein Gestenset für die berührungslose Bedienung für der HoloLens 2 in der mobilen Vermessung zu entwickeln, wurden kontextspezifische Anforderungen identifiziert und im Gestenerhebungsprozess berücksichtigt. Zur Identifizierung wurden in dieser Arbeit Interviews und eine Beobachtung der Nutzer:innen während des Arbeitsprozesses durchgeführt. Zudem untersucht diese Arbeit, ob und wie das oben genannte Problem der Uneinigkeit sowie die Voreingenommenheit im Gestenerhebungsprozess vermieden werden kann. Durch die Anwendung von zwei verschiedenen Priming-strategien sowie der Produktionsstrategie sollte diesen Problemen entgegengewirkt werden. Anhand der Auswertung ist zu erkennen, dass das Gesture Dis-agrement Problem nicht vollständig gelöst werden konnte. In der Gestenerhebung wurden 355 unterschiedliche Gesten für 19 Aufgaben erhoben. Bedienbefehle, die eine Assoziation zur berührungsbasierten Bedienung mit Bildschirmgeräten darstellten, wurden kaum erhoben. Dies beweist, dass die Voreingenommenheit vermieden werden konnte. Um die Auswahl der Gestenvorschläge einzuschränken wurden die Gesten von den Probandinnen und Probanden anhand der zwei Usability Kriterien „Einprägsamkeit“ und „Auffindbarkeit“ bewertet. Anhand von wissenschaftlichen Veröffentlichungen zur einhändigen Bedienung von Infotainmentsystemen zeigt sich, dass die Einprägsamkeit von Gestenbefehlen begrenzt ist. Im Kontext der mobilen Vermessung ist angedacht, Gestenbefehle als Shortcuts einzusetzen, um grafische Schnittstellen zu reduzieren. Dies hat zur Folge, dass die Probandinnen und Probanden eine Reihe von Gestenbefehlen lernen und sich einprägen müssen. Da aufgrund der hohen Anzahl der Gesten die Bewertungen nicht ausreichen, wurde die Auswahl anhand von zwei Auswertungsverfahren eingegrenzt. Zum einen wurde die Taxonomie für berührungslose Handgesten von Piumsomboon et al. (2013) herangezogen, um die Merkmale der Gesten zu gruppieren. Die Merkmale der Gesten wurden in einer Matrix, die die Bewertungen zur Einprägsamkeit und Auffindbarkeit berücksichtigen, eingeordnet. Zudem wird die prozentuale Menge dieser Merkmale berücksichtigt, um herauszufinden ob bestimmte Aufgaben spezifische Gestenmerkmale aufweisen. Zum anderen wurde ein Ansatz verfolgt, bei dem ähnliche Gesten zusammengefasst werden, um als Vorlage für die Expertenmeinung zu dienen. Unter Berücksichtigung ergonomischer, technischer und logischer Anforderungen wurde aus den resultierenden Gesten ein konsistentes Gestenset entwickelt, das zur berührungslosen, einhändigen Bedienung auf der HoloLens 2 und im Kontext der mobilen Vermessung angewendet werden kann. Weitere Untersuchungen sind notwendig um die Einprägsamkeit des Gestensets zu überprüfen. Zudem muss ein Konzept entwickelt werden, wie dieses Gestenset erlernt werden kann.
Operative Exzellenz wird als Sammelbegriff für strategische Managementansätze angesehen, welche anhand von Optimierungsinitiativen die Geschäftsprozesse des Unternehmens auf Kundenbedürfnisse, Qualität wie auch auf Effizienz ausrichten. Exzellenzmodelle kombinieren sowohl technische als auch soziale Faktoren im Streben nach nachhaltiger Verbesserung und basieren nicht nur auf dem Betriebsmanagement und den technischen Prozessen, sondern widmen auch den Menschen und ihrem Einfluss auf die erfolgreiche Umsetzung eines Optimierungsprogramms besondere Aufmerksamkeit. Ziel dieser Masterarbeit ist es, die entscheidende Rolle von Führungskräften und deren Führungsstile zu diskutieren, welche laut der ausgewerteten akademischen Literatur, sich für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 als erfolgsversprechend nennen lassen, indem die gewünschte Organisationskultur durch gezielte Anwendung von Führungskonzepten gefördert wird. Die Fragestellung der Masterarbeit wird anhand eines theoretisch-konzeptionellen Vorgehens beantwortet. Die Untersuchungen haben die Erkenntnisse zu Tage gebracht, dass sich mit dem Wandel der Anforderungen an die Unternehmen, auch die Führungskonzepte an die Anforderungen angepasst haben und somit auch die Führungsphilosophie von „Command and Control“ zu „Empowerment“, „agiler Führung“ und „transformationaler Führung“ übergegangen ist. Für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 konnten die Führungskonzepte „Transformationale Führung“, „Symbolische Führung“, „Mitarbeiter empowern“ und „Agile Führung“ identifiziert werden. Es besteht Grund zur Annahme, dass eine Kombination der vorgestellten Führungskonzepte die besten Ergebnisse liefern würde, insofern das geeignetste Führungskonzept situationsadäquat angewendet wird.
Erneuerbare Energiegemeinschaften (eEG) sind ein neues, innovatives und in der Entwicklung befindendes Thema bzw. Projekt. Entstanden ist es dadurch, dass Österreich die Vorschläge und neuen Gesetze aus dem Clean energy for all Europeans package mit der Verabschiedung des Erneuerbaren-Ausbau-Gesetz Ende 2021 in nationales Recht umgesetzt hat. In dem Leitfaden Energiegemeinschaften Ausschreibung 2021 ist in der Pionierphase und Integrationsphase klar vorgegeben, dass ein Monitoring über zwei Betriebsjahre zu betreiben ist. Das Monitoring von erneuerbaren Energiegemeinschaften wird in dieser Arbeit erstmalig behandelt. Es wurden Key Performance Indicators entwickelt, spezifiziert und erste Probeerhebungen durchgeführt. In dieser Arbeit wurde untersucht, welche Monitoring-Bereiche es geben könnte, mit welchem Erfolgsindikatoren-Set zum aktuellen Zeitpunkt ein sinnvolles Monitoring betrieben werden kann und welche Erfolgsindikatoren im Allgemeinen in Österreich erforderlich sind, um eine Aussage über den Erfolg von erneuerbaren Energiegemeinschaften treffen zu können. Hierfür wurde eine Grundlagenforschung im Bereich erneuerbare Energiegemeinschaften, ein normativer Vergleich zu ähnlichen Förderprogrammen und Experteninterviews durchgeführt. Anhand der daraus resultierenden Ergebnisse wurden finale KPIs spezifiziert. Mit diesen KPIs wurde in einem Monitoring-Tool ein Erfolgsindikatoren-Set angelegt und mit entsprechenden Zielwerten in Kontext gebracht. Zusätzlich wurden Daten von verschiedenen eEG angefragt und anhand dessen wurden in dem Tool erste Probeerhebungen durchgeführt, um die Machbarkeit zu untersuchen.
Die Anforderungen an gute Prognosen im Energiehandel der illwerke vkw AG steigen kontinuierlich an, da diese dazu verwendet werden, die richtigen Energiemengen auf dem Day-Ahead-Markt zu kaufen oder zu verkaufen. Zusätzliche Herausforderungen wie Wettereinflüsse und der steigende Energiebedarf von E-Autos erschweren die Prognose. Darüber hinaus gestaltet es sich mit den herkömmlichen Prognosebewertungen schwierig, die Kostenaspekte angemessen abzubilden. Aus diesem Grund wird in dieser Masterarbeit eine neue Methode zur Bewertung der Prognosequalität implementiert und mit bewährten Kennzahlen wie R², MAE, MAPE und RMSE verglichen. Diese Methode nutzt einen Preisverlauf, der die durchschnittlichen Marktpreise der Ausgleichsenergiepreise als Bewertungsmaßstab widerspiegelt. Die neue Bewertungsmethode wird mit Algorithmen wie dem Artificial Neural Network von Tensorflow, dem Decision Tree Regressor, der Linearen Regression, dem Multi-Layer Perception und dem Random Forest Regressor von Scikit-Learn verglichen. Zudem wird ein eigens erstelltes Gurobi-Modell, welches die Ausgleichsenergiepreise für die Gewichtung der absoluten Prognosefehler heranzieht, als Lineare Regression implementiert. Die genannten Modelle werden mithilfe von Python implementiert. Es werden tägliche Vorhersagen basierend auf viertelstündlichen Daten für Zeiträume von bis zu einem Jahr unter Verwendung eines Sliding-Window-Verfahrens mit unterschiedlichen Trainingsdaten erstellt. Die neue Bewertungsmethode mit der Einbeziehung von Kostenfaktoren, konnte sich im Vergleich zu MAPE, MAE, RMSE und R² nicht deutlich von den anderen unterscheiden. Die besten Ergebnisse wurden mit der Linearen Regression von Scikit-Learn und dem Gurobi-Modell mit der preisgewichteten Minimierung erzielt. Dabei sind die anderen Algorithmen nicht weit von den Resultaten der LR und GP entfernt. Unter dem Aspekt, dass das eigene Modell die Kosten minimieren soll, konnte es aber nicht als die beste Methode bewertet werden. Deswegen müssen das Modell und die gewählten Ausgleichsenergiepreise optimiert werden. Hierzu erzielte unter den sieben verwendeten Methoden die Lineare Regression das beste Ergebnis.
Die Gewinnung von motivierten und qualifizierten Mitarbeitenden stellt aufgrund verschiedenster aktueller Einflussfaktoren wie demografische Veränderungen oder der Fachkräftemangel eine große Herausforderung für das Recruiting dar. Eine umso wichtigere Rolle spielt daher die Bindung des Personals ans Unternehmen. Die interne Rekrutierung bietet in diesem Zusammenhang eine Möglichkeit, die im Unternehmen bereits vorhandenen Ressourcen zu nutzen, wobei sich im Vergleich zur externen Personalbeschaffung Chancen wie auch Risiken ergeben. Es haben sich kritische Erfolgsfaktoren gezeigt, die erkannt und in weiterer Folge berücksichtigt werden sollten. Diese sind für das Vorgehen beim internen Recruiting von Bedeutung, um möglichst das volle Potenzial ausschöpfen zu können. Im Rahmen dieser Masterarbeit wurde eine ausführliche Literaturrecherche durchgeführt, sodass in weiterer Folge eine Forschungsfrage abgeleitet werden konnte. Es wurden sieben Interviews mit ausgewählten HR-Expertinnen und HR-Experten geführt, die in Unternehmen arbeiten, die der Vorarlberger Industrie zugehörig sind. Anschließend wurden die Interviews nach der qualitativen Inhaltsanalyse ausgewertet. Im Zuge der Diskussion wurden die Interviewergebnisse der Literaturrecherche gegenübergestellt, wobei die Forschungsfrage beantwortet werden konnte. Schlussendlich wurden Handlungsimplikationen für das interne Recruiting abgleitet. Die Forschungsergebnisse deuten darauf hin, dass es im Hinblick auf die interne Rekrutierung verschiedene Erfolgsfaktoren gibt, die Unternehmen für das eigene Vorgehen berücksichtigen können. Dazu zählen beispielsweise die Bedeutung der Kommunikation während des gesamten Prozesses – Kündigungsfristen und Übergabeprozesse sollten ausreichend besprochen und umfassend geplant werden. Zudem ist es hilfreich, interne Absagen mit Bedacht auszusprechen und sachliche Gründe aufzuzeigen. Auch die involvierten Führungskräfte spielen im gesamten internen Personalbeschaffungsprozess eine bedeutende Rolle. Darüber hinaus haben sich weitere Aspekte gezeigt, die für das Vorgehen beim internen Recruiting von Bedeutung sind.
This thesis focuses on implementing and testing communication over a private 5G standalone network in an industrial environment, with a specific emphasis on communication between two articulated robots. The main objective is to examine machine-to-machine communication behavior in various test scenarios. Initially, the 5G core and radio access network components are described, along with their associated interfaces, to establish foundational knowledge. Subsequently, a use case involving two articulated robots is implemented, and essential metrics are defined for testing, including round-trip time, packet and inter-packet delay, and packet error rate. The tests investigate the impact of 5G quality of service, packet size, and transmission interval on communication between the robots, focusing on the effects of network traffic. The results highlight the significance of prioritizing network resources based on the assigned quality of service identifier (5QI), demonstrate the influence of packet sizes on communication performance, and underscore the importance of transmission intervals for automation purposes. Additionally, the study examines how network disturbances influence the movements of a robot controlled via 5G, establishing a direct relationship between network metrics and the resulting deviations in the robot’s trajectory. The work concludes that while machine-to-machine communication can be successfully implemented with 5G SA, tradeoffs must be carefully considered, especially concerning packet error rate, and emphasizes the importance of understanding the required resources before implementation to ensure feasibility. Future research directions include investigating network slicing, secure remote control of robots, and exploring the use of higher frequency bands. The study highlights the significance of aligning theoretical standards with practical implementation options in the evolving landscape of 5G Networks.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.
Design, simulation, and optimization of the 1×4 optical three-dimensional multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding is demonstrated. The splitter was simulated by using beam propagation method in BeamPROP simulation module of RSoft photonic tool and optimized for an operating wavelength of 1.55 μm . According to the minimum insertion loss, the dimensions of the splitter were optimized for a waveguide with a core size of 4×4 μm2 . The objective of the study is to create the design for fabrication by three-dimensional direct laser writing optical lithography.
Optoelectronic system based on photonic integrated circuits to miniaturize spectral domain OCT
(2023)
We present a miniaturized optical coherence tomography (OCT) setup based on photonic integrated circuits (PIC) for the 850 nm range. We designed a 512-channel arrayed waveguide grating (AWG) on a PIC for spectral domain OCT (SD-OCT) that is co-integrated with PIN-photodiodes and analog-to-digital-converters on one single chip. This image sensor is combined with all the necessary electronics to act as a camera. It is integrated into a fiber-based OCT system, achieving a sensitivity of >80dB and various samples are imaged. This optoelectronic system will allow building small and cost-effective OCT systems to monitor retinal diseases.
In this paper, a 256-channel, 10-GHz arrayed waveguide gratings demultiplexer for ultra-dense wavelength division multiplexing was designed using an in-house developed tool called AWG-Parameters. The AWG demultiplexer was designed for a central wavelength of 1550 nm and the structure was simulated in PHASAR tool from Optiwave. Two different AWG designs were developed and the influence of the design parameters on the AWG performance was studied.
The production of liquid-gas mixtures with desired properties still places high demands on process technology and is usually realized in bubble columns. The physical calculation models used have individual dimensionless factors which, depending on the application, are only valid for small ranges consisting of flow velocity, nozzle geometry and test setup. An iterative but time-consuming design of such dispersion processes is used in industry for producing a liquid-gas mixture according to desired requirements. In the present investigation, we accelerate the necessary design loops by setting up a physical model, which consists of several subsystems that are enriched by dedicated experiments to realize liquid-gas dispersions with low volume fraction and small air bubble diameters in oil. Our approach allows the extraction of individual dimensionless factors from maps of the introduced subsystems. These maps allow for targeted corrective measures of a production process for keeping the quality. The calculation-based approach avoids the need for performing iterative design loops. Overall, this approach supports the controlled generation of liquid-gas mixtures.
Activation of heat pump flexibilities is a viable solution to support balancing the grid via Demand Side Management measures and fulfill the need for flexibility options. Aggregators as interface between prosumers, distribution system operators and balance responsible parties face the challenge due to data privacy and technical restrictions to transform prosumer information into aggregated available flexibility to enable trading thereof. Thereby, literature lacks a generic, applicable and widely accepted flexibility estimation method for heat pumps,which incorporates reduced sensor and system information, system- and demand-dependent behaviour. In this paper, we adapt and extend a method from literature, by incorporating domain knowledge to overcome reduced sensor and system information. We apply data of five real-world heat pump systems, distinguish operation modes, estimate power and energy flexibility of each single heat pump system, proof transferability of the method, and aggregate the flexibilities available to showcase a small HP pool as a proof of concept.
In this work, parametric excitation is introduced in a fully balanced flexible rotor mounted on two identical active gas foil bearings. The active gas foil bearings change the top foil shape harmonically with a specific amplitude and frequency. The deformable foil shape is approximated by an analytical function, while the gas pressure distribution is evaluated by the numerical solution of the Reynolds equation for compressible flow. The harmonic variation of the foil shape generates a respective variation in the bearings’ stiffness and damping properties and the system experiences parametric resonances and antiresonances in specific excitation frequencies. The nonlinear gas bearing forces generate bifurcations in the solutions of the system at certain rotating speeds and excitation frequencies; period doubling and Neimark-Sacker bifurcations are noticed in the examined system, and their progress is evaluated as the two bifurcation parameters (rotating speed and parametric excitation frequency) are changed, though a codimension-2 numerical continuation of limit cycles. It is found that at specific range of excitation frequency there are parametric anti-resonances and the bifurcations collide and vanish. Therefore, a bifurcation-free operating range is established and the system can operate stable at a wide speed range.
Pooled data from published reports on infants with clinically diagnosed vitamin B12 (B12) deficiency were analyzed with the purpose of describing the presentation, diagnostic approaches, and risk factors for the condition to inform prevention strategies. An electronic (PubMed database) and manual literature search following the PRISMA approach was conducted (preregistration with the Open Science Framework, accessed on 15 February 2023). Data were described and analyzed using correlation analyses, Chi-square tests, ANOVAs, and regression analyses, and 102 publications (292 cases) were analyzed. The mean age at first symptoms (anemia, various neurological symptoms) was four months; the mean time to diagnosis was 2.6 months. Maternal B12 at diagnosis, exclusive breastfeeding, and a maternal diet low in B12 predicted infant B12, methylmalonic acid, and total homocysteine. Infant B12 deficiency is still not easily diagnosed. Methylmalonic acid and total homocysteine are useful diagnostic parameters in addition to B12 levels. Since maternal B12 status predicts infant B12 status, it would probably be advantageous to target women in early pregnancy or even preconceptionally to prevent infant B12 deficiency, rather than to rely on newborn screening that often does not reliably identify high-risk children.
Hot water heat pumps are well suited for demand side management, as the heat pump market faced a rapid growth in the past years with the trend to decentralized domestic hot water use. Sales were accelerated through wants and needs of energy conservation, energy efficiency, and less restrictive rules regarding Legionella. While in literature the model predictive control potential for heat pumps is commonly shown in simulations, the share of experimental studies is relatively low. To this day, experimental studies considering solely domestic hot water use are not available. In this paper, the realistic achievable model predictive control potential of a hot water heat pump is compared to the standard hysteresis control, to provide an experimental proof. We show for the first time, how state-of-the-art approaches (model predictive control, system identification, live state estimation, and demand prediction) can be transferred from electric hot water heaters to hot water heat pumps, combined, and implemented into a real-world hot water heat pump setup. The optimization approach, embedded in a realistic experimental setting, leads to a decrease in electric energy demand and cost per unit electricity by approximately 12% and 14%, respectively. Further, an increase in efficiency by approximately 13% has been achieved.
Validierung der Stromnetzberechnungsansätze anhand realer Messungen in der Niederspannungsebene
(2023)
Die politischen Ziele der Energiewende und insbesondere der zunehmende Ausbau der Elektromobilität führt zu steigenden Belastungen in den Niederspannungsnetzen. Eines der Hauptprobleme besteht darin, dass die genauen Informationen über den Zeitpunkt und die Dauer der Ladevorgänge fehlen, was eine präzise Bestimmung des Netzzustandes erschwert - auch deshalb, weil dieser durch die statische Netzberechnung erhoben wird, welche weitestgehend auf Annahmen und nicht zeitreihenbasierten Werten beruht. Im Folgenden wird daher untersucht, wie groß die Abweichungen der Niederspannungsparameter zwischen Trafostation und letztem Kabelverteilschrank bei realen Messungen im Winter im Vergleich zur statischen Worst-Case Berechnung sind. Weiters wird ermittelt, welche Änderungen der Eingangsparameter zu einer Optimierung der Ergebnisse führen. Dafür werden reale Messungen in verschiedenen Niederspannungsspannungsnetzen realisiert und nach einer Analyse der Messergebnisse werden die Eingangsparameter für die Netzberechnung bestimmt. Auf Basis dieser Inputparameter werden vier verschiedene Szenarien gebildet und die Berechnung mit diesen Szenarien durchgeführt. Anschließend werden die Berechnungsergebnisse mit den Messergebnissen verglichen. Der Vergleich der Methoden zeigt, dass die Berechnung den Worst-Case-Fall im Netz sehr realistisch abbildet. Jedoch ist aufällig, dass dieser Fall nur selten vorkommt und die betrachteten Verteilernetze zum größten Teil viel geringer belastet sind. Die 95%-Szenario-Betrachtungen zeigen, dass eine Vernachlässigung der selten vorkommenden Ausreißer zu einer Änderung der Eingangsparameter und einer Optimierung der Netzberechnung führt. Aus der Untersuchung geht zusätzlich hervor, dass die Annahme des Leistungsfaktors cos ϕ mit 0,90 zu niedrig angesetzt ist. Es kann festgehalten werden, dass sich dieser bei allen Netzen zwischen 0,999 und 0,990 befindet. Dieser Eingangsparameter für die statische Worst-Case-Berechnung kann aufgrund der gewonnenen Erkenntnisse optimiert werden.
This thesis evaluates the feasibility of conducting visual inspection tests on power industry constructions using object detection techniques. The introduction provides an overview of this field’s state-of-the-art technologies and approaches. For the implementation, a case study is then conducted, which is done in collaboration with the partner company OMICRON Electronics GmbH, focusing on power transformers as an example. The objective is to develop an inspection test using photographs to identify power transformers and their subcomponents and detect existing rust spots and oil leaks within these components. Three object detection models are trained: one for power transformers and sub-components, one for rust detection, and one for oil leak detection. The training process utilizes the implementation of the YOLOv5 algorithm on a Linux-based workstation with an NVIDIA Quadro RTX 4000 GPU. The power transformer model is trained on a dataset provided by the partner company, while open-source datasets are used for rust and oil leak detection. The study highlights the need for a more powerful GPU to enhance training experiments and utilizes an Azure DevOps Pipeline to optimize the workflow. The performance of the power transformer detection model is satisfactory but influenced by image angles and an imbalance of certain sub-components in the dataset. Multi-angle video footage is a proposed solution for the inspection test to address this limitation and increase the size of the dataset, focusing on reducing the imbalance. The models trained on open-source datasets demonstrate the potential for rust and oil leak detection but lack accuracy due to their generic nature. Therefore, the datasets must be adjusted with case-specific data to achieve the desired accuracy for reliable visual inspection tests. The results of the case study have been well-received by the partner company’s management, indicating future development opportunities. This case study will likely be a foundation for implementing visual inspection tests as a product.
Der Klimawandel und der damit einhergehende Temperaturanstieg stellen den Gebäudesektor in Bezug auf die sommerliche Überhitzung vor erhebliche Herausforderungen. Zur Abschätzung der Auswirkungen ist es relevant, Klimadaten für einen angemessenen Zeitraum zu verwenden, um geeignete Maßnahmen zur Hitzeminderung ergreifen zu können.Die sommerliche Überhitzung variiert je nach Gebäudetyp, Standort und örtlichen Gegebenheiten. Aus diesem Grund werden in dieser wissenschaftlichen Untersuchung Wohngebäude mit mehr als zehn Wohneinheiten für das Klimaszenario RCP4.5 im Jahr 2060 in Österreich analysiert. Zur Beurteilung des Wohnkomforts wurden umfangreiche Messungen im Rahmen einer Studie des Energieinstituts Vorarlberg an einem repräsentativen Gebäude über einen längeren Zeitraum durchgeführt. Basierend auf den gewonnenen Messwerten wird ein Referenzgebäude im Gebäudesimulationsprogramm IDA ICE konstruiert und simuliert. Um verschiedene Klimazonen angemessen abzubilden, werden die Standorte Bregenz, Klagenfurt und Wien für das Gebäude im Jahr 2022 betrachtet. Diese Ergebnisse bilden die Grundlage, um den Einfluss des Klimawandels auf die sommerliche Überhitzung abschätzen zu können. Im nächsten Schritt werden die neuen Klimadatensätze für das Klimaszenario RCP4.5 im Jahr 2060 für dieselben Standorte implementiert und mit den Ergebnissen von 2022 verglichen. Dadurch können verschiedene Kennziffern wie maximale Temperaturen, Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C und die Häufigkeit von Übertemperaturgradstunden herangezogen werden, um die zukünftige Hitzebelastung zu bewerten. Die Ergebnisse zeigen, dass mit einer Erhöhung der maximalen Temperatur, der mittleren Temperatur zwischen Mai und September sowie der Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C zu rechnen ist. Der Grenzwert von 25 °C wird dabei um 12 bis 29 Prozent überschritten. Die Maximaltem-peratur steigt um vier bis neun Prozent, während sich der Wert für die mittlere Temperatur um zwei bis drei Prozent erhöht. Besonders stark nimmt die Häufigkeit von Übertemperaturen über einen längeren Zeitraum zu. Für die Umsetzung passiver Maßnahmen zeigt sich, dass diese zu einer signifikanten Reduk-tion der Stundenanzahl mit Temperaturen über den Grenzwerten führen können. Auch durch simple Maßnahmen, wie die Integration einer Nachtlüftung, kann eine Absenkung der Tem-peraturen und folglich der Stundenanzahl über den Grenzwerten erreicht werden. Ein thermischer Komfort basierend ausschließlich auf passiven Maßnahmen kann nicht für sämtliche Standorte in der Zukunft gewährleistet werden.
The Fast Average Current Mode control methodology is a novel method for the implementation of a current compensator in a switched-mode power supply. It does not require compensation against sub-harmonic instability and is inductor independent. In this work, the digital implementation of this topology is compared against an analog implementation using simulation. Additionally, a hardware prototype is created to validate the digital simulation's results. In a Simulink environment, parameters of the digital implementation, such as the digital-to-analog converter resolutions and the delay counter frequency are varied to research their impact on system performance. The simulations show that a digital current compensator has similar performance as an analog implementation when designed tailored to the application. When evaluating the whole control loop the digital system is inferior due to added delays caused by digital to analog conversion. By operating the Buck converter hardware implementation as a current source, the functionality of the current mode control implementation in a FPGA was proven. Voltage control cannot be validated due to hardware issues. Due to the successful simulation of the source code with a mixed signal model of the converter, it can be assumed that it is functional. Apart from performance, a digital implementation shows many benefits compared to an analog solution, such as configurability of control parameters and easy compensation of component variations and aging.
The advent of autonomous and self-driving cranes represents a significant advancement in industrial automation. One critical prerequisites for achieving this long-term goal is the accurate and reliable detection of tools guided by ropes in real-world environments. Since the tool is suspended by ropes, the tool pose cannot be controlled directly. This master’s thesis addresses the challenges of pose estimation for rope-guided tools using point cloud measurements. The proposed algorithm utilizes constraints imposed by the crane kinematics and information extracted during the segmentation process to efficiently infer the pose of the hook, therefore enabling the use of the pose for decision making in real-time critical applications. RANSAC (Random Sample and Consensus) is deployed in the segmentation process to extract geometric primitives from the point cloud which represent the ropes and distinctive parts of the tool. Since the point cloud is often to sparse for feature matching a bounding box is used to estimate the initial position of the tool. Two different methods are presented to improve the initial pose. A computationally expensive method with a high level of confidence, integrating the ICP (Iterative Closest Point) algorithm is used as a benchmark. A linear Kalman filter is used in the second method which is real-time capable. The benchmark is then used to evaluate the real-time capable approach. The core contributions of this research lie in the innovative utilization of bounding boxes for pose estimation. The findings and methodologies presented herein constitute an advancement towards the realization of autonomous and self-driving cranes.
Synthetic polymers, such as polyamide (PA), inherently possess a moderate number of surface functionalities compared to natural polymers, which negatively impacts the uniformity of metallic coatings obtained through wet-chemical methods like electroless plating. The paper presents the use of a siloxane interlayer formed from the condensation of the hydrolyzed 3-triethoxysilylpropyl succinic anhydride (TESPSA) precursor as a strategy to modify the surface properties of polyamide 6.6 (PA66) fabrics and improve the uniformity of the copper surface coating. The application of the siloxane intermediate coating demonstrates a significant improvement in electrical conductivity, up to 20 times higher than fabrics without the interlayer. The morphology of the coatings was investigated using scanning electron (SEM) and laser confocal scanning microscopy (LSM). In addition, dye adsorption, flexural rigidity, air permeability and contact angle measurements were conducted to monitor the change in the PA66 properties after the siloxane functionalization.
Der Übergang zu erneuerbaren Energiesystemen und deren optimale Betriebsweise ist entscheidend für die Reduzierung des Energieverbrauchs und der damit verbundenen Einsparung von CO2-Emissionen. In privaten Haushalten dominiert traditionell die Hystereseregelung bei der Wärmeerzeugung. Neuere Bauten, ausgestattet mit Wärmepumpen und Photovoltaikanlagen, bieten jedoch beachtliches Potenzial zur Effizienzsteigerung durch angepasste Regelungsstrategien. Eine intelligente Laststeuerung ermöglicht erhebliche Kosteneinsparungen und eine Erhöhung des Autarkiegrades. Vorhandene literarische Ansätze liefern Methoden zur Systemmodellierung und -identifikation. Darüber hinaus demonstrieren sie das Potenzial der Optimierung durch den Model Predictive Control (MPC) Ansatz. Eine spezifische Evaluierung anhand von Realdaten eines Energiesystems mit Abluft-Wärmepumpe fehlt jedoch. Daher bedarf es der Bewertung des Lastverschiebungspotentials dieser Systemkonfiguration. Die Systemidentifikation erfolgt basierend auf Messdaten, welche gleichzeitig als Referenz für den Vergleich des traditionellen Hysteresebetriebs mit der MPC-Steuerung dienen. Die Analyse offenbart das Lastverschiebungspotential durch die optimierte Betriebsweise einschließlich einer Gesamtkosteneinsparung von bis zu 42% und einer Steigerung des Autarkiegrades um bis zu 10%. Diese Potentiale variieren saisonal, sind jedoch das ganze Jahr über vorhanden.
Grey Box models provide an important approach for control analysis in the Heating, Ventilation and Air Conditioning (HVAC) sector. Grey Box models consist of physical models where parameters are estimated from data. Due to the vast amount of component models that can be found in literature, the question arises, which component models perform best on a given system or dataset? This question is investigated systematically using a test case system with real operational data. The test case system consists of a HVAC system containing an energy recovery unit (ER), a heating coil (HC) and a cooling coil (CC). For each component, several suitable model variants from the literature are adapted appropriately and implemented. Four model variants are implemented for the ER and five model variants each for the HC and CC. Further, three global optimization algorithms and four local optimization algorithms to solve the nonlinear least squares system identification are implemented, leading to a total of 700 combinations. The comparison of all variants shows that the global optimization algorithms do not provide significantly better solutions. Their runtimes are significantly higher. Analysis of the models shows a dependency of the model accuracy on the number of total parameters.
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
The number of electric vehicles will increase rapidly in the coming years. Studies suggest that most owners prefer to charge their electric vehicle at home, which will fuel the need for charging stations in residential complexes where vehicles can be charged overnight. Currently, there already are over 100 such residential complexes, with another 70 added every year in Vorarlberg alone. In most existing residential complexes, however, the grid connections are not sufficient to charge all vehicles at the same time with maximum power. In addition, it is also desirable for grid operators and electricity producers that the power demand be as smooth and predictable as possible. To achieve this, ways to manage flexible loads need to be found, which can operate within the technical constraints. Therefore, the most common scenarios how the load can be made grid-friendly with the help of optional battery storage and/or photovoltaics using optimization methods of linear and stochastic programming were examined. At the same time, the needs of the vehicle owners for charging comfort - namely to find their vehicles reliably charged at the time of their respective departure - were addressed by combining both objectives using suitable weights. The algorithms determined were verified in practice on an existing Vlotte prototype installation. For this purpose, the necessary programs were implemented in Python, so that the data obtained during the test operation, which lasted one month, could be subjected to a well-founded analysis. In addition, simulation studies helped to further reveal the influence of PV and BESS sizing on the achievable optimums and confirm that advanced optimization algorithms such as the ones discussed are a vital contribution in reducing the charging stations’ peak load while at the same time maintaining high satisfaction levels.
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
Industriebetriebe wie auch jene der Lebensmittelbranche sind zunehmend auf der Suche nach umweltfreundlichen Alternativen zur Wärmebereitstellung. Wo bislang Gas oder sogar Öl als Brennstoff verwendet wurde, gewinnen Wärmepumpen langsam an Akzeptanz. In dieser Arbeit wird gezeigt, wie eine Hochtemperaturwärmepumpe am Beispiel eines Schokoladeherstellers effizient betrieben werden kann. Zur Beschreibung der Ausgangslage wird zunächst der Wirkungsgrad des gegebenen Kesselhauseses berechnet, um anschließend die nötigen Lastprofile festzulegen. Nach der thermischen Modellierung möglicher Wärmequellen und einer gegebenen Wärmepumpe werden vier Jahressimulationen mit der Programmiersprache Python durchgeführt. Die Ergebnisse zeigen zum einen, mit welchen Wirkungsgraden und Verdichterleistungen zu rechnen ist und zum anderen wie sich diese auf die betrachteten Wärmequellen auswirken. Die abschließende Wirtschaftlichkeitsberechnung beinhaltet die Analyse monatlicher Betriebskosten unter Berücksichtigung der angekündigten CO2-Bepreisung, sowie die Amortisationsdauern der betrachteten Szenarien. Die Sensitivitätsanalyse der Amortisationsdauer zeigt außerdem, in welchem Verhältnis sich Strom- und Gaspreis entwickeln dürfen, damit eine Wärmepumpe dieser Art wirtschaftlich konkurrieren kann. Die Ergebnisse der Simulationen zeigen darüber hinaus welche Reduktion der CO2-Emissionen bezogen auf die Prozesswärmebereistellung möglich ist.
Durch die zunehmende Homogenität von Produkten ist der technologische Fortschritt des reinen Produktes kein Alleinstellungsmerkmal mehr. Die Entwicklung datenbasierter Services bietet die Option trotzdem langfristige Wettbewerbsvorteile zu erzielen. Ein Großteil der KMU ist sich dabei in der Methodik unsicher. Es wird erörtert, wie KMU Geschäftsmodelle mit datenbasierten Services weiterentwickeln können. Mit einer qualitativen Untersuchung werden Praxiserfahrungen aufgezeigt und theoretische Thesen validiert.
Die Weiterentwicklung zu einem datenbasierten Geschäftsmodell ist ein umfangreicher Prozess, der mit Chancen und Herausforderungen einhergeht. Als Herausforderung hat sich die Wahl relevanter Methoden und die Anpassung an die jeweiligen Rahmenbedingungen herausgestellt. Referenzprozesse strukturieren das Vorgehen und sollen gleichzeitig Flexibilität gewährleisten. Während des Prozesses ist die Kundenorientierung und Akzeptanz sicherzustellen. Aufgabe der Geschäftsführung ist es, die Weiterentwicklung zu fördern, Mitarbeitende einzubinden und Ressourcen bereitzustellen. Insgesamt konnte gezeigt werden, dass die Weiterentwicklung zur Veränderung der gesamten Unternehmenslogik sowie einem Paradigmenwechsel vom reinen Produktverkauf zum umfassenden Serviceangebot führt.
Kooperation setzt einen Informationsaustausch voraus. Die Veränderung der Kooperation durch die Globalisierung und Dezentralisierung von zusammenarbeitenden Personen und Organisationen ließen neue Kommunikationswege entstehen. Innerhalb der Jahre 1980 – 2022 wurden Technologien entwickelt, die den Informationsaustausch und die soziale Interaktion im digitalen Raum beeinflussen. Ein wesentliches Werkzeug dafür sind sogenannte Groupwares. Sie sind „[...] computer-based systems that support groups of people engaged in a common task (or goal) and that provide an interface to a shared environment.“ (Ellis; Gibbs; Rein 1991)
Das Ziel dieser Arbeit ist die Gestaltung einer solchen Groupware bzw. eines Kollaborationstools als Unterstützung für Meetings auf Basis gesellschaftlicher Einflüsse. Beginnend mit der aktuellen Beschaffenheit und Klärung der Begriffswelt, folgt darauf die Auseinandersetzung mit theoretischen Hintergründen, die eine Bearbeitung dieses Themas erst erlauben. Im nächsten Schritt wird die technische Realisierung mit all ihren Projektschritten, vom Grundgedanken bis hin zum Einsatz in unterschiedlichen Bereichen, erläutert. Die durchgeführte Evaluation in simulierten Umgebungen gibt Rückschlüsse auf eine Adaption.
Anschließend werden Empfehlungen für eine weitere Entwicklung und Untersuchungen abgegeben und zukünftige Möglichkeiten behandelt.
Smart HR - welchen Mehrwert erhalten Industrieunternehmen der Bodenseeregion durch HR Analytics?
(2022)
Das Thema HR Analytics bringt viele interessante Aspekte mit sich. Diese Aspekte werden in dieser Masterarbeit mit Hilfe einer gründlichen Literaturrecherche und zehn Expert:inneninterviews, detailliert beschrieben: angefangen von den zu erfüllenden technischen-organisatorischen Voraussetzungen bis hin zur rechtlichen-ethischen Betrachtung. Nicht zu vergessen sind die damit verbundenen Herausforderungen bei der Einführung und Nutzung von HR Ana- lytics, die es zu bewältigen gilt. Zudem werden verschieden Begriffe und Prozesse, die in Verbindung mit HR Analytics stehen näher erklärt und Zusammenhänge gebildet. Das Ziel dieser Masterarbeit ist es, aufzuzeigen, ob sich durch HR Analytics ein Mehrwert für Industrieunternehmen der Bodenseeregion ergibt und falls ja welcher. Schließlich werden Handlungsempfehlungen definiert, um Industrieunternehmen den Einstieg und die Hinführung zu HR Analytics zu erleichtern.
The detection of glucose is an essential part of diabetes management and can help to prevent secondary diseases, that can occur as a result of diabetes. For this reason, it is important to improve the current glucose monitoring by developing novel sensors with high efficiency, low cost and compact design. The use of microelectrodes with interdigitated array (IDA) structures reduces the total detector size while providing benefits such as large currents, high sensitivity, and fast response. The aim of this thesis is to develop a novel sensor based on platinum interdigitated array (IDA) electrodes and to investigate which method is most effective for the detection of glucose. This work is divided into two parts. The first part is focused on the design and the fabrication of the sensor chips. The second part is concerned with the electrochemical characterisation of the sensors. Two distinct sensor designs are created, each consisting of a four-electrode system arranged as an interdigitated array. For the fabrication of the sensors, two different manufacturing processes are used. A lift-off process is used to fabricate the 2 μm-Gap sensor chips, whereas a lift-off free process is applied to produce the nanogap sensor chips. The electrochemical characterisation of both sensor chips is achieved by the immobilisation of the enzyme glucose oxidase (GOx) on the electrode surface. This thesis investigates the immobilisation of GOx by reduction of diazonium salts and the direct immobilisation of GOx by cyclic voltammetry. As a result of this work, it has been demonstrated that glucose detection by reduction of diazonium salts is error-prone due to modification with a multi-step procedure and is not suitable for our sensors based on platinum IDA electrodes. The direct immobilisation of GOx by cyclic voltammetry, by contrast, demonstrates the successful detection of glucose. In glucose solutions ranging from 5 mM to 20 mM, a direct correlation between the glucose concentration and the measured current is obtained. The reproducibility of direct immobilization is demonstrated by repeated performance with various sensors.
Power cables play an important role in power grids. Insulation faults in cables can have adverse effects on the operating behaviour. These effects can be assessed through an AC withstand test by using a very-low frequency high voltage generator. This generator produces a sinusoidal voltage waveform at 0.1Hz with high voltage levels up to 65kV peak. During the quality assessment, the power cable is repeatedly charged and discharged. The discharging process is done by a discharging circuit where the energy is dissipated thermally. But to reuse the dissipated energy a novel extension in form of an energy storage system is presented. This thesis, therefore, describes the design process of an energy storage system that allows the temporary storage of the discharge energy. The developed system is composed of a bidirectional DC/DC converter and an aluminium electrolytic capacitor as storage type. Based on the maximum VLF system ratings the energy storage unit is dimensioned and sized. The effective power flow control between the storage system and the available discharge energy is done by a synchronous buck-boost converter. This bidirectional converter works in continuous conduction mode over the complete charging phase. Together with a theoretical analysis of the underlying problem and the use of converter analysis methods the selected synchronous buck-boost converter is dimensioned and sized. In addition, a state space AC modeling of the converter with its electrical uncertainties is conducted. With the converters AC model, the controller is designed. A closed-loop input converter current control scheme based on a proportional-integral controller is implemented. The system assessment is done by a model-based hardware implementation in Matlab Simulink and Plecs Blockset. The system is rated to store discharge energies up to 4.3kJ in a short charging period of 2.5s. The maximum peak power during the charging phase is 2.7kW. The digital proportional-integral controller is implemented through an emulation process of the designed analog controller. Based on a C-code implementation of the digital controller the gap between the real hardware is reduced. During the design process theoretical calculations are made and reveal that designing a capacitor storage unit has a direct impact on the peak system currents and also impose also limitations on permissible DC voltage ranges on electrical components. The developed energy storage system and its power flow control strategy were investigated through simulation studies. The results show proper charging of the energy storage medium. In addition, also a statement of the final technical feasibility is made. In total, this work summarizes a detailed design process of the energy storage system. This proof of concept is intended to further advance the system integration.
Development of a low pressure syringe pump for detecting cannabinoids through liquid chromatography
(2022)
The following thesis covers the miniaturization and characterization of a pneumatic syringe pump, which is used for applications in low-pressure liquid chromatography. For this purpose, the components of the prototype are dealt with in the first section. These include the membrane pump and the cylinder for pressure and force generation, the syringe used for sample preparation and the construction of the test column. Furthermore, the pressure preparation on the cylinder, the friction losses of the syringe and then the behavior of the syringe in various application scenarios are considered. In the second section, the focus is on the different behaviors when using water and ethanol as a solvent. Tests in normal applications, as well as with air pockets or leaking seals, show the different behavior and the resulting deviations in the test pressure of the column. In addition, the maximum forces that can be applied to the syringe are worked out in several tests and the different maximum pressures, which depend on the solvent contained, are evaluated. These different maximum pressures, which are due to the different sealing behavior in connection with the surface tension of the liquid, will be discussed in conclusion. An outlook follows, up to which test pressures the system can be used and how these can be achieved.
Ein weit verbreitetes Problem von Heizungs-, Lüftungs- und Kühlungsanlagen (HLK-Anlagen) ist das Schwingungsverhalten der Regelung. Dieses führt zu unerwünschten Taktzyklen und damit zu erhöhtem Energieverbrauch, sowie zu verringerter Lebensdauer der Anlagenkomponenten. Deshalb besteht ein wirtschaftliches und ökologisches Interesse an der Vermeidung des Schwingungsverhaltens. Zum Auffinden von Fehlern, sowie deren Ursachenanalyse, steht in der Literatur ein weites Spektrum an möglichen Werkzeugen zur Fehlerdetektion und -diagnose (FDD) zur Verfügung. Klassische FDD-Werkzeuge für den Bereich von HLK-Anlagen basieren auf umfangreichem Domänenwissen zur Bestimmung der Ursache-Wirkungs-Beziehung von Fehlertypen, wie zum Beispiel Schwingungen. Deren Anwendung im HLK-Bereich ist deshalb mit zeitaufwändigen Analysen durch Fachpersonal verbunden, was hohe Kosten zur Folge hat.
Im Zuge dieser Masterarbeit wird ein FDD-Werkzeug für den Fehlertyp Schwingungen entwickelt, welches den hohen Zeitaufwand der Ursachenanalyse des Schwingens von HLK-Anlagen verringert. Durch die Anwendung von Methoden des maschinellen Lernens werden potenzielle Ursachen lokalisiert. Außerdem wird gezeigt, wie mit Hilfe des maschinellen Lernens eine Abschätzung über Gegenmaßnahmen zur Behebung der Schwingungsursachen getroffen werden kann.
Die Herausforderung in der Umsetzung des FDD-Werkzeugs liegt dabei in der Auswahl der Methoden für die Implementierung des datenbasierten Modells. Zur Umsetzung werden Daten einer HLK-Anlage eines Gewerbebetriebs am Standort Vorarlberg verwendet. Das entwickelte FDD-Werkzeug dient der fortlaufenden Auswertung von Schwingungen und der Optimierung bestehender Anlagen. Schlussendlich soll damit der Erhöhung der Energieeffizienz und der Erhöhung der Lebensdauer der Komponenten von HLK-Anlagen beigetragen werden.
The ability of water to form cage-like structures and capture gas molecules under high pressure and low temperatures lead to problems in gas pipelines, especially in the mid-20th century. Also, there is an enormous amount of this so-called gas hydrate, captured in deep sea sediments or in terrestrial permafrost soils in which they reserve a possible degradable energy resource. On the other hand, they also maintain a high risk to enhance the ongoing climate change. At the same time, through their high energy storage ability, gas hydrates exhibit a high potential for industrial applications like alternative energy storage, carbon capture technologies or cleaning of exhaust emissions through separation and storage. But through their complex kinetics and ongoing dynamics through induction, synthesis and dissociation, the usage of hydrates is still far away from relevant industrial application. To make the potential capable there is still a huge amount of basic research necessary: Specially to shorten the induction time. An earlier thesis at FH-Vorarlberg exposed a potential method to shorten the induction time through a stirred reactor with an extremely high stirring rate without the usage of promotors. Therefore, this thesis is dedicated to expose the possible reasons for the witnessed effect through high stirring rates (>10000 rpm) at different pressure and tempera-ture conditions. The goal is to show possible physical effects to shorten the induction time of hy-drate synthesis. Therefore, a stirred reactor is used in which the possible effects should be investi-gated through the research with CO2 hydrates. In the research, there will be a closer look on phe-nomena like cavitation, increasing the phase interface through stirring or pressure fluctuations. The results of this thesis show an interesting connection between pressure, stirring rate and increased phase interface. Furthermore, there are also some exposed significances between stirring under spe-cial conditions which were exposed through statistical analyses. The results show that stirring could possibly be a new driving force when executed under the right conditions.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Die vorliegende Arbeit beschäftigt sich mit der Positionsbestimmung in Innenräumen mittels der Ultra Breitband Technologie, deren Genauigkeit sowie der Positionierung solcher Systeme in relevanten Beleuchtungsmodulen. Im ersten Teil der Arbeit wird die Ultrabreitband Technologie beschrieben, die sich für Ortbarkeit in Innenräumen durch die große Bandbreite, relativ gut eignet. Hierbei wird auf das UWB-Signal, die Regulierung bezüglich Frequenznutzung für Europa und USA sowie auf die UWB-Standards eingegangen. Im weiteren Verlauf der Arbeit werden die gegenwärtigen Positionsbestimmungs Verfahren beschrieben. Beispiele hierfür sind das Time of Flight (ToF), das Time of Arrival sowie nicht funkbasierte Methoden wie z. B. die Inertial Measurement Unit (IMU). Die Positionsbestimmung in der UWB-Technologie wird häufig mittels ToF und ToA bewerkstelligt. Im darauffolgenden Kapitel werden die gegenwärtigen Lokalisierungssysteme erklärt. Real Time Locating Systems (RTLS) kommen in vielen Lebensbereichen zum Einsatz, von Krankenhäusern bis zum Sport. Der zweite Teil der Arbeit besteht aus der Ausarbeitung von verschiedenen Konzepten zur Realisierung eines Demonstrators sowie der Ausarbeitung eines Simulationsmodells für die Positionsbestimmung, mit dem eine Ortungsgenauigkeit von 30 bis 50 cm erreicht werden kann.
Die Mensch-Roboter-Kollaboration verspricht, die Leistungsfähigkeit eines Roboters und die Stärken eines Menschen zu kombinieren. Das junge Thema bringt nicht nur Vorteile, sondern auch neue Sicherheitsbestimmungen und aufwändige Validierungsverfahren mit sich, was den Zeitbedarf für die Entwicklung neuer MRK-Applikationen erhöht. Oft ergibt sich erst bei der Validierung, dass die Sicherheitsbestimmungen (meist die biomechanischen Grenzwerte) nicht eingehalten werden können und dadurch Änderungen an der Applikation durchgeführt werden müssen. So bildet sich ein Kreislauf aus „Validieren“ und „Änderungen vornehmen“, der erst nach mehreren Zyklen beendet werden kann. Ziel der vorliegenden Masterarbeit ist es, Empfehlungen zu konzipieren, mit welchen dieser Kreislauf frühzeitig durchbrochen werden kann. Die Arbeit beschränkt sich dabei auf das Leistungs- und Kraftbegrenzungsschutzprinzip. Um den Einfluss unterschiedlicher Parameter, wie beispielsweise die maximale TCP-Geschwindigkeit oder die Greifergeometrie, auf die Kollisionskräfte und Drücke zu erforschen, wurde ein biofideles Messsystem und ein Roboter vom Typ ABB GoFa™ verwendet. Diese Untersuchungen dienen zusammen mit den Sicherheitsbestimmungen als Grundlage der Gestaltungsempfehlungen. Um eine Anwendung der Empfehlungen vorzuzeigen, wird in der vorliegenden Arbeit exemplarisch eine MRK-Applikation gestaltet und validiert
In unserer digitalen Welt haben es einige Technologie-Marken bis ganz nach oben geschafft. Große Tech-Unternehmen wie Apple, Amazon, Microsoft und Google belegen die ersten Plätze der Best Global Brands im Jahr 2021 (Interbrand, 2021). Aber auch Automobilhersteller wie Toyota, Mercedes-Benz und BMW spielen ganz oben mit.
Wir möchten zunehmend mit unserer Außenwelt vernetzt sein, auch während dem Autofahren (Ulrich, 2015). So haben wir die Möglichkeit, unser Smartphone über eine Integrations-Schnittstelle, wie z.B. Apple CarPlay, in das vorhandene Infotainment-System des Autos zu integrieren. Durch die Integration werden zwei Systeme von unterschiedlichen Marken, basierend auf verschiedenen Styleguides, auf einem Bildschirm abwechselnd genutzt und dargestellt. Man kann zwischen den beiden Systemen hin und her wechseln, je nachdem, welche Funktionen man gerade nutzen möchte. Dabei entsteht einerseits ein heterogenes Benutzererlebnis für die Nutzerinnen und Nutzer, und auch für Designerinnen und Designer entstehen gewisse Herausforderungen. Lassen sich die Systeme unterschiedlicher Marken bis zu einem gewissen Punkt visuell aneinander annähern, und kann dadurch die Usability für die Nutzerinnen und Nutzer erhöht werden? Mit diesen Herausforderungen im Design beschäftigt sich diese Arbeit.
Ergebnis ist die Konzeption eines Gestaltungssystems, welches einen Vorschlag für die Annäherung zwei heterogener grafischer Benutzeroberflächen von zwei unterschiedlichen Marken bietet, wenn diese zusammen auf einem Bildschirm dargestellt und von den Nutzerinnen und Nutzern genutzt werden können. Anhand des Systems können die Interfaces aneinander angenähert werden, und sich dennoch über identifizierte Gestaltungselemente differenzieren.
This master’s thesis provides an overview of a more efficient, future-oriented living concept in Dornbirn, Austria. The use of a combined heat and power unit (CHP), in combination with a thermal storage, as a heating system is specifically investigated. In order to make this heating system more attractive for the consumer, the sale of the generated electricity from the CHP is considered. The more efficient use of energy for heating increases the attractiveness by a minimisation of the living space. This master’s thesis aims to draw attention to the issue and to achieve a rethinking in the planning of future living space. For the research and elaboration of this thesis, statistics and trustworthy literature were used, and physical modelling was applied. This Master’s thesis can be assigned to the fields of energy technology, mechatronics, architecture and civil engineering. It contributes for students, researchers, and other interested person in these sectors.
Gesellschaftliche, wirtschaftliche und technologische Entwicklungen und Trends des organisationalen Kontextes haben nicht zu vernachlässigende Auswirkungen auf organisationales Lernen. Sie wirken sich auf Unternehmen und die Ausgestaltung ihrer Lernwelten aus. Die im Organisationsumfeld zu verzeichnenden, kontextuellen Entwicklungen führen zu einem möglichen Anpassungsbedarf organisationaler Lernwelten im Hinblick auf deren räumliche, zeitliche, inhaltliche und methodische Ausgestaltung. Aufgrund der steigenden Dynamik und Komplexität des Unternehmenskontextes wird ein Lernverständnis erforderlich, welches einen Umgang mit den Charakteristika der VUCA-Welt ermöglicht. Abseits des formalen Lernens erfolgt die Betrachtung neuer, informeller und kooperativer Lernformen, die für die Ausgestaltung organisationaler Lernwelten eine Rolle spielen können. Der New Learning Ansatz enthält Prinzipien, die als Orientierung für die Ausgestaltung organisationaler Lernwelten dienen können, um Organisationen in ihrer Dynamikrobustheit zu unterstützen. Im Rahmen der Forschungsarbeit wird aufgrund der Notwendigkeit der Anpassung an den Unternehmenskontext untersucht, wie organisationale Lernwelten gestaltet werden sollten, damit Unternehmen dynamikrobust bestehen können und durch erzeugten Marktdruck wettbewerbsfähig bleiben.
In today’s world, fiber optic networks for data transmission are an essential technology. This technology provides multiple advantages compared to conventional electrical data transmission. The simultaneous transmission of multiple optical signals in a single fiber is one of the main benefits of fiber optic cable. This is accomplished by directing the different optical signals into a single fibre and splitting them up after the transmission in order to obtain the individual signals. Arrayed Waveguide Gratings (AWGs) are used for this purpose in modern optical networks. Design and evaluation process are two components of AWG development. During the evaluation of several simulated and already manufactured AWGs for telecommunication applications, it was discovered that the channel spacing parameter does not conform telecommunication standards. The correct shift of the geometric parameter ”separation of the output waveguides” leads to the standard-conform channel spacing.
According to the current state of the art, no commercial tool is available which calculates the shift of this parameter correctly. The aim of this thesis is the development of a software tool to calculate the accurate shifting of the geometric parameter ”separation of the output waveguides” of an AWG. This tool operates as an interface between the design and evaluation processes and must be able to import the data format of the evaluation process and returns the data in a suitable data format for the design process. The Vorarlberg University of Applied Sciences uses three different methods for the shifting of the geometric parameter ”separation of the output waveguides”. These methods are evaluated and optimised as part of this thesis. Additionally, it has been determined that the shift of the geometric parameter ”separation of the output waveguides” has no significant impact on the performance of the AWG.
Ein neuer Ansatz um Kohlendioxid aus einem Verbrennungsprozess abzuscheiden, auch Carbon Capture (CC) genannt, basiert auf der Gashydratsynthese. Dabei wird das Gas in Einschlussverbindungen aus Wassermolekülen, sogenannte Clathrate, eingefangen. Bei der Gashydratsynthese aus flüssigem Wasser, wie es bei bisherigen Methoden der Fall ist, treten selbsthemmende Effekte auf, die den Abscheideprozess verlangsamen.
In dieser Arbeit wird daher eine neue Methode entwickelt, um die Gashydratsynthese aus dampfförmigem Wasser zu untersuchen. Realisiert wird dies mit einem eigens entwickelten Versuchsreaktor, wobei ein Fallfilmverdampfer im Zentrum kontinuierlich Wasser verdampft. Der Abscheideversuch wird bei 20 - 40 bar und einem CO2-N2-Prüfgasgemisch betrieben. Das Herunterkühlen des Reaktors, mit einer Vorlauftemperatur von bis zu -65 °C, sorgt für stabile Wachstumsbedingungen an der Innenwand. Die Versuchsdurchführung zeigt, dass bei einer Ausgangskonzentration von 11,8 mol% CO2 am Ende des Abscheideprozesses im Minimum 10,7 mol% erreicht werden. Der im Gashydrat angereicherte CO2-Gehalt im liegt bei ca. 89 mol%.
Damit ist die Funktionsfähigkeit der neuartigen CC-Methode bewiesen und die Grundlage für die Weiterentwicklung des Prozesses geschaffen.
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
Flexibility estimation is the first step necessary to incorporate building energy systems into demand side management programs. We extend a known method for temporal flexibility estimation from literature to a real-world residential heat pump system, solely based on historical cloud data. The method proposed relies on robust simplifications and estimates employing process knowledge, energy balances and manufacturer's information. Resulting forced and delayed temporal flexibility, covering both domestic hot water and space heating demands as constraints, allows to derive a flexibility range for the heat pump system. The resulting temporal flexibility lay within the range of 24 minutes and 6 hours for forced and delayed flexibility, respectively. This range provides new insights into the system's behaviour and is the basis for estimating power and energy flexibility - the first step necessary to incorporate building energy systems into demand side management programs.
The properties of SiC and diamond make them attractive materials for MEMS and sensor devices. We innovated specific laser ablation techniques to fabricate membranes and cantilevers made of SiC or nano-(micro-) crystalline diamond films grown on Si/SiO2 substrates by microwave chemical vapour deposition (MWCVD). We started research to generate surface moulds to grow corrugated diamond films for membranes and cantilevers. A software tool was developed to support the design of micromechanical cantilevers. We can measure deformation and resonant frequency of diamond cantilevers and identify the global mechanical properties. A benchmark against finite element simulations enables an inverse identification of the specific system parameters and simplifies the characterization procedure.
Grid-scale electrical energy storage (EES) is a key component in cost-effective transition scenarios to renewable energy sources. The requirement of scalability favors EES approaches such as pumped-storage hydroelectricity (PSH) or compressed-air energy storage (CAES), which utilize the cheap and abundant storage materials water and air, respectively. To overcome the site restriction and low volumetric energy densities attributed to PSH and CAES, liquid-air energy storage (LAES) has been devised; however, it suffers from a rather small round-trip efficiency (RTE) and challenging storage conditions. Aiming to overcome these drawbacks, a novel system for EES is developed using solidified air (i.e., clathrate hydrate of air) as the storable phase of air. A reference plant for solidified-air energy storage (SAES) is conceptualized and modeled thermodynamically using the software CoolProp for water and air as well as empirical data and first-order approximations for the solidified air (SA). The reference plant exhibits a RTE of 52% and a volumetric storage density of 47 kWh per m3 of SA. While this energy density relates to only one half of that in LAES plants, the modeled RTE of SAES is comparable already. Since improved thermal management and the use of thermodynamic promoters can further increase the RTEs in SAES, the technical potential of SAES is in place already. Yet, for a successful implementation of the concept - in addition to economic aspects - questions regarding the stability of SA must be first clarified and challenges related to the processing of SA resolved.
Violation-mitigation-based method for PV hosting capacity quantification in low voltage grids
(2022)
Hosting capacity knowledge is of great importance for distribution utilities to assess the amount of PV capacity possible to accommodate without troubling the operation of the grid. In this paper, a novel method to quantify the hosting capacity of low voltage grids is presented. The method starts considering a state of fully exploited building rooftop solar potential. A downward process is proposed - from the starting state with expected violations on the grid operation to a state with no violations. In this process, the installed PV capacity is progressively reduced. The reductions are made sequentially and selectively aiming to mitigate specific violations: nodes overvoltage, lines overcurrent and transformer overloading. Evaluated on real data of fourteen low voltage grids from Austria, the method proposed exhibits benefits in terms of higher hosting capacities and lower computational costs compared to stochastic methods. Furthermore, it also quantifies hosting capacity expansions achievable by overcoming the effect of the violations. The usage of a potential different from solar rooftops is also presented, demonstrating that a user-defined potential allows to quantify the hosting capacity in a more general setting with the method proposed.
The impact of global warming and climate change has forced countries to introduce strict policies and decarbonization goals toward sustainable development. To achieve the decarbonization of the economy, a substantial increase of renewable energy sources is required to meed energy demand and to transition away from fossil fuels. However, renewables are sensitive to environmental conditions, which may lead to imbalances between energy supply and demand. Battery energy storage systems are gaining more attention for balancing energy systems in existing grid networks at various levels such as bulk power management, transmission and distribution, and for end-users. Integrating battery energy storage systems with renewables can also solve reliability issues related to transient energy production and be used as a buffer source for electrical vehicle fast charging. Despite these advantages, batteries are still expensive and typically built for a single application – either for an energy- or power-dense application – which limits economic feasibility and flexibility. This paper presents a theoretical approach of a hybrid energy storage system that utilizes both energy- and power-dense batteries serving multiple grid applications. The proposed system will employ second use electrical vehicle batteries in order to maximise the potential of battery waste. The approach is based on a survey of battery modelling techniques and control methods. It was found that equivalent circuit models as well as unified control methods are best suited for modelling hybrid energy storages for grid applications. This approach for hybrid modelling is intended to help accelerate the renewable energy transition by providing reliable energy storage.
In previous studies of linear rotary systems with active magnetic bearings, parametric excitation was introduced as an open-loop control strategy. The parametric excitation was realized by a periodic, in-phase variation of the bearing stiffness. At the difference between two of the eigenfrequencies of the system, a stabilizing effect, called anti-resonance, was found numerically and validated in experiments. In this work, preliminary results of further exploration of the parametric excitation are shared. A Jeffcott rotor with two active magnetic bearings and a disk is investigated. Using Floquet theory, a deeper insight into the dynamic behavior of the system is obtained. Aiming at a further increase of stability, a phase difference between excitation terms is introduced.
Deep etched structures in GaAs with high aspect ratio have promising applications in optoelectronics and MEMS devices. The key factors in their fabrication process are the choosing of proper mask material and etching conditions which results in high selectivity and an anisotropic etch profile with smooth sidewalls. In this work, we studied several types of mask materials (Al, Ni, Cr, SiO2) for deep reactive ion etching of GaAs using inductively coupled plasma system. Thus, several sets of experiments were performed with varying gas mixture, pressure and ICP/RF power. As a result, we find optimized conditions and minimal thickness of mask material for achieving deep etched (>140 m) GaAs structures.
Bachground: Worldwide, more than 79.5 million people are forcibly displaced, including a significant number of migrant and refugee families with children. Migration and refugeedom affect these families in different dimensions, such as mental, physical and spiritual health. Identifying family needs and enhancing parenting skills can improve family cohesion and health, as well as smooth integration into the host country. This review is part of the Erasmus+ funded project- IENE 8 (Intercultural Education for Nurses in Europe) aiming at empowering migrant and refugee families regarding parenting skills.
Methods: This was a scoping review of literature. The IENE 8 partner countries (Cyprus, Germany, Greece, Italy, Romania, and United Kingdom) searched for peer reviewed papers, grey literature and mass media reports at international, European and national level. The time period for the search of scientific and grey literature was between2013-2018, and for mass media, it was between 2016 and 2018. Results: 124 relevant sources were identified. They included 33 Peer reviewed papers, 47 Grey literature documents and 44 mass media reports. This revealed the importance of understanding the needs of migrant families with children. Conclusion: It is evident from the literature that there is a need to support refugee parents to adjust their existing skill and to empower them to develop new ones. Healthcare and social services professionals have an essential role in improving the refugees' parenting skills. This can be done by developing and implementing family-centered and culturally-sensitive intervention programs.
Diversiteit
(2022)
Gesundheitsdienstleister kommen täglich mit Vielfalt in Berührung. Aus diesem Grund ist es ein wichtiges Thema in der Berufsausbildung. Das Bewusstsein für Unterschiede im soziokulturellen Hintergrund geht Hand in Hand mit dem Finden von Gemeinsamkeiten.
Inhalt
In dieser Ausgabe der ZorgBasics-Reihe steht Vielfalt in all ihren Facetten im Mittelpunkt. Aus theoretischen Rahmen, persönlichen Lebensgeschichten und Beispielen aus der Gesundheitspraxis wird das Thema Vielfalt vertieft. Weil Vielfalt auch viel mit der eigenen Persönlichkeit zu tun hat, werden dem Leser auch reflektierende Fragen gestellt.
Charakterisieren
• Dem Studierenden werden praktische Werkzeuge an die Hand gegeben, mit denen er Vielfalt auf unterschiedliche Weise betrachten kann.
• Das Buch diskutiert Vielfalt im weitesten Sinne des Wortes und macht das Thema mit Hilfe von Reflexionsübungen aufschlussreich.
• Gedacht für alle in der HGZO gibt es aber auch konkrete Beispiele aus der Pflege- und Ergotherapie.
Neu
Für die dritte Auflage wurde der Inhalt gründlich überarbeitet. Zeitgenössische Entwicklungen wie sexuelle Orientierung und Geschlechtsidentität, Black Lives Matter und die Corona-Pandemie wurden einbezogen. Die Literatur wurde aktualisiert und viele Fälle wurden erneuert. Die Theorien und Modelle wurden um Superdiversität und Intersektionalität erweitert. Darüber hinaus wird auf eine positive Gesundheit und die Suche nach Gemeinsamkeiten und Überbrückungsunterschieden geachtet.
Zielgruppe
Geschrieben für Studenten, die einen Kurs im Gesundheitswesen und Fachleute im Gesundheitswesen absolvieren.
The properties of diamond make it an attractive material for MEMS and sensor devices. We present the feasibility to fabricate membranes and cantilevers made of nano-(micro-) crystalline diamond films grown on Si/SiO2 substrates using microwave chemical vapour deposition (MWCVD). The patterning of micromechanical structures was performed by a combined process of femtosecond laser ablation and wet etching. We designed cantilever structures with varying lengths and widths (25, 50, 100, 200 and 300 μm). The cantilevers were made in a symmetric left- and right-hand configuration. An additional laser treatment was used to modify the mechanical properties of the left-hand cantilever. The deflection of the laser-treated, and non-treated sections was measured. The global mechanical system properties were simulated and corresponded with high accuracy to the measured results of deflection.
Increasing electric vehicle penetration leads to undesirable peaks in power if no proper coordination in charging is implemented. We tested the feasibility of electric vehicles acting as flexible demands responding to power signals to minimize the system peaks. The proposed hierarchical autonomous demand side management algorithm is formulated as an optimal power tracking problem. The distribution grid operator determines a power signal for filling the valleys in the non-electric vehicle load profile using the electric vehicle demand flexibility and sends it to all electric vehicle controllers. After receiving the control signal, each electric vehicle controller re-scales it to the expected individual electric vehicle energy demand and determines the optimal charging schedule to track the re-scaled signal. No information concerning the electric vehicles are reported back to the utility, hence the approach can be implemented using unidirectional communication with reduced infrastructural requirements. The achieved results show that the optimal power tracking approach has the potential to eliminate additional peak demands induced by electric vehicle charging and performs comparably to its central implementation. The reduced complexity and computational overhead permits also convenient deployment in practice.
Semiconducting metal oxides are widely used for solar cells, poto-catalysis, bio-active materials and gas sensors. Besides the material properties of the used semiconductor,the specific surface topology of the sensor determines the device performance. We investigate the preparation and transfer suitable metals onto LIPPS structures on glass for gas sensing applications.
Alles muss raus
(2022)
Die Pflegebranche in Deutschland ist im Umbruch – sie muss dem zunehmenden Fachkräftemangel etwas entgegensetzen und zugleich als eine der Zukunftsbranchen die Potenziale der Technisierung und Digitalisierung heben.
Dieses Buch erfasst und analysiert die derzeitigen Trends und Herausforderungen sowohl im Bereich der praktischen Pflege als auch auf der Ebene des Pflegemanagements auf allen Führungsebenen. Die Autoren der 30 wissenschaftlichen Beiträge zeigen, wie politische Entscheider, die Organe der Selbstverwaltung und die einzelnen Unternehmen durch unterschiedliche Maßnahmen den Problemen der Pflegebranche entgegenwirken können. Es werden eine Reihe von Handlungsmöglichkeiten und Entwicklungsperspektiven für die unterschiedlichen Akteure der Pflegebranche aufgezeigt, bei denen sich der Faktor Mensch und der Faktor Maschine sinnvoll ergänzen können. Auch werden Pflegekonzepte mit in den Blick genommen, die bisher weniger bekannt sind. Ebenso werden innovative Ansätze von Start-ups und sozialen Entrepreneuren in der Pflege präsentiert.
Nicht zuletzt die Corona-Pandemie hat gezeigt, dass die Pflege eine zentrale, systemrelevante Stütze im Gesundheitswesen in Deutschland darstellt. Die jüngsten Reformen in der Pflegepolitik sind Ausdruck davon und zeigen, dass sich Entscheider auf allen Ebenen und in allen Bereichen der Pflege mit den drängenden Fragen auseinandersetzen müssen. Dazu liefert dieses Buch wichtige Impulse und Anregungen.
PV hosting capacity provides utilities the knowledge of the maximum amount of solar installations possible to accommodate in low voltage grids such that no operational problems arise. As the quantification of the hosting capacity requires data collection, grid modelling, and often time-consuming simulations, simplified estimations for large-scale applications are of interest. In this paper, Bayesian statistical inference is applied to estimate the hosting capacities of more than 5000 real feeders in Austria. The results show that the hosting capacity of 95% of the total feeders can be estimated with a mean error below 20% by only having knowledge of a random sample of 5%. Moreover, the hosting capacity estimation at a regional level shows a maximum error below 9%, also relying on a random sample of 5% of the total feeders. Furthermore, the approach proposed provides a methodology to assess new parameters aiming to improve the accuracy of the hosting capacity estimation at a feeder level.
Various carbon (nano-) forms, so-called allotropes, have become one of the most supporting activities in fundamental and applied research trends. Therefore, a universal deposition process capable of “adjusting” system parameters in one “deposition chamber” is highly demanding. Here, we present a low-pressure large area deposition system combining radiofrequency (RF) and microwave (MW) plasma in one chamber in different configurations, which offers a wide deposition window for the growth of sp2 carbon (carbon nanotubes, amorphous carbon), a mixture of sp2 and sp3 (diamond-like films) and pure sp3 carbon represented by diamond films. We will show that not only the type of plasma source (RF vs. MW) but also the gas mixture and plasma chemistry are crucial parameters for the controllable and reproducible growth of these allotropes at temperatures from 250 to 800 °C.
Soul in Space
(2022)
Genesungsfördernde Architektur von morgen Antworten auf die aktuellen Herausforderungen für die architektonische Konzeption und Gestaltung von Psychiatriebauten Perspektiven aus Psychiatrie, Architektur und Ethnologie umfassender Praxisteil mit anspruchsvollen Beispielen von Psychiatriearchitektur.
Mehr als jede vierte Person in Deutschland ist im Jahr von einer psychischen Erkrankung betroffen. Seit Jahren ist zu beobachten, dass die Inanspruchnahme psychiatrischer Behandlungen steigt – stationär und ambulant. Nicht zuletzt zeigt die Corona-Pandemie, die mit deutlich gestiegenen Fallzahlen psychiatrischer Diagnosen einhergeht, dass die Bedeutung der psychischen Gesundheit stärker wahrgenommen wird. In der Gesellschaft erwächst ein neues Bewusstsein für einen angemessenen Umgang mit Menschen mit psychischen Erkrankungen.
Vor diesen aktuellen Entwicklungen entstehen Überlegungen, wie psychiatrische Institutionen konzeptuell und architektonisch zu gestalten sind, um den Bedarfen der Patient:innen und Mitarbeitenden gerecht zu werden. Dabei steigt die Komplexität der gesellschaftlichen Kontexte wie auch der Aufgaben: junge Patient:innen in schweren psychischen Krisen bis hin zu hochbetagten Menschen mit demenziellen Erkrankungen. Antworten kommen auch und besonders von Architekt:innen, die einen Raum gestalten, damit die Gesellschaft als solche seelisch gesund bleiben und werden kann.
Das Fachbuch »Soul in Space – Psychiatrie trifft Architektur« beleuchtet die zukünftigen Entwicklungen von Behandlungsansätzen verbunden mit baulich-räumlichen Konzepten der Psychiatrie und Psychotherapie. Diese beiden Disziplinen sind eingebettet in einen gesellschaftlichen Diskurs, der kontinuierlich von ethischen und soziologischen Überlegungen geprägt und ein stückweit auch gefordert wird. Dabei wird die soziale Verantwortung deutlich, die der Gestaltung von Kliniken für die seelische Gesundheit innewohnt. In diesem Buch werden planerische Anforderungen und Lösungswege präsentiert und die Interaktion von Raum und Psyche in all ihren Facetten mit wissenschaftlichen Erkenntnissen belegt. Aktuelle, gestalterisch anspruchsvolle Psychiatriebauten veranschaulichen beispielhaft, welche Gestaltungskriterien zentral sind und wie eine zeitgemäße, genesungsfördernde Architektur nach heutigen Erkenntnissen aussehen kann.
Industrial demand side management has shown significant potential to increase the efficiency of industrial energy systems via flexibility management by model-driven optimization methods. We propose a grey-box model of an industrial food processing plant. The model relies on physical and process knowledge and mass and energy balances. The model parameters are estimated using a predictive error method. Optimization methods are applied to separately reduce the total energy consumption, total energy costs and the peak electricity demand of the plant. A viable potential for demand side management in the plant is identified by increasing the energy efficiency, shifting cooling power to low price periods or by peak load reduction.
Grey-Box-Modellierung einer Lüftungsanlage mit realen Betriebsdaten für die Optimierung des Reglers
(2022)
Oszillationen in Heizungs-, Lüftungs- und Klimaanlagen können die Lebensdauer
von Ventilen und Aktuatoren deutlich reduzieren und die Effizienz solcher
Anlagen negativ beeinflussen. Die hier betrachtete Lüftungsanlage eines Verkaufsraums zeigt deutlich schwingendes Verhalten, das höchst wahrscheinlich auf die Regelung zurückzuführen ist. Um dieses Verhalten zu untersuchen und ein
Testfeld für die Auslegung und Optimierung von alternativen Regelkonzepten
zu erstellen, wird ein Grey-Box-Modell der Anlage erstellt. Grey-Box-Modelle
sind physikalische Modelle, deren Parameter mit Messdaten identifiziert werden.
Die Ermittlung der Parameter (Systemidentifikation) des Grey-Box-Modells
wird hier mittels nichtlinearer Optimierung an dem realen Betriebsdatensatz
durchgeführt. Dieser Betriebsdatensatz hat im Vergleich zu anderen Arbeiten
aufgrund geringer Ausstattung der Anlage mit Sensorik und geringer Auflösung
der Messdaten eine niedrige Qualität. Aus diesem Grund können die einzelnen
Komponenten der Anlage (eine Wärmerückgewinnung, ein Heizregister und ein
Kühlregister) nicht separat identifiziert werden, sondern nur im Gesamtsystem.
Hieraus ergibt sich die Frage, welche physikalische Formulierung der Komponenten
der Anlage am besten geeignet ist. Konkret stellt sich die Frage, welche
Komplexität, welche Anzahl der zu identifizierenden Parameter und welche Annahmen, die für die Formulierung getroffen werden sinnvoll sind. Dazu werden
für die einzelnen Komponenten der Anlage jeweils verschiedene Modelle aus der
Literatur implementiert und verglichen. Untersucht wird, ob ein Zusammenhang
zwischen der Anzahl an Parametern, die sich durch eine bestimmte Formulierung
des Modells ergibt und der erreichten Güte des Modells zu beobachten ist.
Die Güte des Modells wir dabei mittels der Wurzel des mittleren quadratischen
Fehlers zwischen Modellausgang und Datensatz bewertet.
Die Ergebnisse dieser Fallstudie zeigen, dass ein möglicher Zusammenhang
zwischen der Anzahl an Parametern des Grey-Box-Modells und der Güte des
Modells besteht. Insbesondere zeigt sich mit diesem Datensatz ein deutlicher
Abfall der Modellgüte bei mehr als zehn Parametern. Es kann des Weiteren
bestätigt werden, dass bei der vorliegenden niedrigen Datenqualität die getroffenen
Annahmen für die Modellierung von erheblicher Bedeutung sind. Durch
bestimmte Formulierungen kann zwar die Güte des Modells erhöht werden, jedoch
wir dadurch die Generalisationsfähigkeit des Modells höchst wahrscheinlich
reduziert.
In this paper, low-loss Y-branch splitters up to 128 splitting ratio are designed, simulated, and optimized by using 2D beam propagation method in OptiBPM tool by Optiwave. For an optical waveguide, a silica-on-silicon material platform is used. The splitters were designed as a planar structure for a telecommunication operating wavelength of 1.55 m. According to the minimum insertion loss and minimum non-uniformity, the optimum length for each Y-branch is determined. The influence of the pre-defined S-Bend waveguide shapes (Arc, Cosine, Sine) and of the waveguide core size reduction on the splitter performance has been also studied. The obtained simulation results of all designed splitters with different S-Bend shape waveguides together with the different waveguide core sizes are discussed and compared with each other.
Eingebettete Systeme – wie zum Beispiel eine Multifunktions-Küchenmaschine, ein intelligenter Saugroboter oder Lautsprecher mit sprachgesteuerten Assistenten – sind für einige Menschen in der heutigen Zeit nicht mehr wegzudenken. Sie sind mittlerweile Bestandteil unseres täglichen Lebens. Doch hinter jedem System stehen auch eine Vielzahl von Anforderungen, die für die Kundinnen und Kunden, sowie Nutzerinnen und Nutzer relevant sind. Ob diese Anforderungen immer einen Mehrwert für die Kundinnen und Kunden bringen, ist dabei irrelevant. Doch wie kann gewährleistet werden, dass die zu Beginn definierten Anforderungen schlussendlich das gewünschte Ergebnis für die Kundinnen und Kunden oder Nutzerinnen und Nutzer bringt? Durch die Durchführung einer Validierung in verschiedenen Phasen der Systementwicklung können wichtige Erkenntnisse über das Produkt und dessen Funktionen vor der eigentlichen Marktfreigabe gewonnen und noch in den verschiedenen Entwicklungsphasen für Änderungen oder Verbesserungen eingeplant werden. Oft werden diese essentiellen Validierungsprozesse zu spät oder gar nicht durchgeführt, was zu unausgereiften Produktfreigaben führt, was wiederum unzufriedene Kundinnen und Kunden zur Folge haben kann.
Diese Masterarbeit bietet einen Einblick, wie eine solche Validierung in Systementwicklungen integriert werden kann. Unter anderem wird eine klassische Vorgehensweise, das V-Modell, und die agile Methode Scrum betrachtet und auf mögliche Validierungskonzepte hin untersucht. Anhand eines Praxisbeispiels einer bereits durchgeführten Systementwicklung im Elektronikbereich wird gezeigt, wie die Methoden des V-Modells und Scrum in Verbindung mit der Validierung umgesetzt wurden. Die Erkenntnisse aus diesen beiden Teilen, Theorie und Praxis, werden durch Handlungsempfehlungen für Entwicklungsprojekte abgerundet.
The purpose of an energy model is to predict the energy consumption of a real system and to use this information to address challenges such as rising energy costs, emission reduction or variable energy availability. Industrial robots account for an important share of electrical energy consumption in production, which makes the creating of energy models for industrial robots desirable. Currently, energy modeling methods for industrial robots are often based on physical modeling methods. However, due to the increased availability of data and improved computing capabilities, data-driven modeling methods are also increasingly used in areas such as modeling and system identification of dynamic systems. This work investigates the use of current data-driven modeling methods for the creation of energy models focusing on the energy consumption of industrial robots.
For this purpose, a robotic system is excited with various trajectories to obtain meaningful data about the system behavior. This data is used to train different artificial neural network (ANN) structures, where the structures used can be categorized into (i) Long Short Term Memory Neural Network (LSTM) with manual feature engineering, where meaningful features are extracted using deeper insights into the system under consideration, and (ii) LSTM with Convolutional layers for automatic feature extraction. The results show that models with automatic feature extraction are competitive with those using manually extracted features. In addition to the performance comparison, the learned filter kernels were further investigated, whereby similarities between the manually and automatically extracted features could be observed. Finally, to determine the usefulness of the derived models, the best-performing model was selected for demonstrating its performance on a real use case.
SysML Modellierung komplexer Systeme und automatische Erzeugung domänenspezifischer Ressourcen
(2021)
Moderne Technische Systeme und ihre Entwicklung werden zunehmend komplexer. Durch eine Vielzahl bei der Entwicklung beteiligter Modelle/Dokumente wird eine konsistente und rückverfolgbare Modellierung erschwert. Model-Based Systems Engineering (MBSE) ist ein Ansatz, welcher diese Problemstellung adressiert und bei der Systementwicklung formale Modelle anstelle von Dokumenten einsetzt/verwendet. Im Gegensatz zu Dokumenten sind Modelle formal definiert, können automatisiert überprüft werden und ermöglichen eine leichte maschinelle Verarbeitung der Informationen. Im Zentrum der Entwicklung steht ein Systemmodell, welches mit einer formalen Modellierungssprache erstellt wurde. Während der Entwicklung entstehende Informationen werden in das Systemmodell integriert, sodass eine konsistente Single Source of Truth entsteht. Aus dem Systemmodell können über automatisierte Modelltransformationen domänenspezifische Ressourcen, wie beispielsweise Digital Twins, generiert werden. Digital Twins und die damit verbundenen Simulationen können einen deutlichen Mehrwert in Bereichen, wie Optimierung, Wartung und Anomalieerkennung liefern. Allerdings ist die manuelle Erzeugung Aufwändig und Fehleranfällig sein, weshalb eine automatische Erzeugung aus den Informationen des Systemmodells eine Erleichterung darstellt.
Diese Arbeit beschäftigt sich mit dieser Problemstellung und der Modellierung komplexer Systeme. Es wird ein Systemmodell mit der Modellierungssprache Systems Modeling Language (SysML) erstellt, welches durch domänenspezifische Profile erweitert wird um Modellierung/Integration der Domänen zu ermöglichen. Mittels einer Modelltransformation in Acceleo werden Informationen aus dem Systemmodell in ein Simulationsmodell der Simulationssoftware twin, welche zur Simulation von Digital Twins geeignet ist, transformiert. Der in der Arbeit präsentierte Ansatz wird anhand er Modellfabrik des Forschungszentrums Digital Factory Vorarlberg veranschaulicht.
In this work, the simulation possibilities of transient magnetic fields are investigated. For this purpose, an experimental setup is established to compare the simulation results with actual measurement data.
The experimental set-up consists of two coils, which are placed on two U-shaped iron cores. These cores are then brought together to form two air-gaps. These two gaps are used for measurement and the optional insertion of samples. The simulations are carried out with the finite element method (FEM) program ANSYS Maxwell 19R3.
In the first experiments, static simulations and measurements are compared to verify the validity of the available material data and the simulation techniques, especially the symmetry considerations, excitations of the coils, and boundary conditions. The static simulations show two main sources of uncertainty. The B-H curve of the core material used in the simulations and the air-gap distance uncertainty.
After validating the simulations with the static measurements, transient experiments are performed. In these experiments, the qualitative agreement of the simulation and measurement, as well as the characteristic rise times are compared. The experiments show a decisive influence of the considered loss mechanisms on the agreement of the simulation results with the measurements. Therefore, several simulations with different loss mechanisms are performed.
Finally, also the simulation capability including a material sample in the upper gap is investigated. Therefore, the conformity of the relative change of the measurement and the simulation is compared.
In the experiments a good simulation capability within a 5% error bar is seen. The main difficulty of this work represents the uncertainty due to the available material data. It is assumed, that with more accurate material data the error can be reduced significantly.
This paper analyses an electrical test tower of the OMCIRON electronics GmbH and evaluates whether a Predictive Maintenance (PdM) strategy can be implemented for the test towers. The company OMICRON electronics GmbH performs unit tests for its devices on test towers. Those tests consist of a multitude of subtests which all return a measurement value. Those results are tracked and stored in a database. The goal is to analyze the data of the test towers subtests and evaluate the possibility of implementing a predictive maintenance system in order to be able to predict the RUL and quantify the degradation of the test tower.
By assuming that the main degradation source are the relays of the test tower, a reliability modelling is performed which is the model-driven approach. The data-driven modelling process of the test tower consists of multiple steps. Firstly, the data is cleaned and compromised by removing redundances and optimizing for the best subtests where a subtest is rated as good if the trendability and monotonicity metric values are above a specific threshold. In a second step, the trend behaviours of the subtests are analyzed and ranked which illustrates that none of the subtests contained usable trend behaviour thus making an implementation of a PdM system impossible.
By using the ranking, the data-driven model is compared with the reliability model which shows that the assumption of the relays being the main error source is inaccurate.
An analysis of a possible anomaly detection model for a PdM is evaluated which shows that an anomaly detection is not possible for the test towers as well. The implementability of PdM for test towers and other OMICRON devices is discussed and followed up with proposals for future PdM implementations as well as additional analytical analyses that can be performed for the test towers.
To create a map of an unknown area, autonomous robots must follow a strategy to explore the area without knowing the optimal paths to reduce the time needed to map the whole area. To reduce the time to accomplish this task, multiple robots can work together to create a map in a more efficient way. However, without proper coordination, the time a team of autonomous robots needs to explore the unknown area can exceed the time needed by a single robot. To counteract the challenges, a shared infrastructure is needed which extracts useful information for the individual robots out of the shared information of all robots so the exploration can be coordinated. These measures introduce new challenges to the system, concerning the load of the communication infrastructure as well as the overall task of exploring and mapping becoming dependent on the correct communication and robustness of the shared team infrastructure. Therefore, the amount of communication and dependency of each individual robot of the rest of the other robots of the team must be reduced to ensure that the robots can continue working even if the communication with the shared infrastructure fails.
In recent years, numerous studies around the world have examined the environmental potential of biochar to determine whether it can help address climate challenges. Several of these studies have used the Life Cycle Assessment (LCA) method to evaluate the environmental impacts of biochar systems. However, studies focus mainly on biochar obtained from pyrolysis, while the number of studies on biochar from gasification is small.
To contribute to the current state of LCA research on biochar from gasification, LCA was performed for biochar, electricity, and heat from a wood gasification plant in Vorarlberg, Austria. Woodchips from local woods are used as biomass feedstock to produce energy, i.e., electricity and heat. Thereby, biochar is obtained as a side product from gasification. The production of syngas and biochar takes place in a floating fixed-bed gasifier. Eventually, the syngas is converted to electricity in a gas engine and fed to the power grid. Throughout different stages within the gasification process, heat is obtained and fed into local heat grid to be delivered to customers. The biochar produced complies with the European Biochar Industry (EBI) guidelines and is used on a nearby farm for manure treatment and eventually for soil application. Thereby, the effect of biochar used for manure treatment is considered to reduce emissions occurring from manure, i.e., nitrogen monoxide (N2O). Further, the CO2 sequestration potential of biochar, i.e., removal of CO2 from the atmosphere and long-term storage, is considered. Several constructions, such as the construction of the gasification system and the heating grid, are included in the evaluation.
As input related reference flow, 1 kg of woodchips with water content of 40 % is used. Three functionals units are eventually obtained, i.e., 0.17 kg of biochar applied to soil, 4.47 MJ of heat and 2.82 MJ of electricity, each per reference flow. The results for Global Warming Potential (GWP) for biochar is – 274.7*10 - 3 kg CO2eq per functional unit, which corresponds to – 1.6 kg CO2eq per 1 kg biochar applied to soil. The GWP for heat results in 17.1*10 - 3 CO2eq per functional unit, which corresponds to 3.6*10 - 3 kg CO2eq per 1 MJ. For electricity, a GWP of 38.1*10 - 3 kg CO2eq per functional unit is obtained, which is equivalent to 13.5*10 - 3 kg CO2eq per 1 MJ.
The calculation was performed using SimaPro Version 9.1 and the ReCiPe method with hierarchist perspective.
In der vorliegenden Masterarbeit wird das Verbesserungspotential von Gebäudeleitsystemen am Beispiel der Errichtergemeinschaft Frühlingstraße untersucht. Der Fokus bei der Analyse liegt auf der Ermittlung von Verbesserungen im Bereich der Regel- und Steuerstrategien. Beim Referenzobjekt handelt es sich um sieben Einfamilienhäuser, die durch einen zentralen Pelletkessel mit Wärmeenergie versorgt werden, welche über das miteinander verbundene Kellergeschoss verteilt wird.
Im Kapitel Stand der Technik werden die Gebäudeleitsysteme von Mehrfamilien-Wohnanlagen in den 2000er Jahren und in den 2020er Jahren mit dem ausgeführten Gebäudeleitsystem des Referenzobjektes der Errichtergemeinschaft Frühlingstraße, bei dem es sich ebenfalls um eine Mehrfamilien-Wohnanlage handelt, miteinander verglichen. Nach dem Kapitel Forschungsstand wird die verwendete Methode kurz umrissen. Ein wichtiger Schritt zur fertigen Simulation ist das Verstehen der bestehenden Steuer- und Regelstrategien. Dabei wird sehr genau auf die Regelung der Häuser und des Pelletkessels eingegangen. Ebenfalls werden die zu simulierenden Komponenten, die zur Verfügung gestellten Messdaten und die verwendete Simulationssoftware Polysun beschrieben. Bei der Simulation des Referenzobjektes wird speziell auf die verwendeten Komponenten, aber auch auf die umgesetzten Regel- und Steuerstrategien eingegangen. Die Beschreibung der einzelnen Varianten beschränkt sich auf den Unterschied zur Simulation des Referenzobjektes.
Die einzelnen Varianten unterscheiden sich im Bereich des solaren Deckungsanteils nur sehr geringfügig. Die solare Ausbeute in den Monaten Mai bis August ist bei den Varianten 3 und 4 jedoch deutlich höher als bei den anderen Varianten. Ein deutlicher Unterschied ist auch im Bereich des Pellet-Verbrauchs auszumachen. Bei der Variante 4 werden im Vergleich zum Referenzobjekt jährlich gut 800 kg Pellets eingespart. Dies bedeutet eine Reduktion des CO2-Ausstoßes um 167,8 kg. Dieser Trend der Reduktion kann auch bei den Betriebsdauern des Pelletkessels fortgesetzt werden. Der größte Unterschied der einzelnen Varianten ist bei den Anforderungen des Pelletkessels auszumachen. Somit wird der Pelletkessel bei der Variante 2 14536-mal angefordert und bei der Variante 4 lediglich 3353-mal.
Diese Verbesserungen können durch kleine Anpassungen der Regel- und Steuerstrategien erzielt werden. Gerade weil die Low-Tech Gebäude des Referenzobjekts sehr energieeffizient umgesetzt und nicht mit technischer Ausstattung überladen wurden, können die ermittelten Verbesserungspotentiale bei anderen Gebäuden umgesetzt werden. Bei Gebäuden, die nicht als Low-Tech Gebäude errichtet wurden, ist durch die Anpassung des Gebäudeleitsystems ein größeres Verbesserungspotential zu erwarten.
Traktorbedienerinnen und Traktorbediener haben das Problem, dass multimodale Mensch-Maschine-Schnittstellen von Traktoren unzureichend bedienbar sind. Dies macht sich vor allem durch lange Einlernzeiten, kognitiver Überforderung aufgrund des Funktionsumfangs und ineffizientem Bedienverhalten bemerkbar.
Traktoren werden längst nicht mehr nur durch mechanische Schalter, Hebel und Tasten gesteuert. Die Bedienung einer modernen landwirtschaftlichen Zugmaschine ist multimodal: primäre Funktionen, wie das Fahren und die grundlegende Steuerung von Anbaugeräten, werden von den Nutzerinnen und Nutzern über haptische Bedien- und Stellelemente ausgeführt, doch Justierungen und Automationen während und vor der Arbeit mit dem Traktor finden vollständig über die Software statt. Über einen Bildschirm werden z. B. Einstellungen an angehängten Anbaugeräten vorgenommen, teilautonome Prozesse zur Austragung justiert, automatische Lenkung und Dokumentation initiiert, Traktor-bedingte Einstellungen, wie z. B. Hydraulikanpassungen ausgeübt, Komfortfunktionen wie das Radio bedient und umfassende Informationen zur Maschine und der Peripherie aufgerufen.
Eine Software muss in diesem Umfeld eine Vielzahl an Informationen verarbeiten und das komplexe System Traktor mit seinen Anbaugeräten funktional darstellen können. Die Traktorenbedienung wird also von enorm vielen Kontexten beeinflusst, die wechselwirken.
Diese Kontexte, wie z. B. Eigenheiten der Bedienerinnen und Bediener, Maschinenkonditionen oder die Art der Tätigkeit, um nur einige wenige zu nennen, muss die Software adressieren können – doch das macht sie in den aktuellen Systemen nicht ausreichend. Dies zeigt sich aus wissenschaftlichen Veröffentlichungen zur Software-Ergonomie in Traktoren und empirischen Untersuchungen im Rahmen dieser Masterarbeit. So ist es für die Bedienerinnen und Bediener ineffizient, wenn sie Prozesse für eine Aufgabe auf dem Feld ausführen müssen, die repetitiv sind. Diese Masterarbeit konzipiert daher anhand des Adaptive User Interface Ansatzes einen Vorschlag für eine Software, die diesem kontextreichen Umfeld gerecht werden kann und zu einer kognitiven Entlastung führen soll. Ein Adaptive User Interface ist ein intelligentes Schnittstellenkonzept, das anhand von Sensorik und Machine Learning Inhalte, Darstellung und Funktionen adaptieren kann. Durch umfassende Analysen des Ist-Stands von Traktor-Softwares und der Befragung und Beobachtung von Bedienerinnen und Bedienern in ihrem alltäglichen Arbeitsumfeld konnten Anforderungen spezifiziert, und darauf basierend iterativ Lösungen entwickelt werden. Das Ergebnis ist ein evaluiertes GUI-Konzept, das auf zwei übereinander angeordneten Bildschirmen basiert und mittels Touch-Eingabe und einer 4-Wege-Taste bedient wird. Auf den Bildschirmen werden Funktionen für Traktor und Schnittstellen, mit denen die Anbaugeräte betrieben werden, getrennt dargestellt. Dies soll für eine Entlastung des Funktionsüberschusses sorgen. Kern dieses Konzepts ist jedoch die Implementierung des adaptiven Ansatzes: Basierend auf dem Kontext werden Adaptionsvorschläge in Form von Dialogen unterbreitet, die minutenlange Arbeitsschritte durch die Software um ein Vielfaches verkürzen können – so steigt die Effizienz enorm. Weiter soll das Konzept durch einen umfassenden Onboarding Prozess und intelligente Hilfsfunktionen auf die optimale Nutzung durch sowohl Anfängerinnen und Anfänger als auch Expertinnen und Experten vorbereiten.
In dieser Arbeit werden die Emissionsvermeidungspotenziale verschiedener Maßnahmen für einen Milchviehbetrieb in Vorarlberg analysiert. Es werden verschiedene Möglichkeiten beleuchtet, wie diese Treibhausgaseinsparungen auf dem freiwilligen Emissionsmarkt handelbar gemacht und dadurch finanziert werden können. Hintergrund ist, dass der Milchviehbetrieb eine Biogasanlage besitzt, für welche die Förderperiode ausgelaufen ist. Da die Biogasanlage ohne geförderten Einspeisetarif nicht mehr wirtschaftlich ist, wurde, um den Einspeisetarif anzuheben, das Pilotprojekt einer Erneuerbare-Energie-Gemeinschaft gestartet. Aus diesem Grund wird auch die Möglichkeit der Integration des Treibhausgasemissionshandels in die Erneuerbare-Energie-Gemeinschaft geprüft. Dies soll in Form einer Umlegung der Mehrkosten für die Emissionsminderungsmaßnahmen auf den Strompreis innerhalb der Erneuerbare-Energie-Gemeinschaft geschehen. Ergebnis ist, dass die Höhe des Aufschlags stark vom Umsetzungserfolg (Menge der Emissionseinsparungen), den Umsetzungskosten (Gestehungskosten der Klimaschutzmaßnahmen) und von den Transaktionskosten (Verwaltung) abhängt. Der Aufschlag steht für eine Ökologisierung des erneuerbaren Stroms. In dieser Weise wird regional erzeugter erneuerbarer Strom zum lokal klimawirksamen „Ökostrom“. Die Erneuerbare-Energie-Gemeinschaft ist somit mehr als Stromhandel unter Nachbarn, nämlich eine Synergie zwischen Land- und Energiewirtschaft und steht für eine Sektorenkopplung auf dem Weg zur klimaneutralen Wirtschaft.
This study deals with the energy situation in Ny-Ålesund, an Arctic research station on the archipelago Svalbard, and aims at analysing the technical feasability of a transition to renewable energies by taking into consideration both the environmental and climatic impediments.
The analysis is based on a 27 year long collection of authentic meteorological data with all its strong fluctuations, seasonal as well as yearly. Great emphasis was put on the discussion of tried-and-tested renewable technologies that were compared to a new wind-based energy device that has yet to be tested for its reliability in the harsh environment of notably the Arctic winter. Meticulous calculations lead to the result that bifacial solar modules are an efficient means even in months when the sun stands low and their combination with wind-based devices prove to generate a maximum output. Geothermal energy seems to be promising in the region, but could not be evaluated due to a crucial lack of relevant data.
The study comes to the conclusion that the research station of Ny-Ålesund could well rely on a combination of renewable energy devices to cover its energy load, but needs to keep a back-up system of diesel run generators to bridge short periods of possible dysfunctions or standstills due to meteorological circumstances. Battery storage could only contribute to solve the problem of an unfortunate interruption of the energy supply, but it cannot serve as the entire back-up system since, at present, the need would go beyond all possible dimensions.
Mobility choices - an instrument for precise automatized travel behavior detection & analysis
(2021)
In dieser Arbeit wird ein Luft-Clathrat Energiespeicher entworfen, der die Speicherung von elektrischer Energie bei einer Speicherdauer von etwa einem Tag ermöglichen soll. Als Speichermedium dient Luft. Die Luft wird zuerst komprimiert (Einspeichern der elektrischen Energie) und anschließend bei Temperaturen oberhalb des Wasser-Gefrierpunkts (mindestens 274 K, Drücke ab etwa 170 bar) zu Luft-Clathrat synthetisiert. Gespeichert wird das Luft-Clathrat in einem offenen Tank, der aufgrund des Selbstkonservierungseffekts bei moderaten Bedingungen von 1 bar und bei einer Temperatur von 271 K gehalten werden kann. Durch das Hinzufügen von Promotern zum Luft-Clathrat, lässt sich das Luft-Clathrat bei niedrigeren Drücken (< 50 bar) und bei leicht höheren Temperaturen (ca. 280 K) synthetisieren.
Bei den Druck- und Flüssigluftspeichern handelt es sich um ähnliche Speicher, da bei diesen Luft ebenfalls als Speichermedium dient. Vorteile des Luft-Clathrat Energiespeichers gegenüber den Druck- und Flüssigluftspeichern liegen darin, dass dieser bei milderen Bedingungen (Druck, Temperatur) die Luft speichert und für die Speicherung der Luft keine Kaverne benötigt, wie es bei den Druckluftspeichern der Fall ist.
In der folgenden Masterarbeit werden drei Systeme des Luft-Clathrat Energiespeichers thermodynamisch modelliert. Das isotherme und isentrope System dienen als ideale Systeme, während das reale System an die Wirklichkeit angenähert wird. Für das reale System wird bei reinem Luft-Clathrat ein Zykluswirkungsgrad von ca. 17 %, eine gravimetrische Energiedichte von ca. 22 Wh/kg und eine volumetrische Energiedichte von ca. 21 kWh/m3 erreicht. Mit Promotern konnte der Zykluswirkungsgrad auf ca. 47 % bei einer gravimetrischen Energiedichte von ca. 11 Wh/kg und einer volumetrischen Energiedichte von ca. 10 kWh/m3 erhöht werden.
Sonnenhaus 2.0
(2021)
Die vorliegende Arbeit befasst sich im Rahmen einer Fallstudie hauptsächlich mit der Steigerung des Anteils an PV-Batteriebeladungsenergie von Elektrofahrzeugen. Zentral ist die Frage einer möglichen Beeinflussung dieses PV-Ladeanteils durch Re-konfiguration des thermischen Systems (Speicherkapazitäten, Betriebsstrategie der WP).
Dazu wurde das Mehrfamilienhaus anhand der dynamischen Gebäude- und Anlagensimulation nachgebildet. Im ersten Schritt erfolgte die Ermittlung der für die Gebäudekonditionierung notwendigen Nutzenergie anhand eines Gebäudemodells. Anschließend erfolgte eine Bedarfsoptimierung, um die Grundlast des Wärmeerzeugers möglichst weit zu senken. Dabei wurde zum einen der thermische Komfortbereich ausgenutzt, zum anderen wurde eine Steuerungslogik für die Verschattungs- und Nachtlüftungsautomatik erstellt. Hierdurch konnte der Heizwärmebedarf um 24% und der Kühlwärmebedarf um 70% gesenkt werden. Die Performance des Systems wurde außerdem in Simulationen mittels zukünftigen Klimaszenarien überprüft, in welchen sich die Reduzierung KWB als besonders vorteilhaft herausstellte. Im zweiten Schritt wurde die fassadenintegrierte PV-Anlage nachsimuliert und hinsichtlich ihrer standortspezifischen Ertragssituation mit konventioneller Dachbelegung verglichen. Es zeigte sich, dass die Fassadenbelegung in Südausrichtung über die Wintermonate ertragreicher ist als die, in der Jahresbilanz superiore Dachaufständerung. Im dritten Schritt wurde das technische Gebäudesystem des realen Objektes in der Software Polysun nachgebildet und mittels eigens entworfener Regelungslogik betrieben. Es wurden Variantenstudien der zentralen Parameter Speicherkapazität, Speichertemperatur und Betriebsstrategie durchgeführt.
Die Ergebnisse zeigen, dass die Variation von Speichergröße und maximaler Speichertemperatur keinen relevanten Einfluss auf die PV-Beladeenergie der Elektrofahrzeuge hat. Jedoch zeigte die erhöhte Betriebsweise der Wärmepumpe bei PV-Überschuss (PVready) eine Steigerung der PV-Batteriebeladung von jährlich ca. 2 % sowie in einzelnen Monaten bis zu 6%. Außerdem konnte eine Steigerung der Autarkie des Gesamtsystems von 13,6% sowie eine Halbierung des Netzbezuges beobachtet werden.
In the regime of incentive-based autonomous demand response, time dependent prices are typically used to serve as signals from a system operator to consumers. However, this approach has been shown to be problematic from various perspectives. We clarify these shortcomings in a geometric way and thereby motivate the use of power signals instead of price signals. The main contribution of this paper consists of demonstrating in a standard setting that power tracking signals can control flexibilities more efficiently than real-time price signals. For comparison by simulation, German renewable energy production and German standard load profiles are used for daily production and demand profiles, respectively. As for flexibility, an energy storage system with realistic efficiencies is considered. Most critically, the new approach is able to induce consumptions on the demand side that real-time pricing is unable to induce. Moreover, the pricing approach is outperformed with regards to imbalance energy, peak consumption, storage variation, and storage losses without the need for additional communication or computation efforts. It is further shown that the advantages of the optimal power tracking approach compared to the pricing approach increase with the extent of the flexibility. The results indicate that autonomous flexibility control by optimal power tracking is able to integrate renewable energy production efficiently, has additional benefits, and the potential for enhancements. The latter include data uncertainties, systems of flexibilities, and economic implementation.
Die vorliegende Arbeit beschreibt eine Methode zur Prognose von Anomalien in einzelnen Sensordaten für die Anwendung in Expertensystemen im Bereich der Biomassekraftwerke. Die in fünf Schritten beschriebene Methode beinhaltet neben der Datenaufbereitung eine Anomalievorauswahl durch eine unüberwachte Ausreißererkennung, welche mittels des PYOD-Toolkit umgesetzt wurde. Bei der anschließenden Anomaliebestimmung wird der zuvor generierte binäre Zielvektor durch einen mit dem System vertrauten Experten validiert. Eine darauffolgende überwachte binäre Klassifikation mit unbekannten Betriebsdaten ergibt, dass mittel- bis langfristige Anomalien im Mehrstunden- bis Mehrtagesbereich in Form eines Trends reproduktiv vorhergesagt werden können. Kurzfristige Anomalien im Minutenbereich in Form von Extremfällen können hingegen nicht reproduktiv vorhergesagt werden. Eine zusätzliche Untersuchung zur Vorhersage einer Anomalie noch vor deren tatsächlichen Eintrittszeitpunkt brachte keine zufriedenstellenden Ergebnisse. Demnach lässt sich mit dieser Methode nur eine bestimmte Art von Anomalien in Expertensystemen für Biomassekraftwerke vorhersagen. Dazu sollte zudem darauf geachtet werden, dass es trotz positiv erzielter quantitativer Ergebnisse notwendig ist, für die qualitative Prüfung einen mit dem System vertrauten Experten hinzuzuziehen und dass für die zu prognostizierende Anomalie die geeignete Abtastzeit zu wählen ist. Abschließend bleibt zu erwähnen, dass Anomalien, welche nur durch Über- bzw. Unterschreitung eines definierten Grenzwertes gekennzeichnet werden, als zu trivial für diese Methode gelten. Diese können über eine einfache Grenzwertbetrachtung identifiziert werden.
Seit jeher versuchen Energieversorgungsunternehmen den Einsatz ihrer Kraftwerke zu optimieren. Grund für die Optimierung ist die Sicherstellung der Stromversorgung bzw. das wirtschaftliche Handeln eines Unternehmens. Bisher gibt es am Markt kaum intelligente Lösungen für sehr komplexe, hydraulisch zusammenhängende Kraftwerksgruppen. Obwohl die deterministische Optimierung der illwerke vkw sehr ausgereift ist, wird hier ein Schritt weitergegangen. Als Methode dient eine detaillierte Bewertung des Kraftwerkseinsatzes bei gleichzeitiger Reduzierung von Risiken. Es wird nach Strategien und Regeln gesucht, welche den Einsatz zusätzlich optimieren. Für das Ziel dieser Forschung stellt sich in der vorliegenden Masterarbeit folgende Frage: „Wie können Kraftwerkseinsatzstrategien mithilfe eines Trainingssimulators bewertet und verallgemeinert werden?“
Zur Beantwortung der Forschungsfrage wurden Simulationsfahrten von mehreren Dispatchern durchgeführt. Die Bewertungsmethodik basiert auf der Analyse der unterschiedlichen Strategien und gewichteten Kennzahlen. Zusätzlich wurde ein Fragebogen erstellt. Dieser beinhaltet Aspekte zu bereits bekannten Regeln im Dispatching, zur Gewichtung der Kennzahlen, zur Erfahrung der Dispatcher und zum Verhalten in verschiedenen Einsatzsituationen. Die Antworten der Dispatcher zeigen, dass bereits verschiedene Regeln im Kraftwerkseinsatz zur Anwendung kommen.
Die Ergebnisse belegen, dass ein größeres rotierendes Regelband trotz geringfügiger Wirkungsgradeinbußen, optimal ist. Dadurch können spontane Regelenergieabrufe ohne Fehlarbeit beantwortet werden. Ebenso werden die Umstellungen und somit die Maschinenbelastung deutlich geringer gehalten. In allen Strategien der Dispatcher wurden die Endpegelstände so gewählt, dass min. 1,5 h mit Vollabrufen weitergefahren werden konnte. Außerdem zeigt die Arbeit, dass es nicht möglich ist, Pegelreserven während des Einsatzes zu bewerten.
In this work, we present a significant step toward in vivo ophthalmic optical coherence tomography and angiography on a photonic integrated chip. The diffraction gratings used in spectral-domain optical coherence tomography can be replaced by photonic integrated circuits comprising an arrayed waveguide grating. Two arrayed waveguide grating designs with 256 channels were tested, which enabled the first chip-based optical coherence tomography and angiography in vivo three-dimensional human retinal measurements. Design 1 supports a bandwidth of 22 nm, with which a sensitivity of up to 91 dB (830 µW) and an axial resolution of 10.7 µm was measured. Design 2 supports a bandwidth of 48 nm, with which a sensitivity of 90 dB (480 µW) and an axial resolution of 6.5 µm was measured. The silicon nitride-based integrated optical waveguides were fabricated with a fully CMOS-compatible process, which allows their monolithic co-integration on top of an optoelectronic silicon chip. As a benchmark for chip-based optical coherence tomography, tomograms generated by a commercially available clinical spectral-domain optical coherence tomography system were compared to those acquired with on-chip gratings. The similarities in the tomograms demonstrate the significant clinical potential for further integration of optical coherence tomography on a chip system.
IBH Living Lab AAL
(2021)
If left uncontrolled, electric vehicle charging poses severe challenges to distribution grid operation. Resulting issues are expected to be mitigated by charging control. In particular, voltage-based charging control, by relying only on the local measurements of voltage at the point of connection, provides an autonomous communication-free solution. The controller, attached to the charging equipment, compares the measured voltage to a reference voltage and adapts the charging power using a droop control characteristic. We present a systematic study of the voltage-based droop control method for electric vehicles to establish the usability of the method for all the currently available residential electric vehicle charging possibilities considering a wide range of electric vehicle penetrations. Voltage limits are evaluated according to the international standard EN50160, using long-term load flow simulations based on a real distribution grid topology and real load profiles. The results achieved show that the voltage-based droop controller is able to mitigate the under voltage problems completely in distribution grids in cases either deploying low charging power levels or exhibiting low penetration rates. For high charging rates and high penetrations, the control mechanism improves the overall voltage profile, but it does not remedy the under voltage problems completely. The evaluation also shows the controller’s ability to reduce the peak power at the transformer and indicates the impact it has on users due to the reduction in the average charging rates. The outcomes of the paper provide the distribution grid operators an insight on the voltage-based droop control mechanism for the future grid planning and investments.
Background: Mobile health interventions are intended to support complex health care needs in chronic diseases digitally, but they are mainly targeted at general health improvement and neglect disease-specific requirements. Therefore, we designed TrackPAD, a smartphone app to support supervised exercise training in patients with peripheral arterial disease.
Objective: This pilot study aimed to evaluate changes in the 6-minute walking distance (meters) as a primary outcome measure. The secondary outcome measures included changes in physical activity and assessing the patients’ peripheral arterial disease–related quality of life.
Methods: This was a pilot two-arm, single-blinded, randomized controlled trial. Patients with symptomatic PAD (Fontaine stage IIa/b) and access to smartphones were eligible. Eligible participants were randomly assigned to the study, with the control group stratified by the distance covered in the 6-minute walking test using the TENALEA software. Participants randomized to the intervention group received usual care and the mobile intervention (TrackPAD) for the follow-up period of 3 months, whereas participants randomized to the control group received routine care only. TrackPAD records the frequency and duration of training sessions and pain levels using manual user input. Clinical outcome data were collected at the baseline and after 3 months via validated tools (the 6-minute walk test and self-reported quality of life). The usability and quality of the app were determined using the Mobile Application Rating Scale user version.
Results: The intervention group (n=19) increased their mean 6-minute walking distance (83 meters, SD 72.2), while the control group (n=20) decreased their mean distance after 3 months of follow-up (–38.8 meters, SD 53.7; P=.01). The peripheral arterial disease–related quality of life increased significantly in terms of “symptom perception” and “limitations in physical functioning.” Users’ feedback showed increased motivation and a changed attitude toward performing supervised exercise training.
Conclusions: Besides the rating providing a valuable support tool for the user group, the mobile intervention TrackPAD was linked to a change in prognosis-relevant outcome measures combined with enhanced coping with the disease. The influence of mobile interventions on long-term prognosis must be evaluated in the future.