Energietechnik und Energiewirtschaft
Refine
Document Type
- Master's Thesis (52)
Institute
Has Fulltext
- yes (52)
Is part of the Bibliography
- no (52)
Keywords
- Demand Side Management (3)
- Autarkiegrad (2)
- Benin (2)
- Biokohle (2)
- Blasensäule (2)
- Elektromobilität (2)
- Erneuerbare-Energie-Gemeinschaft (2)
- Machine Learning (2)
- Photovoltaik (2)
- Wasseraufbereitung (2)
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
Aufgrund des anhaltenden Klimawandels wird eine Reduzierung des Ausstoßes von Kohlendioxid (CO2) immer wichtiger. Dabei könnte die Verwendung und Weiterentwicklung von CO2-Gashydraten als „Carbon Capture“-Methode (CC) einen großen Beitrag leisten. Bei der Bildung von Gashydraten wird Gas in den Hohlräumen eines Hydratgitters, welches sich unter hohen Drücken und niedrigen Temperaturen bildet, eingeschlossen. In dieser Arbeit wurden verfahrenstechnische Methoden getestet, um die Dynamik der Gashydratbildung zu verbessern. Dies wird vor allem durch eine Verbesserung von Massen- und Wärmetransport erreicht. Das Hauptproblem für die langen Bildungszeiten ist unter anderem eine sehr geringe Kontaktfläche. Diese kann durch den Einsatz eines Rührers, eines permanenten Gasdurchflusses und durch die Verwendung von Dry Water erhöht werden. Dry Water besteht aus vielen winzigen Wassertröpfchen, die von hydrophobiertem Siliziumdioxid (SiO2) umschlossen sind. Dadurch kann die Dauer der Induktions- und Wachstumsphase der Gashydratbildung verkürzt werden.
In dieser Arbeit wird ein Reaktor mit 30 ml Volumen und ein Schrägblattrührer mit einem Durchmesser von 17 mm verwendet. Der Rührer wurde bei einer maximalen Drehzahl von 15 000 rpm ca. alle 10 min für max. 30 s betrieben, bis die Wachstumsphase der Gashydratbildung beginnt. Der Gasdurchfluss hatte einen Volumenstrom von ca. 4 slm. Das verwendete Dry Water wurde in einem Haushaltsmixer bei 25 000 rpm aus Kieselsäure und Wasser hergestellt und besitzt einen Wasseranteil von 95 %. Es wurden unterschiedliche Kombinationen getestet. Die kürzeste Induktionszeit wurde mit durchschnittlich 6,9 min durch den Einsatz eines Rührers in Kombination mit einem Gasdurchfluss und Wasser erreicht, bei einem Volumenverhältnis zwischen Gas und Wasser von 8,8 v/v nach 60 min. Die größte Menge an Gashydrat konnte durch den Einsatz von Dry Water in Kombination mit einem Gasdurchfluss erreicht werden. Das führte nach 60 min zu einem Volumenverhältnis zwischen Gas und Wasser von 14,9 v/v. Die Induktionszeit betrug dabei 120 min.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
Der Energieausweis stellt sich als wichtiges Instrument zu Dekarbonisierung des Gebäudesektors dar. Aufgrund dieser zentralen Wichtigkeit kommt auch der Qualitätssicherung von Energieausweisen eine tragende Bedeutung zuteil. Während die Übereinstimmung von Energieausweisberechnungen mit realen Verbrauchswerten gut erforscht ist, gibt es wenig Informationen hinsichtlich der Qualität von ausgestellten Energieausweisen. Vorliegende Arbeit befasst sich mit der Identifikation von Fehlerquellen bei der Eingabe energetisch relevanter Daten. Dabei wird das Ausfindigmachen von fehlerhaften energetischen Eingaben bei real ausgestellten Energieausweisen, die Ermittlung deren Fehlerquote und Auswirkungen auf die energetischen Kennzahlen HWB, PEB, CO2 und IO3 angestrebt.
Energetisch relevanten Daten zum Gebäude, dessen Haustechniksystemen, Klimadaten, Nutzungsprofil und rechtlich relevante Eingaben wurden bei vier Energieausweisen auf deren korrekte Eingabe geprüft. Hierdurch konnten Fehlerquellen zur Eingabe von Gebäude- und Haustechnikdaten ausgemacht werden konnten. Eine genauere Kontrolle einzelner Eingaben an einer größeren Stückzahl von Energieausweisen ergab deutliche Fehlerpotentiale bei der Eingabe von PV- und thermischen Solaranlagen als auch bei der Berechnung des Ökoindex (OI3).
Ein neuer Ansatz um Kohlendioxid aus einem Verbrennungsprozess abzuscheiden, auch Carbon Capture (CC) genannt, basiert auf der Gashydratsynthese. Dabei wird das Gas in Einschlussverbindungen aus Wassermolekülen, sogenannte Clathrate, eingefangen. Bei der Gashydratsynthese aus flüssigem Wasser, wie es bei bisherigen Methoden der Fall ist, treten selbsthemmende Effekte auf, die den Abscheideprozess verlangsamen.
In dieser Arbeit wird daher eine neue Methode entwickelt, um die Gashydratsynthese aus dampfförmigem Wasser zu untersuchen. Realisiert wird dies mit einem eigens entwickelten Versuchsreaktor, wobei ein Fallfilmverdampfer im Zentrum kontinuierlich Wasser verdampft. Der Abscheideversuch wird bei 20 - 40 bar und einem CO2-N2-Prüfgasgemisch betrieben. Das Herunterkühlen des Reaktors, mit einer Vorlauftemperatur von bis zu -65 °C, sorgt für stabile Wachstumsbedingungen an der Innenwand. Die Versuchsdurchführung zeigt, dass bei einer Ausgangskonzentration von 11,8 mol% CO2 am Ende des Abscheideprozesses im Minimum 10,7 mol% erreicht werden. Der im Gashydrat angereicherte CO2-Gehalt im liegt bei ca. 89 mol%.
Damit ist die Funktionsfähigkeit der neuartigen CC-Methode bewiesen und die Grundlage für die Weiterentwicklung des Prozesses geschaffen.
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
In recent years, numerous studies around the world have examined the environmental potential of biochar to determine whether it can help address climate challenges. Several of these studies have used the Life Cycle Assessment (LCA) method to evaluate the environmental impacts of biochar systems. However, studies focus mainly on biochar obtained from pyrolysis, while the number of studies on biochar from gasification is small.
To contribute to the current state of LCA research on biochar from gasification, LCA was performed for biochar, electricity, and heat from a wood gasification plant in Vorarlberg, Austria. Woodchips from local woods are used as biomass feedstock to produce energy, i.e., electricity and heat. Thereby, biochar is obtained as a side product from gasification. The production of syngas and biochar takes place in a floating fixed-bed gasifier. Eventually, the syngas is converted to electricity in a gas engine and fed to the power grid. Throughout different stages within the gasification process, heat is obtained and fed into local heat grid to be delivered to customers. The biochar produced complies with the European Biochar Industry (EBI) guidelines and is used on a nearby farm for manure treatment and eventually for soil application. Thereby, the effect of biochar used for manure treatment is considered to reduce emissions occurring from manure, i.e., nitrogen monoxide (N2O). Further, the CO2 sequestration potential of biochar, i.e., removal of CO2 from the atmosphere and long-term storage, is considered. Several constructions, such as the construction of the gasification system and the heating grid, are included in the evaluation.
As input related reference flow, 1 kg of woodchips with water content of 40 % is used. Three functionals units are eventually obtained, i.e., 0.17 kg of biochar applied to soil, 4.47 MJ of heat and 2.82 MJ of electricity, each per reference flow. The results for Global Warming Potential (GWP) for biochar is – 274.7*10 - 3 kg CO2eq per functional unit, which corresponds to – 1.6 kg CO2eq per 1 kg biochar applied to soil. The GWP for heat results in 17.1*10 - 3 CO2eq per functional unit, which corresponds to 3.6*10 - 3 kg CO2eq per 1 MJ. For electricity, a GWP of 38.1*10 - 3 kg CO2eq per functional unit is obtained, which is equivalent to 13.5*10 - 3 kg CO2eq per 1 MJ.
The calculation was performed using SimaPro Version 9.1 and the ReCiPe method with hierarchist perspective.
In der vorliegenden Masterarbeit wird das Verbesserungspotential von Gebäudeleitsystemen am Beispiel der Errichtergemeinschaft Frühlingstraße untersucht. Der Fokus bei der Analyse liegt auf der Ermittlung von Verbesserungen im Bereich der Regel- und Steuerstrategien. Beim Referenzobjekt handelt es sich um sieben Einfamilienhäuser, die durch einen zentralen Pelletkessel mit Wärmeenergie versorgt werden, welche über das miteinander verbundene Kellergeschoss verteilt wird.
Im Kapitel Stand der Technik werden die Gebäudeleitsysteme von Mehrfamilien-Wohnanlagen in den 2000er Jahren und in den 2020er Jahren mit dem ausgeführten Gebäudeleitsystem des Referenzobjektes der Errichtergemeinschaft Frühlingstraße, bei dem es sich ebenfalls um eine Mehrfamilien-Wohnanlage handelt, miteinander verglichen. Nach dem Kapitel Forschungsstand wird die verwendete Methode kurz umrissen. Ein wichtiger Schritt zur fertigen Simulation ist das Verstehen der bestehenden Steuer- und Regelstrategien. Dabei wird sehr genau auf die Regelung der Häuser und des Pelletkessels eingegangen. Ebenfalls werden die zu simulierenden Komponenten, die zur Verfügung gestellten Messdaten und die verwendete Simulationssoftware Polysun beschrieben. Bei der Simulation des Referenzobjektes wird speziell auf die verwendeten Komponenten, aber auch auf die umgesetzten Regel- und Steuerstrategien eingegangen. Die Beschreibung der einzelnen Varianten beschränkt sich auf den Unterschied zur Simulation des Referenzobjektes.
Die einzelnen Varianten unterscheiden sich im Bereich des solaren Deckungsanteils nur sehr geringfügig. Die solare Ausbeute in den Monaten Mai bis August ist bei den Varianten 3 und 4 jedoch deutlich höher als bei den anderen Varianten. Ein deutlicher Unterschied ist auch im Bereich des Pellet-Verbrauchs auszumachen. Bei der Variante 4 werden im Vergleich zum Referenzobjekt jährlich gut 800 kg Pellets eingespart. Dies bedeutet eine Reduktion des CO2-Ausstoßes um 167,8 kg. Dieser Trend der Reduktion kann auch bei den Betriebsdauern des Pelletkessels fortgesetzt werden. Der größte Unterschied der einzelnen Varianten ist bei den Anforderungen des Pelletkessels auszumachen. Somit wird der Pelletkessel bei der Variante 2 14536-mal angefordert und bei der Variante 4 lediglich 3353-mal.
Diese Verbesserungen können durch kleine Anpassungen der Regel- und Steuerstrategien erzielt werden. Gerade weil die Low-Tech Gebäude des Referenzobjekts sehr energieeffizient umgesetzt und nicht mit technischer Ausstattung überladen wurden, können die ermittelten Verbesserungspotentiale bei anderen Gebäuden umgesetzt werden. Bei Gebäuden, die nicht als Low-Tech Gebäude errichtet wurden, ist durch die Anpassung des Gebäudeleitsystems ein größeres Verbesserungspotential zu erwarten.
In dieser Arbeit werden die Emissionsvermeidungspotenziale verschiedener Maßnahmen für einen Milchviehbetrieb in Vorarlberg analysiert. Es werden verschiedene Möglichkeiten beleuchtet, wie diese Treibhausgaseinsparungen auf dem freiwilligen Emissionsmarkt handelbar gemacht und dadurch finanziert werden können. Hintergrund ist, dass der Milchviehbetrieb eine Biogasanlage besitzt, für welche die Förderperiode ausgelaufen ist. Da die Biogasanlage ohne geförderten Einspeisetarif nicht mehr wirtschaftlich ist, wurde, um den Einspeisetarif anzuheben, das Pilotprojekt einer Erneuerbare-Energie-Gemeinschaft gestartet. Aus diesem Grund wird auch die Möglichkeit der Integration des Treibhausgasemissionshandels in die Erneuerbare-Energie-Gemeinschaft geprüft. Dies soll in Form einer Umlegung der Mehrkosten für die Emissionsminderungsmaßnahmen auf den Strompreis innerhalb der Erneuerbare-Energie-Gemeinschaft geschehen. Ergebnis ist, dass die Höhe des Aufschlags stark vom Umsetzungserfolg (Menge der Emissionseinsparungen), den Umsetzungskosten (Gestehungskosten der Klimaschutzmaßnahmen) und von den Transaktionskosten (Verwaltung) abhängt. Der Aufschlag steht für eine Ökologisierung des erneuerbaren Stroms. In dieser Weise wird regional erzeugter erneuerbarer Strom zum lokal klimawirksamen „Ökostrom“. Die Erneuerbare-Energie-Gemeinschaft ist somit mehr als Stromhandel unter Nachbarn, nämlich eine Synergie zwischen Land- und Energiewirtschaft und steht für eine Sektorenkopplung auf dem Weg zur klimaneutralen Wirtschaft.
This study deals with the energy situation in Ny-Ålesund, an Arctic research station on the archipelago Svalbard, and aims at analysing the technical feasability of a transition to renewable energies by taking into consideration both the environmental and climatic impediments.
The analysis is based on a 27 year long collection of authentic meteorological data with all its strong fluctuations, seasonal as well as yearly. Great emphasis was put on the discussion of tried-and-tested renewable technologies that were compared to a new wind-based energy device that has yet to be tested for its reliability in the harsh environment of notably the Arctic winter. Meticulous calculations lead to the result that bifacial solar modules are an efficient means even in months when the sun stands low and their combination with wind-based devices prove to generate a maximum output. Geothermal energy seems to be promising in the region, but could not be evaluated due to a crucial lack of relevant data.
The study comes to the conclusion that the research station of Ny-Ålesund could well rely on a combination of renewable energy devices to cover its energy load, but needs to keep a back-up system of diesel run generators to bridge short periods of possible dysfunctions or standstills due to meteorological circumstances. Battery storage could only contribute to solve the problem of an unfortunate interruption of the energy supply, but it cannot serve as the entire back-up system since, at present, the need would go beyond all possible dimensions.
In dieser Arbeit wird ein Luft-Clathrat Energiespeicher entworfen, der die Speicherung von elektrischer Energie bei einer Speicherdauer von etwa einem Tag ermöglichen soll. Als Speichermedium dient Luft. Die Luft wird zuerst komprimiert (Einspeichern der elektrischen Energie) und anschließend bei Temperaturen oberhalb des Wasser-Gefrierpunkts (mindestens 274 K, Drücke ab etwa 170 bar) zu Luft-Clathrat synthetisiert. Gespeichert wird das Luft-Clathrat in einem offenen Tank, der aufgrund des Selbstkonservierungseffekts bei moderaten Bedingungen von 1 bar und bei einer Temperatur von 271 K gehalten werden kann. Durch das Hinzufügen von Promotern zum Luft-Clathrat, lässt sich das Luft-Clathrat bei niedrigeren Drücken (< 50 bar) und bei leicht höheren Temperaturen (ca. 280 K) synthetisieren.
Bei den Druck- und Flüssigluftspeichern handelt es sich um ähnliche Speicher, da bei diesen Luft ebenfalls als Speichermedium dient. Vorteile des Luft-Clathrat Energiespeichers gegenüber den Druck- und Flüssigluftspeichern liegen darin, dass dieser bei milderen Bedingungen (Druck, Temperatur) die Luft speichert und für die Speicherung der Luft keine Kaverne benötigt, wie es bei den Druckluftspeichern der Fall ist.
In der folgenden Masterarbeit werden drei Systeme des Luft-Clathrat Energiespeichers thermodynamisch modelliert. Das isotherme und isentrope System dienen als ideale Systeme, während das reale System an die Wirklichkeit angenähert wird. Für das reale System wird bei reinem Luft-Clathrat ein Zykluswirkungsgrad von ca. 17 %, eine gravimetrische Energiedichte von ca. 22 Wh/kg und eine volumetrische Energiedichte von ca. 21 kWh/m3 erreicht. Mit Promotern konnte der Zykluswirkungsgrad auf ca. 47 % bei einer gravimetrischen Energiedichte von ca. 11 Wh/kg und einer volumetrischen Energiedichte von ca. 10 kWh/m3 erhöht werden.
Sonnenhaus 2.0
(2021)
Die vorliegende Arbeit befasst sich im Rahmen einer Fallstudie hauptsächlich mit der Steigerung des Anteils an PV-Batteriebeladungsenergie von Elektrofahrzeugen. Zentral ist die Frage einer möglichen Beeinflussung dieses PV-Ladeanteils durch Re-konfiguration des thermischen Systems (Speicherkapazitäten, Betriebsstrategie der WP).
Dazu wurde das Mehrfamilienhaus anhand der dynamischen Gebäude- und Anlagensimulation nachgebildet. Im ersten Schritt erfolgte die Ermittlung der für die Gebäudekonditionierung notwendigen Nutzenergie anhand eines Gebäudemodells. Anschließend erfolgte eine Bedarfsoptimierung, um die Grundlast des Wärmeerzeugers möglichst weit zu senken. Dabei wurde zum einen der thermische Komfortbereich ausgenutzt, zum anderen wurde eine Steuerungslogik für die Verschattungs- und Nachtlüftungsautomatik erstellt. Hierdurch konnte der Heizwärmebedarf um 24% und der Kühlwärmebedarf um 70% gesenkt werden. Die Performance des Systems wurde außerdem in Simulationen mittels zukünftigen Klimaszenarien überprüft, in welchen sich die Reduzierung KWB als besonders vorteilhaft herausstellte. Im zweiten Schritt wurde die fassadenintegrierte PV-Anlage nachsimuliert und hinsichtlich ihrer standortspezifischen Ertragssituation mit konventioneller Dachbelegung verglichen. Es zeigte sich, dass die Fassadenbelegung in Südausrichtung über die Wintermonate ertragreicher ist als die, in der Jahresbilanz superiore Dachaufständerung. Im dritten Schritt wurde das technische Gebäudesystem des realen Objektes in der Software Polysun nachgebildet und mittels eigens entworfener Regelungslogik betrieben. Es wurden Variantenstudien der zentralen Parameter Speicherkapazität, Speichertemperatur und Betriebsstrategie durchgeführt.
Die Ergebnisse zeigen, dass die Variation von Speichergröße und maximaler Speichertemperatur keinen relevanten Einfluss auf die PV-Beladeenergie der Elektrofahrzeuge hat. Jedoch zeigte die erhöhte Betriebsweise der Wärmepumpe bei PV-Überschuss (PVready) eine Steigerung der PV-Batteriebeladung von jährlich ca. 2 % sowie in einzelnen Monaten bis zu 6%. Außerdem konnte eine Steigerung der Autarkie des Gesamtsystems von 13,6% sowie eine Halbierung des Netzbezuges beobachtet werden.
Die vorliegende Arbeit beschreibt eine Methode zur Prognose von Anomalien in einzelnen Sensordaten für die Anwendung in Expertensystemen im Bereich der Biomassekraftwerke. Die in fünf Schritten beschriebene Methode beinhaltet neben der Datenaufbereitung eine Anomalievorauswahl durch eine unüberwachte Ausreißererkennung, welche mittels des PYOD-Toolkit umgesetzt wurde. Bei der anschließenden Anomaliebestimmung wird der zuvor generierte binäre Zielvektor durch einen mit dem System vertrauten Experten validiert. Eine darauffolgende überwachte binäre Klassifikation mit unbekannten Betriebsdaten ergibt, dass mittel- bis langfristige Anomalien im Mehrstunden- bis Mehrtagesbereich in Form eines Trends reproduktiv vorhergesagt werden können. Kurzfristige Anomalien im Minutenbereich in Form von Extremfällen können hingegen nicht reproduktiv vorhergesagt werden. Eine zusätzliche Untersuchung zur Vorhersage einer Anomalie noch vor deren tatsächlichen Eintrittszeitpunkt brachte keine zufriedenstellenden Ergebnisse. Demnach lässt sich mit dieser Methode nur eine bestimmte Art von Anomalien in Expertensystemen für Biomassekraftwerke vorhersagen. Dazu sollte zudem darauf geachtet werden, dass es trotz positiv erzielter quantitativer Ergebnisse notwendig ist, für die qualitative Prüfung einen mit dem System vertrauten Experten hinzuzuziehen und dass für die zu prognostizierende Anomalie die geeignete Abtastzeit zu wählen ist. Abschließend bleibt zu erwähnen, dass Anomalien, welche nur durch Über- bzw. Unterschreitung eines definierten Grenzwertes gekennzeichnet werden, als zu trivial für diese Methode gelten. Diese können über eine einfache Grenzwertbetrachtung identifiziert werden.
Seit jeher versuchen Energieversorgungsunternehmen den Einsatz ihrer Kraftwerke zu optimieren. Grund für die Optimierung ist die Sicherstellung der Stromversorgung bzw. das wirtschaftliche Handeln eines Unternehmens. Bisher gibt es am Markt kaum intelligente Lösungen für sehr komplexe, hydraulisch zusammenhängende Kraftwerksgruppen. Obwohl die deterministische Optimierung der illwerke vkw sehr ausgereift ist, wird hier ein Schritt weitergegangen. Als Methode dient eine detaillierte Bewertung des Kraftwerkseinsatzes bei gleichzeitiger Reduzierung von Risiken. Es wird nach Strategien und Regeln gesucht, welche den Einsatz zusätzlich optimieren. Für das Ziel dieser Forschung stellt sich in der vorliegenden Masterarbeit folgende Frage: „Wie können Kraftwerkseinsatzstrategien mithilfe eines Trainingssimulators bewertet und verallgemeinert werden?“
Zur Beantwortung der Forschungsfrage wurden Simulationsfahrten von mehreren Dispatchern durchgeführt. Die Bewertungsmethodik basiert auf der Analyse der unterschiedlichen Strategien und gewichteten Kennzahlen. Zusätzlich wurde ein Fragebogen erstellt. Dieser beinhaltet Aspekte zu bereits bekannten Regeln im Dispatching, zur Gewichtung der Kennzahlen, zur Erfahrung der Dispatcher und zum Verhalten in verschiedenen Einsatzsituationen. Die Antworten der Dispatcher zeigen, dass bereits verschiedene Regeln im Kraftwerkseinsatz zur Anwendung kommen.
Die Ergebnisse belegen, dass ein größeres rotierendes Regelband trotz geringfügiger Wirkungsgradeinbußen, optimal ist. Dadurch können spontane Regelenergieabrufe ohne Fehlarbeit beantwortet werden. Ebenso werden die Umstellungen und somit die Maschinenbelastung deutlich geringer gehalten. In allen Strategien der Dispatcher wurden die Endpegelstände so gewählt, dass min. 1,5 h mit Vollabrufen weitergefahren werden konnte. Außerdem zeigt die Arbeit, dass es nicht möglich ist, Pegelreserven während des Einsatzes zu bewerten.
Die Aktualität des Klimawandels fordert Maßnahmen in privaten und wirtschaftlichen Bereichen. Die Veränderungen des Klimas führen dazu, dass Regelungen und Gesetze für das Energiewesen der Unternehmen entwickelt werden. Die Gesetze verpflichten die Unternehmen für Energie- und Umweltaudits. Viele Unternehmen führen noch zusätzliche Maßnahmen für eine Verbesserung der Energieeffizienz und des Emissionsausstoßes ein. Die Maßnahmen werden immer relevanter.
Die Norm ISO 50001 unterstützt Unternehmen bei der Einführung und bei der Aufrechterhaltung eines Energiemanagementsystems. Das Energiemanagement hilft dabei, die energiebezogene Leistung zu verbessern und einen kontinuierlichen Verbesserungsprozess umzusetzen. Eine weitere freiwillige Möglichkeit ist das Klimaneutralitätsbündnis 2025. Das Bündnis soll den Mitgliedern helfen, den Emissionsausstoß zu verbessern. Die Mitglieder werden über einen definierten Zeitraum von 12 Jahren begleitet, um die Geschäftsprozesse anschließend klimaneutral zu gestalten.
Diese Arbeit beschäftigt sich mit den Anforderungen der Norm ISO 50001 und dem Klimaneutralitätsbündnis. Beides sind freiwillige Instrumente, welche Unternehmen verwenden können, um das eigene Energiewesen zu optimieren und etwas zum Klimaschutz beizutragen. Die Forschung dieser Arbeit beschäftigt sich mit dem Zusammenwirken der beiden Instrumente. Es wird untersucht, ob eine parallele Einführung und Bearbeitung in den Unternehmen möglich ist. Zusätzlich werden die Inhalte und die Anforderungen gegenübergestellt. Mögliche Überschneidungen werden zu Zwecken einer Erleichterung für die Unternehmen überprüft.
Im Zuge dieser Arbeit wird ein Energiemonitoring beim Logistikunternehmen Gebrüder Weiss GmbH eingeführt. Das Unternehmen mit Sitz in Lauterach (Vorarlberg) betreibt weltweit rund 165 Standorte. Die Niederlassung in Lauterach bildet den Versuchsstandort für das Energiemonitoring. Es werden geeignete Partnerunternehmen gesucht, welche ein Energiemonitoringsystem anbieten. Im Zuge der Partnersuche wird ein Pilotprojekt umgesetzt, welches dem Unternehmen erste Einblicke in die Materie bietet. Nach dem erfolgreichen Abschluss des Pilotprojektes folgt die Implementierung des Energiemonitorings. Die einzelnen Schritte und Herausforderungen des Projektes werden dargelegt und die abschließende Umsetzung wird beschrieben. Nach der Einführung in Lauterach folgt die weltweite Ausrollung des Energiemonitorings in allen Standorten.
Mit dem entwickelten, gemischt-ganzzahligen linearen Optimierungsmodell wird ein grosser Beitrag geleistet, das die wichtigen Betriebskennzahlen einer PV-Speicheranlage, wie der Eigenverbrauchsanteil um bis zu 89 % und der Autarkiegrad um bis zu 73 % durch eine variable Grenzkostenoptimierung bei zusätzlicher E-Auto Berücksichtigung gesteigert werden können. Der Eigenverbrauch der PV-Erzeugung wird durch den stationären Batteriespeicher auf 71 % mehr als verdoppelt. Das beispielhafte Szenario hat einen Haushaltsverbrauch von 5 MWh pro Jahr und besteht aus einer 5 kWp PV-Anlage, mit einem 5 kWh Batteriespeicher und dem Tesla Model 3 mit einer Jahresfahrleistung von 16778 km.
Das erstellte Softwareprogramm kann einfach auf weitere verschiedene Anlagenkonstellationen und mit eigenen Eingangszeitreihenprofile der Haushaltslast, der PV-Erzeugung und der E-Auto Nutzung parametriert werden. Neben der Kennzahlenberechnung des konkreten Szenarios wird der jeweilige Einfluss einer Anlagenkomponente, wie PV, Batterie und Last bei deren Variation, auf die Kennzahlen grafisch gut sichtbar dargestellt.
Die Ergebnisse bestätigen bisherige Arbeiten, dass die Dimensionierung der Anlagenkomponenten nach der einfachen Faust-Formel 1:1:1 erfolgen soll: Der stationäre Batteriespeicher und die PV-Anlage sollen gleich gross sein und ihre Grösse in kWh soll der Jahreslast in MWh entsprechen. Damit wird nahezu schon ein gutes Optimum von Eigenverbrauch, Eigenverbrauchsanteil und Autarkiegrad bei minimalen Energiekosten gefunden und die Netzbelastung durch Bezug und Einspeisung kann reduziert werden.
Graphite substrates underwent two methods of creating doped silicon carbide films via carbothermal reduction; the first method being liquid-phase processing, or dip-coating, and the second gas-phase processing, otherwise referred to as the solid-vapour reaction. The dip-coating procedure resulted in flaky coatings, while the solid-vapour reaction resulted in polycrystalline films with columnar growth that displayed promising morphological and electrical properties. The films were tested on their performance as semiconductor diodes, and proved that carbothermal reduction in the gas phase is a promising technique for creating polycrystalline silicon carbide films for the application of light-emitting diodes.
Eindimensionales Siliziumkarbid-Faserwachstum ohne Katalysator über karbothermische Reduktion
(2020)
In dieser Arbeit werden eindimensionale Siliziumkarbid-Fasern über die karbothermische Reduktion von stickstoffdotiertem Siliziumoxykarbid-Glas, welches über einen Sol-Gel-Prozess synthetisiert wurde, hergestellt. Als Wachstumssubstrat für die Fasern werden drei Arten von Kohlenstofffasern verwendet, die entweder in Sol eingelegt sind oder erst bei der karbothermischen Reduktion mit dem Precursor im Graphittiegel eingelegt werden. Es werden vier Formen von eindimensionalem Siliziumkarbid produziert, bei denen Durchmesser und Länge von <100 nm bis zu mehreren µm variieren. Die Charakterisierung der synthetisierten Fasern erfolgt über optische Mikroskopie, Rasterelektronenmikroskopie und Raman-Spektroskopie. Der Einfluss der Druckentwicklung während der karbothermischen Reduktion auf das Faserwachstum wird anhand von Druck-Temperatur-Verläufen ermittelt.
Die vorliegende Arbeit befasst sich mit der Untersuchung von dezentralen Warmwasserbereitungssystemen, wobei der Fokus auf Energieeffizienz liegt. Als Vergleichs- und Referenzobjekt wird das Wohngebäude „KliNaWo“ mit 19 Wohneinheiten am Standort Feldkirch herangezogen, in welchem eine zentrale Warmwasserbereitung realisiert wurde. Als ersten Schritt werden die theoretischen Grundlagen hinsichtlich der zentralen und dezentralen Warmwasserbereitungs-systeme sowie der unterschiedlichen Wärmeerzeuger, Speichertechnologien und Verteilsysteme erarbeitet. Anschließend erfolgt eine Erläuterung der aktuellen Normensituation und den wichtigsten Fakten bezüglich Trinkwasserhygiene.
Des Weiteren wird das Referenzobjekt „KliNaWo“ sowie die verwendeten Messdaten zur Kalibrierung der Simulationsmodelle beschrieben. Im nachfolgenden Kapitel erfolgt eine detaillierte Darstellung der zu untersuchenden Systeme, wobei es sich um das Wohnungssatellitensystem sowohl mit kontinuierlicher Beladung als auch im Ladefensterbetrieb sowie um dezentrale Boiler-Wärmepumpen handelt. Anschließend wird die verwendete Simulationssoftware Polysun erläutert und erklärt wie die Systeme in der Software abgebildet und welche Ersatzmodelle angewendet werden.
Die Nutzenergie in Bezug auf das Warmwasser beträgt bei der zentralen Variante 20.584 kWh und ist bei allen dezentralen Systemen mit 20.142 kWh etwas geringer, da die Verteilverluste der Warmwasser-Einzelleitungen aufgrund des niedrigeren Temperaturniveaus geringer ausfallen. Da die rückgewinnbaren Wärmeverluste berücksichtigt werden, ergeben sich auch für den Heizwärmebedarf in Abhängigkeit der Variante unterschiedliche Werte im Bereich von 54.322 kWh bis 58.104 kWh. Als Vergleichsgröße wird der gesamte Stromverbrauch der Wärmepumpen inklusive der Förderpumpen herangezogen, welcher für die Deckung des Heizwärmebedarfs, der Verluste sowie des Energiebedarfs bezüglich Warmwasser notwendig ist.
Aus dem Vergleich der Varianten ergibt sich, dass der Stromverbrauch des zentralen Systems mit 14.109 kWh am geringsten ausfällt und das Wohnungssatellitensystem im Ladefensterbetrieb mit einem Strombedarf von 14.441 kWh nur wenig darüber liegt. Beim Wohnungssatellitensystem mit kontinuierlicher Beladung und bei den Boiler-Wärmepumpen-Systemen liegen die Stromverbräuche deutlich höher. Anhand der Simulationsergebnisse kann festgestellt werden, dass die dezentralen Anlagenkonfigurationen unter Berücksichtigung der ÖNROM B 2531 nicht effizienter sind als das zentrale System, wobei das Wohnungssatellitensystem im Ladefensterbetrieb in derselben Größenordnung wie das zentrale System liegt. Allerdings sind beim Wohnungssatellitensystem höhere Investitionskosten gegenüber der zentralen Variante zu erwarten, wodurch das System wirtschaftlich schlechter abschneidet.
Das Ziel dieser Masterarbeit war die Untersuchung der Einflussgrößen Wassertemperatur, Füllstand, Gasleerrohrgeschwindigkeit und Blasengröße auf die Befeuchtung von Luft in einer mit Salzwasser befüllten Blasensäule. Dazu wurde eine umfangreiche Versuchsreihe durchgeführt, um die Auswirkungen zu untersuchen. Großer Wert wurde dabei auf die Reproduzierbarkeit der Ergebnisse gelegt. Es wurde eine große Anzahl Datensätze während den Versuchszeiten geloggt und analysiert. Die Auswertung hat ergeben, dass die Wassertemperatur ein wesentlicher Einflussfaktor auf die Befeuchtung von Luft ist. Die Wassertemperatur zeigt gemäß des Antoine-Gesetzes exponentielle Auswirkungen auf die Kondensatproduktion auf. Hohe Füllstände in der Blasensäule wiesen im Vergleich zu niedrigeren Füllständen eine erhöhte Kondensatproduktion auf. Eine Steigerung der Gasleerrohrgeschwindigkeit in den Versuchen führte zu einer Zunahme der produzierten Kondensatströme. Die in dieser Arbeit untersuchten Spargerplatten der Variation des Lochdurchmessers konnten keine klaren Erkenntnisse auf die Befeuchtung von Luft liefern. Insgesamt sind die Forschungen an der Versuchsanlage noch nicht abgeschlossen und weitere Erkenntnisse zu dieser Thematik sollen in Zukunft gewonnen werden.
Die EU-Ziele umfassen die Steigerung des Anteils an erneuerbaren Energien an der Energieerzeugung um 32 % bis 2030. Doch erneuerbare Energien bringen neben den Vorteilen für den Umweltschutz auch Probleme mit sich. Ihre Schwankungen und Unkontrollierbarkeit stellen große Herausforderungen für das Stromnetz dar. Um die Netz- und damit die Versorgungssicherheit weiterhin gewährleisten zu können, braucht es Lösungen, die weder das Stromnetz, die Verbraucher noch die Energieversorger benachteiligen. Eine Möglichkeit wäre es, zusätzliche Kraftwerke und Infrastruktur (Redundanzen) aufzubauen, welche potenzielle Schwankungen ausgleichen können. Dieser Lösungsansatz gilt als traditioneller Weg, der hohe Kosten und negative Umweltauswirkungen mit sich bringt. Demand Side Management hat das Potenzial, effiziente Lösungen diesbezüglich anzubieten. Welche Vorteile der Einsatz von DSM auf Ebene der Haushaltsverbraucher für die Energieversorger in Bezug auf den Abruf von Ausgleichsenergie bringt, wird in dieser Arbeit behandelt. Dafür wurde ein agentenbasiertes Modell entwickelt, welches darauf abzielt, die Abweichung zwischen dem von dem Energieversorger prognostizierten Verbrauch und dem realen Verbrauch seiner Haushaltskunden zu verringern. Jeder Haushalt in dem vorgestellten Modell ist mit einer Flexibilität in Form eines Batteriespeichers ausgestattet. Die Speicherbewirtschaftung wird basierend auf einem Signal, welches der Energieversorger übermittelt, automatisch vom Haushalt für jeden Tag im Betrachtungszeitraum optimiert. Jede Abweichung zwischen der vom Energieversorger erstellten Prognose und der tatsächlich bezogenen Strommenge stellt dabei einen Bezug von Ausgleichsenergie dar. Untersucht werden die Auswirkungen der Anzahl an Haushalten sowie ein unterschiedlicher Wissensstand auf die Prognose. Weiters werden zwei unterschiedliche Arten von Demand Side Management analysiert. Einmal die Einflussnahme auf die Last der Haushalte durch ein Preissignal, einmal durch das Vorgeben eines Lastgangs. Um die Effektivität der beiden Varianten bestimmen zu können, wird auch die Menge an Ausgleichsenergie erhoben, welche ohne das Vorhandensein eines Batteriespeichers (also ohne Steuerung) anfallen würde. Das Modell wurde entwickelt, um einen Trend aufzuzeigen und keine spezifische Einsparungsmenge zu ermitteln, da dies von der jeweiligen Situation des Energieversorgers abhängt. Die Erstellung der unterschiedlichen Wissensstände basiert auf den österreichischen rechtlichen Vorgaben bezüglich der Datenübertragung bei intelligenten Messgeräten. Dabei ist einmal der Jahresverbrauch, einmal der Tagesverbrauch und einmal die stündlichen Verbrauchswerte bekannt. Das Preissignal ist negativ korreliert zu den am Day-Ahead-Markt gehandelten Mengen und das Lastsignal basiert auf einer der Prognosen des Energieversorgers, je nach Variante, die untersucht wird. Es zeigte sich, dass ein besserer Wissensstand nur teilweise eine Verbesserung der Prognose erzielte. Wobei die unterschiedlichen Wissensstände auf den realen Werten der nicht verwendeten Haushalte aus dem gleichen Datensatz aufbauen und so beispielsweise Wettereinflüsse in der Prognose schon bekannt waren, was die Prognose basierend auf Jahreswerten sehr genau machte. Der Aggregationseffekt von mehreren Haushalten beeinflusst die Prognose positiv. Auf einzelner Haushaltsebene schneiden die Vorhersagen deutlich schlechter ab als bei Prognosen des Gesamtverbrauchs aller Haushalte. Die Optimierung basierend auf dem Lastsignal generiert eine geringere Menge an Ausgleichsenergie als das Preissignal. Das liegt unter anderem daran, dass die Prognose nur die Verbräuche der Haushaltskunden berücksichtigt und nicht die Mengen, die am Markt gehandelt werden. In den untersuchten Varianten stellte sich heraus, dass am wenigsten Ausgleichsenergie über alle Haushalte erzeugt wird, wenn kein Demand Side Management betrieben wird, also keine Batteriespeicher vorhanden sind und die Prognose des Energieversorgers auf Stundenwerten basiert. Auf einzelner Haushaltsebene fällt bei der Optimierung mittels Lastsignal am wenigsten Ausgleichsenergie an.
A novel calorimetric technique for the analysis of gas-releasing endothermic dissociation reactions
(2020)
Autonome Steuerung für das Demand Side Management von Wärmepumpenboilern mit linearer Optimierung
(2020)
Wärmepumpen, im Speziellen Wärmepumpenboiler, stellen mit ihrer thermischen Speicherkapazität eine gute Möglichkeit für autonome verbraucherseitige Laststeuerung (Autonomes Demand Side Management ADSM) dar. Zudem gewinnt diese Art der Brauchwarmwassererzeugung durch ihren dezentralen Ansatz und das Auskommen ohne fossile Energieträger im privaten Wohnbau immer mehr an Bedeutung. In Kombination mit staatlichen Fördergeldern ist die Anzahl verkaufter Einheiten in den letzten 5 Jahren am deutschen Markt um circa 25 % gestiegen. Obwohl das Lastverschiebungspotenzial von Wärmepumpenboilern unter Anwendung von Optimierungsalgorithmen in der Literatur theoretisch nachgewiesen ist, fehlen Verifikationen unter realen Bedingungen. Diese Arbeit will einerseits das theoretische Potential aufzeigen und andererseits mit dem vorgestellten Laborversuch einen Beitrag dazu liefern, die Verifikationslücke zu schließen. Für die Untersuchung im Labor wird ein handelsüblicher Wärmepumpenboiler bestehend aus einer Luft-Wärmepumpe und einem 300 Liter Warmwasserspeicher mit Sensoren und Aktoren ausgestattet. Insgesamt vier Temperatursensoren befinden sich am Speicherzulauf und -ablauf, sowie nahe der Speichermitte. Für die Aufzeichnung des Volumenstroms wird ein magnetisch-induktiver Messsensor am Speichereingang installiert. Zusätzlich wird mithilfe eines Proportionalventils am Speicherausgang das gewünschte Zapfprofil realisiert. Die Datenakquisition wird durch einen Datenlogger durchgeführt und die Optimierungsroutine auf dem PC implementiert. Die autonome Steuerung basiert auf einer von Day-Ahead-Marktpreisen der Energy Exchange Austria (EXAA) getriebenen linearen Optimierung mit dem Ziel, die Kosten der elektrischen Energie zu minimieren. Das Warmwasserverbrauchsprofil bildet den Verbrauch eines 4- Personen-Haushalts ab. Alle Mess- und Simulationsreihen basieren auf den gleichen Day-Ahead Preisfunktionen und Nutzerprofilen. Zur Verifikation des Lastverschiebungspotentials werden die Kosten pro MWh elektrischer Energie und die Kosten pro MWh thermischer Nutzenergie im Hysteresebetrieb (Normalbetrieb) denen des optimierten Betriebs gegenübergestellt. Durch eine Jahressimulation konnte das theoretische Potential nachgewiesen werden. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von rund 18 %. Die Kosten pro MWh thermischer Nutzenergie konnten durch die Optimierung um rund 19 % gesenkt werden. Die thermische Effizienz konnte somit um rund 1 % gesteigert werden. Der Wärmepumpenboiler wurde insgesamt zwei Wochen betrieben; eine Messreihe davon fand dabei im Normalbetrieb statt. In einer weiteren Messreihe wurde die Wärmepumpe mit der Optimierungsroutine betrieben. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von circa 23 %. Ebenso konnten die Kosten pro MWh thermischer Nutzenergie um 19 % gesenkt werden. Gleichzeitig sank die thermische Effizienz um 6 %.
ÖKOPROFIT ist ein Kooperationsprojekt zwischen den örtlichen Gemeindenund der lokalenWirtschaft.Die Teilnahme ist für die Betriebe freiwillig. Ziel ist die Betriebskostensenkung bei gleichzeitiger Schonung der Ressourcen. In Vorarlberg sind derzeit circa170 Betriebe zertifiziert. Im Rahmen der Rezertifizierung, die jedes Jahr stattfindet, wird von den Betrieben ein Umweltbericht erstellt. Die Berichte werden derzeit in Word verfasst, in eine Cloud geladen und dort von den Auditoren geprüft. Dies ist jedoch nicht mehr zeitgemäß. Im Rahmen des CESBA-AlpsInterreg Alpine Projektes (2016-2019) wurde ein Tool entwickelt, mit dem Ziel Nachhaltigkeit und Energieeffizienz im Alpenraum zu verbessern. In dieser Arbeit wird nun geprüft, inwiefern das bestehende CESBA-Alps-Tool in Wert gesetzt und somit in den Rezertifizierungsprozess von ÖKOPROFIT integriert werden kann. Das Tool wird zunächst so eingerichtet, dass die Betriebe mit ihren dazugehörigenIndikatoren sowie passende Indikatoren-Sets angelegt werden können. Für den Test werden historische Daten bis zum Jahr 2013von zwei Pilot-Clustern (Landeskrankenhäuser und Landesregierungsgebäude) mit unterschiedlichen Indikatoren-Sets eingepflegt. Es wird untersucht, inwiefern die Auswertungen und Exporte für den Rezertifizierungsprozess bereits tauglich sind. Jegliche Auffälligkeiten, Fehler oder Verbesserungsvorschläge werden gesammelt. Es wird klar, dass die Export-Dateien verschlankt und optimiert werden müssen, damit sie ohne Mehraufwand verwertet werdenkönnen. Die wichtigste Handlungsempfehlung ist die automatisierte Berichtlegungsfunktion. Es sollte ein Texteditor in das Tool eingearbeitet werden, in den Unternehmen einzelne Textbausteine einpflegen können, sodass mithilfe des Tools nicht nur das Kennzahlenkapitel des Umweltberichts, sondern alle Kapitel standardisiert erarbeitet werden können. Nur so kann sichergestellt werden, dass das Tool für die Betriebe eine Arbeitserleichterung und somit Zeitersparnis generiert. In einem weiteren Arbeitspaketwurden ähnliche Online-Tools anhand von im Vorhinein ausgewählten und priorisierten Kriterien, die ein optimales Tool erfüllen sollte, mithilfe einer gewichteten Entscheidungsmatrix semiquantitativ verglichen. Hierbei schnitt das in dieser Arbeit getestete Tool selbst ohne die Verbesserungen am besten ab. Es stellt sich heraus, dass es bereits die Hälfte der ausgewählten Kriterien in einer sehr guten Weise erfüllt. Die Kriterien wurden von der ÖKOPROFIT-Programmleitung definiert. Werden die Handlungsempfehlungen in der Zukunft noch umgesetzt, könnte mit dem Tool tatsächlich eine Verbesserung des derzeitigen ÖKOPROFIT-Rezertifizierungsprozesses erwirkt werden.
The humidification dehumidification (HDH) cycle is a process for thermal water treatment. Many studies were carried out investigating operation of an HDH cycle with water and seawater as working liquid. Currently research into other areas of application is limited. Exchanging the working liquid in the humidifier from seawater to a water oil emulsion and investigating its behavioural changes is the basis for the expansion into applications such as bilge water treatment. This master’s thesis covers analysis of the behaviour of an HDH cycle operated with a water oil emulsion. The main elements are (1) proof of concept for operation of the HDH cycle with a water oil emulsion, (2) comparison of measurements and thermodynamic calculations, (3) investigation of the impact of operating parameters and (4) optical analysis of the bubbly flow in water and oil.
Operation of the HDH cycle using water oil emulsion was shown to be feasible with a small change to the setup previously used for investigations with seawater as working liquid. To keep the emulsion from separating into its individual parts, constant movement of the working liquid needs to be ensured. For this a magnetic stirrer was introduced into the bubble column humidifier (BCH) used. In a batch process an oil concentration of >97 % was reached without visible traces of oil in the produced condensate.
Comparison of the measured and thermodynamically evaluated productivity shows that measured productivity is higher. The proposed explanation for this is supersaturation of air at the BCH exit. Further investigation into this phenomenon is needed to confirm this hypothesis.
Influential parameters investigated are (1) liquid temperature, (2) superficial air velocity and (3) sieve plate orifice diameter. Increase of liquid temperature results in an exponential increase in productivity. At superficial air velocities up to 3 cm/s productivity increases with superficial air velocity. For superficial air velocities higher than 3 cm/s productivity plateaus. At low superficial air velocity, an increase of sieve plate orifice diameter results in increasing productivity. Further increase of the sieve plate orifice diameter inverses this phenomenon.
Bubbly flow in water and oil is influenced by the different viscosities of the liquids. Water creates small bubbles of similar size at low superficial air velocities. At superficial air velocities >2 cm/s turbulences start to increase and finely dispersed bubbles are present in the water. Bubbly flow in oil creates larger bubbles at all superficial air velocities. The airflow transitions to plug flow at velocities of 3 cm/s and above.
Result from this master’s thesis can be used for as a basis to broaden the understanding of the HDH cycle and find new areas of applications.
Das Energieinstitut Vorarlberg hat zusammen mit mehreren Regionen in Vorarlberg das Sanierungslotsenprojekt gestartet, um die Beratungssituation bei der Gebäudesanierung zu verbessern. Durch wiederholten Kundenkontakt wurde festgestellt, dass es ein Beratungsdefizit für Besitzer älterer Einfamilienhäuser gibt. Zwischen der Erkenntnis, dass eine Sanierung des Gebäudes notwendig ist und dem Zeitpunkt, an dem die ersten Leistungen bestellt werden, gibt es keine sachkundige Betreuung in den Fragestellungen der zukünftigen Gebäudenutzung. In den bisher angebotenen Beratungen werden zwar auch unterschiedliche Sanierungsvarianten miteinander verglichen. Jedoch bezieht sich der Vergleich auf Variationen von Sanierungsmaßnahmen, wie beispielsweise Dämmstoff - und Fensterqualität oder die Auswahl eines Heizungssystems. Darüber hinaus gehende Fragen über altersgerechtes Wohnen, Generationenwohnen, Nachverdichtung und Vermietung werden in diesen Beratungen nicht behandelt. In allen Fragen der zukünftigen Nutzung und den zukünftigen Anforderungen an das Gebäude, den darauf abgestimmten Sanierungszielen und der zugehörigen Kostenschätzung mit Finanzierungsberechnung sind die Besitzer auf sich gestellt.
Deshalb ist der Bedarf nach einem einfachen Rechentool, welches in einer frühen Phase der Sanierungsberatung, eine schnelle Berechnung der in Betracht kommenden Sanierungsvarianten ermöglicht, entstanden. In dieser frühen Phase ist es bislang nicht üblich eine Kostenschätzung abzugeben. Für diese Berechnungen wird eine Datenbank mit Sanierungs - und Umbaukostenelementen benötigt, sodass mit einer abgesicherten Basisdaten kalkuliert werden kann.
In der vorliegenden Masterarbeit werden eine auf Microsoft Excel basierende Datenbank und das dazugehörige Rechentool vorgestellt, die die beschriebenen Anforderungen erfüllen. Mit Hilfe der Datenbank wird eine Grundlage geschaffen, an denen sich die Sanierungslotsen orientieren können. Zusätzlich zu den Netto- und Bruttokosten, die bei den einzelnen Sanierungsmaßnahmen anfallen, werden auch Einheitskosten angegeben, die in das Rechentool eingetragen werden können.
Das Rechentool ermöglicht den Vergleich von fünf unterschiedlichen Sanierungsvarianten. Durch die freie Eingabe der Flächen können auch Varianten mit unterschiedlichen Nutzungskonzepten und unterschiedlichen Grundrissen verglichen werden. Neben einer Grobkostenrechnung der Sanierungskosten erfolgt im Tool auch die Berechnung der Förderung laut der Wohnaussanierungsrichtlinie und Energieförderungsrichtlinie des Landes Vorarlberg. Weitere Förderungen können als Einmalzuschüsse eingetragen werden. Eine vereinfachte Wirtschaftlichkeitsbetrachtung erfolgt über die Berechnung der Finanzierung der Sanierung. Hierbei werden auch Einnahmen durch Vermietung berücksichtigt.
Da konventionelle Kältemittel im Vergleich zu CO2 ein großes Treibhauspotential (GWP) aufweisen, gewinnen neue, alternative Kältemittel, sogenannte low-GWP Kältemittel, stärker an Bedeutung. Zu diesen low-GWP Kältemitteln gehören u.a. die Fluide der HFO und HCFO Kältemittel. Durch ihre thermophysikalischen Eigenschaften eignen sie sich insbesondere für die Anwendung in industriellen Hochtemperaturwärmepumpen (HTWP), die im Temperaturbereich von 100 °C bis 160 °C ein großes Potenzial in der Nahrungsmittel-, Papier- und Chemieindustrie zur Prozesswärmebereitstellung aufweisen. In dieser Masterarbeit werden die Kältemittel R1336mzz(Z), R1233zd(E), R1224yd(Z), R1234ze(Z) und R514A auf ihre Anwendbarkeit in drei verschiedenen Kältekreiskonfigurationen untersucht. Dabei soll herausgefunden werden, welches Kältemittel sich unter Berücksichtigung des COPs, der volumetrischen Heizleistung, der Verdichtungsverhältnisse und Verdichtungsendtemperaturen am besten eignet. Der Kreislauf mit internem Wärmeübertrager (IHX) findet bereits Anwendung in HTWP und dient zum grundlegenden Vergleich der Kältemittel. Die beiden neuen Kreisläufe eignen sich u.a. für große Spreizungen an der Senke. Eine in dieser Arbeit betrachteten Kältekreiskonfiguration besteht aus zwei parallel angeordneten IHX Kreisläufen (2KP) und die andere aus einer zweistufigen Kreislaufkonfiguration (2SE).
Mithilfe des Programms EES wird für die Kreisläufe ein Modell erstellt, mithilfe dessen der Senkentemperaturbereich von 100 °C bis 160 °C und der Quellentemperaturbereich von 40 °C bis 80 °C untersucht werden kann. Die Auswertung der Simulationen kam zu dem Ergebnis, dass R514A bis zu einer Senkentemperatur von 130 °C und R1336mzz(Z) ab dieser Senkentemperaturen im IHX und 2SE Kreislauf die besten COP Werte aufweist. Zudem sind die Verdichtungsendtemperaturen und das Verdichtungsverhältnis günstig, die volumetrische Heizleistung hingegen am geringsten. Im 2KP Kreislauf besitzt die Kältemittelkombination R1336mzz(Z)/R514A die besten COP Werte. Der 2KP Kreislauf weist die besten COP Werte der betrachteten Kältekreiskonfigurationen auf. Im Betriebspunkt bei einer Senkentemperatur von 130 °C (ΔT Senke 60 K) und einer Quellentemperatur von 60 °C (ΔT Quelle 10 K) liegt der COP des IHX bei 3,95, der des 2SE bei 4,05 und der des 2KP bei 4,26. R1233zd(E) überzeugt im IHX und 2SE Kreislauf mit einer deutlich höheren VHC im Vergleich zu R1336mzz(Z), bei etwas geringeren COP Werten. Die Untersuchung zeigt auch, dass die Auswahl einer Kältekreiskonfiguration und eines Kältemittels stark von den Betriebstemperaturen abhängt.
In Benin werden einerseits große Mengen verschiedenster Abfallarten häufig in der Landschaft entsorgt und unter freiem Himmel verbrannt. Andererseits ist Energie in Benin sehr knapp und muss zu einem hohen Prozentsatz aus Nachbarländern
importiert werden. Hier setzt die vorliegende Arbeit an mit der Frage: Welche Varianten der Müllverbrennung mit Nutzung thermischer Energie sind hinsichtlich ökonomischer, technischer und ökologischer Kriterien in Benin realisierbar? Zur Beantwortung dieser Frage werden zunächst die Rahmenbedingungen vor Ort analysiert, um Anforderungen an eine solche Müllverbrennungsanlage abzuleiten. Als Kern der Arbeit wird eine Müllverbrennungsanlage mit anschließender Abgasreinigung konzipiert, die auf einem bereits vor Ort erprobten Ofen aufsetzt, der zur Verbrennung medizinischer Abfälle konstruiert wurde. Anhand einer detaillierten Analyse von Abgasreinigungstechnik wird aufgezeigt, wie dieser Basisofen zur Verbrennung von landwirtschaftlichen Abfällen und Kunststoffen angepasst werden kann. Konkrete Beispiele zur Nutzung thermischer Energie zur Kälteerzeugung, Salzherstellung und Palmölherstellung zeigen auf, dass das vorgestellte Konzept praxistauglich ist.
Das exakte Messen der aktuellen Spannung ist ein essenzieller Baustein sowohl für die Versorgungssicherheit als auch die Verrechnung von Leistung in der elektrischen Energietechnik. Dazu werden verschiedene Geräte verwendet, welche die Spannung auf einen normierten Wert teilen, sodass diese problemlos gemessen werden kann. In dieser Masterarbeit werden in weiterer Folge lediglich die konventionellen Spannungswandler und deren Übertragungsfehler, genauer gesagt die kapazitiven Spannungswandler, im Detail analysiert. Das übergeordnete Ziel dieser Arbeit ist es, jene Parameter der modellbasierten Messung von kapazitiven Spannungswandlern zu finden, welche die größte Sensitivität im Bezug auf den Spannungsübersetzungs-und Phasenfehler sind. Dabei werden zuallererst die zwei gängigsten Messmethoden zur Prüfung der Genauigkeit von konventionellen Spannungswandlern diskutiert. Des Weiteren wird die Arbeit anhand der CIGRE Umfragen im Bezug auf die Ausfälle der konventionellen Wandler motiviert. Des Weiteren wird der Stand der Technik ermittelt und dargelegt.
Für die Dauer der Untersuchung wurde ein kapazitiver Spannungswandler in seine beiden Hauptkomponenten (induktiver und kapazitiver Teil), zwecks besserer Analysierbarkeit der einzelnen Komponenten, zerlegt. Somit konnten sowohl die einzelnen CVT Komponenten als auch der gesamte kapazitive Spannungswandler frequenzabhängig und spannungsabhängig untersucht werden. Mittels dieser und der modellbasierten Messungen wurden die einzelnen Parameter für die Simulationsumgebung des kapazitiven Spannungswandlers ermittelt. Im Anschluss wurde dieses zum einen mittels vier verschiedener Betriebszustände und zum anderen mittels Messergebnissen sowohl der modellbasierten Prüfung als auch der Primärprüfung (EPRO Kalibrierung) verifiziert. Mit dieser Grundlage wurden anschließend die verschiedenen Sensitivitätsanalysen durchgeführt.
In this thesis the effect of dc voltage bias on the equivalent series resistance (ESR) of capacitors and especially ferroelectric dielectric ceramic capacitors (FDCC) is analysed. Further the influence of the dc biased ESR on the losses of capacitors is investigated. Also piezoelectric resonances (PR) occurring in FDCCs with applied dc bias and their influence on the losses are analysed.
Therefore a measurement circuit to measure the impedance and thus the ESR of capacitors in combination with a vector network analyser (VNA) is developed. Using the developed circuit the ESR of capacitors of different technologies is measured and their behaviour with dc bias is evaluated. The losses of an FDCC are measured in a power electronic (PE) circuit with a developed calorimetric measurement system (CMS). The influence of the PR is investigated by tuning the switching frequency of the PE system and thus the frequency of the capacitor current exactly into the PR. The measured losses are then compared to a calculation based on the capacitor current harmonics and the respective ESR.
The measurements show an increase of the ESR with dc bias for all measured FDCCs. The loss measurements show a significant increase of the losses in an FDCC if the current frequency matches the PR frequency. Consequently a decrease of the PE system's efficiency is measured. The loss calculations do not exactly match the measurements but there is a systematic deviation of the same order for all measurements.
Aktuell beschäftigen steigende Energiepreise, zunehmend knappe Ressourcenvorkommen und der Klimawandel die Energiebranche mehr denn je. Aber auch andere Organisationen wie Unternehmen und Kommunen, die einen erheblichen Beitrag zum Energieverbrauch leisten, sind davon betroffen. Ein Instrument, das sich dieser Themen angenommen hat und eine Möglichkeit zur Steuerung bietet, ist das Energiemanagement.
Ungenutztes Energieeffizienzpotential kann mit einem gut aufgebauten und strukturierten Energiemanagement nutzbar gemacht werden. Gerade weil das Angebot technischer Lösungen sehr groß ist, liegt die Vermutung nahe, dass die Umsetzung oft durch strukturelle oder organisationsbedingte Barrieren erschwert wird.
Aus diesem Grund ist der Forschungsgegenstand dieser Arbeit eine ausführliche Untersuchung der Umsetzung von betrieblichem und kommunalem Energiemanagement. Es konnten Erkenntnisse gewonnen werden, welche Themen beim Energiemanagement eine Herausforderung darstellen und welche Aspekte spezifisch bei Unternehmen oder Kommunen wichtige Stellschrauben im Umsetzungsprozess sind.
Die Ergebnisse der Expertenbefragung und der Literaturanalyse haben gezeigt, dass Energiemanagement derzeit zu wenig Interesse geschenkt wird und deshalb die Investitionen, vor allem in ausreichend Personalressourcen, fehlen. Die größte Hürde ist die wirtschaftliche Darstellbarkeit von Maßnahmen, die insbesondere bei wenig energieintensiven Organisationen Schwierigkeiten bereitet beziehungsweise kaum durchsetzbar ist. Dies wiederum fordert ein Umdenken von Politik und Wirtschaft, was sich auch in anderen Einflussfaktoren deutlich wiederspiegelt.
Aber nicht nur in den entscheidenden Reihen einer Organisation muss ein Umdenken stattfinden. Nur wenn das Bewusstsein für Energie bei allen Beteiligten steigt und alle bei Strategie und Umsetzung an einem Strang ziehen, kann die Energiewende mithilfe von Energiemanagement gelingen.
Um ein möglichst kostengünstiges Laden von Elektrofahrzeugen zu erreichen, ist es nötig, diese möglichst in Zeiten zu laden, an denen die Kosten für die Energie geringer sind und die Entstehung von Leistungsspitzen vermieden wird. Aus diesem Grund wird in dieser Arbeit anhand des Verbrauches und den tariflichen Bedingungen eines Betriebes in Österreich die Kostenentwicklung von drei verschiedenen Ladeszenarien untersucht und verglichen. Dabei handelt es sich um das einfache Laden, intelligente Laden und das intelligente Laden mit Vehicle to Grid Erweiterung, wobei hierbei die Energie aus den Fahrzeugen ausschließlich zur Eigenverbrauchsoptimierung und Spitzenlastreduktion eines Betriebes dient und somit nicht in das Netz gespeist wird. Die Ergebnisse werden durch eine lineare Optimierung errechnet wobei bis zu vier Fahrzeuge simuliert werden.
Die Ergebnisse zeigen, dass es durch das intelligente Laden zu keinen neuen Leistungsspitzen kommt und es zusätzlich zu einem erhöhten Eigenverbrauch aus der vorhandenen Photovoltaikanlage kommt.
Dadurch reduzieren sich die Ladekosten in jedem Szenario. Auch in Betrachtung auf die Anschaffungskosten, ist eine Verbesserung ersichtlich. Beim Vehicle to Grid Laden werden die Arbeits- und Leistungskosten noch weiter gesenkt, wobei die Leistungskosten bei zwei Fahrzeugen ihren Tiefpunkt erreicht haben. Zusätzlich kann der Eigenverbrauch aus der Photovoltaikanlage noch weiter erhöht werden. Nachdem hierbei die Investitionskosten noch berücksichtigt wurden, kommt der Autor zum Schluss, dass es nur mit einem Fahrzeug zu einer Verringerung der gesamten Kosten kommt. Dies kommt durch die erhöhten Investitionskosten und dem mit höher werdender Anzahl an Fahrzeugen geringer werdenden Vehicle to Grid Einsatz zustande.
Weltweit hatten 2017 840 Millionen Menschen keinen Zugang zu Strom. Hinzu kommen Millionen weitere Menschen, die an unzuverlässige Stromquellen angeschlossen sind. Für das Wirtschaftswachstum, die menschliche Entwicklung und ökologische Nachhaltigkeit ist eine zuverlässige Stromversorgung jedoch von großer Bedeutung.
Die vorliegende Arbeit beschäftigt sich daher mit der Konzeptionierung einer zuverlässigen Stromversorgung für eine Hochschule in Benin (Westafrika), die sich mit einem unzuverlässigen Netzanschluss konfrontiert sieht. Die Konzeptionierung erfolgt mithilfe der Software HOMER.
Aufgrund unsicherer Systembedingungen wurden mehrere Szenarien und der Einfluss verschiedener Systemparameter untersucht.
Die Ergebnisse zeigen, dass eine zuverlässige Stromversorgung durch die Implementierung eines Mini-Grids erreicht werden kann. Dabei hat die Ausgangssituation einen bedeutenden Einfluss auf die Systemauslegung. Für das untersuchte Szenario, in dem die Hochschule keine Stromkosten bezahlte, erwies sich ein PV/Dieselgenerator/Batterien-Mini-Grid als geeignet. Dabei entstehen Stromkosten von mindestens 0,013 USD pro kWh, was leicht erhöhte Kosten gegenüber den Bezugskosten bedeutet. Dieser Kostenzuwachs lässt sich aber mit der erhöhten Zuverlässigkeit rechtfertigen. Auch unter der Annahme, dass die offiziellen Bezugskosten bezahlt werden müssen, erwies sich ein PV/Dieselgenerator/Batterie-Mini-Grid als geeignet. Die Größe der PV-Anlage fällt in diesem Fall deutlich größer aus, was zu einem reduzierten Einsatz des Dieselgenerators führt. Ein untersuchtes Off-Grid erwies sich als unwirtschaftlich.
Somit enthält die Arbeit wichtige Erkenntnisse darüber, wie sich verschiedene Parameter auf ein geeignetes System auswirken. Zudem wurde ein Systemvorschlag ausgearbeitet. Diese Informationen sollen nicht nur den beteiligten Personen vor Ort helfen, sondern auch als Grundlage für zukünftige Projekte dienen.
In den letzten Jahrzehnten gewann Aluminium als vielseitig einsetzbarer Werkstoff immer mehr an Bedeutung. Das Vorarlberger Unternehmen Hydro Extrusion Nenzing ist Teil der Aluminiumverarbeitungsindustrie und stellt stranggepresste Aluminiumprofile her. Beim Strangpressen werden Aluminiumstangen in einem Durchlaufinduktionsofen auf bis zu 520 °C erhitzt und anschließend durch ein formgebendes Werkzeug gepresst. Nach dem induktivem Aufwärmen wird ein Teil der Stange aus dem Ofen gefahren und abgeschert. Die erzeugte Temperaturverteilung an diesem abgescherten Bolzen ist der sogenannte Taper. Das induktive Aufwärmen ist ein wichtiger Teil der Extrusion und steht im Fokus dieser Forschungsarbeit. Ziel dieser Arbeit ist es, den Aufwärmprozess der Aluminiumstangen, mithilfe einer Kombination aus explorativer Datenanalyse und Methoden des maschinellen Lernens, genauer zu verstehen und den resultierenden Taper vorherzusagen. Außerdem werden parallel die signifikanten Einflussparameter, ohne Berücksichtigung von Materialparametern, untersucht.
Nach der explorativen Datenanalyse wurden mithilfe eines k-means-Clusterverfahren zwei Klassifizierungsvarianten entwickelt. In der ersten Variante liegen die Taper nach ihrer Bolzenlänge und Form gegliedert vor. Es zeigte sich, dass die Taper der Bolzen mit ähnlicher Länge auch ähnliche Formen annehmen. Ein einfacher Entscheidungsbaum konnte die 13 Zielklassen zu etwa 85 % vorhersagen. Die Bolzenlänge spielt bei der Vorhersage eine wichtige Rolle. Die zweite Klassifizierungsvariante basiert hingegen ausschließlich auf der Taperform. Die angewendeten Modelle (k-Nearest-Neighbor, Decision Tree, Random Forest) waren jedoch kaum in der Lage, die 11 Klassen abzubilden. Grund für die unzureichende Vorhersageleistung können die vielen Unsicherheiten in der Datenstruktur sein. Die anschließende detaillierte, explorative Analyse der formabweichenden Taper deutet fehlende Merkmale im Datensatz an. Einige Bolzen setzen sich aus zwei Stangenenden zusammen. Diese geteilten Bolzen führen zu abweichenden Aufwärmverhalten, wodurch auffällige Taper entstehen. Die Information ob sich ein Bolzen aus zwei Stangen zusammensetzt fehlt jedoch im Datensatz. Der Aufwärmvorgang der Stangen wird demnach durch ein Wechselspiel der aktuellen Regelung und zwei maßgeblichen Faktoren beeinflusst: die Bolzenlänge und das Auftreten von geteilten Bolzen. Diese Faktoren bestimmen die Stangentemperatur im Ofen, den induzierten Strom und somit den resultierenden Taper. Aufgrund dieser Ergebnisse könnte die temperaturbasierte Regelung zukünftig durch eine Steuerung hinsichtlich des induzierten Stroms ersetzt, dadurch Energie eingespart und Schrott vermieden werden.
Aufgrund des fortschreitenden Klimawandels müssen neue Wege gefunden werden, um diesen zu verlangsamen, bzw. die Emission von Treibhausgasen zu reduzieren. Ein Weg dieses Ziel zu erreichen ist das CO2-Recycling direkt an der Quelle. Durch die hohe thermische und chemische Beanspruchung der hierfür eingesetzten Elektroden bieten sich gerade technische Keramiken als Elektrodenmaterialien an. Eine jener in Frage kommenden Keramiken ist Siliziumkarbid (SiC). Bei SiC handelt es sich um einen Wide-Bandgap-Halbleiter mit hoher thermischer und chemischer Stabilität. Da die Herstellung, des für Elektroden benötigten, hochreinen, porösen SiC sehr aufwendig und damit auch teuer ist, wird schon seit einiger Zeit nach anderen Verfahren, als den industriell eingesetzten Standardverfahren, zur Herstellung von hochreinem SiC geforscht. In der vorliegenden Arbeit wird die Bildung von Siliziumkarbid in isostatisch gepressten Graphiten mittels karbothermischer Reduktion verschieden dotierter Sol-Gel-Granulaten und cerschiedener poröser Graphite untersucht. Zu diesem Zweck werden die Proben unterschiedlichen Anzahlen an Zyklen des in einem Induktionsofen, durchgeführten Hochtemperaturprozesses ausgesetzt. Dabei wird das Granulat thermisch zersetzt, wobei es unter anderem zu einer Gasphasenreaktion mit dem Kohlenstoff der Graphittemplates kommt und damit zur Umwandlung von Kohlenstoff zu SIC. Von den so gewonnenen Proben werden in einem Micro-CT Schichtaufnahmen erstellt. Das Ergebnis soll ein Erkenntnisgewinn bezüglich der Umwandlungstiefe und entstandenen Strukturen in den unterschiedlichen Graphittemplates, je nach Anzahl der durchlaufenen Zyklen und verwendetem Precursorgranulat, sein. Nicht untersucht wird das elektrische Verhalten der unterschiedlichen, auf diese Weise örtlich dotierten, Templates.
In Anbetracht einer immer größer werdenden Diskussion über den Klimaschutz und einer anvisierten Energiewende finden umweltschonende Energietechniken immer mehr an Aufmerksamkeit in der Gesellschaft. Die Kombination von Stromerzeugung und gleichzeitiger Wärmeproduktion macht die Biomassevergasung zu einem interessanten Untersuchungsobjekt. Die anfallenden Biokohlestäube versprechen in Zukunft von großem Nutzen zu sein, um zum Beispiel Kohlenstoff in der Erde abzuspeichern. Die sogenannten ”Terra Preta“ Böden steigerten merklich das Interesse am Einsatz von Kohle in der Landwirtschaft, um in Böden verbessernde Eigenschaften zu erzielen. In dieser Masterarbeit wird die Auswirkung der Biokohle einer Schwebefestbettvergaseranlage auf das Pflanzenwachstum, die verfügbaren Nährstoffe und auf die Anzahl der Mikroorganismen untersucht. Hierfür wurden zwei verschiedene Versuchspflanzen herangezogen. Es wurde auf Hafer und Rübse zurückgegriffen. Der Versuch fand unter Laborbedingungen in einem Wachstumsschrank statt. Es wurden Böden mit unterschiedlichen Kohlegehalten hergestellt (0 %, 2,5 % 5 %, 12,5 %). Des Weiteren wurde auf zwei verschiedene Arten eine oberflächenaktivierte Kohle hergestellt. Einmal erfolgte dies durch Ko-Kompostierung der Biokohle in Grünschnitt und das zweite Mal durch die Beladungmit künstlichem Dünger. Die chemische Aktivierung erfolgte über einen Rührversuch. Dabei wurde die Kohle über einen längeren Zeitraum mit dem künstlichen Dünger in einem Gefäß gerührt.
Die Versuchsdauer erstreckte sich jeweils über einen Zeitraum von ca. 3 Wochen. Am Ende der Versuche wurden die Pflanzen geerntet. Anschließend wurde ihre Wuchshöhe und deren Durchmesser erfasst und statistisch ausgewertet. Die Nährstoffe im Boden wurden mittels Macherey Nagel Schnelltest ermittelt. Hierfür wurden Proben sowohl am Anfang als auch am Ende des Experiments genommen und anschließend aufbereitet und ebenfalls statistisch ausgewertet. Es konnte durch den Zusatz von Kohle einen signifikant höherer Mittelwert des Pflanzenwachstums erzielt werden. Und auch bei den Nährstoffen konnten Unterschiede zum Referenzboden nachgewiesen werden. Im Gegensatz dazu konnte bei den Mikroorganismen statistisch kein Unterschied festgestellt werden. Leider traten während des Versuches vermehrt Probleme auf, die aber entsprechend in der Arbeit adressiert und dokumentiert werden. Aus diesem Grund muss darauf verwiesen werden, dass einige Ergebnisse nicht verwertbar waren.
Synthese von Gashydraten
(2019)
Bei Clathraten handelt es sich um Einschlussverbindungen, bei denen beliebige Gastmoleküle in einem Käfig bzw. Gitter von beliebigen Wirtsmolekülen eingeschlossen sind. Bei hohem Druck und niedriger Temperatur können beispielsweise Gasmoleküle in einem Wirtsgitter aus Wassermolekülen eingelagert werden. Natürlich vorkommende Hydrate in den Tiefeneisfeldern der Schelfmeere und in Permafrostgebieten zu finden und haben hauptsächlich Methan als Gastgas. Im Forschungsbereich Energie der Fachhochschule Vorarlberg (FHV) werden die Bildungs- und Zerfallsprozesse von Gashydraten erforscht. Für die Herstellung dieser Proben ist ein Mikroreaktor vorhanden, mit dem keine zufriedenstellenden Ergebnisse erzielt werden können, da die Dauer der Bildung von ausreichenden Mengen an Hydratproben hoch ist. Obwohl die Synthese von Hydraten bereits mehrfach Gegenstand der Forschung war und es weiterhin ist, besteht nach wie vor ein großes Potential in der Beschleunigung des Wachstumsprozesses von Hydraten. Da der Beginn des Hydratwachstums durch einen stochastischen Prozess ausgelöst wird, kann die Dauer der Keimbildung bzw. bis zum Beginn des Kristallwachstums viel Zeit in Anspruch nehmen. Für weitere Forschungsarbeiten im Forschungsbereich Energie der FHV ist eine beschleunigte und technisch einfache Herstellung von Hydraten von hoher Wichtigkeit. Deshalb ist der Fokus bzw. das Thema dieser Arbeit die Entwicklung eines neuartigen Versuchsreaktors, der die Möglichkeit bietet, verschiedene bekannte sowie neue Methoden für die Synthese von Gashydrat anzuwenden und für die Herstellung von Hydratproben untereinander zu kombinieren. Der im Zuge dieser Arbeit entwickelte Versuchsreaktor ist so aufgebaut, dass mehrere aus der Literatur bekannte Synthesemethoden, sowohl einzeln wie auch in Kombination untereinander, verwendet werden können. Als zusätzliche und neuartige Synthesemethode ist eine Baugruppe des Aufbaus darauf ausgelegt, das Hydratwachstum ausschließlich aus der Gasphase zu ermöglichen. Der Versuchsaufbau verfügt über mehrere Temperaturfühler und einen Druckaufnehmer, die über ein Datenerfassungssystem eine Steuerung und eine Überwachung des Herstellungsprozesses erlauben. Es wurden neben verschiedenen Inbetriebnahmetests insgesamt drei Versuche zur Ermittlung der Tauglichkeit des Systems zur Hydratsynthese durchgeführt. In jeder dieser drei Versuchsreihen konnten neue Erkenntnisse bezüglich des Wachstumsprozesses von Hydraten gewonnen werden, die auch in der gesichteten Literatur bisher nicht dokumentiert sind. Weiters wurde die neuartige Synthesemethode aus der Gasphase erprobt. Obwohl diese grundsätzlich funktioniert, sind die erreichbaren Produktionsraten prozessbedingt niedrig. Das Ziel, Hydratproben einfach und schnell erzeugen zu können, konnte mit dem entwickelten Versuchsreaktor erreicht werden.
Alterungsvorgänge in einer Lithium-Ionen Akkumulatorzelle beeinflussen deren Eigenschaften und sind daher von besonderen Bedeutung für den Einsatz dieser Technologie. Diese Masterarbeit untersucht mikrostrukturelle Veränderung in zwei zylindrischen Lithium-Ionen Zellen (Type 26650) ohne Zentrierstift, die in Powerbanks verbaut sind. An den beiden Akkumulatoren, mit unterschiedlichen Alterungszustands, wird vergleichend beobachtet welche Unterschiede sich über die Alterung ergeben. Mittels Computertomographie und elektrischen Messungen wurden Daten während der zyklischen Alterung der Zellen gesammelt und ausgewertet. Es konnte gezeigt werden, dass der Verlauf des Kapazitätsverlustes abhängig vom Alterungszustand ist. Insgesamt ergab sich nach 507 Zyklen bei der Powerbank „Neu“ eine Reduzierung der aufgenommenen Energie um 16 % und der abgegebenen Energie um 20 %. Die Powerbank „Alt“ zeigte nach 317 Zyklen eine Reduzierung der aufgenommenen Energie von 19% und der abgegebenen Energie von 27% zum Ausgangswert. Der gemessene Kapazitätsverlust konnte nicht auf mikrostrukturelle Veränderungen während der Alterung zurückgeführt werden. Es zeigten sich besonders in der bereits gealterten Zelle (Powerbank „Alt“) deformierte Elektrodenschichten im Zellinneren und in der Näher der Stromableiter. Hinzukommt bei der Powerbank „Alt“, dass Kathode und Anode gegeneinander verschoben sind. Es konnte ebenfalls in der Powerbank „Alt“ eine neu entstandene Deformierung während der zyklischen Alterung beobachtet werden. Des Weiteren konnten auch Schweißgrate bei beiden Powerbanks auf den Stromableitern visualisiert werden.
Low cost Solar Forecast
(2019)
In der vorliegenden Arbeit wird der Fokus auf die Konzeption eines kostengünstigen Systems zur Vorhersage der solaren Einstrahlung mittels stochastischer Methoden gelegt. Der Vorhersagezeitraum liegt zwischen einer und drei Stunden. Es wird auf die Gefahren der Stochastik und das Aufarbeiten von Daten für stochastische Methoden eingegangen. Bereits die zur Vorhersage verschiedener meteorologischer Daten verwendeten Methoden werden analysiert, angewendet und mittels des relativen Fehlers, dem Root Mean Square Error (Wurzel der mittleren Fehlerquadratsumme) (RMSE) und des Mean Absolute Deviation (MAD) untereinander verglichen. Es werden Kriterien zur Auswahl der zur Aufgabenstellung am besten passenden Methode ausgearbeitet. Die Recherche der vorhandenen stochastischen Methoden und die Anwendung dieser Methoden haben das Artificial Neural Network (künstliches neuronales Netzwerk) (ANN), das mit der Softwarebibliothek Tensorflow erstellt wurde, als die beste Methode hervorgebracht. Die Programmierung der einzelnen Methoden mittels Scikit-learn, Python und Tensorflow wird beschrieben und eine Vorhersage berechnet. Als Hardware wird einerseits ein kostengünstiger Einplatinencomputer, ein Raspberry Pi 3, und andererseits ein leistungsstarkes Notebook verwendet. Die jeweils benötigte Rechenzeit weist keine gravierenden Unterschiede auf. Anschließend wurden die berechneten Vorhersagen mit den vorhandenen Messdaten, der Persistence Method (Persistenz Methode) (PM) und der Vorhersage der Meteo-Schweiz verglichen. Die unterschiedlichen Diagramme der Vorhersagen und deren Genauigkeiten kommen im Verlauf zur Darstellung. Die relative Abweichung der Vorhersage des Artificial Neural Network (künstliches neuronales Netzwerk)(Tensorflow) (ANNT) von den Messdaten liegt über das Jahr 2017 gesehen bei 8.52% oder auf die Jahresenergie bezogen bei 87.3 kWh/m2 . Im Vergleich zur PM Methode weicht die ANNT Methode um 83.5 kWh/m2 und Jahr ab. Abschließend wird auf Verbesserungsmöglichkeiten und weiterführende Arbeiten eingegangen.
Die Gebäudeenergieversorgung mittels kombinierter Erneuerbarer Energiesysteme wird in Zukunft häufiger realisiert werden. Dies liegt unter anderem am Fokus der aktuellen Energiepolitik, an der wachsenden Akzeptanz der Bevölkerung und an einer ständigen Verbesserung der Wohngebäudeeigenschaften. Die volatile Charakteristik des erneuerbaren Energieangebots stellt eine Herausforderung dar. Thermische Lastverschiebung ermöglicht es, durch die Speicherung thermischer Energie, Zeiten mit geringem Energieertrag zu überbrücken. Es werden in dieser Masterarbeit drei Methoden zur Lastverschiebung mittels Simulation einer Referenzwohnanlage mit 31 Wohnungen untersucht. Die Gebäudesimulation wird hierfür mit TRNSYS durchgeführt, die Simulation zum Vergleich der unterschiedlichen Methoden mit Polysun. Die untersuchten Methoden sind die Regeneration des Erdsondenfeldes einer Geothermiewärmepumpe, die Anhebung der Maximaltemperatur sensibler Wärmespeicher, sowie die Anhebung der Raumtemperatur in der Referenzwohnanlage. Die Ergebnisse zeigen, dass die Sondenregeneration eine effektive Methode zur Steigerung der Jahresarbeitszahl (JAZ) der Wärmepumpe und des solaren Deckungsbeitrags darstellt. Die Sondentemperatur kann im Referenzfall zeitweise sogar auf ein höheres Niveau angehoben werden. Durch die zusätzliche Kombination mit einer Erhöhung der Speichermaximaltemperatur, bei hohem solarthermischem Ertrag, kann eine weitere Steigerung der JAZ erreicht werden. Die Solarthermieanlage kann so den größten Temperaturbereich nutzen, was auch die solare Deckungsrate weiter anhebt. Die thermische Gebäudeaktivierung weist das größte Potential für die Steigerung des PV-Eigenverbrauchs auf und verbessert die JAZ der Wärmepumpe durch den vermehrten Betrieb im Niedertemperaturbereich bedeutend; Jedoch wächst der Heizwärmebedarf (HWB) für die untersuchte Referenzwohnanlage aufgrund der Raumtemperaturüberhöhung (RTÜ) dermaßen, dass sie den Benefit der zusätzlich genutzten erneuerbaren Energie übersteigt und diese Methode zur thermischen Lastverschiebung daher nicht empfehlenswert ist. Da die thermische Gebäudeaktivierung in dieser Studie für bestimmte Gebäudeeigenschaften und mittels Fußbodenheizung realisiert ist, wird darauf hingewiesen, dass die Ergebnisse nur bedingt übertragbar sind und bei veränderten Gebäudeeigenschaften stark abweichen können.
Heimische Ladevorgänge von Elektroautos sind ein zusätzlicher Faktor in dem Wandel, dem Verteilnetze ausgesetzt sind. Aufgrund der typischen langen Parkzeiten bietet das Laden von Elektroautos jedoch einen hohen Grad an Flexibilität, mit deren Hilfe die Netzbelastung entscheidend verringert werden kann und weitere Dienstleistungen, auch in höheren Netzebenen, erbracht werden können. Die vorliegende Arbeit bewertet mit dem Instrument der Nutzwertanalyse fünf Ladestrategien, wie die Koordinierung von Ladevorgängen nutzbringend eingesetzt werden kann. Dazu werden im ersten Schritt Kriterien auf Basis der Literaturrecherche sowie der gegebenen Informationsgrundlagen der betrachteten Systeme definiert. Um eine neutralere Bewertung zu ermöglichen, wird die Gewichtung der Kriterien zusätzlich von einem Vertreter eines Verteilernetzbetreibers und einem Energieversorger vorgenommen. Mit den Ergebnissen der Bewertung werden die Systeme hinsichtlich ihres Nutzens unter Berücksichtigung der Bedeutung für die jeweiligen Parteien verglichen. Dabei werden die Stärken und Schwächen der Systeme herausgestellt und mögliche Interessenskonflikte lokalisiert. Ebenfalls wird auf die Eignung der Nutzwertanalyse als Werkzeug zur Bewertung der Systemkonzepte eingegangen. Im Anschluss wird der Grundaufbau eines Systems vorgestellt, welches aufgedecktes Potential zur Weiterentwicklung der bewerteten Systeme nutzt und damit zu einem größeren Gesamtnutzen führen kann.
Der Befeuchtungs-Entfeuchtungs-Prozess (HDH) wird zur Meerwasserentsalzung eingesetzt und bietet Vorteile wie die Nutzung von Wärme auf einem geringen Temperaturniveau sowie die Realisierbarkeit dezentraler Anlagen. Bei diesem Prozess wird Luft im Kontakt mit warmem Salzwasser im Optimalfall bis zur Sättigung befeuchtet. Die feuchte Luft wird anschließend abgekühlt, um das in ihr befindliche Wasser wieder zu kondensieren. Obwohl der HDH-Prozess bereits mehrfach Gegenstand der Forschung war, besitzt die Effizienz des Prozesses nach wie vor ein hohes Steigerungspotential. Das Ziel dieser Masterarbeit besteht in der Konzeption und der Realisierung eines Versuchsaufbaus zur Analyse der Befeuchtung von Luft in Wasser. Dabei soll der Untersuchungsgegenstand zukünftiger Versuche die Befeuchtereinheit sein, die ein hohes Potential hinsichtlich der Effizienzsteigerung von HDH-Systemen bietet. In neueren Publikationen wurden zum Einsatz in HDH-Systemen Blasensäulenbefeuchter als eine bessere Alternative zu Festbettbefeuchtern oder Sprühtürmen vorgeschlagen, weswegen die Befeuchtung in solchen Aggregaten näher untersucht werden muss. Das Hauptziel dieser Masterarbeit ist ein Versuchsaufbau, der die Möglichkeit bietet, die Parameter, die die Befeuchtung von Luft in einer Blasensäule maßgeblich beeinflussen, mit einer ausreichenden Genauigkeit zu messen, um aus diesen Messungen semiempirische Korrelationen ableiten zu können. Die die Befeuchtung von Luft maßgeblich beeinflussenden Parameter sind die Wassertemperatur, der Füllstand im Befeuchter, die Luftgeschwindigkeit sowie die Blasengröße.
Zum aktuellen Stand ist ein HDH-System, bestehend aus einem Blasensäulenbefeuchter, einem Querstromwärmetauscher sowie einer Dosierpumpe errichtet. Mit diesem System können wissenschaftlich notwendige empirische Zusammenhänge zwischen den die Befeuchtung beeinflussenden Parametern und der Befeuchtung von Luft aus Versuchen abgeleitet werden. Die im Versuchsaufbau verbaute Messtechnik wurde derart ausgewählt, dass deren Einfluss auf das System so gering wie möglich gehalten werden kann.
Mit dem Versuchsaufbau ist es darüber hinaus möglich, invasive Messmethoden mit nicht invasiven Messmethoden direkt zu vergleichen. Um eine für die Messungen optimale Befeuchtergeometrie zu finden, sind zwei Blasensäulenbefeuchtereinheiten aufgebaut, davon eine mit planarem und eine mit zylindrischem Querschnitt. So ist es möglich, im Direktvergleich die Vor- und Nachteile der Querschnittsanordnungen nachzuweisen. Die Komponenten der beiden HDH-Systeme wurden anhand von wissenschaftlich akzeptierten Modellen bezüglich der dazugehörigen Wärmeübertragungsraten, der Wärmeverluste und der Druckverluste ausgelegt.
Eine Modellierung des Stoffübergangs in der Blasensäule ist durchgeführt. Anhand dieser Modellierung konnte der Stoffübergangskoeffizient in der Grenzschicht zwischen Luftblase und Flüssigkeitssäule ermittelt werden. Anhand einer Massenbilanz konnte über den Stoffübergangskoeffizienten die Austrittswasserbeladung der feuchten Luft modelliert werden.
Die Funktionalität des Versuchsaufbaus ist gegeben. Messungen des Gasgehalts zeigen eine sehr gute Übereinstimmung mit wissenschaftlich anerkannten Korrelationen zum Gasgehalt. Die optische Zugänglichkeit des Versuchsaufbaus ist evaluiert und lässt die Tendenz ableiten, dass sich ein planarer Befeuchterquerschnitt in Verbindung mit Fotoaufnahmen von den durchgeführten Varianten am besten zur digitalen Bildanalyse eignet.
Aus den Experimenten, die am realisierten Versuchsaufbau durchgeführt werden, kann sich eine allgemeingültige Auslegungsgrundlage für Versuchsaufbauten ergeben, mit denen Messungen der Befeuchtung von Luft in Blasensäulenbefeuchtern durchgeführt werden sollen.
The master thesis concentrates on two different cases to generate energy from MSW. In the first case, the MSW is incinerated in an incineration plant. This approach represents the present situation in the waste treatment in large parts of the UK.
In the second case, the OFMSW is separated in a treatment facility and used in a fermentation plant. The remaining waste is again used as a feedstock in an incineration plant. The difference in the net energy yield between these two cases is investigated in this thesis.
To calculate the difference in the energy yield of case 1 and case 2, a research of the existing literature about comparisons of incineration and fermentation plants and their results are reflected and data about the MSW in the UK is collected. With the input of the literature and the researched data, a model is built which compares the two different cases of waste treatment. The results of the comparisons are then examined by varying different parameters. This step is repeated by using different input parameters. Afterwards, the results are compared and analysed.
In the next part of the thesis, an economic analysis of the incineration and fermentation combined technology plant is made. In this analysis, the investment costs, the annual profits and the annual costs of an additional fermentation plant are discussed and calculated. The result of the analysis is displayed as an amortization time calculation. The results are then analysed by varying the parameters in a sensitivity analysis.
Finally, the research question is answered and a forecast for possible plant designs with an incineration and a fermentation plant in combination are discussed.
Durch den vermehrten Ausbau dezentraler Energieerzeugungsanlagen gewinnt verbraucherseitiges Lastmanagement für die Netzbetreiber immer mehr an Bedeutung. Neue Möglichkeiten zur Laststeuerung bei Haushalten ergeben sich durch den Einsatz von intelligenten Stromzählern, sogenannten Smart Metern, da sie über eine Kommunikationsschnittstelle mit fernparametrierbarem Schaltrelais verfügen und den Stromverbrauch im Viertelstundenraster aufzeichnen können. Diese Masterarbeit untersucht eine Methode, mit der Lastverschiebungsmaßnahmen bei elektrischen Warmwasserspeichern durchgeführt werden können. Die Lastverschiebung wird lediglich durch die Funktionalitäten eines Smart Meter bewerkstelligt. Dabei ist das Ziel, eine Lastverschiebungsmethode zu finden, die vom Netzbetreiber simpel implementiert werden kann und mindestens den gleichen Komfortansprüchen genügt, die eine traditionelle Nachttarifschaltung aufweist. Die Schwierigkeit liegt hierbei in der Einschränkung, dass der Netzbetreiber vom Stromverbrauch der Speicher auf den Warmwasserbedarf der Kunden schließen muss.
Mit Hilfe eines thermodynamischen Modells werden verschiedene Lastverschiebungsszenarien bei mehreren Haushalten angewendet. Über die Simulation des Temperaturverlaufs wird ferner auf die Qualität der Warmwasserbereitung geschlossen und mit jener der klassischen Nachttarifsteuerung verglichen. Liegt die Temperatur häufiger unter einem bestimmten Mindestniveau als jene bei der Nachttarifschaltung, gilt die Qualität als nicht ausreichend. Die Ergebnisse der Untersuchung zeigen, dass mit der vorgestellten Methode für jeden Haushalt eine Lastverschiebung gefunden werden kann, die für den Netzbetreiber Vorteile bringt und die Mindestanforderungen an den Kundenkomfort erfüllt oder teilweise sogar verbessert. Es konnte festgestellt werden, dass mit der vorgestellten Methode der Großteil der Heizenergie (mindestens 60% bei allen Haushalten) in der ersten Tageshälfte zur Verfügung gestellt werden muss. Zusätzlich ergeben sich Energieeinsparungen, da die Beheizung des Speichers und der Warmwasserbedarf besser aufeinander abgestimmt werden. Mit der gezeigten Methode könnten Lastverschiebungsmaßnahmen schnell und einfach vom Netzbetreiber eingeführt werden, jedoch gilt es davor Einschränkungen wie die Legionellen-Problematik und Kundenkommunikation oder -akzeptanz zu klären.
In the residential construction industry, the focus on energy efficiency and cost effectiveness has been gaining importance. In order to achieve these contradicting objectives, a shift towards a reduced complexity in building practices can be observed.
Within the HVAC sector, the Tempering method for space heating has received particular attention as an alternative way to heat museums and buildings worthy of preservation.
In spite of the simplified design, this space heating system is claimed to offer significant advantages in its present field of application.
This study evaluates the implementation of Tempering in the residential context. So far, there is no scientific research on the implementation of Tempering in energy efficient-dwellings.
This master thesis provides initial results on achievable heat flux values, the impact on heat generation efficiency, the inherent installation costs as well as the particular
consequences in terms of end energy consumption of the building as a whole. The findings are compared to the individual performances of well-established heat emission approaches.
By means of a numerical analysis and a case study on a real-case single-family home, it is found that the heat flux values of Tempering systems suffice for the implementation within buildings, which comply with the low-energy building standard. Comparing radiant walls, radiant floors and radiators, the inherent installation costs are lowest for Tempering and radiant floors. The impact on the end energy consumption depends largely on the utilised heat generation system. With a gas-condensing boiler, Tempering performs equal to the radiant systems. When a ground source heat pump system is installed, however, Tempering performs poorly and accounts for a significantly increased energy consumption. Radiator systems are found to be the most energy-efficient method for space heating in both cases.
Obwohl der Energiebedarf eines Krankenhauses nur ca. 1,2% der Gesamtkosten ausmacht, werden Energieeinsparmaßnahmen und -optimierungen immer wichtiger. Neben dem steigenden Umweltbewusstsein wird auch der Kostendruck in diesem Dienstleistungssektor immer größer. Trotz der in vielen Krankenhäusern vorhandenen und gut ausgebauten Gebäudeleittechnik fehlt oft das Detailwissen über den Energieverbrauch und deren Verursacher.
Aufgrund der großen Anzahl an verwendeten Geräten und Kleinverbrauchern sowie der vielen gebäudetechnischen Großgeräte ist eine genaue Ursachensuche kein leichtes Unterfangen. Auch im Krankenhaus Feldkirch sind eine Vielzahl automatischer Stromzähler installiert und im Energiemonitoringsystem aufgeschaltet. Dennoch ist aktuell nur der Gesamtstromverbrauch bekannt und verwertbar. Analysen auf Gebäude oder Anlagen-Ebene werden nur sehr wenige durchgeführt.
In dieser Arbeit soll untersucht werden, wie die wesentlichen Einflussfaktoren auf den Stromverbrauch mithilfe der installierten automatischen Zähler identifiziert werden können.
Um herauszufinden, mit welchen Methoden der größte Informationsgehalt gewonnen werden kann, kommen verschiedene Methoden wie Kennzahlenvergleiche, die Darstellung als Sankey-Diagramm, objektspezifische Vergleiche und statistische Analysen sowie Energieganganalysen zur Anwendung.
Die erarbeiteten Auswertungen und Darstellungen zeigen sehr schnell, dass ohne eine Vielzahl an Subzählern keine sinnvollen Analysen möglich sind. Die große Anzahl an angeschlossenen Verbrauchern und deren variables Regelverhalten lassen aus den Daten (z. B. Summenzählern) anhand zusammengefasster Stromverläufe kaum Schlüsse für einzelne Gebäude zu. Es zeigt sich auch, dass eine einzelne Darstellungsform für alle Auswertungen keinen Sinn macht. In dieser Arbeit werden mögliche Einbauorte für die Stromzähler vorgeschlagen sowie Verfahren für eine durchdachte Auswertung der Energieverbräuche und Umsetzung in die Praxis angeführt.
In Europa und den USA werden rund 39 % des Energieverbrauchs durch den Betrieb von Gebäuden verursacht. Sie bieten somit großes Potential, den Gesamtenergieverbrauch zu verringern. Eine sinnvolle Möglichkeit dieser Umsetzung, ohne auf Gebäudekomfort verzichten zu müssen, liegt in der Optimierung der Gebäudeeffizienz. Dahingehend werden physikalische und datenbasierte Modelle als Planungstool für die Gebäudemodellierung verwendet, um frühzeitig Erkenntnisse über deren Energieverbrauch zu gewinnen. Während physikalische Modelle thermodynamische Prinzipien zur Modellierung des Energieverbrauchs einsetzen, verwenden datenbasierte Modelle historische oder allgemein verfügbare Daten, um ein Vorhersagemodell zu entwickeln. Das Ziel dieser Arbeit ist die Erstellung eines datenbasierten Modells, zur Prognose des Energieverbrauchs der Beleuchtung von Bürogebäuden. Es wurden bereits zahlreiche Studien hinsichtlich Prognosen des Energieverbrauchs erstellt. Die meisten beziehen sich jedoch auf den Gesamtenergieverbrauch oder jenen, welcher für Heizung, Kühlung oder Klimatechnik aufgewendet wird. Die Recherche des Autors ergab, dass vergleichsweise wenig Forschung für Vorhersagemodelle zur Ermittlung des Energieverbrauchs für die Beleuchtung betrieben wurde. Zur Umsetzung der Analyse stehen dem Autor Daten aus der Beleuchtungsinfrastruktur sowie Wetter-, Zeit- und Gebäudedaten zur Verfügung. Anhand dieser Arbeit soll eruiert werden, ob diese Daten hinreichend aussagekräftig sind, um ein geeignetes Modell zu entwickeln.
In times of global climate change, it is increasingly important to investigate emissions and resource consumption of all machines and, if possible, to improve them. This includes within the transport sector car ferries.
In order to reduce the environmental impacts of car ferries, the electrification has penetrated into this sector, which has led to the world's first fully electric car ferry. One of the most important components to operate this ferry is the energy storage. Not only the battery storage of the ferry itself is needed, but also an onshore battery storage system is needed to support the electrical grid.
The present study examines how storage technologies and concepts can impact the environment considering the world's first all-electric car ferry, MF Ampere, which operates in Norway.
To examine this, the current onshore battery storage system is compared to a concrete sphere storage system. For this purpose, data from the first test run of this new storage technology, which was successfully carried out by the Fraunhofer Institute in 2016, is considered. Subsequently, a life cycle assessment of the two storage systems is carried out to compare the environmental impacts.
The concrete sphere storage system performs better for 15 of 17 impact categories compared to the existing onshore battery storage system. Depending on the impact category the impact reduction is about 2% to 8%.
Nevertheless, it is difficult to estimate how long the useful life and how good the efficiency of the concrete ball storage will be, since no system of this size has been tested yet. Also, the costs of the concrete sphere storage system have not been considered.
Das Ziel der Masterarbeit ist es, ausgewählte Tankstellen an der A96 unter Voraussetzung einer vollständigen Elektrifizierung des deutschen PKW-Straßenverkehrs analog des heutigen Tankverhaltens zu dimensionieren.
Zu Beginn der Masterarbeit wird die elektrische Leistung berechnet, welche die deutschen PKW bei vollständiger Elektrifizierung des deutschen PKW-Straßenverkehrs benötigen werden. Um das Ergebnis auf Plausibilität überprüfen zu können, wird die Berechnung mit zwei verschiedenen Ansätzen vollzogen. Einerseits werden als Grundlage durchschnittliche Jahresfahrstrecken der Autofahrer/-innen verwendet und andererseits wird über den Primärenergiebedarf, den Fahrzeugbestand und den Wirkungsgraden von Ottomotoren und Elektromotoren die zu bestimmende Leistung berechnet.
Öffentliche Daten aus Verkehrszählungen sollen im weiteren Verlauf der Masterarbeit ausgewertet werden. Unter anderem erfolgt mit diesen Werten eine Modellbildung des Verkehrs, um den Verkehrsfluss mathematisch darzustellen und zu simulieren.
Die Durchführung einer Live-Messung an der Tankstelle Lechwiesen Nord sowie die nachträglich erlangten Daten zum tatsächlich stattgefundenen Verkehrsaufkommen sind für die Auswertung des in AnyLogic hinterlegtem mathematischen Modells essentiell. Auch für die Frage nach den zu tankenden Autos eines bekannten Verkehrsaufkommens sind diese hilfreich. Zur Bestimmung der Anzahl von Elektrozapfsäulen erfolgt eine iterative Annäherung an die Kurve des Tankverhaltens von Diesel- und Benzinautos. Als abschließendes Ergebnis werden für die Tankstelle Lechwiesen Nord und Lechwiesen Süd jeweils 20 Elektrozapfsäulen gefunden. Für den Autohof Aichstetten ergeben sich unter Berücksichtigung des Verkehrsaufkommens 27 zu installierende Elektrozapfsäulen, sodass ein identisches Tankverhalten von Elektroautos bei vollständiger Elektrifizierung des deutschen PKW-Straßenverkehrs angenommen werden kann.