Refine
Year of publication
Document Type
- Article (450)
- Master's Thesis (411)
- Conference Proceeding (395)
- Part of a Book (230)
- Book (107)
- Report (28)
- Other (18)
- Doctoral Thesis (14)
- Working Paper (9)
- Preprint (5)
- Part of Periodical (4)
- Periodical (3)
- Bachelor Thesis (1)
- Habilitation (1)
Institute
- Wirtschaft (350)
- Forschungszentrum Mikrotechnik (252)
- Technik | Engineering & Technology (192)
- Forschungszentrum Business Informatics (167)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (164)
- Soziales & Gesundheit (145)
- Forschungsgruppe Empirische Sozialwissenschaften (117)
- Forschungszentrum Human Centred Technologies (102)
- Forschungszentrum Energie (88)
- Didaktik (mit 31.03.2021 aufgelöst; Integration ins TELL Center) (68)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Digitalisierung (14)
- Soziale Arbeit (14)
- Controlling (11)
- Laser ablation (11)
- Y-branch splitter (11)
- arrayed waveguide gratings (11)
- +KDC 122 (9)
ÖMG Conference 2019
(2019)
In contrast to fossil energy sources, the supply by renewable energy sources likewind and photovoltaics can not be controlled. Therefore, flexibilities on the demandside of the electric power grid, like electro-chemical energy storage systems, are usedincreasingly to match electric supply and demand at all times. To control those flex-ibilities, we consider two algorithms that both lead to linear programming problems.These are solved autonomously on the demand side, i.e., by household computers.In the classic approach, an energy price signal is sent by the electric utility to thehouseholds, which, in turn, optimize the cost of consumption within their constraints.Instead of an energy price signal, we claim that an appropriate power signal that istracked in L1-norm as close as possible by the household has favorable character-istics. We argue that an interior point of the household’s feasibility region is neveran optimal price-based point but can result in a L1-norm optimal point. Thus, pricesignals can not parametrize the complete feasibility region which may not lead to anoptimal allocation of consumption.We compare the price and power tracking algorithms over a year on the base ofone-day optimizations regarding different information settings and using a large dataset of daily household load profiles. The computational task constitutes an embarrassingly parallel problem. To this end, the performance of the two parallel computation frameworks DEF [1] and Ray [2] are investigated. The Ray framework is used to run the Python applications locally on several cores. With the DEF frameworkwe execute our Python routines parallelly in a cloud. All in all, the results providean understanding of when which computation framework and autonomous algorithmwill outperform the other.
Czech and Slovak social work
(2019)
Verbraucherseitige Laststeuerung (Demand Side Management – DSM) wird als ein möglicher Ansatz betrachtet, um die Auswirkungen des Ausbaus von fluktuierenden Erneuerbaren im Stromnetz auszugleichen. Sollen viele verteilte Energiesysteme damit angesprochen werden, stellen zentralistische Ansätze dabei hohe Anforderungen an die Kommunikationsinfrastruktur. Als Alternative wird vielfach eine autonome Laststeuerung (ADSM) mit anreizbasierter Optimierung direkt auf dem Verbrauchergerät betrachtet. Dabei kann die Anreizfunktion mittels unidirektionaler Kommunikation übertragen werden.
Am Forschungszentrum Energie der Fachhochschule Vorarlberg wurden in den letzten Jahren Algorithmen und Prototypen für den Einsatz von ADSM auf verschiedensten verteilten Energiespeichern im elektrischen Stromnetz entwickelt. Dabei werden sowohl thermische Energiespeicher (z. B. Haushalts-Warmwasserspeicher) als auch elektrochemische Speicher (z. B. Batteriespeichersysteme oder Elektroautos) betrachtet. Außerdem werden die Auswirkungen solcher Systeme auf das elektrische Verteilnetz untersucht. Dieser Artikel gibt einen Überblick über die entwickelten Methoden und Ergebnisse aus diesem Forschungsfeld mit dem Ziel, ein weitreichendes Verständnis für die Chancen und Grenzen des ADSM zu schaffen.
Ursprünglich wurde für das K-Projekt „LiTech“ eine mobile und intuitive Robotersteuerung – mit Touchbedienung und Augmented Reality – programmiert. Ziel war es, einen Industrieroboter spontan steuern zu können, mit besonderem Augenmerk auf Laienfreundlichkeit. Das System besteht aus einem Roboter und einem PC der als Bildschirm eine mit kapazitivem Touch ausgestattete und von einem Projektor bespielte Glasscheibe hat. Daten werden als String über eine serielle Schnittstelle übermittelt. Zur Erforschung der Nutzerfreundlichkeit werden Bälle auf einer Ebene hin- und herbewegt. Zur Cloud-Datenauswertung und Erstellung der Visualisierung wurden mittlerweile weitere Forschungszentren der FH Vorarlberg eingebunden. Im laufenden Wintersemester arbeitet ein Praktikant aus Südamerika an der Erweiterung auf den kompletten 3D-Raum mit möglicher Implementierung einer Gestensteuerung. Ziel des Beitrags ist es, den Versuchsaufbau und die Steuerung des Roboters zu beschreiben sowie geplante Weiterentwicklungen aufzuzeigen.
We present the technological verification of a size-optimized 160-channel, 50-GHz silicon nitride-based AWG-spectrometer. The spectrometer was designed for TM-polarized light with a central wavelength of 850 nm applying our proprietary “AWG-Parameters” tool. For the simulations of AWG layout, the WDM PHASAR photonics tool from Optiwave was used. The simulated results show satisfying optical properties of the designed AWG-spectrometer. However, the high-channel count causes a large AWG size with standard design approaches. To solve this problem we designed a special taper enabling the reduction of AWG structure by about 15% while keeping the same optical properties. The AWG design was fabricated and the measured spectra not only confirm the proposed size-reduction but also the improvement of optical properties of the size-optimized AWG.
On the extension of digital ecosystems for SCM and customs with distributed ledger technologies
(2019)
Global supply chains represent the backbone of the modern manufacturing industry. Planning of global supply chains still represents a major hurdle, mainly because of the high complexity and unforeseen disruptions that have to be mastered for meeting the different logistics windows in a globally distributed production environment. Trust in supply chains is an additional challenge. A major – albeit sometimes overlooked - part of Supply Chain Management (SCM) is the management and integration of customs processes, clearing of tariffs, (re-)billing of customers, and fulfilling other legal requirements related to crossing borders, ranging from environmental standards over goods inspection to general paper work. With the exception of work offered by the World Customs Organization (WCO) the issue of customs and blockchain is still underrepresented in research and practice. In this paper, we look at innovations that drive the current ICTenabled SCM research and how these can be combined with smart customs management. After a literature review and introduction to the state-of-the-art, we list potential trust-based innovations for SCM and customs in digital business ecosystems. Based upon the innovations we also describe a requirements analysis of existing distributed ledger technologies (requirements for system layout, system configuration, system governance). A description of the prototype for the Lake Constance region – on which we are currently working – concludes the paper.
The photonic integrated circuits are required in the next generations of coherent terabit optical communications. The software tools for automated adjustment and coupling of optical fiber arrays to photonic integrated circuits has been developed. The obtained results are needed in final production phase in the technology process of photonic integrated circuits packaging.
We present design and simulation of 16-channel, 100-GHz silicon nitride based AWG using BeamPROP simulation engine of RSoft photonic tool. The AWG was designed for TM-polarized light with central wavelength of 850 nm. The input design parameters were calculated applying AWG-Parameters tool. For this purpose, we created a ridge waveguide structure, used in the design of the AWG layout, and performed FEM simulation. The output of the BPM simulation of AWG structure are the transmission characteristics, which was used to calculate transmission parameters defining optical properties of simulated AWG. The achieved simulation results are in a good agreement with the design.
Comparison of silicon nitride based 8-channel 100-GHz AWGs applying different waveguide structures
(2019)
This paper presents design and simulation of 8-channel, 100-GHz AWGs based on Si/SiO2/SiN/SiOx material platform. For the designs, two different waveguide structures were used, i.e. ridge and rib waveguides. AWGs were designed for central wavelength of 850 nm applying AWG-Parameters tool. The simulations were performed applying FEM and BPM methods in RSoft and PHASAR photonic tools. The simulation results show considerably lower losses but slightly higher channel crosstalk when applying rib waveguides.
We report resent results on the fabrication and characterization of carbon nanogap interdigitated electrode arrays (IDAs) for biosensor applications based on redox cycling. The electrochemical results of the carbon electrodes are compared to our fabricated gold electrodes with similar nanogap distances. The amplification factor and the collection efficiency were recorded by chronoamperometry. Cyclic voltammetry (CV) was utilized to determine the oxidation and reduction potentials as well as for monitoring the electron transfer process. The different deposited carbon materials were characterized by Raman spectroscopy.At present, we successfully fabricated carbon nanogaps down to 80 nm and we are convinced to reach the present fabrication limit of about 30 nm (for gold and platinum electrodes) with carbon as electrode material as well. To the best of our knowledge, this is the first IDA nanogap sensor, which features a gap distance under 100 nm with amorphous carbon as electrode material. Moreover, we present a signal amplification of 32 for carbon electrodes by redox cycling, which is the highest reported amplification so far.
Der Presse kam zu Beginn des 20. Jahrhunderts eine außerordentlich wichtige Rolle in der Auseinandersetzung zwischen den politischen Lagern, Sozialdemokratie, Deutschnationalismus und Christlich-Soziale Bewegung zu. Jedes der drei Lager hatte ihm mal mehr mal weniger zugeordnete Zeitungen, die reichsweit erschienen oder kleinere Lokal- und Provinzblätter waren. Der Pius-Verein zur Unterstützung der katholischen Presse engagierte sich in dieser Auseinandersetzung für die Sache des politischen Katholizismus. Seine Methoden bestanden in der politischen Agitation und im Sammeln von Spenden für katholische Zeitungen. Im Kronland Tirol war einer der aktivsten Ableger des Pius-Vereins tätig, mit Ortsgruppen in fast jeder Gemeinde.
Comparison of silicon nitride based 1x8 Y-branch splitters applying different waveguide structures
(2019)
This paper presents design, simulation and optimization of 1x8 Y-branch power splitters based on Si/SiO2/SiN/SiOx material platform. For the designs, two different waveguide structures were used, i.e. ridge and rib waveguides. The splitters were designed for 850 nm spectral optical window and the simulations were performed applying FEM and BPM methods in RSoft photonic tool. The aim of this work was to find minimum physical dimensions of the designed splitters occupying minimal space on PIC chip. The optimization was done with regards to high symmetrical splitting ratio and low insertion loss. Finally, the optical properties of both splitters were studied and compared with each other.
Compact and high-resolution 256-channel silicon nitride based AWG-spectrometer for OCT on a chip
(2019)
We present design, simulation and technological verification of a compact 256-channel, 42-GHz silicon nitride based AWG-spectrometer. The spectrometer was designed for TM-polarized light with a central wavelength of 850 nm, applying “AWG-Parameters” tool. This design is based on a previous study of various AWG designs (8-channel, 100-GHz; 20-channel, 50-GHz; 40-channel, 50-GHz, 80-channel, 50-GHz and 160-channel, 50-GHz AWGs), which were all technologically verified. The spectrometer features small size and high resolution. It is integrated on OCT chip using standard CMOS processes. The SD-OCT system is developed to operate in a wavelength range from 800 nm to 900 nm, having 0.1 nm resolution.
Here we present the highly sensitive detection of dopamine using gold nanogap IDAs with redox-cycling amplification. Through the combination with a facile electrochemical activation and a chronoamperometric multistep protocol fouling of the gold electrode surface can be prevented and a sensitivity of 14 nA μM -1 with excellent linearity up to 10 μM is achieved. The low-cost and reproducible wafer level fabrication process of the nanogap IDAs plays a key role. Electrode and substrate materials can be nearly arbitrarily chosen. Also the gap sizes could be adjusted down to sub-100 nm dimensions with this versatile approach, allowing for very high signal amplification. In comparison to the current gold standard, fastscan cyclic voltammetry (FSCV) with carbon fiber microelectrodes (CFMEs), which suffers from high background currents, no elaborate data processing and high-end electronic equipment is needed. Employing our flexible, easy and inexpensive method, DA monitoring with a short acquisition period and a detection limit less than 200 nM is successfully demonstrated.
Abstract: ams AG is a leading provider of sensing solutions developing semiconductor sensors in a wide variety of fields, with optical sensing as one of the key competences. Since integrated photonics is a promising technology for new sensor systems, ams AG has been developing processes for fully integrated CMOS-compatible photonic components based on Si3N4. This talk will provide an overview on the processing of basic photonic building blocks and their optical properties and performance. We will also give examples for applications in the fields of optical coherence tomography and opto-chemical gas sensing. In the 1980s photonics started its way for common use in telecommunication technology, using optical fiber technologies. In recent years, also a variety of photonic sensors has been proposed and developed. One of the major drawbacks of most of these photonic devices has been the lack of integration into existing (semiconductor) production processes, so far. This integration is feasible using SiN material systems to process monolithically integrated CMOS-compatible photonic sensors in the visible and near-infrared spectrum. We will present the basic processing steps for the SiN photonic technology, the development of some critical processing steps such as SiN deposition and SiN etching as well as several photonic components (waveguides, splitters, etc.) with their optical properties. One of the applications presented relates to optical coherence tomography (OCT), a fast growing imaging technique in ophthalmology. Drawbacks of existing OCT systems are their high costs as well as their bulkiness, which prevents a wider spread use of OCT systems.
One way to overcome both cost and size issues is to integrate optical and electrical components on a single chip.
Part of this work was carried out in the framework of the projects COHESION (funded by the Austrian Research Promotion Agency (FFG), no. 848588), OCTCHIP (funded by the EU’ Horizon 2020 research and innovation programme, no. 688173), and COLODOR (M-ERA.NET transnational Call 2015, funded by the Austrian Research Promotion Agency (FFG), no.854066, and the Bundesministerium für Bildung und Forschung, Germany).
Interstitial photodynamic therapy (iPDT) treats malignant brain cancer cells by irradiation with low power laser light. The light is guided into the human body by diffuse emitting fibers. This study targets the light distribution of optical diffusers within the brain tissue. It was shown, that by submerging an optical diffuser into human brain phantom, its radiation profile measured in air converges towards a Gaussian distribution with increasing phantom depth. A camera method using digital averaging filters as well as an integrating sphere setup, both, smoothing the diffuser radiation profile were applied onto the evaluated diffuser.
In engineering design, optimization methods are frequently used to improve the initial design of a product. However, the selection of an appropriate method is challenging since many
methods exist, especially for the case of simulation-based optimization. This paper proposes a systematic procedure to support this selection process. Building upon quality function deployment, end-user and design use case requirements can be systematically taken into account via a decision
matrix. The design and construction of the decision matrix are explained in detail. The proposed
procedure is validated by two engineering optimization problems arising within the design of box-type boom cranes. For each problem, the problem statement and the respectively applied optimization methods are explained in detail. The results obtained by optimization validate the use
of optimization approaches within the design process. The application of the decision matrix shows the successful incorporation of customer requirements to the algorithm selection.
Analysis of the (μ/μI,λ)-CSA-ES with repair by projection applied to a conically constrained problem
(2019)
Optical splitters are passive optical components, which have found applications in a wide range of telecom, sensing, medical and many other scientific areas.
Low-index contrast optical splitters (Silica-on-Silicon (SoS) based waveguide devices) feature many advantages such as low fiber coupling losses and low propagation losses. They are considered an attractive DWDM solution in the telecommunication for all optical signal processing in optical communication systems. Nowadays the steadily increasing data volume in communication networks is driven by a rapid proliferation of home-based and business computers, storage capacities, processing capabilities and the extensive availability of Internet. The challenge is to transfer high data volumes in short periods of time over high distances as lossless as possible. The task of the optical splitters in Fiber-to-the-x (FTTx) network is to split one optical signal in many identical signals bringing for example the same TV signal in different households. Of course, the more buildings can be served by one optical splitter the lower are the installation costs.
High-index contrast optical splitters (such as silicon, silicon nitride or polymer based waveguide devices) feature much smaller waveguide size compared to low index contrast splitters. Such compact devices can easily be implemented on-chip and have already been used in the development of optical sensors, devices for DNA diagnostics and for infrared spectroscopy.
We will present the latest achievements in the design of two mostly used optical splitters (MMI and Y-branch) and discuss their advantages and disadvantages. Finally, some applications of the splitters developed in the frame of various projects will be presented.
This work was carried out in the framework of the project PHOCOP (no. SK-AT-2017-0013) and NAMOPRISIN (no. SK-AT-2017-0005) from the Slovak research and development agency of the Ministry of Education, Science, Research and Sport of the Slovak Republic and SK 16/2018 and 15/2018 from OeAD-GmbH.
Die nachfolgende Arbeit befasst sich mit Hochstromwandlern für Schutzzwecke. Laut Aussage von Paul Scherrer finden sich diese in jedem Verteilnetz und tragen einen erheblichen Teil zur Sicherheit des Netzes bei. Im ersten Teil der Arbeit wird beschrieben, wie man bei der Dimensionierung bzw. der Auswahl eines Hochstromwandlers für Schutzzwecke vorgeht und welche technischen Parameter dafür notwendig sind. Der zweite Teil der Arbeit befasst sich damit, wie man die Auswahl sowohl wirtschaftlich als auch technisch im Bezug auf fiktive Zukunftsszenarien optimieren kann. Dafür liegen aktuelle Netzdaten der Energienetze Vorarlberg GmbH vor, welche für diese Arbeit anonymisiert wurden. Die fiktiven Zukunftsdaten sind Annahmen. Für den Prozess der Optimierung wurde ein Tool in Python angefertigt, welches eine optimierte Auswahl von Hochstromwandler für Schutzzwecke durchführt und diesen Prozess erleichtern soll. Dieses wird nach eigener Einschätzungen keine Verwendung in der Praxis finden, da es nur relevant sein wird, wenn man ein Stromnetz wie wir es heute in größeren Städten und Gemeinden finden, von null an neu aufbauen möchte.
Die Gebäudeenergieversorgung mittels kombinierter Erneuerbarer Energiesysteme wird in Zukunft häufiger realisiert werden. Dies liegt unter anderem am Fokus der aktuellen Energiepolitik, an der wachsenden Akzeptanz der Bevölkerung und an einer ständigen Verbesserung der Wohngebäudeeigenschaften. Die volatile Charakteristik des erneuerbaren Energieangebots stellt eine Herausforderung dar. Thermische Lastverschiebung ermöglicht es, durch die Speicherung thermischer Energie, Zeiten mit geringem Energieertrag zu überbrücken. Es werden in dieser Masterarbeit drei Methoden zur Lastverschiebung mittels Simulation einer Referenzwohnanlage mit 31 Wohnungen untersucht. Die Gebäudesimulation wird hierfür mit TRNSYS durchgeführt, die Simulation zum Vergleich der unterschiedlichen Methoden mit Polysun. Die untersuchten Methoden sind die Regeneration des Erdsondenfeldes einer Geothermiewärmepumpe, die Anhebung der Maximaltemperatur sensibler Wärmespeicher, sowie die Anhebung der Raumtemperatur in der Referenzwohnanlage. Die Ergebnisse zeigen, dass die Sondenregeneration eine effektive Methode zur Steigerung der Jahresarbeitszahl (JAZ) der Wärmepumpe und des solaren Deckungsbeitrags darstellt. Die Sondentemperatur kann im Referenzfall zeitweise sogar auf ein höheres Niveau angehoben werden. Durch die zusätzliche Kombination mit einer Erhöhung der Speichermaximaltemperatur, bei hohem solarthermischem Ertrag, kann eine weitere Steigerung der JAZ erreicht werden. Die Solarthermieanlage kann so den größten Temperaturbereich nutzen, was auch die solare Deckungsrate weiter anhebt. Die thermische Gebäudeaktivierung weist das größte Potential für die Steigerung des PV-Eigenverbrauchs auf und verbessert die JAZ der Wärmepumpe durch den vermehrten Betrieb im Niedertemperaturbereich bedeutend; Jedoch wächst der Heizwärmebedarf (HWB) für die untersuchte Referenzwohnanlage aufgrund der Raumtemperaturüberhöhung (RTÜ) dermaßen, dass sie den Benefit der zusätzlich genutzten erneuerbaren Energie übersteigt und diese Methode zur thermischen Lastverschiebung daher nicht empfehlenswert ist. Da die thermische Gebäudeaktivierung in dieser Studie für bestimmte Gebäudeeigenschaften und mittels Fußbodenheizung realisiert ist, wird darauf hingewiesen, dass die Ergebnisse nur bedingt übertragbar sind und bei veränderten Gebäudeeigenschaften stark abweichen können.
Low cost Solar Forecast
(2019)
In der vorliegenden Arbeit wird der Fokus auf die Konzeption eines kostengünstigen Systems zur Vorhersage der solaren Einstrahlung mittels stochastischer Methoden gelegt. Der Vorhersagezeitraum liegt zwischen einer und drei Stunden. Es wird auf die Gefahren der Stochastik und das Aufarbeiten von Daten für stochastische Methoden eingegangen. Bereits die zur Vorhersage verschiedener meteorologischer Daten verwendeten Methoden werden analysiert, angewendet und mittels des relativen Fehlers, dem Root Mean Square Error (Wurzel der mittleren Fehlerquadratsumme) (RMSE) und des Mean Absolute Deviation (MAD) untereinander verglichen. Es werden Kriterien zur Auswahl der zur Aufgabenstellung am besten passenden Methode ausgearbeitet. Die Recherche der vorhandenen stochastischen Methoden und die Anwendung dieser Methoden haben das Artificial Neural Network (künstliches neuronales Netzwerk) (ANN), das mit der Softwarebibliothek Tensorflow erstellt wurde, als die beste Methode hervorgebracht. Die Programmierung der einzelnen Methoden mittels Scikit-learn, Python und Tensorflow wird beschrieben und eine Vorhersage berechnet. Als Hardware wird einerseits ein kostengünstiger Einplatinencomputer, ein Raspberry Pi 3, und andererseits ein leistungsstarkes Notebook verwendet. Die jeweils benötigte Rechenzeit weist keine gravierenden Unterschiede auf. Anschließend wurden die berechneten Vorhersagen mit den vorhandenen Messdaten, der Persistence Method (Persistenz Methode) (PM) und der Vorhersage der Meteo-Schweiz verglichen. Die unterschiedlichen Diagramme der Vorhersagen und deren Genauigkeiten kommen im Verlauf zur Darstellung. Die relative Abweichung der Vorhersage des Artificial Neural Network (künstliches neuronales Netzwerk)(Tensorflow) (ANNT) von den Messdaten liegt über das Jahr 2017 gesehen bei 8.52% oder auf die Jahresenergie bezogen bei 87.3 kWh/m2 . Im Vergleich zur PM Methode weicht die ANNT Methode um 83.5 kWh/m2 und Jahr ab. Abschließend wird auf Verbesserungsmöglichkeiten und weiterführende Arbeiten eingegangen.
Alterungsvorgänge in einer Lithium-Ionen Akkumulatorzelle beeinflussen deren Eigenschaften und sind daher von besonderen Bedeutung für den Einsatz dieser Technologie. Diese Masterarbeit untersucht mikrostrukturelle Veränderung in zwei zylindrischen Lithium-Ionen Zellen (Type 26650) ohne Zentrierstift, die in Powerbanks verbaut sind. An den beiden Akkumulatoren, mit unterschiedlichen Alterungszustands, wird vergleichend beobachtet welche Unterschiede sich über die Alterung ergeben. Mittels Computertomographie und elektrischen Messungen wurden Daten während der zyklischen Alterung der Zellen gesammelt und ausgewertet. Es konnte gezeigt werden, dass der Verlauf des Kapazitätsverlustes abhängig vom Alterungszustand ist. Insgesamt ergab sich nach 507 Zyklen bei der Powerbank „Neu“ eine Reduzierung der aufgenommenen Energie um 16 % und der abgegebenen Energie um 20 %. Die Powerbank „Alt“ zeigte nach 317 Zyklen eine Reduzierung der aufgenommenen Energie von 19% und der abgegebenen Energie von 27% zum Ausgangswert. Der gemessene Kapazitätsverlust konnte nicht auf mikrostrukturelle Veränderungen während der Alterung zurückgeführt werden. Es zeigten sich besonders in der bereits gealterten Zelle (Powerbank „Alt“) deformierte Elektrodenschichten im Zellinneren und in der Näher der Stromableiter. Hinzukommt bei der Powerbank „Alt“, dass Kathode und Anode gegeneinander verschoben sind. Es konnte ebenfalls in der Powerbank „Alt“ eine neu entstandene Deformierung während der zyklischen Alterung beobachtet werden. Des Weiteren konnten auch Schweißgrate bei beiden Powerbanks auf den Stromableitern visualisiert werden.
Synthese von Gashydraten
(2019)
Bei Clathraten handelt es sich um Einschlussverbindungen, bei denen beliebige Gastmoleküle in einem Käfig bzw. Gitter von beliebigen Wirtsmolekülen eingeschlossen sind. Bei hohem Druck und niedriger Temperatur können beispielsweise Gasmoleküle in einem Wirtsgitter aus Wassermolekülen eingelagert werden. Natürlich vorkommende Hydrate in den Tiefeneisfeldern der Schelfmeere und in Permafrostgebieten zu finden und haben hauptsächlich Methan als Gastgas. Im Forschungsbereich Energie der Fachhochschule Vorarlberg (FHV) werden die Bildungs- und Zerfallsprozesse von Gashydraten erforscht. Für die Herstellung dieser Proben ist ein Mikroreaktor vorhanden, mit dem keine zufriedenstellenden Ergebnisse erzielt werden können, da die Dauer der Bildung von ausreichenden Mengen an Hydratproben hoch ist. Obwohl die Synthese von Hydraten bereits mehrfach Gegenstand der Forschung war und es weiterhin ist, besteht nach wie vor ein großes Potential in der Beschleunigung des Wachstumsprozesses von Hydraten. Da der Beginn des Hydratwachstums durch einen stochastischen Prozess ausgelöst wird, kann die Dauer der Keimbildung bzw. bis zum Beginn des Kristallwachstums viel Zeit in Anspruch nehmen. Für weitere Forschungsarbeiten im Forschungsbereich Energie der FHV ist eine beschleunigte und technisch einfache Herstellung von Hydraten von hoher Wichtigkeit. Deshalb ist der Fokus bzw. das Thema dieser Arbeit die Entwicklung eines neuartigen Versuchsreaktors, der die Möglichkeit bietet, verschiedene bekannte sowie neue Methoden für die Synthese von Gashydrat anzuwenden und für die Herstellung von Hydratproben untereinander zu kombinieren. Der im Zuge dieser Arbeit entwickelte Versuchsreaktor ist so aufgebaut, dass mehrere aus der Literatur bekannte Synthesemethoden, sowohl einzeln wie auch in Kombination untereinander, verwendet werden können. Als zusätzliche und neuartige Synthesemethode ist eine Baugruppe des Aufbaus darauf ausgelegt, das Hydratwachstum ausschließlich aus der Gasphase zu ermöglichen. Der Versuchsaufbau verfügt über mehrere Temperaturfühler und einen Druckaufnehmer, die über ein Datenerfassungssystem eine Steuerung und eine Überwachung des Herstellungsprozesses erlauben. Es wurden neben verschiedenen Inbetriebnahmetests insgesamt drei Versuche zur Ermittlung der Tauglichkeit des Systems zur Hydratsynthese durchgeführt. In jeder dieser drei Versuchsreihen konnten neue Erkenntnisse bezüglich des Wachstumsprozesses von Hydraten gewonnen werden, die auch in der gesichteten Literatur bisher nicht dokumentiert sind. Weiters wurde die neuartige Synthesemethode aus der Gasphase erprobt. Obwohl diese grundsätzlich funktioniert, sind die erreichbaren Produktionsraten prozessbedingt niedrig. Das Ziel, Hydratproben einfach und schnell erzeugen zu können, konnte mit dem entwickelten Versuchsreaktor erreicht werden.
Heimische Ladevorgänge von Elektroautos sind ein zusätzlicher Faktor in dem Wandel, dem Verteilnetze ausgesetzt sind. Aufgrund der typischen langen Parkzeiten bietet das Laden von Elektroautos jedoch einen hohen Grad an Flexibilität, mit deren Hilfe die Netzbelastung entscheidend verringert werden kann und weitere Dienstleistungen, auch in höheren Netzebenen, erbracht werden können. Die vorliegende Arbeit bewertet mit dem Instrument der Nutzwertanalyse fünf Ladestrategien, wie die Koordinierung von Ladevorgängen nutzbringend eingesetzt werden kann. Dazu werden im ersten Schritt Kriterien auf Basis der Literaturrecherche sowie der gegebenen Informationsgrundlagen der betrachteten Systeme definiert. Um eine neutralere Bewertung zu ermöglichen, wird die Gewichtung der Kriterien zusätzlich von einem Vertreter eines Verteilernetzbetreibers und einem Energieversorger vorgenommen. Mit den Ergebnissen der Bewertung werden die Systeme hinsichtlich ihres Nutzens unter Berücksichtigung der Bedeutung für die jeweiligen Parteien verglichen. Dabei werden die Stärken und Schwächen der Systeme herausgestellt und mögliche Interessenskonflikte lokalisiert. Ebenfalls wird auf die Eignung der Nutzwertanalyse als Werkzeug zur Bewertung der Systemkonzepte eingegangen. Im Anschluss wird der Grundaufbau eines Systems vorgestellt, welches aufgedecktes Potential zur Weiterentwicklung der bewerteten Systeme nutzt und damit zu einem größeren Gesamtnutzen führen kann.
Der Befeuchtungs-Entfeuchtungs-Prozess (HDH) wird zur Meerwasserentsalzung eingesetzt und bietet Vorteile wie die Nutzung von Wärme auf einem geringen Temperaturniveau sowie die Realisierbarkeit dezentraler Anlagen. Bei diesem Prozess wird Luft im Kontakt mit warmem Salzwasser im Optimalfall bis zur Sättigung befeuchtet. Die feuchte Luft wird anschließend abgekühlt, um das in ihr befindliche Wasser wieder zu kondensieren. Obwohl der HDH-Prozess bereits mehrfach Gegenstand der Forschung war, besitzt die Effizienz des Prozesses nach wie vor ein hohes Steigerungspotential. Das Ziel dieser Masterarbeit besteht in der Konzeption und der Realisierung eines Versuchsaufbaus zur Analyse der Befeuchtung von Luft in Wasser. Dabei soll der Untersuchungsgegenstand zukünftiger Versuche die Befeuchtereinheit sein, die ein hohes Potential hinsichtlich der Effizienzsteigerung von HDH-Systemen bietet. In neueren Publikationen wurden zum Einsatz in HDH-Systemen Blasensäulenbefeuchter als eine bessere Alternative zu Festbettbefeuchtern oder Sprühtürmen vorgeschlagen, weswegen die Befeuchtung in solchen Aggregaten näher untersucht werden muss. Das Hauptziel dieser Masterarbeit ist ein Versuchsaufbau, der die Möglichkeit bietet, die Parameter, die die Befeuchtung von Luft in einer Blasensäule maßgeblich beeinflussen, mit einer ausreichenden Genauigkeit zu messen, um aus diesen Messungen semiempirische Korrelationen ableiten zu können. Die die Befeuchtung von Luft maßgeblich beeinflussenden Parameter sind die Wassertemperatur, der Füllstand im Befeuchter, die Luftgeschwindigkeit sowie die Blasengröße.
Zum aktuellen Stand ist ein HDH-System, bestehend aus einem Blasensäulenbefeuchter, einem Querstromwärmetauscher sowie einer Dosierpumpe errichtet. Mit diesem System können wissenschaftlich notwendige empirische Zusammenhänge zwischen den die Befeuchtung beeinflussenden Parametern und der Befeuchtung von Luft aus Versuchen abgeleitet werden. Die im Versuchsaufbau verbaute Messtechnik wurde derart ausgewählt, dass deren Einfluss auf das System so gering wie möglich gehalten werden kann.
Mit dem Versuchsaufbau ist es darüber hinaus möglich, invasive Messmethoden mit nicht invasiven Messmethoden direkt zu vergleichen. Um eine für die Messungen optimale Befeuchtergeometrie zu finden, sind zwei Blasensäulenbefeuchtereinheiten aufgebaut, davon eine mit planarem und eine mit zylindrischem Querschnitt. So ist es möglich, im Direktvergleich die Vor- und Nachteile der Querschnittsanordnungen nachzuweisen. Die Komponenten der beiden HDH-Systeme wurden anhand von wissenschaftlich akzeptierten Modellen bezüglich der dazugehörigen Wärmeübertragungsraten, der Wärmeverluste und der Druckverluste ausgelegt.
Eine Modellierung des Stoffübergangs in der Blasensäule ist durchgeführt. Anhand dieser Modellierung konnte der Stoffübergangskoeffizient in der Grenzschicht zwischen Luftblase und Flüssigkeitssäule ermittelt werden. Anhand einer Massenbilanz konnte über den Stoffübergangskoeffizienten die Austrittswasserbeladung der feuchten Luft modelliert werden.
Die Funktionalität des Versuchsaufbaus ist gegeben. Messungen des Gasgehalts zeigen eine sehr gute Übereinstimmung mit wissenschaftlich anerkannten Korrelationen zum Gasgehalt. Die optische Zugänglichkeit des Versuchsaufbaus ist evaluiert und lässt die Tendenz ableiten, dass sich ein planarer Befeuchterquerschnitt in Verbindung mit Fotoaufnahmen von den durchgeführten Varianten am besten zur digitalen Bildanalyse eignet.
Aus den Experimenten, die am realisierten Versuchsaufbau durchgeführt werden, kann sich eine allgemeingültige Auslegungsgrundlage für Versuchsaufbauten ergeben, mit denen Messungen der Befeuchtung von Luft in Blasensäulenbefeuchtern durchgeführt werden sollen.
The master thesis concentrates on two different cases to generate energy from MSW. In the first case, the MSW is incinerated in an incineration plant. This approach represents the present situation in the waste treatment in large parts of the UK.
In the second case, the OFMSW is separated in a treatment facility and used in a fermentation plant. The remaining waste is again used as a feedstock in an incineration plant. The difference in the net energy yield between these two cases is investigated in this thesis.
To calculate the difference in the energy yield of case 1 and case 2, a research of the existing literature about comparisons of incineration and fermentation plants and their results are reflected and data about the MSW in the UK is collected. With the input of the literature and the researched data, a model is built which compares the two different cases of waste treatment. The results of the comparisons are then examined by varying different parameters. This step is repeated by using different input parameters. Afterwards, the results are compared and analysed.
In the next part of the thesis, an economic analysis of the incineration and fermentation combined technology plant is made. In this analysis, the investment costs, the annual profits and the annual costs of an additional fermentation plant are discussed and calculated. The result of the analysis is displayed as an amortization time calculation. The results are then analysed by varying the parameters in a sensitivity analysis.
Finally, the research question is answered and a forecast for possible plant designs with an incineration and a fermentation plant in combination are discussed.
Durch den vermehrten Ausbau dezentraler Energieerzeugungsanlagen gewinnt verbraucherseitiges Lastmanagement für die Netzbetreiber immer mehr an Bedeutung. Neue Möglichkeiten zur Laststeuerung bei Haushalten ergeben sich durch den Einsatz von intelligenten Stromzählern, sogenannten Smart Metern, da sie über eine Kommunikationsschnittstelle mit fernparametrierbarem Schaltrelais verfügen und den Stromverbrauch im Viertelstundenraster aufzeichnen können. Diese Masterarbeit untersucht eine Methode, mit der Lastverschiebungsmaßnahmen bei elektrischen Warmwasserspeichern durchgeführt werden können. Die Lastverschiebung wird lediglich durch die Funktionalitäten eines Smart Meter bewerkstelligt. Dabei ist das Ziel, eine Lastverschiebungsmethode zu finden, die vom Netzbetreiber simpel implementiert werden kann und mindestens den gleichen Komfortansprüchen genügt, die eine traditionelle Nachttarifschaltung aufweist. Die Schwierigkeit liegt hierbei in der Einschränkung, dass der Netzbetreiber vom Stromverbrauch der Speicher auf den Warmwasserbedarf der Kunden schließen muss.
Mit Hilfe eines thermodynamischen Modells werden verschiedene Lastverschiebungsszenarien bei mehreren Haushalten angewendet. Über die Simulation des Temperaturverlaufs wird ferner auf die Qualität der Warmwasserbereitung geschlossen und mit jener der klassischen Nachttarifsteuerung verglichen. Liegt die Temperatur häufiger unter einem bestimmten Mindestniveau als jene bei der Nachttarifschaltung, gilt die Qualität als nicht ausreichend. Die Ergebnisse der Untersuchung zeigen, dass mit der vorgestellten Methode für jeden Haushalt eine Lastverschiebung gefunden werden kann, die für den Netzbetreiber Vorteile bringt und die Mindestanforderungen an den Kundenkomfort erfüllt oder teilweise sogar verbessert. Es konnte festgestellt werden, dass mit der vorgestellten Methode der Großteil der Heizenergie (mindestens 60% bei allen Haushalten) in der ersten Tageshälfte zur Verfügung gestellt werden muss. Zusätzlich ergeben sich Energieeinsparungen, da die Beheizung des Speichers und der Warmwasserbedarf besser aufeinander abgestimmt werden. Mit der gezeigten Methode könnten Lastverschiebungsmaßnahmen schnell und einfach vom Netzbetreiber eingeführt werden, jedoch gilt es davor Einschränkungen wie die Legionellen-Problematik und Kundenkommunikation oder -akzeptanz zu klären.
In the residential construction industry, the focus on energy efficiency and cost effectiveness has been gaining importance. In order to achieve these contradicting objectives, a shift towards a reduced complexity in building practices can be observed.
Within the HVAC sector, the Tempering method for space heating has received particular attention as an alternative way to heat museums and buildings worthy of preservation.
In spite of the simplified design, this space heating system is claimed to offer significant advantages in its present field of application.
This study evaluates the implementation of Tempering in the residential context. So far, there is no scientific research on the implementation of Tempering in energy efficient-dwellings.
This master thesis provides initial results on achievable heat flux values, the impact on heat generation efficiency, the inherent installation costs as well as the particular
consequences in terms of end energy consumption of the building as a whole. The findings are compared to the individual performances of well-established heat emission approaches.
By means of a numerical analysis and a case study on a real-case single-family home, it is found that the heat flux values of Tempering systems suffice for the implementation within buildings, which comply with the low-energy building standard. Comparing radiant walls, radiant floors and radiators, the inherent installation costs are lowest for Tempering and radiant floors. The impact on the end energy consumption depends largely on the utilised heat generation system. With a gas-condensing boiler, Tempering performs equal to the radiant systems. When a ground source heat pump system is installed, however, Tempering performs poorly and accounts for a significantly increased energy consumption. Radiator systems are found to be the most energy-efficient method for space heating in both cases.
Obwohl der Energiebedarf eines Krankenhauses nur ca. 1,2% der Gesamtkosten ausmacht, werden Energieeinsparmaßnahmen und -optimierungen immer wichtiger. Neben dem steigenden Umweltbewusstsein wird auch der Kostendruck in diesem Dienstleistungssektor immer größer. Trotz der in vielen Krankenhäusern vorhandenen und gut ausgebauten Gebäudeleittechnik fehlt oft das Detailwissen über den Energieverbrauch und deren Verursacher.
Aufgrund der großen Anzahl an verwendeten Geräten und Kleinverbrauchern sowie der vielen gebäudetechnischen Großgeräte ist eine genaue Ursachensuche kein leichtes Unterfangen. Auch im Krankenhaus Feldkirch sind eine Vielzahl automatischer Stromzähler installiert und im Energiemonitoringsystem aufgeschaltet. Dennoch ist aktuell nur der Gesamtstromverbrauch bekannt und verwertbar. Analysen auf Gebäude oder Anlagen-Ebene werden nur sehr wenige durchgeführt.
In dieser Arbeit soll untersucht werden, wie die wesentlichen Einflussfaktoren auf den Stromverbrauch mithilfe der installierten automatischen Zähler identifiziert werden können.
Um herauszufinden, mit welchen Methoden der größte Informationsgehalt gewonnen werden kann, kommen verschiedene Methoden wie Kennzahlenvergleiche, die Darstellung als Sankey-Diagramm, objektspezifische Vergleiche und statistische Analysen sowie Energieganganalysen zur Anwendung.
Die erarbeiteten Auswertungen und Darstellungen zeigen sehr schnell, dass ohne eine Vielzahl an Subzählern keine sinnvollen Analysen möglich sind. Die große Anzahl an angeschlossenen Verbrauchern und deren variables Regelverhalten lassen aus den Daten (z. B. Summenzählern) anhand zusammengefasster Stromverläufe kaum Schlüsse für einzelne Gebäude zu. Es zeigt sich auch, dass eine einzelne Darstellungsform für alle Auswertungen keinen Sinn macht. In dieser Arbeit werden mögliche Einbauorte für die Stromzähler vorgeschlagen sowie Verfahren für eine durchdachte Auswertung der Energieverbräuche und Umsetzung in die Praxis angeführt.
In Europa und den USA werden rund 39 % des Energieverbrauchs durch den Betrieb von Gebäuden verursacht. Sie bieten somit großes Potential, den Gesamtenergieverbrauch zu verringern. Eine sinnvolle Möglichkeit dieser Umsetzung, ohne auf Gebäudekomfort verzichten zu müssen, liegt in der Optimierung der Gebäudeeffizienz. Dahingehend werden physikalische und datenbasierte Modelle als Planungstool für die Gebäudemodellierung verwendet, um frühzeitig Erkenntnisse über deren Energieverbrauch zu gewinnen. Während physikalische Modelle thermodynamische Prinzipien zur Modellierung des Energieverbrauchs einsetzen, verwenden datenbasierte Modelle historische oder allgemein verfügbare Daten, um ein Vorhersagemodell zu entwickeln. Das Ziel dieser Arbeit ist die Erstellung eines datenbasierten Modells, zur Prognose des Energieverbrauchs der Beleuchtung von Bürogebäuden. Es wurden bereits zahlreiche Studien hinsichtlich Prognosen des Energieverbrauchs erstellt. Die meisten beziehen sich jedoch auf den Gesamtenergieverbrauch oder jenen, welcher für Heizung, Kühlung oder Klimatechnik aufgewendet wird. Die Recherche des Autors ergab, dass vergleichsweise wenig Forschung für Vorhersagemodelle zur Ermittlung des Energieverbrauchs für die Beleuchtung betrieben wurde. Zur Umsetzung der Analyse stehen dem Autor Daten aus der Beleuchtungsinfrastruktur sowie Wetter-, Zeit- und Gebäudedaten zur Verfügung. Anhand dieser Arbeit soll eruiert werden, ob diese Daten hinreichend aussagekräftig sind, um ein geeignetes Modell zu entwickeln.
In times of global climate change, it is increasingly important to investigate emissions and resource consumption of all machines and, if possible, to improve them. This includes within the transport sector car ferries.
In order to reduce the environmental impacts of car ferries, the electrification has penetrated into this sector, which has led to the world's first fully electric car ferry. One of the most important components to operate this ferry is the energy storage. Not only the battery storage of the ferry itself is needed, but also an onshore battery storage system is needed to support the electrical grid.
The present study examines how storage technologies and concepts can impact the environment considering the world's first all-electric car ferry, MF Ampere, which operates in Norway.
To examine this, the current onshore battery storage system is compared to a concrete sphere storage system. For this purpose, data from the first test run of this new storage technology, which was successfully carried out by the Fraunhofer Institute in 2016, is considered. Subsequently, a life cycle assessment of the two storage systems is carried out to compare the environmental impacts.
The concrete sphere storage system performs better for 15 of 17 impact categories compared to the existing onshore battery storage system. Depending on the impact category the impact reduction is about 2% to 8%.
Nevertheless, it is difficult to estimate how long the useful life and how good the efficiency of the concrete ball storage will be, since no system of this size has been tested yet. Also, the costs of the concrete sphere storage system have not been considered.
Das Ziel der Masterarbeit ist es, ausgewählte Tankstellen an der A96 unter Voraussetzung einer vollständigen Elektrifizierung des deutschen PKW-Straßenverkehrs analog des heutigen Tankverhaltens zu dimensionieren.
Zu Beginn der Masterarbeit wird die elektrische Leistung berechnet, welche die deutschen PKW bei vollständiger Elektrifizierung des deutschen PKW-Straßenverkehrs benötigen werden. Um das Ergebnis auf Plausibilität überprüfen zu können, wird die Berechnung mit zwei verschiedenen Ansätzen vollzogen. Einerseits werden als Grundlage durchschnittliche Jahresfahrstrecken der Autofahrer/-innen verwendet und andererseits wird über den Primärenergiebedarf, den Fahrzeugbestand und den Wirkungsgraden von Ottomotoren und Elektromotoren die zu bestimmende Leistung berechnet.
Öffentliche Daten aus Verkehrszählungen sollen im weiteren Verlauf der Masterarbeit ausgewertet werden. Unter anderem erfolgt mit diesen Werten eine Modellbildung des Verkehrs, um den Verkehrsfluss mathematisch darzustellen und zu simulieren.
Die Durchführung einer Live-Messung an der Tankstelle Lechwiesen Nord sowie die nachträglich erlangten Daten zum tatsächlich stattgefundenen Verkehrsaufkommen sind für die Auswertung des in AnyLogic hinterlegtem mathematischen Modells essentiell. Auch für die Frage nach den zu tankenden Autos eines bekannten Verkehrsaufkommens sind diese hilfreich. Zur Bestimmung der Anzahl von Elektrozapfsäulen erfolgt eine iterative Annäherung an die Kurve des Tankverhaltens von Diesel- und Benzinautos. Als abschließendes Ergebnis werden für die Tankstelle Lechwiesen Nord und Lechwiesen Süd jeweils 20 Elektrozapfsäulen gefunden. Für den Autohof Aichstetten ergeben sich unter Berücksichtigung des Verkehrsaufkommens 27 zu installierende Elektrozapfsäulen, sodass ein identisches Tankverhalten von Elektroautos bei vollständiger Elektrifizierung des deutschen PKW-Straßenverkehrs angenommen werden kann.
Damit eine möglichst ausfallsichere Energieversorgung und Energieübertragung gewährleistet werden kann, werden verschiedene Betriebsmittel benötigt. Diese Betriebsmittel müssen gewisse Genauigkeitsgrenzwerte einhalten. In dieser Masterarbeit wird die Prüfung der Genauigkeit von Stromwandlern diskutiert. Die Ermittlung der Genauigkeit kann durch das Einspeisen eines Primärnennstroms (einige kA) und eine Messung des Sekundärstroms erfolgen. Daraus wird der Übertragungsfehler bestimmt. Die Genauigkeit wird unter anderem durch den Übertragungsfehler beschrieben, welcher sich aus dem Übersetzungsfehler und dem Phasenfehler zusammensetzt. Es wird bei diesem Verfahren von der Primärmethode oder auch Primärstrommethode gesprochen, dies ist die Referenzmessung nach den Normen IEC 61869-2 und IEEE C57.13. Die Firma OMICRON electronics GmbH entwickelte ein modellbasiertes Messverfahren, das den Einsatz eines mobilen und leichten Messgeräts erlaubt. Das Messgerät wird CT Analyzer genannt. Bei Verwendung dieser Methode werden keine hohen Ströme verwendet, was den BenutzerInnen zusätzlich eine höhere Sicherheit für die Bedienung des Geräts bietet. Mit diesem Messverfahren werden die einzelnen Komponenten des elektrischen Ersatzschaltbildes des Transformators bestimmt. Mit den ermittelten Komponenten kann dann der Übertragungsfehler berechnet werden. Das modellbasierte Messverfahren beruht auf Messungen, die von der Sekundärseite des Stromwandlers her durchgeführt werden. Man spricht bei diesem Messverfahren von der Sekundärspannungsmethode, welche inzwischen in der Norm IEC 61869-2 als alternative Messung angeführt ist. Der Vorteil der Primärmethode ist die Hoch-Präzisionsmessung, da die Prüfung unter realen Bedingungen und mit einer direkten Messung durchgeführt wird. Die Genauigkeit dieser Methode wird durch die Messtechnik selbst bestimmt, sie ist sehr genau und daher als Referenz gültig. Das Ziel der Sekundärspannungsmethode ist es, den Vorteil der Hoch- Präzisionsmessung für die Sekundärspannung zu nützen. Da es sich um ein modellbasiertes Messverfahren handelt, wird die Messgenauigkeit bei diesem Verfahren durch das angewandte Modell bestimmt und nicht durch die Messtechnik wie bei der Primärmethode. Daher sind Untersuchungen am Modell notwendig. Es gibt einige wenige Stromwandlertypen, bei denen es größere nicht akzeptable Differenzen zwischen der Primärmethode und der Sekundärspannungsmethode gibt. Diese Masterarbeit befasst sich deshalb mit Untersuchungen von Möglichkeiten und Grenzen der Sekundärspannungsmethode. Zu Beginn wird eine theoretische Sensitivitätsanalyse mathematisch erarbeitet. In diesem Zusammenhang wird der komplexe Fehlervektor eines Stromwandlers eingeführt. Diese Sensitivitätsanalyse dient der Ermittlung des Einflusses auf den komplexen Fehler in Abhängigkeit von verschiedenen Parametern und zur Auswahl von Stromwandler-Testobjekten. Des Weiteren wird die Sensitivitätsanalyse durch Messungen an verschiedenen Stromwandlern verifiziert. Die Untersuchungen basieren auf MATLAB-Simulationen und Messungen mit dem OMICRON Messgerät CT Analyzer, welches die Sekundärspannungsmethode anwendet. Die Ergebnisse werden mit den Herstellerdaten (Primärmethode) verglichen und analysiert werden.
Progress in integrated photonics enables development of integrated photonics circuits with new unique properties, circuits of the future, and overcomes current limits in information and communication technologies. The packaging of photonic integrated circuits is necessary for taking them out of research laboratories into real implementation in the information and communication technology applications.
Telecom optical fibers are still being the best transmission medium of digital data and analogue signals for long distance applications. The effective coupling of optical radiation between telecom optical fiber with ten microns core dimension and photonic integrated circuits optical waveguides with submicron dimensions are necessary. To address these challenges, we present our concept of photonics integrated circuit packaging with radio frequency, direct current and fiber array ports with automated active alignment system.
Stress testing is part of today’s bank risk management and often required by the governing regulatory authority. Performing such a stress test with stress scenarios derived from a distribution, instead of pre-defined expert scenarios, results in a systematic approach in which new severe scenarios can be discovered. The required scenario distribution is obtained from historical time series via a Vector-Autoregressive time series model. The worst-case search, i.e. finding the scenario yielding the most severe situation for the bank, can be stated as an optimization problem. The problem itself is a constrained optimization problem in a high-dimensional search space. The constraints are the box constraints on the scenario variables and the plausibility of a scenario.
The latter is expressed by an elliptic constraint. As the evaluation of the stress scenarios is performed with a simulation tool, the optimization problem can be seen as black-box optimization problem. Evolution Strategy, a well-known optimizer for black-box problems, is applied here. The necessary adaptations to the algorithm are explained and a set of different algorithm design choices are investigated. It is shown that a simple box constraint handling method, i.e. setting variables which violate a box constraint to the respective boundary of the feasible domain, in combination with a repair of implausible scenarios provides good results.
Breath analysis holds great promise for real-time and non-invasive medical diagnosis. Thus, there is a considerable need for simple-in-use and portable analyzers for rapid detection of breath indicators for different diseases in their early stages. Sensor technology meets all of these demands. However, miniaturized breath analyzers require adequate breath sampling methods. In this context, we propose non-contact sampling; namely the collection of breath samples by exhalation from a distance into a miniaturized collector without bringing the mouth into direct contact with the analyzing device. To evaluate this approach different breathing maneuvers have been tested in a real-time regime on a cohort of 23 volunteers using proton transfer reaction mass spectrometry. The breathing maneuvers embraced distinct depths of respiration, exhalation manners, size of the mouth opening and different sampling distances. Two inhalation modes (normal, relaxed breathing and deep breathing) and two exhalation manners (via smaller and wider lips opening) forming four sampling scenarios were selected. A sampling distance of approximately 2 cm was found to be a reasonable trade-off between sample dilution and requirement of no physical contact of the subject with the analyzer. All four scenarios exhibited comparable measurement reproducibility spread of around 10%. For normal, relaxed inspiration both dead-space and end-tidal phases of exhalation lasted approximately 1.5 s for both expiration protocols. Deep inhalation prolongs the end-tidal phase to about 3 s in the case of blowing via a small lips opening, and by 50% when the air is exhaled via a wide one. In conclusion, non-contact breath sampling can be considered as a promising alternative to the existing breath sampling methods, being relatively close to natural spontaneous breathing.
Adult muscle carnitine palmitoyltransferase (CPT) II deficiency is a rare autosomal recessive disorder of long-chain fatty acid metabolism. It is typically associated with recurrent episodes of exercise-induced rhabdomyolysis and myoglobinuria, in most cases caused by a c.338C > T mutation in the CPT2 gene. Here we present the pedigree of one of the largest family studies of CPT II deficiency caused by the c.338C > T mutation, documented so far. The pedigree comprises 24 blood relatives
of the index patient, a 32 year old female with genetically proven CPT II deficiency. In total, the mutation was detected in 20 family members, among them five homozygotes and 15 heterozygotes. Among all homozygotes, first symptoms of CPT II deficiency occurred during childhood. Additionally, two already deceased relatives of the index patient were carriers of at least one copy of the genetic variant, revealing a remarkably high prevalence of the c.338C > T mutation within the tested family. Beside the index patient, only one individual had been diagnosed with CPT II deficiency prior to this study and three cases of CPT II deficiency were newly detected by this family study, pointing
to a general underdiagnosis of the disease. Therefore, this study emphasizes the need to raise awareness of CPT II deficiency for correct diagnosis and accurate management of the disease.
Transparent laser-structured glasses with superhydrophilic properties for anti-fogging applications
(2019)
Ultrashort pulse laser structuring enables direct modification of glass surfaces to generate superhydrophilic properties for anti-fogging applications. This approach makes coatings dispensable and the generated surfaces remain thermally, mechanically, and chemically resistant. However, the laser-generated structures usually cause scattering, which decreases transmission and may disturb the vision through the modified glass in the dry state. The aim of this study was to find a laser-processing strategy to achieve superhydrophilic, anti-fogging properties on glass surfaces with maximum transmission and minimal visual perception of the generated structure. For this purpose, we used an ultrashort-pulsed laser to generate periodic patterns of rippled circles or rough holes with varying pitch. The water contact angle and transmission of the structured glasses were measured as a function of the structured area. It was found that a periodic pattern of holes, which covers less than 1% of the surface, is already sufficient to reach the superhydrophilic state (contact angle < 5°) and provides nearly the same transmission as pristine glass. Pictures of objects imaged through dry, structured glasses, which were placed close to the lens or object, showed in both cases only a minimal decrease of contrast. If this minor drawback can be accepted, this direct laser structuring approach could be an interesting alternative to coating-based techniques and leaves even room to apply additional coatings for the fabrication of multi-functional special glasses.
Verstärkt der Handel mit Agrar-Derivaten die Preisschwankungen von Agrar-Produkten? In der politischen Diskussion wird diese These oft als Grund für eine strenge Reglementierung des Handels mit Agrar-Derivaten angeführt. Hier diskutiere ich die Voraussetzungen, auf denen verschiedene Argumente für diese These beruhen. Eine zentrale Rolle dabei spielen die Begriffe von Gleichgewicht und Selbstreferenz. Diese Begriffe spielen in der Logik und der Physik eine wichtige Rolle, haben aber in der Ökonomie erstaunliche Konsequenzen.
In dieser Arbeit wird Supervised Learning verwendet, um die Zuverlässigkeit von Schweißverbindungen zu evaluieren.
Um die Schweißqualität zu bestimmen, wurden End of Life Tests durchgeführt. Für die statistische Auswertung und Vorhersage der zu erwartenden Lebensdauer, wurden die Daten basierend auf einer logarithmischen Normalverteilung und mit einer multivariablen linearen Regression modelliert. Um die signifikanten Einflussfaktoren zu identifizieren, wurde eine schrittweise Regression genutzt. Die Ergebnisse zeigen, dass das entwickelte Modell die Zuverlässigkeit und Lebensdauer der Schweißverbindung akkurat abbildet und präzise Vorhersagen liefern kann.
Concept of probabilistic modeling for real-time prediction of product quality and design automation
(2018)
A multi-recombinative active matrix adaptation evolution strategy for constrained optimization
(2019)
SiN is a suitable material for fabricating of photonic integrated circuits with middle refractive index contrast for the visible and near infrared spectral region with ultra-low propagation losses. The paper deals with the design and simulation of fiber to SiN chip butt coupler with single step fabrication process without thickness tapering. Coupler is designed for 850 nm band for coupling between strip 0.25 μm × 1.00 μm waveguide and Nufern's 780-OCT single mode optical fiber with core diameter 4.4 μm. The coupling losses simulation results of the two simulation methods finite-difference beam propagation techniques and eigenmode expansion method are compared.
In this thesis the effect of dc voltage bias on the equivalent series resistance (ESR) of capacitors and especially ferroelectric dielectric ceramic capacitors (FDCC) is analysed. Further the influence of the dc biased ESR on the losses of capacitors is investigated. Also piezoelectric resonances (PR) occurring in FDCCs with applied dc bias and their influence on the losses are analysed.
Therefore a measurement circuit to measure the impedance and thus the ESR of capacitors in combination with a vector network analyser (VNA) is developed. Using the developed circuit the ESR of capacitors of different technologies is measured and their behaviour with dc bias is evaluated. The losses of an FDCC are measured in a power electronic (PE) circuit with a developed calorimetric measurement system (CMS). The influence of the PR is investigated by tuning the switching frequency of the PE system and thus the frequency of the capacitor current exactly into the PR. The measured losses are then compared to a calculation based on the capacitor current harmonics and the respective ESR.
The measurements show an increase of the ESR with dc bias for all measured FDCCs. The loss measurements show a significant increase of the losses in an FDCC if the current frequency matches the PR frequency. Consequently a decrease of the PE system's efficiency is measured. The loss calculations do not exactly match the measurements but there is a systematic deviation of the same order for all measurements.
In Anbetracht einer immer größer werdenden Diskussion über den Klimaschutz und einer anvisierten Energiewende finden umweltschonende Energietechniken immer mehr an Aufmerksamkeit in der Gesellschaft. Die Kombination von Stromerzeugung und gleichzeitiger Wärmeproduktion macht die Biomassevergasung zu einem interessanten Untersuchungsobjekt. Die anfallenden Biokohlestäube versprechen in Zukunft von großem Nutzen zu sein, um zum Beispiel Kohlenstoff in der Erde abzuspeichern. Die sogenannten ”Terra Preta“ Böden steigerten merklich das Interesse am Einsatz von Kohle in der Landwirtschaft, um in Böden verbessernde Eigenschaften zu erzielen. In dieser Masterarbeit wird die Auswirkung der Biokohle einer Schwebefestbettvergaseranlage auf das Pflanzenwachstum, die verfügbaren Nährstoffe und auf die Anzahl der Mikroorganismen untersucht. Hierfür wurden zwei verschiedene Versuchspflanzen herangezogen. Es wurde auf Hafer und Rübse zurückgegriffen. Der Versuch fand unter Laborbedingungen in einem Wachstumsschrank statt. Es wurden Böden mit unterschiedlichen Kohlegehalten hergestellt (0 %, 2,5 % 5 %, 12,5 %). Des Weiteren wurde auf zwei verschiedene Arten eine oberflächenaktivierte Kohle hergestellt. Einmal erfolgte dies durch Ko-Kompostierung der Biokohle in Grünschnitt und das zweite Mal durch die Beladungmit künstlichem Dünger. Die chemische Aktivierung erfolgte über einen Rührversuch. Dabei wurde die Kohle über einen längeren Zeitraum mit dem künstlichen Dünger in einem Gefäß gerührt.
Die Versuchsdauer erstreckte sich jeweils über einen Zeitraum von ca. 3 Wochen. Am Ende der Versuche wurden die Pflanzen geerntet. Anschließend wurde ihre Wuchshöhe und deren Durchmesser erfasst und statistisch ausgewertet. Die Nährstoffe im Boden wurden mittels Macherey Nagel Schnelltest ermittelt. Hierfür wurden Proben sowohl am Anfang als auch am Ende des Experiments genommen und anschließend aufbereitet und ebenfalls statistisch ausgewertet. Es konnte durch den Zusatz von Kohle einen signifikant höherer Mittelwert des Pflanzenwachstums erzielt werden. Und auch bei den Nährstoffen konnten Unterschiede zum Referenzboden nachgewiesen werden. Im Gegensatz dazu konnte bei den Mikroorganismen statistisch kein Unterschied festgestellt werden. Leider traten während des Versuches vermehrt Probleme auf, die aber entsprechend in der Arbeit adressiert und dokumentiert werden. Aus diesem Grund muss darauf verwiesen werden, dass einige Ergebnisse nicht verwertbar waren.
Aufgrund des fortschreitenden Klimawandels müssen neue Wege gefunden werden, um diesen zu verlangsamen, bzw. die Emission von Treibhausgasen zu reduzieren. Ein Weg dieses Ziel zu erreichen ist das CO2-Recycling direkt an der Quelle. Durch die hohe thermische und chemische Beanspruchung der hierfür eingesetzten Elektroden bieten sich gerade technische Keramiken als Elektrodenmaterialien an. Eine jener in Frage kommenden Keramiken ist Siliziumkarbid (SiC). Bei SiC handelt es sich um einen Wide-Bandgap-Halbleiter mit hoher thermischer und chemischer Stabilität. Da die Herstellung, des für Elektroden benötigten, hochreinen, porösen SiC sehr aufwendig und damit auch teuer ist, wird schon seit einiger Zeit nach anderen Verfahren, als den industriell eingesetzten Standardverfahren, zur Herstellung von hochreinem SiC geforscht. In der vorliegenden Arbeit wird die Bildung von Siliziumkarbid in isostatisch gepressten Graphiten mittels karbothermischer Reduktion verschieden dotierter Sol-Gel-Granulaten und cerschiedener poröser Graphite untersucht. Zu diesem Zweck werden die Proben unterschiedlichen Anzahlen an Zyklen des in einem Induktionsofen, durchgeführten Hochtemperaturprozesses ausgesetzt. Dabei wird das Granulat thermisch zersetzt, wobei es unter anderem zu einer Gasphasenreaktion mit dem Kohlenstoff der Graphittemplates kommt und damit zur Umwandlung von Kohlenstoff zu SIC. Von den so gewonnenen Proben werden in einem Micro-CT Schichtaufnahmen erstellt. Das Ergebnis soll ein Erkenntnisgewinn bezüglich der Umwandlungstiefe und entstandenen Strukturen in den unterschiedlichen Graphittemplates, je nach Anzahl der durchlaufenen Zyklen und verwendetem Precursorgranulat, sein. Nicht untersucht wird das elektrische Verhalten der unterschiedlichen, auf diese Weise örtlich dotierten, Templates.
In den letzten Jahrzehnten gewann Aluminium als vielseitig einsetzbarer Werkstoff immer mehr an Bedeutung. Das Vorarlberger Unternehmen Hydro Extrusion Nenzing ist Teil der Aluminiumverarbeitungsindustrie und stellt stranggepresste Aluminiumprofile her. Beim Strangpressen werden Aluminiumstangen in einem Durchlaufinduktionsofen auf bis zu 520 °C erhitzt und anschließend durch ein formgebendes Werkzeug gepresst. Nach dem induktivem Aufwärmen wird ein Teil der Stange aus dem Ofen gefahren und abgeschert. Die erzeugte Temperaturverteilung an diesem abgescherten Bolzen ist der sogenannte Taper. Das induktive Aufwärmen ist ein wichtiger Teil der Extrusion und steht im Fokus dieser Forschungsarbeit. Ziel dieser Arbeit ist es, den Aufwärmprozess der Aluminiumstangen, mithilfe einer Kombination aus explorativer Datenanalyse und Methoden des maschinellen Lernens, genauer zu verstehen und den resultierenden Taper vorherzusagen. Außerdem werden parallel die signifikanten Einflussparameter, ohne Berücksichtigung von Materialparametern, untersucht.
Nach der explorativen Datenanalyse wurden mithilfe eines k-means-Clusterverfahren zwei Klassifizierungsvarianten entwickelt. In der ersten Variante liegen die Taper nach ihrer Bolzenlänge und Form gegliedert vor. Es zeigte sich, dass die Taper der Bolzen mit ähnlicher Länge auch ähnliche Formen annehmen. Ein einfacher Entscheidungsbaum konnte die 13 Zielklassen zu etwa 85 % vorhersagen. Die Bolzenlänge spielt bei der Vorhersage eine wichtige Rolle. Die zweite Klassifizierungsvariante basiert hingegen ausschließlich auf der Taperform. Die angewendeten Modelle (k-Nearest-Neighbor, Decision Tree, Random Forest) waren jedoch kaum in der Lage, die 11 Klassen abzubilden. Grund für die unzureichende Vorhersageleistung können die vielen Unsicherheiten in der Datenstruktur sein. Die anschließende detaillierte, explorative Analyse der formabweichenden Taper deutet fehlende Merkmale im Datensatz an. Einige Bolzen setzen sich aus zwei Stangenenden zusammen. Diese geteilten Bolzen führen zu abweichenden Aufwärmverhalten, wodurch auffällige Taper entstehen. Die Information ob sich ein Bolzen aus zwei Stangen zusammensetzt fehlt jedoch im Datensatz. Der Aufwärmvorgang der Stangen wird demnach durch ein Wechselspiel der aktuellen Regelung und zwei maßgeblichen Faktoren beeinflusst: die Bolzenlänge und das Auftreten von geteilten Bolzen. Diese Faktoren bestimmen die Stangentemperatur im Ofen, den induzierten Strom und somit den resultierenden Taper. Aufgrund dieser Ergebnisse könnte die temperaturbasierte Regelung zukünftig durch eine Steuerung hinsichtlich des induzierten Stroms ersetzt, dadurch Energie eingespart und Schrott vermieden werden.
Weltweit hatten 2017 840 Millionen Menschen keinen Zugang zu Strom. Hinzu kommen Millionen weitere Menschen, die an unzuverlässige Stromquellen angeschlossen sind. Für das Wirtschaftswachstum, die menschliche Entwicklung und ökologische Nachhaltigkeit ist eine zuverlässige Stromversorgung jedoch von großer Bedeutung.
Die vorliegende Arbeit beschäftigt sich daher mit der Konzeptionierung einer zuverlässigen Stromversorgung für eine Hochschule in Benin (Westafrika), die sich mit einem unzuverlässigen Netzanschluss konfrontiert sieht. Die Konzeptionierung erfolgt mithilfe der Software HOMER.
Aufgrund unsicherer Systembedingungen wurden mehrere Szenarien und der Einfluss verschiedener Systemparameter untersucht.
Die Ergebnisse zeigen, dass eine zuverlässige Stromversorgung durch die Implementierung eines Mini-Grids erreicht werden kann. Dabei hat die Ausgangssituation einen bedeutenden Einfluss auf die Systemauslegung. Für das untersuchte Szenario, in dem die Hochschule keine Stromkosten bezahlte, erwies sich ein PV/Dieselgenerator/Batterien-Mini-Grid als geeignet. Dabei entstehen Stromkosten von mindestens 0,013 USD pro kWh, was leicht erhöhte Kosten gegenüber den Bezugskosten bedeutet. Dieser Kostenzuwachs lässt sich aber mit der erhöhten Zuverlässigkeit rechtfertigen. Auch unter der Annahme, dass die offiziellen Bezugskosten bezahlt werden müssen, erwies sich ein PV/Dieselgenerator/Batterie-Mini-Grid als geeignet. Die Größe der PV-Anlage fällt in diesem Fall deutlich größer aus, was zu einem reduzierten Einsatz des Dieselgenerators führt. Ein untersuchtes Off-Grid erwies sich als unwirtschaftlich.
Somit enthält die Arbeit wichtige Erkenntnisse darüber, wie sich verschiedene Parameter auf ein geeignetes System auswirken. Zudem wurde ein Systemvorschlag ausgearbeitet. Diese Informationen sollen nicht nur den beteiligten Personen vor Ort helfen, sondern auch als Grundlage für zukünftige Projekte dienen.
Um ein möglichst kostengünstiges Laden von Elektrofahrzeugen zu erreichen, ist es nötig, diese möglichst in Zeiten zu laden, an denen die Kosten für die Energie geringer sind und die Entstehung von Leistungsspitzen vermieden wird. Aus diesem Grund wird in dieser Arbeit anhand des Verbrauches und den tariflichen Bedingungen eines Betriebes in Österreich die Kostenentwicklung von drei verschiedenen Ladeszenarien untersucht und verglichen. Dabei handelt es sich um das einfache Laden, intelligente Laden und das intelligente Laden mit Vehicle to Grid Erweiterung, wobei hierbei die Energie aus den Fahrzeugen ausschließlich zur Eigenverbrauchsoptimierung und Spitzenlastreduktion eines Betriebes dient und somit nicht in das Netz gespeist wird. Die Ergebnisse werden durch eine lineare Optimierung errechnet wobei bis zu vier Fahrzeuge simuliert werden.
Die Ergebnisse zeigen, dass es durch das intelligente Laden zu keinen neuen Leistungsspitzen kommt und es zusätzlich zu einem erhöhten Eigenverbrauch aus der vorhandenen Photovoltaikanlage kommt.
Dadurch reduzieren sich die Ladekosten in jedem Szenario. Auch in Betrachtung auf die Anschaffungskosten, ist eine Verbesserung ersichtlich. Beim Vehicle to Grid Laden werden die Arbeits- und Leistungskosten noch weiter gesenkt, wobei die Leistungskosten bei zwei Fahrzeugen ihren Tiefpunkt erreicht haben. Zusätzlich kann der Eigenverbrauch aus der Photovoltaikanlage noch weiter erhöht werden. Nachdem hierbei die Investitionskosten noch berücksichtigt wurden, kommt der Autor zum Schluss, dass es nur mit einem Fahrzeug zu einer Verringerung der gesamten Kosten kommt. Dies kommt durch die erhöhten Investitionskosten und dem mit höher werdender Anzahl an Fahrzeugen geringer werdenden Vehicle to Grid Einsatz zustande.
Aktuell beschäftigen steigende Energiepreise, zunehmend knappe Ressourcenvorkommen und der Klimawandel die Energiebranche mehr denn je. Aber auch andere Organisationen wie Unternehmen und Kommunen, die einen erheblichen Beitrag zum Energieverbrauch leisten, sind davon betroffen. Ein Instrument, das sich dieser Themen angenommen hat und eine Möglichkeit zur Steuerung bietet, ist das Energiemanagement.
Ungenutztes Energieeffizienzpotential kann mit einem gut aufgebauten und strukturierten Energiemanagement nutzbar gemacht werden. Gerade weil das Angebot technischer Lösungen sehr groß ist, liegt die Vermutung nahe, dass die Umsetzung oft durch strukturelle oder organisationsbedingte Barrieren erschwert wird.
Aus diesem Grund ist der Forschungsgegenstand dieser Arbeit eine ausführliche Untersuchung der Umsetzung von betrieblichem und kommunalem Energiemanagement. Es konnten Erkenntnisse gewonnen werden, welche Themen beim Energiemanagement eine Herausforderung darstellen und welche Aspekte spezifisch bei Unternehmen oder Kommunen wichtige Stellschrauben im Umsetzungsprozess sind.
Die Ergebnisse der Expertenbefragung und der Literaturanalyse haben gezeigt, dass Energiemanagement derzeit zu wenig Interesse geschenkt wird und deshalb die Investitionen, vor allem in ausreichend Personalressourcen, fehlen. Die größte Hürde ist die wirtschaftliche Darstellbarkeit von Maßnahmen, die insbesondere bei wenig energieintensiven Organisationen Schwierigkeiten bereitet beziehungsweise kaum durchsetzbar ist. Dies wiederum fordert ein Umdenken von Politik und Wirtschaft, was sich auch in anderen Einflussfaktoren deutlich wiederspiegelt.
Aber nicht nur in den entscheidenden Reihen einer Organisation muss ein Umdenken stattfinden. Nur wenn das Bewusstsein für Energie bei allen Beteiligten steigt und alle bei Strategie und Umsetzung an einem Strang ziehen, kann die Energiewende mithilfe von Energiemanagement gelingen.
Das exakte Messen der aktuellen Spannung ist ein essenzieller Baustein sowohl für die Versorgungssicherheit als auch die Verrechnung von Leistung in der elektrischen Energietechnik. Dazu werden verschiedene Geräte verwendet, welche die Spannung auf einen normierten Wert teilen, sodass diese problemlos gemessen werden kann. In dieser Masterarbeit werden in weiterer Folge lediglich die konventionellen Spannungswandler und deren Übertragungsfehler, genauer gesagt die kapazitiven Spannungswandler, im Detail analysiert. Das übergeordnete Ziel dieser Arbeit ist es, jene Parameter der modellbasierten Messung von kapazitiven Spannungswandlern zu finden, welche die größte Sensitivität im Bezug auf den Spannungsübersetzungs-und Phasenfehler sind. Dabei werden zuallererst die zwei gängigsten Messmethoden zur Prüfung der Genauigkeit von konventionellen Spannungswandlern diskutiert. Des Weiteren wird die Arbeit anhand der CIGRE Umfragen im Bezug auf die Ausfälle der konventionellen Wandler motiviert. Des Weiteren wird der Stand der Technik ermittelt und dargelegt.
Für die Dauer der Untersuchung wurde ein kapazitiver Spannungswandler in seine beiden Hauptkomponenten (induktiver und kapazitiver Teil), zwecks besserer Analysierbarkeit der einzelnen Komponenten, zerlegt. Somit konnten sowohl die einzelnen CVT Komponenten als auch der gesamte kapazitive Spannungswandler frequenzabhängig und spannungsabhängig untersucht werden. Mittels dieser und der modellbasierten Messungen wurden die einzelnen Parameter für die Simulationsumgebung des kapazitiven Spannungswandlers ermittelt. Im Anschluss wurde dieses zum einen mittels vier verschiedener Betriebszustände und zum anderen mittels Messergebnissen sowohl der modellbasierten Prüfung als auch der Primärprüfung (EPRO Kalibrierung) verifiziert. Mit dieser Grundlage wurden anschließend die verschiedenen Sensitivitätsanalysen durchgeführt.
In Benin werden einerseits große Mengen verschiedenster Abfallarten häufig in der Landschaft entsorgt und unter freiem Himmel verbrannt. Andererseits ist Energie in Benin sehr knapp und muss zu einem hohen Prozentsatz aus Nachbarländern
importiert werden. Hier setzt die vorliegende Arbeit an mit der Frage: Welche Varianten der Müllverbrennung mit Nutzung thermischer Energie sind hinsichtlich ökonomischer, technischer und ökologischer Kriterien in Benin realisierbar? Zur Beantwortung dieser Frage werden zunächst die Rahmenbedingungen vor Ort analysiert, um Anforderungen an eine solche Müllverbrennungsanlage abzuleiten. Als Kern der Arbeit wird eine Müllverbrennungsanlage mit anschließender Abgasreinigung konzipiert, die auf einem bereits vor Ort erprobten Ofen aufsetzt, der zur Verbrennung medizinischer Abfälle konstruiert wurde. Anhand einer detaillierten Analyse von Abgasreinigungstechnik wird aufgezeigt, wie dieser Basisofen zur Verbrennung von landwirtschaftlichen Abfällen und Kunststoffen angepasst werden kann. Konkrete Beispiele zur Nutzung thermischer Energie zur Kälteerzeugung, Salzherstellung und Palmölherstellung zeigen auf, dass das vorgestellte Konzept praxistauglich ist.
Da konventionelle Kältemittel im Vergleich zu CO2 ein großes Treibhauspotential (GWP) aufweisen, gewinnen neue, alternative Kältemittel, sogenannte low-GWP Kältemittel, stärker an Bedeutung. Zu diesen low-GWP Kältemitteln gehören u.a. die Fluide der HFO und HCFO Kältemittel. Durch ihre thermophysikalischen Eigenschaften eignen sie sich insbesondere für die Anwendung in industriellen Hochtemperaturwärmepumpen (HTWP), die im Temperaturbereich von 100 °C bis 160 °C ein großes Potenzial in der Nahrungsmittel-, Papier- und Chemieindustrie zur Prozesswärmebereitstellung aufweisen. In dieser Masterarbeit werden die Kältemittel R1336mzz(Z), R1233zd(E), R1224yd(Z), R1234ze(Z) und R514A auf ihre Anwendbarkeit in drei verschiedenen Kältekreiskonfigurationen untersucht. Dabei soll herausgefunden werden, welches Kältemittel sich unter Berücksichtigung des COPs, der volumetrischen Heizleistung, der Verdichtungsverhältnisse und Verdichtungsendtemperaturen am besten eignet. Der Kreislauf mit internem Wärmeübertrager (IHX) findet bereits Anwendung in HTWP und dient zum grundlegenden Vergleich der Kältemittel. Die beiden neuen Kreisläufe eignen sich u.a. für große Spreizungen an der Senke. Eine in dieser Arbeit betrachteten Kältekreiskonfiguration besteht aus zwei parallel angeordneten IHX Kreisläufen (2KP) und die andere aus einer zweistufigen Kreislaufkonfiguration (2SE).
Mithilfe des Programms EES wird für die Kreisläufe ein Modell erstellt, mithilfe dessen der Senkentemperaturbereich von 100 °C bis 160 °C und der Quellentemperaturbereich von 40 °C bis 80 °C untersucht werden kann. Die Auswertung der Simulationen kam zu dem Ergebnis, dass R514A bis zu einer Senkentemperatur von 130 °C und R1336mzz(Z) ab dieser Senkentemperaturen im IHX und 2SE Kreislauf die besten COP Werte aufweist. Zudem sind die Verdichtungsendtemperaturen und das Verdichtungsverhältnis günstig, die volumetrische Heizleistung hingegen am geringsten. Im 2KP Kreislauf besitzt die Kältemittelkombination R1336mzz(Z)/R514A die besten COP Werte. Der 2KP Kreislauf weist die besten COP Werte der betrachteten Kältekreiskonfigurationen auf. Im Betriebspunkt bei einer Senkentemperatur von 130 °C (ΔT Senke 60 K) und einer Quellentemperatur von 60 °C (ΔT Quelle 10 K) liegt der COP des IHX bei 3,95, der des 2SE bei 4,05 und der des 2KP bei 4,26. R1233zd(E) überzeugt im IHX und 2SE Kreislauf mit einer deutlich höheren VHC im Vergleich zu R1336mzz(Z), bei etwas geringeren COP Werten. Die Untersuchung zeigt auch, dass die Auswahl einer Kältekreiskonfiguration und eines Kältemittels stark von den Betriebstemperaturen abhängt.
Das Energieinstitut Vorarlberg hat zusammen mit mehreren Regionen in Vorarlberg das Sanierungslotsenprojekt gestartet, um die Beratungssituation bei der Gebäudesanierung zu verbessern. Durch wiederholten Kundenkontakt wurde festgestellt, dass es ein Beratungsdefizit für Besitzer älterer Einfamilienhäuser gibt. Zwischen der Erkenntnis, dass eine Sanierung des Gebäudes notwendig ist und dem Zeitpunkt, an dem die ersten Leistungen bestellt werden, gibt es keine sachkundige Betreuung in den Fragestellungen der zukünftigen Gebäudenutzung. In den bisher angebotenen Beratungen werden zwar auch unterschiedliche Sanierungsvarianten miteinander verglichen. Jedoch bezieht sich der Vergleich auf Variationen von Sanierungsmaßnahmen, wie beispielsweise Dämmstoff - und Fensterqualität oder die Auswahl eines Heizungssystems. Darüber hinaus gehende Fragen über altersgerechtes Wohnen, Generationenwohnen, Nachverdichtung und Vermietung werden in diesen Beratungen nicht behandelt. In allen Fragen der zukünftigen Nutzung und den zukünftigen Anforderungen an das Gebäude, den darauf abgestimmten Sanierungszielen und der zugehörigen Kostenschätzung mit Finanzierungsberechnung sind die Besitzer auf sich gestellt.
Deshalb ist der Bedarf nach einem einfachen Rechentool, welches in einer frühen Phase der Sanierungsberatung, eine schnelle Berechnung der in Betracht kommenden Sanierungsvarianten ermöglicht, entstanden. In dieser frühen Phase ist es bislang nicht üblich eine Kostenschätzung abzugeben. Für diese Berechnungen wird eine Datenbank mit Sanierungs - und Umbaukostenelementen benötigt, sodass mit einer abgesicherten Basisdaten kalkuliert werden kann.
In der vorliegenden Masterarbeit werden eine auf Microsoft Excel basierende Datenbank und das dazugehörige Rechentool vorgestellt, die die beschriebenen Anforderungen erfüllen. Mit Hilfe der Datenbank wird eine Grundlage geschaffen, an denen sich die Sanierungslotsen orientieren können. Zusätzlich zu den Netto- und Bruttokosten, die bei den einzelnen Sanierungsmaßnahmen anfallen, werden auch Einheitskosten angegeben, die in das Rechentool eingetragen werden können.
Das Rechentool ermöglicht den Vergleich von fünf unterschiedlichen Sanierungsvarianten. Durch die freie Eingabe der Flächen können auch Varianten mit unterschiedlichen Nutzungskonzepten und unterschiedlichen Grundrissen verglichen werden. Neben einer Grobkostenrechnung der Sanierungskosten erfolgt im Tool auch die Berechnung der Förderung laut der Wohnaussanierungsrichtlinie und Energieförderungsrichtlinie des Landes Vorarlberg. Weitere Förderungen können als Einmalzuschüsse eingetragen werden. Eine vereinfachte Wirtschaftlichkeitsbetrachtung erfolgt über die Berechnung der Finanzierung der Sanierung. Hierbei werden auch Einnahmen durch Vermietung berücksichtigt.
In this study, we carried out the structural and thermal characterization of a medical-grade poly (lactide) (PLA) by SEC, TGA, DSC, NMR, ICP-MS and Py-GC/MS. Moreover, we investigated the laser-induced degradation occurring when ultrashort laser pulses (ULP) were employed to cut extremely thin polymer films prepared by solvent-casting. ULP polymer cutting technology is an interesting manufacturing process for its advantages in potential medical applications. In fact, heat transmission to the region surrounding the cuts is limited, so that the incisions are precise and the effects on the regions around them are small. In this way, the need for post-processing is reduced and ULP cutting becomes interesting for industrial applications. However, degradation induced by ULP may occur and compromise the properties of the polymer samples. To investigate this possibility, portions of PLA films, ultrashort laser cut (ULC) and uncut, were analysed by SEC, DSC, NMR and FTIR. Furthermore, PLA oligomers were studied by ESI-MS. Both SEC and NMR showed a decrease in the molecular weight. FTIR, ESI-MS and NMR spectra revealed the presence of olefin end groups originated from a \beta-H transfer mechanism, induced by heat and/or light (Norrish II mechanism). Additionally, the inspection of the ESI mass spectra highlighted the cleavage of ester bonds related to the Norrish I type mechanism, undetected by the other techniques.
Zusammenfassung: Eine umfassende Literaturrecherche (Comprehensive Literature Search, CLS) bezeichnet eine umfangreiche und aufwändige Recherche mit dem Ziel, möglichst alle Studien zur Beantwortung einer zugrundeliegenden Forschungsfrage im Rahmen einer systematischen Übersichtsarbeit zu identifizieren. Konkrete Empfehlungen oder eine Definition des Begriffs CLS gibt es jedoch nicht. Der vorliegende Beitrag führt in eine Rahmung der CLS ein, stellt die damit einhergehenden Herausforderungen dar und weist auf methodische Implikationen sowie mögliche zukünftige Forschungsbereiche hin.
Product ion distributions resulting from the primary reactions of H3O+ with nine D-labeled volatile organic compounds and the subsequent sequential reactions with H2O have been determined using a Proton Transfer Reaction Time of Flight Mass Spectrometer (PTR-TOF 8000 (IONICON Analytik GmbH)) at various reduced electric field (E/N) values ranging from 80 up to 150 Td and for two different absolute humidity levels of air sample < 0.1% and 5%. The specific D-labeled compounds used in this study are acetone-d6, toluene-d8, benzene-d6, ethanol-d (C2H5OD), ethanol-d2 (CH3CD2OH), ethanol-d6, 2-propanol-d8, 2-propanol-d3 (CD3CH(OH)CH3), and isoprene-d5 (CH2CHC(CD2)CD3). With the exception of the two 2-propanol compounds, non-dissociative proton transfer is the dominant primary reaction pathway. For 2-propanol-d8 and 2-propanol-d3 the major primary reaction channel involved is dissociative proton transfer. However, unlike their undeuterated counterparts, the primary product ions undergo subsequent deuterium/hydrogen isotope exchange reactions with the ever present water in the drift tube, the extent of which of course depends on the humidity within that tube. This exchange leads to the generation of various isotopologue product ions, the product ion branching percentages of which are also
dependent on the humidity in the drift tube. This results in complex mass spectra and the distribution of product ions leads to issues of reduced sensitivity and accuracy. However, the effect of D/H exchange considerably varies between the compounds under study. In the case of acetone-d6 it is very weak (<1%), because the exchange process is not facile when the deuterium is in the methyl functional group. In comparison, the H3O+/ benzene-d6 (C6D6) reaction and sequential reactions with water result in the production of the isotopologue ions C6Dn(H7-n)+ (where n = 0–6). Changing the value of E/N and/or the humidity in the drift tube considerably affects the amount of the isotope exchange reactions and hence the resulting sequential product ion distributions. An important conclusion of the findings from this work is that care must be taken in the choice of an exogenous deuterated compound for use in breath pharmacokinetic studies using proton transfer reaction mass spectrometry; otherwise the resulting D/H exchange processes impose interpretative problems.
© 2018 The Authors. Published by Elsevier B.V. This is an open access article under the CC BY license
(http://creativecommons.org/licenses/by/4.0/).
Breath analysis offers a non-invasive and rapid diagnostic method for detecting various volatile organic compounds that could be indicators for different diseases, particularly metabolic disorders including type 2 diabetes mellitus. The development of type 2 diabetes mellitus is closely linked to metabolic dysfunction of adipose tissue and adipocytes. However, the VOC profile of human adipocytes has not yet been investigated. Gas chromatography with mass spectrometric detection and head-space needle trap extraction (two-bed Carbopack X/Carboxen 1000 needle traps) were applied to profile VOCs produced and metabolised by human Simpson Golabi Behmel Syndrome adipocytes. In total, sixteen compounds were identified to be related to the metabolism of the cells. Four sulphur compounds (carbon disulphide, dimethyl sulphide, ethyl methyl sulphide and dimethyl disulphide), three heterocyclic compounds (2-ethylfuran, 2-methyl-5-(methyl-thio)-furan, and 2-pentylfuran), two ketones (acetone and 2-pentanone), two hydrocarbons (isoprene and n-heptane) and one ester (ethyl acetate) were produced, and four aldehydes (2-methyl-propanal, butanal, pentanal and hexanal) were found to be consumed by the cells of interest. This study presents the first profile of VOCs formed by human adipocytes, which may reflect the activity of the adipose tissue enzymes and provide evidence of their active role in metabolic regulation. Our data also suggest that a previously reported increase of isoprene and sulphur compounds in diabetic patients may be explained by their production by adipocytes. Moreover, the unique features of this profile, including a high emission of dimethyl sulphide and the production of furan-containing VOCs, increase our knowledge about metabolism in adipose tissue and provide diagnostic potential for future applications.