Refine
Year of publication
Document Type
- Master's Thesis (409)
- Article (70)
- Conference Proceeding (23)
- Report (14)
- Part of a Book (4)
- Book (3)
- Other (3)
- Doctoral Thesis (2)
- Working Paper (2)
- Bachelor Thesis (1)
Institute
- Forschungszentrum Business Informatics (27)
- Forschungszentrum Mikrotechnik (27)
- Forschungszentrum Energie (22)
- Soziales & Gesundheit (18)
- Technik | Engineering & Technology (13)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (12)
- Forschungszentrum Human Centred Technologies (11)
- Forschungsgruppe Empirische Sozialwissenschaften (10)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (7)
- Wirtschaft (7)
Language
- German (329)
- English (201)
- Multiple languages (2)
Has Fulltext
- yes (532) (remove)
Keywords
- Digitalisierung (11)
- Controlling (7)
- Digitale Transformation (7)
- Machine learning (6)
- Demand Side Management (5)
- Industrie 4.0 (5)
- Soziale Arbeit (5)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Kultur (4)
Varying mindsets in Design Thinking. Why they change during the process and how to nudge them
(2019)
Stress testing is part of today’s bank risk management and often required by the governing regulatory authority. Performing such a stress test with stress scenarios derived from a distribution, instead of pre-defined expert scenarios, results in a systematic approach in which new severe scenarios can be discovered. The required scenario distribution is obtained from historical time series via a Vector-Autoregressive time series model. The worst-case search, i.e. finding the scenario yielding the most severe situation for the bank, can be stated as an optimization problem. The problem itself is a constrained optimization problem in a high-dimensional search space. The constraints are the box constraints on the scenario variables and the plausibility of a scenario.
The latter is expressed by an elliptic constraint. As the evaluation of the stress scenarios is performed with a simulation tool, the optimization problem can be seen as black-box optimization problem. Evolution Strategy, a well-known optimizer for black-box problems, is applied here. The necessary adaptations to the algorithm are explained and a set of different algorithm design choices are investigated. It is shown that a simple box constraint handling method, i.e. setting variables which violate a box constraint to the respective boundary of the feasible domain, in combination with a repair of implausible scenarios provides good results.
In engineering design, optimization methods are frequently used to improve the initial design of a product. However, the selection of an appropriate method is challenging since many
methods exist, especially for the case of simulation-based optimization. This paper proposes a systematic procedure to support this selection process. Building upon quality function deployment, end-user and design use case requirements can be systematically taken into account via a decision
matrix. The design and construction of the decision matrix are explained in detail. The proposed
procedure is validated by two engineering optimization problems arising within the design of box-type boom cranes. For each problem, the problem statement and the respectively applied optimization methods are explained in detail. The results obtained by optimization validate the use
of optimization approaches within the design process. The application of the decision matrix shows the successful incorporation of customer requirements to the algorithm selection.
Zusammenfassung: Eine umfassende Literaturrecherche (Comprehensive Literature Search, CLS) bezeichnet eine umfangreiche und aufwändige Recherche mit dem Ziel, möglichst alle Studien zur Beantwortung einer zugrundeliegenden Forschungsfrage im Rahmen einer systematischen Übersichtsarbeit zu identifizieren. Konkrete Empfehlungen oder eine Definition des Begriffs CLS gibt es jedoch nicht. Der vorliegende Beitrag führt in eine Rahmung der CLS ein, stellt die damit einhergehenden Herausforderungen dar und weist auf methodische Implikationen sowie mögliche zukünftige Forschungsbereiche hin.
Adult muscle carnitine palmitoyltransferase (CPT) II deficiency is a rare autosomal recessive disorder of long-chain fatty acid metabolism. It is typically associated with recurrent episodes of exercise-induced rhabdomyolysis and myoglobinuria, in most cases caused by a c.338C > T mutation in the CPT2 gene. Here we present the pedigree of one of the largest family studies of CPT II deficiency caused by the c.338C > T mutation, documented so far. The pedigree comprises 24 blood relatives
of the index patient, a 32 year old female with genetically proven CPT II deficiency. In total, the mutation was detected in 20 family members, among them five homozygotes and 15 heterozygotes. Among all homozygotes, first symptoms of CPT II deficiency occurred during childhood. Additionally, two already deceased relatives of the index patient were carriers of at least one copy of the genetic variant, revealing a remarkably high prevalence of the c.338C > T mutation within the tested family. Beside the index patient, only one individual had been diagnosed with CPT II deficiency prior to this study and three cases of CPT II deficiency were newly detected by this family study, pointing
to a general underdiagnosis of the disease. Therefore, this study emphasizes the need to raise awareness of CPT II deficiency for correct diagnosis and accurate management of the disease.
Breath analysis holds great promise for real-time and non-invasive medical diagnosis. Thus, there is a considerable need for simple-in-use and portable analyzers for rapid detection of breath indicators for different diseases in their early stages. Sensor technology meets all of these demands. However, miniaturized breath analyzers require adequate breath sampling methods. In this context, we propose non-contact sampling; namely the collection of breath samples by exhalation from a distance into a miniaturized collector without bringing the mouth into direct contact with the analyzing device. To evaluate this approach different breathing maneuvers have been tested in a real-time regime on a cohort of 23 volunteers using proton transfer reaction mass spectrometry. The breathing maneuvers embraced distinct depths of respiration, exhalation manners, size of the mouth opening and different sampling distances. Two inhalation modes (normal, relaxed breathing and deep breathing) and two exhalation manners (via smaller and wider lips opening) forming four sampling scenarios were selected. A sampling distance of approximately 2 cm was found to be a reasonable trade-off between sample dilution and requirement of no physical contact of the subject with the analyzer. All four scenarios exhibited comparable measurement reproducibility spread of around 10%. For normal, relaxed inspiration both dead-space and end-tidal phases of exhalation lasted approximately 1.5 s for both expiration protocols. Deep inhalation prolongs the end-tidal phase to about 3 s in the case of blowing via a small lips opening, and by 50% when the air is exhaled via a wide one. In conclusion, non-contact breath sampling can be considered as a promising alternative to the existing breath sampling methods, being relatively close to natural spontaneous breathing.
Synthese von Gashydraten
(2019)
Bei Clathraten handelt es sich um Einschlussverbindungen, bei denen beliebige Gastmoleküle in einem Käfig bzw. Gitter von beliebigen Wirtsmolekülen eingeschlossen sind. Bei hohem Druck und niedriger Temperatur können beispielsweise Gasmoleküle in einem Wirtsgitter aus Wassermolekülen eingelagert werden. Natürlich vorkommende Hydrate in den Tiefeneisfeldern der Schelfmeere und in Permafrostgebieten zu finden und haben hauptsächlich Methan als Gastgas. Im Forschungsbereich Energie der Fachhochschule Vorarlberg (FHV) werden die Bildungs- und Zerfallsprozesse von Gashydraten erforscht. Für die Herstellung dieser Proben ist ein Mikroreaktor vorhanden, mit dem keine zufriedenstellenden Ergebnisse erzielt werden können, da die Dauer der Bildung von ausreichenden Mengen an Hydratproben hoch ist. Obwohl die Synthese von Hydraten bereits mehrfach Gegenstand der Forschung war und es weiterhin ist, besteht nach wie vor ein großes Potential in der Beschleunigung des Wachstumsprozesses von Hydraten. Da der Beginn des Hydratwachstums durch einen stochastischen Prozess ausgelöst wird, kann die Dauer der Keimbildung bzw. bis zum Beginn des Kristallwachstums viel Zeit in Anspruch nehmen. Für weitere Forschungsarbeiten im Forschungsbereich Energie der FHV ist eine beschleunigte und technisch einfache Herstellung von Hydraten von hoher Wichtigkeit. Deshalb ist der Fokus bzw. das Thema dieser Arbeit die Entwicklung eines neuartigen Versuchsreaktors, der die Möglichkeit bietet, verschiedene bekannte sowie neue Methoden für die Synthese von Gashydrat anzuwenden und für die Herstellung von Hydratproben untereinander zu kombinieren. Der im Zuge dieser Arbeit entwickelte Versuchsreaktor ist so aufgebaut, dass mehrere aus der Literatur bekannte Synthesemethoden, sowohl einzeln wie auch in Kombination untereinander, verwendet werden können. Als zusätzliche und neuartige Synthesemethode ist eine Baugruppe des Aufbaus darauf ausgelegt, das Hydratwachstum ausschließlich aus der Gasphase zu ermöglichen. Der Versuchsaufbau verfügt über mehrere Temperaturfühler und einen Druckaufnehmer, die über ein Datenerfassungssystem eine Steuerung und eine Überwachung des Herstellungsprozesses erlauben. Es wurden neben verschiedenen Inbetriebnahmetests insgesamt drei Versuche zur Ermittlung der Tauglichkeit des Systems zur Hydratsynthese durchgeführt. In jeder dieser drei Versuchsreihen konnten neue Erkenntnisse bezüglich des Wachstumsprozesses von Hydraten gewonnen werden, die auch in der gesichteten Literatur bisher nicht dokumentiert sind. Weiters wurde die neuartige Synthesemethode aus der Gasphase erprobt. Obwohl diese grundsätzlich funktioniert, sind die erreichbaren Produktionsraten prozessbedingt niedrig. Das Ziel, Hydratproben einfach und schnell erzeugen zu können, konnte mit dem entwickelten Versuchsreaktor erreicht werden.
Alterungsvorgänge in einer Lithium-Ionen Akkumulatorzelle beeinflussen deren Eigenschaften und sind daher von besonderen Bedeutung für den Einsatz dieser Technologie. Diese Masterarbeit untersucht mikrostrukturelle Veränderung in zwei zylindrischen Lithium-Ionen Zellen (Type 26650) ohne Zentrierstift, die in Powerbanks verbaut sind. An den beiden Akkumulatoren, mit unterschiedlichen Alterungszustands, wird vergleichend beobachtet welche Unterschiede sich über die Alterung ergeben. Mittels Computertomographie und elektrischen Messungen wurden Daten während der zyklischen Alterung der Zellen gesammelt und ausgewertet. Es konnte gezeigt werden, dass der Verlauf des Kapazitätsverlustes abhängig vom Alterungszustand ist. Insgesamt ergab sich nach 507 Zyklen bei der Powerbank „Neu“ eine Reduzierung der aufgenommenen Energie um 16 % und der abgegebenen Energie um 20 %. Die Powerbank „Alt“ zeigte nach 317 Zyklen eine Reduzierung der aufgenommenen Energie von 19% und der abgegebenen Energie von 27% zum Ausgangswert. Der gemessene Kapazitätsverlust konnte nicht auf mikrostrukturelle Veränderungen während der Alterung zurückgeführt werden. Es zeigten sich besonders in der bereits gealterten Zelle (Powerbank „Alt“) deformierte Elektrodenschichten im Zellinneren und in der Näher der Stromableiter. Hinzukommt bei der Powerbank „Alt“, dass Kathode und Anode gegeneinander verschoben sind. Es konnte ebenfalls in der Powerbank „Alt“ eine neu entstandene Deformierung während der zyklischen Alterung beobachtet werden. Des Weiteren konnten auch Schweißgrate bei beiden Powerbanks auf den Stromableitern visualisiert werden.
Low cost Solar Forecast
(2019)
In der vorliegenden Arbeit wird der Fokus auf die Konzeption eines kostengünstigen Systems zur Vorhersage der solaren Einstrahlung mittels stochastischer Methoden gelegt. Der Vorhersagezeitraum liegt zwischen einer und drei Stunden. Es wird auf die Gefahren der Stochastik und das Aufarbeiten von Daten für stochastische Methoden eingegangen. Bereits die zur Vorhersage verschiedener meteorologischer Daten verwendeten Methoden werden analysiert, angewendet und mittels des relativen Fehlers, dem Root Mean Square Error (Wurzel der mittleren Fehlerquadratsumme) (RMSE) und des Mean Absolute Deviation (MAD) untereinander verglichen. Es werden Kriterien zur Auswahl der zur Aufgabenstellung am besten passenden Methode ausgearbeitet. Die Recherche der vorhandenen stochastischen Methoden und die Anwendung dieser Methoden haben das Artificial Neural Network (künstliches neuronales Netzwerk) (ANN), das mit der Softwarebibliothek Tensorflow erstellt wurde, als die beste Methode hervorgebracht. Die Programmierung der einzelnen Methoden mittels Scikit-learn, Python und Tensorflow wird beschrieben und eine Vorhersage berechnet. Als Hardware wird einerseits ein kostengünstiger Einplatinencomputer, ein Raspberry Pi 3, und andererseits ein leistungsstarkes Notebook verwendet. Die jeweils benötigte Rechenzeit weist keine gravierenden Unterschiede auf. Anschließend wurden die berechneten Vorhersagen mit den vorhandenen Messdaten, der Persistence Method (Persistenz Methode) (PM) und der Vorhersage der Meteo-Schweiz verglichen. Die unterschiedlichen Diagramme der Vorhersagen und deren Genauigkeiten kommen im Verlauf zur Darstellung. Die relative Abweichung der Vorhersage des Artificial Neural Network (künstliches neuronales Netzwerk)(Tensorflow) (ANNT) von den Messdaten liegt über das Jahr 2017 gesehen bei 8.52% oder auf die Jahresenergie bezogen bei 87.3 kWh/m2 . Im Vergleich zur PM Methode weicht die ANNT Methode um 83.5 kWh/m2 und Jahr ab. Abschließend wird auf Verbesserungsmöglichkeiten und weiterführende Arbeiten eingegangen.
Die Gebäudeenergieversorgung mittels kombinierter Erneuerbarer Energiesysteme wird in Zukunft häufiger realisiert werden. Dies liegt unter anderem am Fokus der aktuellen Energiepolitik, an der wachsenden Akzeptanz der Bevölkerung und an einer ständigen Verbesserung der Wohngebäudeeigenschaften. Die volatile Charakteristik des erneuerbaren Energieangebots stellt eine Herausforderung dar. Thermische Lastverschiebung ermöglicht es, durch die Speicherung thermischer Energie, Zeiten mit geringem Energieertrag zu überbrücken. Es werden in dieser Masterarbeit drei Methoden zur Lastverschiebung mittels Simulation einer Referenzwohnanlage mit 31 Wohnungen untersucht. Die Gebäudesimulation wird hierfür mit TRNSYS durchgeführt, die Simulation zum Vergleich der unterschiedlichen Methoden mit Polysun. Die untersuchten Methoden sind die Regeneration des Erdsondenfeldes einer Geothermiewärmepumpe, die Anhebung der Maximaltemperatur sensibler Wärmespeicher, sowie die Anhebung der Raumtemperatur in der Referenzwohnanlage. Die Ergebnisse zeigen, dass die Sondenregeneration eine effektive Methode zur Steigerung der Jahresarbeitszahl (JAZ) der Wärmepumpe und des solaren Deckungsbeitrags darstellt. Die Sondentemperatur kann im Referenzfall zeitweise sogar auf ein höheres Niveau angehoben werden. Durch die zusätzliche Kombination mit einer Erhöhung der Speichermaximaltemperatur, bei hohem solarthermischem Ertrag, kann eine weitere Steigerung der JAZ erreicht werden. Die Solarthermieanlage kann so den größten Temperaturbereich nutzen, was auch die solare Deckungsrate weiter anhebt. Die thermische Gebäudeaktivierung weist das größte Potential für die Steigerung des PV-Eigenverbrauchs auf und verbessert die JAZ der Wärmepumpe durch den vermehrten Betrieb im Niedertemperaturbereich bedeutend; Jedoch wächst der Heizwärmebedarf (HWB) für die untersuchte Referenzwohnanlage aufgrund der Raumtemperaturüberhöhung (RTÜ) dermaßen, dass sie den Benefit der zusätzlich genutzten erneuerbaren Energie übersteigt und diese Methode zur thermischen Lastverschiebung daher nicht empfehlenswert ist. Da die thermische Gebäudeaktivierung in dieser Studie für bestimmte Gebäudeeigenschaften und mittels Fußbodenheizung realisiert ist, wird darauf hingewiesen, dass die Ergebnisse nur bedingt übertragbar sind und bei veränderten Gebäudeeigenschaften stark abweichen können.
Heimische Ladevorgänge von Elektroautos sind ein zusätzlicher Faktor in dem Wandel, dem Verteilnetze ausgesetzt sind. Aufgrund der typischen langen Parkzeiten bietet das Laden von Elektroautos jedoch einen hohen Grad an Flexibilität, mit deren Hilfe die Netzbelastung entscheidend verringert werden kann und weitere Dienstleistungen, auch in höheren Netzebenen, erbracht werden können. Die vorliegende Arbeit bewertet mit dem Instrument der Nutzwertanalyse fünf Ladestrategien, wie die Koordinierung von Ladevorgängen nutzbringend eingesetzt werden kann. Dazu werden im ersten Schritt Kriterien auf Basis der Literaturrecherche sowie der gegebenen Informationsgrundlagen der betrachteten Systeme definiert. Um eine neutralere Bewertung zu ermöglichen, wird die Gewichtung der Kriterien zusätzlich von einem Vertreter eines Verteilernetzbetreibers und einem Energieversorger vorgenommen. Mit den Ergebnissen der Bewertung werden die Systeme hinsichtlich ihres Nutzens unter Berücksichtigung der Bedeutung für die jeweiligen Parteien verglichen. Dabei werden die Stärken und Schwächen der Systeme herausgestellt und mögliche Interessenskonflikte lokalisiert. Ebenfalls wird auf die Eignung der Nutzwertanalyse als Werkzeug zur Bewertung der Systemkonzepte eingegangen. Im Anschluss wird der Grundaufbau eines Systems vorgestellt, welches aufgedecktes Potential zur Weiterentwicklung der bewerteten Systeme nutzt und damit zu einem größeren Gesamtnutzen führen kann.
In dieser Arbeit wird Supervised Learning verwendet, um die Zuverlässigkeit von Schweißverbindungen zu evaluieren.
Um die Schweißqualität zu bestimmen, wurden End of Life Tests durchgeführt. Für die statistische Auswertung und Vorhersage der zu erwartenden Lebensdauer, wurden die Daten basierend auf einer logarithmischen Normalverteilung und mit einer multivariablen linearen Regression modelliert. Um die signifikanten Einflussfaktoren zu identifizieren, wurde eine schrittweise Regression genutzt. Die Ergebnisse zeigen, dass das entwickelte Modell die Zuverlässigkeit und Lebensdauer der Schweißverbindung akkurat abbildet und präzise Vorhersagen liefern kann.
Background: Peripheral arterial disease (PAD) is a common and severe disease with a highly increased cardiovascular morbidity and mortality. Through the circulatory disorder and the linked undersupply of oxygen carriers in the lower limbs, the ongoing decrease of the pain-free walking distance occurs with a significant reduction in patients’ quality of life. Studies including activity monitoring for patients with PAD are rare and digital support to increase activity via mobile health technologies is mainly targeted at patients with cardiovascular disease in general. The special requirement of patients with PAD is the need to reach a certain pain level to improve the pain-free walking distance. Unfortunately, both poor adherence and availability of institutional resources are major problems in patient-centered care.
Objective: The objective of this trackPAD pilot study is to evaluate the feasibility of a mobile phone–based self tracking app to promote physical activity and supervised exercise therapy (SET) in particular. We also aim for a subsequent patient centered adjustment of the app prototype based on the results of the app evaluation and process evaluation.
Methods: This study was designed as a closed user group trial, with assessors blinded, and parallel group study with face-to-face components for assessment with a follow-up of 3 months. Patients with symptomatic PAD (Fontaine stage IIa or IIb) and possession of a mobile phone were eligible. Eligible participants were randomly assigned into study and control group, stratified by their distance covered in the 6-min walk test, using the software TENALEA. Participants randomized to the study group received usual care and the mobile intervention (trackPAD) for the follow-up period of 3 months, whereas participants randomized to the control group received only usual care. TrackPAD records the frequency and duration of training sessions and pain level using manual user input. Clinical outcome data were collected at the baseline and after 3 months via validated tools (6-min walk test, ankle-brachial index, and duplex ultrasound at the lower arteries) and self-reported quality of life. Usability and quality of the app was determined using the user version of the Mobile Application Rating Scale.
Results: The study enrolled 45 participants with symptomatic PAD (44% male). Of these participants, 21 (47%) were randomized to the study group and 24 (53%) were randomized to the control group. The distance walked in the 6-min walk test was comparable in both groups at baseline (study group: mean 368.1m [SD 77.6] vs control group: mean 394.6m [SD 100.6]).
Conclusions: This is the first trial to test a mobile intervention called trackPAD that was designed especially for patients with PAD. Its results will provide important insights in terms of feasibility, effectiveness, and patient preferences of an app-based mobile intervention supporting SET for the conservative treatment of PAD.
Der Befeuchtungs-Entfeuchtungs-Prozess (HDH) wird zur Meerwasserentsalzung eingesetzt und bietet Vorteile wie die Nutzung von Wärme auf einem geringen Temperaturniveau sowie die Realisierbarkeit dezentraler Anlagen. Bei diesem Prozess wird Luft im Kontakt mit warmem Salzwasser im Optimalfall bis zur Sättigung befeuchtet. Die feuchte Luft wird anschließend abgekühlt, um das in ihr befindliche Wasser wieder zu kondensieren. Obwohl der HDH-Prozess bereits mehrfach Gegenstand der Forschung war, besitzt die Effizienz des Prozesses nach wie vor ein hohes Steigerungspotential. Das Ziel dieser Masterarbeit besteht in der Konzeption und der Realisierung eines Versuchsaufbaus zur Analyse der Befeuchtung von Luft in Wasser. Dabei soll der Untersuchungsgegenstand zukünftiger Versuche die Befeuchtereinheit sein, die ein hohes Potential hinsichtlich der Effizienzsteigerung von HDH-Systemen bietet. In neueren Publikationen wurden zum Einsatz in HDH-Systemen Blasensäulenbefeuchter als eine bessere Alternative zu Festbettbefeuchtern oder Sprühtürmen vorgeschlagen, weswegen die Befeuchtung in solchen Aggregaten näher untersucht werden muss. Das Hauptziel dieser Masterarbeit ist ein Versuchsaufbau, der die Möglichkeit bietet, die Parameter, die die Befeuchtung von Luft in einer Blasensäule maßgeblich beeinflussen, mit einer ausreichenden Genauigkeit zu messen, um aus diesen Messungen semiempirische Korrelationen ableiten zu können. Die die Befeuchtung von Luft maßgeblich beeinflussenden Parameter sind die Wassertemperatur, der Füllstand im Befeuchter, die Luftgeschwindigkeit sowie die Blasengröße.
Zum aktuellen Stand ist ein HDH-System, bestehend aus einem Blasensäulenbefeuchter, einem Querstromwärmetauscher sowie einer Dosierpumpe errichtet. Mit diesem System können wissenschaftlich notwendige empirische Zusammenhänge zwischen den die Befeuchtung beeinflussenden Parametern und der Befeuchtung von Luft aus Versuchen abgeleitet werden. Die im Versuchsaufbau verbaute Messtechnik wurde derart ausgewählt, dass deren Einfluss auf das System so gering wie möglich gehalten werden kann.
Mit dem Versuchsaufbau ist es darüber hinaus möglich, invasive Messmethoden mit nicht invasiven Messmethoden direkt zu vergleichen. Um eine für die Messungen optimale Befeuchtergeometrie zu finden, sind zwei Blasensäulenbefeuchtereinheiten aufgebaut, davon eine mit planarem und eine mit zylindrischem Querschnitt. So ist es möglich, im Direktvergleich die Vor- und Nachteile der Querschnittsanordnungen nachzuweisen. Die Komponenten der beiden HDH-Systeme wurden anhand von wissenschaftlich akzeptierten Modellen bezüglich der dazugehörigen Wärmeübertragungsraten, der Wärmeverluste und der Druckverluste ausgelegt.
Eine Modellierung des Stoffübergangs in der Blasensäule ist durchgeführt. Anhand dieser Modellierung konnte der Stoffübergangskoeffizient in der Grenzschicht zwischen Luftblase und Flüssigkeitssäule ermittelt werden. Anhand einer Massenbilanz konnte über den Stoffübergangskoeffizienten die Austrittswasserbeladung der feuchten Luft modelliert werden.
Die Funktionalität des Versuchsaufbaus ist gegeben. Messungen des Gasgehalts zeigen eine sehr gute Übereinstimmung mit wissenschaftlich anerkannten Korrelationen zum Gasgehalt. Die optische Zugänglichkeit des Versuchsaufbaus ist evaluiert und lässt die Tendenz ableiten, dass sich ein planarer Befeuchterquerschnitt in Verbindung mit Fotoaufnahmen von den durchgeführten Varianten am besten zur digitalen Bildanalyse eignet.
Aus den Experimenten, die am realisierten Versuchsaufbau durchgeführt werden, kann sich eine allgemeingültige Auslegungsgrundlage für Versuchsaufbauten ergeben, mit denen Messungen der Befeuchtung von Luft in Blasensäulenbefeuchtern durchgeführt werden sollen.
The master thesis concentrates on two different cases to generate energy from MSW. In the first case, the MSW is incinerated in an incineration plant. This approach represents the present situation in the waste treatment in large parts of the UK.
In the second case, the OFMSW is separated in a treatment facility and used in a fermentation plant. The remaining waste is again used as a feedstock in an incineration plant. The difference in the net energy yield between these two cases is investigated in this thesis.
To calculate the difference in the energy yield of case 1 and case 2, a research of the existing literature about comparisons of incineration and fermentation plants and their results are reflected and data about the MSW in the UK is collected. With the input of the literature and the researched data, a model is built which compares the two different cases of waste treatment. The results of the comparisons are then examined by varying different parameters. This step is repeated by using different input parameters. Afterwards, the results are compared and analysed.
In the next part of the thesis, an economic analysis of the incineration and fermentation combined technology plant is made. In this analysis, the investment costs, the annual profits and the annual costs of an additional fermentation plant are discussed and calculated. The result of the analysis is displayed as an amortization time calculation. The results are then analysed by varying the parameters in a sensitivity analysis.
Finally, the research question is answered and a forecast for possible plant designs with an incineration and a fermentation plant in combination are discussed.
Durch den vermehrten Ausbau dezentraler Energieerzeugungsanlagen gewinnt verbraucherseitiges Lastmanagement für die Netzbetreiber immer mehr an Bedeutung. Neue Möglichkeiten zur Laststeuerung bei Haushalten ergeben sich durch den Einsatz von intelligenten Stromzählern, sogenannten Smart Metern, da sie über eine Kommunikationsschnittstelle mit fernparametrierbarem Schaltrelais verfügen und den Stromverbrauch im Viertelstundenraster aufzeichnen können. Diese Masterarbeit untersucht eine Methode, mit der Lastverschiebungsmaßnahmen bei elektrischen Warmwasserspeichern durchgeführt werden können. Die Lastverschiebung wird lediglich durch die Funktionalitäten eines Smart Meter bewerkstelligt. Dabei ist das Ziel, eine Lastverschiebungsmethode zu finden, die vom Netzbetreiber simpel implementiert werden kann und mindestens den gleichen Komfortansprüchen genügt, die eine traditionelle Nachttarifschaltung aufweist. Die Schwierigkeit liegt hierbei in der Einschränkung, dass der Netzbetreiber vom Stromverbrauch der Speicher auf den Warmwasserbedarf der Kunden schließen muss.
Mit Hilfe eines thermodynamischen Modells werden verschiedene Lastverschiebungsszenarien bei mehreren Haushalten angewendet. Über die Simulation des Temperaturverlaufs wird ferner auf die Qualität der Warmwasserbereitung geschlossen und mit jener der klassischen Nachttarifsteuerung verglichen. Liegt die Temperatur häufiger unter einem bestimmten Mindestniveau als jene bei der Nachttarifschaltung, gilt die Qualität als nicht ausreichend. Die Ergebnisse der Untersuchung zeigen, dass mit der vorgestellten Methode für jeden Haushalt eine Lastverschiebung gefunden werden kann, die für den Netzbetreiber Vorteile bringt und die Mindestanforderungen an den Kundenkomfort erfüllt oder teilweise sogar verbessert. Es konnte festgestellt werden, dass mit der vorgestellten Methode der Großteil der Heizenergie (mindestens 60% bei allen Haushalten) in der ersten Tageshälfte zur Verfügung gestellt werden muss. Zusätzlich ergeben sich Energieeinsparungen, da die Beheizung des Speichers und der Warmwasserbedarf besser aufeinander abgestimmt werden. Mit der gezeigten Methode könnten Lastverschiebungsmaßnahmen schnell und einfach vom Netzbetreiber eingeführt werden, jedoch gilt es davor Einschränkungen wie die Legionellen-Problematik und Kundenkommunikation oder -akzeptanz zu klären.
In the residential construction industry, the focus on energy efficiency and cost effectiveness has been gaining importance. In order to achieve these contradicting objectives, a shift towards a reduced complexity in building practices can be observed.
Within the HVAC sector, the Tempering method for space heating has received particular attention as an alternative way to heat museums and buildings worthy of preservation.
In spite of the simplified design, this space heating system is claimed to offer significant advantages in its present field of application.
This study evaluates the implementation of Tempering in the residential context. So far, there is no scientific research on the implementation of Tempering in energy efficient-dwellings.
This master thesis provides initial results on achievable heat flux values, the impact on heat generation efficiency, the inherent installation costs as well as the particular
consequences in terms of end energy consumption of the building as a whole. The findings are compared to the individual performances of well-established heat emission approaches.
By means of a numerical analysis and a case study on a real-case single-family home, it is found that the heat flux values of Tempering systems suffice for the implementation within buildings, which comply with the low-energy building standard. Comparing radiant walls, radiant floors and radiators, the inherent installation costs are lowest for Tempering and radiant floors. The impact on the end energy consumption depends largely on the utilised heat generation system. With a gas-condensing boiler, Tempering performs equal to the radiant systems. When a ground source heat pump system is installed, however, Tempering performs poorly and accounts for a significantly increased energy consumption. Radiator systems are found to be the most energy-efficient method for space heating in both cases.
Obwohl der Energiebedarf eines Krankenhauses nur ca. 1,2% der Gesamtkosten ausmacht, werden Energieeinsparmaßnahmen und -optimierungen immer wichtiger. Neben dem steigenden Umweltbewusstsein wird auch der Kostendruck in diesem Dienstleistungssektor immer größer. Trotz der in vielen Krankenhäusern vorhandenen und gut ausgebauten Gebäudeleittechnik fehlt oft das Detailwissen über den Energieverbrauch und deren Verursacher.
Aufgrund der großen Anzahl an verwendeten Geräten und Kleinverbrauchern sowie der vielen gebäudetechnischen Großgeräte ist eine genaue Ursachensuche kein leichtes Unterfangen. Auch im Krankenhaus Feldkirch sind eine Vielzahl automatischer Stromzähler installiert und im Energiemonitoringsystem aufgeschaltet. Dennoch ist aktuell nur der Gesamtstromverbrauch bekannt und verwertbar. Analysen auf Gebäude oder Anlagen-Ebene werden nur sehr wenige durchgeführt.
In dieser Arbeit soll untersucht werden, wie die wesentlichen Einflussfaktoren auf den Stromverbrauch mithilfe der installierten automatischen Zähler identifiziert werden können.
Um herauszufinden, mit welchen Methoden der größte Informationsgehalt gewonnen werden kann, kommen verschiedene Methoden wie Kennzahlenvergleiche, die Darstellung als Sankey-Diagramm, objektspezifische Vergleiche und statistische Analysen sowie Energieganganalysen zur Anwendung.
Die erarbeiteten Auswertungen und Darstellungen zeigen sehr schnell, dass ohne eine Vielzahl an Subzählern keine sinnvollen Analysen möglich sind. Die große Anzahl an angeschlossenen Verbrauchern und deren variables Regelverhalten lassen aus den Daten (z. B. Summenzählern) anhand zusammengefasster Stromverläufe kaum Schlüsse für einzelne Gebäude zu. Es zeigt sich auch, dass eine einzelne Darstellungsform für alle Auswertungen keinen Sinn macht. In dieser Arbeit werden mögliche Einbauorte für die Stromzähler vorgeschlagen sowie Verfahren für eine durchdachte Auswertung der Energieverbräuche und Umsetzung in die Praxis angeführt.
In Europa und den USA werden rund 39 % des Energieverbrauchs durch den Betrieb von Gebäuden verursacht. Sie bieten somit großes Potential, den Gesamtenergieverbrauch zu verringern. Eine sinnvolle Möglichkeit dieser Umsetzung, ohne auf Gebäudekomfort verzichten zu müssen, liegt in der Optimierung der Gebäudeeffizienz. Dahingehend werden physikalische und datenbasierte Modelle als Planungstool für die Gebäudemodellierung verwendet, um frühzeitig Erkenntnisse über deren Energieverbrauch zu gewinnen. Während physikalische Modelle thermodynamische Prinzipien zur Modellierung des Energieverbrauchs einsetzen, verwenden datenbasierte Modelle historische oder allgemein verfügbare Daten, um ein Vorhersagemodell zu entwickeln. Das Ziel dieser Arbeit ist die Erstellung eines datenbasierten Modells, zur Prognose des Energieverbrauchs der Beleuchtung von Bürogebäuden. Es wurden bereits zahlreiche Studien hinsichtlich Prognosen des Energieverbrauchs erstellt. Die meisten beziehen sich jedoch auf den Gesamtenergieverbrauch oder jenen, welcher für Heizung, Kühlung oder Klimatechnik aufgewendet wird. Die Recherche des Autors ergab, dass vergleichsweise wenig Forschung für Vorhersagemodelle zur Ermittlung des Energieverbrauchs für die Beleuchtung betrieben wurde. Zur Umsetzung der Analyse stehen dem Autor Daten aus der Beleuchtungsinfrastruktur sowie Wetter-, Zeit- und Gebäudedaten zur Verfügung. Anhand dieser Arbeit soll eruiert werden, ob diese Daten hinreichend aussagekräftig sind, um ein geeignetes Modell zu entwickeln.
In times of global climate change, it is increasingly important to investigate emissions and resource consumption of all machines and, if possible, to improve them. This includes within the transport sector car ferries.
In order to reduce the environmental impacts of car ferries, the electrification has penetrated into this sector, which has led to the world's first fully electric car ferry. One of the most important components to operate this ferry is the energy storage. Not only the battery storage of the ferry itself is needed, but also an onshore battery storage system is needed to support the electrical grid.
The present study examines how storage technologies and concepts can impact the environment considering the world's first all-electric car ferry, MF Ampere, which operates in Norway.
To examine this, the current onshore battery storage system is compared to a concrete sphere storage system. For this purpose, data from the first test run of this new storage technology, which was successfully carried out by the Fraunhofer Institute in 2016, is considered. Subsequently, a life cycle assessment of the two storage systems is carried out to compare the environmental impacts.
The concrete sphere storage system performs better for 15 of 17 impact categories compared to the existing onshore battery storage system. Depending on the impact category the impact reduction is about 2% to 8%.
Nevertheless, it is difficult to estimate how long the useful life and how good the efficiency of the concrete ball storage will be, since no system of this size has been tested yet. Also, the costs of the concrete sphere storage system have not been considered.
Das Ziel der Masterarbeit ist es, ausgewählte Tankstellen an der A96 unter Voraussetzung einer vollständigen Elektrifizierung des deutschen PKW-Straßenverkehrs analog des heutigen Tankverhaltens zu dimensionieren.
Zu Beginn der Masterarbeit wird die elektrische Leistung berechnet, welche die deutschen PKW bei vollständiger Elektrifizierung des deutschen PKW-Straßenverkehrs benötigen werden. Um das Ergebnis auf Plausibilität überprüfen zu können, wird die Berechnung mit zwei verschiedenen Ansätzen vollzogen. Einerseits werden als Grundlage durchschnittliche Jahresfahrstrecken der Autofahrer/-innen verwendet und andererseits wird über den Primärenergiebedarf, den Fahrzeugbestand und den Wirkungsgraden von Ottomotoren und Elektromotoren die zu bestimmende Leistung berechnet.
Öffentliche Daten aus Verkehrszählungen sollen im weiteren Verlauf der Masterarbeit ausgewertet werden. Unter anderem erfolgt mit diesen Werten eine Modellbildung des Verkehrs, um den Verkehrsfluss mathematisch darzustellen und zu simulieren.
Die Durchführung einer Live-Messung an der Tankstelle Lechwiesen Nord sowie die nachträglich erlangten Daten zum tatsächlich stattgefundenen Verkehrsaufkommen sind für die Auswertung des in AnyLogic hinterlegtem mathematischen Modells essentiell. Auch für die Frage nach den zu tankenden Autos eines bekannten Verkehrsaufkommens sind diese hilfreich. Zur Bestimmung der Anzahl von Elektrozapfsäulen erfolgt eine iterative Annäherung an die Kurve des Tankverhaltens von Diesel- und Benzinautos. Als abschließendes Ergebnis werden für die Tankstelle Lechwiesen Nord und Lechwiesen Süd jeweils 20 Elektrozapfsäulen gefunden. Für den Autohof Aichstetten ergeben sich unter Berücksichtigung des Verkehrsaufkommens 27 zu installierende Elektrozapfsäulen, sodass ein identisches Tankverhalten von Elektroautos bei vollständiger Elektrifizierung des deutschen PKW-Straßenverkehrs angenommen werden kann.
Die nachfolgende Arbeit befasst sich mit Hochstromwandlern für Schutzzwecke. Laut Aussage von Paul Scherrer finden sich diese in jedem Verteilnetz und tragen einen erheblichen Teil zur Sicherheit des Netzes bei. Im ersten Teil der Arbeit wird beschrieben, wie man bei der Dimensionierung bzw. der Auswahl eines Hochstromwandlers für Schutzzwecke vorgeht und welche technischen Parameter dafür notwendig sind. Der zweite Teil der Arbeit befasst sich damit, wie man die Auswahl sowohl wirtschaftlich als auch technisch im Bezug auf fiktive Zukunftsszenarien optimieren kann. Dafür liegen aktuelle Netzdaten der Energienetze Vorarlberg GmbH vor, welche für diese Arbeit anonymisiert wurden. Die fiktiven Zukunftsdaten sind Annahmen. Für den Prozess der Optimierung wurde ein Tool in Python angefertigt, welches eine optimierte Auswahl von Hochstromwandler für Schutzzwecke durchführt und diesen Prozess erleichtern soll. Dieses wird nach eigener Einschätzungen keine Verwendung in der Praxis finden, da es nur relevant sein wird, wenn man ein Stromnetz wie wir es heute in größeren Städten und Gemeinden finden, von null an neu aufbauen möchte.
Damit eine möglichst ausfallsichere Energieversorgung und Energieübertragung gewährleistet werden kann, werden verschiedene Betriebsmittel benötigt. Diese Betriebsmittel müssen gewisse Genauigkeitsgrenzwerte einhalten. In dieser Masterarbeit wird die Prüfung der Genauigkeit von Stromwandlern diskutiert. Die Ermittlung der Genauigkeit kann durch das Einspeisen eines Primärnennstroms (einige kA) und eine Messung des Sekundärstroms erfolgen. Daraus wird der Übertragungsfehler bestimmt. Die Genauigkeit wird unter anderem durch den Übertragungsfehler beschrieben, welcher sich aus dem Übersetzungsfehler und dem Phasenfehler zusammensetzt. Es wird bei diesem Verfahren von der Primärmethode oder auch Primärstrommethode gesprochen, dies ist die Referenzmessung nach den Normen IEC 61869-2 und IEEE C57.13. Die Firma OMICRON electronics GmbH entwickelte ein modellbasiertes Messverfahren, das den Einsatz eines mobilen und leichten Messgeräts erlaubt. Das Messgerät wird CT Analyzer genannt. Bei Verwendung dieser Methode werden keine hohen Ströme verwendet, was den BenutzerInnen zusätzlich eine höhere Sicherheit für die Bedienung des Geräts bietet. Mit diesem Messverfahren werden die einzelnen Komponenten des elektrischen Ersatzschaltbildes des Transformators bestimmt. Mit den ermittelten Komponenten kann dann der Übertragungsfehler berechnet werden. Das modellbasierte Messverfahren beruht auf Messungen, die von der Sekundärseite des Stromwandlers her durchgeführt werden. Man spricht bei diesem Messverfahren von der Sekundärspannungsmethode, welche inzwischen in der Norm IEC 61869-2 als alternative Messung angeführt ist. Der Vorteil der Primärmethode ist die Hoch-Präzisionsmessung, da die Prüfung unter realen Bedingungen und mit einer direkten Messung durchgeführt wird. Die Genauigkeit dieser Methode wird durch die Messtechnik selbst bestimmt, sie ist sehr genau und daher als Referenz gültig. Das Ziel der Sekundärspannungsmethode ist es, den Vorteil der Hoch- Präzisionsmessung für die Sekundärspannung zu nützen. Da es sich um ein modellbasiertes Messverfahren handelt, wird die Messgenauigkeit bei diesem Verfahren durch das angewandte Modell bestimmt und nicht durch die Messtechnik wie bei der Primärmethode. Daher sind Untersuchungen am Modell notwendig. Es gibt einige wenige Stromwandlertypen, bei denen es größere nicht akzeptable Differenzen zwischen der Primärmethode und der Sekundärspannungsmethode gibt. Diese Masterarbeit befasst sich deshalb mit Untersuchungen von Möglichkeiten und Grenzen der Sekundärspannungsmethode. Zu Beginn wird eine theoretische Sensitivitätsanalyse mathematisch erarbeitet. In diesem Zusammenhang wird der komplexe Fehlervektor eines Stromwandlers eingeführt. Diese Sensitivitätsanalyse dient der Ermittlung des Einflusses auf den komplexen Fehler in Abhängigkeit von verschiedenen Parametern und zur Auswahl von Stromwandler-Testobjekten. Des Weiteren wird die Sensitivitätsanalyse durch Messungen an verschiedenen Stromwandlern verifiziert. Die Untersuchungen basieren auf MATLAB-Simulationen und Messungen mit dem OMICRON Messgerät CT Analyzer, welches die Sekundärspannungsmethode anwendet. Die Ergebnisse werden mit den Herstellerdaten (Primärmethode) verglichen und analysiert werden.
Breath analysis offers a non-invasive and rapid diagnostic method for detecting various volatile organic compounds that could be indicators for different diseases, particularly metabolic disorders including type 2 diabetes mellitus. The development of type 2 diabetes mellitus is closely linked to metabolic dysfunction of adipose tissue and adipocytes. However, the VOC profile of human adipocytes has not yet been investigated. Gas chromatography with mass spectrometric detection and head-space needle trap extraction (two-bed Carbopack X/Carboxen 1000 needle traps) were applied to profile VOCs produced and metabolised by human Simpson Golabi Behmel Syndrome adipocytes. In total, sixteen compounds were identified to be related to the metabolism of the cells. Four sulphur compounds (carbon disulphide, dimethyl sulphide, ethyl methyl sulphide and dimethyl disulphide), three heterocyclic compounds (2-ethylfuran, 2-methyl-5-(methyl-thio)-furan, and 2-pentylfuran), two ketones (acetone and 2-pentanone), two hydrocarbons (isoprene and n-heptane) and one ester (ethyl acetate) were produced, and four aldehydes (2-methyl-propanal, butanal, pentanal and hexanal) were found to be consumed by the cells of interest. This study presents the first profile of VOCs formed by human adipocytes, which may reflect the activity of the adipose tissue enzymes and provide evidence of their active role in metabolic regulation. Our data also suggest that a previously reported increase of isoprene and sulphur compounds in diabetic patients may be explained by their production by adipocytes. Moreover, the unique features of this profile, including a high emission of dimethyl sulphide and the production of furan-containing VOCs, increase our knowledge about metabolism in adipose tissue and provide diagnostic potential for future applications.
Product ion distributions resulting from the primary reactions of H3O+ with nine D-labeled volatile organic compounds and the subsequent sequential reactions with H2O have been determined using a Proton Transfer Reaction Time of Flight Mass Spectrometer (PTR-TOF 8000 (IONICON Analytik GmbH)) at various reduced electric field (E/N) values ranging from 80 up to 150 Td and for two different absolute humidity levels of air sample < 0.1% and 5%. The specific D-labeled compounds used in this study are acetone-d6, toluene-d8, benzene-d6, ethanol-d (C2H5OD), ethanol-d2 (CH3CD2OH), ethanol-d6, 2-propanol-d8, 2-propanol-d3 (CD3CH(OH)CH3), and isoprene-d5 (CH2CHC(CD2)CD3). With the exception of the two 2-propanol compounds, non-dissociative proton transfer is the dominant primary reaction pathway. For 2-propanol-d8 and 2-propanol-d3 the major primary reaction channel involved is dissociative proton transfer. However, unlike their undeuterated counterparts, the primary product ions undergo subsequent deuterium/hydrogen isotope exchange reactions with the ever present water in the drift tube, the extent of which of course depends on the humidity within that tube. This exchange leads to the generation of various isotopologue product ions, the product ion branching percentages of which are also
dependent on the humidity in the drift tube. This results in complex mass spectra and the distribution of product ions leads to issues of reduced sensitivity and accuracy. However, the effect of D/H exchange considerably varies between the compounds under study. In the case of acetone-d6 it is very weak (<1%), because the exchange process is not facile when the deuterium is in the methyl functional group. In comparison, the H3O+/ benzene-d6 (C6D6) reaction and sequential reactions with water result in the production of the isotopologue ions C6Dn(H7-n)+ (where n = 0–6). Changing the value of E/N and/or the humidity in the drift tube considerably affects the amount of the isotope exchange reactions and hence the resulting sequential product ion distributions. An important conclusion of the findings from this work is that care must be taken in the choice of an exogenous deuterated compound for use in breath pharmacokinetic studies using proton transfer reaction mass spectrometry; otherwise the resulting D/H exchange processes impose interpretative problems.
© 2018 The Authors. Published by Elsevier B.V. This is an open access article under the CC BY license
(http://creativecommons.org/licenses/by/4.0/).
The goal of this paper is to design a low-loss 1 x 32 Y-branch optical splitter for optical transmission systems, using two different design tools employing Beam Propagation Method. As a first step, a conventional 1 x 32 Y-branch splitter was designed and simulated in two-dimensional environment of OptiBPM photonic tool. The simulated optical properties feature high loss, high asymmetric splitting ratio and a large size of the designed structure, too. In the second step of this work we propose an optimization of the conventional splitter design leading to suppression of the asymmetric splitting ratio to one-third of its initial value and to the improvement of the losses by nearly 2 dB. In addition, 50% size reduction of the designed structure was also achieved. This length-optimized low-loss splitter was then modelled in a three-dimensional environment of RSoft photonic tool and the simulated results confirm the strong improvement of the optical properties.
This paper presents a project developed at the K.S.Rangasamy College of Technology (Tamilnadu,India) aimed at designing, implementing, and testing an autonomous multipurpose vehicle with safe, efficient, and economic operation. This autonomous vehicle moves through the crop lines of a Agricultural land and performs tasks that are tedious and/or hazardous to the farmers. First, it has been equipped for spraying, but other configurations have also been designed, such as: a seeding ,plug platform to reach the top part of the plants to perform different tasks (pruning, harvesting, etc.), and a trailer to transport the fruits, plants, and crop waste.
Modern portable electronic devices have seen component heat load increasing, while the space available for heat dissipation has decreased. This requires the thermal management system to be optimized to attain the high performance heat sink. Heat sinks plays a major role for dissipating heat in electronic devices. Phase change material (PCM) is used to enhance the heat dissipation in heat sink. This paper reports the results of an experimental investigation of the performance of Pin fin heat sinks filled with phase change materials for thermal management of electronic devices. The experimental set ups are prepared with the graphical programming language with Lab VIEW (Laboratory Virtual Instruments for Engineering Workbench. Three different types of Pin fin Heat sink with and without PCM are investigated based on different operational timings and the temperature is acquired with the help of Data Acquisition Card (DAQ). The results indicated that the inclusion of the PCM could stabilize the temperature for a longer period and reduce the heating rates and peak temperatures of heat sink with increasing the number of fins can enhance the thermal performance of electronic devices.
We have demonstrated micromachining of bulk 3C silicon carbide (3C- SiC) wafers by employing 1028nm wavelength femtosecond laser pulses of energy less than 10 nJ directly from a femtosecond laser oscillator, thus eliminating the need for an amplified system and increasing the micromachining speed by more than four orders of magnitude.
We have investigated the ablation behaviour of single crystal SrTiO3 <100> with focus on the influence of the pulse duration at a wavelength of 248 nm. The experiments were performed with KrF-excimer lasers with pulse durations of 34 ns and 500 fs, respectively. Femtosecond-ablation turns out to be more efficient by one order of magnitude and to eliminate the known problem of cracking of SrTiO3 during laser machining with longer pulses. In addition, the cavities ablated with femtosecond pulses display a smoother surface with no indication of melting and well-defined, sharp edges. These effects can be explained by the reduced thermal shock effect on the material by using ultrashort pulses.