Refine
Year of publication
Document Type
- Article (450)
- Master's Thesis (412)
- Conference Proceeding (396)
- Part of a Book (231)
- Book (107)
- Report (28)
- Other (18)
- Doctoral Thesis (14)
- Working Paper (9)
- Preprint (5)
Institute
- Wirtschaft (350)
- Forschungszentrum Mikrotechnik (253)
- Technik | Engineering & Technology (194)
- Forschungszentrum Business Informatics (168)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (164)
- Soziales & Gesundheit (145)
- Forschungsgruppe Empirische Sozialwissenschaften (117)
- Forschungszentrum Human Centred Technologies (102)
- Forschungszentrum Energie (88)
- Didaktik (mit 31.03.2021 aufgelöst; Integration ins TELL Center) (68)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Soziale Arbeit (15)
- Digitalisierung (14)
- Controlling (11)
- Laser ablation (11)
- Y-branch splitter (11)
- arrayed waveguide gratings (11)
- +KDC 122 (9)
In this thesis the effect of dc voltage bias on the equivalent series resistance (ESR) of capacitors and especially ferroelectric dielectric ceramic capacitors (FDCC) is analysed. Further the influence of the dc biased ESR on the losses of capacitors is investigated. Also piezoelectric resonances (PR) occurring in FDCCs with applied dc bias and their influence on the losses are analysed.
Therefore a measurement circuit to measure the impedance and thus the ESR of capacitors in combination with a vector network analyser (VNA) is developed. Using the developed circuit the ESR of capacitors of different technologies is measured and their behaviour with dc bias is evaluated. The losses of an FDCC are measured in a power electronic (PE) circuit with a developed calorimetric measurement system (CMS). The influence of the PR is investigated by tuning the switching frequency of the PE system and thus the frequency of the capacitor current exactly into the PR. The measured losses are then compared to a calculation based on the capacitor current harmonics and the respective ESR.
The measurements show an increase of the ESR with dc bias for all measured FDCCs. The loss measurements show a significant increase of the losses in an FDCC if the current frequency matches the PR frequency. Consequently a decrease of the PE system's efficiency is measured. The loss calculations do not exactly match the measurements but there is a systematic deviation of the same order for all measurements.
Die vorliegende Arbeit beschreibt eine Methode zur Prognose von Anomalien in einzelnen Sensordaten für die Anwendung in Expertensystemen im Bereich der Biomassekraftwerke. Die in fünf Schritten beschriebene Methode beinhaltet neben der Datenaufbereitung eine Anomalievorauswahl durch eine unüberwachte Ausreißererkennung, welche mittels des PYOD-Toolkit umgesetzt wurde. Bei der anschließenden Anomaliebestimmung wird der zuvor generierte binäre Zielvektor durch einen mit dem System vertrauten Experten validiert. Eine darauffolgende überwachte binäre Klassifikation mit unbekannten Betriebsdaten ergibt, dass mittel- bis langfristige Anomalien im Mehrstunden- bis Mehrtagesbereich in Form eines Trends reproduktiv vorhergesagt werden können. Kurzfristige Anomalien im Minutenbereich in Form von Extremfällen können hingegen nicht reproduktiv vorhergesagt werden. Eine zusätzliche Untersuchung zur Vorhersage einer Anomalie noch vor deren tatsächlichen Eintrittszeitpunkt brachte keine zufriedenstellenden Ergebnisse. Demnach lässt sich mit dieser Methode nur eine bestimmte Art von Anomalien in Expertensystemen für Biomassekraftwerke vorhersagen. Dazu sollte zudem darauf geachtet werden, dass es trotz positiv erzielter quantitativer Ergebnisse notwendig ist, für die qualitative Prüfung einen mit dem System vertrauten Experten hinzuzuziehen und dass für die zu prognostizierende Anomalie die geeignete Abtastzeit zu wählen ist. Abschließend bleibt zu erwähnen, dass Anomalien, welche nur durch Über- bzw. Unterschreitung eines definierten Grenzwertes gekennzeichnet werden, als zu trivial für diese Methode gelten. Diese können über eine einfache Grenzwertbetrachtung identifiziert werden.
In den letzten Jahrzehnten gewann Aluminium als vielseitig einsetzbarer Werkstoff immer mehr an Bedeutung. Das Vorarlberger Unternehmen Hydro Extrusion Nenzing ist Teil der Aluminiumverarbeitungsindustrie und stellt stranggepresste Aluminiumprofile her. Beim Strangpressen werden Aluminiumstangen in einem Durchlaufinduktionsofen auf bis zu 520 °C erhitzt und anschließend durch ein formgebendes Werkzeug gepresst. Nach dem induktivem Aufwärmen wird ein Teil der Stange aus dem Ofen gefahren und abgeschert. Die erzeugte Temperaturverteilung an diesem abgescherten Bolzen ist der sogenannte Taper. Das induktive Aufwärmen ist ein wichtiger Teil der Extrusion und steht im Fokus dieser Forschungsarbeit. Ziel dieser Arbeit ist es, den Aufwärmprozess der Aluminiumstangen, mithilfe einer Kombination aus explorativer Datenanalyse und Methoden des maschinellen Lernens, genauer zu verstehen und den resultierenden Taper vorherzusagen. Außerdem werden parallel die signifikanten Einflussparameter, ohne Berücksichtigung von Materialparametern, untersucht.
Nach der explorativen Datenanalyse wurden mithilfe eines k-means-Clusterverfahren zwei Klassifizierungsvarianten entwickelt. In der ersten Variante liegen die Taper nach ihrer Bolzenlänge und Form gegliedert vor. Es zeigte sich, dass die Taper der Bolzen mit ähnlicher Länge auch ähnliche Formen annehmen. Ein einfacher Entscheidungsbaum konnte die 13 Zielklassen zu etwa 85 % vorhersagen. Die Bolzenlänge spielt bei der Vorhersage eine wichtige Rolle. Die zweite Klassifizierungsvariante basiert hingegen ausschließlich auf der Taperform. Die angewendeten Modelle (k-Nearest-Neighbor, Decision Tree, Random Forest) waren jedoch kaum in der Lage, die 11 Klassen abzubilden. Grund für die unzureichende Vorhersageleistung können die vielen Unsicherheiten in der Datenstruktur sein. Die anschließende detaillierte, explorative Analyse der formabweichenden Taper deutet fehlende Merkmale im Datensatz an. Einige Bolzen setzen sich aus zwei Stangenenden zusammen. Diese geteilten Bolzen führen zu abweichenden Aufwärmverhalten, wodurch auffällige Taper entstehen. Die Information ob sich ein Bolzen aus zwei Stangen zusammensetzt fehlt jedoch im Datensatz. Der Aufwärmvorgang der Stangen wird demnach durch ein Wechselspiel der aktuellen Regelung und zwei maßgeblichen Faktoren beeinflusst: die Bolzenlänge und das Auftreten von geteilten Bolzen. Diese Faktoren bestimmen die Stangentemperatur im Ofen, den induzierten Strom und somit den resultierenden Taper. Aufgrund dieser Ergebnisse könnte die temperaturbasierte Regelung zukünftig durch eine Steuerung hinsichtlich des induzierten Stroms ersetzt, dadurch Energie eingespart und Schrott vermieden werden.
In Europa und den USA werden rund 39 % des Energieverbrauchs durch den Betrieb von Gebäuden verursacht. Sie bieten somit großes Potential, den Gesamtenergieverbrauch zu verringern. Eine sinnvolle Möglichkeit dieser Umsetzung, ohne auf Gebäudekomfort verzichten zu müssen, liegt in der Optimierung der Gebäudeeffizienz. Dahingehend werden physikalische und datenbasierte Modelle als Planungstool für die Gebäudemodellierung verwendet, um frühzeitig Erkenntnisse über deren Energieverbrauch zu gewinnen. Während physikalische Modelle thermodynamische Prinzipien zur Modellierung des Energieverbrauchs einsetzen, verwenden datenbasierte Modelle historische oder allgemein verfügbare Daten, um ein Vorhersagemodell zu entwickeln. Das Ziel dieser Arbeit ist die Erstellung eines datenbasierten Modells, zur Prognose des Energieverbrauchs der Beleuchtung von Bürogebäuden. Es wurden bereits zahlreiche Studien hinsichtlich Prognosen des Energieverbrauchs erstellt. Die meisten beziehen sich jedoch auf den Gesamtenergieverbrauch oder jenen, welcher für Heizung, Kühlung oder Klimatechnik aufgewendet wird. Die Recherche des Autors ergab, dass vergleichsweise wenig Forschung für Vorhersagemodelle zur Ermittlung des Energieverbrauchs für die Beleuchtung betrieben wurde. Zur Umsetzung der Analyse stehen dem Autor Daten aus der Beleuchtungsinfrastruktur sowie Wetter-, Zeit- und Gebäudedaten zur Verfügung. Anhand dieser Arbeit soll eruiert werden, ob diese Daten hinreichend aussagekräftig sind, um ein geeignetes Modell zu entwickeln.
Das Energieinstitut Vorarlberg hat zusammen mit mehreren Regionen in Vorarlberg das Sanierungslotsenprojekt gestartet, um die Beratungssituation bei der Gebäudesanierung zu verbessern. Durch wiederholten Kundenkontakt wurde festgestellt, dass es ein Beratungsdefizit für Besitzer älterer Einfamilienhäuser gibt. Zwischen der Erkenntnis, dass eine Sanierung des Gebäudes notwendig ist und dem Zeitpunkt, an dem die ersten Leistungen bestellt werden, gibt es keine sachkundige Betreuung in den Fragestellungen der zukünftigen Gebäudenutzung. In den bisher angebotenen Beratungen werden zwar auch unterschiedliche Sanierungsvarianten miteinander verglichen. Jedoch bezieht sich der Vergleich auf Variationen von Sanierungsmaßnahmen, wie beispielsweise Dämmstoff - und Fensterqualität oder die Auswahl eines Heizungssystems. Darüber hinaus gehende Fragen über altersgerechtes Wohnen, Generationenwohnen, Nachverdichtung und Vermietung werden in diesen Beratungen nicht behandelt. In allen Fragen der zukünftigen Nutzung und den zukünftigen Anforderungen an das Gebäude, den darauf abgestimmten Sanierungszielen und der zugehörigen Kostenschätzung mit Finanzierungsberechnung sind die Besitzer auf sich gestellt.
Deshalb ist der Bedarf nach einem einfachen Rechentool, welches in einer frühen Phase der Sanierungsberatung, eine schnelle Berechnung der in Betracht kommenden Sanierungsvarianten ermöglicht, entstanden. In dieser frühen Phase ist es bislang nicht üblich eine Kostenschätzung abzugeben. Für diese Berechnungen wird eine Datenbank mit Sanierungs - und Umbaukostenelementen benötigt, sodass mit einer abgesicherten Basisdaten kalkuliert werden kann.
In der vorliegenden Masterarbeit werden eine auf Microsoft Excel basierende Datenbank und das dazugehörige Rechentool vorgestellt, die die beschriebenen Anforderungen erfüllen. Mit Hilfe der Datenbank wird eine Grundlage geschaffen, an denen sich die Sanierungslotsen orientieren können. Zusätzlich zu den Netto- und Bruttokosten, die bei den einzelnen Sanierungsmaßnahmen anfallen, werden auch Einheitskosten angegeben, die in das Rechentool eingetragen werden können.
Das Rechentool ermöglicht den Vergleich von fünf unterschiedlichen Sanierungsvarianten. Durch die freie Eingabe der Flächen können auch Varianten mit unterschiedlichen Nutzungskonzepten und unterschiedlichen Grundrissen verglichen werden. Neben einer Grobkostenrechnung der Sanierungskosten erfolgt im Tool auch die Berechnung der Förderung laut der Wohnaussanierungsrichtlinie und Energieförderungsrichtlinie des Landes Vorarlberg. Weitere Förderungen können als Einmalzuschüsse eingetragen werden. Eine vereinfachte Wirtschaftlichkeitsbetrachtung erfolgt über die Berechnung der Finanzierung der Sanierung. Hierbei werden auch Einnahmen durch Vermietung berücksichtigt.
Minuten können in medizinischen Notfällen unmittelbar die Anwendbarkeit von Behandlungsmethoden, das Ausmaß von bleibenden Einschränkungen sowie die Überlebenschancen beeinflussen. Doch hat das präklinische Notfallmanagement heute mit steigenden Einsatzzahlen, zunehmenden Einsätzen ohne Dringlichkeit und dem demografischen Wandel bei gleichzeitigem Fachkräftemangel zu kämpfen. Entsprechend gewinnt das Prozessmanagement zur Gestaltung effizienter Rettungsketten an Bedeutung. Vor diesem Hintergrund ging die vorliegende Arbeit der Frage nach, welche Potentiale die Datenanalytik in vernetzten Rettungsketten für das Prozessmanagement hat, um wertvolle Zeit zu gewinnen. Zudem wurden die Herausforderungen der Datenanalytik in diesem Bereich betrachtet. Zur Beantwortung der Forschungsfrage wurde dabei eine theoretisch-konzeptionelle Vorgehensweise gewählt. Die Untersuchung zeigte, dass die Potentiale der Datenanalytik in diesem Kontext in der Entscheidungsunterstützung zur Standortwahl, zur Kapazitätsplanung und in der Abwicklung von Notfällen liegen. Zudem könnte diese bei der Prozessanalyse, sowie der Prävention und Vermeidung von Einsätzen unterstützen. Dahingegen liegen die Herausforderungen in der Notwendigkeit einer übergeordneten Strategie, der hinreichenden Datenqualität und Verfügbarkeit der Daten. Darüber hinaus bestehen Herausforderungen im Bereich der IT-Sicherheit und des Datenschutzes, sowie der oft fehlenden Vernetzung. Zusammenfassend wären die Potentiale der Datenanalytik zur Optimierung der Zeit in Rettungsketten vielversprechend, jedoch stehen dem Einsatz dieser aktuell noch eine Vielzahl an Herausforderungen gegenüber.
Im vorliegenden Paper wird ein Vergleich zwischen Produktions-und Simulationsdaten präsentiert welches im Rahmen einer größeren Initiative zur Verwendung von Shopfloor Daten bei einem Projektpartner in der Automobilindustrie umgesetzt wurde. In diesem Projekt wurden die Daten die während der Füllbildsimulation entstehen mit den Daten aus der finalen Werkzeugabnahme verglichen um zu analysieren, wie genau diese miteinander über einstimmen. Je besser die Simulation ist, desto schneller kann der gesamte Werkzeugentwicklungsprozess abgewickelt werden, welcher als Kernprozess massives Einsparungspotenzial und damit Wettbewerbsvorteil mit sich bringt.