Refine
Document Type
- Master's Thesis (298) (remove)
Institute
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (2)
- Soziales & Gesundheit (2)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (1)
- Forschungszentrum Energie (1)
- Gestaltung (1)
- Hochschulservices (1)
- Technik | Engineering & Technology (1)
- Wirtschaft (1)
Language
- German (298) (remove)
Keywords
- Digitalisierung (11)
- Controlling (6)
- Digitale Transformation (6)
- Industrie 4.0 (5)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Photovoltaik (4)
- Agilität (3)
- Demand Side Management (3)
- ESG (3)
Die vorliegende Masterarbeit befasst sich mit dem Verhalten von Mitarbeitenden in psychologisch sicheren und unsicheren Situationen. Hierfür wird das Konstrukt der psychologischen Sicherheit mit der Theorie der Ressourcenerhaltung verbunden. Dies wird als ein möglicher Ansatz gesehen, um zu erklären, wie psychologische Sicherheit entstehen kann. Es wird ermittelt, welche Ressourcen, als Prädiktoren von psychologischer Sicherheit relevant sind und zu welchen verhaltensbezogenen Konsequenzen psychologisch sichere und unsichere Situationen führen. Um die hierfür benötigten Daten zu erheben, wurde eine qualitative Studie in Form von neun teilstandardisierten Interviews, nach der Critical Incident Methode, durchgeführt. Die Ergebnisse zeigen auf, dass mit dieser Methode relevante Ressourcen der psychologischen Sicherheit ermittelt und verhaltensbezogene Konsequenzen, erfasst werden. Somit eignet sich die methodische Herangehensweise der vorliegenden Arbeit zur Anwendung in Unternehmen. Auf diese Weise können Unternehmen ermitteln, welche relevante Ressourcen für ihre Mitarbeitenden, die zur psychologischen Sicherheit führen, bereits vorhanden sind und welche gefördert werden müssen.
Die Anforderungen an gute Prognosen im Energiehandel der illwerke vkw AG steigen kontinuierlich an, da diese dazu verwendet werden, die richtigen Energiemengen auf dem Day-Ahead-Markt zu kaufen oder zu verkaufen. Zusätzliche Herausforderungen wie Wettereinflüsse und der steigende Energiebedarf von E-Autos erschweren die Prognose. Darüber hinaus gestaltet es sich mit den herkömmlichen Prognosebewertungen schwierig, die Kostenaspekte angemessen abzubilden. Aus diesem Grund wird in dieser Masterarbeit eine neue Methode zur Bewertung der Prognosequalität implementiert und mit bewährten Kennzahlen wie R², MAE, MAPE und RMSE verglichen. Diese Methode nutzt einen Preisverlauf, der die durchschnittlichen Marktpreise der Ausgleichsenergiepreise als Bewertungsmaßstab widerspiegelt. Die neue Bewertungsmethode wird mit Algorithmen wie dem Artificial Neural Network von Tensorflow, dem Decision Tree Regressor, der Linearen Regression, dem Multi-Layer Perception und dem Random Forest Regressor von Scikit-Learn verglichen. Zudem wird ein eigens erstelltes Gurobi-Modell, welches die Ausgleichsenergiepreise für die Gewichtung der absoluten Prognosefehler heranzieht, als Lineare Regression implementiert. Die genannten Modelle werden mithilfe von Python implementiert. Es werden tägliche Vorhersagen basierend auf viertelstündlichen Daten für Zeiträume von bis zu einem Jahr unter Verwendung eines Sliding-Window-Verfahrens mit unterschiedlichen Trainingsdaten erstellt. Die neue Bewertungsmethode mit der Einbeziehung von Kostenfaktoren, konnte sich im Vergleich zu MAPE, MAE, RMSE und R² nicht deutlich von den anderen unterscheiden. Die besten Ergebnisse wurden mit der Linearen Regression von Scikit-Learn und dem Gurobi-Modell mit der preisgewichteten Minimierung erzielt. Dabei sind die anderen Algorithmen nicht weit von den Resultaten der LR und GP entfernt. Unter dem Aspekt, dass das eigene Modell die Kosten minimieren soll, konnte es aber nicht als die beste Methode bewertet werden. Deswegen müssen das Modell und die gewählten Ausgleichsenergiepreise optimiert werden. Hierzu erzielte unter den sieben verwendeten Methoden die Lineare Regression das beste Ergebnis.
Der Übergang zu erneuerbaren Energiesystemen und deren optimale Betriebsweise ist entscheidend für die Reduzierung des Energieverbrauchs und der damit verbundenen Einsparung von CO2-Emissionen. In privaten Haushalten dominiert traditionell die Hystereseregelung bei der Wärmeerzeugung. Neuere Bauten, ausgestattet mit Wärmepumpen und Photovoltaikanlagen, bieten jedoch beachtliches Potenzial zur Effizienzsteigerung durch angepasste Regelungsstrategien. Eine intelligente Laststeuerung ermöglicht erhebliche Kosteneinsparungen und eine Erhöhung des Autarkiegrades. Vorhandene literarische Ansätze liefern Methoden zur Systemmodellierung und -identifikation. Darüber hinaus demonstrieren sie das Potenzial der Optimierung durch den Model Predictive Control (MPC) Ansatz. Eine spezifische Evaluierung anhand von Realdaten eines Energiesystems mit Abluft-Wärmepumpe fehlt jedoch. Daher bedarf es der Bewertung des Lastverschiebungspotentials dieser Systemkonfiguration. Die Systemidentifikation erfolgt basierend auf Messdaten, welche gleichzeitig als Referenz für den Vergleich des traditionellen Hysteresebetriebs mit der MPC-Steuerung dienen. Die Analyse offenbart das Lastverschiebungspotential durch die optimierte Betriebsweise einschließlich einer Gesamtkosteneinsparung von bis zu 42% und einer Steigerung des Autarkiegrades um bis zu 10%. Diese Potentiale variieren saisonal, sind jedoch das ganze Jahr über vorhanden.
Um Data Analytics gezielt und effektiv einzusetzen, gilt es als wichtig, die organisationale Reife eines Unternehmens in Bezug auf die Umsetzung von Data Analytics zu messen und zu verstehen. Da viele Unternehmen allerdings noch nicht bereit für die Implementierung von Supply Chain Analytics sind, benötigen sie ein Tool mit dem die eigene organisationale Reife gemessen und verbessert werden kann. Dafür wird in dieser Arbeit ein Readiness-Assess- ment-Framework entwickelt, das die organisationale Reife eines Unternehmens bestimmt und mittels ergänzendem Leitfaden Möglichkeiten zur Optimierung der eigenen Reife aufzeigt. Die Besonderheit dieses Assessments liegt in der Aufteilung in einzelne organisationale und tech- nologische Kategorien sowie deren Erfolgsfaktoren. Der Aufbau dieser Arbeit folgt dem De- sign-Science-Ansatz von Peffers et al. (2006). Mittels eines Literature Reviews und Expert:in- neninterviews wurden die Kategorien und Erfolgsfaktoren für das Assessment identifiziert und verifiziert. Nach der Entwicklung des Assessments wurde in einem Workshop die Praxistaug- lichkeit des Frameworks überprüft. Abschließend werden Ansatzpunkte für künftige Weiter- entwicklungen des Frameworks dargestellt.
Der Klimawandel und der damit einhergehende Temperaturanstieg stellen den Gebäudesektor in Bezug auf die sommerliche Überhitzung vor erhebliche Herausforderungen. Zur Abschätzung der Auswirkungen ist es relevant, Klimadaten für einen angemessenen Zeitraum zu verwenden, um geeignete Maßnahmen zur Hitzeminderung ergreifen zu können.Die sommerliche Überhitzung variiert je nach Gebäudetyp, Standort und örtlichen Gegebenheiten. Aus diesem Grund werden in dieser wissenschaftlichen Untersuchung Wohngebäude mit mehr als zehn Wohneinheiten für das Klimaszenario RCP4.5 im Jahr 2060 in Österreich analysiert. Zur Beurteilung des Wohnkomforts wurden umfangreiche Messungen im Rahmen einer Studie des Energieinstituts Vorarlberg an einem repräsentativen Gebäude über einen längeren Zeitraum durchgeführt. Basierend auf den gewonnenen Messwerten wird ein Referenzgebäude im Gebäudesimulationsprogramm IDA ICE konstruiert und simuliert. Um verschiedene Klimazonen angemessen abzubilden, werden die Standorte Bregenz, Klagenfurt und Wien für das Gebäude im Jahr 2022 betrachtet. Diese Ergebnisse bilden die Grundlage, um den Einfluss des Klimawandels auf die sommerliche Überhitzung abschätzen zu können. Im nächsten Schritt werden die neuen Klimadatensätze für das Klimaszenario RCP4.5 im Jahr 2060 für dieselben Standorte implementiert und mit den Ergebnissen von 2022 verglichen. Dadurch können verschiedene Kennziffern wie maximale Temperaturen, Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C und die Häufigkeit von Übertemperaturgradstunden herangezogen werden, um die zukünftige Hitzebelastung zu bewerten. Die Ergebnisse zeigen, dass mit einer Erhöhung der maximalen Temperatur, der mittleren Temperatur zwischen Mai und September sowie der Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C zu rechnen ist. Der Grenzwert von 25 °C wird dabei um 12 bis 29 Prozent überschritten. Die Maximaltem-peratur steigt um vier bis neun Prozent, während sich der Wert für die mittlere Temperatur um zwei bis drei Prozent erhöht. Besonders stark nimmt die Häufigkeit von Übertemperaturen über einen längeren Zeitraum zu. Für die Umsetzung passiver Maßnahmen zeigt sich, dass diese zu einer signifikanten Reduk-tion der Stundenanzahl mit Temperaturen über den Grenzwerten führen können. Auch durch simple Maßnahmen, wie die Integration einer Nachtlüftung, kann eine Absenkung der Tem-peraturen und folglich der Stundenanzahl über den Grenzwerten erreicht werden. Ein thermischer Komfort basierend ausschließlich auf passiven Maßnahmen kann nicht für sämtliche Standorte in der Zukunft gewährleistet werden.
In den letzten Jahren wurde den technischen Aspekten der Datenanalyse viel Aufmerksamkeit gewidmet, den organisatorischen Implikationen jedoch nur wenig, was dazu geführt hat, dass eine Reihe von Unternehmen nicht in der Lage war, den vollen Nutzen aus ihren Data Analytics-Investitionen zu ziehen was u.a. dazu führte das die Potenziale von Data Analytics nicht vollständig ausgeschöpft wurden. Ziel dieser Arbeit ist es, die organisatorischen Herausforderungen aus der Sicht des Managements, der Kultur und der Organisation zu beleuchten und unter der theoretischen Orientierung des „Dynamic Capability View“ die Haupttreiber für die organisatorische Verankerung von Data Analytics zu beleuchten, um die Potenziale der evidenzbasierten Entscheidungsfindung in einer datengetriebenen Organisation voll auszuschöpfen. Die Literaturarbeit zu Data Analytics und ihren organisatorischen Auswirkungen, die auf der Grundlage einer theoretisch-konzeptionellen Forschungsarbeit durchgeführt wurde, zeigt, dass es in diesem Kontext eine Vielzahl von Parametern gibt, die sich gegenseitig beeinflussen. Diese Studie hat gezeigt, dass Unternehmen einen ganzheitlichen Ansatz verfolgen müssen, um die Vorteile der modernen Data-Analytics-Methoden voll ausschöpfen zu können. Die Ergebnisse deuten darauf hin, dass die Hauptantriebskräfte für Datenanalysefähigkeiten gut ausgebildete Manager mit einem ausgeprägten analytischen Verständnis sind, die von klar definierten evidenzbasierten Prozessen geleitet werden, welche in einer hoch kultivierten datengetriebenen Kultur eingebettet sind. Dies ist die Grundlage für Wettbewerbsvorteile in hochdynamischen Umgebungen und führt in weiterer Folge zu einem höheren Niveau der Wertschöpfung.
Die Umsetzung von Konzepten der Industrial Internet of Things (IIoT) stellt Unternehmen vor große Herausforderungen. Ein Kernaspekt dabei ist das Vernetzen maschineller und menschlicher Akteure, sodass sich diese gegenseitig verstehen und dadurch sinnvolle Entscheidun-gen treffen können. Dieses Verstehen setzt eine semantische Interoperabilität der Akteure voraus, die meist mithilfe von Ontologien und Ontologie Matching ermöglicht werden soll. Ziel dieser Arbeit ist es, die Grundkonzepte zum Ermöglichen semantischer Interoperabilität zusammenzufassen und aktuelle Anwendungsbeispiele und Herangehensweisen zu besprechen, um darauf aufbauend bestimmen zu können, wie weit Forschung und Unternehmen noch von der Umsetzung der semantischen Interoperabilität im Kontext der IIoT entfernt sind. Dazu wurde ein theoretisch-konzeptionelles Vorgehen gewählt. Die Ergebnisse der vorliegenden Arbeit weisen darauf hin, dass in naher Zukunft nicht mit einer erfolgreichen Umset-zung zu rechnen ist, welche generisch genug ist, in unterschiedlichen Bereichen der IIoT eingesetzt zu werden. Dafür konnte gezeigt werden, dass sich mehrere, mitunter gegenseitig beeinflussende Trends in der Herangehensweise zur Lösung der semantischen Interoperabilität ausgebildet haben, nämlich hybride Alignmentarchitekturen, ein modularer Aufbau von Ontologien, das Erstellen von maschinenlesbaren Standards und dazu gehörenden Ontologien sowie ein Trend zur Verwendung von Wissensgraph Embeddings. Besonders der letzte Trend ist dabei kritisch zu betrachten. Darüber hinaus konnten in dieser Arbeit offene Problemfelder bestimmt werden, die aus derzeitiger Sicht einer erfolgreichen Umsetzung semantischer Interoperabilität entgegenstehen. Dies betrifft einerseits das Fehlen einer Harmonisierung von IIoT-Standards und andererseits den Mangel an Alignmentdatenbanken und Benchmarks für Ontologie Alignments im Bereich der IIoT. Darüber hinaus bedarf es eines abgestimmten, strategischen Vorgehens der derzeit laufenden und zukünftigen Initiativen, um vorhandene Erkenntnisse besser zu nutzen und um sich wiederholende Probleme nachhaltig zu lösen.
New Work 2025–2030
(2023)
Unternehmen stehen vor der Herausforderung, durch passende Arbeitsbedingungen die bestehenden Mitarbeitenden zu binden und neue Talente zu finden. Eine mögliche Lösung für diese Herausforderungen kann ‚New Work‘ sein. Es ist notwendig zu verstehen, was New Work für die Region Vorarlberg bedeutet und was bei der Konzeption von neuen Arbeitsbe-dingungen zu berücksichtigen ist. Das Ziel der vorliegenden Arbeit ist es, eine Antwort auf die Frage zu finden, was New Work für die Region Vorarlberg in den Jahren 2025–2030 bedeutet und eine entsprechende Standortbestimmung durchzuführen. Dazu wird die folgende Forschungsfrage vertieft untersucht: ‚Was bedeutet New Work für die Region Vorarlberg in den Jahren 2025–2030?‘ Die Vertiefung dieser Fragestellung erfolgt über weitere Unterfragen. Um Antworten auf die Forschungsfrage zu erhalten, wurde ein Mixed-Methods-Ansatz gewählt. Für eine Standortbestimmung zum Thema ‚New Work‘ in Vorarlberg wurden im ersten Schritt Befragungen zweier Fokusgruppen, als qualitativer Teil der Forschung, durchgeführt. Die Ergebnisse dieser Befragung wurden ausgewertet. Aus den Ergebnissen und dem theoretischen Input wurden Hypothesen sowie ein Fragebogen zur quantitativen Untersuchung erstellt. Die qualitative Forschung ist die Grundlage für die anschließende quantitative Untersuchung. Durch diese Vorgehensweise sind sowohl eine Vertiefung und eine Ergänzung der qualitativen als auch der quantitativen Daten möglich. Die Ergebnisse zeigen, dass New Work ein generationenübergreifendes Thema ist. Es gibt keine nennenswerten Unterschiede zwischen den Generationen. Jedoch gibt es Unterschiede zwischen jüngeren und älteren Personen bezüglich der unterschiedlichen New-Work-Methoden. Die Antworten zeigen auf, dass es vor allem zwischen Frauen und Männern Unterschiede in den Vorstellungen der Arbeitsbedingungen gibt. Frauen legen vor allem Wert auf Flexibilität, psychologisches Empowerment und motivationale Faktoren. Weiterführende Forschung im Bereich ‚New Work‘ könnte sich mit den Unterschieden zwischen Frauen und Männern befassen und was die passenden Rahmenbedingungen sind, um die Leistung und Motivation dieser beiden Personengruppen zu steigern.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.