Refine
Year of publication
- 2020 (60) (remove)
Document Type
- Master's Thesis (60) (remove)
Institute
Language
- German (60) (remove)
Has Fulltext
- yes (60)
Keywords
- Demand Side Management (2)
- Digitale Transformation (2)
- Digitalisierung (2)
- Erfolgsfaktor (2)
- Gestenerkennung (2)
- Klinische Soziale Arbeit (2)
- Machine learning (2)
- kritische Diskursanalyse (2)
- 4-Tage-Woche (1)
- ARM (1)
Digitale Transformation ist heutzutage eine Pflichtaufgabe. Die Literatur zu dem Themengebiet bietet sehr viel Auswahl. Trotzdem fehlt es immer noch an einem gängigen Konzept, welches bei der digitalen Transformation unterstützten soll.
Dementsprechend beschäftigt sich die vorliegende Masterarbeit mit der Fragestellung, ob es sich beim Enterprise Architecture Management (EAM, auf Deu. Unternehmensarchitektur) um so ein gängiges Konzept handeln könnte.
Um dies zu beantworten und eine gewisse Übersicht in den Stand der aktuellen Forschung zu bringen, wurde eine Literaturrecherche durchgeführt. Diese beinhaltet neben den theoretischen Hintergründen zur digitalen Transformation und EAM auch noch ein Ausarbeiten der digitalen Anforderungen an das EAM.
Ein EA-Framework wird als Referenzmodell ausgewählt und anhand der neuen Anforderungen einer kritischen Betrachtung unterzogen. Die Arbeit soll zum einen Erkenntnisse darüber liefern ob es ich sich bei dem gewählten Framework um ein mögliches Werkzeug handelt, welches bei der digitalen Transformation einen Mehrwert liefert. Zum anderen soll sie zeigen ob mit EAM die Lücke zum fehlenden Konzept geschlossen werden kann.
Predictive maintenance
(2020)
Das Ziel dieser Arbeit ist es aufzuzeigen, wie Predictive Maintenance in Vorarlberger Unternehmen verbreitet ist und wie sich dies mit dem aktuellen Stand der Forschung deckt. Dazu werden die folgenden Forschungsfragen gestellt: Wie ist der aktuelle Stand der Forschung auf dem Gebiet Predictive Maintenance? Wie deckt sich der Stand der Forschung im Bereich Predictive Maintenance mit der Verbreitung in Vorarlberger Unternehmen? Um die erste Forschungsfrage zu beantworten, wurde eine Literaturrecherche und -analyse durchgeführt. Um die zweite Forschungsfrage zu beantworten, wurden zwölf Interviews mit Vorarlberger Unternehmen durchgeführt. Die Ergebnisse der qualitativen Forschung wurden mit den Erkenntnissen aus der Literatur verglichen. Predictive Maintenance wird in Vorarlberger Unternehmen noch nicht oft angewendet. Die qualitative Forschung hat gezeigt, dass vor allem Engineering-Unternehmen ein Interesse am Einsatz von Predictive Maintenance habe, da sie damit ihre Produkte verbessern und Wartungskosten senken können. Produktionsunternehmen haben ein weniger starkes Interesse an der Umsetzung von Predictive Maintenance.
Einkauf 4.0
(2020)
Traditionelle Einkaufsprozesse haben viele Fehlerquellen und ungenütztes Potential. Viele Konzepte, die meist im Zusammenhang mit Digitalisierung und Industrie 4.0 stehen, versprechen Optimierungen. Diese Vielfalt führt jedoch in der Praxis zu Unklarheiten, da fraglich ist, was tatsächlich hinter den Konzepten steckt. Insbesondere der sogenannte „Einkauf 4.0“, der mehr als eine Digitalisierung der Beschaffungsprozesse verspricht, wirft viele Fragen auf.
Das Ziel der vorliegenden Forschungsarbeit ist es festzulegen, welche Merkmale dem „Einkauf 4.0“ zugeschrieben werden können und ob sich diese in Praxis wiederfinden. Dazu werden folgende Forschungsfragen gestellt:
1. Welche Merkmale können eindeutig dem Begriff „Einkauf 4.0“ zugeordnet werden, um eine aktuell gültige Umfangsdefinition zu erstellen?
2. Werden die gefundenen Merkmale des Einkauf 4.0 in der Praxis als relevant erachtet und umgesetzt? Falls ja, welche?
Um die erste Forschungsfrage zu beantworten wurden eine qualitative und eine quantitative Inhaltsanalyse durchgeführt. Die Merkmale des Begriff Einkauf 4.0 konnten dadurch eindeutig festlegt und abgrenzt werden. Die zweite Forschungsfrage wurde beantwortet in dem ein Vergleich der gefundenen Merkmale mit der Studie „BME-Barometer Elektronische Beschaffung 2020“ des BME e. V. erfolgte.
Die Auswertung der Inhaltsanalysen zeigt, dass sich Merkmale für den Einkauf 4.0 finden lassen, diese jedoch kritisch zu hinterfragen sind. Der Vergleich der Merkmale mit der Studie des BME e.V., ergibt, dass einige Merkmale in der Praxis wiederzufinden sind; Sie sind jedoch von unterschiedlicher Relevanz. Weiterführende Forschung ausgehend von der hier formulierten Definition würden tiefere Einblicke in das Konzept des Einkauf 4.0 ermöglichen.
In einer Zeit, in der Daten eine immer größere Rolle spielen, nehmen Schlagwörter wie Big Data, Data Analytics oder Data Mining auch in Organisationen eine große Rolle ein. Daten werden zum neuen digitalen Öl, das durch alle Systeme der Unternehmen und externe Quellen fließt. Richtig eingesetzt, unterstützen sie bei der Strategiefindung, bei der Umsetzung neuer Geschäftsmodelle, beim Gestalten neuer Abläufe und Prozesse und insbesondere bei der Entscheidungsfindung.
Die vorliegende Arbeit beschäftigt sich mit den Themen Daten und Unternehmenssystemen. Von diesen Themen ausgehend wird versucht, eine Brücke zu den Themenfeldern Prozessmanagement und Prozessinnovation zu schlagen. Die Arbeit soll aufzeigen, welche strategischen und operativen Ansätze die Nutzung von Daten als Treiber für Prozessinnovation zulassen. Aufbauend auf einer theoretischen Einordnung der vier skizzierten Gebiete, bildet ein empirischer Teil das Herzstück dieser Arbeit. In diesem Teil werden Aussagen von ExpertInnen darüber zusammengetragen, welche Ansätze zur datengetriebenen Prozessinnovation sie in ihren jeweiligen Unternehmen anwenden. Diese Aufarbeitung ist gegliedert in die drei Ebenen Rahmenbedingungen, Faktoren und Ansätze. Abgeschlossen wird diese Arbeit durch konkrete Handlungsempfehlungen für Unternehmen.
Die Suche nach geeigneten Maßnahmen im Kampf gegen den Pflegefachkräftemangel geht lange Zeit zurück. Immer mehr schnelle und nicht abgestimmte Lösungen kommen dabei auf. Um wirksam die Personallücke schließen zu können, muss an den Problemursachen angeknüpft werden.
In dieser Masterthesis wird der Personalmangel aus einer neuartigen Perspektive betrachtet. Mit Hilfe des Prozessfokus werden die existierenden Ideen mit folgender Fragestellung näher begutachtet: „Inwieweit spielt Business Process Management (BPM) eine Rolle bei den bisherigen Ideen? Kann BPM einen Beitrag zur Arbeitsentlastung der Pflegekräfte und damit zur Linderung des Personalmangels leisten?“
Um diese Frage beantworten zu können, ist eine zweiteilige Methodik erforderlich. Die Literaturrecherche wird mit dem Wissen aus einer Prozessbegehung ergänzt. Da die Kombination verschiedener Methoden ein Basisfachwissen voraussetzt, ist die Zielgruppe durch dieses Faktum definiert.
Am Ende kann die Digitalisierung in Verbindung mit organisatorischen Umstrukturierungen als geeigneter BPM-Lösungsansatz betitelt werden. Dieser knüpft an den Basisanforderungen an, um auf lange Sicht den Pflegemangel beherrschbar machen zu können.
Die Entwicklungen im Bereich der Algorithmen, Machine Learning und Künstlicher Intelligenz sind rasant und halten Einzug in immer mehr Bereichen des alltäglichen Lebens, insbesondere in den Unternehmen. Aus diesem Grund wird in dieser Arbeit der Frage nachgegangen, inwiefern dieser Trend Auswirkungen auf die benötigten Management-Kompetenzen hat. Zur Beantwortung dieser Frage wird zuerst die klassische Management-Lehre mit ihren zentralen Begrifflichkeiten und bestehenden Kompetenzmodellen beleuchtet und basierend auf diesen Erkenntnissen ein Analyse-Hilfsmodell entwickelt. Im Anschluss werden die wichtigsten Grundlagen zum Themenkomplex Algorithmus, Machine Learning und Künstliche Intelligenz behandelt und auf dieser Basis benötigte Management-Kompetenzen abgeleitet. Zusätzlich werden aktuelle Studien großer Beratungsunternehmen und Fachartikel analysiert und ebenfalls Kompetenzen für den Einsatz von Machine Learning und Künstlicher Intelligenz identifiziert. Schliesslich wird eine Gap-Analyse durchgeführt mit dem Resultat, dass keine grundsätzlich neuen Kompetenzen notwendig sind, diese jedoch teils erweitert werden müssen und sich deren Wichtigkeit verschiebt.
Die EU-Ziele umfassen die Steigerung des Anteils an erneuerbaren Energien an der Energieerzeugung um 32 % bis 2030. Doch erneuerbare Energien bringen neben den Vorteilen für den Umweltschutz auch Probleme mit sich. Ihre Schwankungen und Unkontrollierbarkeit stellen große Herausforderungen für das Stromnetz dar. Um die Netz- und damit die Versorgungssicherheit weiterhin gewährleisten zu können, braucht es Lösungen, die weder das Stromnetz, die Verbraucher noch die Energieversorger benachteiligen. Eine Möglichkeit wäre es, zusätzliche Kraftwerke und Infrastruktur (Redundanzen) aufzubauen, welche potenzielle Schwankungen ausgleichen können. Dieser Lösungsansatz gilt als traditioneller Weg, der hohe Kosten und negative Umweltauswirkungen mit sich bringt. Demand Side Management hat das Potenzial, effiziente Lösungen diesbezüglich anzubieten. Welche Vorteile der Einsatz von DSM auf Ebene der Haushaltsverbraucher für die Energieversorger in Bezug auf den Abruf von Ausgleichsenergie bringt, wird in dieser Arbeit behandelt. Dafür wurde ein agentenbasiertes Modell entwickelt, welches darauf abzielt, die Abweichung zwischen dem von dem Energieversorger prognostizierten Verbrauch und dem realen Verbrauch seiner Haushaltskunden zu verringern. Jeder Haushalt in dem vorgestellten Modell ist mit einer Flexibilität in Form eines Batteriespeichers ausgestattet. Die Speicherbewirtschaftung wird basierend auf einem Signal, welches der Energieversorger übermittelt, automatisch vom Haushalt für jeden Tag im Betrachtungszeitraum optimiert. Jede Abweichung zwischen der vom Energieversorger erstellten Prognose und der tatsächlich bezogenen Strommenge stellt dabei einen Bezug von Ausgleichsenergie dar. Untersucht werden die Auswirkungen der Anzahl an Haushalten sowie ein unterschiedlicher Wissensstand auf die Prognose. Weiters werden zwei unterschiedliche Arten von Demand Side Management analysiert. Einmal die Einflussnahme auf die Last der Haushalte durch ein Preissignal, einmal durch das Vorgeben eines Lastgangs. Um die Effektivität der beiden Varianten bestimmen zu können, wird auch die Menge an Ausgleichsenergie erhoben, welche ohne das Vorhandensein eines Batteriespeichers (also ohne Steuerung) anfallen würde. Das Modell wurde entwickelt, um einen Trend aufzuzeigen und keine spezifische Einsparungsmenge zu ermitteln, da dies von der jeweiligen Situation des Energieversorgers abhängt. Die Erstellung der unterschiedlichen Wissensstände basiert auf den österreichischen rechtlichen Vorgaben bezüglich der Datenübertragung bei intelligenten Messgeräten. Dabei ist einmal der Jahresverbrauch, einmal der Tagesverbrauch und einmal die stündlichen Verbrauchswerte bekannt. Das Preissignal ist negativ korreliert zu den am Day-Ahead-Markt gehandelten Mengen und das Lastsignal basiert auf einer der Prognosen des Energieversorgers, je nach Variante, die untersucht wird. Es zeigte sich, dass ein besserer Wissensstand nur teilweise eine Verbesserung der Prognose erzielte. Wobei die unterschiedlichen Wissensstände auf den realen Werten der nicht verwendeten Haushalte aus dem gleichen Datensatz aufbauen und so beispielsweise Wettereinflüsse in der Prognose schon bekannt waren, was die Prognose basierend auf Jahreswerten sehr genau machte. Der Aggregationseffekt von mehreren Haushalten beeinflusst die Prognose positiv. Auf einzelner Haushaltsebene schneiden die Vorhersagen deutlich schlechter ab als bei Prognosen des Gesamtverbrauchs aller Haushalte. Die Optimierung basierend auf dem Lastsignal generiert eine geringere Menge an Ausgleichsenergie als das Preissignal. Das liegt unter anderem daran, dass die Prognose nur die Verbräuche der Haushaltskunden berücksichtigt und nicht die Mengen, die am Markt gehandelt werden. In den untersuchten Varianten stellte sich heraus, dass am wenigsten Ausgleichsenergie über alle Haushalte erzeugt wird, wenn kein Demand Side Management betrieben wird, also keine Batteriespeicher vorhanden sind und die Prognose des Energieversorgers auf Stundenwerten basiert. Auf einzelner Haushaltsebene fällt bei der Optimierung mittels Lastsignal am wenigsten Ausgleichsenergie an.
Das Ziel dieser Masterarbeit war die Untersuchung der Einflussgrößen Wassertemperatur, Füllstand, Gasleerrohrgeschwindigkeit und Blasengröße auf die Befeuchtung von Luft in einer mit Salzwasser befüllten Blasensäule. Dazu wurde eine umfangreiche Versuchsreihe durchgeführt, um die Auswirkungen zu untersuchen. Großer Wert wurde dabei auf die Reproduzierbarkeit der Ergebnisse gelegt. Es wurde eine große Anzahl Datensätze während den Versuchszeiten geloggt und analysiert. Die Auswertung hat ergeben, dass die Wassertemperatur ein wesentlicher Einflussfaktor auf die Befeuchtung von Luft ist. Die Wassertemperatur zeigt gemäß des Antoine-Gesetzes exponentielle Auswirkungen auf die Kondensatproduktion auf. Hohe Füllstände in der Blasensäule wiesen im Vergleich zu niedrigeren Füllständen eine erhöhte Kondensatproduktion auf. Eine Steigerung der Gasleerrohrgeschwindigkeit in den Versuchen führte zu einer Zunahme der produzierten Kondensatströme. Die in dieser Arbeit untersuchten Spargerplatten der Variation des Lochdurchmessers konnten keine klaren Erkenntnisse auf die Befeuchtung von Luft liefern. Insgesamt sind die Forschungen an der Versuchsanlage noch nicht abgeschlossen und weitere Erkenntnisse zu dieser Thematik sollen in Zukunft gewonnen werden.
ÖKOPROFIT ist ein Kooperationsprojekt zwischen den örtlichen Gemeindenund der lokalenWirtschaft.Die Teilnahme ist für die Betriebe freiwillig. Ziel ist die Betriebskostensenkung bei gleichzeitiger Schonung der Ressourcen. In Vorarlberg sind derzeit circa170 Betriebe zertifiziert. Im Rahmen der Rezertifizierung, die jedes Jahr stattfindet, wird von den Betrieben ein Umweltbericht erstellt. Die Berichte werden derzeit in Word verfasst, in eine Cloud geladen und dort von den Auditoren geprüft. Dies ist jedoch nicht mehr zeitgemäß. Im Rahmen des CESBA-AlpsInterreg Alpine Projektes (2016-2019) wurde ein Tool entwickelt, mit dem Ziel Nachhaltigkeit und Energieeffizienz im Alpenraum zu verbessern. In dieser Arbeit wird nun geprüft, inwiefern das bestehende CESBA-Alps-Tool in Wert gesetzt und somit in den Rezertifizierungsprozess von ÖKOPROFIT integriert werden kann. Das Tool wird zunächst so eingerichtet, dass die Betriebe mit ihren dazugehörigenIndikatoren sowie passende Indikatoren-Sets angelegt werden können. Für den Test werden historische Daten bis zum Jahr 2013von zwei Pilot-Clustern (Landeskrankenhäuser und Landesregierungsgebäude) mit unterschiedlichen Indikatoren-Sets eingepflegt. Es wird untersucht, inwiefern die Auswertungen und Exporte für den Rezertifizierungsprozess bereits tauglich sind. Jegliche Auffälligkeiten, Fehler oder Verbesserungsvorschläge werden gesammelt. Es wird klar, dass die Export-Dateien verschlankt und optimiert werden müssen, damit sie ohne Mehraufwand verwertet werdenkönnen. Die wichtigste Handlungsempfehlung ist die automatisierte Berichtlegungsfunktion. Es sollte ein Texteditor in das Tool eingearbeitet werden, in den Unternehmen einzelne Textbausteine einpflegen können, sodass mithilfe des Tools nicht nur das Kennzahlenkapitel des Umweltberichts, sondern alle Kapitel standardisiert erarbeitet werden können. Nur so kann sichergestellt werden, dass das Tool für die Betriebe eine Arbeitserleichterung und somit Zeitersparnis generiert. In einem weiteren Arbeitspaketwurden ähnliche Online-Tools anhand von im Vorhinein ausgewählten und priorisierten Kriterien, die ein optimales Tool erfüllen sollte, mithilfe einer gewichteten Entscheidungsmatrix semiquantitativ verglichen. Hierbei schnitt das in dieser Arbeit getestete Tool selbst ohne die Verbesserungen am besten ab. Es stellt sich heraus, dass es bereits die Hälfte der ausgewählten Kriterien in einer sehr guten Weise erfüllt. Die Kriterien wurden von der ÖKOPROFIT-Programmleitung definiert. Werden die Handlungsempfehlungen in der Zukunft noch umgesetzt, könnte mit dem Tool tatsächlich eine Verbesserung des derzeitigen ÖKOPROFIT-Rezertifizierungsprozesses erwirkt werden.
Autonome Steuerung für das Demand Side Management von Wärmepumpenboilern mit linearer Optimierung
(2020)
Wärmepumpen, im Speziellen Wärmepumpenboiler, stellen mit ihrer thermischen Speicherkapazität eine gute Möglichkeit für autonome verbraucherseitige Laststeuerung (Autonomes Demand Side Management ADSM) dar. Zudem gewinnt diese Art der Brauchwarmwassererzeugung durch ihren dezentralen Ansatz und das Auskommen ohne fossile Energieträger im privaten Wohnbau immer mehr an Bedeutung. In Kombination mit staatlichen Fördergeldern ist die Anzahl verkaufter Einheiten in den letzten 5 Jahren am deutschen Markt um circa 25 % gestiegen. Obwohl das Lastverschiebungspotenzial von Wärmepumpenboilern unter Anwendung von Optimierungsalgorithmen in der Literatur theoretisch nachgewiesen ist, fehlen Verifikationen unter realen Bedingungen. Diese Arbeit will einerseits das theoretische Potential aufzeigen und andererseits mit dem vorgestellten Laborversuch einen Beitrag dazu liefern, die Verifikationslücke zu schließen. Für die Untersuchung im Labor wird ein handelsüblicher Wärmepumpenboiler bestehend aus einer Luft-Wärmepumpe und einem 300 Liter Warmwasserspeicher mit Sensoren und Aktoren ausgestattet. Insgesamt vier Temperatursensoren befinden sich am Speicherzulauf und -ablauf, sowie nahe der Speichermitte. Für die Aufzeichnung des Volumenstroms wird ein magnetisch-induktiver Messsensor am Speichereingang installiert. Zusätzlich wird mithilfe eines Proportionalventils am Speicherausgang das gewünschte Zapfprofil realisiert. Die Datenakquisition wird durch einen Datenlogger durchgeführt und die Optimierungsroutine auf dem PC implementiert. Die autonome Steuerung basiert auf einer von Day-Ahead-Marktpreisen der Energy Exchange Austria (EXAA) getriebenen linearen Optimierung mit dem Ziel, die Kosten der elektrischen Energie zu minimieren. Das Warmwasserverbrauchsprofil bildet den Verbrauch eines 4- Personen-Haushalts ab. Alle Mess- und Simulationsreihen basieren auf den gleichen Day-Ahead Preisfunktionen und Nutzerprofilen. Zur Verifikation des Lastverschiebungspotentials werden die Kosten pro MWh elektrischer Energie und die Kosten pro MWh thermischer Nutzenergie im Hysteresebetrieb (Normalbetrieb) denen des optimierten Betriebs gegenübergestellt. Durch eine Jahressimulation konnte das theoretische Potential nachgewiesen werden. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von rund 18 %. Die Kosten pro MWh thermischer Nutzenergie konnten durch die Optimierung um rund 19 % gesenkt werden. Die thermische Effizienz konnte somit um rund 1 % gesteigert werden. Der Wärmepumpenboiler wurde insgesamt zwei Wochen betrieben; eine Messreihe davon fand dabei im Normalbetrieb statt. In einer weiteren Messreihe wurde die Wärmepumpe mit der Optimierungsroutine betrieben. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von circa 23 %. Ebenso konnten die Kosten pro MWh thermischer Nutzenergie um 19 % gesenkt werden. Gleichzeitig sank die thermische Effizienz um 6 %.