Refine
Document Type
- Master's Thesis (297) (remove)
Institute
Language
- German (297) (remove)
Keywords
- Digitalisierung (11)
- Controlling (6)
- Digitale Transformation (6)
- Industrie 4.0 (5)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Photovoltaik (4)
- Agilität (3)
- Demand Side Management (3)
- ESG (3)
Vor über 25 Jahren, im Mai 1997 wurde mit dem Gewaltschutzgesetzes in Österreich eine klare Haltung gegen Gewalt an Frauen gesetzt. Dennoch sind die Zahlen von häuslicher Gewalt gegen Frauen bis heute erschreckend hoch. Die Gesetzeslage in Österreich gilt als fortschrittlich, die Umsetzung der Gesetze steht dabei jedoch immer wieder in Kritik. (Baer 2010, S. 556). Um herauszufinden, was es für einen gelingenden Gewaltschutz von Frauen bedarf, muss mit den Expert*innen aus diesem Feld gesprochen werden. In vorliegender Arbeit wurde daher erforscht, wie sich die multi-institutionelle Zusammenarbeit zum Schutz und der Unterstützung von gewaltbetroffenen Frauen in Vorarlberg gestaltet und welche Faktoren aus Sicht der Expert*innen die Unterstützung von gewaltbetroffenen Frauen erschweren, beziehungsweise erleichtern. Um dies zu erforschen, wurden Expert*inneninterviews im Bereich der Sozialen Arbeit, Justiz, Polizei und dem Gesundheitswesen geführt. Da häusliche Gewalt gegen Frauen ein gesamtgesellschaftliches Problem darstellt (Carstensen 2018, S. 52), wurde die vorliegende Forschungsarbeit anhand der Kritischen Diskursanalyse nach Jäger durchgeführt. (Jäger 2015) Die Arbeit gibt einen Überblick über die Organisation der multi-institutionellen Zusammenarbeit gegen häusliche Gewalt an Frauen in Vorarlberg. Zudem zeigt sie gelingende und hemmende Faktoren im Interventionssystem und in der Zusammenarbeit auf. Dabei werden zum einen die positiven Entwicklungen und Errungenschaften im Interventionssystem verdeutlicht als auch die bestehenden Defizite und Möglichkeiten der Verbesserung aufgezeigt. Dabei zeigt sich u.a. der Bedarf an Schulungen für die verschiedenen Professionsgruppen im Interventionssystem als auch ein Defizit an Zugängen und Vernetzungen im medizinischen Bereich.
Die vorliegende Masterarbeit enthält neue Erkenntnisse in Bezug auf die Frage, ob die Änderung einer Analystenempfehlung für Aktien neue Informationen enthält und ein Anleger eine abnormale Rendite erzielen kann. Darüber hinaus wird untersucht, ob in Phasen des konjunkturellen Abschwungs eine höhere abnormale Rendite im Vergleich zu einem konjunkturellen Aufschwung ausgewiesen wird. Die Ergebnisse zeigen, dass Aktienkurse signifikant positiv auf Kaufempfehlungen und signifikant negativ auf Verkaufsempfehlungen reagieren. Zusätzlich wird belegt, dass eine höhere und zeitlich längere Reaktion auf eine Verkaufsempfehlung gegenüber einer Kaufempfehlung stattfindet. Es wird außerdem festgestellt, dass auch bei isolierter Betrachtung der Konjunkturzyklen (Aufschwung und Abschwung) eine abnormale Rendite erzielt wird. Zudem verzeichnen negative Veränderungen der Analystenempfehlungen eine höhere abnormale Rendite als jene bei positiven Veränderungen.
Diese Arbeit resultiert in einem Leitfaden, der zur verbesserten Wirksamkeit von Lernmaßnahmen in Organisationen beitragen soll. Inbesondere die Verkürzung der Halbwertszeit von Wissen gab Anlass zur vorliegenden Untersuchung. In den Kapiteln zwei und drei wurde das theoretische Fundament durch Bearbeitung der Themen Personal-/Kompetenzentwicklung, allgemeine und individuelle Lerntheorie, sowie Lernbedarfsanalyse, Lerntransfer und Lernevaluation gebildet. Darauf aufbauend wurde mit der Methodik (Kapitel 4) der Experteninterviews der aktuelle Stand definierter Organisationen im Raum Ostschweiz, Westösterreich und Liechtenstein hinsichtlich Lernbedarfsanalyse, Lerntransfer und Lernevaluation erhoben. Diese Ergebnisse wurden in Kapitel 5 mit der Literaturstudie aus Kapitel 2 und 3 verglichen. Der Leitfaden besteht für Lernbedarfsanalyse, Lerntransfer und Lernevaluation aus unterschiedlichen Schritten, die in Tabellenformat dargestellt und beschrieben sind (Kapitel 6). In Kapitel 7 wurden, neben einer Zusammenfassung und einem Fazit, weiterführende Forschungsansätze zur Thematik angeführt.
Das Ziel der Masterarbeit war die Untersuchung der Umsetzung von flexiblen Arbeitszeitmodellen in Vorarlberger Unternehmen aus der Industriebranche sowie die Untersuchung der Arbeitnehmerpräferenzen von flexiblen Arbeitszeitmodellen. Dazu wurden zwölf HR-Expert/innen in Experteninterviews und zusätzlich über 200 Arbeitnehmende mittels Online-Fragebogen befragt. Die Gegenüberstellung der Ergebnisse zeigen die Diskrepanz zwischen Arbeitszeitmodellen, welche in der Praxis umgesetzt werden, und Arbeitszeitmodellen, welche sich Arbeitnehmende wünschen bzw. bevorzugen. Hauptsächlich wird die Gleitzeit mit Kernzeit umgesetzt. Die komprimierte Vier-Tage-Woche, Vertrauensarbeitszeit, und die Abschaffung der Kernzeiten werden nicht oder selten umgesetzt. Während Unternehmen teilweise Unterschiede in den Präferenzen zwischen Frauen und Männer sowie Jung und Alt beobachten, können die Ergebnisse des Online-Fragebogens diese Aussagen nicht bestätigen. Die Zufriedenheit der Arbeitnehmenden ist hoch. Es bestehen Diskrepanzen zwischen präferierten und umgesetzten Arbeitszeitmodellen.
In der vorliegenden Masterarbeit wird das Verbesserungspotential von Gebäudeleitsystemen am Beispiel der Errichtergemeinschaft Frühlingstraße untersucht. Der Fokus bei der Analyse liegt auf der Ermittlung von Verbesserungen im Bereich der Regel- und Steuerstrategien. Beim Referenzobjekt handelt es sich um sieben Einfamilienhäuser, die durch einen zentralen Pelletkessel mit Wärmeenergie versorgt werden, welche über das miteinander verbundene Kellergeschoss verteilt wird.
Im Kapitel Stand der Technik werden die Gebäudeleitsysteme von Mehrfamilien-Wohnanlagen in den 2000er Jahren und in den 2020er Jahren mit dem ausgeführten Gebäudeleitsystem des Referenzobjektes der Errichtergemeinschaft Frühlingstraße, bei dem es sich ebenfalls um eine Mehrfamilien-Wohnanlage handelt, miteinander verglichen. Nach dem Kapitel Forschungsstand wird die verwendete Methode kurz umrissen. Ein wichtiger Schritt zur fertigen Simulation ist das Verstehen der bestehenden Steuer- und Regelstrategien. Dabei wird sehr genau auf die Regelung der Häuser und des Pelletkessels eingegangen. Ebenfalls werden die zu simulierenden Komponenten, die zur Verfügung gestellten Messdaten und die verwendete Simulationssoftware Polysun beschrieben. Bei der Simulation des Referenzobjektes wird speziell auf die verwendeten Komponenten, aber auch auf die umgesetzten Regel- und Steuerstrategien eingegangen. Die Beschreibung der einzelnen Varianten beschränkt sich auf den Unterschied zur Simulation des Referenzobjektes.
Die einzelnen Varianten unterscheiden sich im Bereich des solaren Deckungsanteils nur sehr geringfügig. Die solare Ausbeute in den Monaten Mai bis August ist bei den Varianten 3 und 4 jedoch deutlich höher als bei den anderen Varianten. Ein deutlicher Unterschied ist auch im Bereich des Pellet-Verbrauchs auszumachen. Bei der Variante 4 werden im Vergleich zum Referenzobjekt jährlich gut 800 kg Pellets eingespart. Dies bedeutet eine Reduktion des CO2-Ausstoßes um 167,8 kg. Dieser Trend der Reduktion kann auch bei den Betriebsdauern des Pelletkessels fortgesetzt werden. Der größte Unterschied der einzelnen Varianten ist bei den Anforderungen des Pelletkessels auszumachen. Somit wird der Pelletkessel bei der Variante 2 14536-mal angefordert und bei der Variante 4 lediglich 3353-mal.
Diese Verbesserungen können durch kleine Anpassungen der Regel- und Steuerstrategien erzielt werden. Gerade weil die Low-Tech Gebäude des Referenzobjekts sehr energieeffizient umgesetzt und nicht mit technischer Ausstattung überladen wurden, können die ermittelten Verbesserungspotentiale bei anderen Gebäuden umgesetzt werden. Bei Gebäuden, die nicht als Low-Tech Gebäude errichtet wurden, ist durch die Anpassung des Gebäudeleitsystems ein größeres Verbesserungspotential zu erwarten.
Die vorliegende Arbeit betrachtet in wie weit die analysierten Berichterstattungen ausgewählter ATX Unternehmen die zukünftig zwingend zu erfüllenden europäischen Nachhaltigkeitsberichterstattungsstandards (ESRS) bereits in den Berichterstattungen des Geschäftsjahres 2022 erfüllen. Hierzu wird zuerst eine Einbettung der ESRS in die rechtliche Landkarte und deren Umsetzungszeitraum beschrieben, bevor die Gliederung und einzelnen ESRS vorgestellt werden. Der empirische Teil untersucht mittels einer qualitativen Inhaltsanalyse die Berichterstattungen ausgewählter ATX Unternehmen hinlänglich der Einhaltung der im ersten Schritt der Umsetzung zwingend zu berücksichtigenden ESRS. Dabei geht die Auswertung sowohl auf Unterschiede zwischen den Berichten, sowie berichtsübergreifend auf die einzelnen Standards ein.
Der technologische Wandel, der in den letzten Jahren stattgefunden hat, führte zu einer neuen industriellen Revolution. Die vierte industrielle Revolution baut auf cyber-physischen Systemen auf, die mechanische Komponenten durch die Internetkommunikation miteinander vernetzt und dadurch die Steuerung von komplexen Systemen, wie Fertigungsanlagen, ermöglicht. Dies hat zu einem Fortschritt in der Industrie geführt und den Möglichkeiten in der Produktion.
Dem gegenüber steht der altbewährte Lean Production Ansatz, der bereits seit 1970 in den produzierenden Unternehmen dieser Welt, ein fester Bestandteil ist. Darin enthalten sind Methoden, die zum Beispiel zur Verschwendungsminimierung, Prozessverschlankung sowie Produktionssteuerung beitragen.
Obwohl die beiden Produktionsphilosophien auf den ersten Blick nicht in Korrelation zueinanderstehen, sind sie in der realen Produktionswelt kaum voneinander trennbar. Sie queren sich nicht nur in ihren Prinzipien und Leitgedanken, sondern auch in den Methoden selbst. Dabei können sie in vielen Punkten als ergänzend angesehen werden und teilweise auch als aufeinander aufbauend.
Der Hauptteil der vorliegenden Arbeit beschäftigt sich damit, inwiefern Industrie 4.0 einen Einfluss auf die altbewährten Lean Methoden hat und wie diese zwei Themen im Verhältnis zueinanderstehen. Dabei werden die Grundprinzipien, die hinter diesen beiden Begriffen stehen erläutert und zueinander in Relation gestellt. Ebenfalls findet ein direkter Methodenvergleich statt, bei dem ausgewählte Lean Methoden mit Industrie 4.0 verglichen werden. In den Kapiteln werden nicht nur die Gemeinsamkeiten behandelt, sondern natürlich auch die Gegensätze, die diese zwei Prinzipien innehaben. Im anschließenden Kapitel wird weiters definiert, ob Lean Management die Voraussetzung für Investitionen in Industrie 4.0 darstellt, oder ob Industrie 4.0 diverse Lean Methoden sogar obsolet macht.
Den Abschluss der Arbeit bildet eine Analyse des neuen Begriffes Lean 4.0, der bereits in diversen Publikationen vorgestellt wurde. Ebenfalls werden noch drei Modelle vorgestellt, die einen Leitfaden für die Einführung von Industrie 4.0 darstellen und eine eindeutige Stellungnahme dazu nehmen, ob Lean die Voraussetzung für eine erfolgreiche Einführung von Industrie 4.0 im Unternehmen ist.
In den vergangenen Jahren hat die digitale Transformation Abläufe, Handlungen und Entscheidungen von vielen Personen enorm verändert. In der Privatwirtschaft werden die Arbeits-weisen bereits überwiegend digital abgewickelt. Auch das Privatleben wird von immer mehr digitalen Formen geprägt. Im öffentlichen Sektor hingegen sind zwar Entwicklungen zu erkennen, der Wandel ist aber noch nicht so weit fortgeschritten wie sonst gesellschaftlich zu er-kennen ist. Das Ziel der vorliegenden Arbeit ist es, die Kernaussagen der digitalen Transformation in der öffentlichen Verwaltung aufzuzeigen und den Status Quo darzulegen. Dabei wurden die Herausforderungen genau analysiert und daraus resultierend entsprechende Handlungsempfehlungen definiert. Für die bessere Nachvollziehbarkeit wurde das Projekt „Digitales Bauverfahren“ des Vorarlberger Gemeindeverbands als Praxisbeispiel einbezogen. Daraus wurden weitere Handlungsempfehlungen entwickelt. Diese Ergebnisse können für zu-künftige Entwicklungen in der Verwaltung herangezogen werden. Sie verstehen sich auch als Beitrag für die Forschung, die damit weiter ausgeweitet wird.
Diese Arbeit verfolgt das Interesse, Einblicke in die Kontextualisierung Klinischer Sozialer Arbeit zu geben, die im rehabilitativen, stationären Setting in Rehabilitationseinrichtungen in Süddeutschland angesiedelt ist. Zu Beginn wird die Entwicklung Klinischer Sozialer Arbeit mit ihren sozialtherapeutischen und sozialpsychologischen Ansätzen sowie das Forschungsfeld Rehabilitation betrachtet. Darauf folgt die Formulierung der Forschungsfrage, in dessen Fokus die Erkundung des Erlebens Klinischer Sozialer Arbeit und Klinischer Psychotherapie im Setting steht. Von Interesse sind vorzufindende Kontextbedingungen sowie mögliche Überschneidungen von Zuständigkeiten und Kompetenzen innerhalb der Interdisziplinarität. Die Befragung der Professionen erhebt die Perspektiven über Einschätzungen, Haltungen und das Tätigkeitsverständnis im Arbeitsalltag aus der Selbst- und Fremdwahrnehmung. Zuletzt werden die Ergebnisse zusammengeführt und um die evidenzbasierte Perspektive ergänzt. Durch den Vergleich wird deutlich, dass Klinische Soziale Arbeit im Forschungsfeld als unentbehrlich angesehen wird. Sie kann Klient:innen aufgrund ihrer bestehenden Expertise und sozial-interventiven Angeboten bei der Lebensbewältigung in deren Lebenswelt unterstützen sowie eine selbstbestimmte Lebensführung und gesellschaftliche Integration und Teilhabe ermöglichen.
In der vorliegenden Masterarbeit geht es darum, inwiefern das Conversational Design von NLP-basierten Chatbots in der Bewerberkommunikation gestaltet werden kann, um eine optimale Candidate Experience für die Bewerber/innen zu schaffen. Das Conversational Design umfasst dabei die Dialoggestaltung, den sprachlichen Stil sowie die Relevanz einer Persönlichkeit eines Chatbots. Es wird beschrieben, wie Chatbots auf der Karrierehomepage sowie auf Messenger-Plattformen eingesetzt werden können. Dabei geht es ausschließlich um Textbots, die mit Hilfe der Technologie von Natural Language Processing und basierend auf das Machine Learning als schwache Form der künstlichen Intelligenz in der Bewerberkommunikation eingesetzt werden. Dazu wurden im empirischen Teil qualitative Experteninterviews mit Personen aus HR-Abteilungen sowie mit Beratungsunternehmen geführt. Ziel dieser Arbeit ist es, einen Leitfaden für HR-Abteilungen bereitzustellen, inwiefern das Conversational Design von Chatbots gestaltet werden kann sowie welche kritischen Erfolgsfaktoren zur Schaffung einer optimalen Candidate Experience berücksichtigt werden müssen.
Für die Messung der Zielerreichung werden eine Vielzahl an unterschiedlichen Beschaffungskennzahlen verwendet. Die unterschiedlichen Messmethoden sowie die dazugehörigen Instrumente passen sich dabei an die jeweilige Beschaffungspolitik an. Jedoch unterliegt die Beschaffungspolitik einem stetigen Wandel. Mit steigendem Reifegrad der Beschaffungspolitik ändert sich auch der Fokus von Messmethoden und Instrumenten. Stehen im ersten Reifegrad der Beschaffungspolitik noch die Kosten von einzelnen Beschaffungsobjekten im Mittelpunkt der Betrachtung, erweitert sich der Fokus beim zweiten Reifegrad bereits auf die Gesamtkosten. Die nächste Evolutionsstufe bildet der dritte Reifegrad, also die wertorientierte Beschaffungspolitik. Dabei werden nicht mehr nur die Kosten betrachtet, sondern auch der Nutzen, der dabei entsteht. Die Differenz zwischen Kosten und Nutzen ist vereinfacht ausgedrückt der Wertbeitrag, der durch die Beschaffung generiert wird. Um diesen Wertbeitrag zu messen, gibt es sowohl in der Literatur als auch in der Praxis zahlreiche Einzelkennzahlen, aber keine Spitzenkennzahl, die auch einen Vergleich mit den Mitbewerbern zulässt. Der Procurement-Value-Added (PVA) bietet dabei einen Lösungsansatz und versucht durch öffentlich zugängliche Daten einerseits den wertorientierten Beschaffungserfolg objektiv darzustellen und andererseits ein einfaches Benchmarking zu ermöglichen. In dieser Arbeit wird der PVA-Ansatz systematisch analysiert und mit anderen wertorientierten Beschaffungskennzahlen verglichen. Dadurch soll festgestellt werden, ob der PVA-Ansatz das Potenzial hat in der Praxis angewendet werden zu können.
Traktorbedienerinnen und Traktorbediener haben das Problem, dass multimodale Mensch-Maschine-Schnittstellen von Traktoren unzureichend bedienbar sind. Dies macht sich vor allem durch lange Einlernzeiten, kognitiver Überforderung aufgrund des Funktionsumfangs und ineffizientem Bedienverhalten bemerkbar.
Traktoren werden längst nicht mehr nur durch mechanische Schalter, Hebel und Tasten gesteuert. Die Bedienung einer modernen landwirtschaftlichen Zugmaschine ist multimodal: primäre Funktionen, wie das Fahren und die grundlegende Steuerung von Anbaugeräten, werden von den Nutzerinnen und Nutzern über haptische Bedien- und Stellelemente ausgeführt, doch Justierungen und Automationen während und vor der Arbeit mit dem Traktor finden vollständig über die Software statt. Über einen Bildschirm werden z. B. Einstellungen an angehängten Anbaugeräten vorgenommen, teilautonome Prozesse zur Austragung justiert, automatische Lenkung und Dokumentation initiiert, Traktor-bedingte Einstellungen, wie z. B. Hydraulikanpassungen ausgeübt, Komfortfunktionen wie das Radio bedient und umfassende Informationen zur Maschine und der Peripherie aufgerufen.
Eine Software muss in diesem Umfeld eine Vielzahl an Informationen verarbeiten und das komplexe System Traktor mit seinen Anbaugeräten funktional darstellen können. Die Traktorenbedienung wird also von enorm vielen Kontexten beeinflusst, die wechselwirken.
Diese Kontexte, wie z. B. Eigenheiten der Bedienerinnen und Bediener, Maschinenkonditionen oder die Art der Tätigkeit, um nur einige wenige zu nennen, muss die Software adressieren können – doch das macht sie in den aktuellen Systemen nicht ausreichend. Dies zeigt sich aus wissenschaftlichen Veröffentlichungen zur Software-Ergonomie in Traktoren und empirischen Untersuchungen im Rahmen dieser Masterarbeit. So ist es für die Bedienerinnen und Bediener ineffizient, wenn sie Prozesse für eine Aufgabe auf dem Feld ausführen müssen, die repetitiv sind. Diese Masterarbeit konzipiert daher anhand des Adaptive User Interface Ansatzes einen Vorschlag für eine Software, die diesem kontextreichen Umfeld gerecht werden kann und zu einer kognitiven Entlastung führen soll. Ein Adaptive User Interface ist ein intelligentes Schnittstellenkonzept, das anhand von Sensorik und Machine Learning Inhalte, Darstellung und Funktionen adaptieren kann. Durch umfassende Analysen des Ist-Stands von Traktor-Softwares und der Befragung und Beobachtung von Bedienerinnen und Bedienern in ihrem alltäglichen Arbeitsumfeld konnten Anforderungen spezifiziert, und darauf basierend iterativ Lösungen entwickelt werden. Das Ergebnis ist ein evaluiertes GUI-Konzept, das auf zwei übereinander angeordneten Bildschirmen basiert und mittels Touch-Eingabe und einer 4-Wege-Taste bedient wird. Auf den Bildschirmen werden Funktionen für Traktor und Schnittstellen, mit denen die Anbaugeräte betrieben werden, getrennt dargestellt. Dies soll für eine Entlastung des Funktionsüberschusses sorgen. Kern dieses Konzepts ist jedoch die Implementierung des adaptiven Ansatzes: Basierend auf dem Kontext werden Adaptionsvorschläge in Form von Dialogen unterbreitet, die minutenlange Arbeitsschritte durch die Software um ein Vielfaches verkürzen können – so steigt die Effizienz enorm. Weiter soll das Konzept durch einen umfassenden Onboarding Prozess und intelligente Hilfsfunktionen auf die optimale Nutzung durch sowohl Anfängerinnen und Anfänger als auch Expertinnen und Experten vorbereiten.
Das Thema Nachhaltigkeit wurde in den letzten Jahren zu einer stetig wachsenden Herausforderung für Unternehmen, welche sich in einer Nachhaltigkeitsberichtserstattung (kurz: NBE) etablierte. Die vorliegende Untersuchung der Entwicklung der NBE der DAX-40-Unternehmen basiert auf einem Kategorienkatalog, eigens entwickelt aus den SDGs. Hiermit ist es möglich Umfang und Metadaten der Berichte in einem standardisierten und vergleichbaren Format festzuhalten. Diese Informationen wurden mithilfe deskriptiver Betrachtung und statistischer Methoden ausgewertet. Dadurch wird aufgezeigt, dass trotz der quantitativen Entwicklung der Berichte und vermehrter Behandlung nachhaltiger Themen, diese inhaltlich sehr stark, aufgrund einer fehlenden Standardisierung bzw. Verpflichtung für die Publikation von Nachhaltigkeitsthemen, variieren. Dies führt dazu, dass sowohl der Vergleich von Berichten zwischen Unternehmen als auch von unterschiedlichen Berichten desselben Unternehmens nur mit sehr hohem Aufwand möglich ist. Sinnvoll wäre die weiterführende Forschung im Bereich der NBE für Großunternehmen nach Inkrafttreten der Regelungen der CSRD und im Speziellen der Vergleich der Nachhaltigkeitsberichtserstattung vor und nach der Standardisierung.
Untersuchung zur Lösbarkeit der Rückwärtskinematik eines 6-DOF Roboter mit einem neuronalen Netz
(2022)
Das Berechnen der inversen Kinematik ist komplex und muss für jeden Robotertyp individuell gelöst werden. Da ein Manipulator ohne die Rückwärtskinematik, die die erforderlichen Achsvariablen für eine Ziellage ermittelt, in der Praxis nicht verwendet werden kann, ist dieses Problem elementar in der Robotik. In dieser Arbeit wird der Ansatz zur Lösung der inversen Kinematik mit einem neuronalen Netz für einen Roboter mit sechs Freiheitsgarden untersucht. Dabei ist besonders darauf zu achten alle Mehrdeutigkeiten der inversen Kinematik beim Training zu berücksichtigen, da sonst das Kriterium des Determinismus zwischen Inputs und Outputs verletzt wird, was verhindert, dass ein Netz für das Problem trainiert werden kann. Es hat sich gezeigt, dass der Optimierungsalgorithmus Adams ebenso gute Ergebnisse wie der Scaled Conjugated Gradient erzielt. Die in Tensorflow verwendete typischen Aktivierungsfunktion Tangens hyperbolicus, weist im Vergleich zu anderen untersuchten Aktivierungsfunktionen, die in Tensorflow implementiert sind, die beste Performance auf. In MATLAB hingegen weist die Log sigmoid Aktivierungsfunktion die beste Performance von den implementierten Aktivierungsfunktionen auf. Zusätzlich verringert das Einschränken der Achsvariablen auf die tatsächlichen Achsbeschränkungen beim Trainieren des Netzes, sowohl den Netzwerkfehler als auch die Datenmenge, die benötigt wird, damit das Netz gut generalisiert. Abschließend stellt sich heraus, dass die trainierten Netze keine Praxistauglichkeit aufweisen, da der erzielte Netzwerkfehler zu groß ist. Da alle Mehrdeutigkeiten durch geometrische Analyse ausgeschlossen sind und ein ausreichend großer Datensatz verwendet wurde, kann mit den hier vorgestellten Ansätzen das Ergebnis nur durch komplexere Netze und damit mehr Daten verbessert werden. Andere Ansätze die zusätzliche Informationen zur Berechnung der Achswinkel zur Verfügung stellen könnten zudem auch bessere Ergebnisse erzielen. Darüber hinaus könnte es sinnvoll sein, Ansätze zu untersuchen, die sich die Achsbeschränkungen zunutze machen.
Das Management eines Unternehmens kann Mithilfe von bilanzpolitischen Maßnahmen bewusst Einfluss auf das Unternehmensergebnis nehmen. Durch Ausnutzung von Ermessenspielräumen bei der Bildung und Auflösung von Rückstellungen können stille Reserven gebildet und in späteren Perioden wieder aufgelöst werden.
In dieser Masterarbeit wurde untersucht ob die Unternehmen des M-DAX mithilfe der Big-Bath-Accounting-Methode oder der Income-Smoothing-Methode bewusst Einfluss auf das Jahresergebnis genommen haben. Hierfür wurden die Geschäftsberichte der Zielgruppe im Zeitraum von 2009 – 2018 empirisch untersucht. Um die Gültigkeit der Hypothesen zu überprüfen wurde das ausgewiesene EBIT mit einem bereinigten EBIT verglichen. Für die Ermittlung des bereinigten EBITs wurden die tatsächlichen Rückstellungsbildungen bzw. Rückstellungsauflösungen durch die über den Betrachtungszeitraum durchschnittlichen Rückstellungsbildung bzw. Rückstellungsauflösung ersetzt.
Die Ergebnisse der empirischen Untersuchung haben gezeigt, dass die Unternehmen der Zielgruppe Mithilfe von Rückstellungen großen Einfluss auf das EBIT nehmen können. Weiter konnte belegt werden, dass die meisten Unternehmen bei der Rückstellungsbewertung grundsätzlich vorsichtig agieren und höhere Beträge in Rückstellungen bilanzieren.
Autonome Steuerung für das Demand Side Management von Wärmepumpenboilern mit linearer Optimierung
(2020)
Wärmepumpen, im Speziellen Wärmepumpenboiler, stellen mit ihrer thermischen Speicherkapazität eine gute Möglichkeit für autonome verbraucherseitige Laststeuerung (Autonomes Demand Side Management ADSM) dar. Zudem gewinnt diese Art der Brauchwarmwassererzeugung durch ihren dezentralen Ansatz und das Auskommen ohne fossile Energieträger im privaten Wohnbau immer mehr an Bedeutung. In Kombination mit staatlichen Fördergeldern ist die Anzahl verkaufter Einheiten in den letzten 5 Jahren am deutschen Markt um circa 25 % gestiegen. Obwohl das Lastverschiebungspotenzial von Wärmepumpenboilern unter Anwendung von Optimierungsalgorithmen in der Literatur theoretisch nachgewiesen ist, fehlen Verifikationen unter realen Bedingungen. Diese Arbeit will einerseits das theoretische Potential aufzeigen und andererseits mit dem vorgestellten Laborversuch einen Beitrag dazu liefern, die Verifikationslücke zu schließen. Für die Untersuchung im Labor wird ein handelsüblicher Wärmepumpenboiler bestehend aus einer Luft-Wärmepumpe und einem 300 Liter Warmwasserspeicher mit Sensoren und Aktoren ausgestattet. Insgesamt vier Temperatursensoren befinden sich am Speicherzulauf und -ablauf, sowie nahe der Speichermitte. Für die Aufzeichnung des Volumenstroms wird ein magnetisch-induktiver Messsensor am Speichereingang installiert. Zusätzlich wird mithilfe eines Proportionalventils am Speicherausgang das gewünschte Zapfprofil realisiert. Die Datenakquisition wird durch einen Datenlogger durchgeführt und die Optimierungsroutine auf dem PC implementiert. Die autonome Steuerung basiert auf einer von Day-Ahead-Marktpreisen der Energy Exchange Austria (EXAA) getriebenen linearen Optimierung mit dem Ziel, die Kosten der elektrischen Energie zu minimieren. Das Warmwasserverbrauchsprofil bildet den Verbrauch eines 4- Personen-Haushalts ab. Alle Mess- und Simulationsreihen basieren auf den gleichen Day-Ahead Preisfunktionen und Nutzerprofilen. Zur Verifikation des Lastverschiebungspotentials werden die Kosten pro MWh elektrischer Energie und die Kosten pro MWh thermischer Nutzenergie im Hysteresebetrieb (Normalbetrieb) denen des optimierten Betriebs gegenübergestellt. Durch eine Jahressimulation konnte das theoretische Potential nachgewiesen werden. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von rund 18 %. Die Kosten pro MWh thermischer Nutzenergie konnten durch die Optimierung um rund 19 % gesenkt werden. Die thermische Effizienz konnte somit um rund 1 % gesteigert werden. Der Wärmepumpenboiler wurde insgesamt zwei Wochen betrieben; eine Messreihe davon fand dabei im Normalbetrieb statt. In einer weiteren Messreihe wurde die Wärmepumpe mit der Optimierungsroutine betrieben. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von circa 23 %. Ebenso konnten die Kosten pro MWh thermischer Nutzenergie um 19 % gesenkt werden. Gleichzeitig sank die thermische Effizienz um 6 %.
In Zeiten der digitalen Transformation steht die moderne Personalentwicklung vor großen Herausforderungen. Neue Fähigkeiten werden verlangt, um sowohl der Digitalisierung von Geschäftsprozessen als auch dem Wandel hin zur digitalen Zusammenarbeit gerecht zu werden. Dabei ist es Unternehmen aufgrund des demografischen Wandels nicht möglich bereits affine Arbeitnehmer:innen, zumeist aus den Generationen Y und Z, im nötigen Maße aufzustocken. Die tendenziell alternde Belegschaft muss daher durch entsprechende Personalentwicklungsmaßnahmen leistungsfähig gehalten. Reverse Mentoring stellt eine dieser passenden Maßnahmen dar.
Im Rahmen dieser Arbeit wird ein Leitfaden zur Ein- und Durchführung von Reverse Mentoring-Programmen in Unternehmen entwickelt. Dieser dient zur Orientierung für Schlüsselpersonen der Personalentwicklung.
Business Intelligence (BI) beschreibt den Bereich, der für die Auswertung betrieblicher Geschäftsdaten verantwortlich ist und von Unternehmen jeder Größe verwendet wird. Die erhaltenen Informationen unterstützen die Entscheidungsfindung von Unternehmen und können sich positiv auf die Geschäftsentwicklung auswirken. Die Hexagon Geosystems hat seit mehreren Jahren Lösungen im Einsatz, mit welchen die systematische Analyse von Geschäftsdaten abgewickelt wird. Für Unternehmen dieser Größe sind leicht zugängliche und benutzerfreundliche BI-Lösungen unerlässlich - über die Jahre und der wachsenden Menge an Analysen und Berichten haben sich aber Probleme in der Verwendung und Verständlichkeit gebildet, welche im Rahmen dieser Masterarbeit untersucht werden.
Zum Beginn werden die theoretischen Inhalte der Arbeit erläutert und eine Wissensgrundlage geschaffen. Aus der in der Ist-Analyse gegebenen Beschaffenheit im Unternehmen werden die Probleme der aktuellen Lösung im Rahmen einer Problemerläuterung aufgewiesen. Die daraus resultierenden Erkenntnisse bilden die Grundlage für die Konzipierung eines Proof of Concepts in den darauf folgenden Kapiteln. In dem Proof of Concept wird ein Vorschlag für ein Baukastensystem zur Erstellung von Berichten und dessen Dokunentationen präsentiert. Eine mittels der System Usability Scale durchgeführten Evaluation zeigte, dass eine benutzungsfreundliche Applikation entstanden ist, welche neben Vorteilen für die Endanwender des Business Warehouses auch Vorteile für die Administratorinnen bei der Erstellung von Berichten mit sich bringt. Eine Zusammenfassung und ein abschließender Ausblick weist diverse Arbeitsschritte auf, welche zur Integration der Applikation in die produktive Landschaft des Unternehmens benötigt werden.
Dynamische Veränderungen, steigende Wettbewerbsintensität und ein hohes Maß an Komplexität charakterisieren das aktuelle Marktumfeld, in dem Unternehmen agieren müssen. Das Prozessmanagement muss diesen Veränderungen sowohl auf der strategischen, als auch auf der operativen Ebene begegnen. Eine Adaption des Konzepts der Agilität durch das Prozessmanagement wird daher zunehmend relevant, um die originären Ziele des Prozessmanagements zu erreichen. Allerdings gilt dies unter der Prämisse, dass die agilen Konzepte die Fähigkeiten des Prozessmanagements, auf Veränderungen nachhaltig zu reagieren, stärken. In diesem Zusammenhang sind in der Literatur Arbeiten und Texte zu unterschiedlichen Anwendungen der agilen Konzepte im Prozessmanagement zu finden. Unklar bleibt dabei sowohl, ob diese Texte auf einem gemeinsamen Verständnis des Konzepts basieren, als auch der Zusammenhang und die Vereinbarkeit mit traditionellen Methoden des Prozessmanagements. Unter diesen Voraussetzungen ist es das Ziel der vorliegenden Arbeit den Kontext aufzuzeigen, in welchem agile Konzepte im Prozessmanagement diskutiert werden, und wie diese mit Modellen des traditionellen Prozessmanagements zusammenhängen. Dazu werden ausgewählte Texte auf ihre Verwendung agiler Konzepte als Lösungsstrategien für das allgemeine Handlungsfeld der dynamischen Veränderungen der „VUCA Welt“ analysiert. Die identifizierten Konzepte werden in Bezug zu traditionellen Konzepten, wie dem BPM Life-cycle, kritisch hinterfragt. Die Erkenntnisse der Arbeit belegen, dass die aktuelle Marktsituation ein Umdenken im Prozessmanagement erfordert. Agile Konzepte können das Prozessmanagement dabei unterstützen und Alternativen zu traditionellen Vorgehensweisen aufzeigen. Dabei fehlen jedoch bisher standardisierte Anwendungskonzepte und ein einheitliches Verständnis des Begriffs der Agilität im Prozessmanagement. Ferner erfordern die ganzheitliche Betrachtungsweise und die originären Ziele des Prozessmanagements weiterhin den Einsatz traditionellerer Methoden als Fundament für die Einführung von agilen Konzepten im Prozessmanagement.
Das Supply Chain Management von Unternehmen war die letzten Jahre stark effizienzgetrieben und wird durch die Veränderung des Unternehmensumfelds in eine sogenannte VUCA-Welt zunehmend vor Herausforderungen gestellt. Um mit den Herausforderungen umgehen und die Lieferketten aufrechterhalten zu können, setzen immer mehr Unternehmen auf „Resilienz“ als neue strategische Ausrichtung. Da sowohl die internen als auch die externen Supply Chain Management Prozesse von der IT abhängig sind, ist das Business-IT-Alignment ein Bereich, der von einer strategischen Neuausrichtung des Supply Chain Managements stark betroffen ist. Das Ziel der Masterarbeit ist daher die Beantwortung der Fragestellung, wie sich eine strategische Neuausrichtung des Supply Chain Management von Effizienz hin zu mehr Resilienz auf das Business-IT-Alignment von Unternehmen auswirkt. Die Beantwortung der Fragestellung erfolgt anhand eines theoretisch-konzeptionellen Vorgehens. Die Ergebnisse der durchgeführten Recherchen und Methoden haben gezeigt, dass alle sechs Dimensionen des Business-IT-Alignments – Strategie, Prozesse, Infrastruktur, Plattformen, Applikation und Services – von einer strategischen Neuausrichtung betroffen sind. Moderne IT-Organisationen sind allerdings bereits auf einem guten Weg, die Anforderungen einer resilienten Strategieausrichtung zu unterstützen. Zudem hat die Bedeutung einer funktionierenden Zusammenarbeit zwischen den Fachabteilungen und der IT-Abteilung deutlich zugenommen, um im Störungsfall besser reagieren zu können.
Virtual Reality im Golfsport
(2023)
Die Möglichkeiten des Einsatzes von Virtual Reality (VR) abseits des Unterhaltungssektors sind sehr umfangreich. Die Technologie kann als Wiedergabemedium von klassischen audiovisuellen Inhalten oder speziell für VR entwickelten Inhalten verwendet werden, jeweils mit oder ohne Interaktion der benutzenden Person. Um die in dieser Arbeit gestellte Forschungsfrage „Wie kann VR im Golfsport unterstützend beim Training eingesetzt werden?“ zu beantworten wurde VR als Medium auf seine Anwendungsmöglichkeiten hin überprüft und aufgezeigt, wo diese Technologie im Bereich „Training“ wirkungsvoll eingesetzt werden kann. Die Verwendung einer Mind Map ergab eine erste Produktidee: Golfplätze mittels VR zu besuchen, bevor die Spielenden selbst zu einem Turnier anreisen. Durch Literaturrecherchen, Experteninterview, die qualitative Auswertung von Interviews von Golfspielenden und eine Analyse der am Markt befindlichen digitalen „Helfer“ für Golfer:innen wurden Hinweise gesammelt, um sowohl eine Hypothese zur möglichen Zielgruppe aufzustellen, als auch die Forschungsfrage, durch Konkretisieren der Produktidee, zu beantworten.
Erkenntnisse über die am Markt befindlichen Produkte und Hinweise aus der Sportpsychologie führten zu der Hypothese, dass die Effektivität des Produktes im Einsatz des mentalen Trainings verbessert werden könnte, wenn neben dem visuellen Kanal ein Audiokanal die Darstellung der virtuellen Umgebung unterstützt. Auch wenn diese Hypothese in einer Feldstudie mit 7 Teilnehmern weder wiederlegt noch bestätigt werden konnte, zeigt die Auswertung einer Onlineumfrage zum Produkt und die erarbeitete Theorie großes Potential für den Einsatz von VR als Unterstützung im mentalen Training und für weitere Forschung auf diesem Gebiet auf. Als Produktidee ging aus der Arbeit eine VR-Applikation, zur mentalen Vorbereitung auf wenig bekannte Golfplätze, für gute und professionelle Golfspieler:innen hervor.
Das Energieinstitut Vorarlberg hat zusammen mit mehreren Regionen in Vorarlberg das Sanierungslotsenprojekt gestartet, um die Beratungssituation bei der Gebäudesanierung zu verbessern. Durch wiederholten Kundenkontakt wurde festgestellt, dass es ein Beratungsdefizit für Besitzer älterer Einfamilienhäuser gibt. Zwischen der Erkenntnis, dass eine Sanierung des Gebäudes notwendig ist und dem Zeitpunkt, an dem die ersten Leistungen bestellt werden, gibt es keine sachkundige Betreuung in den Fragestellungen der zukünftigen Gebäudenutzung. In den bisher angebotenen Beratungen werden zwar auch unterschiedliche Sanierungsvarianten miteinander verglichen. Jedoch bezieht sich der Vergleich auf Variationen von Sanierungsmaßnahmen, wie beispielsweise Dämmstoff - und Fensterqualität oder die Auswahl eines Heizungssystems. Darüber hinaus gehende Fragen über altersgerechtes Wohnen, Generationenwohnen, Nachverdichtung und Vermietung werden in diesen Beratungen nicht behandelt. In allen Fragen der zukünftigen Nutzung und den zukünftigen Anforderungen an das Gebäude, den darauf abgestimmten Sanierungszielen und der zugehörigen Kostenschätzung mit Finanzierungsberechnung sind die Besitzer auf sich gestellt.
Deshalb ist der Bedarf nach einem einfachen Rechentool, welches in einer frühen Phase der Sanierungsberatung, eine schnelle Berechnung der in Betracht kommenden Sanierungsvarianten ermöglicht, entstanden. In dieser frühen Phase ist es bislang nicht üblich eine Kostenschätzung abzugeben. Für diese Berechnungen wird eine Datenbank mit Sanierungs - und Umbaukostenelementen benötigt, sodass mit einer abgesicherten Basisdaten kalkuliert werden kann.
In der vorliegenden Masterarbeit werden eine auf Microsoft Excel basierende Datenbank und das dazugehörige Rechentool vorgestellt, die die beschriebenen Anforderungen erfüllen. Mit Hilfe der Datenbank wird eine Grundlage geschaffen, an denen sich die Sanierungslotsen orientieren können. Zusätzlich zu den Netto- und Bruttokosten, die bei den einzelnen Sanierungsmaßnahmen anfallen, werden auch Einheitskosten angegeben, die in das Rechentool eingetragen werden können.
Das Rechentool ermöglicht den Vergleich von fünf unterschiedlichen Sanierungsvarianten. Durch die freie Eingabe der Flächen können auch Varianten mit unterschiedlichen Nutzungskonzepten und unterschiedlichen Grundrissen verglichen werden. Neben einer Grobkostenrechnung der Sanierungskosten erfolgt im Tool auch die Berechnung der Förderung laut der Wohnaussanierungsrichtlinie und Energieförderungsrichtlinie des Landes Vorarlberg. Weitere Förderungen können als Einmalzuschüsse eingetragen werden. Eine vereinfachte Wirtschaftlichkeitsbetrachtung erfolgt über die Berechnung der Finanzierung der Sanierung. Hierbei werden auch Einnahmen durch Vermietung berücksichtigt.
Smart HR - welchen Mehrwert erhalten Industrieunternehmen der Bodenseeregion durch HR Analytics?
(2022)
Das Thema HR Analytics bringt viele interessante Aspekte mit sich. Diese Aspekte werden in dieser Masterarbeit mit Hilfe einer gründlichen Literaturrecherche und zehn Expert:inneninterviews, detailliert beschrieben: angefangen von den zu erfüllenden technischen-organisatorischen Voraussetzungen bis hin zur rechtlichen-ethischen Betrachtung. Nicht zu vergessen sind die damit verbundenen Herausforderungen bei der Einführung und Nutzung von HR Ana- lytics, die es zu bewältigen gilt. Zudem werden verschieden Begriffe und Prozesse, die in Verbindung mit HR Analytics stehen näher erklärt und Zusammenhänge gebildet. Das Ziel dieser Masterarbeit ist es, aufzuzeigen, ob sich durch HR Analytics ein Mehrwert für Industrieunternehmen der Bodenseeregion ergibt und falls ja welcher. Schließlich werden Handlungsempfehlungen definiert, um Industrieunternehmen den Einstieg und die Hinführung zu HR Analytics zu erleichtern.
Die Digitalisierung von Unternehmen und deren Produktionsanlagen bringen neue Bedrohungsformen mit sich, die zielorientierter ausgerichtet sind und mehrere Computersysteme gleichzeitig betreffen. Klassische Schutzmechanismen wie Firewalls, Anti-Viren-Systeme und IDS sind zumeist signatur- oder muster-basiert und können diese komplexen Bedrohungsformen nicht effizient erkennen. Die verwendeten Signaturen und Muster können durch Angreifer einfach umgangen werden. Darüber hinaus sind gezielte und komplexe Angriffe nur durch die Verknüpfung von Informationen mehrerer Computersysteme identifizierbar.
In den letzten Jahren wurden daher verstärkt anomalie-basierte IDS entwickelt und eingesetzt, die anhand selbstlernender Algorithmen das normale Verhalten von mehreren miteinander vernetzten Computersystemen erlernen und Abweichungen zum normalen Verhalten identifizieren. Hierzu verwenden die Algorithmen Log- und Monitoringdaten der Anwendungsschicht von verschiedenen Computersystemen und Anwendungen. Der Zugriff auf die Logdaten zur weiteren Analyse ist jedoch kompliziert, weil sie nicht an einer zentralen Stelle zusammenlaufen und es keine allgemein anerkannten Standards für die Erzeugung und Übertragung von Logdaten existieren.
Infolgedessen wird in dieser Arbeit ein zentrales Log-Management-System in eine Produktionsumgebung eingeführt, die verschiedene IT-Komponenten und Komponenten einer realen Güterproduktion beinhaltet. Zudem werden Logdaten verschiedener heterogener Datenquellen auf diesem System zentral aggregiert. Neben der Einführung eines Standards für die Struktur und Übertragung der Logdaten von den einzelnen Datenquellen auf das Log-Management-System, werden Logdaten auf ihre Relevanz hinsichtlich der Erkennung von Anomalien und der Abbildung des Systemverhaltens analysiert. Diese Arbeit beinhaltet zudem fortgeschrittene Bedrohungsszenarien, die für die Evaluation der IDS verwendet werden können und stellt somit eine Grundlage für eine zukünftige Analyse der Logdaten durch IDS dar.
Gesellschaftliche, wirtschaftliche und technologische Entwicklungen und Trends des organisationalen Kontextes haben nicht zu vernachlässigende Auswirkungen auf organisationales Lernen. Sie wirken sich auf Unternehmen und die Ausgestaltung ihrer Lernwelten aus. Die im Organisationsumfeld zu verzeichnenden, kontextuellen Entwicklungen führen zu einem möglichen Anpassungsbedarf organisationaler Lernwelten im Hinblick auf deren räumliche, zeitliche, inhaltliche und methodische Ausgestaltung. Aufgrund der steigenden Dynamik und Komplexität des Unternehmenskontextes wird ein Lernverständnis erforderlich, welches einen Umgang mit den Charakteristika der VUCA-Welt ermöglicht. Abseits des formalen Lernens erfolgt die Betrachtung neuer, informeller und kooperativer Lernformen, die für die Ausgestaltung organisationaler Lernwelten eine Rolle spielen können. Der New Learning Ansatz enthält Prinzipien, die als Orientierung für die Ausgestaltung organisationaler Lernwelten dienen können, um Organisationen in ihrer Dynamikrobustheit zu unterstützen. Im Rahmen der Forschungsarbeit wird aufgrund der Notwendigkeit der Anpassung an den Unternehmenskontext untersucht, wie organisationale Lernwelten gestaltet werden sollten, damit Unternehmen dynamikrobust bestehen können und durch erzeugten Marktdruck wettbewerbsfähig bleiben.
Damit eine möglichst ausfallsichere Energieversorgung und Energieübertragung gewährleistet werden kann, werden verschiedene Betriebsmittel benötigt. Diese Betriebsmittel müssen gewisse Genauigkeitsgrenzwerte einhalten. In dieser Masterarbeit wird die Prüfung der Genauigkeit von Stromwandlern diskutiert. Die Ermittlung der Genauigkeit kann durch das Einspeisen eines Primärnennstroms (einige kA) und eine Messung des Sekundärstroms erfolgen. Daraus wird der Übertragungsfehler bestimmt. Die Genauigkeit wird unter anderem durch den Übertragungsfehler beschrieben, welcher sich aus dem Übersetzungsfehler und dem Phasenfehler zusammensetzt. Es wird bei diesem Verfahren von der Primärmethode oder auch Primärstrommethode gesprochen, dies ist die Referenzmessung nach den Normen IEC 61869-2 und IEEE C57.13. Die Firma OMICRON electronics GmbH entwickelte ein modellbasiertes Messverfahren, das den Einsatz eines mobilen und leichten Messgeräts erlaubt. Das Messgerät wird CT Analyzer genannt. Bei Verwendung dieser Methode werden keine hohen Ströme verwendet, was den BenutzerInnen zusätzlich eine höhere Sicherheit für die Bedienung des Geräts bietet. Mit diesem Messverfahren werden die einzelnen Komponenten des elektrischen Ersatzschaltbildes des Transformators bestimmt. Mit den ermittelten Komponenten kann dann der Übertragungsfehler berechnet werden. Das modellbasierte Messverfahren beruht auf Messungen, die von der Sekundärseite des Stromwandlers her durchgeführt werden. Man spricht bei diesem Messverfahren von der Sekundärspannungsmethode, welche inzwischen in der Norm IEC 61869-2 als alternative Messung angeführt ist. Der Vorteil der Primärmethode ist die Hoch-Präzisionsmessung, da die Prüfung unter realen Bedingungen und mit einer direkten Messung durchgeführt wird. Die Genauigkeit dieser Methode wird durch die Messtechnik selbst bestimmt, sie ist sehr genau und daher als Referenz gültig. Das Ziel der Sekundärspannungsmethode ist es, den Vorteil der Hoch- Präzisionsmessung für die Sekundärspannung zu nützen. Da es sich um ein modellbasiertes Messverfahren handelt, wird die Messgenauigkeit bei diesem Verfahren durch das angewandte Modell bestimmt und nicht durch die Messtechnik wie bei der Primärmethode. Daher sind Untersuchungen am Modell notwendig. Es gibt einige wenige Stromwandlertypen, bei denen es größere nicht akzeptable Differenzen zwischen der Primärmethode und der Sekundärspannungsmethode gibt. Diese Masterarbeit befasst sich deshalb mit Untersuchungen von Möglichkeiten und Grenzen der Sekundärspannungsmethode. Zu Beginn wird eine theoretische Sensitivitätsanalyse mathematisch erarbeitet. In diesem Zusammenhang wird der komplexe Fehlervektor eines Stromwandlers eingeführt. Diese Sensitivitätsanalyse dient der Ermittlung des Einflusses auf den komplexen Fehler in Abhängigkeit von verschiedenen Parametern und zur Auswahl von Stromwandler-Testobjekten. Des Weiteren wird die Sensitivitätsanalyse durch Messungen an verschiedenen Stromwandlern verifiziert. Die Untersuchungen basieren auf MATLAB-Simulationen und Messungen mit dem OMICRON Messgerät CT Analyzer, welches die Sekundärspannungsmethode anwendet. Die Ergebnisse werden mit den Herstellerdaten (Primärmethode) verglichen und analysiert werden.
Einfluss staatlicher Fördermaßnahmen auf Investitionsentscheidungen von Unternehmen – Eine Untersuchung der Wirksamkeit der AWS-Investitionsprämie auf Vorarlberger Unternehmen. Die Investitionsförderung ist ein wichtiges Instrument der österreichischen Politik. Dabei soll durch Zuschüsse bei Investitionen in Digitalisierung, Ökologisierung, bauliche Anlagen oder auch technische Einrichtungen die weltweite Wettbewerbsfähigkeit gestärkt und österreichische Arbeitsplätze gesichert werden.
Ziel dieser Arbeit ist es, den Einfluss der staatlichen Fördermaßnahmen auf Investitionsentscheidungen von Vorarlberger Unternehmen zu untersuchen. Anhand von Experteninterviews und der Auswertung des AWS-Leistungsberichtes soll festgestellt werden, ob diese Förderungen die gewünschte Wirksamkeit aufweisen können.
Zunächst werden die verschiedenen Investitionsrechenverfahren ausführlich erklärt und er-läutert. In weiterer Folge behandelt diese Arbeit die staatlichen Förderungen und weitere Anreize der Politik. Darüber hinaus werden die Experteninterviews miteinander verglichen und analysiert, um Erkenntnisse über die Auswirkung staatlicher Fördermaßnahmen zu gewinnen. Definitiv ist ein Einfluss staatlicher Fördermaßnahmen gegeben. Einerseits hat sich das Volumen der Investitionen stark erhöht, anderseits sind diese in den Zeitraum der Förderungen verlegt worden. Ein weiterer wichtiger Aspekt ist, dass die staatlichen Fördermaßnahmen die Basis der Investitionsrechenverfahren verändern.
Beim Online-Lernen ist es wichtig, angemessenes Feedback zu geben, damit der Schüler aus seinen Fehlern lernen und sich weiterbilden kann. Oft besteht Feedback nur aus ungenügenden Informationen, wie etwa nur aus den Worten „Richtig“ oder „Falsch“, mit denen der Schüler nicht viel anfangen kann und somit nicht aus seinen Fehlern lernen kann. Ein gutes Feedback bei inkorrekten Antworten enthält wichtige Informationen, warum eine Antwort oder Aktion falsch ist und wie sie verbessert werden kann. Bei korrekten Antworten ist ein Lob oder eine Anerkennung der richtigen Antwort ebenfalls fördernd.
In dieser Arbeit wird das Feedback des Systems XData, welches für das Erlernen von SQL (Structured Query Language) genutzt wird, verbessert. Dazu wird das aktuelle System beschrieben, um das aktuelle Feedback bei SQL-Queries beurteilen zu können. Um das aktuelle Feedback angemessen verbessern zu können, wird ein Einblick in die Themen Lernen und Feedback gegeben. Die aus den beiden Themen gewonnen Eindrücke und Erkenntnisse werden bestmöglich für das zu verbessernde Feedback genutzt. Um das System und sein Feedback beurteilen zu können, sowie das verbesserte Feedback bewerten zu können, werden verschiedene SQL-Queries (Abfragen) verwendet. Es wird die Implementierung des Feedbacks durch ein Textbausteinsystem beschrieben und die verschiedenen Feedback-Fälle vorgestellt. Abschließend werden die Resultate beschrieben und beurteilt, sowie über die Ausblicke des Systems diskutiert.
In dieser Arbeit werden verschiedene Augmented Reality Tools analysiert und getestet, um eine Brandmeldezentrale zu erkennen und auf dieser virtuelle Inhalte darzustellen. Die Erkennung der Zentrale wird mittels Bilderkennung und Objekterkennung von Vuforia, Wikitude und AR Foundation durchgeführt. Zusätzlich wird in dieser Arbeit eine AR Applikation implementiert, welche sowohl mit iOS und Android Geräten als auch für die Microsoft HoloLens 2 kompatibel ist. Die Anwendung soll zeigen, an welcher Stelle in der Brandmeldezentrale ein Fehler vorliegt und wie dieser behoben werden kann. Für die Fehlerbehandlung kommt eine “Schritt für Schritt Anleitung“ zum Einsatz, bei welcher Teile der Zentrale augmentiert hervorgehoben werden, wenn diese für die Behebung des Problems relevant sind. Es werden diverse Geräte bezüglich Interaktion und deren Stärken bzw. Schwächen evaluiert. Für die Analyse haben Testpersonen die Anwendung sowohl auf der HoloLens 2 als auch auf einem iPad Pro getestet. Die Ergebnisse zeigen, dass einige Personen Schwierigkeiten mit der Gestensteuerung auf der HoloLens 2 haben. Die Ausführung der Pinch Geste, welche durch das zusammendrücken von Daumen und Zeigefinger ausgeführt wird, wurde oft zu ungenau durchgeführt. Der Vergleich der beiden Geräte hat ergeben, dass Interaktionen auf dem iPad schneller ausgeführt werden können als auf der HoloLens. Außerdem wurde überprüft, wie sich unterschiedliche Lichtverhältnisse auf die Anwendung auswirken. Dabei stellte sich heraus, dass die Hologramme bei der HoloLens bei einer stark beleuchteten Umgebung nicht gut sichtbar sind. Die Objekterkennung der Brandmeldezentrale weist einige Fehler bei der Erkennung der Brandmeldezentrale auf. Diese sind darauf zurückzuführen, dass die Brandmeldezentrale für die verwendeten Augmented Reality Tools zu wenig Merkmale aufweist.
ÖKOPROFIT ist ein Kooperationsprojekt zwischen den örtlichen Gemeindenund der lokalenWirtschaft.Die Teilnahme ist für die Betriebe freiwillig. Ziel ist die Betriebskostensenkung bei gleichzeitiger Schonung der Ressourcen. In Vorarlberg sind derzeit circa170 Betriebe zertifiziert. Im Rahmen der Rezertifizierung, die jedes Jahr stattfindet, wird von den Betrieben ein Umweltbericht erstellt. Die Berichte werden derzeit in Word verfasst, in eine Cloud geladen und dort von den Auditoren geprüft. Dies ist jedoch nicht mehr zeitgemäß. Im Rahmen des CESBA-AlpsInterreg Alpine Projektes (2016-2019) wurde ein Tool entwickelt, mit dem Ziel Nachhaltigkeit und Energieeffizienz im Alpenraum zu verbessern. In dieser Arbeit wird nun geprüft, inwiefern das bestehende CESBA-Alps-Tool in Wert gesetzt und somit in den Rezertifizierungsprozess von ÖKOPROFIT integriert werden kann. Das Tool wird zunächst so eingerichtet, dass die Betriebe mit ihren dazugehörigenIndikatoren sowie passende Indikatoren-Sets angelegt werden können. Für den Test werden historische Daten bis zum Jahr 2013von zwei Pilot-Clustern (Landeskrankenhäuser und Landesregierungsgebäude) mit unterschiedlichen Indikatoren-Sets eingepflegt. Es wird untersucht, inwiefern die Auswertungen und Exporte für den Rezertifizierungsprozess bereits tauglich sind. Jegliche Auffälligkeiten, Fehler oder Verbesserungsvorschläge werden gesammelt. Es wird klar, dass die Export-Dateien verschlankt und optimiert werden müssen, damit sie ohne Mehraufwand verwertet werdenkönnen. Die wichtigste Handlungsempfehlung ist die automatisierte Berichtlegungsfunktion. Es sollte ein Texteditor in das Tool eingearbeitet werden, in den Unternehmen einzelne Textbausteine einpflegen können, sodass mithilfe des Tools nicht nur das Kennzahlenkapitel des Umweltberichts, sondern alle Kapitel standardisiert erarbeitet werden können. Nur so kann sichergestellt werden, dass das Tool für die Betriebe eine Arbeitserleichterung und somit Zeitersparnis generiert. In einem weiteren Arbeitspaketwurden ähnliche Online-Tools anhand von im Vorhinein ausgewählten und priorisierten Kriterien, die ein optimales Tool erfüllen sollte, mithilfe einer gewichteten Entscheidungsmatrix semiquantitativ verglichen. Hierbei schnitt das in dieser Arbeit getestete Tool selbst ohne die Verbesserungen am besten ab. Es stellt sich heraus, dass es bereits die Hälfte der ausgewählten Kriterien in einer sehr guten Weise erfüllt. Die Kriterien wurden von der ÖKOPROFIT-Programmleitung definiert. Werden die Handlungsempfehlungen in der Zukunft noch umgesetzt, könnte mit dem Tool tatsächlich eine Verbesserung des derzeitigen ÖKOPROFIT-Rezertifizierungsprozesses erwirkt werden.
Durch das Voranschreiten der Digitalisierung hat die Technologie Robotic Process Automtion innerhalb der letzten Jahre an Bedeutung gewonnen und findet bereits in Bereichen des Rechnungswesens Anwendung. Ein Hauptargument für die Nutzung von sogenannten Software Robotern ist die dadurch generierte Steigerung der Prozesseffizienz. Dies ermöglich die Freisetzung von Mitarbeiterkapazitäten für wertschöpfende Tätigkeiten. Durch Automatisierung im Bereich des Cash Conversion Cycles kann der Geldumschlag in Tagen verringert werden, was wiederum zu mehr Liquidität führt. Trotzdem wird Robotic Process Automation in vielen Unternehmen noch nicht verwendet. Ziel dieser Arbeit ist es, die Gründe für oder auch gegen eine Implementierung von Robotic Process Automation zu untersuchen. Die Beantwortung der Forschungsfrage erfolgt mittels leitfadengestützter Experteninterviews. Dazu wurden Sieben Personen in leitenden Funktionen im Finanzbereich befragt. Die Ergebnisse der Untersuchung ergaben, dass einerseits die Eliminierung von manuellen Tätigkeiten und andererseits die Verringerung von Fehlerpotentialen als Gründe für eine Implementierung von Robotic Process Automation sprechen. Allerdings wurden auf der Gegenseite Gründe wie mangelnde Ressourcen und die skeptische Haltung seitens Mitarbeitenden und Management gegenüber der Technologie genannt. Einer der wesentlichen Gründe gegen die Einführung, welcher aus den Ergebnissen hervorging, war der bereits hohe Grad der Automatisierung.
Einkauf 4.0
(2020)
Traditionelle Einkaufsprozesse haben viele Fehlerquellen und ungenütztes Potential. Viele Konzepte, die meist im Zusammenhang mit Digitalisierung und Industrie 4.0 stehen, versprechen Optimierungen. Diese Vielfalt führt jedoch in der Praxis zu Unklarheiten, da fraglich ist, was tatsächlich hinter den Konzepten steckt. Insbesondere der sogenannte „Einkauf 4.0“, der mehr als eine Digitalisierung der Beschaffungsprozesse verspricht, wirft viele Fragen auf.
Das Ziel der vorliegenden Forschungsarbeit ist es festzulegen, welche Merkmale dem „Einkauf 4.0“ zugeschrieben werden können und ob sich diese in Praxis wiederfinden. Dazu werden folgende Forschungsfragen gestellt:
1. Welche Merkmale können eindeutig dem Begriff „Einkauf 4.0“ zugeordnet werden, um eine aktuell gültige Umfangsdefinition zu erstellen?
2. Werden die gefundenen Merkmale des Einkauf 4.0 in der Praxis als relevant erachtet und umgesetzt? Falls ja, welche?
Um die erste Forschungsfrage zu beantworten wurden eine qualitative und eine quantitative Inhaltsanalyse durchgeführt. Die Merkmale des Begriff Einkauf 4.0 konnten dadurch eindeutig festlegt und abgrenzt werden. Die zweite Forschungsfrage wurde beantwortet in dem ein Vergleich der gefundenen Merkmale mit der Studie „BME-Barometer Elektronische Beschaffung 2020“ des BME e. V. erfolgte.
Die Auswertung der Inhaltsanalysen zeigt, dass sich Merkmale für den Einkauf 4.0 finden lassen, diese jedoch kritisch zu hinterfragen sind. Der Vergleich der Merkmale mit der Studie des BME e.V., ergibt, dass einige Merkmale in der Praxis wiederzufinden sind; Sie sind jedoch von unterschiedlicher Relevanz. Weiterführende Forschung ausgehend von der hier formulierten Definition würden tiefere Einblicke in das Konzept des Einkauf 4.0 ermöglichen.
Die vorliegende Masterarbeit untersucht die Rolle des Controllings für innovative Startups in Österreich, insbesondere in der Anfangsphase. Experteninterviews wurden durchgeführt, um Einsichten in die Herausforderungen, Chancen und Best Practices des Startup-Controllings zu gewinnen. Die gewonnenen Erkenntnisse wurden analysiert und in Kategorien zusammengefasst, um einen umfassenden Überblick über die wichtigsten Ergebnisse zu liefern. Die Arbeit betont die Bedeutung einer effektiven Controlling-Funktion für Startups, um fundierte Entscheidungen zu treffen, die finanzielle Leistungsfähigkeit zu verbessern und das langfristige Wachstum zu unterstützen.
Welcher Kompetenzbedarf besteht bei HR-MitarbeiterInnen, um die digitale Transformation in Unternehmen mitbegleiten zu können und welche Methoden zur Kompetenzentwicklung von HR-MitarbeiterInnen finden in einer zukunftsorientierten Personalentwicklung Anwendung? Mit einer Antwort auf diese Fragen beschäftigt sich die vorliegende Arbeit. Nach der Erklärung der theoretischen Begriffe und Grundlagen zeigt das Kapitel drei den Kompetenzbedarf von HR-MitarbeiterInnen für die digitale Transformation auf und liefert spezifische Methoden zur Kompetenzentwicklung digitaler Transformation. Dabei spielen die Kompetenzen im Bereich der Führungs- und Motivationsstrategie sowie die Gestaltung des Wissensmanagements eine bedeutende Rolle. Den MitarbeiterInnen im HRM kommt angesichts des Fachkräftemangels aufgrund der demografischen Entwicklung eine zunehmend strategische Bedeutung zu. Sie werden zu engen Partnern in der strategischen Ausrichtung des Unternehmens. Auf der einen Seite steht die Ressource Humankapital, auf der anderen Seite aber auch die Zukunftssicherung, denn im Zeitalter der Digitalisierung und des globalen Wandels ist die nachhaltige Sicherung des Know-how für ein Unternehmen überlebenswichtig. In diesem Kontext müssen die verantwortlichen HR-MitarbeiterInnen andere und zum Teil vielfältigere Kompetenzen mitbringen als noch vor einigen Jahrzehnten. Die Arbeit schließt nach den Handlungsempfehlungen, einem Praxisbeispiel, einem Fazit und einem Ausblick.
Da konventionelle Kältemittel im Vergleich zu CO2 ein großes Treibhauspotential (GWP) aufweisen, gewinnen neue, alternative Kältemittel, sogenannte low-GWP Kältemittel, stärker an Bedeutung. Zu diesen low-GWP Kältemitteln gehören u.a. die Fluide der HFO und HCFO Kältemittel. Durch ihre thermophysikalischen Eigenschaften eignen sie sich insbesondere für die Anwendung in industriellen Hochtemperaturwärmepumpen (HTWP), die im Temperaturbereich von 100 °C bis 160 °C ein großes Potenzial in der Nahrungsmittel-, Papier- und Chemieindustrie zur Prozesswärmebereitstellung aufweisen. In dieser Masterarbeit werden die Kältemittel R1336mzz(Z), R1233zd(E), R1224yd(Z), R1234ze(Z) und R514A auf ihre Anwendbarkeit in drei verschiedenen Kältekreiskonfigurationen untersucht. Dabei soll herausgefunden werden, welches Kältemittel sich unter Berücksichtigung des COPs, der volumetrischen Heizleistung, der Verdichtungsverhältnisse und Verdichtungsendtemperaturen am besten eignet. Der Kreislauf mit internem Wärmeübertrager (IHX) findet bereits Anwendung in HTWP und dient zum grundlegenden Vergleich der Kältemittel. Die beiden neuen Kreisläufe eignen sich u.a. für große Spreizungen an der Senke. Eine in dieser Arbeit betrachteten Kältekreiskonfiguration besteht aus zwei parallel angeordneten IHX Kreisläufen (2KP) und die andere aus einer zweistufigen Kreislaufkonfiguration (2SE).
Mithilfe des Programms EES wird für die Kreisläufe ein Modell erstellt, mithilfe dessen der Senkentemperaturbereich von 100 °C bis 160 °C und der Quellentemperaturbereich von 40 °C bis 80 °C untersucht werden kann. Die Auswertung der Simulationen kam zu dem Ergebnis, dass R514A bis zu einer Senkentemperatur von 130 °C und R1336mzz(Z) ab dieser Senkentemperaturen im IHX und 2SE Kreislauf die besten COP Werte aufweist. Zudem sind die Verdichtungsendtemperaturen und das Verdichtungsverhältnis günstig, die volumetrische Heizleistung hingegen am geringsten. Im 2KP Kreislauf besitzt die Kältemittelkombination R1336mzz(Z)/R514A die besten COP Werte. Der 2KP Kreislauf weist die besten COP Werte der betrachteten Kältekreiskonfigurationen auf. Im Betriebspunkt bei einer Senkentemperatur von 130 °C (ΔT Senke 60 K) und einer Quellentemperatur von 60 °C (ΔT Quelle 10 K) liegt der COP des IHX bei 3,95, der des 2SE bei 4,05 und der des 2KP bei 4,26. R1233zd(E) überzeugt im IHX und 2SE Kreislauf mit einer deutlich höheren VHC im Vergleich zu R1336mzz(Z), bei etwas geringeren COP Werten. Die Untersuchung zeigt auch, dass die Auswahl einer Kältekreiskonfiguration und eines Kältemittels stark von den Betriebstemperaturen abhängt.
Unternehmen der Logistikbranche sehen sich zunehmend mit geschäftsgefährdenden Herausforderungen konfrontiert. Veränderte gesellschaftliche Ansprüche, neue Technologien und Konkurrenz, sowie diverse Makrorisiken setzen die Branche unter Druck. Um frühzeitig adäquate Lösungsansätze auf zukünftige Entwicklungen finden zu können, bedarf es einer langfristig ausgerichteten unternehmerischen Sichtweise. Diese Weitsicht ist bei einer Mehrzahl von Logistikunternehmen jedoch bisher nicht vorhanden. Daher beschäftigt sich die Masterarbeit mit der Beantwortung folgender Fragestellung: „Welche Methoden der strategischen Langfristprognostik sind in der Logistik und dem Supply-Chain-Management besonders geeignet und ist die Corporate Foresight eine praktikable Option?“ Für die Beantwortung der Fragestellung wird ein theoretisch-konzeptioneller Ansatz verfolgt. Der Schwerpunkt der Arbeit liegt in der Analyse der Logistikbranche, sowie in der Aufarbeitung bestehender Literatur hinsichtlich existierenden Prognosemethoden, Gründe deren Scheiterns in der betrieblichen Praxis und dem Corporate Foresight. Die daraus erlangten Erkenntnisse werden auf die Logistikbranche transferiert, um Logistikunternehmen mögliche Ansatzpunkte und Denkanstöße für die Einführung bzw. Einnahme einer strategischen Weitsicht zu liefern.
Aufgrund des anhaltenden Klimawandels wird eine Reduzierung des Ausstoßes von Kohlendioxid (CO2) immer wichtiger. Dabei könnte die Verwendung und Weiterentwicklung von CO2-Gashydraten als „Carbon Capture“-Methode (CC) einen großen Beitrag leisten. Bei der Bildung von Gashydraten wird Gas in den Hohlräumen eines Hydratgitters, welches sich unter hohen Drücken und niedrigen Temperaturen bildet, eingeschlossen. In dieser Arbeit wurden verfahrenstechnische Methoden getestet, um die Dynamik der Gashydratbildung zu verbessern. Dies wird vor allem durch eine Verbesserung von Massen- und Wärmetransport erreicht. Das Hauptproblem für die langen Bildungszeiten ist unter anderem eine sehr geringe Kontaktfläche. Diese kann durch den Einsatz eines Rührers, eines permanenten Gasdurchflusses und durch die Verwendung von Dry Water erhöht werden. Dry Water besteht aus vielen winzigen Wassertröpfchen, die von hydrophobiertem Siliziumdioxid (SiO2) umschlossen sind. Dadurch kann die Dauer der Induktions- und Wachstumsphase der Gashydratbildung verkürzt werden.
In dieser Arbeit wird ein Reaktor mit 30 ml Volumen und ein Schrägblattrührer mit einem Durchmesser von 17 mm verwendet. Der Rührer wurde bei einer maximalen Drehzahl von 15 000 rpm ca. alle 10 min für max. 30 s betrieben, bis die Wachstumsphase der Gashydratbildung beginnt. Der Gasdurchfluss hatte einen Volumenstrom von ca. 4 slm. Das verwendete Dry Water wurde in einem Haushaltsmixer bei 25 000 rpm aus Kieselsäure und Wasser hergestellt und besitzt einen Wasseranteil von 95 %. Es wurden unterschiedliche Kombinationen getestet. Die kürzeste Induktionszeit wurde mit durchschnittlich 6,9 min durch den Einsatz eines Rührers in Kombination mit einem Gasdurchfluss und Wasser erreicht, bei einem Volumenverhältnis zwischen Gas und Wasser von 8,8 v/v nach 60 min. Die größte Menge an Gashydrat konnte durch den Einsatz von Dry Water in Kombination mit einem Gasdurchfluss erreicht werden. Das führte nach 60 min zu einem Volumenverhältnis zwischen Gas und Wasser von 14,9 v/v. Die Induktionszeit betrug dabei 120 min.
Postdigitale Gaststube
(2022)
Die vorliegende Arbeit beschreibt eine Methode zur Prognose von Anomalien in einzelnen Sensordaten für die Anwendung in Expertensystemen im Bereich der Biomassekraftwerke. Die in fünf Schritten beschriebene Methode beinhaltet neben der Datenaufbereitung eine Anomalievorauswahl durch eine unüberwachte Ausreißererkennung, welche mittels des PYOD-Toolkit umgesetzt wurde. Bei der anschließenden Anomaliebestimmung wird der zuvor generierte binäre Zielvektor durch einen mit dem System vertrauten Experten validiert. Eine darauffolgende überwachte binäre Klassifikation mit unbekannten Betriebsdaten ergibt, dass mittel- bis langfristige Anomalien im Mehrstunden- bis Mehrtagesbereich in Form eines Trends reproduktiv vorhergesagt werden können. Kurzfristige Anomalien im Minutenbereich in Form von Extremfällen können hingegen nicht reproduktiv vorhergesagt werden. Eine zusätzliche Untersuchung zur Vorhersage einer Anomalie noch vor deren tatsächlichen Eintrittszeitpunkt brachte keine zufriedenstellenden Ergebnisse. Demnach lässt sich mit dieser Methode nur eine bestimmte Art von Anomalien in Expertensystemen für Biomassekraftwerke vorhersagen. Dazu sollte zudem darauf geachtet werden, dass es trotz positiv erzielter quantitativer Ergebnisse notwendig ist, für die qualitative Prüfung einen mit dem System vertrauten Experten hinzuzuziehen und dass für die zu prognostizierende Anomalie die geeignete Abtastzeit zu wählen ist. Abschließend bleibt zu erwähnen, dass Anomalien, welche nur durch Über- bzw. Unterschreitung eines definierten Grenzwertes gekennzeichnet werden, als zu trivial für diese Methode gelten. Diese können über eine einfache Grenzwertbetrachtung identifiziert werden.
Die Mensch-Roboter-Kollaboration verspricht, die Leistungsfähigkeit eines Roboters und die Stärken eines Menschen zu kombinieren. Das junge Thema bringt nicht nur Vorteile, sondern auch neue Sicherheitsbestimmungen und aufwändige Validierungsverfahren mit sich, was den Zeitbedarf für die Entwicklung neuer MRK-Applikationen erhöht. Oft ergibt sich erst bei der Validierung, dass die Sicherheitsbestimmungen (meist die biomechanischen Grenzwerte) nicht eingehalten werden können und dadurch Änderungen an der Applikation durchgeführt werden müssen. So bildet sich ein Kreislauf aus „Validieren“ und „Änderungen vornehmen“, der erst nach mehreren Zyklen beendet werden kann. Ziel der vorliegenden Masterarbeit ist es, Empfehlungen zu konzipieren, mit welchen dieser Kreislauf frühzeitig durchbrochen werden kann. Die Arbeit beschränkt sich dabei auf das Leistungs- und Kraftbegrenzungsschutzprinzip. Um den Einfluss unterschiedlicher Parameter, wie beispielsweise die maximale TCP-Geschwindigkeit oder die Greifergeometrie, auf die Kollisionskräfte und Drücke zu erforschen, wurde ein biofideles Messsystem und ein Roboter vom Typ ABB GoFa™ verwendet. Diese Untersuchungen dienen zusammen mit den Sicherheitsbestimmungen als Grundlage der Gestaltungsempfehlungen. Um eine Anwendung der Empfehlungen vorzuzeigen, wird in der vorliegenden Arbeit exemplarisch eine MRK-Applikation gestaltet und validiert
Die vorliegende Arbeit hatte zum Ziel einen Deckungsbeitragsrechnungs-Report zu erstellen. Neben einer Literaturrecherche zum Thema (mehrstufige) Deckungsbeitragsrechnungen wurde ebenfalls nach allgemeinen Design-Empfehlungen recherchiert. Hier wird insbesondere auf vier Autoren eingegangen: Eduard Tufte, Stephen Few, Eisl et al. und die International Business Communication Standards (IBCS) von Hichert und Faisst.
Der wesentliche Kern dieser Arbeit ist dann die Entwicklung eines Musterberichts. Hierfür wurde zuerst eine Vorstudie in Form von Experteninterviews durchgeführt. Im Zuge dieser ergabt sich, dass die mehrstufige Deckungsbeitragsrechnung in der Praxis nicht von so hoher Relevanz ist, wie die Literatur vermuten lässt. Deshalb wurde das Thema der vorliegenden Arbeit an dieser Stelle auch angepasst: statt der Darstellung mehrstufiger Deckungsbeitragsrechnungen werden nun einfache Deckungsbeitragsrechnungen behandelt.
Anschließend an die Vorstudie wurde ein Leitfaden zur Berichtserstellung ausgearbeitet. Nach diesem werden zuerst Ziel, Berichtsempfänger, Berichtsinhalte und Aktualisierungsintervall definiert. Im Anschluss kann ein geeignetes Tool für die Berichtserstellung gewählt werden. Die Umsetzung erfolgt dann zuerst mittels Skizzen, bevor der Bericht tatsächlich im gewählten Tool umgesetzt wird.
In weiterer Folge wurden vier Fragen ausformuliert, welche in Form eines Experiments beantwortet werden sollen. Verschiedene Grafiken wurden anhand von drei Qualitätsmerkmalen (Effektivität, Effizienz und Attraktivität) geprüft, um die Fragen zu beantworten. Die vier Fragen lauten:
1. Sind Verhältnisse (z.B. Doppel so hoch) bei Balkendiagrammen besser leserlich als in Kuchendiagrammen?
2. Ist eine räumliche Trennung von Kategorien besser als eine farbliche?
3. Sind drei Szenarien einer Kennzahl (z.B. AC, PY, BU) in einer Grafik besser im Hinblick auf die Qualitätsmerkmale als zwei Grafiken?
4. Gibt es Unterschiede bei der Abbildung von drei Szenarien zwischen IBCS konformen Darstellungen und Bullet Charts von Stephen Few?
Das Experiment hat ergeben, dass Balkendiagramme Kuchendiagrammen in allen Qualitätsmerkmalen vorzuziehen sind. Auch eine räumliche Trennung von Kategorien hat sich aufgrund der Effizienz als besser durchgesetzt. Bezüglich der zwei gegenüber drei Szenarien konnte die Grafik mit nur zwei Szenarien im Hinblick auf Effektivität und Effizienz besser abschneiden. Allerdings liegen die Werte sehr nahe beisammen und die Probanden konnten bereits in der kurzen Zeit erste Lerneffekte erzielen. Deshalb wird empfohlen, die geringen Effektivitäts- und Effizienzverluste in Kauf zu nehmen, da im Gegenzug dafür die Grafik um weitere wertvolle Informationen angereichert werden kann. Abschließend konnten sich die IBCS-konformen Darstellungen den Bullet Charts von Stephen Few gegenüber durchsetzen. Hierbei hat ein Balkendiagramm mit Abweichungs-Pins am besten abgeschnitten, gefolgt von einem Balkendiagramm mit drei Szenarien: AC, BU und PY. Mit diesen Erkenntnissen wurde dann das Musterdashboard ausgearbeitet.
Der Befeuchtungs-Entfeuchtungs-Prozess (HDH) wird zur Meerwasserentsalzung eingesetzt und bietet Vorteile wie die Nutzung von Wärme auf einem geringen Temperaturniveau sowie die Realisierbarkeit dezentraler Anlagen. Bei diesem Prozess wird Luft im Kontakt mit warmem Salzwasser im Optimalfall bis zur Sättigung befeuchtet. Die feuchte Luft wird anschließend abgekühlt, um das in ihr befindliche Wasser wieder zu kondensieren. Obwohl der HDH-Prozess bereits mehrfach Gegenstand der Forschung war, besitzt die Effizienz des Prozesses nach wie vor ein hohes Steigerungspotential. Das Ziel dieser Masterarbeit besteht in der Konzeption und der Realisierung eines Versuchsaufbaus zur Analyse der Befeuchtung von Luft in Wasser. Dabei soll der Untersuchungsgegenstand zukünftiger Versuche die Befeuchtereinheit sein, die ein hohes Potential hinsichtlich der Effizienzsteigerung von HDH-Systemen bietet. In neueren Publikationen wurden zum Einsatz in HDH-Systemen Blasensäulenbefeuchter als eine bessere Alternative zu Festbettbefeuchtern oder Sprühtürmen vorgeschlagen, weswegen die Befeuchtung in solchen Aggregaten näher untersucht werden muss. Das Hauptziel dieser Masterarbeit ist ein Versuchsaufbau, der die Möglichkeit bietet, die Parameter, die die Befeuchtung von Luft in einer Blasensäule maßgeblich beeinflussen, mit einer ausreichenden Genauigkeit zu messen, um aus diesen Messungen semiempirische Korrelationen ableiten zu können. Die die Befeuchtung von Luft maßgeblich beeinflussenden Parameter sind die Wassertemperatur, der Füllstand im Befeuchter, die Luftgeschwindigkeit sowie die Blasengröße.
Zum aktuellen Stand ist ein HDH-System, bestehend aus einem Blasensäulenbefeuchter, einem Querstromwärmetauscher sowie einer Dosierpumpe errichtet. Mit diesem System können wissenschaftlich notwendige empirische Zusammenhänge zwischen den die Befeuchtung beeinflussenden Parametern und der Befeuchtung von Luft aus Versuchen abgeleitet werden. Die im Versuchsaufbau verbaute Messtechnik wurde derart ausgewählt, dass deren Einfluss auf das System so gering wie möglich gehalten werden kann.
Mit dem Versuchsaufbau ist es darüber hinaus möglich, invasive Messmethoden mit nicht invasiven Messmethoden direkt zu vergleichen. Um eine für die Messungen optimale Befeuchtergeometrie zu finden, sind zwei Blasensäulenbefeuchtereinheiten aufgebaut, davon eine mit planarem und eine mit zylindrischem Querschnitt. So ist es möglich, im Direktvergleich die Vor- und Nachteile der Querschnittsanordnungen nachzuweisen. Die Komponenten der beiden HDH-Systeme wurden anhand von wissenschaftlich akzeptierten Modellen bezüglich der dazugehörigen Wärmeübertragungsraten, der Wärmeverluste und der Druckverluste ausgelegt.
Eine Modellierung des Stoffübergangs in der Blasensäule ist durchgeführt. Anhand dieser Modellierung konnte der Stoffübergangskoeffizient in der Grenzschicht zwischen Luftblase und Flüssigkeitssäule ermittelt werden. Anhand einer Massenbilanz konnte über den Stoffübergangskoeffizienten die Austrittswasserbeladung der feuchten Luft modelliert werden.
Die Funktionalität des Versuchsaufbaus ist gegeben. Messungen des Gasgehalts zeigen eine sehr gute Übereinstimmung mit wissenschaftlich anerkannten Korrelationen zum Gasgehalt. Die optische Zugänglichkeit des Versuchsaufbaus ist evaluiert und lässt die Tendenz ableiten, dass sich ein planarer Befeuchterquerschnitt in Verbindung mit Fotoaufnahmen von den durchgeführten Varianten am besten zur digitalen Bildanalyse eignet.
Aus den Experimenten, die am realisierten Versuchsaufbau durchgeführt werden, kann sich eine allgemeingültige Auslegungsgrundlage für Versuchsaufbauten ergeben, mit denen Messungen der Befeuchtung von Luft in Blasensäulenbefeuchtern durchgeführt werden sollen.
Synthese von Gashydraten
(2019)
Bei Clathraten handelt es sich um Einschlussverbindungen, bei denen beliebige Gastmoleküle in einem Käfig bzw. Gitter von beliebigen Wirtsmolekülen eingeschlossen sind. Bei hohem Druck und niedriger Temperatur können beispielsweise Gasmoleküle in einem Wirtsgitter aus Wassermolekülen eingelagert werden. Natürlich vorkommende Hydrate in den Tiefeneisfeldern der Schelfmeere und in Permafrostgebieten zu finden und haben hauptsächlich Methan als Gastgas. Im Forschungsbereich Energie der Fachhochschule Vorarlberg (FHV) werden die Bildungs- und Zerfallsprozesse von Gashydraten erforscht. Für die Herstellung dieser Proben ist ein Mikroreaktor vorhanden, mit dem keine zufriedenstellenden Ergebnisse erzielt werden können, da die Dauer der Bildung von ausreichenden Mengen an Hydratproben hoch ist. Obwohl die Synthese von Hydraten bereits mehrfach Gegenstand der Forschung war und es weiterhin ist, besteht nach wie vor ein großes Potential in der Beschleunigung des Wachstumsprozesses von Hydraten. Da der Beginn des Hydratwachstums durch einen stochastischen Prozess ausgelöst wird, kann die Dauer der Keimbildung bzw. bis zum Beginn des Kristallwachstums viel Zeit in Anspruch nehmen. Für weitere Forschungsarbeiten im Forschungsbereich Energie der FHV ist eine beschleunigte und technisch einfache Herstellung von Hydraten von hoher Wichtigkeit. Deshalb ist der Fokus bzw. das Thema dieser Arbeit die Entwicklung eines neuartigen Versuchsreaktors, der die Möglichkeit bietet, verschiedene bekannte sowie neue Methoden für die Synthese von Gashydrat anzuwenden und für die Herstellung von Hydratproben untereinander zu kombinieren. Der im Zuge dieser Arbeit entwickelte Versuchsreaktor ist so aufgebaut, dass mehrere aus der Literatur bekannte Synthesemethoden, sowohl einzeln wie auch in Kombination untereinander, verwendet werden können. Als zusätzliche und neuartige Synthesemethode ist eine Baugruppe des Aufbaus darauf ausgelegt, das Hydratwachstum ausschließlich aus der Gasphase zu ermöglichen. Der Versuchsaufbau verfügt über mehrere Temperaturfühler und einen Druckaufnehmer, die über ein Datenerfassungssystem eine Steuerung und eine Überwachung des Herstellungsprozesses erlauben. Es wurden neben verschiedenen Inbetriebnahmetests insgesamt drei Versuche zur Ermittlung der Tauglichkeit des Systems zur Hydratsynthese durchgeführt. In jeder dieser drei Versuchsreihen konnten neue Erkenntnisse bezüglich des Wachstumsprozesses von Hydraten gewonnen werden, die auch in der gesichteten Literatur bisher nicht dokumentiert sind. Weiters wurde die neuartige Synthesemethode aus der Gasphase erprobt. Obwohl diese grundsätzlich funktioniert, sind die erreichbaren Produktionsraten prozessbedingt niedrig. Das Ziel, Hydratproben einfach und schnell erzeugen zu können, konnte mit dem entwickelten Versuchsreaktor erreicht werden.
Die hybride Form des Zusammenarbeitens in Unternehmen begleitet uns spätestens seit Beginn der Corona Pandemie. Aber auch Homeoffice, der Fachkräftemangel und die Digitalisierung führen dazu, dass die hybride Führung und die hybriden Teams ein immer wichtigerer Bestandteil der Zusammenarbeit in Unternehmen werden.
Ziel dieser Masterarbeit ist es Verhaltensweisen und Methoden zu identifizieren, wie die Führung und die Zusammenarbeit der hybriden Teams gestaltet werden können. Die Methoden und Verhaltensweisen werden mit den Führungsstilen von Goleman, dem Empowering Leadership und den transaktionalen und transformationalen Führungsstil in Verbindung gesetzt. Resultierend aus den Ergebnissen werden Handlungsempfehlungen für das Gestalten der Führung und der Zusammenarbeit entwickelt.
Beginnend mit einer umfassenden Literaturrecherche folgen Expert:innen Interviews mit Führungskräften und Expert:innen aus den Personalabteilungen, welche mittels einem teilstrukturierten Leitfaden geführt und anhand der Auswertungsmethode von Mühlfeld ausgewertet werden.
GESCHICHTEN BEIM GEHEN
(2022)
Eine junge Frau geht ihre Wege durch Dornbirn, einer Stadt mit rund 50.000 Einwohnern. Sie wohnt im Zentrum der Kleinstadt, durchläuft diese meist zu Fuß, zu den unterschiedlichsten Zwecken und immer mit offenen Augen. Sie stellt fest, dass je öfter sie denselben Weg geht, sie umso mehr Neues entdeckt: Dinge abseits des Alltäglichen. Sie bemerkt, dass sie scheinbar Gleiches immer wieder anders wahrnimmt.
In diesem Buch hat sie die Geschichten, die sich während dem Vorgang des Gehens bilden, gesammelt. Diese lassen in ihrer Gesamtheit ein Bild ihrer Wege entstehen: durch Texte, Notizen, Illustrationen, Grafiken, Fotografien und Filme.
Sie (er)fasst somit den Raum, der sich bildet, wenn sie sich durch die Stadt bewegt – und macht diesen für uns sichtbar. Folgen Sie ihr auf ihrem Weg und begeben Sie sich mit den beiliegenden Karten selbst auf Entdeckungsreise. Sie werden staunen.
Geschichten beim Gehen ist ein Forschungsprojekt, das einerseits versucht eine Theorie zur Raumkonstitution (Kunst des Handelns von Michel de Certeau) in ein visuelles Erscheinungsbild zu übersetzen und gleichzeitig Methoden zur Wahrnehmbarmachung erarbeitet, die andere Karten oder Darstellungen jenseits von Karten liefern.
Die Arbeit soll als Beispiel für ein Forschen mittels gestalterischen Methoden dienen. Entstanden sind zwei Bücher: O, das Buch vom Ort und R, das Buch vom Raum. Ersteres bildet die wissenschaftliche Kontextualisierung und diskutiert die gewonnenen Erkenntnisse. Zweiteres funktioniert als visuelles Essay und zeigt angewendete gestalterische Methoden und verwendete Medien: ein Prozess im Wechselspiel von Theorie und Praxis.
Der Energieausweis stellt sich als wichtiges Instrument zu Dekarbonisierung des Gebäudesektors dar. Aufgrund dieser zentralen Wichtigkeit kommt auch der Qualitätssicherung von Energieausweisen eine tragende Bedeutung zuteil. Während die Übereinstimmung von Energieausweisberechnungen mit realen Verbrauchswerten gut erforscht ist, gibt es wenig Informationen hinsichtlich der Qualität von ausgestellten Energieausweisen. Vorliegende Arbeit befasst sich mit der Identifikation von Fehlerquellen bei der Eingabe energetisch relevanter Daten. Dabei wird das Ausfindigmachen von fehlerhaften energetischen Eingaben bei real ausgestellten Energieausweisen, die Ermittlung deren Fehlerquote und Auswirkungen auf die energetischen Kennzahlen HWB, PEB, CO2 und IO3 angestrebt.
Energetisch relevanten Daten zum Gebäude, dessen Haustechniksystemen, Klimadaten, Nutzungsprofil und rechtlich relevante Eingaben wurden bei vier Energieausweisen auf deren korrekte Eingabe geprüft. Hierdurch konnten Fehlerquellen zur Eingabe von Gebäude- und Haustechnikdaten ausgemacht werden konnten. Eine genauere Kontrolle einzelner Eingaben an einer größeren Stückzahl von Energieausweisen ergab deutliche Fehlerpotentiale bei der Eingabe von PV- und thermischen Solaranlagen als auch bei der Berechnung des Ökoindex (OI3).
Chatbots für Alle
(2023)
Digitale Barrierefreiheit ist eine der großen Aufgaben in unserer Gesellschaft, um die Gleichstellung aller Menschen zu gewährleisten. Für unterschiedliche Personengruppen stellt die Anwesenheit von Barrieren ein Problem dar, daher hat sich diese Arbeit zur Fragestellung gesetzt, welche konkreten Gestaltungsempfehlungen exemplarisch zum Abbau kognitiver Barrieren bei textbasierten Gesprächsschnittstellen beitragen können. Wie Menschen mit kognitiven Einschränkungen, mit beispielsweise Lernschwierigkeiten, Gestaltung innerhalb von Dialog-Systemen wahrnehmen, ist weitgehendst unerforscht. Denn das Web wird vornehmlich für Nutzende mit durchschnittlichen Fähigkeiten und Anforderungen gestaltet. Um Barrierefreiheit im Digitalen zu gewährleisten, bieten die Web Content Accessibility Guidelines (WCAG) eine Referenz für die gesetzliche Grundlage. Allerdings sind die darin enthaltenden Erfolgskriterien allgemein fürs Web und nicht konkret genug für textbasierte Chatbots formuliert und lassen für Designer:innen und Entwickler:innen großen Interpretationsspielraum in der Umsetzung offen. Digitale Barrieren sind Hindernisse, die Menschen teilweise oder vollkommen behindern etwas zu tun. Vor allem erleben marginalisierte Personengruppen, wie ältere Menschen oder Menschen mit Einschränkungen, Ausschlussmechanismen aus digitalen Produkten und Services. Zeitgleich zu dieser Ungerechtigkeit schreitet der demografische Wandel voran. Parallel damit steigt die Wahrscheinlichkeit mit einer Einschränkung psychischer oder physischer Natur zu leben – beispielsweise eine Demenz im Alter zu haben. Die Nichtteilnahme im Digitalen führt in einer Gesamtbetrachtung in Folge zu einer mehr oder weniger ausgeprägten sozialen und gesellschaftlichen Spaltung. Zudem ist die Frage, wer für die Umsetzung von Barrierefreiheit verantwortlich ist weitgehend ungeklärt. Zugrundeliegende Faktoren für Ausschlussmechanismen ist z. B. die personelle Homogenität in Entwicklungsteams und damit zusammenhängend die Reproduktion der privilegierten Sichtweisen in gestaltete Artefakte. Offensichtlich ist, dass Entwickler:innen und Designer:innen zur Konstruktion und damit zur Dekonstruktion von Barrieren beitragen können. Das Ziel des Forschungsvorhabens ist es, einen Beitrag zum aktuellen Wissensstand zu leisten und reale Nutzende zu partizipieren. Dazu wurden gestalterische Experimente und Usability Tests durchgeführt und die exemplarischen Ergebnisse in konkreten Gestaltungsempfehlungen in einem Empfehlungskatalog synthetisiert.
Regionalbanken sind aus dem Banken- und Finanzsystem Österreichs nicht wegzudenken. Sie sind in der Bevölkerung traditionell stark verwurzelt und stoßen auf hohe Akzeptanz und Vertrauen – nicht zuletzt durch ihre hochqualifizierten Mitarbeiter.
Die vorliegende Arbeit gibt Antwort auf die Fragestellung, wie es den Regionalbanken auch in Zukunft gelingen kann, hochqualifizierte Fachkräfte als Mitarbeiter zu gewinnen. Dazu muss die Generation Z, jene Generation, die jetzt ins Arbeitsleben tritt und dieses zukünftig prägen wird, für die Mitarbeit gewonnen werden.
Ein entscheidender Schlüssel, um die Regionalbanken als attraktive Arbeitgeber für die Generation Z zu positionieren, ist das richtige Employer Branding.
Die vorliegende Arbeit definiert zunächst die Regionalbanken innerhalb des österreichischen Bankensektors. Danach beschreibt sie kurz den demographischen Wandel in Österreich in den letzten Jahrzehnten und grenzt so die Generation Z von den anderen (noch) erwerbstätigen Generationen ab.
Es wird weiter das Employer Branding in seinen Grundzügen erklärt. Aus einer quantitativen empirischen Studie werden jene erfolgversprechenden Faktoren für die Positionierung der Regionalbanken innerhalb der Generation Z abgeleitet und erklärt, die in Zukunft beim Employer Branding der Regionalbanken besonders zu berücksichtigen sind.
Aus der Arbeit wird deutlich, dass für die Generation Z teilweise ganz andere Faktoren zählen als für vorherige Generationen. Etwa treten Hierarchien und die Möglichkeit und der Wille, klassische Führungsaufgaben zu übernehmen, in den Hintergrund, während Aspekte wie Work-Life-Balance, ein gutes Arbeitsklima sowie Arbeitsplatzsicherheit sehr wichtig sind.
Unternehmen müssen heute eine Vielzahl von Compliance-Anforderungen erfüllen. Bei Konsumgüterherstellern gewinnt hierbei die Erweiterte Herstellerverantwortung immer mehr an Bedeutung, deren unterschiedliche Gesetzgebungen in verschiedenen Ländern eingehalten werden müssen, um Bußgelder oder Vertriebsverbote zu verhindern. Unternehmen müssen folglich Wege finden, um die Compliance-Anforderungen möglichst ressourceneffizient und nachhaltig in Geschäftsprozessen zu implementieren.
Die vorliegende Masterarbeit beschäftigt sich daher mit der Frage, wie Unternehmen bei der sozialen und technischen Implementierung von Compliance-Anforderungen in Geschäftsprozessen vorgehen sollten, um eine möglichst hohe Akzeptanz und Umsetzungssicherheit zu gewährleisten. Basierend auf einer Literaturrecherche und der Modellierung praxisnaher Beispiele mit DMN werden schrittweise verschiedene Möglichkeiten zur Implementierung von Compliance-Anforderungen in Geschäftsprozessen, von der Anforderungsidentifikation bis zur Aufstellung von Business Rules, aufgezeigt.
Um Compliance-Anforderungen nachhaltig in Geschäftsprozessen zu implementieren, sollten die Anforderungen in den Geschäftsprozessen hinterlegt und deren Einhaltung regelmäßig durch Audits überprüft werden. Eine flexible und umsetzungssichere Möglichkeit bieten außerdem Business Rules. Auch spielen soziale Aspekte wie die Prozessorganisation, klare Zuordnungen von Rollen und Verantwortlichkeiten und Change-Management eine Rolle, da diese einen Einfluss auf die Akzeptanz durch die Prozessbeteiligten haben. Nur unter Beachtung der technischen und sozialen Aspekte können Compliance-Anforderungen in Geschäftsprozessen nachhaltig implementiert werden.
Das Ziel dieser Masterarbeit war die Untersuchung der Einflussgrößen Wassertemperatur, Füllstand, Gasleerrohrgeschwindigkeit und Blasengröße auf die Befeuchtung von Luft in einer mit Salzwasser befüllten Blasensäule. Dazu wurde eine umfangreiche Versuchsreihe durchgeführt, um die Auswirkungen zu untersuchen. Großer Wert wurde dabei auf die Reproduzierbarkeit der Ergebnisse gelegt. Es wurde eine große Anzahl Datensätze während den Versuchszeiten geloggt und analysiert. Die Auswertung hat ergeben, dass die Wassertemperatur ein wesentlicher Einflussfaktor auf die Befeuchtung von Luft ist. Die Wassertemperatur zeigt gemäß des Antoine-Gesetzes exponentielle Auswirkungen auf die Kondensatproduktion auf. Hohe Füllstände in der Blasensäule wiesen im Vergleich zu niedrigeren Füllständen eine erhöhte Kondensatproduktion auf. Eine Steigerung der Gasleerrohrgeschwindigkeit in den Versuchen führte zu einer Zunahme der produzierten Kondensatströme. Die in dieser Arbeit untersuchten Spargerplatten der Variation des Lochdurchmessers konnten keine klaren Erkenntnisse auf die Befeuchtung von Luft liefern. Insgesamt sind die Forschungen an der Versuchsanlage noch nicht abgeschlossen und weitere Erkenntnisse zu dieser Thematik sollen in Zukunft gewonnen werden.