Refine
Document Type
- Master's Thesis (295)
- Report (14)
- Article (10)
- Conference Proceeding (3)
- Part of a Book (2)
- Other (2)
- Bachelor Thesis (1)
- Book (1)
- Doctoral Thesis (1)
Institute
- Soziales & Gesundheit (11)
- Forschungsgruppe Empirische Sozialwissenschaften (9)
- Forschungszentrum Business Informatics (7)
- Wirtschaft (6)
- Forschungszentrum Human Centred Technologies (3)
- Forschungszentrum Energie (2)
- Gestaltung (2)
- Hochschulservices (2)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (2)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (1)
Language
- German (329) (remove)
Has Fulltext
- yes (329) (remove)
Keywords
- Digitalisierung (11)
- Controlling (7)
- Digitale Transformation (7)
- Industrie 4.0 (5)
- Soziale Arbeit (5)
- Demand Side Management (4)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Kultur (4)
- Photovoltaik (4)
Insignien der Macht
(2022)
Die Coronavirus Pandemie hatte einen tiefgreifenden Einfluss auf die Art und Weise wie Staats- und Regierungschefs weltweit digitale Netzwerke für politische Kommunikation nutzen. Während PolitikerInnen über soziale Netzwerke vermehrt versuchten ihre WählerInnen zu erreichen, suchten auch NutzerInnen vermehrt auf Kanälen politischer AkteurInnen nach aktuellen Informationen zum Coronavirus. Die Pandemie hat gezeigt, dass die visuelle Kommunikation führender politischer AkteurInnen auf Social Media an Bedeutung gewinnt und als zunehmend zentrale Ressource politischen Handelns kritisch hinterfragt werden sollte. In digitalen Öffentlichkeiten ändern sich zunehmend Rahmenbedingungen visueller politischer Kommunikation. Durch Soziale Netzwerke erhalten PolitikerInnen die Möglichkeit einer ungefilterten Kommunikation mit ihren Wählergruppen. Aus Überlegungen über den Prozesswandel der politischen Kommunikation, stellt sich die Frage wie visuelle politische Kommunikation auf Social Media durch empirische Forschung und visuelle Analysen in ihren Inszenierungsstrategien dekodiert werden kann. Im Rahmen des Forschungs- und Designprojektes Insignien der Macht: Die Entschlüsselung visueller politischer Kommunikation im Zeitalter Visueller Politik soll auf Basis von Visual Literacy und der Bildpädagogik nach Otto Neurath eine visuelle Sammlung erstellt werden, die als Hilfsmittel zur Entschlüsselung inszenierter Bildmaterialien auf Social Media einen Beitrag zur kritischen Betrachtung von Bildern im Zeitalter Visueller Politik durch eine designpraktische Übersetzungsleistung der Forschungserkenntnisse leisten soll.
Untersuchung zur Lösbarkeit der Rückwärtskinematik eines 6-DOF Roboter mit einem neuronalen Netz
(2022)
Das Berechnen der inversen Kinematik ist komplex und muss für jeden Robotertyp individuell gelöst werden. Da ein Manipulator ohne die Rückwärtskinematik, die die erforderlichen Achsvariablen für eine Ziellage ermittelt, in der Praxis nicht verwendet werden kann, ist dieses Problem elementar in der Robotik. In dieser Arbeit wird der Ansatz zur Lösung der inversen Kinematik mit einem neuronalen Netz für einen Roboter mit sechs Freiheitsgarden untersucht. Dabei ist besonders darauf zu achten alle Mehrdeutigkeiten der inversen Kinematik beim Training zu berücksichtigen, da sonst das Kriterium des Determinismus zwischen Inputs und Outputs verletzt wird, was verhindert, dass ein Netz für das Problem trainiert werden kann. Es hat sich gezeigt, dass der Optimierungsalgorithmus Adams ebenso gute Ergebnisse wie der Scaled Conjugated Gradient erzielt. Die in Tensorflow verwendete typischen Aktivierungsfunktion Tangens hyperbolicus, weist im Vergleich zu anderen untersuchten Aktivierungsfunktionen, die in Tensorflow implementiert sind, die beste Performance auf. In MATLAB hingegen weist die Log sigmoid Aktivierungsfunktion die beste Performance von den implementierten Aktivierungsfunktionen auf. Zusätzlich verringert das Einschränken der Achsvariablen auf die tatsächlichen Achsbeschränkungen beim Trainieren des Netzes, sowohl den Netzwerkfehler als auch die Datenmenge, die benötigt wird, damit das Netz gut generalisiert. Abschließend stellt sich heraus, dass die trainierten Netze keine Praxistauglichkeit aufweisen, da der erzielte Netzwerkfehler zu groß ist. Da alle Mehrdeutigkeiten durch geometrische Analyse ausgeschlossen sind und ein ausreichend großer Datensatz verwendet wurde, kann mit den hier vorgestellten Ansätzen das Ergebnis nur durch komplexere Netze und damit mehr Daten verbessert werden. Andere Ansätze die zusätzliche Informationen zur Berechnung der Achswinkel zur Verfügung stellen könnten zudem auch bessere Ergebnisse erzielen. Darüber hinaus könnte es sinnvoll sein, Ansätze zu untersuchen, die sich die Achsbeschränkungen zunutze machen.
Der Begriff Digital Rights Management (DRM) umfasst Richtlinien, Techniken und digitale Werkzeuge, mit denen die Nutzung digitaler Inhalte eingeschränkt, gesteuert und kontrolliert werden kann. Im Wesentlichen werden dabei Technologien von Rechteinhaber:innen zur Zugangs- und Nutzungssteuerung sowie Verfolgung von Rechtsverstößen und gegebenenfalls sogar zur differenzierten Abrechnung digitaler Inhalte angewendet. Herkömmliche DRM-Systeme bestehen hauptsächlich aus Software und stützen sich auf softwarebasierte IT-Sicherheit. Um die IT-Sicherheit von DRM-Systeme auszuweiten, können Hardwarekomponenten eingesetzt werden. Die Kombination aus software- und hardwarebasierter IT-Sicherheit wird als Trusted Computing (TC) bezeichnet und ermöglicht Rechteinhaber:innen völlig neue Szenarien.
Um die Möglichkeiten von DRM mit TC zu erforschen bzw. diese zu demonstrieren, wurde im praktischen Teil dieser Arbeit eine technische und organisatorische Maßnahme prototypisch umgesetzt, mit der es einem Auftraggeber-System möglich ist, mit einer definierten Lizenz (bzw. DRM-Policy) sensible proprietäre Daten an ein Auftragnehmer-System zu senden, sodass dieses die sensiblen Daten nur auf eine Art und Weise verwenden kann, wie die Lizenz es vorgibt. Zur Umsetzung der Systeme wurde ein kryptografischer Coprozessor - genannt Trusted Platform Module (TPM) - verwendet. Das TPM verfügt über weitreichende kryptografische Funktionalitäten und bietet eine hardwarebasierte IT-Sicherheit. Das Gesamtsystem wurde somit als zweiteiliges System, ein Auftraggeber-System und ein Auftragnehmer-System, umgesetzt.
Im theoretischen Teil der Arbeit wird zuerst auf DRM und anschließend auf TC eingegangen. Besonders einige wichtige Funktionalitäten des TPM, welche in das System integriert wurden, werden erläutert. Des Weiteren wird auch das abhörsichere Kommunikationsprotokoll Hypertext Transfer Protocol Secure (HTTPS) vorgestellt und erklärt. HTTPS wird verwendet für den geschützten Datenaustausch zwischen den beiden Teilsystemen. Wie das Gesamtsystem inklusive der beiden Teilsystemen umgesetzt wurde, sowie welche Features es bietet und wie es funktioniert wird auch in einem Kapitel präsentiert und erläutert. Abschließend werden die positiven und negativen Aspekte des Systems sowie eine auf eigener Meinung beruhende Schlussfolgerung präsentiert.
Seit der Einführung von modernen Smartphones steigt die Bildschirmdiagonale der mobilen Endgeräte Jahr für Jahr. Dies ist sowohl ein Fluch als auch ein Segen zugleich. Einerseits kann auf einer größeren Bildschirmfläche eine größere Anzahl von Inhalten grafisch dargestellt werden. Andererseits bedeutet dies aber auch, dass Interaktionen mit der gesamten verfügbaren Bildschirmfläche sich als immer schwieriger gestalten. Insbesondere bei der einhändigen Bedienung des Smartphones mit dem Daumen erfordern ungünstig platzierte klickbare Bedienelemente eine erhebliche Streckung des betreffenden Fingers oder sogar die Unterstützung durch die andere Hand. Dadurch kann die Präzision von Berührungsinteraktionen beeinträchtigt werden. Es stellt sich deshalb folgende Forschungsfrage: „Inwiefern hängt die Berührungspräzision von unvorteilhaft positionierten Bedienelementen in Smartphones ab und wie unterscheiden sich die verschiedenen Altersgruppen hinsichtlich Smartphone Interaktionen?“ Zur Beantwortung der Forschungsfrage wurde eine quantitative Studie im Design einer interaktiven Umfrage für Smartphones programmiert und an potentielle Teilnehmer:innen versandt. Dabei wurden die Teilnehmenden aufgefordert vordefinierte Haltegriffe einzuhalten. Es wurden die Berührungsinteraktionen und die Antworten der Teilnehmenden protokolliert und anschließend analysiert. Bei der Datenanalyse wurden die erhobenen Daten der Teilnehmenden in vier Altersklassen unterteilt und anschließend auf Differenzen bezüglich der Bedienpräzision untersucht. Die Darstellung und der Vergleich der Benutzer:inneninteraktionen durch OffsetVektoren ergab, dass die Versuchsgruppe der Senioren bei allen vordefinierten Haltegriffen eine signifikant geringere Präzision in Bezug auf die Berührungsgenauigkeit aufwies als die anderen Testgruppen. Darüber hinaus wurde festgestellt, dass Objekte, die weiter von der natürlichen Fingerposition entfernt sind, mit einer geringeren Präzision selektiert werden als Objekte, die in unmittelbarer Nähe zum bedienenden Finger positioniert sind. Dies zeigte sich sowohl bei der Bedienung mit dem Daumen als auch mit dem Zeigefinger und ist abhängig vom Winkel des bedienenden Fingers zum Smartphone.
Das Ziel dieser Arbeit ist die Analyse und Entwicklung einer Aktor-Bibliothek in Rust. Existierende Aktor-Bibliotheken in Rust verletzen grundlegende Regeln des Aktor-Modells, wodurch diese in nicht allen Anwendungsfällen verwendet werden können. Des Weiteren existiert keine strukturierte Arbeit zu der Entwicklung einer Aktor-Bibliothek in Rust. Die in dieser Arbeit entwickelte Bibliothek entspricht einerseits den Ideen des Aktor-Modells, andererseits wird die Erarbeitung und die durchlaufene Analyse der Bibliothek durch diese Arbeit dokumentiert. In einem ersten Schritt wird das Aktor-Modell und grundlegende Spracheigenschaften von Rust eingeführt, bevor das Design der entwickelten Aktor-Bibliothek vorgestellt und getroffene Design-Entscheidungen beschrieben und begründet werden. Darauffolgend werden die Implementationen der relevantesten Komponenten der Bibliothek beschrieben und anhand von Code-Beispielen erklärt. Des Weiteren wird das Design und die Implementation eines Test-Frameworks für Aktoren präsentiert, das das Testen von Aktoren erleichtern soll. Anhand der Implementation eines Praxisbeispiels wird die entwickelte Aktor-Bibliothek mit Java Akka durch Code-Vergleiche und Benchmarks verglichen. Hierbei wird gezeigt, dass die Verwendung der entwickelten Bibliothek mit einem vergleichbar gleich großen Code-Aufwand zu denselben und mitunter besseren Ergebnissen führen kann. Abschließend werden vorhandene Einschränkungen der entwickelten Bibliothek und deren Auswirkungen beschrieben.
Die tägliche Arbeit von Büroangestellten besteht oft aus Aufgaben, die sich in verschiedenen Zeitabständen wiederholen. Die Art unterscheidet sich abhängig vom Berufsfeld. Jedoch kostet deren Ausführung Zeit und den stört Arbeitsfluss. Könnten diese Aufgaben automatisiert werden, hätte dies den Vorteil, dass zeitliche Ressourcen freigesetzt würden und es dadurch zu einer Steigerung der Produktivität käme, da diese zusätzlichen Ressourcen anderweitig genutzt werden könnten. Daher ist es notwendig geeignete Aufgaben ausfindig zu machen und anhand der entsprechenden Technologien zu automatisieren.
Das Ziel der vorliegenden Arbeit ist es, die repetitiven Aufgaben in der definierten Zielgruppe zu eruieren und diese in weiterer Folge zu automatisieren. Dazu wird folgende Forschungs-frage gestellt: „Implementierung eines Chatbots anhand von der SAP zur Verfügung gestellter Technologien, um repetitive Aufgaben zu automatisieren.“
Die Umsetzung der Arbeit erfolgte im Rahmen der Tätigkeit bei einem SAP Beratungshaus. Dadurch beschränkt sich die Zielgruppe auf hausinterne SAP Berater*innen und SAP Tech-nologien. Ziel dieser Arbeit war es, einen Prototypen zu implementieren der es ermöglicht, dass die Berater*innen sich täglich wiederholende Aufgaben anhand eines Chatbots automa-tisiert ausführen können. Als Ergebnis dieses Greenfield Projektes sollte ein Proof-of-concept zur Verfügung gestellt werden, der die ausgewählten Anwendungsfälle abdeckt und eine Grundlage für die Erweiterung bildet. Die Hauptaufgabe liegt zum einen in der Erfassung der Anwendungsfälle und zum anderen im Aufbau von entsprechendem Know-How für die Um-setzung mit den ausgewählten Technologien.
Als Technologie, zur Interaktion mit dem Benutzer, wird für den Chatbot die SAP Conversati-onal AI verwendet. Zur Ausführung der Aufgaben erfolgt die Umsetzung anhand der SAP In-telligent Robot Process Automation im Zusammenspiel mit dem SAP GUI Scripting und an-wendungsfallspezifischen ABAP Programmen.
Die Evaluation der User Expirience erfolgt in Form des SUMI Fragebogens. Dieser untersucht die Dimensionen der Effizienz, Beinflussbarkeit, Hilfsbereitschaft, Kontrollierbarkeit und Er-lernbarkeit. Für die Durchführung der Untersuchung wurden den Anwender*innen Szenarien vorgelegt, welche alltägliche Situationen widerspiegeln. Basierend auf diesen Szenarien soll-ten die Aufgaben mit Hilfe des Chatbots gelöst werden. Das Ergebnis der Untersuchung zeigt, dass der Prototyp vor allem in den Bereichen der Effizienz und der Kontrollierbarkeit einiges an Verbesserungspotenzial offenbart hat. Jedoch wird der Nutzen der Anwendung von acht der zehn Testpersonen als wichtig bis sehr wichtig eingestuft.
Die Umsetzung legt die Möglichkeiten und das Potenzial der Technologien offen und stellt mit dem Prototypen eine solide Grundlage für zukünftige Entwicklungen zur Verfügung. Weiters werden durch die Evaluation die Schwächen und Stärken offengelegt und ein Konzept ver-wendet, welches auch für zukünftige Erweiterungen verwendet werden kann.
Krypto-Assets im Treasury
(2022)
Die Unternehmensplanung ist ein Pfeiler der Unternehmenssteuerung und dient zur Prognose der zukünftigen Geschäftsentwicklung sowie als Grundlage für Entscheidungen und Maßnahmen. Es wird auf diverse Charakteristiken der Unternehmensplanung eingegangen, wie die strategische und operative Planung. Die Planungsarten fokussieren sich auf Budget und Forecast. Zu diesen werden verschiedene bisherige Studien vorgestellt.
Die Forschungsfrage untersucht, wie sich in den vergangen zwei Jahren der Planungsprozess in der Bodenseeregion verändert hat und welche Treiber es für die Veränderungen gab. Die quantitative Untersuchung mittels einer Online-Umfrage erfolgt vor dem Hintergrund einer nicht nachlassenden Unsicherheit bedingt durch die Corona-Pandemie. Ein neuer Blickwinkel auf die Unternehmensplanung ist die Analyse von Unterschieden aufgrund der gewählten Unternehmensausrichtung Massenproduktion oder Auftragsfertigung. In den Ergebnissen zeigen sich keine signifikanten Unterschiede zwischen den beiden Geschäftsmodellen. Die Hälfte der befragten Unternehmen hat die Planung angepasst und z.B. die Planungsdauer verkürzt oder Szenarien verwendet.
Der Begriff der Nachhaltigkeit und der damit einhergehende Druck der Gesellschaft auf Unternehmen nimmt stetig zu. Unternehmen haben in den letzten Jahren damit begonnen, nachhaltige Ansätze im Rahmen ihrer wirtschaftlichen Tätigkeit zu integrieren und nach außen hin zu vertreten.
Das Ziel dieser Arbeit ist die Entwicklung eines sogenannten ESG-Leitfadens, welcher als zusätzliches Analysewerkzeug im Rahmen einer Unternehmensprüfung von Private-Equity-Gesellschaften eingesetzt werden kann. Der Leitfaden gilt als Leitlinie für die Einhaltung von ESG-Kriterien sowie den Bestimmungen der EU-Offenlegungsverordnung für nachhaltige Finanzprodukte.
Im Rahmen einer umfassenden Recherche wurden in einem ersten Schritt bestehende Due-Diligence-Prüfungen auf nachhaltige Aspekte untersucht. Anschließend wurden weitere Kriterien zur Erfüllung der ESG-Aspekte auf Basis einer entwickelten Methodik extrahiert und in den vorgesehenen Leitfaden implementiert. Weiters wurde sichergestellt, dass mit der Anwendung des Leitfadens die Grundzüge der EU-Offenlegungsverordnung eingehalten werden können.
In einem abschließend durchgeführten Anwendungstest wurde die Einsatzfähigkeit des Leitfadens bestätigt. Der Erfolg des ESG-Leitfadens, im Hinblick auf einen später darauf zurückzuführenden wirtschaftlichen Erfolg, kann lediglich in Kombination mit weiteren Prüfmethoden sichergestellt werden.
Controlling im Bauprojekt
(2022)
Berühmte Beispiele zeigen, dass Bauprojekte Schwierigkeiten haben, im geplanten Zeit- und Kostenrahmen realisiert zu werden. Diese spezielle Art der Projekte ist individuellen Heraus- forderungen und Risiken ausgesetzt. Dem Controlling kommt im Bauprojekt eine besondere Bedeutung zu, da es helfen kann, diesen Herausforderungen zu begegnen. Das Controlling kann das Projektmanagement dabei unterstützen, die gesetzten Ziele zu erreichen und die Transparenz im Bauprojekt zu erhöhen.
Mithilfe der vorliegenden Arbeit wird versucht, Erfolgsfaktoren für das Controlling in Baupro- jekten zu identifizieren. Um diese Forschungsfrage zu beantworten, wurden leitfadengestützte Interviews mit 15 Beschäftigten von im Bauprojekt beteiligten Berufsgruppen geführt (3 Archi- tekt/-innen, 3 Fachplaner/-innen, 3 Bauunternehmer/-innen sowie 6 Projektleiter/-innen). Die Interviews decken die folgenden Bereiche ab: Herausforderungen von Bauprojekten, Projekt- controlling, Risikomanagement und Erfolgsfaktoren.
In den 13 Jahren seit Einführung der IFRS für KMU in Deutschland belegen mehrere Studien, dass dieser Standard, entgegen der Erwartungen, keine Erfolge im Bereich der Anwenderzahlen erzielen konnte. Trotz der Entwicklung eines international angepassten und auf die Bedürfnisse der KMU fokussierten Rechnungslegungsstandards, blieb eine Etablierung innerhalb der KMU aus.
Ziel dieser Arbeit ist die Analyse, inwiefern eine doppelte Rechnungslegung nach IFRS und HGB wirtschaftliche und geschäftsanalytische Vorteile für die Anteilseigner deutscher KMU generiert. Aufbauend auf der beschriebenen Zielsetzung gilt es zu überprüfen, welche Anteilseigner deutscher KMU von dem doppelten Rechnungslegungsstandard adressiert werden und ferner, in welchem Ausmaß eine höhere Bedürfnisbefriedigung resultiert. Zunächst erfolgt im Rahmen einer umfassenden Literaturrecherche eine Untersuchung der Anteilseigner deutscher KMU und deren Anforderungen an ein Rechnungslegungssystem. Anschließend findet eine Überprüfung möglicher Vorteile statt, welche die Anwendung der IFRS für KMU befürworten würden. Darüber hinaus wurden zehn Experteninterviews durchgeführt mit der Intention, erworbene Erkenntnisse zu revidieren und überdies neue zu generieren. In einer abschließenden Inhaltsextraktion werden die gewonnen Annahmen artikuliert und anschließend interpretiert, um die zugrundeliegende Forschungsfrage zu beantworten.
Um die Nachhaltigkeitsziele der Vereinten Nationen in Österreich zu erreichen, wird ab Juli 2022 die CO2-Steuer erhoben. In diesem Kontext fehlen für den Standort Vorarlberg jedoch Aussagen über das Nachhaltigkeitscontrolling im Allgemeinen und die Auswirkungen der CO2-Steuer im Speziellen.
Zur Beantwortung der Forschungsfragen wurde eine Online-Umfrage konzipiert, durchgeführt und statistisch quantitativ ausgewertet. Das entwickelte Nachhaltigkeits-Scoring-System soll klären, inwieweit die teilnehmenden Unternehmen, ein Nachhaltigkeitscontrolling implementiert haben. Zudem wurde geprüft, ob die CO2-Steuer einen Zusammenhang mit dem ermittelten Nachhaltigkeitsscore hat.
Der Mittelwert des Nachhaltigkeitsscore betrug 56,23 %, wobei die Ergebnisse eine hohe Variabilität (10 % bis 100 %) aufwiesen. In einigen Unternehmen wird nur ein rudimentäres Nachhaltigkeitscontrolling durchgeführt, während andere bereits sehr aktiv sind. Die Wirkung der CO2-Steuer ist sehr unterschiedlich. Der Korrelationskoeffizient nach Pearson ergibt zwar 0,053 und ist damit positiv (r > 0), dieser ist aber sehr schwach. Die Signifikanz (1-seitig) liegt bei p = 0,352. Somit wurde nachgewiesen, dass kein eindeutiger Zusammenhang zwischen der CO2-Bepreisung und dem Nachhaltigkeitsscore in Vorarlberg besteht.
Grüne Anleihen gewinnen als Finanzierungsinstrument für Unternehmen zunehmend an Interesse. Ziel der Masterarbeit ist es, Unternehmen für die zukünftige Emission von grünen Anleihen Handlungsempfehlungen für die Ausgestaltung des Green Bond Frameworks (GBF) und der Anleihebedingungen zu bieten. Die theoretische Annäherung an die Begriffe grüne Finanzierung sowie grüne Anleihen bildet den Rahmen für die empirische Untersuchung und gibt Hinweise auf Erfolgsfaktoren für die Erzielung einer grünen Prämie (Greenium). Anschließend werden die GBFs sowie die Ausstattungsmerkmale der grünen Anleihen von ATX-, DAX- und SMI-Unternehmen inhaltsanalytisch ausgewertet. Die Analyse belegt, dass die Emittentinnen in den GBFs unterschiedlich strenge Kriterien für die Verwaltung und Verwendung der Emissionserlöse von grünen Anleihen festlegen. Auf Basis dieser ordinal skalierten Konditionen wird ein Qualitätsindex entwickelt, der einen einfachen Vergleich von GBFs ermöglicht und gemeinsam mit den aus der Theorie abgeleiteten Er-folgsfaktoren die Basis für einen Kriterienkatalog für die Ausgestaltung von GBFs und Anleihekonditionen von grünen Anleihen bildet.
Das Thema Nachhaltigkeit wurde in den letzten Jahren zu einer stetig wachsenden Herausforderung für Unternehmen, welche sich in einer Nachhaltigkeitsberichtserstattung (kurz: NBE) etablierte. Die vorliegende Untersuchung der Entwicklung der NBE der DAX-40-Unternehmen basiert auf einem Kategorienkatalog, eigens entwickelt aus den SDGs. Hiermit ist es möglich Umfang und Metadaten der Berichte in einem standardisierten und vergleichbaren Format festzuhalten. Diese Informationen wurden mithilfe deskriptiver Betrachtung und statistischer Methoden ausgewertet. Dadurch wird aufgezeigt, dass trotz der quantitativen Entwicklung der Berichte und vermehrter Behandlung nachhaltiger Themen, diese inhaltlich sehr stark, aufgrund einer fehlenden Standardisierung bzw. Verpflichtung für die Publikation von Nachhaltigkeitsthemen, variieren. Dies führt dazu, dass sowohl der Vergleich von Berichten zwischen Unternehmen als auch von unterschiedlichen Berichten desselben Unternehmens nur mit sehr hohem Aufwand möglich ist. Sinnvoll wäre die weiterführende Forschung im Bereich der NBE für Großunternehmen nach Inkrafttreten der Regelungen der CSRD und im Speziellen der Vergleich der Nachhaltigkeitsberichtserstattung vor und nach der Standardisierung.
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
Umgang mit negativen Effekten in Talentmanagement Programmen von Vorarlberger Großunternehmen
(2022)
Unternehmen müssen heute eine Vielzahl von Compliance-Anforderungen erfüllen. Bei Konsumgüterherstellern gewinnt hierbei die Erweiterte Herstellerverantwortung immer mehr an Bedeutung, deren unterschiedliche Gesetzgebungen in verschiedenen Ländern eingehalten werden müssen, um Bußgelder oder Vertriebsverbote zu verhindern. Unternehmen müssen folglich Wege finden, um die Compliance-Anforderungen möglichst ressourceneffizient und nachhaltig in Geschäftsprozessen zu implementieren.
Die vorliegende Masterarbeit beschäftigt sich daher mit der Frage, wie Unternehmen bei der sozialen und technischen Implementierung von Compliance-Anforderungen in Geschäftsprozessen vorgehen sollten, um eine möglichst hohe Akzeptanz und Umsetzungssicherheit zu gewährleisten. Basierend auf einer Literaturrecherche und der Modellierung praxisnaher Beispiele mit DMN werden schrittweise verschiedene Möglichkeiten zur Implementierung von Compliance-Anforderungen in Geschäftsprozessen, von der Anforderungsidentifikation bis zur Aufstellung von Business Rules, aufgezeigt.
Um Compliance-Anforderungen nachhaltig in Geschäftsprozessen zu implementieren, sollten die Anforderungen in den Geschäftsprozessen hinterlegt und deren Einhaltung regelmäßig durch Audits überprüft werden. Eine flexible und umsetzungssichere Möglichkeit bieten außerdem Business Rules. Auch spielen soziale Aspekte wie die Prozessorganisation, klare Zuordnungen von Rollen und Verantwortlichkeiten und Change-Management eine Rolle, da diese einen Einfluss auf die Akzeptanz durch die Prozessbeteiligten haben. Nur unter Beachtung der technischen und sozialen Aspekte können Compliance-Anforderungen in Geschäftsprozessen nachhaltig implementiert werden.
Dynamische Veränderungen, steigende Wettbewerbsintensität und ein hohes Maß an Komplexität charakterisieren das aktuelle Marktumfeld, in dem Unternehmen agieren müssen. Das Prozessmanagement muss diesen Veränderungen sowohl auf der strategischen, als auch auf der operativen Ebene begegnen. Eine Adaption des Konzepts der Agilität durch das Prozessmanagement wird daher zunehmend relevant, um die originären Ziele des Prozessmanagements zu erreichen. Allerdings gilt dies unter der Prämisse, dass die agilen Konzepte die Fähigkeiten des Prozessmanagements, auf Veränderungen nachhaltig zu reagieren, stärken. In diesem Zusammenhang sind in der Literatur Arbeiten und Texte zu unterschiedlichen Anwendungen der agilen Konzepte im Prozessmanagement zu finden. Unklar bleibt dabei sowohl, ob diese Texte auf einem gemeinsamen Verständnis des Konzepts basieren, als auch der Zusammenhang und die Vereinbarkeit mit traditionellen Methoden des Prozessmanagements. Unter diesen Voraussetzungen ist es das Ziel der vorliegenden Arbeit den Kontext aufzuzeigen, in welchem agile Konzepte im Prozessmanagement diskutiert werden, und wie diese mit Modellen des traditionellen Prozessmanagements zusammenhängen. Dazu werden ausgewählte Texte auf ihre Verwendung agiler Konzepte als Lösungsstrategien für das allgemeine Handlungsfeld der dynamischen Veränderungen der „VUCA Welt“ analysiert. Die identifizierten Konzepte werden in Bezug zu traditionellen Konzepten, wie dem BPM Life-cycle, kritisch hinterfragt. Die Erkenntnisse der Arbeit belegen, dass die aktuelle Marktsituation ein Umdenken im Prozessmanagement erfordert. Agile Konzepte können das Prozessmanagement dabei unterstützen und Alternativen zu traditionellen Vorgehensweisen aufzeigen. Dabei fehlen jedoch bisher standardisierte Anwendungskonzepte und ein einheitliches Verständnis des Begriffs der Agilität im Prozessmanagement. Ferner erfordern die ganzheitliche Betrachtungsweise und die originären Ziele des Prozessmanagements weiterhin den Einsatz traditionellerer Methoden als Fundament für die Einführung von agilen Konzepten im Prozessmanagement.
Das Supply Chain Management von Unternehmen war die letzten Jahre stark effizienzgetrieben und wird durch die Veränderung des Unternehmensumfelds in eine sogenannte VUCA-Welt zunehmend vor Herausforderungen gestellt. Um mit den Herausforderungen umgehen und die Lieferketten aufrechterhalten zu können, setzen immer mehr Unternehmen auf „Resilienz“ als neue strategische Ausrichtung. Da sowohl die internen als auch die externen Supply Chain Management Prozesse von der IT abhängig sind, ist das Business-IT-Alignment ein Bereich, der von einer strategischen Neuausrichtung des Supply Chain Managements stark betroffen ist. Das Ziel der Masterarbeit ist daher die Beantwortung der Fragestellung, wie sich eine strategische Neuausrichtung des Supply Chain Management von Effizienz hin zu mehr Resilienz auf das Business-IT-Alignment von Unternehmen auswirkt. Die Beantwortung der Fragestellung erfolgt anhand eines theoretisch-konzeptionellen Vorgehens. Die Ergebnisse der durchgeführten Recherchen und Methoden haben gezeigt, dass alle sechs Dimensionen des Business-IT-Alignments – Strategie, Prozesse, Infrastruktur, Plattformen, Applikation und Services – von einer strategischen Neuausrichtung betroffen sind. Moderne IT-Organisationen sind allerdings bereits auf einem guten Weg, die Anforderungen einer resilienten Strategieausrichtung zu unterstützen. Zudem hat die Bedeutung einer funktionierenden Zusammenarbeit zwischen den Fachabteilungen und der IT-Abteilung deutlich zugenommen, um im Störungsfall besser reagieren zu können.
Innerhalb des Managements haben sich im Laufe der Zeit Management-Disziplinen gebildet, die Unternehmen bei der systematischen Transformation unterstützen. Unter dem Einsatz von Vorgehensmodellen, Frameworks und abstrakten Darstellungsmethoden wird der Versuch unternommen, alle Aspekte eines Transformationsvorhaben zu berücksichtigen und den Anwender schrittweise durch die zunehmend komplexen und dynamischen Veränderungsprojekte zu führen. Begriffe wie das Business Engineering oder aber das Enterprise Architecture Management werden in diesem Zusammenhang oftmals benannt. Diese Management-Disziplinen überschneiden sich teilweise, bezogen auf die Vorgehensweise, die eingesetzten Methoden sowie den Inhalt und die Zielvorstellungen. Teilweise werden die Begrifflichkeiten synonym aufgegriffen, teilweise sind die Auffassungen über den Inhalt der Disziplinen unterschiedlich. In den Wirtschaftswissenschaften führen diese unterschiedlichen Auffassungen oftmals zu einer nicht unerheblichen Verwirrung. Begrifflichkeiten, die hierbei sehr ähnlich sind, können jedoch von unterschiedlicher Natur sein. Teilweise wird ein Umsturzversuch unternommen und Methoden sowie Best Practices werden für die eigenen Zwecke verwendet und als etwas „Neues“ veröffentlicht. Das Business Architecture Management, welches lange Zeit ausschließlich als Bestandteil des Enterprise Architecture Management angesehen wurde, hat sich mittlerweile innerhalb des Managements als eigene Management-Disziplin etabliert und versucht sich von anderen Management-Disziplinen abzugrenzen. Um mehr Klarheit über den Inhalt, die Charakteristika, die Merkmalsausprägungen und das Vorgehen zu schaffen, stellt diese Masterarbeit den Versuch dar, das Business Engineering mit dem Business Architecture Management im gemeinsamen Kontext zueinander zu untersuchen. Es werden die Fragen geklärt, welche Belastbaren Erkenntnisse der Vergleich beider Disziplinen ergibt, und ob eine sinnvolle Einordung beider
Disziplinen zueinander möglich ist.
Der Implementierungsprozess einer Unternehmensstrategie im Kontext der digitalen Transformation
(2022)
Die Digitalisierung in Unternehmen und somit der Vormarsch von Industrie 4.0 zählen zu den am häufigsten besprochenen Themenfeldern der letzten Jahre. Mit Industrie 4.0 fallen auch Schlagwörter wie ‚Internet of Things‘ oder ‚Big Data‘. Diese Technologien sind dafür zuständig, die Produktion zu vernetzen, Daten aufzubereiten und somit einen Wettbewerbsvorteil zu erlangen. Dem gegenüber steht die altbewährte ‚Lean Six Sigma‘-Methode, die große Beliebtheit in Unternehmen genießt und weltweit angewandt wird.
Das Ziel der vorliegenden Arbeit ist, die Auswirkungen des digitalen Wandels auf die Methode Lean Six Sigma zu untersuchen. Daraus resultiert auch die Forschungsfrage: Welche Chancen und Risiken birgt der digitale Wandel durch Industrie 4.0 für die Nutzung von Lean Six Sigma in Unternehmen?.
Um die Forschungsfrage beantworten zu können, wird in dieser Masterarbeit auf mehrere Fachquellen Bezug genommen, in denen der Zusammenhang zwischen Industrie 4.0 und Lean Six Sigma sowohl theoretisch als auch praktisch untersucht wird. Damit bewegt sich die Arbeit im theoretisch-konzeptionellen Bereich. Insgesamt 47 relevante Beiträge wurden dabei identifiziert.
Aus den Beiträgen ergeben sich vier Technologien, die den größten Einfluss auf Lean Six Sigma und den DMAIC-Zyklus (Define, Measure, Analyze, Improve, Control) haben. Diese Technologien sind Big Data, Data-Mining, Process-Mining und Simulation. Durch eine genaue Analyse der Literatur wird gezeigt, dass sich ein Zusammenspiel der beiden Methoden lohnt; es wird aber auch darauf hingewiesen, dass Risiken zu beachten sind.
Keywords: Lean Six Sigma, Industrie 4.0, Big Data, Data-Mining, Process-Mining, Simulation
In Anbetracht der zahlreichen Herausforderungen und Entwicklungen, denen mittlere und große Unternehmen ausgesetzt sind, besteht heute oft die Situation, dass zwischen der Geschäftsprozessarchitektur und IT-Architektur ein architektonisches Misalignment herrscht. Dieses architektonische Misalignment macht sich heute vor allem bei den voneinander getrennt verwalteten Prozesslandkarten und IT-Landkarten bemerkbar. Um jedoch bessere Erkenntnisse für erfolgsrelevante Managemententscheidungen bereitstellen zu können, bedarf es einer sogenannten Alignment-Architektur, die beide Teilarchitekturen zu einer Sichtweise und Informationsbasis integriert. Das übergeordnete Ziel der vorliegenden Masterarbeit liegt darin, Antworten auf die Forschungsfrage zu geben, wie die Geschäftsprozessarchitektur mit der IT-Architektur integriert bzw. beide Welten miteinander harmonisiert werden können, um insbesondere daraus bessere Erkenntnisse für Managemententscheidungen im Rahmen der durch das ökonomische Umfeld angetriebenen Unternehmensentwicklung zu gewinnen. Um dieses Ziel erreichen und die Forschungsfrage beantworten zu können, wurde eine theoretisch-konzeptionelle Forschungsarbeit im Rahmen eines erweiterten Literaturstudiums betrieben, indem mit Hilfe von bestehender Literatur theoretische Erklärungsmuster zum vorliegenden Thema gesammelt, analysiert und in ein eigenes sowie neues Erklärungsmuster eingeordnet wurden. Durch diese neue Einordung und die grundsätzliche Theoriearbeit charakterisiert sich die durchgeführte Forschungsarbeit zudem als eine gestaltungsorientierte und qualitative Forschung. Die Ergebnisse dieser Forschungsarbeit sind fünf meta-kognitive Ansätze zur Integration der Geschäftsprozessarchitektur und der IT-Architektur. Diese sind der ursachenbasierte, der erfolgsbasierte, der denkbasierte, der granular-iterative und der interarchitektonische Integrationsansatz. Die vorliegende Masterarbeit demonstriert anhand von fundierten theoretischen Erkenntnissen, wie eine Integration zu einer Alignment-Architektur zwischen der Geschäftsprozessarchitektur und IT-Architektur erfolgen und inwiefern daraus bessere Erkenntnisse für Managemententscheidungen gewonnen werden können. Schließlich zeigen diese Erkenntnisse auf, wie ein Architekturmanagement aus einer anderen Gesamtperspektive betrachtet werden kann, um eine erfolgreiche Architekturintegration zu ermöglichen.
In den vergangenen Jahren hat die digitale Transformation Abläufe, Handlungen und Entscheidungen von vielen Personen enorm verändert. In der Privatwirtschaft werden die Arbeits-weisen bereits überwiegend digital abgewickelt. Auch das Privatleben wird von immer mehr digitalen Formen geprägt. Im öffentlichen Sektor hingegen sind zwar Entwicklungen zu erkennen, der Wandel ist aber noch nicht so weit fortgeschritten wie sonst gesellschaftlich zu er-kennen ist. Das Ziel der vorliegenden Arbeit ist es, die Kernaussagen der digitalen Transformation in der öffentlichen Verwaltung aufzuzeigen und den Status Quo darzulegen. Dabei wurden die Herausforderungen genau analysiert und daraus resultierend entsprechende Handlungsempfehlungen definiert. Für die bessere Nachvollziehbarkeit wurde das Projekt „Digitales Bauverfahren“ des Vorarlberger Gemeindeverbands als Praxisbeispiel einbezogen. Daraus wurden weitere Handlungsempfehlungen entwickelt. Diese Ergebnisse können für zu-künftige Entwicklungen in der Verwaltung herangezogen werden. Sie verstehen sich auch als Beitrag für die Forschung, die damit weiter ausgeweitet wird.
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
Durch die zunehmende Homogenität von Produkten ist der technologische Fortschritt des reinen Produktes kein Alleinstellungsmerkmal mehr. Die Entwicklung datenbasierter Services bietet die Option trotzdem langfristige Wettbewerbsvorteile zu erzielen. Ein Großteil der KMU ist sich dabei in der Methodik unsicher. Es wird erörtert, wie KMU Geschäftsmodelle mit datenbasierten Services weiterentwickeln können. Mit einer qualitativen Untersuchung werden Praxiserfahrungen aufgezeigt und theoretische Thesen validiert.
Die Weiterentwicklung zu einem datenbasierten Geschäftsmodell ist ein umfangreicher Prozess, der mit Chancen und Herausforderungen einhergeht. Als Herausforderung hat sich die Wahl relevanter Methoden und die Anpassung an die jeweiligen Rahmenbedingungen herausgestellt. Referenzprozesse strukturieren das Vorgehen und sollen gleichzeitig Flexibilität gewährleisten. Während des Prozesses ist die Kundenorientierung und Akzeptanz sicherzustellen. Aufgabe der Geschäftsführung ist es, die Weiterentwicklung zu fördern, Mitarbeitende einzubinden und Ressourcen bereitzustellen. Insgesamt konnte gezeigt werden, dass die Weiterentwicklung zur Veränderung der gesamten Unternehmenslogik sowie einem Paradigmenwechsel vom reinen Produktverkauf zum umfassenden Serviceangebot führt.
Die hybride Form des Zusammenarbeitens in Unternehmen begleitet uns spätestens seit Beginn der Corona Pandemie. Aber auch Homeoffice, der Fachkräftemangel und die Digitalisierung führen dazu, dass die hybride Führung und die hybriden Teams ein immer wichtigerer Bestandteil der Zusammenarbeit in Unternehmen werden.
Ziel dieser Masterarbeit ist es Verhaltensweisen und Methoden zu identifizieren, wie die Führung und die Zusammenarbeit der hybriden Teams gestaltet werden können. Die Methoden und Verhaltensweisen werden mit den Führungsstilen von Goleman, dem Empowering Leadership und den transaktionalen und transformationalen Führungsstil in Verbindung gesetzt. Resultierend aus den Ergebnissen werden Handlungsempfehlungen für das Gestalten der Führung und der Zusammenarbeit entwickelt.
Beginnend mit einer umfassenden Literaturrecherche folgen Expert:innen Interviews mit Führungskräften und Expert:innen aus den Personalabteilungen, welche mittels einem teilstrukturierten Leitfaden geführt und anhand der Auswertungsmethode von Mühlfeld ausgewertet werden.
Der spürbare Fachkräftemangel sowie der demographischen Wandel lässt Unternehmen umdenken, um sich für jüngere Arbeitnehmer:innen attraktiv positionieren. Durch flexible Arbeitszeitmodelle erhöht sich auf der einen Seite die Attraktivität der Arbeitgeber:innen und auf der anderen Seite steigert es die Zufriedenheit der Arbeitnehmer:innen.
Aufgrund dessen untersucht diese Masterarbeit, welche Kompetenzen Mitarbeiter:innen benötigen, um nachhaltig zeitlich und örtlich flexibel arbeiten zu können. Bestehende Literatur zur (flexiblen) Arbeitszeit wird aufgezeigt, flexible Arbeitszeitmodelle erklärt sowie auf die New Work Thematik eingegangen. Diese Arbeit beinhaltet zudem eine qualitative Forschung, welche auf sieben Expert:inneninterviews mit HR-Expert:innen gestützt ist. Die Forschungsergebnisse zeigen, dass flexibles Arbeiten in Industrieunternehmen immer wichtiger und gefragter wird.
Zuletzt wird eine Übersicht gegeben, welche Kompetenzen für eine zeitliche und örtliche Flexibilisierung des Arbeitens benötigt werden. Diese Übersicht soll HR-Mitarbeiter:innen und Führungskräften unterstützen bestehende Mitarbeiter:innen zu qualifizieren und zukünftige Mitarbeiter:innen gezielt zu rekrutieren.
Schlagwörter: Arbeitszeit, Flexibilität, Arbeitszeitgestaltung, flexibles arbeiten, Kompetenzen
Im Zuge der beschleunigten, technologischen und organisatorischen Entwicklung, die den digitalen Wandel kennzeichnen, kommt dem Kompetenzmanagement eine besondere Be-deutung zu. Diese Masterarbeit widmet sich den Fragestellungen, welche Kompetenzen Mitarbeitende in Zeiten der Digitalen Transformation benötigen und wie diese gemessen werden können.
Anhand einer Literaturrecherche sowie der Durchführung von zwölf Einzelbefragungen von Expert:innen mit anschließender qualitativer Inhaltsanalyse, konnten im Verlauf der Diskussion die Forschungsfragen beantwortet werden. Die Ergebnisse zeigen, dass es bisher keine standardisierte Definierung der Kompetenzen für die Digitale Transformation gibt. Aber die Kompetenzen können gemessen werden, dies stellt jedoch ein schwieriges Vorhaben dar. Außerdem sollte bei der Kompetenzmessung der Mitarbeitenden auf wis-senschaftlich fundierte Messinstrumente zurückgegriffen werden. Die Kompetenzmessung ist eine Voraussetzung der Digitalen Transformation, um Kompetenzlücken frühzeitig zu erkennen und zu schließen. Ziel ist es, die Kompetenzentwicklung zu stärken.
Diese Arbeit richtet sich an Interessierte, die die Beweggründe der Kompetenzmessung der Mitarbeitenden als Voraussetzung für die Digitale Transformation verstehen möchten.
Schlagwörter: Kompetenzen, Digitale Transformation, Kompetenzmessung
Herkömmliche Lernprozesse sind in der dynamischen Arbeitswelt nicht mehr zielführend. Für transformatives Lernen werden neue Formen der Zusammenarbeit, neue Kompetenzen und neue Lernformate benötigt. Der selbstgesteuerte Lernansatz wird dabei der neuen Arbeitswelt gerecht. Jedoch werden die Potenziale des selbstgesteuerten Lernens in Unternehmen noch wenig genutzt. Im Rahmen der klassischen Personalentwicklung werden meist Kurskataloge und Schulungsprogramme erstellt, die den Inhalt sowie den zeitlichen und örtlichen Rahmen vorgeben. Somit ist es das Ziel dieser Arbeit, vorhandene Chancen und Herausforderungen des selbstgesteuerten Lernansatzes in Unternehmen zu identifizieren sowie Möglichkeiten zur Gestaltung von Rahmenbedingungen zur aktiven Förderung des selbstgesteuerten Lernens durch die Personalentwicklung aufzuzeigen. Dazu wird der Begriff des selbstgesteuerten Lernens abgegrenzt, Modelle werden aufgezeigt und personenabhängige Faktoren für das selbstgesteuerte Lernen werden betrachtet. In einem weiteren Schritt werden die Perspektive der Personalentwicklung und deren Rolle für das selbstgesteuerte Lernen dargelegt. Mithilfe der Durchführung zweier Case Studies wird ein tiefergehendes Verständnis zum selbstgesteuerten Lernen in Unternehmen erzeugt und die forschungsleitenden Fragen werden beantwortet. Die Ergebnisse dieser Arbeit resultieren in Implikationen für die Personalentwicklung, die die zu bearbeitenden Handlungsfelder für optimale Rahmenbedingungen für das selbstgesteuerte Lernen von Mitarbeitenden in Unternehmen abbilden.
Die Wertschöpfung eines Unternehmens wird durch die Mitarbeitenden beeinflusst. Die quantitative, wie auch die qualitative Verfügbarkeit von Personen am Arbeitsmarkt hat für Unternehmen einen hohen Stellenwert. Der Fachkräftemangel am Arbeitsmarkt führt zum sog. War for Talents. Daher ist es notwendig, sich mit den verfügbaren Personen auseinanderzusetzen und Strategien, aber auch Perspektiven zu erarbeiten, um die Kandidat:innen auf dem Arbeitsmarkt für sich zu gewinnen (vgl. Ullah & Witt, 2015, S. 8). Um den besten und zugleich passendsten Mitarbeiter bzw. die entsprechende Mitarbeiterin zu finden und langfristig ans Unternehmen zu binden, möchte es als attraktiver Arbeitgeber auf dem Arbeitsmarkt wahrgenommen werden (vgl. Bruhn et al., 2013, S. 63).
Das Ziel der Masterarbeit besteht darin, mit Hilfe von Interviews die Forschungsfrage zu beantworten und aus den Ergebnissen sowie im Abgleich mit weiteren bisherigen theoreti-schen und empirischen Erkenntnissen konkrete Handlungsempfehlungen für das Dienstleistungsunternehmen zu erstellen bzw. aufzuzeigen. Aufbauend auf einer theoretischen Analyse wird anhand von Experteninterviews ermittelt, welche Social-Media-Kanäle in der Praxis eingesetzt werden und welche Wirkungen diese mit sich bringen. Durch Handlungs-empfehlungen sollen Unternehmen entscheiden können, worauf beim Social-Media-Einsatz geachtet werden soll. Die Handlungsempfehlungen basieren auf durch die empirische Forschung gewonnenen Erkenntnissen von Expert:innen. Hierbei wurde darauf geachtet, dass die Betreffenden für das Unternehmen HR-Social-Media-Media betreuen und planen. In Zeiten der Digitalisierung und eines im Vollzug befindlichen Generationswechsels ist die Betreuung von Social-Media-Kanälen strategisch anzugehen.
In Zeiten der digitalen Transformation steht die moderne Personalentwicklung vor großen Herausforderungen. Neue Fähigkeiten werden verlangt, um sowohl der Digitalisierung von Geschäftsprozessen als auch dem Wandel hin zur digitalen Zusammenarbeit gerecht zu werden. Dabei ist es Unternehmen aufgrund des demografischen Wandels nicht möglich bereits affine Arbeitnehmer:innen, zumeist aus den Generationen Y und Z, im nötigen Maße aufzustocken. Die tendenziell alternde Belegschaft muss daher durch entsprechende Personalentwicklungsmaßnahmen leistungsfähig gehalten. Reverse Mentoring stellt eine dieser passenden Maßnahmen dar.
Im Rahmen dieser Arbeit wird ein Leitfaden zur Ein- und Durchführung von Reverse Mentoring-Programmen in Unternehmen entwickelt. Dieser dient zur Orientierung für Schlüsselpersonen der Personalentwicklung.
Um auf die Anforderungen der VUCA-Welt reagieren zu können, müssen Unternehmen sich zu anpassungsfähigeren Organismen entwickeln. Die agile Organisation bietet hier Lö-sungen, wobei HR in der agilen Transformation eine Schlüsselrolle einnimmt. Diese Arbeit beleuchtet Wirkungsfelder bzw. Rahmenbedingungen, die in Dienstleistungsunternehmen zur Befähigung der Agilität geschaffen werden müssen. Zudem werden die HR-Prozesse und -Instrumente auf notwendige Anpassungen analysiert, um Agilität zu fördern. Dabei wird ein Fokus auf die jeweiligen Wirkungen sowie Nebenwirkungen dieser Anpassungen gelegt. Basierend auf den Ergebnissen der theoretischen Ausarbeitungen sowie den durchgeführten Interviews mit Expertinnen und Experten werden Handlungsempfehlungen für HR-Verantwortliche zusammengetragen.
Es wird aufgezeigt, dass große Interdependenzen zwischen den einzelnen Wirkungsfeldern bestehen, die berücksichtigt und gezielt eingesetzt werden sollten. Zudem wird deutlich, dass die Anpassung der Prozesse Personalgewinnung, Personalentwicklung sowie insbesondere der Steuerungs- und Anreizsysteme wirkmächtige Hebel zur Förderung der Agilität darstellen.
Gesellschaftliche, wirtschaftliche und technologische Entwicklungen und Trends des organisationalen Kontextes haben nicht zu vernachlässigende Auswirkungen auf organisationales Lernen. Sie wirken sich auf Unternehmen und die Ausgestaltung ihrer Lernwelten aus. Die im Organisationsumfeld zu verzeichnenden, kontextuellen Entwicklungen führen zu einem möglichen Anpassungsbedarf organisationaler Lernwelten im Hinblick auf deren räumliche, zeitliche, inhaltliche und methodische Ausgestaltung. Aufgrund der steigenden Dynamik und Komplexität des Unternehmenskontextes wird ein Lernverständnis erforderlich, welches einen Umgang mit den Charakteristika der VUCA-Welt ermöglicht. Abseits des formalen Lernens erfolgt die Betrachtung neuer, informeller und kooperativer Lernformen, die für die Ausgestaltung organisationaler Lernwelten eine Rolle spielen können. Der New Learning Ansatz enthält Prinzipien, die als Orientierung für die Ausgestaltung organisationaler Lernwelten dienen können, um Organisationen in ihrer Dynamikrobustheit zu unterstützen. Im Rahmen der Forschungsarbeit wird aufgrund der Notwendigkeit der Anpassung an den Unternehmenskontext untersucht, wie organisationale Lernwelten gestaltet werden sollten, damit Unternehmen dynamikrobust bestehen können und durch erzeugten Marktdruck wettbewerbsfähig bleiben.
Smart HR - welchen Mehrwert erhalten Industrieunternehmen der Bodenseeregion durch HR Analytics?
(2022)
Das Thema HR Analytics bringt viele interessante Aspekte mit sich. Diese Aspekte werden in dieser Masterarbeit mit Hilfe einer gründlichen Literaturrecherche und zehn Expert:inneninterviews, detailliert beschrieben: angefangen von den zu erfüllenden technischen-organisatorischen Voraussetzungen bis hin zur rechtlichen-ethischen Betrachtung. Nicht zu vergessen sind die damit verbundenen Herausforderungen bei der Einführung und Nutzung von HR Ana- lytics, die es zu bewältigen gilt. Zudem werden verschieden Begriffe und Prozesse, die in Verbindung mit HR Analytics stehen näher erklärt und Zusammenhänge gebildet. Das Ziel dieser Masterarbeit ist es, aufzuzeigen, ob sich durch HR Analytics ein Mehrwert für Industrieunternehmen der Bodenseeregion ergibt und falls ja welcher. Schließlich werden Handlungsempfehlungen definiert, um Industrieunternehmen den Einstieg und die Hinführung zu HR Analytics zu erleichtern.
Berufliche Ausbildung ist seit jeher Tradition und Garant einer zielgerichteten, systematischen und wiederholbaren Vermittlung von Kompetenzen in kodifizierten Berufen. Das Modell der dualen Berufsausbildung dient dabei der Verzahnung von schulischen und betrieblichen Anteilen. Insbesondere im deutschsprachigen Raum haben sich hierbei vermehrt anspruchsvolle Bereiche herausgebildet. Besonderes Interesse besteht dabei in der Bodenseeregion, da hier nahezu alle deutschsprachigen Länder einen gemeinsamen Wirtschaftsraum bilden.
Im Fokus dieser Arbeit liegt die Untersuchung bestehender theoretischer Modelle zur Verbundausbildung hinsichtlich der Veränderung und Anpassung durch die betriebliche Praxis. Zu diesem Zweck wurden auf Basis einer theoretischen Untersuchung zunächst bestehende Modelle identifiziert und in Bezug auf Gestaltungsfaktoren untersucht. In einem zweiten Schritt wurden im Rahmen eines qualitativen Forschungsansatzes Leitfaden gestützte Experten:innen Interviews durchgeführt. Im Ergebnis konnte eine empfohlene Anpassung des Ausbildungsvereines als idealtypisches Modell entwickelt werden. Konkrete Handlungsempfehlungen bilden die Grundlage zum Vergleich bestehender Verbünde, ebenso wie zur Gründung neuer Verbundvorhaben.
Personalkennzahlen und der praktische Nutzen für das Human Ressource Management in Großbetrieben
(2022)
Qualitativ hochwertige und erfolgreiche Personalarbeit zeichnet sich dadurch aus, dass Mitar-beitende nicht als Kostenfaktor betrachtet werden, sondern als die wichtigste Ressource, die ein Unternehmen besitzt. Personalcontrolling mit Hilfe von Kennzahlen stellt dabei nicht wie oft vermutet eine Kontrolle dar, vielmehr ist es ein Gestalten und Steuern der Personalarbeit bezogen auf die Mitarbeitenden und der Prozesse des Human Ressource Management. Durch fundierte, begründet ausgewählte Personalkennzahlen wird das Bauchgefühl der Füh-rungskräfte mit Fakten belegt und bildet eine Unterstützung in der Entscheidungsfindung der Personalverantwortlichen. Dies gewinnt besonders in einer volatilen Marktsituation immer mehr an Bedeutung. Es scheint nach wie vor der Fall zu sein, dass diese Fachdisziplin des Unternehmenscontrollings bei den Vorarlberger Großbetrieben jedoch in den Kinderschuhen steckt. Ziel dieser Masterarbeit ist es daher, den Stellenwert von Personalkennzahlen und deren Nutzen für die Vorarlberger Großbetriebe aufzuzeigen. Dafür werden die theoretischen Grundlagen von Personalkennzahlen und deren Einteilung auf Basis der Kernprozesse des Personalressorts aufbereitet. Es werden auch Grenzen und weiterführende Möglichkeiten von Personalkennzahlen hinterfragt. Im Rahmen von neun Experteninterviews mit Personalver-antwortlichen konnte die Wichtigkeit einer aktiven Personalarbeit mit Hilfe von Kennzahlen, wie sie in der Literatur beschrieben wird, bestätigt werden. Als zentraler Nutzen von Perso-nalkennzahlen wird angesehen, dass sie Transparenz schaffen und den Blickwinkel der Ver-antwortlichen objektivieren und erweitern. Personalkennzahlen bieten somit eine Chance, die Mitarbeitenden möglichst zielgerichtet zu führen und Veränderungen rechtzeitig zu erkennen und falls möglich zu steuern.
Wärmepumpen werden als vielversprechende Lösung zur Dekarbonisierung des Gebäudesektors angesehen. Konventionelle Kältemittel, die als direkte Emissionen aus Wärmepumpensystemen austreten, stellen insbesondere vor dem Hintergrund steigender Installationszahlen ein relevantes Treibhauspotenzial dar. Natürliche Kältemittel verfügen über ein geringes Treibhauspotenzial und können daher zur Substitution konventioneller Kältemittel verwendet werden. Dennoch werden sie bislang nicht im großen Maßstab eingesetzt. Es bedarf weiterer Studien und Anreize, um den Einsatz natürlicher Kältemittel voranzubringen. In dieser Fallstudie erfolgt anhand eines Referenzprojektes ein simulativer Vergleich zweier reversibler Luft-Wasser-Wärmepumpen. Im Referenzfall wird das konventionelle Kältemittel R32 verwendet, als Alternative dient das natürliche Kältemittel R290. Die beiden Systeme werden hinsichtlich ihrer Effizienz, Klimawirksamkeit und Wirtschaftlichkeit verglichen. Die notwendigen Berechnungen basieren auf einem kalibrierten Simulationsmodell des Gebäudes und der Anlage. Die Ergebnisse zeigen einen energetischen und ökologischen Vorteil für R290. Im Heizbetrieb, der den Hauptteil des thermischen Energiebedarfs im Referenzprojekt ausmacht, erreicht die Wärmepumpe mit R290 eine um 9% höhere Jahresarbeitszahl. Im Gegensatz dazu erzielt die R32-Wärmepumpe eine um 12% höhere Jahresarbeitszahl im Kühlbetrieb. Durch die höhere Effizienz im Heizbetrieb und das niedrigere Treibhauspotenzial des Kältemittels liegen die Emissionen durch den Betrieb der R290-Wärmepumpe um 17% unter denen der R32-Wärmepumpe. Der wirtschaftliche Vergleich der beiden Systeme fällt aufgrund höherer Investitionskosten zum Nachteil der R290-Wärmepumpe aus.
Einbindung von schneebedingten Erzeugungsverlusten einer Photovoltaikanlage in die Gebäudesimulation
(2022)
Aufgrund des globalen Photovoltaikeinsatzes, der mit einer starken Skalenökonomie der Technologie einhergeht, müssen auch regionale Wetterphänomene in Erzeugungsprognosen aufgenommen werden. Ein solches Wetterphänomen ist der Schneefall, der in höheren Breitengraden und Höhenlagen einen zentralen Einfluss auf den Ertrag der Anlagen hat. Aktuelle Vorhersagen durch Simulationssoftware berücksichtigen den Einfluss einer potentiellen Schneebedeckung meist nicht ausreichend oder gar nicht und die Solarerträge in den Wintermonaten werden deutlich überschätzt. Verbesserungen der Vorhersagen sind für die wirtschaftliche und betriebliche Einschätzung von Neuinstallationen wichtig. Prognoseverbesserungen in der kalten Jahreszeit sind insbesondere für die Planung von Projekten, bei denen das Heizsystem von solaren Gewinnen abhängt, notwendig. Darüber hinaus ist es wünschenswert, dass eine Prognose der schneebedingten Verluste direkt in die Planung und Modellierung von Neubauten einfließen kann. Der folgende Text befasst sich daher mit einer beispielhaften Modellierung von schneebedingten Erzeugungsverlusten einer Photovoltaikanlage. Das Modell wird dabei in bestehende Gebäudesimulationssoftware integriert. Dazu werden historische sowie empirisch gewonnene meteorologische Daten verwendet. Die genutzten Methoden umfassen zum einen überwachtes, maschinelles Lernen für die Prognose der Schneehöhen auf der Anlage und zum anderen einen physikalischen Ansatz, der die solare Durchdringung der Schneedecke abbilden soll. Die Arbeit dient als Impuls für eine zukünftige, unkomplizierte Berücksichtigung von schneebedingten Erzeugungsverlusten bei Photovoltaikanlagen in Gebäudesimulationssoftware.
Grey-Box-Modellierung einer Lüftungsanlage mit realen Betriebsdaten für die Optimierung des Reglers
(2022)
Oszillationen in Heizungs-, Lüftungs- und Klimaanlagen können die Lebensdauer
von Ventilen und Aktuatoren deutlich reduzieren und die Effizienz solcher
Anlagen negativ beeinflussen. Die hier betrachtete Lüftungsanlage eines Verkaufsraums zeigt deutlich schwingendes Verhalten, das höchst wahrscheinlich auf die Regelung zurückzuführen ist. Um dieses Verhalten zu untersuchen und ein
Testfeld für die Auslegung und Optimierung von alternativen Regelkonzepten
zu erstellen, wird ein Grey-Box-Modell der Anlage erstellt. Grey-Box-Modelle
sind physikalische Modelle, deren Parameter mit Messdaten identifiziert werden.
Die Ermittlung der Parameter (Systemidentifikation) des Grey-Box-Modells
wird hier mittels nichtlinearer Optimierung an dem realen Betriebsdatensatz
durchgeführt. Dieser Betriebsdatensatz hat im Vergleich zu anderen Arbeiten
aufgrund geringer Ausstattung der Anlage mit Sensorik und geringer Auflösung
der Messdaten eine niedrige Qualität. Aus diesem Grund können die einzelnen
Komponenten der Anlage (eine Wärmerückgewinnung, ein Heizregister und ein
Kühlregister) nicht separat identifiziert werden, sondern nur im Gesamtsystem.
Hieraus ergibt sich die Frage, welche physikalische Formulierung der Komponenten
der Anlage am besten geeignet ist. Konkret stellt sich die Frage, welche
Komplexität, welche Anzahl der zu identifizierenden Parameter und welche Annahmen, die für die Formulierung getroffen werden sinnvoll sind. Dazu werden
für die einzelnen Komponenten der Anlage jeweils verschiedene Modelle aus der
Literatur implementiert und verglichen. Untersucht wird, ob ein Zusammenhang
zwischen der Anzahl an Parametern, die sich durch eine bestimmte Formulierung
des Modells ergibt und der erreichten Güte des Modells zu beobachten ist.
Die Güte des Modells wir dabei mittels der Wurzel des mittleren quadratischen
Fehlers zwischen Modellausgang und Datensatz bewertet.
Die Ergebnisse dieser Fallstudie zeigen, dass ein möglicher Zusammenhang
zwischen der Anzahl an Parametern des Grey-Box-Modells und der Güte des
Modells besteht. Insbesondere zeigt sich mit diesem Datensatz ein deutlicher
Abfall der Modellgüte bei mehr als zehn Parametern. Es kann des Weiteren
bestätigt werden, dass bei der vorliegenden niedrigen Datenqualität die getroffenen
Annahmen für die Modellierung von erheblicher Bedeutung sind. Durch
bestimmte Formulierungen kann zwar die Güte des Modells erhöht werden, jedoch
wir dadurch die Generalisationsfähigkeit des Modells höchst wahrscheinlich
reduziert.
Der Klimawandel und dessen Folgen sind weltweit spürbar. Zunehmende Extremwetterereignisse, das Abschmelzen von Eis und Gletscher sowie Überschwemmungen sind nur ein paar Beispiele der verheerenden Folgen. Grund für diese Auswirkungen sind die steigenden Treibhausgasemissionen, die großteils anthropogen, also durch den Menschen, verursacht wer-den. Die Bauindustrie ist für einen erheblichen Teil dieser Emissionen verantwortlich. Da die Emissionen über den gesamten Lebenszyklus eines Gebäudes hinweg anfallen, ist eine ganzheitliche Betrachtungsweise, wie sie die Ökobilanz vorsieht, anzustellen. Die Erstellung und Optimierung einer Ökobilanz für ein bestehendes Wohngebäude in Wolfurt, das von der Firma i+R Wohnbau GmbH im Jahr 2020 erbaut wurde, sind in dieser Masterarbeit zentral. Diese Masterarbeit zielt darauf ab, die Ökobilanz von Haus A der Wohnanlage in Wolfurt zu beurteilen und herauszufinden, welche Auswirkungen bzw. Reduktionen der CO2-Emissionen sich durch verschiedene Veränderungen am Gebäude erzielen lassen. Um die Ökobilanz in Bezug auf die CO2-Emissionen zu optimieren, werden verschiedene Gebäudekomponenten des Wohngebäudes getauscht. Die Ökobilanz wird mit dem Online-Tool „eco2soft“ erstellt. Das Tool ist speziell für die Erstellung von Ökobilanzen von Gebäuden geeignet und greift auf die Kennwerte von Baumaterialien und -komponenten aus der Datenbank „baubook“ zurück.
Mit dem Tausch von drei Gebäudekomponenten wird eine Reduktion des Treibhauspotentials des Gebäudes um 10,8% erzielt. Die Ergebnisse geben einen Einblick in das Potential der Ökobilanzierung im Gebäudesektor und zeigen klar, dass dadurch klimarelevante Verbesserungen erreicht werden können.
The ability of water to form cage-like structures and capture gas molecules under high pressure and low temperatures lead to problems in gas pipelines, especially in the mid-20th century. Also, there is an enormous amount of this so-called gas hydrate, captured in deep sea sediments or in terrestrial permafrost soils in which they reserve a possible degradable energy resource. On the other hand, they also maintain a high risk to enhance the ongoing climate change. At the same time, through their high energy storage ability, gas hydrates exhibit a high potential for industrial applications like alternative energy storage, carbon capture technologies or cleaning of exhaust emissions through separation and storage. But through their complex kinetics and ongoing dynamics through induction, synthesis and dissociation, the usage of hydrates is still far away from relevant industrial application. To make the potential capable there is still a huge amount of basic research necessary: Specially to shorten the induction time. An earlier thesis at FH-Vorarlberg exposed a potential method to shorten the induction time through a stirred reactor with an extremely high stirring rate without the usage of promotors. Therefore, this thesis is dedicated to expose the possible reasons for the witnessed effect through high stirring rates (>10000 rpm) at different pressure and tempera-ture conditions. The goal is to show possible physical effects to shorten the induction time of hy-drate synthesis. Therefore, a stirred reactor is used in which the possible effects should be investi-gated through the research with CO2 hydrates. In the research, there will be a closer look on phe-nomena like cavitation, increasing the phase interface through stirring or pressure fluctuations. The results of this thesis show an interesting connection between pressure, stirring rate and increased phase interface. Furthermore, there are also some exposed significances between stirring under spe-cial conditions which were exposed through statistical analyses. The results show that stirring could possibly be a new driving force when executed under the right conditions.
Ein weit verbreitetes Problem von Heizungs-, Lüftungs- und Kühlungsanlagen (HLK-Anlagen) ist das Schwingungsverhalten der Regelung. Dieses führt zu unerwünschten Taktzyklen und damit zu erhöhtem Energieverbrauch, sowie zu verringerter Lebensdauer der Anlagenkomponenten. Deshalb besteht ein wirtschaftliches und ökologisches Interesse an der Vermeidung des Schwingungsverhaltens. Zum Auffinden von Fehlern, sowie deren Ursachenanalyse, steht in der Literatur ein weites Spektrum an möglichen Werkzeugen zur Fehlerdetektion und -diagnose (FDD) zur Verfügung. Klassische FDD-Werkzeuge für den Bereich von HLK-Anlagen basieren auf umfangreichem Domänenwissen zur Bestimmung der Ursache-Wirkungs-Beziehung von Fehlertypen, wie zum Beispiel Schwingungen. Deren Anwendung im HLK-Bereich ist deshalb mit zeitaufwändigen Analysen durch Fachpersonal verbunden, was hohe Kosten zur Folge hat.
Im Zuge dieser Masterarbeit wird ein FDD-Werkzeug für den Fehlertyp Schwingungen entwickelt, welches den hohen Zeitaufwand der Ursachenanalyse des Schwingens von HLK-Anlagen verringert. Durch die Anwendung von Methoden des maschinellen Lernens werden potenzielle Ursachen lokalisiert. Außerdem wird gezeigt, wie mit Hilfe des maschinellen Lernens eine Abschätzung über Gegenmaßnahmen zur Behebung der Schwingungsursachen getroffen werden kann.
Die Herausforderung in der Umsetzung des FDD-Werkzeugs liegt dabei in der Auswahl der Methoden für die Implementierung des datenbasierten Modells. Zur Umsetzung werden Daten einer HLK-Anlage eines Gewerbebetriebs am Standort Vorarlberg verwendet. Das entwickelte FDD-Werkzeug dient der fortlaufenden Auswertung von Schwingungen und der Optimierung bestehender Anlagen. Schlussendlich soll damit der Erhöhung der Energieeffizienz und der Erhöhung der Lebensdauer der Komponenten von HLK-Anlagen beigetragen werden.
Industriebetriebe wie auch jene der Lebensmittelbranche sind zunehmend auf der Suche nach umweltfreundlichen Alternativen zur Wärmebereitstellung. Wo bislang Gas oder sogar Öl als Brennstoff verwendet wurde, gewinnen Wärmepumpen langsam an Akzeptanz. In dieser Arbeit wird gezeigt, wie eine Hochtemperaturwärmepumpe am Beispiel eines Schokoladeherstellers effizient betrieben werden kann. Zur Beschreibung der Ausgangslage wird zunächst der Wirkungsgrad des gegebenen Kesselhauseses berechnet, um anschließend die nötigen Lastprofile festzulegen. Nach der thermischen Modellierung möglicher Wärmequellen und einer gegebenen Wärmepumpe werden vier Jahressimulationen mit der Programmiersprache Python durchgeführt. Die Ergebnisse zeigen zum einen, mit welchen Wirkungsgraden und Verdichterleistungen zu rechnen ist und zum anderen wie sich diese auf die betrachteten Wärmequellen auswirken. Die abschließende Wirtschaftlichkeitsberechnung beinhaltet die Analyse monatlicher Betriebskosten unter Berücksichtigung der angekündigten CO2-Bepreisung, sowie die Amortisationsdauern der betrachteten Szenarien. Die Sensitivitätsanalyse der Amortisationsdauer zeigt außerdem, in welchem Verhältnis sich Strom- und Gaspreis entwickeln dürfen, damit eine Wärmepumpe dieser Art wirtschaftlich konkurrieren kann. Die Ergebnisse der Simulationen zeigen darüber hinaus welche Reduktion der CO2-Emissionen bezogen auf die Prozesswärmebereistellung möglich ist.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Diese Arbeit untersucht ARM und DSP Multiprozessor Ein-Chip-Systeme von Analog Devices hinsichtlich deren Programmierung, Fähigkeiten und Limitierungen. Durch die Integrierung von unterschiedlichen Hardware-Beschleunigern und Prozessoren in Ein-Chip-Systeme wird echte Nebenläufigkeit ermöglicht. Allerdings wird durch die Integrierung mehrerer Prozessoren die Komplexität der Programmierung von Ein-Chip-Systemen erhöht. Im Zuge dieser Arbeit wird untersucht, was bei der Programmierung von ARM und DSP Ein-Chip-Systemen hinsichtlich der heterogenen Prozessoren und Peripheriebausteinen beachtet werden muss. Dabei werden zuerst die Gründe für heterogenes Rechnen und die Trendwende zu Multiprozessorsystemen erläutert. Anschließend wird der aktuelle Stand der Technik erarbeitet und Programmiermodelle beschrieben, die das Programmieren von heterogenen Multiprozessorsystemen vereinfachen. Überdies werden zwei Fallbeispiele gewählt, mit denen bedeutsame Eigenheiten der Programmierung eines Ein-Chip-Systems erarbeitet werden. Im ersten Fallbeispiel werden anhand der UART-Peripherie Erkenntnisse des Ein-ChipSystems dargelegt, die praktische Auswirkungen auf die Verwendung des Systems haben. Im zweiten Fallbeispiel wird bei der Berechnung der schnellen Fourier Transformation das heterogene System auf dessen Rechenleistung untersucht. Dabei wird die Performanz des Hardware-Beschleunigers gegenüber unterschiedlichen Software-Bibliotheken verglichen und die verschiedenartigen Implementierungen analysiert. Zudem werden durch die Performanzanalyse die Einflüsse der Speicherhierachie des Ein-Chip-Systems ermittelt. Weiterhin wird gezeigt, dass sich die Bibliotheken von Analog Devices in deren Anwendung und Performanz voneinander unterscheiden. Außerdem wird veranschaulicht, dass je nach Anwendungsfall eine nicht für DSPs ausgelegte quelloffene Implementierung konkurrenzfähig zu den optimierten Bibliotheken von Analog Devices und dem Hardware-Beschleuniger ist. Zudem wird durch die Analyse der Mehraufwand ermittelt, der für die Konfiguration des Hardware-Beschleunigers aufgebracht werden muss. Dabei wird gezeigt, dass die Verwendung des Hardware-Beschleunigers erst ab einer bestimmten Anzahl an Abtastwerten rentabel ist. Abschließend werden die zwei Fallbeispiele für einen Konzeptnachweis verknüpft, der die Möglichkeiten des heterogenen Rechnens veranschaulicht.
Der Forschungsbericht gibt Antworten auf folgende Forschungsfrage: "Wie gestalten sich die interkulturellen Lebenswelten im Jahre 2021 im Orden der Steyler Missionare in St. Gabriel?" Das Erkenntnisinteresse dieser Studie ist, wie eine Ordensgemeinschaft in der heutigen Zeit funktioniert. Wie die veränderten gesellschaftlichen Werte, Normen und Regeln sich auswirken und wie sich ein normaler Alltag für ein Ordensmitglied gestaltet. Was es heißt zu missionieren und welche Erfahrungen Steyler Missionare hinsichtlich eines gelingenden interkulturellen Zusammenlebens haben, werden in dieser Studie beleuchtet. Die Recherchen zum Forschungsstand ergaben, dass es kaum Studien zum Ordensleben aus sozialwissenschaftlicher Sicht gibt. Die Lebenswelten der Ordensmitglieder werden mit Hilfe des lebensweltorientierten Ansatzes nach Thiersch und der Bedürfnistheorie nach Obrecht theoretisch fundiert. Das Sampling erfolgte mittels eines qualitativen Stichprobenplans. Die Datenerhebung erfolgte im Juli 2021. Die Auswertung erfolgte inhaltsanalytisch nach Mayring. Die Steyler Missionare können als weltoffene Ordensgemeinschaft betrachtet werden, deren Handeln wesentlich von den unterschiedlichen Missionserfahrungen geprägt ist. Ordensstrukturen unterscheiden sich deutlich von Strukturen der übrigen Gesellschaft. Diese Strukturen haben eine positive Wirkung auf die Ordensmitglieder. Diese, als auch eine sinnstiftende und erfüllende Tätigkeit sowie ein gewisses Maß an Freizeit ist anscheinend das Rezept für ein zufriedenes Leben. Die Mission hat für den Orden einen zentralen Stellenwert. Integration, Rassismus und Kolonialismus sind permanente Herausforderungen auch im Zusammenleben und werden aus verschiedenen Perspektiven diskutiert. In der Ordensgemeinschaft hat es viele Veränderungen gegeben, die Auswirkungen von diesen und der Umgang hiermit werden beschrieben sowie ein Blick in die Zukunft gewagt.
Diese Studie zielt darauf ab, Unterschiede in der User Experience von 3D-Karten Anwendungen im Nutzungskontext Skitourenplanung festzustellen, um Erkenntnisse über die Vor- und Nachteile zu gewinnen. Es findet ein Vergleich zwischen der Touchscreen Applikation „Fatmap“1 (FATMAP | Discover a world of adventure..., o. J.) und einem auf der Basis mobiler Augmented Reality entwickelten Prototypen statt.
Um die Usability zu untersuchen, wurden Evaluationen zur Messung der Faktoren Effektivität, Effizienz und Zufriedenheit durchgeführt. Auf Grundlage der Ergebnisse wurde zudem ein Vorbereitungstool für eine alpine Skitour entwickelt. Für den Versuchsaufbau wurde zu Beginn die prototypische mobile AR-Applikation dem UX-Design Prozess folgend aufgesetzt. In dieser Phase fand eine tiefgreifende Recherche zu den Themen Orientierung, Interaktion und Skitouren statt, woraus die Anforderungen und das Konzept für den Prototyp abgeleitet wurden. Dieser wurde mit Hilfe einer Online-Plattform umgesetzt und auf einem iPad evaluiert. Das Testdesign beinhaltet Fragebögen zur wahrgenommenen User Experience, einen Usability Test zur Messung der Effizienz und einen Usability Test zur Messung der Effektivität. Insgesamt wurden 17 Proband: innen mit beiden Applikationen evaluiert, die gemessenen Faktoren ausgewertet und interpretiert. Die Ergebnisse zeigen, dass es Unterschiede bei der Effizienz und der Zufriedenheit der Anwendungen gibt, aber auch die Effektivität wird kontrovers diskutiert. Die Erkenntnisse bestätigen Vorteile bei der Interaktion mit dem AR-Prototypen, lassen jedoch offen, ob sich Nachteile der Effektivität durch technische Verbesserungen eliminieren lassen. In jedem Fall wurde die AR-Anwendung als spannender und origineller wahrgenommen, was zu einer höheren Motivation führt.
Thank god it's friday
(2022)
Das Ziel der vorliegenden Masterarbeit ist es zu untersuchen, welche Rolle Design im Kontext gesellschaftspolitischer Bewegungen spielt und in welchen Zeichen sich der Protest der Klimabewegung Fridays for Future äußert. Ebenfalls untersucht wird, inwiefern sich diese einst subversiven Elemente der Klimabewegung wiederum in den Mainstream der Werbeindustrie eingliedern.
Dazu wird die folgende Forschungsfrage gestellt: In welchen Zeichen manifestiert sich der aktuelle Klimaprotest und welche Zeichen finden sich in der Werbung wieder? Lässt sich für den Betrachtenden noch dechiffrieren wo der Protest aufhört und der Konsum beginnt?
Das Erkenntnisinteresse besteht darin, Bilder aus dem Aktionsrepertoire der Fridays for Future Bewegung über den Zeitraum 2019-2021 zu sammeln, die Ausbildung ihrer visuellen und sprachlichen Ausdrucksformen zu analysieren und zu dechiffrieren.
Zur Untersuchung des Bildmaterials werden Methoden aus unterschiedlichen Disziplinen eingesetzt. Protestäußerungen, die über Plakate, Fotografien und andere Medien zum Ausdruck kommen, werden gesammelt und mit bildwissenschaftlichen und rhetorischen Methoden untersucht. Die Argumentation erfolgt anhand der Untersuchung dreier konkreter Beispiele aus der Werbung mittels der dokumentarischen Methode der Bildinterpretation nach Bohnsack. In der Analyse der Kampagnen geht es um das Wechselverhältnis zwischen der ästhetischen Selbstdarstellung der Bewegung und ihrer Rezeption bzw. Re-Inszenierung in der Werbung.
Die Ergebnisse der Analyse zeigen, wie sich Werbung durch die Aneignung der Klimasymbolik vom klassischen Kommunikationsinstrument der Wirtschaft zunehmend zu einer Kommunikation auf nicht-ökonomischer und gesamtgesellschaftlicher Ebene entwickelt.
Bezugnehmend auf die Re-Inszenierung der Protestcodes in der Werbung werden diese in der praktischen Ausarbeitung durch die Antiwerbung-Aktionsform des Culture Jammings selbst noch einmal zitiert und ironisiert. Dabei werden die Medien und Mittel der Werbung verwendet, wodurch sich ein Dreisatz aus Aneignung, Manipulation und Wiedereinspeisung ergibt.
conflicto
(2021)
Im Arbeits- und Organisationsleben sind Konflikte alltäglich und meist unumgänglich. Menschen unterscheiden sich voneinander hinsichtlich Kompetenzen, Überzeugungen, Temperament und vieles mehr. Die Arbeit setzt jedoch voraus, dass man miteinander kooperiert, sich abstimmt und gemeinsam Entscheidungen trifft. Wenn man die Ziele einer Gruppe oder Organisation erreichen will, ist es wichtig, dass Konflikte vermieden und/oder erfolgreich und nachhaltig gelöst werden. Auf diesem Wege können alle im Sinne der Organisation handeln. Dadurch werden nicht nur wirtschaftliche Erfolge erreicht, sondern auch die individuelle Gesundheit, das Wohlbefinden und die Kompetenzentwicklung gefördert und sichergestellt.
Mit ‚conflicto‘ wird eine Ressource zur Vermeidung, Umgang und Bewältigung von Konflikten in Organisationen, in Form einer Internetseite mit integriertem Netzwerk von Expert*innen vorgestellt.
In der Arbeit wird die theoretische Verortung des Projekts, anhand umfangreicher Recherchen in der Konfliktforschungsliteratur vorgenommen. Nach empirischer Überprüfung der Relevanz und Wichtigkeit der Konfliktbewältigung sowie der Machbarkeit von ‚conflicto‘ wird die theoriegeleitete Konzeptentwicklung vorgestellt. Mittels SWOT Analyse werden die potentiellen Stärken und Chancen von ‚conflicto‘, sowie eventuelle Schwächen und Risiken aufgezeigt und besprochen.
Das ‚conflicto‘-Konzept vereint die gestalterischen Grundsätze Einfachheit, Ästhetik und Dynamik. Im Anschluss werden das Naming, die Logoentwicklung und das Formulieren der Slogans für beide Zielgruppen, die Farbgestaltung, die Typografie, die Grundstruktur der Webseite, sowie die Illustrationen/Animationen, die eine Besonderheit der Gestaltung von ‚conflicto‘ ausmachen, dargestellt und analysiert. Vollständig ausgearbeitete Screendesigns der Startseite von ‚conflicto‘ und zwei Unterseiten werden nebst der Print und online Bewerbungskonzepte vorgestellt und mit Mockups illustriert.
Als Abschluss folgt die Evaluation der UX Experience. Die empirischen Ergebnisse zeigen eine eineindeutige Überlegenheit des ‚conflicto‘ Gestaltungskonzepts im Vergleich mit traditionelle Gestaltungsvarianten.
Gestenbasierende grafische Benutzeroberflächen werden zunehmend beliebter. Diesbezüglich werden immer mehr Animation in Verbindung mit Nutzergesten eingesetzt.
Diese Arbeit setzt sich mit der Gestaltung von Animationen in gestenbasierten grafischen Benutzeroberflächen auseinander.
Dazu gehört auch, Animationen als Feedback auf eine hochfrequente Eingabemethode so zu gestalten, dass sie möglichst lange von Nutzern*innen als affektiv positiv wahrgenommen werden. Das Hauptaugenmerk der Arbeit liegt dabei auf der Interaktion von Nutzer*innen mit natürlichen Objektbewegungen.
Natürliche Objektbewegungen orientieren sich am Verhalten von Objekten in der physischen Welt. Sie verfügen beispielsweise über konzeptionelle Trägheit, Masse und reagieren auf unsichtbare Kräfte wie Schwerkraft.
Menschen verfügen über kausale Denkmuster, die in der physischen Welt die Interaktion mit Objekten prägen. So wissen Menschen, dass sie um ein träges Objekt wie eine Tasse zu bewegen, Energie benötigen, damit sich diese bewegt.
Untersucht wurde, ob das Verständnis von Nutzer*innen für natürliche Objektbewegungen auch in einer digitalen Umgebung existiert.
Im theoretischen Teil der Arbeit wurde die Rolle von Interfaceanimationen in modernen Benutzeroberflächen untersucht, Kriterien ausgearbeitet um eine reibungslose Nutzererfahrung zu ermöglichen und Parameter dargestellt, welche die Wahrnehmung der Charakteristik einer Animation positiv beeinflussen können. Ein zentraler Aspekt der Arbeit ist dabei die Gestaltung von natürlichen Objektbewegungen, um ein vertrautes, vorhersehbares und nachvollziehbares Nutzererlebnis schaffen können.
Anschließend wird das aus den Ergebnissen resultierende Konzept von prozeduralen Interfaceanimationen dargelegt. Eine prozedurale Interfaceanimation generiert aus den Vorgaben eines natürlichen Bewegungspfades generisch unterschiedliche Instanzen. Der Bewegungspfad kann über die Richtung und Geschwindigkeit einer Nutzergeste von dem*der Nutzer*in gesteuert werden.
In der abschließenden Evaluation wurde die elektrodermale Aktivität von 16 Probandinnen untersucht und bewertet, während diese sich mit drei unterschiedlichen Varianten der Animation auseinandersetzten. Es konnte nachgewiesen werden, dass ein unnatürlich starker Einfluss auf natürliche Objektbewegungen signifikante Unterschiede in den affektiv wahrgenommenen Reaktionen auslöst.
Globale Entwicklungen wie der Klimawandel, die Verknappung fossiler Ressourcen, die Coronapandemie oder die wachsende soziale Ungleichheit sind hochkomplexe Probleme, die das Gesellschaftssystem zunehmend destabilisieren und damit Raum für stark chaotische Entwicklungen ermöglichen. Kennzeichnend für Komplexität ist, dass rationales Überlegen oder kognitives Abwägen von Ursache-Wirkungsbeziehungen nicht mehr zielführend sind. Dabei steht im Hintergrund solcher komplexen Probleme, dass die Anzahl der (menschlichen und nicht-menschlichen) Akteure und den Verbindungen zwischen diesen nicht mehr überschau- oder analysierbar ist. In der vorliegenden Arbeit dient Forschung durch Design als Schlüssel zur Visualisierung des Chaos komplexer Systemdynamiken. So wird mittels eines detaillierten Systemmodells durch eine iterativ erstellte Visualisierung mit interaktiven Anwendungsmöglichkeiten das Fallbeispiel der Implementierung der Sustainable Development Goals in der österreichischen Politik dargestellt. Ziel dabei ist es, die zuständigen Kompetenzstellen und Antworten auf den Grad der Implementierung zu finden, wodurch einerseits daraus resultierende Handlungsempfehlungen zur Implementierung gegeben werden können, und andererseits auch Vorschläge zur Erreichung der SDGs. Als essenzielles Resultat konnte primär bestätigt werden, dass sich die Visualisierung von Systemprozessen als durchaus geeignet erwiesen hat. Zumal steht fest, dass eine sogenannte Implementierung der SDGs in Österreich nicht stattgefunden hat. Außerdem wird argumentiert, dass der Großteil der ökologischen SDGs über die Einhaltung bereits bestehender Bundes- und Landesgesetze im Rahmen des Umweltschutzes erreicht werden könnten.
GESCHICHTEN BEIM GEHEN
(2022)
Eine junge Frau geht ihre Wege durch Dornbirn, einer Stadt mit rund 50.000 Einwohnern. Sie wohnt im Zentrum der Kleinstadt, durchläuft diese meist zu Fuß, zu den unterschiedlichsten Zwecken und immer mit offenen Augen. Sie stellt fest, dass je öfter sie denselben Weg geht, sie umso mehr Neues entdeckt: Dinge abseits des Alltäglichen. Sie bemerkt, dass sie scheinbar Gleiches immer wieder anders wahrnimmt.
In diesem Buch hat sie die Geschichten, die sich während dem Vorgang des Gehens bilden, gesammelt. Diese lassen in ihrer Gesamtheit ein Bild ihrer Wege entstehen: durch Texte, Notizen, Illustrationen, Grafiken, Fotografien und Filme.
Sie (er)fasst somit den Raum, der sich bildet, wenn sie sich durch die Stadt bewegt – und macht diesen für uns sichtbar. Folgen Sie ihr auf ihrem Weg und begeben Sie sich mit den beiliegenden Karten selbst auf Entdeckungsreise. Sie werden staunen.
Geschichten beim Gehen ist ein Forschungsprojekt, das einerseits versucht eine Theorie zur Raumkonstitution (Kunst des Handelns von Michel de Certeau) in ein visuelles Erscheinungsbild zu übersetzen und gleichzeitig Methoden zur Wahrnehmbarmachung erarbeitet, die andere Karten oder Darstellungen jenseits von Karten liefern.
Die Arbeit soll als Beispiel für ein Forschen mittels gestalterischen Methoden dienen. Entstanden sind zwei Bücher: O, das Buch vom Ort und R, das Buch vom Raum. Ersteres bildet die wissenschaftliche Kontextualisierung und diskutiert die gewonnenen Erkenntnisse. Zweiteres funktioniert als visuelles Essay und zeigt angewendete gestalterische Methoden und verwendete Medien: ein Prozess im Wechselspiel von Theorie und Praxis.
Postdigitale Gaststube
(2022)
Einfluss von Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg im Banken- und Versicherungssektor
(2022)
Den Nachhaltigkeitsbegriff gibt es schon lange, doch die letzten Jahre erlebte er einen wahren Aufschwung. Die Unternehmen erkannten diese Chance und beschäftigten sich intensiver mit dem Thema der Nachhaltigkeitsberichterstattung. Mit der Global Reporting Initiative (GRI) gibt es zwar einen international anerkannten Standard, doch die meisten Unternehmen verwenden ein eigenes Format. Das erschwert die Vergleichbarkeit der Berichte. Um den Einfluss der Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg zu messen, wurden neun Banken aus der DACH-Region ausgewählt. Für sie wurde ein eigenes Scoring-Modell entwickelt. Es umfasst die Kategorien Ökonomie, Ökologie, Soziales, Kommunikation und Glaubwürdigkeit. Der Unternehmenserfolg wird durch die Rentabilitätskennzahlen Return on Sales (ROS) und Return on Equity (ROE) abgebildet. Mit dem Korrelationskoeffizienten nach Person ergab sich für den Beobachtungszeitraum 2018, 2019 und 2020 kein allgemeiner Zusammenhang. Beim Vergleich des Durchschnittswerts der drei Banken mit dem höchsten Nachhaltigkeitsscore, mit jenem der drei niedrigsten, hingegen schon (0,79). Zusätzlich war erkennbar, dass die Gruppe mit den höheren Scores auch die Ende 2019 beginnende Corona-Pandemie besser überstand. Während der ROE der Gruppe mit den niedrigsten Scores bis auf -0,74% fiel, blieb er bei der anderen Gruppe stabil bei 8%. Mittels t-Test konnte jedoch knapp keine statistische Signifikanz nachgewiesen werden (0,0627 > 0,05).
Die vorliegende Arbeit hatte zum Ziel einen Deckungsbeitragsrechnungs-Report zu erstellen. Neben einer Literaturrecherche zum Thema (mehrstufige) Deckungsbeitragsrechnungen wurde ebenfalls nach allgemeinen Design-Empfehlungen recherchiert. Hier wird insbesondere auf vier Autoren eingegangen: Eduard Tufte, Stephen Few, Eisl et al. und die International Business Communication Standards (IBCS) von Hichert und Faisst.
Der wesentliche Kern dieser Arbeit ist dann die Entwicklung eines Musterberichts. Hierfür wurde zuerst eine Vorstudie in Form von Experteninterviews durchgeführt. Im Zuge dieser ergabt sich, dass die mehrstufige Deckungsbeitragsrechnung in der Praxis nicht von so hoher Relevanz ist, wie die Literatur vermuten lässt. Deshalb wurde das Thema der vorliegenden Arbeit an dieser Stelle auch angepasst: statt der Darstellung mehrstufiger Deckungsbeitragsrechnungen werden nun einfache Deckungsbeitragsrechnungen behandelt.
Anschließend an die Vorstudie wurde ein Leitfaden zur Berichtserstellung ausgearbeitet. Nach diesem werden zuerst Ziel, Berichtsempfänger, Berichtsinhalte und Aktualisierungsintervall definiert. Im Anschluss kann ein geeignetes Tool für die Berichtserstellung gewählt werden. Die Umsetzung erfolgt dann zuerst mittels Skizzen, bevor der Bericht tatsächlich im gewählten Tool umgesetzt wird.
In weiterer Folge wurden vier Fragen ausformuliert, welche in Form eines Experiments beantwortet werden sollen. Verschiedene Grafiken wurden anhand von drei Qualitätsmerkmalen (Effektivität, Effizienz und Attraktivität) geprüft, um die Fragen zu beantworten. Die vier Fragen lauten:
1. Sind Verhältnisse (z.B. Doppel so hoch) bei Balkendiagrammen besser leserlich als in Kuchendiagrammen?
2. Ist eine räumliche Trennung von Kategorien besser als eine farbliche?
3. Sind drei Szenarien einer Kennzahl (z.B. AC, PY, BU) in einer Grafik besser im Hinblick auf die Qualitätsmerkmale als zwei Grafiken?
4. Gibt es Unterschiede bei der Abbildung von drei Szenarien zwischen IBCS konformen Darstellungen und Bullet Charts von Stephen Few?
Das Experiment hat ergeben, dass Balkendiagramme Kuchendiagrammen in allen Qualitätsmerkmalen vorzuziehen sind. Auch eine räumliche Trennung von Kategorien hat sich aufgrund der Effizienz als besser durchgesetzt. Bezüglich der zwei gegenüber drei Szenarien konnte die Grafik mit nur zwei Szenarien im Hinblick auf Effektivität und Effizienz besser abschneiden. Allerdings liegen die Werte sehr nahe beisammen und die Probanden konnten bereits in der kurzen Zeit erste Lerneffekte erzielen. Deshalb wird empfohlen, die geringen Effektivitäts- und Effizienzverluste in Kauf zu nehmen, da im Gegenzug dafür die Grafik um weitere wertvolle Informationen angereichert werden kann. Abschließend konnten sich die IBCS-konformen Darstellungen den Bullet Charts von Stephen Few gegenüber durchsetzen. Hierbei hat ein Balkendiagramm mit Abweichungs-Pins am besten abgeschnitten, gefolgt von einem Balkendiagramm mit drei Szenarien: AC, BU und PY. Mit diesen Erkenntnissen wurde dann das Musterdashboard ausgearbeitet.
Aufgrund des fortschreitenden wirtschaftlichen und gesellschaftlichen Strukturwandels und der zunehmenden Digitalisierung, hat die Bedeutung immaterieller Vermögenswerte erheblich zugenommen. Dabei steht die Goodwill-Bilanzierung und insbesondere die Folgebehandlung des bei einem Unternehmenszusammenschluss erworbenen Goodwills im besonderen Fokus der Standardsetter und Bilanzadressaten. Der bei der Folgebilanzierung des Goodwills gegebene Ermessensspielraum führt zu der Sorge, dass diese Ermessensspielräume seitens der Manager opportunistisch genutzt werden könnten. Die vorliegende Arbeit untersucht, ob bei österreichischen Unternehmen die Goodwill-Bilanzierung als Instrument für Earnings Management dient. Unter Anwendung multipler Regressionsmodelle wird ein Datensample österreichischer Unternehmen im Zeitraum von 2015 bis 2019 auf die Einflüsse möglicher Earnings Management-Motive auf die vorgenommenen Goodwill-Impairments überprüft. Die Ergebnisse zeigen, dass Manager österreichischer Unternehmen Big Bath Accounting betreiben und damit schlechte Unternehmensjahre nutzen, um Goodwill-Impairments vorzunehmen. Die Ergebnisse zeigen zudem eine Tendenz, dass Big Bath Accounting insbesondere dann zur Anwendung kommt, wenn es einen Wechsel im Finanzvorstand gibt. Weiters zeigen die Ergebnisse den hohen Einfluss der Aktionärsstruktur auf die Impairmententscheidungen. Bei Unternehmen mit großen institutionellen Aktionären liegt eine zusätzliche Kontrollinstanz vor, die Earnings Management-Verhalten reduziert. Die vorliegende Arbeit unterstützt die aktuellen Diskussionen der internationalen Rechnungslegung über die Beibehaltung des Impairment-Tests und liefert Hinweise darauf, dass bei österreichischen Unternehmen Earnings Management-Motive bei der Goodwill-Bilanzierung eine Rolle spielen.
Diese Forschungsarbeit beschäftigt sich mit der Behandlung von Klient*innen mit kognitiver Beeinträchtigung und komorbid psychischer Erkrankung im Feld der Klinischen Sozialen Arbeit. Um ein genaueres Verständnis für das Phänomen zu erlangen, wird auf die Entstehungsmechanismen und die Symptomatik von psychischen Erkrankungen bei Menschen mit kognitiver Beeinträchtigung eingegangen. Des Weiteren werden aktuelle Handlungsansätze u. a. der integrative Ansatz nach Anton Došen vorgestellt und in Verbindung mit der Klinischen Sozialen Arbeit gebracht. Die Grounded Theory von Anselm Strauss und Barney Glaser bietet den methodischen Rahmen, um durch Forschung, Theorie und Kreativität spezielle methodische Erfordernisse für die psychosoziale Behandlung dieser Zielgruppe aufzuzeigen. Die Sammlung von Daten erfolgt durch Interviewgespräche mit Professionellen und Personen die kognitiv beeinträchtigt und komorbid psychisch erkrankt sind. Zentraler Ausgangspunkt ist die These, dass es für diese Zielgruppe eine spezialisierte Behandlung benötigt und in Vorarlberg noch kein entsprechendes Angebot vorhanden ist.
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.
Mit Industrie 4.0 kündigte sich in Unternehmen ein großer Wandel. Dieser ist insbesondere im Bereich der Fertigung und Produktion spürbar. Von der vierten industriellen Revolution sollen Unternehmen profitieren, indem Prozesse digitalisiert und automatisiert, neue Technologien implementiert und die Wettbewerbsfähigkeit gesichert wird. Deswegen wird die Industrie 4.0 von vielen Unternehmen als Chance gesehen. Mit dem Einsatz von digitalen Technologien erhoffen sich Unternehmen, ihre Potenziale auszuschöpfen und sich Wettbewerbsvorteile zu sichern.
Im Hinblick auf die Industrie 4.0 sind jedoch kleine und mittlere Unternehmen vor Herausforderungen gestellt. Die Gründe hierfür sind vielfältig und werden in der vorliegenden Masterarbeit beleuchtet.
Dies führt dazu, dass KMU bei dem technischen, digitalen Fortschritt im Rahmen der Industrie 4.0 hinterherhinken. Es fällt ihnen schwer, den eigenen Status quo zu ermitteln und richtige Entscheidungen zu treffen, um die Hürden der Industrie 4.0 erfolgreich zu meistern. Damit dies gelingt, empfiehlt sich zu analysieren, wo das jeweilige Unternehmen aktuell steht und wie es sich abheben möchte, um seine Entscheidungen gezielt auf die Transformation von Industrie 4.0 ausrichten zu können.
Solche Orientierungshilfen, wie Referenz- oder Reifegradmodelle, die auf die Bedürfnisse der KMU eingehen und explizit auf ihre individuellen Anforderungen ausgerichtet sind, sind ein wichtiger Bestandteil der Masterarbeit.
In der vorliegenden Masterarbeit soll somit folgende Forschungsfrage beantwortet werden:
Warum sind die IT-Prozesse besonders kritisch für KMU in der Industrie 4.0 und lässt sich ein unterstützendes, reifegradbasiertes Referenzmodell zur Verbesserung der IT-Prozesse entwickeln?
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
Ein neuer Ansatz um Kohlendioxid aus einem Verbrennungsprozess abzuscheiden, auch Carbon Capture (CC) genannt, basiert auf der Gashydratsynthese. Dabei wird das Gas in Einschlussverbindungen aus Wassermolekülen, sogenannte Clathrate, eingefangen. Bei der Gashydratsynthese aus flüssigem Wasser, wie es bei bisherigen Methoden der Fall ist, treten selbsthemmende Effekte auf, die den Abscheideprozess verlangsamen.
In dieser Arbeit wird daher eine neue Methode entwickelt, um die Gashydratsynthese aus dampfförmigem Wasser zu untersuchen. Realisiert wird dies mit einem eigens entwickelten Versuchsreaktor, wobei ein Fallfilmverdampfer im Zentrum kontinuierlich Wasser verdampft. Der Abscheideversuch wird bei 20 - 40 bar und einem CO2-N2-Prüfgasgemisch betrieben. Das Herunterkühlen des Reaktors, mit einer Vorlauftemperatur von bis zu -65 °C, sorgt für stabile Wachstumsbedingungen an der Innenwand. Die Versuchsdurchführung zeigt, dass bei einer Ausgangskonzentration von 11,8 mol% CO2 am Ende des Abscheideprozesses im Minimum 10,7 mol% erreicht werden. Der im Gashydrat angereicherte CO2-Gehalt im liegt bei ca. 89 mol%.
Damit ist die Funktionsfähigkeit der neuartigen CC-Methode bewiesen und die Grundlage für die Weiterentwicklung des Prozesses geschaffen.
Das „Gestalterische Pflanzenwissen“ bietet dem Design eine systematische Vorgehensweise im Umgang mit Pflanzen. Die Methode beinhaltet eine konkrete Handlungsanleitung und führt zu innovativen Designlösungen. Die gestalterische Auseinandersetzung mit der Natur wirkt der Entfremdung entgegen, denn die allumfassende disruptive Technologie der Gegenwart vergrößert zusehends den Abstand zwischen Natur und Mensch. Außerdem ist es von Bedeutung, hierfür adäquate Designlösungen bereitzustellen, um die Sehnsucht nach Natur zu stillen. Um ein Problembewusstsein für die „Naturentfremdung“ in der Gesellschaft zu verankern, bieten sich intermediale Interventionen in Form von kurzen Videoclips an.
Diese Arbeit beschäftigt sich mit der Analyse von Blasenindikatoren speziell des Immobilienbereichs, aber auch von Aktienmärkten. Im ersten Teil der Arbeit wird versucht, vergangene Blasenbildungen aufzuzeigen und zu erläutern, weshalb sich diese bilden konnten und schlussendlich geplatzt sind. Dies soll einem besseren Verständnis der restlichen Arbeit dienen. Weiters werden Indikatoren, die üblicherweise genutzt werden, um einen Markt einzuschätzen aufgezeigt und erläutert. Ebenfalls werden diese teilweise zueinander in Relation gestellt, um Zusammenhänge der einzelnen Indikatoren zu erkennen. Im Anschluss dieser Aufstellung werden bekannte, vom internationalen Markt anerkannte, Indikatoren aufgezeigt und erläutert und mit Beispielen unterlegt. Den Abschluss der Arbeit bildet das Einsetzen von ausgewählten Indikatoren für die Märkte Schweiz und Österreich und ein daraus abgeleitetes Fazit, ob eine Blase in diesen Ländern als Wahrscheinlich gilt oder nicht. Auch wird erläutert, dass ein einzelner Indikator wenig bis keine Aussagekraft zur Einschätzung einer Blasensituation hat, sondern Indikatorensets dazu benötigt werden.
Beim Online-Lernen ist es wichtig, angemessenes Feedback zu geben, damit der Schüler aus seinen Fehlern lernen und sich weiterbilden kann. Oft besteht Feedback nur aus ungenügenden Informationen, wie etwa nur aus den Worten „Richtig“ oder „Falsch“, mit denen der Schüler nicht viel anfangen kann und somit nicht aus seinen Fehlern lernen kann. Ein gutes Feedback bei inkorrekten Antworten enthält wichtige Informationen, warum eine Antwort oder Aktion falsch ist und wie sie verbessert werden kann. Bei korrekten Antworten ist ein Lob oder eine Anerkennung der richtigen Antwort ebenfalls fördernd.
In dieser Arbeit wird das Feedback des Systems XData, welches für das Erlernen von SQL (Structured Query Language) genutzt wird, verbessert. Dazu wird das aktuelle System beschrieben, um das aktuelle Feedback bei SQL-Queries beurteilen zu können. Um das aktuelle Feedback angemessen verbessern zu können, wird ein Einblick in die Themen Lernen und Feedback gegeben. Die aus den beiden Themen gewonnen Eindrücke und Erkenntnisse werden bestmöglich für das zu verbessernde Feedback genutzt. Um das System und sein Feedback beurteilen zu können, sowie das verbesserte Feedback bewerten zu können, werden verschiedene SQL-Queries (Abfragen) verwendet. Es wird die Implementierung des Feedbacks durch ein Textbausteinsystem beschrieben und die verschiedenen Feedback-Fälle vorgestellt. Abschließend werden die Resultate beschrieben und beurteilt, sowie über die Ausblicke des Systems diskutiert.
Die Wissenschaft der Sozialen Arbeit verfügt über einen reichen Schatz an Theorien und Methoden, welche für den Interreligiösen Dialog erforscht und analysiert werden können. Somit liefert die Sozialen Arbeit unterschiedliche praktischen Handlungsmöglichkeiten, um Räume zu schaffen, in denen Begegnungen auf Augenhöhe ermöglicht werden. In diesen Räumen lernen sich Vertreter*innen der verschiedenen Religionsbekenntnisse kennen, um sich auszutauschen und einen Beitrag zur Friedensarbeit zu leisten. Dabei spielt die persönliche Identität jedes einzelnen eine bedeutende Rolle. Denn Voraussetzung für diesen Dialog ist laut Stuart Hall, Kulturwissenschaftler, dass „jede Form von Identität durch das Nadelöhr des anderen hindurchmüsse“. (Terkessidis 2001, Online Zugriff am 4. Mai 2021)
Homi K. Bhabha, Postkolonialtheoretiker erforscht in seinen Arbeiten dieses „Nadelöhr“, um den Begriff der Identität neu beschreiben zu können. Er sieht in der Identitätsbildung einen Prozess, der sich aufgrund der kulturellen Differenz ergibt. Dadurch ist es für ihn undenkbar, die ursprüngliche Identität oder übernommene Traditionen aufrecht zu erhalten. In den Zwischen-Räumen findet die Begegnung an den identitätsbedingten Grenzen statt, um „Unverträgliches, Verschwiegenes, Unbewusstes“ (Hàrs 2001, S. 2) darlegen zu können. Die Begegnung in diesen Räumen ermöglicht neue Erkenntnisse, denn jede/r begegnet dem Fremden in sich und im Anderen entdeckt man das Eigene. Dabei wird die Identität für Bhabha ein Stückwerk, zu einer Teil-Ganzheit, somit kann die partielle interkulturelle Andersartigkeit dargestellt werden. (Vgl. Hàrs 2001, S. 2)
Diese interkulturellen bzw. interreligiösen Zusammentreffen brauchen einen wohltuenden Rahmen, der das Kennenlernen und den Austausch fördert. Abgesehen von einem Moderatorenteam, welches die interkulturellen Kompetenzen verinnerlicht hat, können auch unterschiedliche Methoden aus der Sozialen Arbeit zum Einsatz kommen. Diese Methoden sollen Zwischenräume entstehen lassen, in denen eine wertschätzende Kommunikation gepflegt wird. Des Weiteren sollen sie erlauben, die eigenen Identitäten zu stärken und die Neugier auf das Noch-Unbekannte fördern. Auf jeden Fall müssen diese Methoden Machtasymmetrien in Blick haben und ein Gefühl von Sicherheit vermitteln.
.Certeau
(2021)
In der vorliegenden Masterarbeit wird das Verbesserungspotential von Gebäudeleitsystemen am Beispiel der Errichtergemeinschaft Frühlingstraße untersucht. Der Fokus bei der Analyse liegt auf der Ermittlung von Verbesserungen im Bereich der Regel- und Steuerstrategien. Beim Referenzobjekt handelt es sich um sieben Einfamilienhäuser, die durch einen zentralen Pelletkessel mit Wärmeenergie versorgt werden, welche über das miteinander verbundene Kellergeschoss verteilt wird.
Im Kapitel Stand der Technik werden die Gebäudeleitsysteme von Mehrfamilien-Wohnanlagen in den 2000er Jahren und in den 2020er Jahren mit dem ausgeführten Gebäudeleitsystem des Referenzobjektes der Errichtergemeinschaft Frühlingstraße, bei dem es sich ebenfalls um eine Mehrfamilien-Wohnanlage handelt, miteinander verglichen. Nach dem Kapitel Forschungsstand wird die verwendete Methode kurz umrissen. Ein wichtiger Schritt zur fertigen Simulation ist das Verstehen der bestehenden Steuer- und Regelstrategien. Dabei wird sehr genau auf die Regelung der Häuser und des Pelletkessels eingegangen. Ebenfalls werden die zu simulierenden Komponenten, die zur Verfügung gestellten Messdaten und die verwendete Simulationssoftware Polysun beschrieben. Bei der Simulation des Referenzobjektes wird speziell auf die verwendeten Komponenten, aber auch auf die umgesetzten Regel- und Steuerstrategien eingegangen. Die Beschreibung der einzelnen Varianten beschränkt sich auf den Unterschied zur Simulation des Referenzobjektes.
Die einzelnen Varianten unterscheiden sich im Bereich des solaren Deckungsanteils nur sehr geringfügig. Die solare Ausbeute in den Monaten Mai bis August ist bei den Varianten 3 und 4 jedoch deutlich höher als bei den anderen Varianten. Ein deutlicher Unterschied ist auch im Bereich des Pellet-Verbrauchs auszumachen. Bei der Variante 4 werden im Vergleich zum Referenzobjekt jährlich gut 800 kg Pellets eingespart. Dies bedeutet eine Reduktion des CO2-Ausstoßes um 167,8 kg. Dieser Trend der Reduktion kann auch bei den Betriebsdauern des Pelletkessels fortgesetzt werden. Der größte Unterschied der einzelnen Varianten ist bei den Anforderungen des Pelletkessels auszumachen. Somit wird der Pelletkessel bei der Variante 2 14536-mal angefordert und bei der Variante 4 lediglich 3353-mal.
Diese Verbesserungen können durch kleine Anpassungen der Regel- und Steuerstrategien erzielt werden. Gerade weil die Low-Tech Gebäude des Referenzobjekts sehr energieeffizient umgesetzt und nicht mit technischer Ausstattung überladen wurden, können die ermittelten Verbesserungspotentiale bei anderen Gebäuden umgesetzt werden. Bei Gebäuden, die nicht als Low-Tech Gebäude errichtet wurden, ist durch die Anpassung des Gebäudeleitsystems ein größeres Verbesserungspotential zu erwarten.
In dieser Arbeit werden die Emissionsvermeidungspotenziale verschiedener Maßnahmen für einen Milchviehbetrieb in Vorarlberg analysiert. Es werden verschiedene Möglichkeiten beleuchtet, wie diese Treibhausgaseinsparungen auf dem freiwilligen Emissionsmarkt handelbar gemacht und dadurch finanziert werden können. Hintergrund ist, dass der Milchviehbetrieb eine Biogasanlage besitzt, für welche die Förderperiode ausgelaufen ist. Da die Biogasanlage ohne geförderten Einspeisetarif nicht mehr wirtschaftlich ist, wurde, um den Einspeisetarif anzuheben, das Pilotprojekt einer Erneuerbare-Energie-Gemeinschaft gestartet. Aus diesem Grund wird auch die Möglichkeit der Integration des Treibhausgasemissionshandels in die Erneuerbare-Energie-Gemeinschaft geprüft. Dies soll in Form einer Umlegung der Mehrkosten für die Emissionsminderungsmaßnahmen auf den Strompreis innerhalb der Erneuerbare-Energie-Gemeinschaft geschehen. Ergebnis ist, dass die Höhe des Aufschlags stark vom Umsetzungserfolg (Menge der Emissionseinsparungen), den Umsetzungskosten (Gestehungskosten der Klimaschutzmaßnahmen) und von den Transaktionskosten (Verwaltung) abhängt. Der Aufschlag steht für eine Ökologisierung des erneuerbaren Stroms. In dieser Weise wird regional erzeugter erneuerbarer Strom zum lokal klimawirksamen „Ökostrom“. Die Erneuerbare-Energie-Gemeinschaft ist somit mehr als Stromhandel unter Nachbarn, nämlich eine Synergie zwischen Land- und Energiewirtschaft und steht für eine Sektorenkopplung auf dem Weg zur klimaneutralen Wirtschaft.
Die Ökosysteme dienen uns Menschen bereits seit hunderttausenden von Jahren als Lebensraum und sorgen durch ihre Ressourcen für unser Wohlbefinden und Überleben. Doch heute stehen wir vor gravierenden Umweltproblemen, die durch den Menschen verursacht wurden und die eine große Bedrohung für unseren Planeten darstellen. Die Ursache dafür ist unter anderem die Entfremdung des Menschen von der Natur. Immer häufiger kommt es schon während der Kindheit zu einer Entfremdung von den naturnahen Ökosystemen, dabei ist Empathie für die Ökosysteme sowie systemisches Ökologiebewusstsein unumgänglich, um unseren Planeten zu retten.
Diese Arbeit beschäftigt sich daher mit der Forschungsfrage: Wie kann ökologisches Wissen für Kinder so aufbereitet werden, dass ein Lerneffekt eintritt und dabei auch die Empathie für die naturnahen Ökosysteme gefördert wird?
Für die Beantwortung dieser Frage wurden theoretische Erkenntnisse, Best Practice Analysen und Personas herangezogen sowie explorative Experteninterviews durchgeführt. Anhand der Ergebnisse wurde ein Anforderungskatalog und eine Konzeption für eine Anwendung entwickelt, die Familien mit Kindern, in Form von unterschiedlichen digitalen Educational Games mit interaktiven Aufgaben, naturnahe Ökosysteme näherbringen soll. Als Anwendungsszenario wurde ein Protoyp für das Fohramoos am Bödele erstellt und evaluiert. Die Ergebnisse der Evaluation zeigten sowohl Motivation und Spielspaß, als auch einen Lerneffekt bei den Kindern. Außerdem wurde die Beziehung der Kinder zum Ökosystem positiv beeinflusst.
Die digitalen Vermittlungsformate sowie Educational Games sind im Bereich Bildung für nachhaltige Entwicklungen bisher nur sehr wenig erforscht. Deshalb trägt diese Arbeit dazu bei diese Forschungslücke zu schließen.
Die Nachfrage nach Brettspielen ist in den letzten Jahren merklich angestiegen, was die jährlichen Umsatzzahlen (2005: 400 Mio. Euro, 2019: 594 Mio. Euro) belegen. Jedes Jahr gibt es mehr als 1.000 Neuerscheinungen, dennoch ist der Bekanntheitsgrad neuer Brettspiele in der Gesellschaft sehr gering.
Der Großteil der Menschen spielt sehr gerne Brettspiele. Hier unterscheidet man nach der Häufigkeit des Spielens. Die Vielspieler kennen sich gut in der Branche aus und probieren sich gerne an neuen Spielen. Im Vergleich dazu spielen Gelegenheitsspieler überwiegend die gleichen Spiele. Zu der großen Varianz an Spielen haben vermutlich viele noch nicht den Zugang gefunden.
Aufgrund dessen bin ich der Frage nachgegangen, weshalb Menschen ihnen bekannte oder unbekannte Spiele spielen. Um einen Zugang zu einem unbekannten Spiel erlangen zu können, muss man mehrere Einstiegshürden bewältigen. Die Spielanleitung stellt dabei eine entscheidende Einstiegs- und Verständnishürde dar. Um ein neues Spiel zu erlernen, gibt es mehrere Methoden, die ich in meiner Arbeit thematisiert habe. In dem Lernprozess kommen unterschiedliche Probleme auf. Aufgrund dessen sollte man, zumindest nach meiner Meinung, diesen Prozess optimieren.
Das Ziel meiner Arbeit ist es, die Einstiegshürde in ein unbekanntes Spiel zu senken und damit einen einfacheren und schnelleren Zugang zum Erlernen des Spiels zu ermöglichen.
Ich konnte belegen, dass die Spielanleitung ein wichtiger Bestandteil im Lernprozess darstellt und nicht ersetzt werden kann. Um den Lernprozess zu optimieren, habe ich eine ergänzende Umsetzung einer Spielanleitung konzipiert, die den praktischen Teil der Arbeit bildet.
Dadurch entstand ein multimodales Konzept, dass den Spieler*innen eine Hilfestellung während des Erlernens eines Spiels gibt. Das Medium soll eine App sein, in der Spiele anhand Animationen erklärt werden. Die Animationen sind modular aufgebaut und sind auf der Basis des Forschungsprojektes EMPAMOS entstanden. Zusätzlich kann man mithilfe eines Chat Bots individuelle Fragen per Texteingabe oder Sprachsteuerung zum erlernenden Spiel stellen.
Ritualgestaltung
(2021)
Bei dem Begriff ‚Ritualgestaltung‘ handelt es sich um eine vergleichsweise junge Wortkombination, die einerseits in einem wissenschaftlichen Rahmen diskutiert wird und andererseits in der gegenwärtigen Praxis der Ritualgestaltung aufzufinden ist. Die vorliegende Arbeit thematisiert das Ritualverständnis und verschafft einen Überblick über die verschiedenen Aspekte der Ritualgestaltung. Hierbei steht die praktische Arbeit am Beispiel eines Übergangsrituals für Jugendliche zum Erwachsenwerden im Fokus. Die Diskussion der Ritualgestaltung umfasst einen wissenschaftlichen Diskurs sowie die Darstellung der gegenwärtigen Praxis der Ritualgestaltung. Dabei wird Ritualgestaltung aus der Perspektive des Fachbereichs Design analysiert. Mit der Betrachtung aus der Designperspektive soll zum einen die Theorie über die gegenwärtige Ritualgestaltung erweitert und zum anderen eine Grundlage für eine Praxisanwendung der Ritualgestaltung gegeben werden. Ziel der vorliegenden Arbeit ist es, einen Beitrag zur Verortung von Ritualgestaltung zu leisten. Für die Theorieerweiterung wird das Feld Ritualgestaltung mithilfe der Bildung von Kategorien und Tätigkeiten aus dem Fachbereich Design wie beispielsweise Re-Design, Adaption und Formatierung interpretiert. Diese Interpretation findet anhand von vier Modalitäten der Ritualgestaltung statt, welche auf Grundlagen von Theorie und mithilfe von Beispielen kritisch diskutiert werden. Die Praxisanwendung der Ritualgestaltung erfolgt am Beispiel eines Übergangsrituals für Jugendliche zum Erwachsenwerden. Es wird ein Überblick über bestehende Übergangsrituale gegeben sowie die Relevanz für ein solches Übergangsritual dargelegt. Anhand eines klassischen Entwurfsprozesses wird ein fiktives Ritual gestaltet, diskutiert und evaluiert.
Traktorbedienerinnen und Traktorbediener haben das Problem, dass multimodale Mensch-Maschine-Schnittstellen von Traktoren unzureichend bedienbar sind. Dies macht sich vor allem durch lange Einlernzeiten, kognitiver Überforderung aufgrund des Funktionsumfangs und ineffizientem Bedienverhalten bemerkbar.
Traktoren werden längst nicht mehr nur durch mechanische Schalter, Hebel und Tasten gesteuert. Die Bedienung einer modernen landwirtschaftlichen Zugmaschine ist multimodal: primäre Funktionen, wie das Fahren und die grundlegende Steuerung von Anbaugeräten, werden von den Nutzerinnen und Nutzern über haptische Bedien- und Stellelemente ausgeführt, doch Justierungen und Automationen während und vor der Arbeit mit dem Traktor finden vollständig über die Software statt. Über einen Bildschirm werden z. B. Einstellungen an angehängten Anbaugeräten vorgenommen, teilautonome Prozesse zur Austragung justiert, automatische Lenkung und Dokumentation initiiert, Traktor-bedingte Einstellungen, wie z. B. Hydraulikanpassungen ausgeübt, Komfortfunktionen wie das Radio bedient und umfassende Informationen zur Maschine und der Peripherie aufgerufen.
Eine Software muss in diesem Umfeld eine Vielzahl an Informationen verarbeiten und das komplexe System Traktor mit seinen Anbaugeräten funktional darstellen können. Die Traktorenbedienung wird also von enorm vielen Kontexten beeinflusst, die wechselwirken.
Diese Kontexte, wie z. B. Eigenheiten der Bedienerinnen und Bediener, Maschinenkonditionen oder die Art der Tätigkeit, um nur einige wenige zu nennen, muss die Software adressieren können – doch das macht sie in den aktuellen Systemen nicht ausreichend. Dies zeigt sich aus wissenschaftlichen Veröffentlichungen zur Software-Ergonomie in Traktoren und empirischen Untersuchungen im Rahmen dieser Masterarbeit. So ist es für die Bedienerinnen und Bediener ineffizient, wenn sie Prozesse für eine Aufgabe auf dem Feld ausführen müssen, die repetitiv sind. Diese Masterarbeit konzipiert daher anhand des Adaptive User Interface Ansatzes einen Vorschlag für eine Software, die diesem kontextreichen Umfeld gerecht werden kann und zu einer kognitiven Entlastung führen soll. Ein Adaptive User Interface ist ein intelligentes Schnittstellenkonzept, das anhand von Sensorik und Machine Learning Inhalte, Darstellung und Funktionen adaptieren kann. Durch umfassende Analysen des Ist-Stands von Traktor-Softwares und der Befragung und Beobachtung von Bedienerinnen und Bedienern in ihrem alltäglichen Arbeitsumfeld konnten Anforderungen spezifiziert, und darauf basierend iterativ Lösungen entwickelt werden. Das Ergebnis ist ein evaluiertes GUI-Konzept, das auf zwei übereinander angeordneten Bildschirmen basiert und mittels Touch-Eingabe und einer 4-Wege-Taste bedient wird. Auf den Bildschirmen werden Funktionen für Traktor und Schnittstellen, mit denen die Anbaugeräte betrieben werden, getrennt dargestellt. Dies soll für eine Entlastung des Funktionsüberschusses sorgen. Kern dieses Konzepts ist jedoch die Implementierung des adaptiven Ansatzes: Basierend auf dem Kontext werden Adaptionsvorschläge in Form von Dialogen unterbreitet, die minutenlange Arbeitsschritte durch die Software um ein Vielfaches verkürzen können – so steigt die Effizienz enorm. Weiter soll das Konzept durch einen umfassenden Onboarding Prozess und intelligente Hilfsfunktionen auf die optimale Nutzung durch sowohl Anfängerinnen und Anfänger als auch Expertinnen und Experten vorbereiten.
Im Rahmen dieser Masterthesis wurde beispielhaft gezeigt, mit welchen Maßnahmen die Handhabung (Gewicht, Größe) von Nasskühlern verbessert werden kann. Dabei wurde berücksichtigt, dass Kühlleistung und Durchsatz dem aktuellen Stand der Technik entsprechen.
Die zu Beginn durchgeführten Messungen an einem, in der Praxis eingesetzten, Referenzgerät und die darauffolgenden Berechnungen lieferten die thermodynamischen Größen (Temperatur, Druck). Diese physikalischen Größen lieferten die Randbedingungen der darauffolgenden Computational Fluid Dynamics (kurz CFD) Simulationen. Aus technischen Gründen wurde der Druck nicht direkt über Sensoren gemessen, sondern mit Hilfe der gemessenen Temperaturen berechnet. Da die Druckmessung einen zu starken Eingriff ins System dargestellt hätte. Um die Korrektheit der berechneten Drücke sicherzustellen, wurden in weiterer Folge die Temperaturen nachgerechnet und mit den Messwerten verglichen.
Um die Messwerte beziehungsweise die Berechnungen weiter zu bestätigen, ist zuerst ein CAD-Modell des vorhanden Referenzgerätes erstellt worden. Dieses CAD-Modell wurde dann hergenommen, um die ersten CFD Simulationen durchzuführen. Die Schwierigkeit hierbei lag bei der realistischen Abbildung der physikalischen Vorgänge, wie beispielsweise bei dem Verdampfen und Kondensieren des Kältemittels (Arbeitsmedium). Es wurden die einzelnen Komponenten des Kältekreislaufes simuliert (Wärmetauscher des Nutzmediums, Verdampfer und Kondensator des Arbeitsmediums).
Abschließend wurde ein Entwurf zur Optimierung von Schankanlagen erarbeitet. Von diesen wurden (teilweise) CAD Modelle erstellt. Die Modelle der optimierten Komponenten wurden dann, bezogen auf ihr Volumen und Gewicht, mit denen des Referenzgerätes, gegenübergestellt.
Den Abschluss der Arbeit bildet ein Fazit über die durchgeführten Berechnungen, Messungen und Simulationen. Des Weiteren wurden hier Aspekte, die nicht in der Arbeit berücksichtigt wurden, kurz aufgegriffen und erläutert.
SysML Modellierung komplexer Systeme und automatische Erzeugung domänenspezifischer Ressourcen
(2021)
Moderne Technische Systeme und ihre Entwicklung werden zunehmend komplexer. Durch eine Vielzahl bei der Entwicklung beteiligter Modelle/Dokumente wird eine konsistente und rückverfolgbare Modellierung erschwert. Model-Based Systems Engineering (MBSE) ist ein Ansatz, welcher diese Problemstellung adressiert und bei der Systementwicklung formale Modelle anstelle von Dokumenten einsetzt/verwendet. Im Gegensatz zu Dokumenten sind Modelle formal definiert, können automatisiert überprüft werden und ermöglichen eine leichte maschinelle Verarbeitung der Informationen. Im Zentrum der Entwicklung steht ein Systemmodell, welches mit einer formalen Modellierungssprache erstellt wurde. Während der Entwicklung entstehende Informationen werden in das Systemmodell integriert, sodass eine konsistente Single Source of Truth entsteht. Aus dem Systemmodell können über automatisierte Modelltransformationen domänenspezifische Ressourcen, wie beispielsweise Digital Twins, generiert werden. Digital Twins und die damit verbundenen Simulationen können einen deutlichen Mehrwert in Bereichen, wie Optimierung, Wartung und Anomalieerkennung liefern. Allerdings ist die manuelle Erzeugung Aufwändig und Fehleranfällig sein, weshalb eine automatische Erzeugung aus den Informationen des Systemmodells eine Erleichterung darstellt.
Diese Arbeit beschäftigt sich mit dieser Problemstellung und der Modellierung komplexer Systeme. Es wird ein Systemmodell mit der Modellierungssprache Systems Modeling Language (SysML) erstellt, welches durch domänenspezifische Profile erweitert wird um Modellierung/Integration der Domänen zu ermöglichen. Mittels einer Modelltransformation in Acceleo werden Informationen aus dem Systemmodell in ein Simulationsmodell der Simulationssoftware twin, welche zur Simulation von Digital Twins geeignet ist, transformiert. Der in der Arbeit präsentierte Ansatz wird anhand er Modellfabrik des Forschungszentrums Digital Factory Vorarlberg veranschaulicht.
Die Arbeit beschreibt die Entwicklung eines Open-Source Plugins für die 3D-Modellierungssoftware FreeCAD, mit welchem es möglich ist, Roboterpfade anhand von 3D-Modellen zu erstellen. Die Pfade sind in einem geeigneten Format exportierbar und können beispielsweise zur Steuerung eines Roboters durch eine speicherprogrammierbare Steuerung verwendet werden. Im ersten Teil der Arbeit wird der geplante Arbeitsablauf der Pfadgenerierung beschrieben und genauer erläutert, welche Vorteile und Pflichten die Erstellung von Open-Source-Software nach sich zieht. Anschließend wird anhand der Systeme „Robot Studio“ von ABB und „MotoSim EG VRC“ von Yaskawa analysiert, wie proprietäre Systeme die Programmierung von Roboterpfaden realisieren. Nach einem Überblick über den aktuellen Stand der Technik in der Roboterprogrammierung, wird die Implementierung des Plugins für FreeCAD beschrieben. Dazu wird anhand des Sourcecodes erläutert, wie neue Arbeitsbereiche erstellt werden können. Es werden verschiedene Funktionen implementiert, welche essenziell für die Erstellung von Roboterpfaden sind. Dazu zählen die Möglichkeit zur Definition von Koordinatensystemen, Roboterposen und das Beschreiben des Roboterpfades durch Pfadsegmente mit verschiedenen Parametern, wie Bewegungsart, Geschwindigkeit und Wegpunkte. Das Plugin wurde getestet indem eine einfache Pick & Place Anwendung erstellt wurde. Anschließend sind mögliche Erweiterungen des Plugins, wie zum Beispiel die Möglichkeit des Duplizierens von Pfadsegmenten am Ende der Arbeit beschrieben.
Nicht zuletzt seit der Pandemie sind sich Wissenschaftler einig, dass Homeoffice ein fester Bestandteil der Arbeitswelt bleiben wird. Die Coronakrise hat dabei gezeigt, wie wichtig Kompetenzen, wie digitales Know-how und Selbstorganisation, sowie eine offene Unternehmens- und partizipative Führungskultur, für den Erfolg von Homeoffice sind. So soll in der Masterarbeit am Beispiel von Vorarlberg die Forschungsfrage geklärt werden, welche Voraussetzungen für Homeoffice vorliegen müssen und wie sich Homeoffice unter Berücksichtigung soziodemografischer Moderatoren auf Angestellte mit und ohne Führungsverantwortung im Arbeits- und Privatalltag auswirkt. Zur Beantwortung der Forschungsfrage wurden die Erkenntnisse aus Literatur und Forschung mittels einer quantitativen Erhebung in Vorarlberg untersucht. Anhand dieser wird ersichtlich, dass die Rahmenbedingungen in Vorarlberg überwiegend erfüllt werden, aber einzelne, wie die Ergonomie des Heimarbeitsplatzes oder Schulungen im Umgang mit dezentraler Arbeit, noch ausbaufähig sind und Homeoffice selten einzelvertraglich vereinbart wird. Dennoch sind die Angestellten Vorarlbergs insgesamt zufrieden mit Homeoffice und sehen vor allem die Produktivität und Vereinbarkeit von Privat- und Berufsleben positiver als bei der Präsenzarbeit.
Die vorliegende Masterarbeit befasst sich mit der Analyse von Unterstützungsverfahren, um mithilfe eines Roboters einen Fügeprozess kombiniert mit einer Fügeachse durchführen zu können. Durch das Führen der Bauteile durch den Roboter während des Fügevorgangs entsteht eine Überbestimmung zwischen Fügeachse und Roboter. Die auftretenden Kräfte und Momente, die dadurch auf den Roboter wirken, sind zu untersuchen. Mithilfe der Analysen soll ermittelt werden, ob der Roboter während der Fügeprozesse innerhalb seiner Leistungsgrenzen betrieben wird und ob eine ausreichend genaue Kompensation der Kräfte möglich ist. Ein dazu erstellter Versuchsaufbau soll diese Analysen ermöglichen. Nach dem Erarbeiten von Grundlagen der Roboterregelung wird speziell auf die, bei diesem Versuchsaufbau zu Verfügung stehenden, Unterstützungsverfahren des Roboters eingegangen. Die Eigenschaften und Anwendung des jeweiligen Verfahrens werden beleuchtet und dargestellt. Dem folgt eine Übersicht der geplanten Fügeversuche, um das Verhalten des Roboters während der Fügeprozesse zu analysieren. Die Auswertung einer durchgeführten Messsystemanalyse und der Fügeversuche stellt die Verwendbarkeit und die erreichbaren Toleranzen sowie die Stärken und Schwächen der Unterstützungsverfahren dar.
Welcher Kompetenzbedarf besteht bei HR-MitarbeiterInnen, um die digitale Transformation in Unternehmen mitbegleiten zu können und welche Methoden zur Kompetenzentwicklung von HR-MitarbeiterInnen finden in einer zukunftsorientierten Personalentwicklung Anwendung? Mit einer Antwort auf diese Fragen beschäftigt sich die vorliegende Arbeit. Nach der Erklärung der theoretischen Begriffe und Grundlagen zeigt das Kapitel drei den Kompetenzbedarf von HR-MitarbeiterInnen für die digitale Transformation auf und liefert spezifische Methoden zur Kompetenzentwicklung digitaler Transformation. Dabei spielen die Kompetenzen im Bereich der Führungs- und Motivationsstrategie sowie die Gestaltung des Wissensmanagements eine bedeutende Rolle. Den MitarbeiterInnen im HRM kommt angesichts des Fachkräftemangels aufgrund der demografischen Entwicklung eine zunehmend strategische Bedeutung zu. Sie werden zu engen Partnern in der strategischen Ausrichtung des Unternehmens. Auf der einen Seite steht die Ressource Humankapital, auf der anderen Seite aber auch die Zukunftssicherung, denn im Zeitalter der Digitalisierung und des globalen Wandels ist die nachhaltige Sicherung des Know-how für ein Unternehmen überlebenswichtig. In diesem Kontext müssen die verantwortlichen HR-MitarbeiterInnen andere und zum Teil vielfältigere Kompetenzen mitbringen als noch vor einigen Jahrzehnten. Die Arbeit schließt nach den Handlungsempfehlungen, einem Praxisbeispiel, einem Fazit und einem Ausblick.
Das Ziel der vorliegenden Masterthesis ist es zu beantworten, wie die Zielwirksamkeit von Coaching im Rahmen der Personalentwicklung realitätsnah erfasst werden kann. Dazu wird zunächst eine Abgrenzung des Begriffs „Coaching“ vorgenommen, sowie verschiedene Formen des Coachings vorgestellt. Darauf basierend wird der aktuelle Forschungsstand im Bereich der Evaluation von Coaching dargestellt und hierbei genauer auf verschiedene theoretische Evaluationsmodelle eingegangen. Zusätzlich dazu wird eine Identifikation der Wirkfaktoren vorgenommen. Die Forschungsfragen werden mithilfe einer qualitativen empirischen Methodik unter Durchführung von Experteninterviews beantwortet. Die Masterthesis resultiert in der Darstellung eines möglichen Evaluationsprozesses.
Das Ziel der Masterarbeit war die Untersuchung der Umsetzung von flexiblen Arbeitszeitmodellen in Vorarlberger Unternehmen aus der Industriebranche sowie die Untersuchung der Arbeitnehmerpräferenzen von flexiblen Arbeitszeitmodellen. Dazu wurden zwölf HR-Expert/innen in Experteninterviews und zusätzlich über 200 Arbeitnehmende mittels Online-Fragebogen befragt. Die Gegenüberstellung der Ergebnisse zeigen die Diskrepanz zwischen Arbeitszeitmodellen, welche in der Praxis umgesetzt werden, und Arbeitszeitmodellen, welche sich Arbeitnehmende wünschen bzw. bevorzugen. Hauptsächlich wird die Gleitzeit mit Kernzeit umgesetzt. Die komprimierte Vier-Tage-Woche, Vertrauensarbeitszeit, und die Abschaffung der Kernzeiten werden nicht oder selten umgesetzt. Während Unternehmen teilweise Unterschiede in den Präferenzen zwischen Frauen und Männer sowie Jung und Alt beobachten, können die Ergebnisse des Online-Fragebogens diese Aussagen nicht bestätigen. Die Zufriedenheit der Arbeitnehmenden ist hoch. Es bestehen Diskrepanzen zwischen präferierten und umgesetzten Arbeitszeitmodellen.
Die Anfänge der Human Resources (HR)-Abteilung gehen in die 1960er Jahre zurück. Damals galt diese als sehr gut etabliert und erfolgreich, heute kämpft sie um ihre Daseinsberechtigung. Die digitale Transformation ist einer der Gründe dafür. Die Digitalisierung als einer der Megatrends der heutigen Zeit verändert durch ihre transformationellen Auswirkungen alles – Gesellschaft, Wirtschaft, Arbeitswelt und folglich HR. Letzteres wird anhand der Kernthemen Strategie, Prozesse und Services, IT-Systeme sowie Unternehmens- und Führungskultur detailliert beleuchtet, um dann näher auf die aktuelle und zukünftige Rolle von HR in der digitalen Transformation einzugehen. Anschließend wird auf das methodische Vorgehen im Sinne der qualitativen Inhaltsanalyse nach Mayring eingegangen. Darauf folgt die Darlegung der Forschungsergebnisse sowie die Diskussion dieser mit der Literaturrecherche. Abschließend beantwortet ein Fazit die Forschungsfrage.
Diese Arbeit hat die Untersuchung der Frage, wie Mitarbeiter:innen agile Führung inmitten der COVID-19-Krise wahrnehmen, zum Ziel. Die leitende Forschungsfrage lautet: „Wie erfolgreich ist agile Führung in Zeiten der COVID-19-Pandemie aus Mitarbeitendensicht?“ Hierbei wird die Führungssituation anhand der aktuellen Veränderungstreiber und der COVID-19-Pandemie kontextualisiert. Daraufhin wird nach einem Aufriss der Historie verschiedener Führungstheorien, die agile Führung näher betrachtet. Im Rahmen dieser Aufarbeitung wird agiles Führungsverhalten definiert, welches für die fortführende quantitative Empirie von zentraler Bedeutung ist. Anschließend werden die erlangten Daten aus einer durchgeführten Onlinebefragung ausgewertet und analysiert. Als Gegenstand der Untersuchung werden verschiedene Hypothesen im Hinblick auf Wirkungszusammenhänge zwischen agilem Führungsverhalten und der Zufriedenheit der Mitarbeitenden aufgestellt.
Personalentwicklung in KMU
(2021)
Kleine und mittlere Betriebe sind die wichtigsten Treiber der österreichischen Wirtschaft. Damit die Unternehmen wettbewerbsfähig bleiben können, werden Mitarbeitende mit den entsprechenden Qualifikationen und Kompetenzen benötigt. Diese Masterarbeit widmet sich der Fragestellung, wie in kleinen und mittleren Betrieben mit bis zu 100 Mitarbeitenden Personalentwicklung organisiert ist und welche ergänzenden bzw. neue, innovative Ansätze sich zeigen. Nach dem zuerst die allgemeine Theorie zur Personalentwicklung dargestellt wird, wird im weiteren Verlauf auf spezielle Aspekte im Bereich KMU eingegangen. Der praxisorientierte Abschnitt wird in zwei Teile gegliedert. Im ersten Teil werden eingesetzte Maßnahmen bzw. Methoden anhand von Best-Practice-Beispielen erläutert. Singuläre Ansätze werden im zweiten Teil dieses Kapitels vertiefend beschrieben. Eine Schlussbetrachtung der Ergebnisse sowie die Erstellung von Handlungsempfehlungen für KMU runden diese Arbeit ab. Diese Masterarbeit richtet sich an Interessierte, die Personalentwicklung in kleinen und mittleren Betrieben einführen oder bereits bestehende Konzepte modernisieren und adaptieren wollen.
Der Fachkräftemangel und eine immer älter werdende Gesellschaft stellen auch Vorarlberger Unternehmen vor eine große Herausforderung. Um dieser entgegenzuwirken, setzen Unternehmen auf die Lehrlingsausbildung im eigenen Betrieb. Unternehmen müssen sich daher mit der Frage auseinandersetzen, wie sie potenzielle Lehrlinge auf sich aufmerksam machen können. Dies ist Aufgabe des Lehrlingsmarketings, welches eine Subdisziplin des Personalmarketings und somit Teil des Employer Brandings eines Unternehmens ist. Im Rahmen des Lehrlingsmarketings können verschiedenste Methoden eingesetzt werden, um zukünftige Lehrlinge auf ein Unternehmen bzw. einen Lehrberuf aufmerksam zu machen. Welche Aspekte bei der Lehrstellensuche und bei der schlussendlichen Entscheidung für einen Lehrberuf bzw. -betrieb entscheidend sind, werden in dieser Arbeit thematisiert und mithilfe empirischer Forschung untersucht. Der Fokus der empirischen Untersuchung lag dabei auf analogen sowie digitalen Lehrlingsmarketingmethoden, aber auch auf bestimmten Personengruppen und deren Einfluss. Zu diesem Zweck wurde eine Online-Umfrage mit 117 Lehrlingen aus fünf Vorarlberg Industrieunternehmen durchgeführt. Auf Basis der Umfrageergebnisse wurden Vorschläge bzw. Handlungsempfehlungen für das zukünftige Lehrlingsmarketing erarbeitet.
Humor im Arbeitsalltag
(2021)
Das Betriebliche Gesundheitsmanagement (BGM) bildet einen bedeutenden Bestandteil in Unternehmen, um die Gesundheit von Mitarbeitenden zu bewahren, wiederherzustellen oder zu fördern. Die Gesundheit der Mitarbeitenden trägt maßgeblich zum Erfolg von Unternehmen bei, da Mitarbeitende eine essenzielle Ressource im Unternehmen darstellen. Speziell während der Coronapandemie stehen Unternehmen vor der Herausforderung das Betriebliche Gesundheitsmanagement auch im Home-Office oder bei dem Mobilen Arbeiten zu gewährleisten. Die vorliegende Arbeit beschäftigt sich mit den BGM-Maßnahmen im Home-Office in Großunternehmen in Deutschland und der Frage, welche BGM-Maßnahmen die Gesundheit der Mitarbeitenden im Home-Office positiv beeinflussen und somit eine Handlungsempfehlung darstellen. Hierzu wurde sowohl eine systematische Literaturrecherche als auch eine empirische und qualitative Studie mit sechs Experten und Expertinnen in deutschen Großunternehmen durchgeführt. Die Ergebnisse zeigen, dass die analysierten Großunternehmen in Deutschland vor allem Maßnahmen im Bereich der Betrieblichen Gesundheitsförderung zur Abwendung psychischer Krankheiten einsetzen. Auch Maßnahmen zur Ergonomie spielen eine zentrale Rolle. Besonders virtuelle Maßnahmen, wie eine Aktive Pause, virtuelle Kurse zur Stressbewältigung und Achtsamkeit sowie Apps, werden in den Unternehmen eingesetzt. Das BGM wird bei den meisten Befragten im Rahmen des Mobilen Arbeitens angeboten, da hierbei unter anderem eine höhere Flexibilität möglich ist und weniger rechtliche Vorgaben seitens der Arbeitgebenden im Vergleich zum Home-Office beachtet werden müssen.
Regionalbanken sind aus dem Banken- und Finanzsystem Österreichs nicht wegzudenken. Sie sind in der Bevölkerung traditionell stark verwurzelt und stoßen auf hohe Akzeptanz und Vertrauen – nicht zuletzt durch ihre hochqualifizierten Mitarbeiter.
Die vorliegende Arbeit gibt Antwort auf die Fragestellung, wie es den Regionalbanken auch in Zukunft gelingen kann, hochqualifizierte Fachkräfte als Mitarbeiter zu gewinnen. Dazu muss die Generation Z, jene Generation, die jetzt ins Arbeitsleben tritt und dieses zukünftig prägen wird, für die Mitarbeit gewonnen werden.
Ein entscheidender Schlüssel, um die Regionalbanken als attraktive Arbeitgeber für die Generation Z zu positionieren, ist das richtige Employer Branding.
Die vorliegende Arbeit definiert zunächst die Regionalbanken innerhalb des österreichischen Bankensektors. Danach beschreibt sie kurz den demographischen Wandel in Österreich in den letzten Jahrzehnten und grenzt so die Generation Z von den anderen (noch) erwerbstätigen Generationen ab.
Es wird weiter das Employer Branding in seinen Grundzügen erklärt. Aus einer quantitativen empirischen Studie werden jene erfolgversprechenden Faktoren für die Positionierung der Regionalbanken innerhalb der Generation Z abgeleitet und erklärt, die in Zukunft beim Employer Branding der Regionalbanken besonders zu berücksichtigen sind.
Aus der Arbeit wird deutlich, dass für die Generation Z teilweise ganz andere Faktoren zählen als für vorherige Generationen. Etwa treten Hierarchien und die Möglichkeit und der Wille, klassische Führungsaufgaben zu übernehmen, in den Hintergrund, während Aspekte wie Work-Life-Balance, ein gutes Arbeitsklima sowie Arbeitsplatzsicherheit sehr wichtig sind.
In der vorliegenden Masterarbeit geht es darum, inwiefern das Conversational Design von NLP-basierten Chatbots in der Bewerberkommunikation gestaltet werden kann, um eine optimale Candidate Experience für die Bewerber/innen zu schaffen. Das Conversational Design umfasst dabei die Dialoggestaltung, den sprachlichen Stil sowie die Relevanz einer Persönlichkeit eines Chatbots. Es wird beschrieben, wie Chatbots auf der Karrierehomepage sowie auf Messenger-Plattformen eingesetzt werden können. Dabei geht es ausschließlich um Textbots, die mit Hilfe der Technologie von Natural Language Processing und basierend auf das Machine Learning als schwache Form der künstlichen Intelligenz in der Bewerberkommunikation eingesetzt werden. Dazu wurden im empirischen Teil qualitative Experteninterviews mit Personen aus HR-Abteilungen sowie mit Beratungsunternehmen geführt. Ziel dieser Arbeit ist es, einen Leitfaden für HR-Abteilungen bereitzustellen, inwiefern das Conversational Design von Chatbots gestaltet werden kann sowie welche kritischen Erfolgsfaktoren zur Schaffung einer optimalen Candidate Experience berücksichtigt werden müssen.