Refine
Document Type
- Master's Thesis (295)
- Report (14)
- Article (10)
- Conference Proceeding (3)
- Part of a Book (2)
- Other (2)
- Bachelor Thesis (1)
- Book (1)
- Doctoral Thesis (1)
Institute
- Soziales & Gesundheit (11)
- Forschungsgruppe Empirische Sozialwissenschaften (9)
- Forschungszentrum Business Informatics (7)
- Wirtschaft (6)
- Forschungszentrum Human Centred Technologies (3)
- Forschungszentrum Energie (2)
- Gestaltung (2)
- Hochschulservices (2)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (2)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (1)
Language
- German (329) (remove)
Has Fulltext
- yes (329) (remove)
Keywords
- Digitalisierung (11)
- Controlling (7)
- Digitale Transformation (7)
- Industrie 4.0 (5)
- Soziale Arbeit (5)
- Demand Side Management (4)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Kultur (4)
- Photovoltaik (4)
Insignien der Macht
(2022)
Die Coronavirus Pandemie hatte einen tiefgreifenden Einfluss auf die Art und Weise wie Staats- und Regierungschefs weltweit digitale Netzwerke für politische Kommunikation nutzen. Während PolitikerInnen über soziale Netzwerke vermehrt versuchten ihre WählerInnen zu erreichen, suchten auch NutzerInnen vermehrt auf Kanälen politischer AkteurInnen nach aktuellen Informationen zum Coronavirus. Die Pandemie hat gezeigt, dass die visuelle Kommunikation führender politischer AkteurInnen auf Social Media an Bedeutung gewinnt und als zunehmend zentrale Ressource politischen Handelns kritisch hinterfragt werden sollte. In digitalen Öffentlichkeiten ändern sich zunehmend Rahmenbedingungen visueller politischer Kommunikation. Durch Soziale Netzwerke erhalten PolitikerInnen die Möglichkeit einer ungefilterten Kommunikation mit ihren Wählergruppen. Aus Überlegungen über den Prozesswandel der politischen Kommunikation, stellt sich die Frage wie visuelle politische Kommunikation auf Social Media durch empirische Forschung und visuelle Analysen in ihren Inszenierungsstrategien dekodiert werden kann. Im Rahmen des Forschungs- und Designprojektes Insignien der Macht: Die Entschlüsselung visueller politischer Kommunikation im Zeitalter Visueller Politik soll auf Basis von Visual Literacy und der Bildpädagogik nach Otto Neurath eine visuelle Sammlung erstellt werden, die als Hilfsmittel zur Entschlüsselung inszenierter Bildmaterialien auf Social Media einen Beitrag zur kritischen Betrachtung von Bildern im Zeitalter Visueller Politik durch eine designpraktische Übersetzungsleistung der Forschungserkenntnisse leisten soll.
Untersuchung zur Lösbarkeit der Rückwärtskinematik eines 6-DOF Roboter mit einem neuronalen Netz
(2022)
Das Berechnen der inversen Kinematik ist komplex und muss für jeden Robotertyp individuell gelöst werden. Da ein Manipulator ohne die Rückwärtskinematik, die die erforderlichen Achsvariablen für eine Ziellage ermittelt, in der Praxis nicht verwendet werden kann, ist dieses Problem elementar in der Robotik. In dieser Arbeit wird der Ansatz zur Lösung der inversen Kinematik mit einem neuronalen Netz für einen Roboter mit sechs Freiheitsgarden untersucht. Dabei ist besonders darauf zu achten alle Mehrdeutigkeiten der inversen Kinematik beim Training zu berücksichtigen, da sonst das Kriterium des Determinismus zwischen Inputs und Outputs verletzt wird, was verhindert, dass ein Netz für das Problem trainiert werden kann. Es hat sich gezeigt, dass der Optimierungsalgorithmus Adams ebenso gute Ergebnisse wie der Scaled Conjugated Gradient erzielt. Die in Tensorflow verwendete typischen Aktivierungsfunktion Tangens hyperbolicus, weist im Vergleich zu anderen untersuchten Aktivierungsfunktionen, die in Tensorflow implementiert sind, die beste Performance auf. In MATLAB hingegen weist die Log sigmoid Aktivierungsfunktion die beste Performance von den implementierten Aktivierungsfunktionen auf. Zusätzlich verringert das Einschränken der Achsvariablen auf die tatsächlichen Achsbeschränkungen beim Trainieren des Netzes, sowohl den Netzwerkfehler als auch die Datenmenge, die benötigt wird, damit das Netz gut generalisiert. Abschließend stellt sich heraus, dass die trainierten Netze keine Praxistauglichkeit aufweisen, da der erzielte Netzwerkfehler zu groß ist. Da alle Mehrdeutigkeiten durch geometrische Analyse ausgeschlossen sind und ein ausreichend großer Datensatz verwendet wurde, kann mit den hier vorgestellten Ansätzen das Ergebnis nur durch komplexere Netze und damit mehr Daten verbessert werden. Andere Ansätze die zusätzliche Informationen zur Berechnung der Achswinkel zur Verfügung stellen könnten zudem auch bessere Ergebnisse erzielen. Darüber hinaus könnte es sinnvoll sein, Ansätze zu untersuchen, die sich die Achsbeschränkungen zunutze machen.
Der Begriff Digital Rights Management (DRM) umfasst Richtlinien, Techniken und digitale Werkzeuge, mit denen die Nutzung digitaler Inhalte eingeschränkt, gesteuert und kontrolliert werden kann. Im Wesentlichen werden dabei Technologien von Rechteinhaber:innen zur Zugangs- und Nutzungssteuerung sowie Verfolgung von Rechtsverstößen und gegebenenfalls sogar zur differenzierten Abrechnung digitaler Inhalte angewendet. Herkömmliche DRM-Systeme bestehen hauptsächlich aus Software und stützen sich auf softwarebasierte IT-Sicherheit. Um die IT-Sicherheit von DRM-Systeme auszuweiten, können Hardwarekomponenten eingesetzt werden. Die Kombination aus software- und hardwarebasierter IT-Sicherheit wird als Trusted Computing (TC) bezeichnet und ermöglicht Rechteinhaber:innen völlig neue Szenarien.
Um die Möglichkeiten von DRM mit TC zu erforschen bzw. diese zu demonstrieren, wurde im praktischen Teil dieser Arbeit eine technische und organisatorische Maßnahme prototypisch umgesetzt, mit der es einem Auftraggeber-System möglich ist, mit einer definierten Lizenz (bzw. DRM-Policy) sensible proprietäre Daten an ein Auftragnehmer-System zu senden, sodass dieses die sensiblen Daten nur auf eine Art und Weise verwenden kann, wie die Lizenz es vorgibt. Zur Umsetzung der Systeme wurde ein kryptografischer Coprozessor - genannt Trusted Platform Module (TPM) - verwendet. Das TPM verfügt über weitreichende kryptografische Funktionalitäten und bietet eine hardwarebasierte IT-Sicherheit. Das Gesamtsystem wurde somit als zweiteiliges System, ein Auftraggeber-System und ein Auftragnehmer-System, umgesetzt.
Im theoretischen Teil der Arbeit wird zuerst auf DRM und anschließend auf TC eingegangen. Besonders einige wichtige Funktionalitäten des TPM, welche in das System integriert wurden, werden erläutert. Des Weiteren wird auch das abhörsichere Kommunikationsprotokoll Hypertext Transfer Protocol Secure (HTTPS) vorgestellt und erklärt. HTTPS wird verwendet für den geschützten Datenaustausch zwischen den beiden Teilsystemen. Wie das Gesamtsystem inklusive der beiden Teilsystemen umgesetzt wurde, sowie welche Features es bietet und wie es funktioniert wird auch in einem Kapitel präsentiert und erläutert. Abschließend werden die positiven und negativen Aspekte des Systems sowie eine auf eigener Meinung beruhende Schlussfolgerung präsentiert.
Seit der Einführung von modernen Smartphones steigt die Bildschirmdiagonale der mobilen Endgeräte Jahr für Jahr. Dies ist sowohl ein Fluch als auch ein Segen zugleich. Einerseits kann auf einer größeren Bildschirmfläche eine größere Anzahl von Inhalten grafisch dargestellt werden. Andererseits bedeutet dies aber auch, dass Interaktionen mit der gesamten verfügbaren Bildschirmfläche sich als immer schwieriger gestalten. Insbesondere bei der einhändigen Bedienung des Smartphones mit dem Daumen erfordern ungünstig platzierte klickbare Bedienelemente eine erhebliche Streckung des betreffenden Fingers oder sogar die Unterstützung durch die andere Hand. Dadurch kann die Präzision von Berührungsinteraktionen beeinträchtigt werden. Es stellt sich deshalb folgende Forschungsfrage: „Inwiefern hängt die Berührungspräzision von unvorteilhaft positionierten Bedienelementen in Smartphones ab und wie unterscheiden sich die verschiedenen Altersgruppen hinsichtlich Smartphone Interaktionen?“ Zur Beantwortung der Forschungsfrage wurde eine quantitative Studie im Design einer interaktiven Umfrage für Smartphones programmiert und an potentielle Teilnehmer:innen versandt. Dabei wurden die Teilnehmenden aufgefordert vordefinierte Haltegriffe einzuhalten. Es wurden die Berührungsinteraktionen und die Antworten der Teilnehmenden protokolliert und anschließend analysiert. Bei der Datenanalyse wurden die erhobenen Daten der Teilnehmenden in vier Altersklassen unterteilt und anschließend auf Differenzen bezüglich der Bedienpräzision untersucht. Die Darstellung und der Vergleich der Benutzer:inneninteraktionen durch OffsetVektoren ergab, dass die Versuchsgruppe der Senioren bei allen vordefinierten Haltegriffen eine signifikant geringere Präzision in Bezug auf die Berührungsgenauigkeit aufwies als die anderen Testgruppen. Darüber hinaus wurde festgestellt, dass Objekte, die weiter von der natürlichen Fingerposition entfernt sind, mit einer geringeren Präzision selektiert werden als Objekte, die in unmittelbarer Nähe zum bedienenden Finger positioniert sind. Dies zeigte sich sowohl bei der Bedienung mit dem Daumen als auch mit dem Zeigefinger und ist abhängig vom Winkel des bedienenden Fingers zum Smartphone.
Das Ziel dieser Arbeit ist die Analyse und Entwicklung einer Aktor-Bibliothek in Rust. Existierende Aktor-Bibliotheken in Rust verletzen grundlegende Regeln des Aktor-Modells, wodurch diese in nicht allen Anwendungsfällen verwendet werden können. Des Weiteren existiert keine strukturierte Arbeit zu der Entwicklung einer Aktor-Bibliothek in Rust. Die in dieser Arbeit entwickelte Bibliothek entspricht einerseits den Ideen des Aktor-Modells, andererseits wird die Erarbeitung und die durchlaufene Analyse der Bibliothek durch diese Arbeit dokumentiert. In einem ersten Schritt wird das Aktor-Modell und grundlegende Spracheigenschaften von Rust eingeführt, bevor das Design der entwickelten Aktor-Bibliothek vorgestellt und getroffene Design-Entscheidungen beschrieben und begründet werden. Darauffolgend werden die Implementationen der relevantesten Komponenten der Bibliothek beschrieben und anhand von Code-Beispielen erklärt. Des Weiteren wird das Design und die Implementation eines Test-Frameworks für Aktoren präsentiert, das das Testen von Aktoren erleichtern soll. Anhand der Implementation eines Praxisbeispiels wird die entwickelte Aktor-Bibliothek mit Java Akka durch Code-Vergleiche und Benchmarks verglichen. Hierbei wird gezeigt, dass die Verwendung der entwickelten Bibliothek mit einem vergleichbar gleich großen Code-Aufwand zu denselben und mitunter besseren Ergebnissen führen kann. Abschließend werden vorhandene Einschränkungen der entwickelten Bibliothek und deren Auswirkungen beschrieben.
Die tägliche Arbeit von Büroangestellten besteht oft aus Aufgaben, die sich in verschiedenen Zeitabständen wiederholen. Die Art unterscheidet sich abhängig vom Berufsfeld. Jedoch kostet deren Ausführung Zeit und den stört Arbeitsfluss. Könnten diese Aufgaben automatisiert werden, hätte dies den Vorteil, dass zeitliche Ressourcen freigesetzt würden und es dadurch zu einer Steigerung der Produktivität käme, da diese zusätzlichen Ressourcen anderweitig genutzt werden könnten. Daher ist es notwendig geeignete Aufgaben ausfindig zu machen und anhand der entsprechenden Technologien zu automatisieren.
Das Ziel der vorliegenden Arbeit ist es, die repetitiven Aufgaben in der definierten Zielgruppe zu eruieren und diese in weiterer Folge zu automatisieren. Dazu wird folgende Forschungs-frage gestellt: „Implementierung eines Chatbots anhand von der SAP zur Verfügung gestellter Technologien, um repetitive Aufgaben zu automatisieren.“
Die Umsetzung der Arbeit erfolgte im Rahmen der Tätigkeit bei einem SAP Beratungshaus. Dadurch beschränkt sich die Zielgruppe auf hausinterne SAP Berater*innen und SAP Tech-nologien. Ziel dieser Arbeit war es, einen Prototypen zu implementieren der es ermöglicht, dass die Berater*innen sich täglich wiederholende Aufgaben anhand eines Chatbots automa-tisiert ausführen können. Als Ergebnis dieses Greenfield Projektes sollte ein Proof-of-concept zur Verfügung gestellt werden, der die ausgewählten Anwendungsfälle abdeckt und eine Grundlage für die Erweiterung bildet. Die Hauptaufgabe liegt zum einen in der Erfassung der Anwendungsfälle und zum anderen im Aufbau von entsprechendem Know-How für die Um-setzung mit den ausgewählten Technologien.
Als Technologie, zur Interaktion mit dem Benutzer, wird für den Chatbot die SAP Conversati-onal AI verwendet. Zur Ausführung der Aufgaben erfolgt die Umsetzung anhand der SAP In-telligent Robot Process Automation im Zusammenspiel mit dem SAP GUI Scripting und an-wendungsfallspezifischen ABAP Programmen.
Die Evaluation der User Expirience erfolgt in Form des SUMI Fragebogens. Dieser untersucht die Dimensionen der Effizienz, Beinflussbarkeit, Hilfsbereitschaft, Kontrollierbarkeit und Er-lernbarkeit. Für die Durchführung der Untersuchung wurden den Anwender*innen Szenarien vorgelegt, welche alltägliche Situationen widerspiegeln. Basierend auf diesen Szenarien soll-ten die Aufgaben mit Hilfe des Chatbots gelöst werden. Das Ergebnis der Untersuchung zeigt, dass der Prototyp vor allem in den Bereichen der Effizienz und der Kontrollierbarkeit einiges an Verbesserungspotenzial offenbart hat. Jedoch wird der Nutzen der Anwendung von acht der zehn Testpersonen als wichtig bis sehr wichtig eingestuft.
Die Umsetzung legt die Möglichkeiten und das Potenzial der Technologien offen und stellt mit dem Prototypen eine solide Grundlage für zukünftige Entwicklungen zur Verfügung. Weiters werden durch die Evaluation die Schwächen und Stärken offengelegt und ein Konzept ver-wendet, welches auch für zukünftige Erweiterungen verwendet werden kann.
Krypto-Assets im Treasury
(2022)
Die Unternehmensplanung ist ein Pfeiler der Unternehmenssteuerung und dient zur Prognose der zukünftigen Geschäftsentwicklung sowie als Grundlage für Entscheidungen und Maßnahmen. Es wird auf diverse Charakteristiken der Unternehmensplanung eingegangen, wie die strategische und operative Planung. Die Planungsarten fokussieren sich auf Budget und Forecast. Zu diesen werden verschiedene bisherige Studien vorgestellt.
Die Forschungsfrage untersucht, wie sich in den vergangen zwei Jahren der Planungsprozess in der Bodenseeregion verändert hat und welche Treiber es für die Veränderungen gab. Die quantitative Untersuchung mittels einer Online-Umfrage erfolgt vor dem Hintergrund einer nicht nachlassenden Unsicherheit bedingt durch die Corona-Pandemie. Ein neuer Blickwinkel auf die Unternehmensplanung ist die Analyse von Unterschieden aufgrund der gewählten Unternehmensausrichtung Massenproduktion oder Auftragsfertigung. In den Ergebnissen zeigen sich keine signifikanten Unterschiede zwischen den beiden Geschäftsmodellen. Die Hälfte der befragten Unternehmen hat die Planung angepasst und z.B. die Planungsdauer verkürzt oder Szenarien verwendet.
Der Begriff der Nachhaltigkeit und der damit einhergehende Druck der Gesellschaft auf Unternehmen nimmt stetig zu. Unternehmen haben in den letzten Jahren damit begonnen, nachhaltige Ansätze im Rahmen ihrer wirtschaftlichen Tätigkeit zu integrieren und nach außen hin zu vertreten.
Das Ziel dieser Arbeit ist die Entwicklung eines sogenannten ESG-Leitfadens, welcher als zusätzliches Analysewerkzeug im Rahmen einer Unternehmensprüfung von Private-Equity-Gesellschaften eingesetzt werden kann. Der Leitfaden gilt als Leitlinie für die Einhaltung von ESG-Kriterien sowie den Bestimmungen der EU-Offenlegungsverordnung für nachhaltige Finanzprodukte.
Im Rahmen einer umfassenden Recherche wurden in einem ersten Schritt bestehende Due-Diligence-Prüfungen auf nachhaltige Aspekte untersucht. Anschließend wurden weitere Kriterien zur Erfüllung der ESG-Aspekte auf Basis einer entwickelten Methodik extrahiert und in den vorgesehenen Leitfaden implementiert. Weiters wurde sichergestellt, dass mit der Anwendung des Leitfadens die Grundzüge der EU-Offenlegungsverordnung eingehalten werden können.
In einem abschließend durchgeführten Anwendungstest wurde die Einsatzfähigkeit des Leitfadens bestätigt. Der Erfolg des ESG-Leitfadens, im Hinblick auf einen später darauf zurückzuführenden wirtschaftlichen Erfolg, kann lediglich in Kombination mit weiteren Prüfmethoden sichergestellt werden.
Controlling im Bauprojekt
(2022)
Berühmte Beispiele zeigen, dass Bauprojekte Schwierigkeiten haben, im geplanten Zeit- und Kostenrahmen realisiert zu werden. Diese spezielle Art der Projekte ist individuellen Heraus- forderungen und Risiken ausgesetzt. Dem Controlling kommt im Bauprojekt eine besondere Bedeutung zu, da es helfen kann, diesen Herausforderungen zu begegnen. Das Controlling kann das Projektmanagement dabei unterstützen, die gesetzten Ziele zu erreichen und die Transparenz im Bauprojekt zu erhöhen.
Mithilfe der vorliegenden Arbeit wird versucht, Erfolgsfaktoren für das Controlling in Baupro- jekten zu identifizieren. Um diese Forschungsfrage zu beantworten, wurden leitfadengestützte Interviews mit 15 Beschäftigten von im Bauprojekt beteiligten Berufsgruppen geführt (3 Archi- tekt/-innen, 3 Fachplaner/-innen, 3 Bauunternehmer/-innen sowie 6 Projektleiter/-innen). Die Interviews decken die folgenden Bereiche ab: Herausforderungen von Bauprojekten, Projekt- controlling, Risikomanagement und Erfolgsfaktoren.
In den 13 Jahren seit Einführung der IFRS für KMU in Deutschland belegen mehrere Studien, dass dieser Standard, entgegen der Erwartungen, keine Erfolge im Bereich der Anwenderzahlen erzielen konnte. Trotz der Entwicklung eines international angepassten und auf die Bedürfnisse der KMU fokussierten Rechnungslegungsstandards, blieb eine Etablierung innerhalb der KMU aus.
Ziel dieser Arbeit ist die Analyse, inwiefern eine doppelte Rechnungslegung nach IFRS und HGB wirtschaftliche und geschäftsanalytische Vorteile für die Anteilseigner deutscher KMU generiert. Aufbauend auf der beschriebenen Zielsetzung gilt es zu überprüfen, welche Anteilseigner deutscher KMU von dem doppelten Rechnungslegungsstandard adressiert werden und ferner, in welchem Ausmaß eine höhere Bedürfnisbefriedigung resultiert. Zunächst erfolgt im Rahmen einer umfassenden Literaturrecherche eine Untersuchung der Anteilseigner deutscher KMU und deren Anforderungen an ein Rechnungslegungssystem. Anschließend findet eine Überprüfung möglicher Vorteile statt, welche die Anwendung der IFRS für KMU befürworten würden. Darüber hinaus wurden zehn Experteninterviews durchgeführt mit der Intention, erworbene Erkenntnisse zu revidieren und überdies neue zu generieren. In einer abschließenden Inhaltsextraktion werden die gewonnen Annahmen artikuliert und anschließend interpretiert, um die zugrundeliegende Forschungsfrage zu beantworten.
Um die Nachhaltigkeitsziele der Vereinten Nationen in Österreich zu erreichen, wird ab Juli 2022 die CO2-Steuer erhoben. In diesem Kontext fehlen für den Standort Vorarlberg jedoch Aussagen über das Nachhaltigkeitscontrolling im Allgemeinen und die Auswirkungen der CO2-Steuer im Speziellen.
Zur Beantwortung der Forschungsfragen wurde eine Online-Umfrage konzipiert, durchgeführt und statistisch quantitativ ausgewertet. Das entwickelte Nachhaltigkeits-Scoring-System soll klären, inwieweit die teilnehmenden Unternehmen, ein Nachhaltigkeitscontrolling implementiert haben. Zudem wurde geprüft, ob die CO2-Steuer einen Zusammenhang mit dem ermittelten Nachhaltigkeitsscore hat.
Der Mittelwert des Nachhaltigkeitsscore betrug 56,23 %, wobei die Ergebnisse eine hohe Variabilität (10 % bis 100 %) aufwiesen. In einigen Unternehmen wird nur ein rudimentäres Nachhaltigkeitscontrolling durchgeführt, während andere bereits sehr aktiv sind. Die Wirkung der CO2-Steuer ist sehr unterschiedlich. Der Korrelationskoeffizient nach Pearson ergibt zwar 0,053 und ist damit positiv (r > 0), dieser ist aber sehr schwach. Die Signifikanz (1-seitig) liegt bei p = 0,352. Somit wurde nachgewiesen, dass kein eindeutiger Zusammenhang zwischen der CO2-Bepreisung und dem Nachhaltigkeitsscore in Vorarlberg besteht.
Grüne Anleihen gewinnen als Finanzierungsinstrument für Unternehmen zunehmend an Interesse. Ziel der Masterarbeit ist es, Unternehmen für die zukünftige Emission von grünen Anleihen Handlungsempfehlungen für die Ausgestaltung des Green Bond Frameworks (GBF) und der Anleihebedingungen zu bieten. Die theoretische Annäherung an die Begriffe grüne Finanzierung sowie grüne Anleihen bildet den Rahmen für die empirische Untersuchung und gibt Hinweise auf Erfolgsfaktoren für die Erzielung einer grünen Prämie (Greenium). Anschließend werden die GBFs sowie die Ausstattungsmerkmale der grünen Anleihen von ATX-, DAX- und SMI-Unternehmen inhaltsanalytisch ausgewertet. Die Analyse belegt, dass die Emittentinnen in den GBFs unterschiedlich strenge Kriterien für die Verwaltung und Verwendung der Emissionserlöse von grünen Anleihen festlegen. Auf Basis dieser ordinal skalierten Konditionen wird ein Qualitätsindex entwickelt, der einen einfachen Vergleich von GBFs ermöglicht und gemeinsam mit den aus der Theorie abgeleiteten Er-folgsfaktoren die Basis für einen Kriterienkatalog für die Ausgestaltung von GBFs und Anleihekonditionen von grünen Anleihen bildet.
Das Thema Nachhaltigkeit wurde in den letzten Jahren zu einer stetig wachsenden Herausforderung für Unternehmen, welche sich in einer Nachhaltigkeitsberichtserstattung (kurz: NBE) etablierte. Die vorliegende Untersuchung der Entwicklung der NBE der DAX-40-Unternehmen basiert auf einem Kategorienkatalog, eigens entwickelt aus den SDGs. Hiermit ist es möglich Umfang und Metadaten der Berichte in einem standardisierten und vergleichbaren Format festzuhalten. Diese Informationen wurden mithilfe deskriptiver Betrachtung und statistischer Methoden ausgewertet. Dadurch wird aufgezeigt, dass trotz der quantitativen Entwicklung der Berichte und vermehrter Behandlung nachhaltiger Themen, diese inhaltlich sehr stark, aufgrund einer fehlenden Standardisierung bzw. Verpflichtung für die Publikation von Nachhaltigkeitsthemen, variieren. Dies führt dazu, dass sowohl der Vergleich von Berichten zwischen Unternehmen als auch von unterschiedlichen Berichten desselben Unternehmens nur mit sehr hohem Aufwand möglich ist. Sinnvoll wäre die weiterführende Forschung im Bereich der NBE für Großunternehmen nach Inkrafttreten der Regelungen der CSRD und im Speziellen der Vergleich der Nachhaltigkeitsberichtserstattung vor und nach der Standardisierung.
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
Umgang mit negativen Effekten in Talentmanagement Programmen von Vorarlberger Großunternehmen
(2022)
Unternehmen müssen heute eine Vielzahl von Compliance-Anforderungen erfüllen. Bei Konsumgüterherstellern gewinnt hierbei die Erweiterte Herstellerverantwortung immer mehr an Bedeutung, deren unterschiedliche Gesetzgebungen in verschiedenen Ländern eingehalten werden müssen, um Bußgelder oder Vertriebsverbote zu verhindern. Unternehmen müssen folglich Wege finden, um die Compliance-Anforderungen möglichst ressourceneffizient und nachhaltig in Geschäftsprozessen zu implementieren.
Die vorliegende Masterarbeit beschäftigt sich daher mit der Frage, wie Unternehmen bei der sozialen und technischen Implementierung von Compliance-Anforderungen in Geschäftsprozessen vorgehen sollten, um eine möglichst hohe Akzeptanz und Umsetzungssicherheit zu gewährleisten. Basierend auf einer Literaturrecherche und der Modellierung praxisnaher Beispiele mit DMN werden schrittweise verschiedene Möglichkeiten zur Implementierung von Compliance-Anforderungen in Geschäftsprozessen, von der Anforderungsidentifikation bis zur Aufstellung von Business Rules, aufgezeigt.
Um Compliance-Anforderungen nachhaltig in Geschäftsprozessen zu implementieren, sollten die Anforderungen in den Geschäftsprozessen hinterlegt und deren Einhaltung regelmäßig durch Audits überprüft werden. Eine flexible und umsetzungssichere Möglichkeit bieten außerdem Business Rules. Auch spielen soziale Aspekte wie die Prozessorganisation, klare Zuordnungen von Rollen und Verantwortlichkeiten und Change-Management eine Rolle, da diese einen Einfluss auf die Akzeptanz durch die Prozessbeteiligten haben. Nur unter Beachtung der technischen und sozialen Aspekte können Compliance-Anforderungen in Geschäftsprozessen nachhaltig implementiert werden.
Dynamische Veränderungen, steigende Wettbewerbsintensität und ein hohes Maß an Komplexität charakterisieren das aktuelle Marktumfeld, in dem Unternehmen agieren müssen. Das Prozessmanagement muss diesen Veränderungen sowohl auf der strategischen, als auch auf der operativen Ebene begegnen. Eine Adaption des Konzepts der Agilität durch das Prozessmanagement wird daher zunehmend relevant, um die originären Ziele des Prozessmanagements zu erreichen. Allerdings gilt dies unter der Prämisse, dass die agilen Konzepte die Fähigkeiten des Prozessmanagements, auf Veränderungen nachhaltig zu reagieren, stärken. In diesem Zusammenhang sind in der Literatur Arbeiten und Texte zu unterschiedlichen Anwendungen der agilen Konzepte im Prozessmanagement zu finden. Unklar bleibt dabei sowohl, ob diese Texte auf einem gemeinsamen Verständnis des Konzepts basieren, als auch der Zusammenhang und die Vereinbarkeit mit traditionellen Methoden des Prozessmanagements. Unter diesen Voraussetzungen ist es das Ziel der vorliegenden Arbeit den Kontext aufzuzeigen, in welchem agile Konzepte im Prozessmanagement diskutiert werden, und wie diese mit Modellen des traditionellen Prozessmanagements zusammenhängen. Dazu werden ausgewählte Texte auf ihre Verwendung agiler Konzepte als Lösungsstrategien für das allgemeine Handlungsfeld der dynamischen Veränderungen der „VUCA Welt“ analysiert. Die identifizierten Konzepte werden in Bezug zu traditionellen Konzepten, wie dem BPM Life-cycle, kritisch hinterfragt. Die Erkenntnisse der Arbeit belegen, dass die aktuelle Marktsituation ein Umdenken im Prozessmanagement erfordert. Agile Konzepte können das Prozessmanagement dabei unterstützen und Alternativen zu traditionellen Vorgehensweisen aufzeigen. Dabei fehlen jedoch bisher standardisierte Anwendungskonzepte und ein einheitliches Verständnis des Begriffs der Agilität im Prozessmanagement. Ferner erfordern die ganzheitliche Betrachtungsweise und die originären Ziele des Prozessmanagements weiterhin den Einsatz traditionellerer Methoden als Fundament für die Einführung von agilen Konzepten im Prozessmanagement.
Das Supply Chain Management von Unternehmen war die letzten Jahre stark effizienzgetrieben und wird durch die Veränderung des Unternehmensumfelds in eine sogenannte VUCA-Welt zunehmend vor Herausforderungen gestellt. Um mit den Herausforderungen umgehen und die Lieferketten aufrechterhalten zu können, setzen immer mehr Unternehmen auf „Resilienz“ als neue strategische Ausrichtung. Da sowohl die internen als auch die externen Supply Chain Management Prozesse von der IT abhängig sind, ist das Business-IT-Alignment ein Bereich, der von einer strategischen Neuausrichtung des Supply Chain Managements stark betroffen ist. Das Ziel der Masterarbeit ist daher die Beantwortung der Fragestellung, wie sich eine strategische Neuausrichtung des Supply Chain Management von Effizienz hin zu mehr Resilienz auf das Business-IT-Alignment von Unternehmen auswirkt. Die Beantwortung der Fragestellung erfolgt anhand eines theoretisch-konzeptionellen Vorgehens. Die Ergebnisse der durchgeführten Recherchen und Methoden haben gezeigt, dass alle sechs Dimensionen des Business-IT-Alignments – Strategie, Prozesse, Infrastruktur, Plattformen, Applikation und Services – von einer strategischen Neuausrichtung betroffen sind. Moderne IT-Organisationen sind allerdings bereits auf einem guten Weg, die Anforderungen einer resilienten Strategieausrichtung zu unterstützen. Zudem hat die Bedeutung einer funktionierenden Zusammenarbeit zwischen den Fachabteilungen und der IT-Abteilung deutlich zugenommen, um im Störungsfall besser reagieren zu können.
Innerhalb des Managements haben sich im Laufe der Zeit Management-Disziplinen gebildet, die Unternehmen bei der systematischen Transformation unterstützen. Unter dem Einsatz von Vorgehensmodellen, Frameworks und abstrakten Darstellungsmethoden wird der Versuch unternommen, alle Aspekte eines Transformationsvorhaben zu berücksichtigen und den Anwender schrittweise durch die zunehmend komplexen und dynamischen Veränderungsprojekte zu führen. Begriffe wie das Business Engineering oder aber das Enterprise Architecture Management werden in diesem Zusammenhang oftmals benannt. Diese Management-Disziplinen überschneiden sich teilweise, bezogen auf die Vorgehensweise, die eingesetzten Methoden sowie den Inhalt und die Zielvorstellungen. Teilweise werden die Begrifflichkeiten synonym aufgegriffen, teilweise sind die Auffassungen über den Inhalt der Disziplinen unterschiedlich. In den Wirtschaftswissenschaften führen diese unterschiedlichen Auffassungen oftmals zu einer nicht unerheblichen Verwirrung. Begrifflichkeiten, die hierbei sehr ähnlich sind, können jedoch von unterschiedlicher Natur sein. Teilweise wird ein Umsturzversuch unternommen und Methoden sowie Best Practices werden für die eigenen Zwecke verwendet und als etwas „Neues“ veröffentlicht. Das Business Architecture Management, welches lange Zeit ausschließlich als Bestandteil des Enterprise Architecture Management angesehen wurde, hat sich mittlerweile innerhalb des Managements als eigene Management-Disziplin etabliert und versucht sich von anderen Management-Disziplinen abzugrenzen. Um mehr Klarheit über den Inhalt, die Charakteristika, die Merkmalsausprägungen und das Vorgehen zu schaffen, stellt diese Masterarbeit den Versuch dar, das Business Engineering mit dem Business Architecture Management im gemeinsamen Kontext zueinander zu untersuchen. Es werden die Fragen geklärt, welche Belastbaren Erkenntnisse der Vergleich beider Disziplinen ergibt, und ob eine sinnvolle Einordung beider
Disziplinen zueinander möglich ist.
Der Implementierungsprozess einer Unternehmensstrategie im Kontext der digitalen Transformation
(2022)
Die Digitalisierung in Unternehmen und somit der Vormarsch von Industrie 4.0 zählen zu den am häufigsten besprochenen Themenfeldern der letzten Jahre. Mit Industrie 4.0 fallen auch Schlagwörter wie ‚Internet of Things‘ oder ‚Big Data‘. Diese Technologien sind dafür zuständig, die Produktion zu vernetzen, Daten aufzubereiten und somit einen Wettbewerbsvorteil zu erlangen. Dem gegenüber steht die altbewährte ‚Lean Six Sigma‘-Methode, die große Beliebtheit in Unternehmen genießt und weltweit angewandt wird.
Das Ziel der vorliegenden Arbeit ist, die Auswirkungen des digitalen Wandels auf die Methode Lean Six Sigma zu untersuchen. Daraus resultiert auch die Forschungsfrage: Welche Chancen und Risiken birgt der digitale Wandel durch Industrie 4.0 für die Nutzung von Lean Six Sigma in Unternehmen?.
Um die Forschungsfrage beantworten zu können, wird in dieser Masterarbeit auf mehrere Fachquellen Bezug genommen, in denen der Zusammenhang zwischen Industrie 4.0 und Lean Six Sigma sowohl theoretisch als auch praktisch untersucht wird. Damit bewegt sich die Arbeit im theoretisch-konzeptionellen Bereich. Insgesamt 47 relevante Beiträge wurden dabei identifiziert.
Aus den Beiträgen ergeben sich vier Technologien, die den größten Einfluss auf Lean Six Sigma und den DMAIC-Zyklus (Define, Measure, Analyze, Improve, Control) haben. Diese Technologien sind Big Data, Data-Mining, Process-Mining und Simulation. Durch eine genaue Analyse der Literatur wird gezeigt, dass sich ein Zusammenspiel der beiden Methoden lohnt; es wird aber auch darauf hingewiesen, dass Risiken zu beachten sind.
Keywords: Lean Six Sigma, Industrie 4.0, Big Data, Data-Mining, Process-Mining, Simulation
In Anbetracht der zahlreichen Herausforderungen und Entwicklungen, denen mittlere und große Unternehmen ausgesetzt sind, besteht heute oft die Situation, dass zwischen der Geschäftsprozessarchitektur und IT-Architektur ein architektonisches Misalignment herrscht. Dieses architektonische Misalignment macht sich heute vor allem bei den voneinander getrennt verwalteten Prozesslandkarten und IT-Landkarten bemerkbar. Um jedoch bessere Erkenntnisse für erfolgsrelevante Managemententscheidungen bereitstellen zu können, bedarf es einer sogenannten Alignment-Architektur, die beide Teilarchitekturen zu einer Sichtweise und Informationsbasis integriert. Das übergeordnete Ziel der vorliegenden Masterarbeit liegt darin, Antworten auf die Forschungsfrage zu geben, wie die Geschäftsprozessarchitektur mit der IT-Architektur integriert bzw. beide Welten miteinander harmonisiert werden können, um insbesondere daraus bessere Erkenntnisse für Managemententscheidungen im Rahmen der durch das ökonomische Umfeld angetriebenen Unternehmensentwicklung zu gewinnen. Um dieses Ziel erreichen und die Forschungsfrage beantworten zu können, wurde eine theoretisch-konzeptionelle Forschungsarbeit im Rahmen eines erweiterten Literaturstudiums betrieben, indem mit Hilfe von bestehender Literatur theoretische Erklärungsmuster zum vorliegenden Thema gesammelt, analysiert und in ein eigenes sowie neues Erklärungsmuster eingeordnet wurden. Durch diese neue Einordung und die grundsätzliche Theoriearbeit charakterisiert sich die durchgeführte Forschungsarbeit zudem als eine gestaltungsorientierte und qualitative Forschung. Die Ergebnisse dieser Forschungsarbeit sind fünf meta-kognitive Ansätze zur Integration der Geschäftsprozessarchitektur und der IT-Architektur. Diese sind der ursachenbasierte, der erfolgsbasierte, der denkbasierte, der granular-iterative und der interarchitektonische Integrationsansatz. Die vorliegende Masterarbeit demonstriert anhand von fundierten theoretischen Erkenntnissen, wie eine Integration zu einer Alignment-Architektur zwischen der Geschäftsprozessarchitektur und IT-Architektur erfolgen und inwiefern daraus bessere Erkenntnisse für Managemententscheidungen gewonnen werden können. Schließlich zeigen diese Erkenntnisse auf, wie ein Architekturmanagement aus einer anderen Gesamtperspektive betrachtet werden kann, um eine erfolgreiche Architekturintegration zu ermöglichen.
In den vergangenen Jahren hat die digitale Transformation Abläufe, Handlungen und Entscheidungen von vielen Personen enorm verändert. In der Privatwirtschaft werden die Arbeits-weisen bereits überwiegend digital abgewickelt. Auch das Privatleben wird von immer mehr digitalen Formen geprägt. Im öffentlichen Sektor hingegen sind zwar Entwicklungen zu erkennen, der Wandel ist aber noch nicht so weit fortgeschritten wie sonst gesellschaftlich zu er-kennen ist. Das Ziel der vorliegenden Arbeit ist es, die Kernaussagen der digitalen Transformation in der öffentlichen Verwaltung aufzuzeigen und den Status Quo darzulegen. Dabei wurden die Herausforderungen genau analysiert und daraus resultierend entsprechende Handlungsempfehlungen definiert. Für die bessere Nachvollziehbarkeit wurde das Projekt „Digitales Bauverfahren“ des Vorarlberger Gemeindeverbands als Praxisbeispiel einbezogen. Daraus wurden weitere Handlungsempfehlungen entwickelt. Diese Ergebnisse können für zu-künftige Entwicklungen in der Verwaltung herangezogen werden. Sie verstehen sich auch als Beitrag für die Forschung, die damit weiter ausgeweitet wird.
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
Durch die zunehmende Homogenität von Produkten ist der technologische Fortschritt des reinen Produktes kein Alleinstellungsmerkmal mehr. Die Entwicklung datenbasierter Services bietet die Option trotzdem langfristige Wettbewerbsvorteile zu erzielen. Ein Großteil der KMU ist sich dabei in der Methodik unsicher. Es wird erörtert, wie KMU Geschäftsmodelle mit datenbasierten Services weiterentwickeln können. Mit einer qualitativen Untersuchung werden Praxiserfahrungen aufgezeigt und theoretische Thesen validiert.
Die Weiterentwicklung zu einem datenbasierten Geschäftsmodell ist ein umfangreicher Prozess, der mit Chancen und Herausforderungen einhergeht. Als Herausforderung hat sich die Wahl relevanter Methoden und die Anpassung an die jeweiligen Rahmenbedingungen herausgestellt. Referenzprozesse strukturieren das Vorgehen und sollen gleichzeitig Flexibilität gewährleisten. Während des Prozesses ist die Kundenorientierung und Akzeptanz sicherzustellen. Aufgabe der Geschäftsführung ist es, die Weiterentwicklung zu fördern, Mitarbeitende einzubinden und Ressourcen bereitzustellen. Insgesamt konnte gezeigt werden, dass die Weiterentwicklung zur Veränderung der gesamten Unternehmenslogik sowie einem Paradigmenwechsel vom reinen Produktverkauf zum umfassenden Serviceangebot führt.
Die hybride Form des Zusammenarbeitens in Unternehmen begleitet uns spätestens seit Beginn der Corona Pandemie. Aber auch Homeoffice, der Fachkräftemangel und die Digitalisierung führen dazu, dass die hybride Führung und die hybriden Teams ein immer wichtigerer Bestandteil der Zusammenarbeit in Unternehmen werden.
Ziel dieser Masterarbeit ist es Verhaltensweisen und Methoden zu identifizieren, wie die Führung und die Zusammenarbeit der hybriden Teams gestaltet werden können. Die Methoden und Verhaltensweisen werden mit den Führungsstilen von Goleman, dem Empowering Leadership und den transaktionalen und transformationalen Führungsstil in Verbindung gesetzt. Resultierend aus den Ergebnissen werden Handlungsempfehlungen für das Gestalten der Führung und der Zusammenarbeit entwickelt.
Beginnend mit einer umfassenden Literaturrecherche folgen Expert:innen Interviews mit Führungskräften und Expert:innen aus den Personalabteilungen, welche mittels einem teilstrukturierten Leitfaden geführt und anhand der Auswertungsmethode von Mühlfeld ausgewertet werden.
Der spürbare Fachkräftemangel sowie der demographischen Wandel lässt Unternehmen umdenken, um sich für jüngere Arbeitnehmer:innen attraktiv positionieren. Durch flexible Arbeitszeitmodelle erhöht sich auf der einen Seite die Attraktivität der Arbeitgeber:innen und auf der anderen Seite steigert es die Zufriedenheit der Arbeitnehmer:innen.
Aufgrund dessen untersucht diese Masterarbeit, welche Kompetenzen Mitarbeiter:innen benötigen, um nachhaltig zeitlich und örtlich flexibel arbeiten zu können. Bestehende Literatur zur (flexiblen) Arbeitszeit wird aufgezeigt, flexible Arbeitszeitmodelle erklärt sowie auf die New Work Thematik eingegangen. Diese Arbeit beinhaltet zudem eine qualitative Forschung, welche auf sieben Expert:inneninterviews mit HR-Expert:innen gestützt ist. Die Forschungsergebnisse zeigen, dass flexibles Arbeiten in Industrieunternehmen immer wichtiger und gefragter wird.
Zuletzt wird eine Übersicht gegeben, welche Kompetenzen für eine zeitliche und örtliche Flexibilisierung des Arbeitens benötigt werden. Diese Übersicht soll HR-Mitarbeiter:innen und Führungskräften unterstützen bestehende Mitarbeiter:innen zu qualifizieren und zukünftige Mitarbeiter:innen gezielt zu rekrutieren.
Schlagwörter: Arbeitszeit, Flexibilität, Arbeitszeitgestaltung, flexibles arbeiten, Kompetenzen
Im Zuge der beschleunigten, technologischen und organisatorischen Entwicklung, die den digitalen Wandel kennzeichnen, kommt dem Kompetenzmanagement eine besondere Be-deutung zu. Diese Masterarbeit widmet sich den Fragestellungen, welche Kompetenzen Mitarbeitende in Zeiten der Digitalen Transformation benötigen und wie diese gemessen werden können.
Anhand einer Literaturrecherche sowie der Durchführung von zwölf Einzelbefragungen von Expert:innen mit anschließender qualitativer Inhaltsanalyse, konnten im Verlauf der Diskussion die Forschungsfragen beantwortet werden. Die Ergebnisse zeigen, dass es bisher keine standardisierte Definierung der Kompetenzen für die Digitale Transformation gibt. Aber die Kompetenzen können gemessen werden, dies stellt jedoch ein schwieriges Vorhaben dar. Außerdem sollte bei der Kompetenzmessung der Mitarbeitenden auf wis-senschaftlich fundierte Messinstrumente zurückgegriffen werden. Die Kompetenzmessung ist eine Voraussetzung der Digitalen Transformation, um Kompetenzlücken frühzeitig zu erkennen und zu schließen. Ziel ist es, die Kompetenzentwicklung zu stärken.
Diese Arbeit richtet sich an Interessierte, die die Beweggründe der Kompetenzmessung der Mitarbeitenden als Voraussetzung für die Digitale Transformation verstehen möchten.
Schlagwörter: Kompetenzen, Digitale Transformation, Kompetenzmessung
Herkömmliche Lernprozesse sind in der dynamischen Arbeitswelt nicht mehr zielführend. Für transformatives Lernen werden neue Formen der Zusammenarbeit, neue Kompetenzen und neue Lernformate benötigt. Der selbstgesteuerte Lernansatz wird dabei der neuen Arbeitswelt gerecht. Jedoch werden die Potenziale des selbstgesteuerten Lernens in Unternehmen noch wenig genutzt. Im Rahmen der klassischen Personalentwicklung werden meist Kurskataloge und Schulungsprogramme erstellt, die den Inhalt sowie den zeitlichen und örtlichen Rahmen vorgeben. Somit ist es das Ziel dieser Arbeit, vorhandene Chancen und Herausforderungen des selbstgesteuerten Lernansatzes in Unternehmen zu identifizieren sowie Möglichkeiten zur Gestaltung von Rahmenbedingungen zur aktiven Förderung des selbstgesteuerten Lernens durch die Personalentwicklung aufzuzeigen. Dazu wird der Begriff des selbstgesteuerten Lernens abgegrenzt, Modelle werden aufgezeigt und personenabhängige Faktoren für das selbstgesteuerte Lernen werden betrachtet. In einem weiteren Schritt werden die Perspektive der Personalentwicklung und deren Rolle für das selbstgesteuerte Lernen dargelegt. Mithilfe der Durchführung zweier Case Studies wird ein tiefergehendes Verständnis zum selbstgesteuerten Lernen in Unternehmen erzeugt und die forschungsleitenden Fragen werden beantwortet. Die Ergebnisse dieser Arbeit resultieren in Implikationen für die Personalentwicklung, die die zu bearbeitenden Handlungsfelder für optimale Rahmenbedingungen für das selbstgesteuerte Lernen von Mitarbeitenden in Unternehmen abbilden.
Die Wertschöpfung eines Unternehmens wird durch die Mitarbeitenden beeinflusst. Die quantitative, wie auch die qualitative Verfügbarkeit von Personen am Arbeitsmarkt hat für Unternehmen einen hohen Stellenwert. Der Fachkräftemangel am Arbeitsmarkt führt zum sog. War for Talents. Daher ist es notwendig, sich mit den verfügbaren Personen auseinanderzusetzen und Strategien, aber auch Perspektiven zu erarbeiten, um die Kandidat:innen auf dem Arbeitsmarkt für sich zu gewinnen (vgl. Ullah & Witt, 2015, S. 8). Um den besten und zugleich passendsten Mitarbeiter bzw. die entsprechende Mitarbeiterin zu finden und langfristig ans Unternehmen zu binden, möchte es als attraktiver Arbeitgeber auf dem Arbeitsmarkt wahrgenommen werden (vgl. Bruhn et al., 2013, S. 63).
Das Ziel der Masterarbeit besteht darin, mit Hilfe von Interviews die Forschungsfrage zu beantworten und aus den Ergebnissen sowie im Abgleich mit weiteren bisherigen theoreti-schen und empirischen Erkenntnissen konkrete Handlungsempfehlungen für das Dienstleistungsunternehmen zu erstellen bzw. aufzuzeigen. Aufbauend auf einer theoretischen Analyse wird anhand von Experteninterviews ermittelt, welche Social-Media-Kanäle in der Praxis eingesetzt werden und welche Wirkungen diese mit sich bringen. Durch Handlungs-empfehlungen sollen Unternehmen entscheiden können, worauf beim Social-Media-Einsatz geachtet werden soll. Die Handlungsempfehlungen basieren auf durch die empirische Forschung gewonnenen Erkenntnissen von Expert:innen. Hierbei wurde darauf geachtet, dass die Betreffenden für das Unternehmen HR-Social-Media-Media betreuen und planen. In Zeiten der Digitalisierung und eines im Vollzug befindlichen Generationswechsels ist die Betreuung von Social-Media-Kanälen strategisch anzugehen.
In Zeiten der digitalen Transformation steht die moderne Personalentwicklung vor großen Herausforderungen. Neue Fähigkeiten werden verlangt, um sowohl der Digitalisierung von Geschäftsprozessen als auch dem Wandel hin zur digitalen Zusammenarbeit gerecht zu werden. Dabei ist es Unternehmen aufgrund des demografischen Wandels nicht möglich bereits affine Arbeitnehmer:innen, zumeist aus den Generationen Y und Z, im nötigen Maße aufzustocken. Die tendenziell alternde Belegschaft muss daher durch entsprechende Personalentwicklungsmaßnahmen leistungsfähig gehalten. Reverse Mentoring stellt eine dieser passenden Maßnahmen dar.
Im Rahmen dieser Arbeit wird ein Leitfaden zur Ein- und Durchführung von Reverse Mentoring-Programmen in Unternehmen entwickelt. Dieser dient zur Orientierung für Schlüsselpersonen der Personalentwicklung.
Um auf die Anforderungen der VUCA-Welt reagieren zu können, müssen Unternehmen sich zu anpassungsfähigeren Organismen entwickeln. Die agile Organisation bietet hier Lö-sungen, wobei HR in der agilen Transformation eine Schlüsselrolle einnimmt. Diese Arbeit beleuchtet Wirkungsfelder bzw. Rahmenbedingungen, die in Dienstleistungsunternehmen zur Befähigung der Agilität geschaffen werden müssen. Zudem werden die HR-Prozesse und -Instrumente auf notwendige Anpassungen analysiert, um Agilität zu fördern. Dabei wird ein Fokus auf die jeweiligen Wirkungen sowie Nebenwirkungen dieser Anpassungen gelegt. Basierend auf den Ergebnissen der theoretischen Ausarbeitungen sowie den durchgeführten Interviews mit Expertinnen und Experten werden Handlungsempfehlungen für HR-Verantwortliche zusammengetragen.
Es wird aufgezeigt, dass große Interdependenzen zwischen den einzelnen Wirkungsfeldern bestehen, die berücksichtigt und gezielt eingesetzt werden sollten. Zudem wird deutlich, dass die Anpassung der Prozesse Personalgewinnung, Personalentwicklung sowie insbesondere der Steuerungs- und Anreizsysteme wirkmächtige Hebel zur Förderung der Agilität darstellen.
Gesellschaftliche, wirtschaftliche und technologische Entwicklungen und Trends des organisationalen Kontextes haben nicht zu vernachlässigende Auswirkungen auf organisationales Lernen. Sie wirken sich auf Unternehmen und die Ausgestaltung ihrer Lernwelten aus. Die im Organisationsumfeld zu verzeichnenden, kontextuellen Entwicklungen führen zu einem möglichen Anpassungsbedarf organisationaler Lernwelten im Hinblick auf deren räumliche, zeitliche, inhaltliche und methodische Ausgestaltung. Aufgrund der steigenden Dynamik und Komplexität des Unternehmenskontextes wird ein Lernverständnis erforderlich, welches einen Umgang mit den Charakteristika der VUCA-Welt ermöglicht. Abseits des formalen Lernens erfolgt die Betrachtung neuer, informeller und kooperativer Lernformen, die für die Ausgestaltung organisationaler Lernwelten eine Rolle spielen können. Der New Learning Ansatz enthält Prinzipien, die als Orientierung für die Ausgestaltung organisationaler Lernwelten dienen können, um Organisationen in ihrer Dynamikrobustheit zu unterstützen. Im Rahmen der Forschungsarbeit wird aufgrund der Notwendigkeit der Anpassung an den Unternehmenskontext untersucht, wie organisationale Lernwelten gestaltet werden sollten, damit Unternehmen dynamikrobust bestehen können und durch erzeugten Marktdruck wettbewerbsfähig bleiben.
Smart HR - welchen Mehrwert erhalten Industrieunternehmen der Bodenseeregion durch HR Analytics?
(2022)
Das Thema HR Analytics bringt viele interessante Aspekte mit sich. Diese Aspekte werden in dieser Masterarbeit mit Hilfe einer gründlichen Literaturrecherche und zehn Expert:inneninterviews, detailliert beschrieben: angefangen von den zu erfüllenden technischen-organisatorischen Voraussetzungen bis hin zur rechtlichen-ethischen Betrachtung. Nicht zu vergessen sind die damit verbundenen Herausforderungen bei der Einführung und Nutzung von HR Ana- lytics, die es zu bewältigen gilt. Zudem werden verschieden Begriffe und Prozesse, die in Verbindung mit HR Analytics stehen näher erklärt und Zusammenhänge gebildet. Das Ziel dieser Masterarbeit ist es, aufzuzeigen, ob sich durch HR Analytics ein Mehrwert für Industrieunternehmen der Bodenseeregion ergibt und falls ja welcher. Schließlich werden Handlungsempfehlungen definiert, um Industrieunternehmen den Einstieg und die Hinführung zu HR Analytics zu erleichtern.
Berufliche Ausbildung ist seit jeher Tradition und Garant einer zielgerichteten, systematischen und wiederholbaren Vermittlung von Kompetenzen in kodifizierten Berufen. Das Modell der dualen Berufsausbildung dient dabei der Verzahnung von schulischen und betrieblichen Anteilen. Insbesondere im deutschsprachigen Raum haben sich hierbei vermehrt anspruchsvolle Bereiche herausgebildet. Besonderes Interesse besteht dabei in der Bodenseeregion, da hier nahezu alle deutschsprachigen Länder einen gemeinsamen Wirtschaftsraum bilden.
Im Fokus dieser Arbeit liegt die Untersuchung bestehender theoretischer Modelle zur Verbundausbildung hinsichtlich der Veränderung und Anpassung durch die betriebliche Praxis. Zu diesem Zweck wurden auf Basis einer theoretischen Untersuchung zunächst bestehende Modelle identifiziert und in Bezug auf Gestaltungsfaktoren untersucht. In einem zweiten Schritt wurden im Rahmen eines qualitativen Forschungsansatzes Leitfaden gestützte Experten:innen Interviews durchgeführt. Im Ergebnis konnte eine empfohlene Anpassung des Ausbildungsvereines als idealtypisches Modell entwickelt werden. Konkrete Handlungsempfehlungen bilden die Grundlage zum Vergleich bestehender Verbünde, ebenso wie zur Gründung neuer Verbundvorhaben.
Personalkennzahlen und der praktische Nutzen für das Human Ressource Management in Großbetrieben
(2022)
Qualitativ hochwertige und erfolgreiche Personalarbeit zeichnet sich dadurch aus, dass Mitar-beitende nicht als Kostenfaktor betrachtet werden, sondern als die wichtigste Ressource, die ein Unternehmen besitzt. Personalcontrolling mit Hilfe von Kennzahlen stellt dabei nicht wie oft vermutet eine Kontrolle dar, vielmehr ist es ein Gestalten und Steuern der Personalarbeit bezogen auf die Mitarbeitenden und der Prozesse des Human Ressource Management. Durch fundierte, begründet ausgewählte Personalkennzahlen wird das Bauchgefühl der Füh-rungskräfte mit Fakten belegt und bildet eine Unterstützung in der Entscheidungsfindung der Personalverantwortlichen. Dies gewinnt besonders in einer volatilen Marktsituation immer mehr an Bedeutung. Es scheint nach wie vor der Fall zu sein, dass diese Fachdisziplin des Unternehmenscontrollings bei den Vorarlberger Großbetrieben jedoch in den Kinderschuhen steckt. Ziel dieser Masterarbeit ist es daher, den Stellenwert von Personalkennzahlen und deren Nutzen für die Vorarlberger Großbetriebe aufzuzeigen. Dafür werden die theoretischen Grundlagen von Personalkennzahlen und deren Einteilung auf Basis der Kernprozesse des Personalressorts aufbereitet. Es werden auch Grenzen und weiterführende Möglichkeiten von Personalkennzahlen hinterfragt. Im Rahmen von neun Experteninterviews mit Personalver-antwortlichen konnte die Wichtigkeit einer aktiven Personalarbeit mit Hilfe von Kennzahlen, wie sie in der Literatur beschrieben wird, bestätigt werden. Als zentraler Nutzen von Perso-nalkennzahlen wird angesehen, dass sie Transparenz schaffen und den Blickwinkel der Ver-antwortlichen objektivieren und erweitern. Personalkennzahlen bieten somit eine Chance, die Mitarbeitenden möglichst zielgerichtet zu führen und Veränderungen rechtzeitig zu erkennen und falls möglich zu steuern.
Wärmepumpen werden als vielversprechende Lösung zur Dekarbonisierung des Gebäudesektors angesehen. Konventionelle Kältemittel, die als direkte Emissionen aus Wärmepumpensystemen austreten, stellen insbesondere vor dem Hintergrund steigender Installationszahlen ein relevantes Treibhauspotenzial dar. Natürliche Kältemittel verfügen über ein geringes Treibhauspotenzial und können daher zur Substitution konventioneller Kältemittel verwendet werden. Dennoch werden sie bislang nicht im großen Maßstab eingesetzt. Es bedarf weiterer Studien und Anreize, um den Einsatz natürlicher Kältemittel voranzubringen. In dieser Fallstudie erfolgt anhand eines Referenzprojektes ein simulativer Vergleich zweier reversibler Luft-Wasser-Wärmepumpen. Im Referenzfall wird das konventionelle Kältemittel R32 verwendet, als Alternative dient das natürliche Kältemittel R290. Die beiden Systeme werden hinsichtlich ihrer Effizienz, Klimawirksamkeit und Wirtschaftlichkeit verglichen. Die notwendigen Berechnungen basieren auf einem kalibrierten Simulationsmodell des Gebäudes und der Anlage. Die Ergebnisse zeigen einen energetischen und ökologischen Vorteil für R290. Im Heizbetrieb, der den Hauptteil des thermischen Energiebedarfs im Referenzprojekt ausmacht, erreicht die Wärmepumpe mit R290 eine um 9% höhere Jahresarbeitszahl. Im Gegensatz dazu erzielt die R32-Wärmepumpe eine um 12% höhere Jahresarbeitszahl im Kühlbetrieb. Durch die höhere Effizienz im Heizbetrieb und das niedrigere Treibhauspotenzial des Kältemittels liegen die Emissionen durch den Betrieb der R290-Wärmepumpe um 17% unter denen der R32-Wärmepumpe. Der wirtschaftliche Vergleich der beiden Systeme fällt aufgrund höherer Investitionskosten zum Nachteil der R290-Wärmepumpe aus.
Einbindung von schneebedingten Erzeugungsverlusten einer Photovoltaikanlage in die Gebäudesimulation
(2022)
Aufgrund des globalen Photovoltaikeinsatzes, der mit einer starken Skalenökonomie der Technologie einhergeht, müssen auch regionale Wetterphänomene in Erzeugungsprognosen aufgenommen werden. Ein solches Wetterphänomen ist der Schneefall, der in höheren Breitengraden und Höhenlagen einen zentralen Einfluss auf den Ertrag der Anlagen hat. Aktuelle Vorhersagen durch Simulationssoftware berücksichtigen den Einfluss einer potentiellen Schneebedeckung meist nicht ausreichend oder gar nicht und die Solarerträge in den Wintermonaten werden deutlich überschätzt. Verbesserungen der Vorhersagen sind für die wirtschaftliche und betriebliche Einschätzung von Neuinstallationen wichtig. Prognoseverbesserungen in der kalten Jahreszeit sind insbesondere für die Planung von Projekten, bei denen das Heizsystem von solaren Gewinnen abhängt, notwendig. Darüber hinaus ist es wünschenswert, dass eine Prognose der schneebedingten Verluste direkt in die Planung und Modellierung von Neubauten einfließen kann. Der folgende Text befasst sich daher mit einer beispielhaften Modellierung von schneebedingten Erzeugungsverlusten einer Photovoltaikanlage. Das Modell wird dabei in bestehende Gebäudesimulationssoftware integriert. Dazu werden historische sowie empirisch gewonnene meteorologische Daten verwendet. Die genutzten Methoden umfassen zum einen überwachtes, maschinelles Lernen für die Prognose der Schneehöhen auf der Anlage und zum anderen einen physikalischen Ansatz, der die solare Durchdringung der Schneedecke abbilden soll. Die Arbeit dient als Impuls für eine zukünftige, unkomplizierte Berücksichtigung von schneebedingten Erzeugungsverlusten bei Photovoltaikanlagen in Gebäudesimulationssoftware.
Grey-Box-Modellierung einer Lüftungsanlage mit realen Betriebsdaten für die Optimierung des Reglers
(2022)
Oszillationen in Heizungs-, Lüftungs- und Klimaanlagen können die Lebensdauer
von Ventilen und Aktuatoren deutlich reduzieren und die Effizienz solcher
Anlagen negativ beeinflussen. Die hier betrachtete Lüftungsanlage eines Verkaufsraums zeigt deutlich schwingendes Verhalten, das höchst wahrscheinlich auf die Regelung zurückzuführen ist. Um dieses Verhalten zu untersuchen und ein
Testfeld für die Auslegung und Optimierung von alternativen Regelkonzepten
zu erstellen, wird ein Grey-Box-Modell der Anlage erstellt. Grey-Box-Modelle
sind physikalische Modelle, deren Parameter mit Messdaten identifiziert werden.
Die Ermittlung der Parameter (Systemidentifikation) des Grey-Box-Modells
wird hier mittels nichtlinearer Optimierung an dem realen Betriebsdatensatz
durchgeführt. Dieser Betriebsdatensatz hat im Vergleich zu anderen Arbeiten
aufgrund geringer Ausstattung der Anlage mit Sensorik und geringer Auflösung
der Messdaten eine niedrige Qualität. Aus diesem Grund können die einzelnen
Komponenten der Anlage (eine Wärmerückgewinnung, ein Heizregister und ein
Kühlregister) nicht separat identifiziert werden, sondern nur im Gesamtsystem.
Hieraus ergibt sich die Frage, welche physikalische Formulierung der Komponenten
der Anlage am besten geeignet ist. Konkret stellt sich die Frage, welche
Komplexität, welche Anzahl der zu identifizierenden Parameter und welche Annahmen, die für die Formulierung getroffen werden sinnvoll sind. Dazu werden
für die einzelnen Komponenten der Anlage jeweils verschiedene Modelle aus der
Literatur implementiert und verglichen. Untersucht wird, ob ein Zusammenhang
zwischen der Anzahl an Parametern, die sich durch eine bestimmte Formulierung
des Modells ergibt und der erreichten Güte des Modells zu beobachten ist.
Die Güte des Modells wir dabei mittels der Wurzel des mittleren quadratischen
Fehlers zwischen Modellausgang und Datensatz bewertet.
Die Ergebnisse dieser Fallstudie zeigen, dass ein möglicher Zusammenhang
zwischen der Anzahl an Parametern des Grey-Box-Modells und der Güte des
Modells besteht. Insbesondere zeigt sich mit diesem Datensatz ein deutlicher
Abfall der Modellgüte bei mehr als zehn Parametern. Es kann des Weiteren
bestätigt werden, dass bei der vorliegenden niedrigen Datenqualität die getroffenen
Annahmen für die Modellierung von erheblicher Bedeutung sind. Durch
bestimmte Formulierungen kann zwar die Güte des Modells erhöht werden, jedoch
wir dadurch die Generalisationsfähigkeit des Modells höchst wahrscheinlich
reduziert.
Der Klimawandel und dessen Folgen sind weltweit spürbar. Zunehmende Extremwetterereignisse, das Abschmelzen von Eis und Gletscher sowie Überschwemmungen sind nur ein paar Beispiele der verheerenden Folgen. Grund für diese Auswirkungen sind die steigenden Treibhausgasemissionen, die großteils anthropogen, also durch den Menschen, verursacht wer-den. Die Bauindustrie ist für einen erheblichen Teil dieser Emissionen verantwortlich. Da die Emissionen über den gesamten Lebenszyklus eines Gebäudes hinweg anfallen, ist eine ganzheitliche Betrachtungsweise, wie sie die Ökobilanz vorsieht, anzustellen. Die Erstellung und Optimierung einer Ökobilanz für ein bestehendes Wohngebäude in Wolfurt, das von der Firma i+R Wohnbau GmbH im Jahr 2020 erbaut wurde, sind in dieser Masterarbeit zentral. Diese Masterarbeit zielt darauf ab, die Ökobilanz von Haus A der Wohnanlage in Wolfurt zu beurteilen und herauszufinden, welche Auswirkungen bzw. Reduktionen der CO2-Emissionen sich durch verschiedene Veränderungen am Gebäude erzielen lassen. Um die Ökobilanz in Bezug auf die CO2-Emissionen zu optimieren, werden verschiedene Gebäudekomponenten des Wohngebäudes getauscht. Die Ökobilanz wird mit dem Online-Tool „eco2soft“ erstellt. Das Tool ist speziell für die Erstellung von Ökobilanzen von Gebäuden geeignet und greift auf die Kennwerte von Baumaterialien und -komponenten aus der Datenbank „baubook“ zurück.
Mit dem Tausch von drei Gebäudekomponenten wird eine Reduktion des Treibhauspotentials des Gebäudes um 10,8% erzielt. Die Ergebnisse geben einen Einblick in das Potential der Ökobilanzierung im Gebäudesektor und zeigen klar, dass dadurch klimarelevante Verbesserungen erreicht werden können.
The ability of water to form cage-like structures and capture gas molecules under high pressure and low temperatures lead to problems in gas pipelines, especially in the mid-20th century. Also, there is an enormous amount of this so-called gas hydrate, captured in deep sea sediments or in terrestrial permafrost soils in which they reserve a possible degradable energy resource. On the other hand, they also maintain a high risk to enhance the ongoing climate change. At the same time, through their high energy storage ability, gas hydrates exhibit a high potential for industrial applications like alternative energy storage, carbon capture technologies or cleaning of exhaust emissions through separation and storage. But through their complex kinetics and ongoing dynamics through induction, synthesis and dissociation, the usage of hydrates is still far away from relevant industrial application. To make the potential capable there is still a huge amount of basic research necessary: Specially to shorten the induction time. An earlier thesis at FH-Vorarlberg exposed a potential method to shorten the induction time through a stirred reactor with an extremely high stirring rate without the usage of promotors. Therefore, this thesis is dedicated to expose the possible reasons for the witnessed effect through high stirring rates (>10000 rpm) at different pressure and tempera-ture conditions. The goal is to show possible physical effects to shorten the induction time of hy-drate synthesis. Therefore, a stirred reactor is used in which the possible effects should be investi-gated through the research with CO2 hydrates. In the research, there will be a closer look on phe-nomena like cavitation, increasing the phase interface through stirring or pressure fluctuations. The results of this thesis show an interesting connection between pressure, stirring rate and increased phase interface. Furthermore, there are also some exposed significances between stirring under spe-cial conditions which were exposed through statistical analyses. The results show that stirring could possibly be a new driving force when executed under the right conditions.
Ein weit verbreitetes Problem von Heizungs-, Lüftungs- und Kühlungsanlagen (HLK-Anlagen) ist das Schwingungsverhalten der Regelung. Dieses führt zu unerwünschten Taktzyklen und damit zu erhöhtem Energieverbrauch, sowie zu verringerter Lebensdauer der Anlagenkomponenten. Deshalb besteht ein wirtschaftliches und ökologisches Interesse an der Vermeidung des Schwingungsverhaltens. Zum Auffinden von Fehlern, sowie deren Ursachenanalyse, steht in der Literatur ein weites Spektrum an möglichen Werkzeugen zur Fehlerdetektion und -diagnose (FDD) zur Verfügung. Klassische FDD-Werkzeuge für den Bereich von HLK-Anlagen basieren auf umfangreichem Domänenwissen zur Bestimmung der Ursache-Wirkungs-Beziehung von Fehlertypen, wie zum Beispiel Schwingungen. Deren Anwendung im HLK-Bereich ist deshalb mit zeitaufwändigen Analysen durch Fachpersonal verbunden, was hohe Kosten zur Folge hat.
Im Zuge dieser Masterarbeit wird ein FDD-Werkzeug für den Fehlertyp Schwingungen entwickelt, welches den hohen Zeitaufwand der Ursachenanalyse des Schwingens von HLK-Anlagen verringert. Durch die Anwendung von Methoden des maschinellen Lernens werden potenzielle Ursachen lokalisiert. Außerdem wird gezeigt, wie mit Hilfe des maschinellen Lernens eine Abschätzung über Gegenmaßnahmen zur Behebung der Schwingungsursachen getroffen werden kann.
Die Herausforderung in der Umsetzung des FDD-Werkzeugs liegt dabei in der Auswahl der Methoden für die Implementierung des datenbasierten Modells. Zur Umsetzung werden Daten einer HLK-Anlage eines Gewerbebetriebs am Standort Vorarlberg verwendet. Das entwickelte FDD-Werkzeug dient der fortlaufenden Auswertung von Schwingungen und der Optimierung bestehender Anlagen. Schlussendlich soll damit der Erhöhung der Energieeffizienz und der Erhöhung der Lebensdauer der Komponenten von HLK-Anlagen beigetragen werden.
Industriebetriebe wie auch jene der Lebensmittelbranche sind zunehmend auf der Suche nach umweltfreundlichen Alternativen zur Wärmebereitstellung. Wo bislang Gas oder sogar Öl als Brennstoff verwendet wurde, gewinnen Wärmepumpen langsam an Akzeptanz. In dieser Arbeit wird gezeigt, wie eine Hochtemperaturwärmepumpe am Beispiel eines Schokoladeherstellers effizient betrieben werden kann. Zur Beschreibung der Ausgangslage wird zunächst der Wirkungsgrad des gegebenen Kesselhauseses berechnet, um anschließend die nötigen Lastprofile festzulegen. Nach der thermischen Modellierung möglicher Wärmequellen und einer gegebenen Wärmepumpe werden vier Jahressimulationen mit der Programmiersprache Python durchgeführt. Die Ergebnisse zeigen zum einen, mit welchen Wirkungsgraden und Verdichterleistungen zu rechnen ist und zum anderen wie sich diese auf die betrachteten Wärmequellen auswirken. Die abschließende Wirtschaftlichkeitsberechnung beinhaltet die Analyse monatlicher Betriebskosten unter Berücksichtigung der angekündigten CO2-Bepreisung, sowie die Amortisationsdauern der betrachteten Szenarien. Die Sensitivitätsanalyse der Amortisationsdauer zeigt außerdem, in welchem Verhältnis sich Strom- und Gaspreis entwickeln dürfen, damit eine Wärmepumpe dieser Art wirtschaftlich konkurrieren kann. Die Ergebnisse der Simulationen zeigen darüber hinaus welche Reduktion der CO2-Emissionen bezogen auf die Prozesswärmebereistellung möglich ist.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Diese Arbeit untersucht ARM und DSP Multiprozessor Ein-Chip-Systeme von Analog Devices hinsichtlich deren Programmierung, Fähigkeiten und Limitierungen. Durch die Integrierung von unterschiedlichen Hardware-Beschleunigern und Prozessoren in Ein-Chip-Systeme wird echte Nebenläufigkeit ermöglicht. Allerdings wird durch die Integrierung mehrerer Prozessoren die Komplexität der Programmierung von Ein-Chip-Systemen erhöht. Im Zuge dieser Arbeit wird untersucht, was bei der Programmierung von ARM und DSP Ein-Chip-Systemen hinsichtlich der heterogenen Prozessoren und Peripheriebausteinen beachtet werden muss. Dabei werden zuerst die Gründe für heterogenes Rechnen und die Trendwende zu Multiprozessorsystemen erläutert. Anschließend wird der aktuelle Stand der Technik erarbeitet und Programmiermodelle beschrieben, die das Programmieren von heterogenen Multiprozessorsystemen vereinfachen. Überdies werden zwei Fallbeispiele gewählt, mit denen bedeutsame Eigenheiten der Programmierung eines Ein-Chip-Systems erarbeitet werden. Im ersten Fallbeispiel werden anhand der UART-Peripherie Erkenntnisse des Ein-ChipSystems dargelegt, die praktische Auswirkungen auf die Verwendung des Systems haben. Im zweiten Fallbeispiel wird bei der Berechnung der schnellen Fourier Transformation das heterogene System auf dessen Rechenleistung untersucht. Dabei wird die Performanz des Hardware-Beschleunigers gegenüber unterschiedlichen Software-Bibliotheken verglichen und die verschiedenartigen Implementierungen analysiert. Zudem werden durch die Performanzanalyse die Einflüsse der Speicherhierachie des Ein-Chip-Systems ermittelt. Weiterhin wird gezeigt, dass sich die Bibliotheken von Analog Devices in deren Anwendung und Performanz voneinander unterscheiden. Außerdem wird veranschaulicht, dass je nach Anwendungsfall eine nicht für DSPs ausgelegte quelloffene Implementierung konkurrenzfähig zu den optimierten Bibliotheken von Analog Devices und dem Hardware-Beschleuniger ist. Zudem wird durch die Analyse der Mehraufwand ermittelt, der für die Konfiguration des Hardware-Beschleunigers aufgebracht werden muss. Dabei wird gezeigt, dass die Verwendung des Hardware-Beschleunigers erst ab einer bestimmten Anzahl an Abtastwerten rentabel ist. Abschließend werden die zwei Fallbeispiele für einen Konzeptnachweis verknüpft, der die Möglichkeiten des heterogenen Rechnens veranschaulicht.
Der Forschungsbericht gibt Antworten auf folgende Forschungsfrage: "Wie gestalten sich die interkulturellen Lebenswelten im Jahre 2021 im Orden der Steyler Missionare in St. Gabriel?" Das Erkenntnisinteresse dieser Studie ist, wie eine Ordensgemeinschaft in der heutigen Zeit funktioniert. Wie die veränderten gesellschaftlichen Werte, Normen und Regeln sich auswirken und wie sich ein normaler Alltag für ein Ordensmitglied gestaltet. Was es heißt zu missionieren und welche Erfahrungen Steyler Missionare hinsichtlich eines gelingenden interkulturellen Zusammenlebens haben, werden in dieser Studie beleuchtet. Die Recherchen zum Forschungsstand ergaben, dass es kaum Studien zum Ordensleben aus sozialwissenschaftlicher Sicht gibt. Die Lebenswelten der Ordensmitglieder werden mit Hilfe des lebensweltorientierten Ansatzes nach Thiersch und der Bedürfnistheorie nach Obrecht theoretisch fundiert. Das Sampling erfolgte mittels eines qualitativen Stichprobenplans. Die Datenerhebung erfolgte im Juli 2021. Die Auswertung erfolgte inhaltsanalytisch nach Mayring. Die Steyler Missionare können als weltoffene Ordensgemeinschaft betrachtet werden, deren Handeln wesentlich von den unterschiedlichen Missionserfahrungen geprägt ist. Ordensstrukturen unterscheiden sich deutlich von Strukturen der übrigen Gesellschaft. Diese Strukturen haben eine positive Wirkung auf die Ordensmitglieder. Diese, als auch eine sinnstiftende und erfüllende Tätigkeit sowie ein gewisses Maß an Freizeit ist anscheinend das Rezept für ein zufriedenes Leben. Die Mission hat für den Orden einen zentralen Stellenwert. Integration, Rassismus und Kolonialismus sind permanente Herausforderungen auch im Zusammenleben und werden aus verschiedenen Perspektiven diskutiert. In der Ordensgemeinschaft hat es viele Veränderungen gegeben, die Auswirkungen von diesen und der Umgang hiermit werden beschrieben sowie ein Blick in die Zukunft gewagt.