Refine
Document Type
- Master's Thesis (295)
- Report (14)
- Article (10)
- Conference Proceeding (3)
- Part of a Book (2)
- Other (2)
- Bachelor Thesis (1)
- Book (1)
- Doctoral Thesis (1)
Institute
- Soziales & Gesundheit (11)
- Forschungsgruppe Empirische Sozialwissenschaften (9)
- Forschungszentrum Business Informatics (7)
- Wirtschaft (6)
- Forschungszentrum Human Centred Technologies (3)
- Forschungszentrum Energie (2)
- Gestaltung (2)
- Hochschulservices (2)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (2)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (1)
Language
- German (329) (remove)
Has Fulltext
- yes (329) (remove)
Keywords
- Digitalisierung (11)
- Controlling (7)
- Digitale Transformation (7)
- Industrie 4.0 (5)
- Soziale Arbeit (5)
- Demand Side Management (4)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Kultur (4)
- Photovoltaik (4)
.Certeau
(2021)
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
Diese Arbeit hat die Untersuchung der Frage, wie Mitarbeiter:innen agile Führung inmitten der COVID-19-Krise wahrnehmen, zum Ziel. Die leitende Forschungsfrage lautet: „Wie erfolgreich ist agile Führung in Zeiten der COVID-19-Pandemie aus Mitarbeitendensicht?“ Hierbei wird die Führungssituation anhand der aktuellen Veränderungstreiber und der COVID-19-Pandemie kontextualisiert. Daraufhin wird nach einem Aufriss der Historie verschiedener Führungstheorien, die agile Führung näher betrachtet. Im Rahmen dieser Aufarbeitung wird agiles Führungsverhalten definiert, welches für die fortführende quantitative Empirie von zentraler Bedeutung ist. Anschließend werden die erlangten Daten aus einer durchgeführten Onlinebefragung ausgewertet und analysiert. Als Gegenstand der Untersuchung werden verschiedene Hypothesen im Hinblick auf Wirkungszusammenhänge zwischen agilem Führungsverhalten und der Zufriedenheit der Mitarbeitenden aufgestellt.
Dynamische Veränderungen, steigende Wettbewerbsintensität und ein hohes Maß an Komplexität charakterisieren das aktuelle Marktumfeld, in dem Unternehmen agieren müssen. Das Prozessmanagement muss diesen Veränderungen sowohl auf der strategischen, als auch auf der operativen Ebene begegnen. Eine Adaption des Konzepts der Agilität durch das Prozessmanagement wird daher zunehmend relevant, um die originären Ziele des Prozessmanagements zu erreichen. Allerdings gilt dies unter der Prämisse, dass die agilen Konzepte die Fähigkeiten des Prozessmanagements, auf Veränderungen nachhaltig zu reagieren, stärken. In diesem Zusammenhang sind in der Literatur Arbeiten und Texte zu unterschiedlichen Anwendungen der agilen Konzepte im Prozessmanagement zu finden. Unklar bleibt dabei sowohl, ob diese Texte auf einem gemeinsamen Verständnis des Konzepts basieren, als auch der Zusammenhang und die Vereinbarkeit mit traditionellen Methoden des Prozessmanagements. Unter diesen Voraussetzungen ist es das Ziel der vorliegenden Arbeit den Kontext aufzuzeigen, in welchem agile Konzepte im Prozessmanagement diskutiert werden, und wie diese mit Modellen des traditionellen Prozessmanagements zusammenhängen. Dazu werden ausgewählte Texte auf ihre Verwendung agiler Konzepte als Lösungsstrategien für das allgemeine Handlungsfeld der dynamischen Veränderungen der „VUCA Welt“ analysiert. Die identifizierten Konzepte werden in Bezug zu traditionellen Konzepten, wie dem BPM Life-cycle, kritisch hinterfragt. Die Erkenntnisse der Arbeit belegen, dass die aktuelle Marktsituation ein Umdenken im Prozessmanagement erfordert. Agile Konzepte können das Prozessmanagement dabei unterstützen und Alternativen zu traditionellen Vorgehensweisen aufzeigen. Dabei fehlen jedoch bisher standardisierte Anwendungskonzepte und ein einheitliches Verständnis des Begriffs der Agilität im Prozessmanagement. Ferner erfordern die ganzheitliche Betrachtungsweise und die originären Ziele des Prozessmanagements weiterhin den Einsatz traditionellerer Methoden als Fundament für die Einführung von agilen Konzepten im Prozessmanagement.
Akademisierung der Pflege
(2023)
Akademisierung der Pflege
Überführungsprozess der sekundären Pflegeausbildung in den tertiären Bildungssektor
Hintergrund:
In der Entwicklung von tertiären Bildungsangeboten in der Pflege gelten angloamerikanische und
nordeuropäische Länder als Vorreiter. Im Vergleich dazu setzte die Tertiärisierung der Pflegeausbildung im deutschsprachigen Raum erst verzögert ein. In Österreich waren, ähnlich der Schweiz und Deutschland, berufsqualifizierende Abschlüsse der Pflegeausbildung traditionell nicht im Hochschulbereich verankert, sondern Gesundheits- und Krankenpflege-Schulen übernahmen die berufsqualifizierende Pflegeausbildung auf sekundärem Bildungsniveau. Mit der Novellierung des Gesundheits- und Krankenpflegegesetztes im Jahr 2016 dekretierte Österreich im Rahmen einer umfassenden Ausbildungsreform und mit einer Übergangsfrist bis 2024 die vollständige Ausbildungsüberführung der sekundären Pflegeausbildung (gehobener Dienst) in den tertiären Hochschulsektor. Bei diesem Transformationsprozess treffen nicht nur unterschiedliche Institutionen, Organisationen und Ausbildungskulturen aufeinander, sondern auch verschiedene Systempartner*innen mit divergierenden Interessen, Motiven und Erwartungshaltungen, die zur Dynamik und Komplexität der Ausbildungsüberführung beitragen.
Ziel:
Vor dem theoretischen Hintergrund der Professionssoziologie konzentriert sich diese Dissertation auf das empirische Phänomen des Überführungsprozesses der sekundären Pflegeausbildung (gehobener Dienst) in den tertiären Bildungssektor am Beispiel der Entwicklung in Vorarlberg (Österreich). Für die theoretische Einbettung bzw. Interpretation des empirischen Praxisbeispiels dient der professionstheoretische Ansatz von Andrew Abbott, um die Ausbildungstransformation als komplexen und dynamischen Prozess mit unterschiedlichen Perspektiven, Interessen und Ansprüchen jener Systempartner*innen zu verstehen, die den Transformationsprozess verantworten und intensiv in die Umsetzung der Ausbildungsüberführung involviert sind. Durch die Anwendung von Abbotts Theorieansatz auf den Fall der Akademisierung der Pflegeausbildung leistet diese Studie einen Beitrag zur Fachliteratur der Professionalisierung der Pflege.
Methodik:
Zur Exploration dient eine qualitative Einzelfallstudie, die sich über fünf Jahre erstreckt und multiple Datenquellen (Datentriangulation) nutzt, um unterschiedliche Daten, Informationen und Perspektiven aus Einzel- und Gruppeninterviews, Dokumenten und Forschungstagebuch zusammenzuführen. Die Verwendung unterschiedlicher Datenquellen dient der Strategie, ein tiefes und fundiertes Verständnis des untersuchten Forschungsphänomens zu erlangen.
Ergebnis:
Als Beitrag zur bestehenden Fachliteratur erläutert diese Studie nicht nur den Prozessverlauf mit seinen Meilensteinen, Merkmalen und Ereignissen, sondern zeigt, dass unterschiedliche Interessen, Ansprüche und Hintergründe der verantwortlichen Systempartner*innen den Transformationsprozess und dessen Ausrichtung wesentlich beeinflussen. Divergierende Erwartungshaltungen, Motive und Ansprüche prägen nicht nur Verlauf und Ausrichtung der Überführung, sondern dienen auch als Erklärungsansatz, wie die beteiligten Systempartner*innen agieren, ihre Entscheidungen bzw. Handlungen im Transformationsprozess verantworten und somit zur Dynamik und Komplexität der Ausbildungsüberführung beitragen. Des Weiteren zeigt diese Studie in Anbetracht des österreichischen Bildungskontextes, dass sich der Transformationsprozess der Bachelor-Einführung nicht nur isoliert, sondern eingebettet als Teil einer übergreifenden Ausbildungsreform analysieren lässt, da die Tertiärisierung der Pflegeausbildung weitere Mechanismen und Reaktionen auslöst, die den Ausbildungs- und Berufssektor der Pflege gesamthaft und langfristig betreffen.
Schlussfolgerung:
Die Tertiärisierung der Pflegeausbildung stellt einen langfristigen Transformationsprozess dar, der nicht mit dem Berufseinstieg der Bachelor-Absolvent*innen oder mit einer gesetzlich definierten Überführungsfrist abgeschlossen ist. Die Ausbildungsüberführung sollte im Sinne Abbotts als komplexen und dynamischen Transformationsprozess verstanden werden, der auf verschiedenen Handlungsebenen und mit unterschiedlichen Interessen, Motiven und Ansprüchen stattfindet. Die Akademisierung der Pflegeausbildung erfordert daher einen langfristigen Zeithorizont in der Umsetzung und Prozessbegleitung, um den Systemwechsel auf mehreren Ebenen im Bildungs- und Berufssektor umzusetzen und einen Bewusstseinswandel bei den involvierten Stakeholdergruppen zu erreichen. Dadurch zeichnen sich weiterführende Forschungspotenziale ab.
Schlagwörter:
Akademisierung, Akademisierungsprozess, Transformation, Überführung, Prozess Pflege, Pflegeausbildung, Pflegestudium, Professionalisierung, Professionssoziologie, Professionstheorien, Andrew Abbott,
Einzelfallstudie, Datentriangulation
Die Entwicklungen im Bereich der Algorithmen, Machine Learning und Künstlicher Intelligenz sind rasant und halten Einzug in immer mehr Bereichen des alltäglichen Lebens, insbesondere in den Unternehmen. Aus diesem Grund wird in dieser Arbeit der Frage nachgegangen, inwiefern dieser Trend Auswirkungen auf die benötigten Management-Kompetenzen hat. Zur Beantwortung dieser Frage wird zuerst die klassische Management-Lehre mit ihren zentralen Begrifflichkeiten und bestehenden Kompetenzmodellen beleuchtet und basierend auf diesen Erkenntnissen ein Analyse-Hilfsmodell entwickelt. Im Anschluss werden die wichtigsten Grundlagen zum Themenkomplex Algorithmus, Machine Learning und Künstliche Intelligenz behandelt und auf dieser Basis benötigte Management-Kompetenzen abgeleitet. Zusätzlich werden aktuelle Studien großer Beratungsunternehmen und Fachartikel analysiert und ebenfalls Kompetenzen für den Einsatz von Machine Learning und Künstlicher Intelligenz identifiziert. Schliesslich wird eine Gap-Analyse durchgeführt mit dem Resultat, dass keine grundsätzlich neuen Kompetenzen notwendig sind, diese jedoch teils erweitert werden müssen und sich deren Wichtigkeit verschiebt.
Alter und Recruiting
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Problematik von Arbeitssuchenden 45 plus in Vorarlberg.
Zum Verständnis werden die Fachbegriffe Diversity, Generationen und Altersklassen, Altersdiskriminierung und Work Ability Index erläutert. Die Umfeld- und Einflussfaktoren beschäftigen sich mit den demografischen Grundlagen, den Potenzialen älterer Arbeitnehmender, dem alter(n)s-gerechten Arbeiten, möglicher Herausforderungen im Recruiting und Ideen anderer Länder.
Im Abschnitt Methodologie und Methodik werden Grundlagen der qualitativen Forschung behandelt. Die Datenerhebung erfolgte durch Experteninterviews. Die Details dazu finden sich in den Passagen Sampling, Auswahl der Interviewpartner, Interview-Leitfaden, Auswertungsmethode und Gütekriterien. Die Arbeit fokussiert sich auf Industrieunternehmen in Vorarlberg sowie das AMS, die AK und die Caritas.
Die Antworten aus den Leitfaden-Interviews führen schlussendlich zu potenziellen Reformansätzen, um die Situation für Arbeitnehmende 45 plus zu verbessern. Es ergeben sich mehrere Aspekte, welche wider das Einstellen von älteren Bewerbenden vorliegen.
Neben klassischen Kennzahlen, welche nach einem anerkannten Rechnungslegungsstandard (z.B. IFRS) berechnet werden, sind häufig auch sogenannte alternative Leistungskennzahlen in Geschäftsberichten oder Investor-Relations Unterlagen mit ausgewiesen. Diese erfreuen sich zunehmender Beliebtheit bei börsennotierten Unternehmen, da unternehmensspezifische Anpassungen vorgenommen werden können. Folglich wird eine unternehmensübergreifende Vergleichbarkeit erschwert, wodurch zunehmend Regulierungen durch entsprechende Institutionen erfolgen. In dieser Arbeit kann aufgezeigt werden, dass die gewünschte Transparenz länderübergreifend sehr stark abweicht und diese Regelungen noch nicht vollumfänglich durch die Unternehmen umgesetzt wurden.
Neben der tatsächlichen Verwendung von alternativen Leistungskennzahlen ist es von Interesse ob diese Kennzahlen zusätzlichen Erklärungsgehalt für den Unternehmenswert beinhalten. Dabei kann innerhalb der Arbeit aufgezeigt werden, dass das EBITDA, der Free Cash-Flow oder die Nettoverschuldung einen Mehrwert in der Analyse bieten können. Je nach länder-, regionalen-, branchen- oder währungsspezifischen Charakteristika haben unterschiedliche Kennzahlen einen signifikanten Einfluss auf den Unternehmenswert und können somit einen Mehrwert in der Analyse bieten.
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
Obwohl der Energiebedarf eines Krankenhauses nur ca. 1,2% der Gesamtkosten ausmacht, werden Energieeinsparmaßnahmen und -optimierungen immer wichtiger. Neben dem steigenden Umweltbewusstsein wird auch der Kostendruck in diesem Dienstleistungssektor immer größer. Trotz der in vielen Krankenhäusern vorhandenen und gut ausgebauten Gebäudeleittechnik fehlt oft das Detailwissen über den Energieverbrauch und deren Verursacher.
Aufgrund der großen Anzahl an verwendeten Geräten und Kleinverbrauchern sowie der vielen gebäudetechnischen Großgeräte ist eine genaue Ursachensuche kein leichtes Unterfangen. Auch im Krankenhaus Feldkirch sind eine Vielzahl automatischer Stromzähler installiert und im Energiemonitoringsystem aufgeschaltet. Dennoch ist aktuell nur der Gesamtstromverbrauch bekannt und verwertbar. Analysen auf Gebäude oder Anlagen-Ebene werden nur sehr wenige durchgeführt.
In dieser Arbeit soll untersucht werden, wie die wesentlichen Einflussfaktoren auf den Stromverbrauch mithilfe der installierten automatischen Zähler identifiziert werden können.
Um herauszufinden, mit welchen Methoden der größte Informationsgehalt gewonnen werden kann, kommen verschiedene Methoden wie Kennzahlenvergleiche, die Darstellung als Sankey-Diagramm, objektspezifische Vergleiche und statistische Analysen sowie Energieganganalysen zur Anwendung.
Die erarbeiteten Auswertungen und Darstellungen zeigen sehr schnell, dass ohne eine Vielzahl an Subzählern keine sinnvollen Analysen möglich sind. Die große Anzahl an angeschlossenen Verbrauchern und deren variables Regelverhalten lassen aus den Daten (z. B. Summenzählern) anhand zusammengefasster Stromverläufe kaum Schlüsse für einzelne Gebäude zu. Es zeigt sich auch, dass eine einzelne Darstellungsform für alle Auswertungen keinen Sinn macht. In dieser Arbeit werden mögliche Einbauorte für die Stromzähler vorgeschlagen sowie Verfahren für eine durchdachte Auswertung der Energieverbräuche und Umsetzung in die Praxis angeführt.
Das Management eines Unternehmens kann Mithilfe von bilanzpolitischen Maßnahmen bewusst Einfluss auf das Unternehmensergebnis nehmen. Durch Ausnutzung von Ermessenspielräumen bei der Bildung und Auflösung von Rückstellungen können stille Reserven gebildet und in späteren Perioden wieder aufgelöst werden.
In dieser Masterarbeit wurde untersucht ob die Unternehmen des M-DAX mithilfe der Big-Bath-Accounting-Methode oder der Income-Smoothing-Methode bewusst Einfluss auf das Jahresergebnis genommen haben. Hierfür wurden die Geschäftsberichte der Zielgruppe im Zeitraum von 2009 – 2018 empirisch untersucht. Um die Gültigkeit der Hypothesen zu überprüfen wurde das ausgewiesene EBIT mit einem bereinigten EBIT verglichen. Für die Ermittlung des bereinigten EBITs wurden die tatsächlichen Rückstellungsbildungen bzw. Rückstellungsauflösungen durch die über den Betrachtungszeitraum durchschnittlichen Rückstellungsbildung bzw. Rückstellungsauflösung ersetzt.
Die Ergebnisse der empirischen Untersuchung haben gezeigt, dass die Unternehmen der Zielgruppe Mithilfe von Rückstellungen großen Einfluss auf das EBIT nehmen können. Weiter konnte belegt werden, dass die meisten Unternehmen bei der Rückstellungsbewertung grundsätzlich vorsichtig agieren und höhere Beträge in Rückstellungen bilanzieren.
Die EU-Ziele umfassen die Steigerung des Anteils an erneuerbaren Energien an der Energieerzeugung um 32 % bis 2030. Doch erneuerbare Energien bringen neben den Vorteilen für den Umweltschutz auch Probleme mit sich. Ihre Schwankungen und Unkontrollierbarkeit stellen große Herausforderungen für das Stromnetz dar. Um die Netz- und damit die Versorgungssicherheit weiterhin gewährleisten zu können, braucht es Lösungen, die weder das Stromnetz, die Verbraucher noch die Energieversorger benachteiligen. Eine Möglichkeit wäre es, zusätzliche Kraftwerke und Infrastruktur (Redundanzen) aufzubauen, welche potenzielle Schwankungen ausgleichen können. Dieser Lösungsansatz gilt als traditioneller Weg, der hohe Kosten und negative Umweltauswirkungen mit sich bringt. Demand Side Management hat das Potenzial, effiziente Lösungen diesbezüglich anzubieten. Welche Vorteile der Einsatz von DSM auf Ebene der Haushaltsverbraucher für die Energieversorger in Bezug auf den Abruf von Ausgleichsenergie bringt, wird in dieser Arbeit behandelt. Dafür wurde ein agentenbasiertes Modell entwickelt, welches darauf abzielt, die Abweichung zwischen dem von dem Energieversorger prognostizierten Verbrauch und dem realen Verbrauch seiner Haushaltskunden zu verringern. Jeder Haushalt in dem vorgestellten Modell ist mit einer Flexibilität in Form eines Batteriespeichers ausgestattet. Die Speicherbewirtschaftung wird basierend auf einem Signal, welches der Energieversorger übermittelt, automatisch vom Haushalt für jeden Tag im Betrachtungszeitraum optimiert. Jede Abweichung zwischen der vom Energieversorger erstellten Prognose und der tatsächlich bezogenen Strommenge stellt dabei einen Bezug von Ausgleichsenergie dar. Untersucht werden die Auswirkungen der Anzahl an Haushalten sowie ein unterschiedlicher Wissensstand auf die Prognose. Weiters werden zwei unterschiedliche Arten von Demand Side Management analysiert. Einmal die Einflussnahme auf die Last der Haushalte durch ein Preissignal, einmal durch das Vorgeben eines Lastgangs. Um die Effektivität der beiden Varianten bestimmen zu können, wird auch die Menge an Ausgleichsenergie erhoben, welche ohne das Vorhandensein eines Batteriespeichers (also ohne Steuerung) anfallen würde. Das Modell wurde entwickelt, um einen Trend aufzuzeigen und keine spezifische Einsparungsmenge zu ermitteln, da dies von der jeweiligen Situation des Energieversorgers abhängt. Die Erstellung der unterschiedlichen Wissensstände basiert auf den österreichischen rechtlichen Vorgaben bezüglich der Datenübertragung bei intelligenten Messgeräten. Dabei ist einmal der Jahresverbrauch, einmal der Tagesverbrauch und einmal die stündlichen Verbrauchswerte bekannt. Das Preissignal ist negativ korreliert zu den am Day-Ahead-Markt gehandelten Mengen und das Lastsignal basiert auf einer der Prognosen des Energieversorgers, je nach Variante, die untersucht wird. Es zeigte sich, dass ein besserer Wissensstand nur teilweise eine Verbesserung der Prognose erzielte. Wobei die unterschiedlichen Wissensstände auf den realen Werten der nicht verwendeten Haushalte aus dem gleichen Datensatz aufbauen und so beispielsweise Wettereinflüsse in der Prognose schon bekannt waren, was die Prognose basierend auf Jahreswerten sehr genau machte. Der Aggregationseffekt von mehreren Haushalten beeinflusst die Prognose positiv. Auf einzelner Haushaltsebene schneiden die Vorhersagen deutlich schlechter ab als bei Prognosen des Gesamtverbrauchs aller Haushalte. Die Optimierung basierend auf dem Lastsignal generiert eine geringere Menge an Ausgleichsenergie als das Preissignal. Das liegt unter anderem daran, dass die Prognose nur die Verbräuche der Haushaltskunden berücksichtigt und nicht die Mengen, die am Markt gehandelt werden. In den untersuchten Varianten stellte sich heraus, dass am wenigsten Ausgleichsenergie über alle Haushalte erzeugt wird, wenn kein Demand Side Management betrieben wird, also keine Batteriespeicher vorhanden sind und die Prognose des Energieversorgers auf Stundenwerten basiert. Auf einzelner Haushaltsebene fällt bei der Optimierung mittels Lastsignal am wenigsten Ausgleichsenergie an.
Weltweit hatten 2017 840 Millionen Menschen keinen Zugang zu Strom. Hinzu kommen Millionen weitere Menschen, die an unzuverlässige Stromquellen angeschlossen sind. Für das Wirtschaftswachstum, die menschliche Entwicklung und ökologische Nachhaltigkeit ist eine zuverlässige Stromversorgung jedoch von großer Bedeutung.
Die vorliegende Arbeit beschäftigt sich daher mit der Konzeptionierung einer zuverlässigen Stromversorgung für eine Hochschule in Benin (Westafrika), die sich mit einem unzuverlässigen Netzanschluss konfrontiert sieht. Die Konzeptionierung erfolgt mithilfe der Software HOMER.
Aufgrund unsicherer Systembedingungen wurden mehrere Szenarien und der Einfluss verschiedener Systemparameter untersucht.
Die Ergebnisse zeigen, dass eine zuverlässige Stromversorgung durch die Implementierung eines Mini-Grids erreicht werden kann. Dabei hat die Ausgangssituation einen bedeutenden Einfluss auf die Systemauslegung. Für das untersuchte Szenario, in dem die Hochschule keine Stromkosten bezahlte, erwies sich ein PV/Dieselgenerator/Batterien-Mini-Grid als geeignet. Dabei entstehen Stromkosten von mindestens 0,013 USD pro kWh, was leicht erhöhte Kosten gegenüber den Bezugskosten bedeutet. Dieser Kostenzuwachs lässt sich aber mit der erhöhten Zuverlässigkeit rechtfertigen. Auch unter der Annahme, dass die offiziellen Bezugskosten bezahlt werden müssen, erwies sich ein PV/Dieselgenerator/Batterie-Mini-Grid als geeignet. Die Größe der PV-Anlage fällt in diesem Fall deutlich größer aus, was zu einem reduzierten Einsatz des Dieselgenerators führt. Ein untersuchtes Off-Grid erwies sich als unwirtschaftlich.
Somit enthält die Arbeit wichtige Erkenntnisse darüber, wie sich verschiedene Parameter auf ein geeignetes System auswirken. Zudem wurde ein Systemvorschlag ausgearbeitet. Diese Informationen sollen nicht nur den beteiligten Personen vor Ort helfen, sondern auch als Grundlage für zukünftige Projekte dienen.
Diese Arbeit beschäftigt sich mit der Analyse von Blasenindikatoren speziell des Immobilienbereichs, aber auch von Aktienmärkten. Im ersten Teil der Arbeit wird versucht, vergangene Blasenbildungen aufzuzeigen und zu erläutern, weshalb sich diese bilden konnten und schlussendlich geplatzt sind. Dies soll einem besseren Verständnis der restlichen Arbeit dienen. Weiters werden Indikatoren, die üblicherweise genutzt werden, um einen Markt einzuschätzen aufgezeigt und erläutert. Ebenfalls werden diese teilweise zueinander in Relation gestellt, um Zusammenhänge der einzelnen Indikatoren zu erkennen. Im Anschluss dieser Aufstellung werden bekannte, vom internationalen Markt anerkannte, Indikatoren aufgezeigt und erläutert und mit Beispielen unterlegt. Den Abschluss der Arbeit bildet das Einsetzen von ausgewählten Indikatoren für die Märkte Schweiz und Österreich und ein daraus abgeleitetes Fazit, ob eine Blase in diesen Ländern als Wahrscheinlich gilt oder nicht. Auch wird erläutert, dass ein einzelner Indikator wenig bis keine Aussagekraft zur Einschätzung einer Blasensituation hat, sondern Indikatorensets dazu benötigt werden.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
Mit dem entwickelten, gemischt-ganzzahligen linearen Optimierungsmodell wird ein grosser Beitrag geleistet, das die wichtigen Betriebskennzahlen einer PV-Speicheranlage, wie der Eigenverbrauchsanteil um bis zu 89 % und der Autarkiegrad um bis zu 73 % durch eine variable Grenzkostenoptimierung bei zusätzlicher E-Auto Berücksichtigung gesteigert werden können. Der Eigenverbrauch der PV-Erzeugung wird durch den stationären Batteriespeicher auf 71 % mehr als verdoppelt. Das beispielhafte Szenario hat einen Haushaltsverbrauch von 5 MWh pro Jahr und besteht aus einer 5 kWp PV-Anlage, mit einem 5 kWh Batteriespeicher und dem Tesla Model 3 mit einer Jahresfahrleistung von 16778 km.
Das erstellte Softwareprogramm kann einfach auf weitere verschiedene Anlagenkonstellationen und mit eigenen Eingangszeitreihenprofile der Haushaltslast, der PV-Erzeugung und der E-Auto Nutzung parametriert werden. Neben der Kennzahlenberechnung des konkreten Szenarios wird der jeweilige Einfluss einer Anlagenkomponente, wie PV, Batterie und Last bei deren Variation, auf die Kennzahlen grafisch gut sichtbar dargestellt.
Die Ergebnisse bestätigen bisherige Arbeiten, dass die Dimensionierung der Anlagenkomponenten nach der einfachen Faust-Formel 1:1:1 erfolgen soll: Der stationäre Batteriespeicher und die PV-Anlage sollen gleich gross sein und ihre Grösse in kWh soll der Jahreslast in MWh entsprechen. Damit wird nahezu schon ein gutes Optimum von Eigenverbrauch, Eigenverbrauchsanteil und Autarkiegrad bei minimalen Energiekosten gefunden und die Netzbelastung durch Bezug und Einspeisung kann reduziert werden.
Die vorliegende Masterarbeit befasst sich mit der Analyse von Unterstützungsverfahren, um mithilfe eines Roboters einen Fügeprozess kombiniert mit einer Fügeachse durchführen zu können. Durch das Führen der Bauteile durch den Roboter während des Fügevorgangs entsteht eine Überbestimmung zwischen Fügeachse und Roboter. Die auftretenden Kräfte und Momente, die dadurch auf den Roboter wirken, sind zu untersuchen. Mithilfe der Analysen soll ermittelt werden, ob der Roboter während der Fügeprozesse innerhalb seiner Leistungsgrenzen betrieben wird und ob eine ausreichend genaue Kompensation der Kräfte möglich ist. Ein dazu erstellter Versuchsaufbau soll diese Analysen ermöglichen. Nach dem Erarbeiten von Grundlagen der Roboterregelung wird speziell auf die, bei diesem Versuchsaufbau zu Verfügung stehenden, Unterstützungsverfahren des Roboters eingegangen. Die Eigenschaften und Anwendung des jeweiligen Verfahrens werden beleuchtet und dargestellt. Dem folgt eine Übersicht der geplanten Fügeversuche, um das Verhalten des Roboters während der Fügeprozesse zu analysieren. Die Auswertung einer durchgeführten Messsystemanalyse und der Fügeversuche stellt die Verwendbarkeit und die erreichbaren Toleranzen sowie die Stärken und Schwächen der Unterstützungsverfahren dar.
In einer Zeit, in der Daten eine immer größere Rolle spielen, nehmen Schlagwörter wie Big Data, Data Analytics oder Data Mining auch in Organisationen eine große Rolle ein. Daten werden zum neuen digitalen Öl, das durch alle Systeme der Unternehmen und externe Quellen fließt. Richtig eingesetzt, unterstützen sie bei der Strategiefindung, bei der Umsetzung neuer Geschäftsmodelle, beim Gestalten neuer Abläufe und Prozesse und insbesondere bei der Entscheidungsfindung.
Die vorliegende Arbeit beschäftigt sich mit den Themen Daten und Unternehmenssystemen. Von diesen Themen ausgehend wird versucht, eine Brücke zu den Themenfeldern Prozessmanagement und Prozessinnovation zu schlagen. Die Arbeit soll aufzeigen, welche strategischen und operativen Ansätze die Nutzung von Daten als Treiber für Prozessinnovation zulassen. Aufbauend auf einer theoretischen Einordnung der vier skizzierten Gebiete, bildet ein empirischer Teil das Herzstück dieser Arbeit. In diesem Teil werden Aussagen von ExpertInnen darüber zusammengetragen, welche Ansätze zur datengetriebenen Prozessinnovation sie in ihren jeweiligen Unternehmen anwenden. Diese Aufarbeitung ist gegliedert in die drei Ebenen Rahmenbedingungen, Faktoren und Ansätze. Abgeschlossen wird diese Arbeit durch konkrete Handlungsempfehlungen für Unternehmen.
Heutzutage gewinnen visuelle und akustische Eingabemethoden für die Interaktion mit Anwendungen oder Komponenten zunehmend an Bedeutung und sollen die klassische Maus oder Tastatur gegebenenfalls ersetzen. Abgesehen von der Sprachsteuerung benötigen jedoch auch die neuen Methoden für das Absetzen eines Befehls größtenteils die Hände. Es bleibt jedoch die Frage bestehen was passiert, wenn keine freie Hand zur Verfügung steht und ein Sprachbefehl aufgrund des Lärmpegels nicht erkannt wird. Diese Arbeit beschreibt das Konzept einer alternativen Anwendungssteuerung mit Fußgesten und verwendet dafür die Einlegesohlen ‚stapp one‘, die mit Druck- und Beschleunigungssensoren ausgestattet sind. Aufgrund der Durchführung einer Umfrage mit Mehrheitsvotum lassen sich verschiedene Fußgesten für entsprechende Aktionen der gesteuerten Komponenten definieren. Diese wirken auf die Anwender und Anwenderinnen intuitiv und weisen folglich eine hohe Akzeptanz bei der Benutzung auf. Mit einer Verbindungskombination aus Bluetooth und ‚User-Datagram-Protocol‘ (UDP) werden die Sensordaten von der Sohle, über ein Smartphone, zu einem Computer weitergeleitet, um eine Gestenerkennung mit Machine-Learning umzusetzen. Über ein Datenfluss-System werden die empfangenen Werte der Sensoren aufbereitet und eine Feature-Extraktion durchgeführt, sodass diese für eine Klassifizierung von Fußgesten dienen. Basierend auf ‚Deeplearning4j‘ wird ein Algorithmus mit ‚Long Short-Term Memory‘ implementiert und zusammen mit dem Datenfluss-System als ‚Java‘-Bibliothek zur Verfügung gestellt. Zusätzlich werden Datensätze von Fußgesten einer Person erstellt und zum Training sowie zur Evaluierung der Gestenerkennung verwendet. In einer letzten Umfrage wird die implementierte Bibliothek in zwei Applikationen integriert. Zudem wird die Funktion des definierten ‚Gesten-Aktionen-Mapping‘ in drei Anwendungsszenarien analysiert. Die Forschungsergebnisse zeigen eine zuverlässige Klassifizierung der Fußgesten mit einer Genauigkeit von 82 %, wobei unter realen Bedingungen auch Werte zwischen 85 % und 100 % erreicht werden.
Arbeitspaket 3: Ausschöpfung des Innovationspotentials von smarten Technologien - FH Vorarlberg
(2022)
Athena
(2021)
Im postdigitalen Zeitalter, in dem wir uns befinden, ist ein gesellschaftlicher Wandel erkennbar. Die Arbeitswelt verlangt zunehmend nach Flexibilität und dynamischen Prozessen. Es herrscht ein allgemeines Selbstverständnis bezüglich der Einschätzung, dass digitale Technologien in unserem Alltag als fester Bestandteil integriert sind.
Als Gegenpol zu den digitalen Netzwerken herrscht ein starkes Bedürfnis nach analogen Erlebnissen. Öffentliche Arenen eignen sich seit jeher als Orte der Begegnung. Verantwortliche in Städten und Betreiber von Gewerbeparks beschäftigen sich mit der Frage, wie sie Areale aufwerten und den Nutzern ein attraktives Angebot schaffen können.
Die vorliegende Arbeit beschäftigt sich mit den Bedürfnissen der Nutzer (Stadtbewohner/-besucher) in Bezug auf städtische Möbelkonzepte. Leitmotiv ist, durch unterschiedliche Methoden einen besseren Einblick in urbane Räume und das Spannungsfeld zwischen Mensch, Ort und Möbel zu bekommen. Ein besonderer Schwerpunkt liegt auf der fotodokumentarischen Studie von vorhandenen Möbelkonzepten. Ziel ist es, Arealverantwortlichen sowie Gestaltern Möglichkeiten für zukünftige urbane Möbelkonzepte aufzuzeigen.
In vielen Ländern gibt es eine stetige Verschiebung von Bargeld zu Kartenzahlung. Dieser Umstand könnte darauf hinweisen, dass Bargeld irgendwann verschwinden wird. Der Bargeldumlauf ist in den meisten Ländern, einschließlich Österreich, jedoch seit Jahrzehnten stabil oder stark gestiegen. Im Gegensatz dazu gilt Schweden als eine Vorreiternation auf dem Weg in die bargeldlose Gesellschaft. In der vorliegenden Masterthesis werden die Unterschiede zwischen Österreich und Schweden erläutert, indem die Zahlungsmärkte als auch das Potenzial der Länder aufgezeigt werden. Weiters werden die möglichen Einflüsse wie Bargeldversorgung, Technologie und Infrastruktur, Regulierungen und das unterschiedliche Zahlungsverhalten und die Mentalität der Konsumenten untersucht. Daraus werden dann Schlussfolgerungen gezogen, wohin sich die verschiedenen Zahlungsmärkte in Zukunft bewegen werden. Die Daten basieren auf Sekundärdaten, die aus Büchern, Zeitschriften, verschiedenen Forschungsarbeiten und Onlinequellen stammen. Egal, welchen Standpunkt Sie in Bezug auf die Zukunft des Bargeldes einnehmen, soll diese Masterthesis einen besseren Einblick über die Transformation unserer Volkswirtschaft und den Mechanismus von unbaren Zahlungen geben.
Diese Studie zielt darauf ab, Unterschiede in der User Experience von 3D-Karten Anwendungen im Nutzungskontext Skitourenplanung festzustellen, um Erkenntnisse über die Vor- und Nachteile zu gewinnen. Es findet ein Vergleich zwischen der Touchscreen Applikation „Fatmap“1 (FATMAP | Discover a world of adventure..., o. J.) und einem auf der Basis mobiler Augmented Reality entwickelten Prototypen statt.
Um die Usability zu untersuchen, wurden Evaluationen zur Messung der Faktoren Effektivität, Effizienz und Zufriedenheit durchgeführt. Auf Grundlage der Ergebnisse wurde zudem ein Vorbereitungstool für eine alpine Skitour entwickelt. Für den Versuchsaufbau wurde zu Beginn die prototypische mobile AR-Applikation dem UX-Design Prozess folgend aufgesetzt. In dieser Phase fand eine tiefgreifende Recherche zu den Themen Orientierung, Interaktion und Skitouren statt, woraus die Anforderungen und das Konzept für den Prototyp abgeleitet wurden. Dieser wurde mit Hilfe einer Online-Plattform umgesetzt und auf einem iPad evaluiert. Das Testdesign beinhaltet Fragebögen zur wahrgenommenen User Experience, einen Usability Test zur Messung der Effizienz und einen Usability Test zur Messung der Effektivität. Insgesamt wurden 17 Proband: innen mit beiden Applikationen evaluiert, die gemessenen Faktoren ausgewertet und interpretiert. Die Ergebnisse zeigen, dass es Unterschiede bei der Effizienz und der Zufriedenheit der Anwendungen gibt, aber auch die Effektivität wird kontrovers diskutiert. Die Erkenntnisse bestätigen Vorteile bei der Interaktion mit dem AR-Prototypen, lassen jedoch offen, ob sich Nachteile der Effektivität durch technische Verbesserungen eliminieren lassen. In jedem Fall wurde die AR-Anwendung als spannender und origineller wahrgenommen, was zu einer höheren Motivation führt.
In dieser Arbeit werden verschiedene Augmented Reality Tools analysiert und getestet, um eine Brandmeldezentrale zu erkennen und auf dieser virtuelle Inhalte darzustellen. Die Erkennung der Zentrale wird mittels Bilderkennung und Objekterkennung von Vuforia, Wikitude und AR Foundation durchgeführt. Zusätzlich wird in dieser Arbeit eine AR Applikation implementiert, welche sowohl mit iOS und Android Geräten als auch für die Microsoft HoloLens 2 kompatibel ist. Die Anwendung soll zeigen, an welcher Stelle in der Brandmeldezentrale ein Fehler vorliegt und wie dieser behoben werden kann. Für die Fehlerbehandlung kommt eine “Schritt für Schritt Anleitung“ zum Einsatz, bei welcher Teile der Zentrale augmentiert hervorgehoben werden, wenn diese für die Behebung des Problems relevant sind. Es werden diverse Geräte bezüglich Interaktion und deren Stärken bzw. Schwächen evaluiert. Für die Analyse haben Testpersonen die Anwendung sowohl auf der HoloLens 2 als auch auf einem iPad Pro getestet. Die Ergebnisse zeigen, dass einige Personen Schwierigkeiten mit der Gestensteuerung auf der HoloLens 2 haben. Die Ausführung der Pinch Geste, welche durch das zusammendrücken von Daumen und Zeigefinger ausgeführt wird, wurde oft zu ungenau durchgeführt. Der Vergleich der beiden Geräte hat ergeben, dass Interaktionen auf dem iPad schneller ausgeführt werden können als auf der HoloLens. Außerdem wurde überprüft, wie sich unterschiedliche Lichtverhältnisse auf die Anwendung auswirken. Dabei stellte sich heraus, dass die Hologramme bei der HoloLens bei einer stark beleuchteten Umgebung nicht gut sichtbar sind. Die Objekterkennung der Brandmeldezentrale weist einige Fehler bei der Erkennung der Brandmeldezentrale auf. Diese sind darauf zurückzuführen, dass die Brandmeldezentrale für die verwendeten Augmented Reality Tools zu wenig Merkmale aufweist.
In Anbetracht einer immer größer werdenden Diskussion über den Klimaschutz und einer anvisierten Energiewende finden umweltschonende Energietechniken immer mehr an Aufmerksamkeit in der Gesellschaft. Die Kombination von Stromerzeugung und gleichzeitiger Wärmeproduktion macht die Biomassevergasung zu einem interessanten Untersuchungsobjekt. Die anfallenden Biokohlestäube versprechen in Zukunft von großem Nutzen zu sein, um zum Beispiel Kohlenstoff in der Erde abzuspeichern. Die sogenannten ”Terra Preta“ Böden steigerten merklich das Interesse am Einsatz von Kohle in der Landwirtschaft, um in Böden verbessernde Eigenschaften zu erzielen. In dieser Masterarbeit wird die Auswirkung der Biokohle einer Schwebefestbettvergaseranlage auf das Pflanzenwachstum, die verfügbaren Nährstoffe und auf die Anzahl der Mikroorganismen untersucht. Hierfür wurden zwei verschiedene Versuchspflanzen herangezogen. Es wurde auf Hafer und Rübse zurückgegriffen. Der Versuch fand unter Laborbedingungen in einem Wachstumsschrank statt. Es wurden Böden mit unterschiedlichen Kohlegehalten hergestellt (0 %, 2,5 % 5 %, 12,5 %). Des Weiteren wurde auf zwei verschiedene Arten eine oberflächenaktivierte Kohle hergestellt. Einmal erfolgte dies durch Ko-Kompostierung der Biokohle in Grünschnitt und das zweite Mal durch die Beladungmit künstlichem Dünger. Die chemische Aktivierung erfolgte über einen Rührversuch. Dabei wurde die Kohle über einen längeren Zeitraum mit dem künstlichen Dünger in einem Gefäß gerührt.
Die Versuchsdauer erstreckte sich jeweils über einen Zeitraum von ca. 3 Wochen. Am Ende der Versuche wurden die Pflanzen geerntet. Anschließend wurde ihre Wuchshöhe und deren Durchmesser erfasst und statistisch ausgewertet. Die Nährstoffe im Boden wurden mittels Macherey Nagel Schnelltest ermittelt. Hierfür wurden Proben sowohl am Anfang als auch am Ende des Experiments genommen und anschließend aufbereitet und ebenfalls statistisch ausgewertet. Es konnte durch den Zusatz von Kohle einen signifikant höherer Mittelwert des Pflanzenwachstums erzielt werden. Und auch bei den Nährstoffen konnten Unterschiede zum Referenzboden nachgewiesen werden. Im Gegensatz dazu konnte bei den Mikroorganismen statistisch kein Unterschied festgestellt werden. Leider traten während des Versuches vermehrt Probleme auf, die aber entsprechend in der Arbeit adressiert und dokumentiert werden. Aus diesem Grund muss darauf verwiesen werden, dass einige Ergebnisse nicht verwertbar waren.
Die vorliegende Arbeit beschäftigt sich mit verschiedenen Regelstrategien für eine nachträgliche Bauteilaktivierung zur Gebäudesanierung und deren Auswirkungen auf die Energieeffizienz. Im Rahmen einer Kooperation der Alpenländischen Gemeinnützigen Wohnbaugesellschaft und dem Energieinstitut Vorarlberg, wird ein Gebäude aus dem Altbestand der Südtiroler Siedlung in Bludenz saniert und mit einer nachtäglichen Bauteilaktivierung der Bestand-wand versehen. Um die Auswirkungen verschiedener Regelstrategien sowohl auf den Komfort in den Wohnungen als auch auf die Energieeffizienz des Gebäudes zu untersuchen, wird mithilfe der Simulationssoftware IDA ICE ein Gebäudemodell erstellt und verschiedene Regelungen simuliert. Dabei werden Parameter wie das Erreichen der Solltemperatur, der Komfort oder der benötigte Heizwärmebedarf als Bewertungskriterium herangezogen, um diese zu vergleichen. Zuerst werden Flächenregelungen untersucht, die anhand der Temperatur eines Raumes oder dem Mittelwert mehrerer Räume eine komplette Gebäudeseite regeln. Darauffolgend werden Etagen- und Einzelraumregelungen untersucht. Zur Anwendung kommen gewöhnliche Thermostat- und PI-Regler, sowie eine Rücklauftemperaturregelung und eine prädiktive Regelung, welche mithilfe einer idealen Wettervorhersage arbeitet. Ziel ist es, die Auswirkung der Regelungen auf die Raumtemperaturen zu untersuchen und eine geeignete Regelstrategie für das Gebäude zu finden.
Veränderungen im gesellschaftlichen Wertesystem, das Vordringen kommerzieller Privatwirtschaft in Bereiche, die über lange Zeit von Non-Profit-Organisationen abgedeckt worden sind, und die Finanzkrise der öffentlichen Haushalte gelten als große Ursachen für die vielfältige und kontroversielle Diskussion der Social Impact-Orientierung im deutschsprachigen Raum. Diese Arbeit konzentriert sich auf die Frage, wie sich Social Impact-Orientierung auf Instrumente der Unternehmenssteuerung auswirkt. Dazu wird ein Theorieüberblick über gesellschaftliche Wirkungsanalyse erarbeitet und ausgewählte Instrumente der Unternehmenssteuerung vorgestellt. Daraufhin werden fünf Hypothesen gebildet, die in einer Einzelfallstudie anhand eines jungen Sozialunternehmens in Österreich überprüft werden. In diesem Praxisteil ist ein Vergleich hinsichtlich der Impact-Orientierung im untersuchten Sozialunternehmen zu jener, die in der Literatur dargestellt wird, zentral. Weiters wird die Frage untersucht, wie die in der Literatur angegebenen Managementinstrumente für Wirkungsorientierung in diesem Unternehmen angewendet werden und zu welchen Ergebnissen diese führen. Schließlich wird erforscht, ob Wirkungsziele und passende Managementinstrumente einen Beitrag zur Lösung des angenommenen Zielkonfliktes zwischen gesellschaftlichen und ökonomischen Zielen beitragen können. Die Ergebnisse und Erkenntnisse der Einzelfallstudie werden abschließend im Gespräch mit einer übergeordneten Einrichtung einer ersten Verifikation unterzogen. Diese Arbeit kommt zum Schluss, dass Impact-Orientierung eine sehr langfristige Ausrichtung der Unternehmenssteuerung bedarf. Die Impact-Ziele und Indikatoren müssen sich in den gewählten Instrumenten wiederfinden. Nur dadurch ist sichergestellt, dass Unternehmenssteuerung und Impact-Orientierung stringent zusammenwirken. Bei aller Unsicherheit zum WIE der Umsetzung, hat die Impact-Orientierung zentrale Auswirkungen auf die Unternehmenssteuerung.
Um die Nachhaltigkeitsziele der Vereinten Nationen in Österreich zu erreichen, wird ab Juli 2022 die CO2-Steuer erhoben. In diesem Kontext fehlen für den Standort Vorarlberg jedoch Aussagen über das Nachhaltigkeitscontrolling im Allgemeinen und die Auswirkungen der CO2-Steuer im Speziellen.
Zur Beantwortung der Forschungsfragen wurde eine Online-Umfrage konzipiert, durchgeführt und statistisch quantitativ ausgewertet. Das entwickelte Nachhaltigkeits-Scoring-System soll klären, inwieweit die teilnehmenden Unternehmen, ein Nachhaltigkeitscontrolling implementiert haben. Zudem wurde geprüft, ob die CO2-Steuer einen Zusammenhang mit dem ermittelten Nachhaltigkeitsscore hat.
Der Mittelwert des Nachhaltigkeitsscore betrug 56,23 %, wobei die Ergebnisse eine hohe Variabilität (10 % bis 100 %) aufwiesen. In einigen Unternehmen wird nur ein rudimentäres Nachhaltigkeitscontrolling durchgeführt, während andere bereits sehr aktiv sind. Die Wirkung der CO2-Steuer ist sehr unterschiedlich. Der Korrelationskoeffizient nach Pearson ergibt zwar 0,053 und ist damit positiv (r > 0), dieser ist aber sehr schwach. Die Signifikanz (1-seitig) liegt bei p = 0,352. Somit wurde nachgewiesen, dass kein eindeutiger Zusammenhang zwischen der CO2-Bepreisung und dem Nachhaltigkeitsscore in Vorarlberg besteht.
Der Fremdvergleichsgrundsatz ist ein wichtiges Instrument zur Bestimmung von Verrechnungspreisen zwischen verbundenen Unternehmen, um Gewinnverschiebungen zu vermeiden. Durch den Vergleich mit unabhängigen Unternehmen sollen angemessene Preise und Bedingungen für internationale Transaktionen gewährleistet werden. Die Anwendung des Fremdvergleichsgrundsatzes erfordert eine sorgfältige Analyse der Transaktionen und trägt zur Einhaltung der Steuervorschriften bei. Die wirtschaftlichen Auswirkungen der Covid-19-Pandemie haben jedoch neue Herausforderungen für die Bestimmung von Verrechnungspreisen hervorgebracht, wie die Berücksichtigung staatlicher Hilfen oder das Vorhandensein verlässlicher Vergleichsdaten. Konzernunternehmen waren daher dazu gezwungen, ihre bisherige Verrechnungspreispolitik zu überdenken und gegebenenfalls anzupassen. In der vorliegenden Masterarbeit werden die Auswirkungen der Covid-19-Pandemie auf die Bestimmung von Verrechnungspreisen in multinationalen Konzernunternehmen mit Hauptsitz in Vorarlberg untersucht. Um das angestrebte Ziel dieser Arbeit zu erreichen, ist es von großer Bedeutung, den aktuellen Forschungsstand zu den Auswirkungen der Covid-19-Pandemie auf die Bestimmung von Verrechnungspreisen durch eine umfassende Literaturrecherche zu erfassen und die rechtlichen Grundlagen zu analysieren. Basierend auf dem gewonnenen theoretischen und rechtlichen Wissen wurden Fachleute bedeutender Unternehmen mit Headquarter in Vorarlberg befragt. Darüber hinaus wurden Expertinnen aus renommierten Beratungsunternehmen befragt, um die Thematik aus verschiedenen Perspektiven zu beleuchten.
Auswirkungen der DSGVO auf das Vertriebscontrolling eines Software-as-a-Service Geschäftsmodells
(2020)
Diese Arbeit untersucht die Auswirkungen eines SaaS Geschäftsmodells auf das Vertriebscontrolling. Dazu werden mittels Literatur die Kennzahlen und Instrumente des klassischen Vertriebscontrollings besprochen. Ein SaaS Geschäftsmodell hat spezifische Charakteristika, Herausforderungen und Erfolgsfaktoren, welche im Anschluss eingeführt werden. Diese beeinflussen das Vertriebscontrolling eines SaaS Geschäftsmodells. Die DSGVO schränkt das Vertriebscontrolling dabei, in der Nutzung von personenbezogenen Daten, ein. Diese Arbeit zeigt, dass die Grundelemente des Vertriebscontrollings bestehen bleiben, jedoch andere Kennzahlen verwendet werden müssen. Zusätzlich kommen neue Aufgaben auf das Vertriebscontrolling zu. Abschließend werden Handlungsempfehlungen für das Vertriebscontrolling eines SaaS Geschäftsmodells entwickelt. Mittels einer systematischen Literaturrecherche werden diese Handlungsempfehlungen bestätigt.
Die vorliegende Masterarbeit untersucht die Auswirkungen der EU-Taxonomie auf das Controlling in Unternehmen. Die EU-Taxonomie stellt ein Klassifizierungssystem dar, das darauf abzielt, ökologisch nachhaltige wirtschaftliche Aktivitäten zu definieren und zu fördern. Im Rahmen dieser Arbeit wird analysiert, wie das Controlling von Unternehmen durch die Einführung der EU-Taxonomie beeinflusst wird und welche Herausforderungen und Chancen sich dadurch ergeben. Zunächst wird eine umfassende Literaturrecherche durchgeführt, um ein theoretisches Verständnis zum Thema Nachhaltigkeit und zur EU-Taxonomie sowie ihren Auswirkungen auf das Controlling zu entwickeln. Dabei wird auf relevante Studien, Richtlinien und Berichten eingegangen, um die aktuelle Diskussion in diesem Bereich zu erfassen. Im Anschluss daran werden qualitative Interviews mit Controlling-Experten ausgewählter Unternehmen durchgeführt. Diese Interviews dienen dazu, Einsichten in die konkreten Auswirkungen der EU-Taxonomie auf das Controlling zu gewinnen. Es werden Fragen zu Themen wie der Identifizierung nachhaltiger Aktivitäten, der Messung von Nachhaltigkeitskriterien und der Integration der EU-Taxonomie in bestehende Controlling-Prozesse gestellt. Die Analyse der erhobenen Daten erfolgt mittels qualitativer Inhaltsanalyse, um Muster, Themen und Schlüsselerkenntnisse zu identifizieren. Die Ergebnisse dieser Analyse werden anschließend interpretiert und in Bezug auf bestehende theoretische Ansätze und Modelle diskutiert. Die Ergebnisse liefern einen Einblick in die Auswirkungen der EU-Taxonomie auf das Controlling von Aktiengesellschaften und tragen zur aktuellen Diskussion über nachhaltiges Controlling bei. Da die EU-Taxonomie noch recht frisch ist, muss man auf weitere Einführungen sowie Anpassung warten, um die vollumfänglichen Auswirkungen zu spüren.
Das Supply Chain Management von Unternehmen war die letzten Jahre stark effizienzgetrieben und wird durch die Veränderung des Unternehmensumfelds in eine sogenannte VUCA-Welt zunehmend vor Herausforderungen gestellt. Um mit den Herausforderungen umgehen und die Lieferketten aufrechterhalten zu können, setzen immer mehr Unternehmen auf „Resilienz“ als neue strategische Ausrichtung. Da sowohl die internen als auch die externen Supply Chain Management Prozesse von der IT abhängig sind, ist das Business-IT-Alignment ein Bereich, der von einer strategischen Neuausrichtung des Supply Chain Managements stark betroffen ist. Das Ziel der Masterarbeit ist daher die Beantwortung der Fragestellung, wie sich eine strategische Neuausrichtung des Supply Chain Management von Effizienz hin zu mehr Resilienz auf das Business-IT-Alignment von Unternehmen auswirkt. Die Beantwortung der Fragestellung erfolgt anhand eines theoretisch-konzeptionellen Vorgehens. Die Ergebnisse der durchgeführten Recherchen und Methoden haben gezeigt, dass alle sechs Dimensionen des Business-IT-Alignments – Strategie, Prozesse, Infrastruktur, Plattformen, Applikation und Services – von einer strategischen Neuausrichtung betroffen sind. Moderne IT-Organisationen sind allerdings bereits auf einem guten Weg, die Anforderungen einer resilienten Strategieausrichtung zu unterstützen. Zudem hat die Bedeutung einer funktionierenden Zusammenarbeit zwischen den Fachabteilungen und der IT-Abteilung deutlich zugenommen, um im Störungsfall besser reagieren zu können.
Unternehmen stehen aufgrund der digitalen Transformation vermehrt vor der Entscheidung, in Dateninitiativen zu investieren. In diesen Entscheidungssituationen werden verhaltensökonomische Faktoren kaum berücksichtigt. Zwar wird der Mensch in der Theorie als rationaler Entscheider dargestellt, doch zeigen die Erkenntnisse aus der Verhaltensökonomie, wie anfällig menschliche Entscheidungen für kognitive Verzerrungen sind. Ziel dieser Masterarbeit ist es zu beantworten, wie die Erkenntnisse aus der Verhaltensökonomie dazu beitragen können, die strategische Managemententscheidung in Bezug auf die Einführung einer Datenanalytik beherrschbarer zu machen. Hierfür wurde ein theoretisch-konzeptionelles Vorgehen gewählt. Die Ergebnisse zeigen, dass bei der Entscheidungssituation zur Einführung einer Datenanalytik die Komplexität, die Unsicherheit, der Zeitdruck und die kognitive Anstrengung sowie der soziale Einfluss große Herausforderungen für das Management darstellen. Durch die Verknüpfung dieser Faktoren mit den Erkenntnissen aus der Verhaltensökonomie wurden sieben relevante kognitive Verzerrungen identifiziert. Diese Masterarbeit zeigt, dass der Overconfidence Bias, die Planning Fallacy, der Sunk Cost Bias, das Escalation of Commitment, die Decision Fatigue, der Status Quo Bias und der Authority Bias kognitive Verzerrungen sind, welche bei der strategischen Managemententscheidung zur Einführung einer Datenanalytik häufig auftreten können. Weiters wurden für jede kognitive Verzerrung Gegenmaßnahmen ausgearbeitet. Die Ergebnisse dieser Arbeit zeigen auf, welche kognitiven Verzerrungen bei der Entscheidung zur Einführung einer Datenanalytik auftreten können und was das Management dagegen tun kann.
Die morphologische Beurteilung menschlicher Embryos ist ein zeitaufwändiger Prozess in der assistierten Reproduktionsmedizin. Etwa fünf Tage entwickeln sich die Embryos bei einer IVF-Behandlung außerhalb des menschlichen Körpers, bevor Embryologinnen und Embryologen die Entscheidung über die zu transferierenden – also die für die Einleitung einer künstlich herbeigeführten Schwangerschaft zu verwendenden – Embryos anhand unterschiedlicher Bewertungskriterien treffen. Im Anschluss an eine Einführung in die Embryologie werden in dieser Arbeit mögliche Methoden zur automatisierten Embryoselektion besprochen, implementiert, miteinander verknüpft und abschließend evaluiert. Die Arbeit beschränkt sich mit dem EmbryoScope auf einen Zeitrafferinkubator, welcher in den IVF Zentren Prof. Zech in Bregenz in den letzten Jahren viele Millionen Bilder tausender befruchteter Eizellen und den daraus entstehenden Embryos aufgenommen hat. Dieses Gerät diente als Datenquelle zur Unterstützung bei der Entwicklung des Analysetools. Das entstandene Softwareprodukt wurde so programmiert, dass gegebenen Daten vorverarbeitet und unter Anwendung von Bildmanipulationsverfahren und komplexer neuronaler Netze analysiert werden können. Das Ergebnis ist eine Software zur Erkennung und Bewertung unterschiedlicher Parameter der Embryoentwicklung, um daraus Vorschläge für die Selektion der zu transferierenden Embryos generieren und übersichtlich präsentieren zu können.
Zur Evaluierung des Systems konnten drei Embryologinnen und Embryologen aus drei IVF Kliniken unterschiedlicher europäischer Länder gewonnen werden, um anhand einer eigens entwickelten Annotationssoftware Vergleichsdaten zu generieren. Als Endergebnis der Arbeit wurde die Einheitlichkeit dieser erhaltenen Annotationsdaten mit den errechneten Vorschläge anhand unterschiedlicher Kriterien berechnet. Die Transferierbarkeit eines einzelnen Embryos konnte im Vergleich zur Entscheidung des Laborpersonals in 73 % der Fälle korrekt erkannt werden. Bezogen auf eine gesamte IVF Behandlung konnte bei den tatsächlich zu transferierenden Embryos eine vollumfängliche Einheitlichkeit von 26 % mit den Embryologinnen und Embryologen erreicht werden. Embryos, welche von dem entstandenen Analysetool als transferierbar erkannt und unter Beachtung weiterer vorhandener Embryos für die weitere Behandlung vorgeschlagen wurden, sind in 63 % der Fälle für einen Transfer geeignet.
Das entstandene Vorschlagsystem ist als Proof of Concept zu verstehen, welches in späteren Arbeiten durch tiefgreifendere Analysen erweitert werden kann. Ein Einsatz des Systems ist aufgrund der geringen Analysesicherheit, sowie technischen und rechtlichen Einschränkungen zum Abschluss der vorliegenden Arbeit nicht vorgesehen.
Autonome Steuerung für das Demand Side Management von Wärmepumpenboilern mit linearer Optimierung
(2020)
Wärmepumpen, im Speziellen Wärmepumpenboiler, stellen mit ihrer thermischen Speicherkapazität eine gute Möglichkeit für autonome verbraucherseitige Laststeuerung (Autonomes Demand Side Management ADSM) dar. Zudem gewinnt diese Art der Brauchwarmwassererzeugung durch ihren dezentralen Ansatz und das Auskommen ohne fossile Energieträger im privaten Wohnbau immer mehr an Bedeutung. In Kombination mit staatlichen Fördergeldern ist die Anzahl verkaufter Einheiten in den letzten 5 Jahren am deutschen Markt um circa 25 % gestiegen. Obwohl das Lastverschiebungspotenzial von Wärmepumpenboilern unter Anwendung von Optimierungsalgorithmen in der Literatur theoretisch nachgewiesen ist, fehlen Verifikationen unter realen Bedingungen. Diese Arbeit will einerseits das theoretische Potential aufzeigen und andererseits mit dem vorgestellten Laborversuch einen Beitrag dazu liefern, die Verifikationslücke zu schließen. Für die Untersuchung im Labor wird ein handelsüblicher Wärmepumpenboiler bestehend aus einer Luft-Wärmepumpe und einem 300 Liter Warmwasserspeicher mit Sensoren und Aktoren ausgestattet. Insgesamt vier Temperatursensoren befinden sich am Speicherzulauf und -ablauf, sowie nahe der Speichermitte. Für die Aufzeichnung des Volumenstroms wird ein magnetisch-induktiver Messsensor am Speichereingang installiert. Zusätzlich wird mithilfe eines Proportionalventils am Speicherausgang das gewünschte Zapfprofil realisiert. Die Datenakquisition wird durch einen Datenlogger durchgeführt und die Optimierungsroutine auf dem PC implementiert. Die autonome Steuerung basiert auf einer von Day-Ahead-Marktpreisen der Energy Exchange Austria (EXAA) getriebenen linearen Optimierung mit dem Ziel, die Kosten der elektrischen Energie zu minimieren. Das Warmwasserverbrauchsprofil bildet den Verbrauch eines 4- Personen-Haushalts ab. Alle Mess- und Simulationsreihen basieren auf den gleichen Day-Ahead Preisfunktionen und Nutzerprofilen. Zur Verifikation des Lastverschiebungspotentials werden die Kosten pro MWh elektrischer Energie und die Kosten pro MWh thermischer Nutzenergie im Hysteresebetrieb (Normalbetrieb) denen des optimierten Betriebs gegenübergestellt. Durch eine Jahressimulation konnte das theoretische Potential nachgewiesen werden. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von rund 18 %. Die Kosten pro MWh thermischer Nutzenergie konnten durch die Optimierung um rund 19 % gesenkt werden. Die thermische Effizienz konnte somit um rund 1 % gesteigert werden. Der Wärmepumpenboiler wurde insgesamt zwei Wochen betrieben; eine Messreihe davon fand dabei im Normalbetrieb statt. In einer weiteren Messreihe wurde die Wärmepumpe mit der Optimierungsroutine betrieben. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von circa 23 %. Ebenso konnten die Kosten pro MWh thermischer Nutzenergie um 19 % gesenkt werden. Gleichzeitig sank die thermische Effizienz um 6 %.
Verbraucherseitige Laststeuerung (Demand Side Management – DSM) wird als ein möglicher Ansatz betrachtet, um die Auswirkungen des Ausbaus von fluktuierenden Erneuerbaren im Stromnetz auszugleichen. Sollen viele verteilte Energiesysteme damit angesprochen werden, stellen zentralistische Ansätze dabei hohe Anforderungen an die Kommunikationsinfrastruktur. Als Alternative wird vielfach eine autonome Laststeuerung (ADSM) mit anreizbasierter Optimierung direkt auf dem Verbrauchergerät betrachtet. Dabei kann die Anreizfunktion mittels unidirektionaler Kommunikation übertragen werden.
Am Forschungszentrum Energie der Fachhochschule Vorarlberg wurden in den letzten Jahren Algorithmen und Prototypen für den Einsatz von ADSM auf verschiedensten verteilten Energiespeichern im elektrischen Stromnetz entwickelt. Dabei werden sowohl thermische Energiespeicher (z. B. Haushalts-Warmwasserspeicher) als auch elektrochemische Speicher (z. B. Batteriespeichersysteme oder Elektroautos) betrachtet. Außerdem werden die Auswirkungen solcher Systeme auf das elektrische Verteilnetz untersucht. Dieser Artikel gibt einen Überblick über die entwickelten Methoden und Ergebnisse aus diesem Forschungsfeld mit dem Ziel, ein weitreichendes Verständnis für die Chancen und Grenzen des ADSM zu schaffen.
Die schnelllebige und sich verändernde Welt, in der die Menschen gegenwärtig leben, stellt Unternehmen ständig vor neue Herausforderungen. Der Wettbewerb wird immer anspruchsvoller und das Hervorstechen in jeder Branche ist von zahlreichen Faktoren abhängig. Einer davon, der zweifellos einen der grundlegenden Schlüssel zum Erfolg darstellt, ist die Entscheidungsfindung. Um letztere zu unterstützen, werden verschiedene Systeme geschaffen. Unter diesen Systemen lassen sich Business-Analytics-Systeme finden, deren Aufgabe sich auf die Umwandlung von Daten in Informationen konzentriert, um Evidenzen zu schaffen, die es den Managern ermöglicht, Entscheidungen auf der Grundlage von Daten – und nicht auf derjenigen von Intuition – zu treffen. Es ist jedoch Folgendes festzustellen: Obwohl diese Systeme immer besser werden, ist die Mehrheit der Manager in vielen Unternehmen nicht in der Lage, effektive Entscheidungen zu treffen.
Daher ist es das Ziel dieser Arbeit, den Personen in der Wirtschaftswelt eine Untersuchung und Analyse der kognitiven verhaltenspsychologischen Phänomene zur Verfügung zu stellen, um festzulegen, welche dieser Phänomene beim Treffen von Entscheidungen im Rahmen von Business Analytics auftreten und ein Problem verursachen können. Dazu wird die folgende Forschungsfrage gestellt: Welchen Einfluss haben die kognitionspsychologischen Phänomene des Verhaltens in der Business Analytics?
Um diese zu beantworten, ist eine systematische Literaturrecherche durchgeführt worden. Die Analyse der Phänomene anhand eines Data-Mining-Vorgehensmodells (CRISP-DM) zeigte, dass der Einfluss der Phänomene auf Business Analytics signifikant ist und sich auf mehrere Aspekte der Analytik bezieht.
Der Klimawandel und dessen Folgen sind weltweit spürbar. Zunehmende Extremwetterereignisse, das Abschmelzen von Eis und Gletscher sowie Überschwemmungen sind nur ein paar Beispiele der verheerenden Folgen. Grund für diese Auswirkungen sind die steigenden Treibhausgasemissionen, die großteils anthropogen, also durch den Menschen, verursacht wer-den. Die Bauindustrie ist für einen erheblichen Teil dieser Emissionen verantwortlich. Da die Emissionen über den gesamten Lebenszyklus eines Gebäudes hinweg anfallen, ist eine ganzheitliche Betrachtungsweise, wie sie die Ökobilanz vorsieht, anzustellen. Die Erstellung und Optimierung einer Ökobilanz für ein bestehendes Wohngebäude in Wolfurt, das von der Firma i+R Wohnbau GmbH im Jahr 2020 erbaut wurde, sind in dieser Masterarbeit zentral. Diese Masterarbeit zielt darauf ab, die Ökobilanz von Haus A der Wohnanlage in Wolfurt zu beurteilen und herauszufinden, welche Auswirkungen bzw. Reduktionen der CO2-Emissionen sich durch verschiedene Veränderungen am Gebäude erzielen lassen. Um die Ökobilanz in Bezug auf die CO2-Emissionen zu optimieren, werden verschiedene Gebäudekomponenten des Wohngebäudes getauscht. Die Ökobilanz wird mit dem Online-Tool „eco2soft“ erstellt. Das Tool ist speziell für die Erstellung von Ökobilanzen von Gebäuden geeignet und greift auf die Kennwerte von Baumaterialien und -komponenten aus der Datenbank „baubook“ zurück.
Mit dem Tausch von drei Gebäudekomponenten wird eine Reduktion des Treibhauspotentials des Gebäudes um 10,8% erzielt. Die Ergebnisse geben einen Einblick in das Potential der Ökobilanzierung im Gebäudesektor und zeigen klar, dass dadurch klimarelevante Verbesserungen erreicht werden können.
Der Begriff der Nachhaltigkeit und der damit einhergehende Druck der Gesellschaft auf Unternehmen nimmt stetig zu. Unternehmen haben in den letzten Jahren damit begonnen, nachhaltige Ansätze im Rahmen ihrer wirtschaftlichen Tätigkeit zu integrieren und nach außen hin zu vertreten.
Das Ziel dieser Arbeit ist die Entwicklung eines sogenannten ESG-Leitfadens, welcher als zusätzliches Analysewerkzeug im Rahmen einer Unternehmensprüfung von Private-Equity-Gesellschaften eingesetzt werden kann. Der Leitfaden gilt als Leitlinie für die Einhaltung von ESG-Kriterien sowie den Bestimmungen der EU-Offenlegungsverordnung für nachhaltige Finanzprodukte.
Im Rahmen einer umfassenden Recherche wurden in einem ersten Schritt bestehende Due-Diligence-Prüfungen auf nachhaltige Aspekte untersucht. Anschließend wurden weitere Kriterien zur Erfüllung der ESG-Aspekte auf Basis einer entwickelten Methodik extrahiert und in den vorgesehenen Leitfaden implementiert. Weiters wurde sichergestellt, dass mit der Anwendung des Leitfadens die Grundzüge der EU-Offenlegungsverordnung eingehalten werden können.
In einem abschließend durchgeführten Anwendungstest wurde die Einsatzfähigkeit des Leitfadens bestätigt. Der Erfolg des ESG-Leitfadens, im Hinblick auf einen später darauf zurückzuführenden wirtschaftlichen Erfolg, kann lediglich in Kombination mit weiteren Prüfmethoden sichergestellt werden.
Aufgrund des anhaltenden Klimawandels wird eine Reduzierung des Ausstoßes von Kohlendioxid (CO2) immer wichtiger. Dabei könnte die Verwendung und Weiterentwicklung von CO2-Gashydraten als „Carbon Capture“-Methode (CC) einen großen Beitrag leisten. Bei der Bildung von Gashydraten wird Gas in den Hohlräumen eines Hydratgitters, welches sich unter hohen Drücken und niedrigen Temperaturen bildet, eingeschlossen. In dieser Arbeit wurden verfahrenstechnische Methoden getestet, um die Dynamik der Gashydratbildung zu verbessern. Dies wird vor allem durch eine Verbesserung von Massen- und Wärmetransport erreicht. Das Hauptproblem für die langen Bildungszeiten ist unter anderem eine sehr geringe Kontaktfläche. Diese kann durch den Einsatz eines Rührers, eines permanenten Gasdurchflusses und durch die Verwendung von Dry Water erhöht werden. Dry Water besteht aus vielen winzigen Wassertröpfchen, die von hydrophobiertem Siliziumdioxid (SiO2) umschlossen sind. Dadurch kann die Dauer der Induktions- und Wachstumsphase der Gashydratbildung verkürzt werden.
In dieser Arbeit wird ein Reaktor mit 30 ml Volumen und ein Schrägblattrührer mit einem Durchmesser von 17 mm verwendet. Der Rührer wurde bei einer maximalen Drehzahl von 15 000 rpm ca. alle 10 min für max. 30 s betrieben, bis die Wachstumsphase der Gashydratbildung beginnt. Der Gasdurchfluss hatte einen Volumenstrom von ca. 4 slm. Das verwendete Dry Water wurde in einem Haushaltsmixer bei 25 000 rpm aus Kieselsäure und Wasser hergestellt und besitzt einen Wasseranteil von 95 %. Es wurden unterschiedliche Kombinationen getestet. Die kürzeste Induktionszeit wurde mit durchschnittlich 6,9 min durch den Einsatz eines Rührers in Kombination mit einem Gasdurchfluss und Wasser erreicht, bei einem Volumenverhältnis zwischen Gas und Wasser von 8,8 v/v nach 60 min. Die größte Menge an Gashydrat konnte durch den Einsatz von Dry Water in Kombination mit einem Gasdurchfluss erreicht werden. Das führte nach 60 min zu einem Volumenverhältnis zwischen Gas und Wasser von 14,9 v/v. Die Induktionszeit betrug dabei 120 min.
Als Folge des demographischen Wandels müssen Unternehmen in Österreich und ganz Europa lernen, mit einer alternden Belegschaft, dem Fachkräftemangel und Problemen bei der Rekrutierung von Mitarbeitenden umzugehen. Um erfolgreich wirtschaften zu können, sind Unternehmen daher gezwungen, solche Arbeitsbedingungen zu bieten, dass Mitarbei-tende aller Generationen gesund und leistungsfähig ihre Arbeit tun können. Die generatio-nenspezifische Gestaltung der Betrieblichen Gesundheitsförderung setzt an diesem Punkt an und hilft den Unternehmen, der demographischen Entwicklung gut gerüstet zu begeg-nen. Die vorliegende Arbeit beschäftigt sich mit der generationenspezifischen Betrieblichen Ge-sundheitsförderung. Im Rahmen einer qualitativen Untersuchung werden Chancen und Ri-siken identifiziert, die in einer generationenspezifischen Betrieblichen Gesundheitsförderung liegen. Dabei werden die Bedürfnisse der unterschiedlichen Generationen an die Betriebli-che Gesundheitsförderung berücksichtigt. Am Ende der Arbeit steht ein Maßnahmenkatalog für generationenspezifische Betriebliche Gesundheitsförderung, der die Chancen und Risiken die darin liegen, miteinbezieht und eine Unterstützung in der praktischen Arbeit im Unternehmen bieten soll.
Betriebliche Inklusion
(2020)
Rund 15% der österreichischen Bevölkerung haben eine dauerhafte Behinderung. In Vorarlberg allein leben ca. 5.000 Personen, welche nach dem Behinderteneinstellungsgesetz dem Kreis der begünstigt Behinderten angehörig sind, aber nur 51% dieser sind auch erwerbstätig, so der Stand 2018. Gleichzeitig gab es im Jahr 2018 in Vorarlberg 3.773 zu besetzende Pflichtstellen für begünstigt Behinderte Arbeitnehmende. Tatsächlich besetzt waren von diesen aber nur 52,64%. Es stellt sich somit die Frage, warum fast die Hälfte der zu besetzenden Pflichtstellen nicht besetzt ist, zumal das „Recht auf Arbeit“ als Menschenrecht in der UN-Menschenrechtskonvention verankert ist. Denn die Teilhabe am gesellschaftlichen und beruflichen Leben ist ein wichtiger Punkt für das Selbstwertgefühl eines jeden Menschen. Ziel dieser Masterarbeit ist daher aufzudecken, wie die betriebliche Inklusion in mittelständischen und großen Industrieunternehmen, sowie dem öffentlichen Sektor in Vorarlberg gehandhabt wird und welche Einflussfaktoren auf die Handhabung einwirken. Näher betrachtet werden diesbezüglich die Unterschiede in der Handhabung zwischen den privaten und den öffentlichen Einrichtungen sowie die internen und externen Faktoren, welche die Handhabung beeinflussen. Darüber hinaus soll in Erfahrung gebracht werden, welche Maßnahmen die Vorarlberger Unternehmen bereits ergreifen und wo Verbesserungsbedarf besteht. Um die Forschungsfrage zu beantworten wird im Anschluss an die Literaturrecherche ein Methodenmix aus qualitativen Experteninterviews und einer quantitativen Onlineumfrage eingesetzt. Die Ergebnisse aus den zwei Untersuchungen werden im weiteren Verlauf ausgewertet, kritisch reflektiert und in einem Fazit zusammengefasst. Betrachtet man die Forschungsfrage und die Ergebnisse der Untersuchung, so lässt sich zusammenfassen, das Vorarlberg bereits auf einem guten Stand der betrieblichen Inklusion ist. Die Entwicklung der letzten Jahre zeigt einen Paradigmenwandel, durch welchen sich das Bild vom „Armen Behinderten“ hin zur Selbstbestimmung und Chancengleichheit wandelt. Dieser ist noch nicht vollständig abgeschlossen, weswegen weiter in die Sensibilisierung und Aufklärung der Gesellschaft investiert werden muss, um Vorurteile und Unsicherheiten in Bezug auf Rechte und Pflichten abzubauen. Als externe Faktoren werden der rechtliche Rahmen, die Digitalisierung, sowie die Sichtbarkeit betrieblicher Inklusion und der Diversität von Behinderungen in der Gesellschaft genannt. Einfluss auf die Handhabung hat zudem die Vielfalt an Arten von Beeinträchtigungen, da die zu ergreifenden Maßnahmen auf diese abgestimmt werden müssen. Interne Faktoren stellen die Barrierefreiheit, sowie die persönlichen Haltungen und die Beweggründe der Unternehmer und ihren Mitarbeitenden dar. Abschließend lässt sich feststellen, dass betriebliche Inklusion dann gelingen kann, wenn jede Person unabhängig davon, ob sie eine Beeinträchtigung hat, oder nicht, als Individuum mit individuellen Stärken, Schwächen, Charakterzügen und Eigenschaften verstanden wird. Aufbauend auf diesem Menschenbild gilt es für jede Person auf Grund ihrer individuellen Eigenschaften die passende berufliche Tätigkeit zu finden.
Das Betriebliche Gesundheitsmanagement (BGM) bildet einen bedeutenden Bestandteil in Unternehmen, um die Gesundheit von Mitarbeitenden zu bewahren, wiederherzustellen oder zu fördern. Die Gesundheit der Mitarbeitenden trägt maßgeblich zum Erfolg von Unternehmen bei, da Mitarbeitende eine essenzielle Ressource im Unternehmen darstellen. Speziell während der Coronapandemie stehen Unternehmen vor der Herausforderung das Betriebliche Gesundheitsmanagement auch im Home-Office oder bei dem Mobilen Arbeiten zu gewährleisten. Die vorliegende Arbeit beschäftigt sich mit den BGM-Maßnahmen im Home-Office in Großunternehmen in Deutschland und der Frage, welche BGM-Maßnahmen die Gesundheit der Mitarbeitenden im Home-Office positiv beeinflussen und somit eine Handlungsempfehlung darstellen. Hierzu wurde sowohl eine systematische Literaturrecherche als auch eine empirische und qualitative Studie mit sechs Experten und Expertinnen in deutschen Großunternehmen durchgeführt. Die Ergebnisse zeigen, dass die analysierten Großunternehmen in Deutschland vor allem Maßnahmen im Bereich der Betrieblichen Gesundheitsförderung zur Abwendung psychischer Krankheiten einsetzen. Auch Maßnahmen zur Ergonomie spielen eine zentrale Rolle. Besonders virtuelle Maßnahmen, wie eine Aktive Pause, virtuelle Kurse zur Stressbewältigung und Achtsamkeit sowie Apps, werden in den Unternehmen eingesetzt. Das BGM wird bei den meisten Befragten im Rahmen des Mobilen Arbeitens angeboten, da hierbei unter anderem eine höhere Flexibilität möglich ist und weniger rechtliche Vorgaben seitens der Arbeitgebenden im Vergleich zum Home-Office beachtet werden müssen.
Heimische Ladevorgänge von Elektroautos sind ein zusätzlicher Faktor in dem Wandel, dem Verteilnetze ausgesetzt sind. Aufgrund der typischen langen Parkzeiten bietet das Laden von Elektroautos jedoch einen hohen Grad an Flexibilität, mit deren Hilfe die Netzbelastung entscheidend verringert werden kann und weitere Dienstleistungen, auch in höheren Netzebenen, erbracht werden können. Die vorliegende Arbeit bewertet mit dem Instrument der Nutzwertanalyse fünf Ladestrategien, wie die Koordinierung von Ladevorgängen nutzbringend eingesetzt werden kann. Dazu werden im ersten Schritt Kriterien auf Basis der Literaturrecherche sowie der gegebenen Informationsgrundlagen der betrachteten Systeme definiert. Um eine neutralere Bewertung zu ermöglichen, wird die Gewichtung der Kriterien zusätzlich von einem Vertreter eines Verteilernetzbetreibers und einem Energieversorger vorgenommen. Mit den Ergebnissen der Bewertung werden die Systeme hinsichtlich ihres Nutzens unter Berücksichtigung der Bedeutung für die jeweiligen Parteien verglichen. Dabei werden die Stärken und Schwächen der Systeme herausgestellt und mögliche Interessenskonflikte lokalisiert. Ebenfalls wird auf die Eignung der Nutzwertanalyse als Werkzeug zur Bewertung der Systemkonzepte eingegangen. Im Anschluss wird der Grundaufbau eines Systems vorgestellt, welches aufgedecktes Potential zur Weiterentwicklung der bewerteten Systeme nutzt und damit zu einem größeren Gesamtnutzen führen kann.
Seit jeher versuchen Energieversorgungsunternehmen den Einsatz ihrer Kraftwerke zu optimieren. Grund für die Optimierung ist die Sicherstellung der Stromversorgung bzw. das wirtschaftliche Handeln eines Unternehmens. Bisher gibt es am Markt kaum intelligente Lösungen für sehr komplexe, hydraulisch zusammenhängende Kraftwerksgruppen. Obwohl die deterministische Optimierung der illwerke vkw sehr ausgereift ist, wird hier ein Schritt weitergegangen. Als Methode dient eine detaillierte Bewertung des Kraftwerkseinsatzes bei gleichzeitiger Reduzierung von Risiken. Es wird nach Strategien und Regeln gesucht, welche den Einsatz zusätzlich optimieren. Für das Ziel dieser Forschung stellt sich in der vorliegenden Masterarbeit folgende Frage: „Wie können Kraftwerkseinsatzstrategien mithilfe eines Trainingssimulators bewertet und verallgemeinert werden?“
Zur Beantwortung der Forschungsfrage wurden Simulationsfahrten von mehreren Dispatchern durchgeführt. Die Bewertungsmethodik basiert auf der Analyse der unterschiedlichen Strategien und gewichteten Kennzahlen. Zusätzlich wurde ein Fragebogen erstellt. Dieser beinhaltet Aspekte zu bereits bekannten Regeln im Dispatching, zur Gewichtung der Kennzahlen, zur Erfahrung der Dispatcher und zum Verhalten in verschiedenen Einsatzsituationen. Die Antworten der Dispatcher zeigen, dass bereits verschiedene Regeln im Kraftwerkseinsatz zur Anwendung kommen.
Die Ergebnisse belegen, dass ein größeres rotierendes Regelband trotz geringfügiger Wirkungsgradeinbußen, optimal ist. Dadurch können spontane Regelenergieabrufe ohne Fehlarbeit beantwortet werden. Ebenso werden die Umstellungen und somit die Maschinenbelastung deutlich geringer gehalten. In allen Strategien der Dispatcher wurden die Endpegelstände so gewählt, dass min. 1,5 h mit Vollabrufen weitergefahren werden konnte. Außerdem zeigt die Arbeit, dass es nicht möglich ist, Pegelreserven während des Einsatzes zu bewerten.
Die vorliegende Arbeit setzt sich mit der Beziehungsgestaltung im Kontext Klinischer Sozialer Arbeit auseinander. Der Fokus liegt dabei auf den Aspekten Nähe Und Distanz, Verletzlichkeit und Macht. Theoretische Grundlage ist ein psychodynamisch-sozialtherapeutischer Zugang. Als Grundlage für die durchgeführte Forschung dient das Tiefeninterview, dessen Ergebnisse anhand der Grounded Theory ausgewertet und interpretiert wurden. Als Resultat zeigt sich die Auswirkung der genannten Aspekte auf die Gestaltung der Helfenden Beziehung und die Wirksamkeit sozialarbeiterischer Intervention. Zudem hat sich das Setting als eine wesentliche Bedingung für die Beziehungsgestaltung herauskristallisiert. Bestätigt haben sich schließlich auch die aufgrund der theoretischen Bearbeitung aus psychoanalytischer/psychodynamischer Perspektive vermuteten Einflüsse von Übertragung und Gegenübertragung, die im Tiefeninterview deutlich zutage getreten sind.
Business Analytics zählt zu den Zukunftsthemen im Controlling. In der Controllinglehre spielt Analytics bisher aber nur eine untergeordnete Rolle. Der Beitrag beschreibt ein innovatives Lehrprojekt, das Studierende im Masterstudium Accounting, Controlling & Finance an der FH Vorarlberg befähigt, controllingrelevante Fragestellungen im Kontext von Business Analytics eigenständig zu beantworten. Gleichzeitig erlernen die Studierenden den Umgang mit der Open-Source-Software R.
Die vorliegende Masterarbeit beleuchtet die Realität der Modellierung in der Geschäftspraxis und die Probleme, auf die Unternehmen in diesem Zusammenhang stoßen. Aus diesem Grund wird diese Arbeit die Forschungsfrage, wie Unternehmen mit dem Wissen der Systemtheorie Probleme in der Modellentwicklung vermeiden können, samt der daraus abgeleiteten Teilfragen beantworten. Diese Teilfragen zielen sowohl darauf ab, ob Modelle als Abbilder der Realität betrachtet werden können, und welche Entscheidungen ein Unternehmen zu treffen hat, um Modelle richtig zu adressieren. Diese Arbeit richtet sich vor allem an Unternehmen und Studenten des Geschäftsprozessmanagements, sowie alle interessierte Leser und Leserinnen, die sich die Frage stellen, wie die Modellbildung mit dem Wissen der Systemtheorie optimiert werden kann. Mittels intensiver Literaturrecherche und Auswahl wird aufgezeigt, dass niemals alle Eigenschaften eines Systems in ein
Modell einfließen können und dürfen. Des Weiteren wird die Wichtigkeit einer guten Zielgruppenanalyse und -definition herausgearbeitet, um sowohl Modellierungssprache, Grenzen und Zweck des Modells korrekt wiederzugeben und so alle Adressaten mit den richtigen Informationen zu erreichen. Die in dieser Arbeit vermittelten Informationen haben das Potential, die Realität eines Unternehmens sinnvoll zu einem Modell und zum Ausschnitt der Wirklichkeit werden zu lassen.
Innerhalb des Managements haben sich im Laufe der Zeit Management-Disziplinen gebildet, die Unternehmen bei der systematischen Transformation unterstützen. Unter dem Einsatz von Vorgehensmodellen, Frameworks und abstrakten Darstellungsmethoden wird der Versuch unternommen, alle Aspekte eines Transformationsvorhaben zu berücksichtigen und den Anwender schrittweise durch die zunehmend komplexen und dynamischen Veränderungsprojekte zu führen. Begriffe wie das Business Engineering oder aber das Enterprise Architecture Management werden in diesem Zusammenhang oftmals benannt. Diese Management-Disziplinen überschneiden sich teilweise, bezogen auf die Vorgehensweise, die eingesetzten Methoden sowie den Inhalt und die Zielvorstellungen. Teilweise werden die Begrifflichkeiten synonym aufgegriffen, teilweise sind die Auffassungen über den Inhalt der Disziplinen unterschiedlich. In den Wirtschaftswissenschaften führen diese unterschiedlichen Auffassungen oftmals zu einer nicht unerheblichen Verwirrung. Begrifflichkeiten, die hierbei sehr ähnlich sind, können jedoch von unterschiedlicher Natur sein. Teilweise wird ein Umsturzversuch unternommen und Methoden sowie Best Practices werden für die eigenen Zwecke verwendet und als etwas „Neues“ veröffentlicht. Das Business Architecture Management, welches lange Zeit ausschließlich als Bestandteil des Enterprise Architecture Management angesehen wurde, hat sich mittlerweile innerhalb des Managements als eigene Management-Disziplin etabliert und versucht sich von anderen Management-Disziplinen abzugrenzen. Um mehr Klarheit über den Inhalt, die Charakteristika, die Merkmalsausprägungen und das Vorgehen zu schaffen, stellt diese Masterarbeit den Versuch dar, das Business Engineering mit dem Business Architecture Management im gemeinsamen Kontext zueinander zu untersuchen. Es werden die Fragen geklärt, welche Belastbaren Erkenntnisse der Vergleich beider Disziplinen ergibt, und ob eine sinnvolle Einordung beider
Disziplinen zueinander möglich ist.
Ein neuer Ansatz um Kohlendioxid aus einem Verbrennungsprozess abzuscheiden, auch Carbon Capture (CC) genannt, basiert auf der Gashydratsynthese. Dabei wird das Gas in Einschlussverbindungen aus Wassermolekülen, sogenannte Clathrate, eingefangen. Bei der Gashydratsynthese aus flüssigem Wasser, wie es bei bisherigen Methoden der Fall ist, treten selbsthemmende Effekte auf, die den Abscheideprozess verlangsamen.
In dieser Arbeit wird daher eine neue Methode entwickelt, um die Gashydratsynthese aus dampfförmigem Wasser zu untersuchen. Realisiert wird dies mit einem eigens entwickelten Versuchsreaktor, wobei ein Fallfilmverdampfer im Zentrum kontinuierlich Wasser verdampft. Der Abscheideversuch wird bei 20 - 40 bar und einem CO2-N2-Prüfgasgemisch betrieben. Das Herunterkühlen des Reaktors, mit einer Vorlauftemperatur von bis zu -65 °C, sorgt für stabile Wachstumsbedingungen an der Innenwand. Die Versuchsdurchführung zeigt, dass bei einer Ausgangskonzentration von 11,8 mol% CO2 am Ende des Abscheideprozesses im Minimum 10,7 mol% erreicht werden. Der im Gashydrat angereicherte CO2-Gehalt im liegt bei ca. 89 mol%.
Damit ist die Funktionsfähigkeit der neuartigen CC-Methode bewiesen und die Grundlage für die Weiterentwicklung des Prozesses geschaffen.
Die Gewinnung von motivierten und qualifizierten Mitarbeitenden stellt aufgrund verschiedenster aktueller Einflussfaktoren wie demografische Veränderungen oder der Fachkräftemangel eine große Herausforderung für das Recruiting dar. Eine umso wichtigere Rolle spielt daher die Bindung des Personals ans Unternehmen. Die interne Rekrutierung bietet in diesem Zusammenhang eine Möglichkeit, die im Unternehmen bereits vorhandenen Ressourcen zu nutzen, wobei sich im Vergleich zur externen Personalbeschaffung Chancen wie auch Risiken ergeben. Es haben sich kritische Erfolgsfaktoren gezeigt, die erkannt und in weiterer Folge berücksichtigt werden sollten. Diese sind für das Vorgehen beim internen Recruiting von Bedeutung, um möglichst das volle Potenzial ausschöpfen zu können. Im Rahmen dieser Masterarbeit wurde eine ausführliche Literaturrecherche durchgeführt, sodass in weiterer Folge eine Forschungsfrage abgeleitet werden konnte. Es wurden sieben Interviews mit ausgewählten HR-Expertinnen und HR-Experten geführt, die in Unternehmen arbeiten, die der Vorarlberger Industrie zugehörig sind. Anschließend wurden die Interviews nach der qualitativen Inhaltsanalyse ausgewertet. Im Zuge der Diskussion wurden die Interviewergebnisse der Literaturrecherche gegenübergestellt, wobei die Forschungsfrage beantwortet werden konnte. Schlussendlich wurden Handlungsimplikationen für das interne Recruiting abgleitet. Die Forschungsergebnisse deuten darauf hin, dass es im Hinblick auf die interne Rekrutierung verschiedene Erfolgsfaktoren gibt, die Unternehmen für das eigene Vorgehen berücksichtigen können. Dazu zählen beispielsweise die Bedeutung der Kommunikation während des gesamten Prozesses – Kündigungsfristen und Übergabeprozesse sollten ausreichend besprochen und umfassend geplant werden. Zudem ist es hilfreich, interne Absagen mit Bedacht auszusprechen und sachliche Gründe aufzuzeigen. Auch die involvierten Führungskräfte spielen im gesamten internen Personalbeschaffungsprozess eine bedeutende Rolle. Darüber hinaus haben sich weitere Aspekte gezeigt, die für das Vorgehen beim internen Recruiting von Bedeutung sind.
Chatbots für Alle
(2023)
Digitale Barrierefreiheit ist eine der großen Aufgaben in unserer Gesellschaft, um die Gleichstellung aller Menschen zu gewährleisten. Für unterschiedliche Personengruppen stellt die Anwesenheit von Barrieren ein Problem dar, daher hat sich diese Arbeit zur Fragestellung gesetzt, welche konkreten Gestaltungsempfehlungen exemplarisch zum Abbau kognitiver Barrieren bei textbasierten Gesprächsschnittstellen beitragen können. Wie Menschen mit kognitiven Einschränkungen, mit beispielsweise Lernschwierigkeiten, Gestaltung innerhalb von Dialog-Systemen wahrnehmen, ist weitgehendst unerforscht. Denn das Web wird vornehmlich für Nutzende mit durchschnittlichen Fähigkeiten und Anforderungen gestaltet. Um Barrierefreiheit im Digitalen zu gewährleisten, bieten die Web Content Accessibility Guidelines (WCAG) eine Referenz für die gesetzliche Grundlage. Allerdings sind die darin enthaltenden Erfolgskriterien allgemein fürs Web und nicht konkret genug für textbasierte Chatbots formuliert und lassen für Designer:innen und Entwickler:innen großen Interpretationsspielraum in der Umsetzung offen. Digitale Barrieren sind Hindernisse, die Menschen teilweise oder vollkommen behindern etwas zu tun. Vor allem erleben marginalisierte Personengruppen, wie ältere Menschen oder Menschen mit Einschränkungen, Ausschlussmechanismen aus digitalen Produkten und Services. Zeitgleich zu dieser Ungerechtigkeit schreitet der demografische Wandel voran. Parallel damit steigt die Wahrscheinlichkeit mit einer Einschränkung psychischer oder physischer Natur zu leben – beispielsweise eine Demenz im Alter zu haben. Die Nichtteilnahme im Digitalen führt in einer Gesamtbetrachtung in Folge zu einer mehr oder weniger ausgeprägten sozialen und gesellschaftlichen Spaltung. Zudem ist die Frage, wer für die Umsetzung von Barrierefreiheit verantwortlich ist weitgehend ungeklärt. Zugrundeliegende Faktoren für Ausschlussmechanismen ist z. B. die personelle Homogenität in Entwicklungsteams und damit zusammenhängend die Reproduktion der privilegierten Sichtweisen in gestaltete Artefakte. Offensichtlich ist, dass Entwickler:innen und Designer:innen zur Konstruktion und damit zur Dekonstruktion von Barrieren beitragen können. Das Ziel des Forschungsvorhabens ist es, einen Beitrag zum aktuellen Wissensstand zu leisten und reale Nutzende zu partizipieren. Dazu wurden gestalterische Experimente und Usability Tests durchgeführt und die exemplarischen Ergebnisse in konkreten Gestaltungsempfehlungen in einem Empfehlungskatalog synthetisiert.
In der vorliegenden Masterarbeit geht es darum, inwiefern das Conversational Design von NLP-basierten Chatbots in der Bewerberkommunikation gestaltet werden kann, um eine optimale Candidate Experience für die Bewerber/innen zu schaffen. Das Conversational Design umfasst dabei die Dialoggestaltung, den sprachlichen Stil sowie die Relevanz einer Persönlichkeit eines Chatbots. Es wird beschrieben, wie Chatbots auf der Karrierehomepage sowie auf Messenger-Plattformen eingesetzt werden können. Dabei geht es ausschließlich um Textbots, die mit Hilfe der Technologie von Natural Language Processing und basierend auf das Machine Learning als schwache Form der künstlichen Intelligenz in der Bewerberkommunikation eingesetzt werden. Dazu wurden im empirischen Teil qualitative Experteninterviews mit Personen aus HR-Abteilungen sowie mit Beratungsunternehmen geführt. Ziel dieser Arbeit ist es, einen Leitfaden für HR-Abteilungen bereitzustellen, inwiefern das Conversational Design von Chatbots gestaltet werden kann sowie welche kritischen Erfolgsfaktoren zur Schaffung einer optimalen Candidate Experience berücksichtigt werden müssen.
Das Ziel der vorliegenden Masterthesis ist es zu beantworten, wie die Zielwirksamkeit von Coaching im Rahmen der Personalentwicklung realitätsnah erfasst werden kann. Dazu wird zunächst eine Abgrenzung des Begriffs „Coaching“ vorgenommen, sowie verschiedene Formen des Coachings vorgestellt. Darauf basierend wird der aktuelle Forschungsstand im Bereich der Evaluation von Coaching dargestellt und hierbei genauer auf verschiedene theoretische Evaluationsmodelle eingegangen. Zusätzlich dazu wird eine Identifikation der Wirkfaktoren vorgenommen. Die Forschungsfragen werden mithilfe einer qualitativen empirischen Methodik unter Durchführung von Experteninterviews beantwortet. Die Masterthesis resultiert in der Darstellung eines möglichen Evaluationsprozesses.
conflicto
(2021)
Im Arbeits- und Organisationsleben sind Konflikte alltäglich und meist unumgänglich. Menschen unterscheiden sich voneinander hinsichtlich Kompetenzen, Überzeugungen, Temperament und vieles mehr. Die Arbeit setzt jedoch voraus, dass man miteinander kooperiert, sich abstimmt und gemeinsam Entscheidungen trifft. Wenn man die Ziele einer Gruppe oder Organisation erreichen will, ist es wichtig, dass Konflikte vermieden und/oder erfolgreich und nachhaltig gelöst werden. Auf diesem Wege können alle im Sinne der Organisation handeln. Dadurch werden nicht nur wirtschaftliche Erfolge erreicht, sondern auch die individuelle Gesundheit, das Wohlbefinden und die Kompetenzentwicklung gefördert und sichergestellt.
Mit ‚conflicto‘ wird eine Ressource zur Vermeidung, Umgang und Bewältigung von Konflikten in Organisationen, in Form einer Internetseite mit integriertem Netzwerk von Expert*innen vorgestellt.
In der Arbeit wird die theoretische Verortung des Projekts, anhand umfangreicher Recherchen in der Konfliktforschungsliteratur vorgenommen. Nach empirischer Überprüfung der Relevanz und Wichtigkeit der Konfliktbewältigung sowie der Machbarkeit von ‚conflicto‘ wird die theoriegeleitete Konzeptentwicklung vorgestellt. Mittels SWOT Analyse werden die potentiellen Stärken und Chancen von ‚conflicto‘, sowie eventuelle Schwächen und Risiken aufgezeigt und besprochen.
Das ‚conflicto‘-Konzept vereint die gestalterischen Grundsätze Einfachheit, Ästhetik und Dynamik. Im Anschluss werden das Naming, die Logoentwicklung und das Formulieren der Slogans für beide Zielgruppen, die Farbgestaltung, die Typografie, die Grundstruktur der Webseite, sowie die Illustrationen/Animationen, die eine Besonderheit der Gestaltung von ‚conflicto‘ ausmachen, dargestellt und analysiert. Vollständig ausgearbeitete Screendesigns der Startseite von ‚conflicto‘ und zwei Unterseiten werden nebst der Print und online Bewerbungskonzepte vorgestellt und mit Mockups illustriert.
Als Abschluss folgt die Evaluation der UX Experience. Die empirischen Ergebnisse zeigen eine eineindeutige Überlegenheit des ‚conflicto‘ Gestaltungskonzepts im Vergleich mit traditionelle Gestaltungsvarianten.
Die Nutzung des Controllings als zentrales Instrument zur Unternehmenssteuerung in der landwirtschaftlichen Branche in Österreich zeigt eine uneinheitliche Ausprägung. Während größere Betriebe das Controlling zur effektiven Steuerung einsetzen und dabei die Planung, Umsetzung und Anpassung betonen, vernachlässigen kleinere und mittlere Betriebe häufig die Nutzung von Controlling oder generellen Aufzeichnungen. Die Verwendung von Werkzeugen und Führungsinstrumenten variiert entsprechend den spezifischen Bedürfnissen und Rahmenbedingungen der Betriebe. Im Ackerbau spielt die langfristige Planung eine zentrale Rolle, während Gemüseanbaubetriebe Instrumente wie Liquiditätsplanung und Marktbeobachtung einsetzen. Tierhaltungsbetriebe führen interne Kalkulationen und Kostenabschätzungen durch. Auch die Planungsebenen und die Auswahl finanzieller Leistungskennzahlen unterscheiden sich in den landwirtschaftlichen Betrieben. Die Messung der wirtschaftlichen Ergebnisse erfolgt mittels verschiedener Methoden wie Gewinn- und Verlustrechnung, doppelter Buchhaltung und Einnahmen-Ausgaben-Rechnung. Externe Faktoren wie Wetterbedingungen, Marktpreise und politische Veränderungen beeinflussen die Geschäftstätigkeit landwirtschaftlicher Unternehmen. Es bestehen sowohl verschiedene Herausforderungen für die zukünftige Unternehmensführung als auch Chancen in den Bereichen Effizienzsteigerung, Smart Farming, Direktvermarktung und Anpassung an den Klimawandel und regionale Märkte. Landwirte zeigen eine Bereitschaft zur Innovation und Offenheit für neue Lösungsansätze.
Controlling im Bauprojekt
(2022)
Berühmte Beispiele zeigen, dass Bauprojekte Schwierigkeiten haben, im geplanten Zeit- und Kostenrahmen realisiert zu werden. Diese spezielle Art der Projekte ist individuellen Heraus- forderungen und Risiken ausgesetzt. Dem Controlling kommt im Bauprojekt eine besondere Bedeutung zu, da es helfen kann, diesen Herausforderungen zu begegnen. Das Controlling kann das Projektmanagement dabei unterstützen, die gesetzten Ziele zu erreichen und die Transparenz im Bauprojekt zu erhöhen.
Mithilfe der vorliegenden Arbeit wird versucht, Erfolgsfaktoren für das Controlling in Baupro- jekten zu identifizieren. Um diese Forschungsfrage zu beantworten, wurden leitfadengestützte Interviews mit 15 Beschäftigten von im Bauprojekt beteiligten Berufsgruppen geführt (3 Archi- tekt/-innen, 3 Fachplaner/-innen, 3 Bauunternehmer/-innen sowie 6 Projektleiter/-innen). Die Interviews decken die folgenden Bereiche ab: Herausforderungen von Bauprojekten, Projekt- controlling, Risikomanagement und Erfolgsfaktoren.
D'Activism
(2021)
Durch die zunehmende Digitalisierung an deutschen Schulen hat auch die damit einhergehende Medienbildung an Relevanz gewonnen. Dabei soll die Schule als zentraler Ort der Bildung ihren Schüler:innen ermöglichen, die medial gemachten Erlebnisse im Unterricht zu thematisieren. Die damit eng verbundene Digital Literacy umfasst Kompetenzen, um die digitale Lebenswelt der Schüler:innen und Lehrkräfte zu reflektieren und sich als aktives Mitglied der Gesellschaft auf einer gesicherten Informationsbasis im digitalen Lebensraum bewegen zu können.
In dieser Arbeit wird der Frage nachgegangen, wie Digital Literacy fächerübergreifend für die Zielgruppe der Lehrkräfte und Schüler:innen der gymnasialen Mittel- und Oberstufe in Baden-Württemberg gefördert werden kann. Dabei wird folgenden Forschungsfragen nachgegangen: (1) Welche ‹Digital Literacies› sollen in Schulen von Lehrkräften und Schüler:innen erworben werden? (2) Wie kann ‹Digital Literacy› fächerübergreifend in den Unterricht integriert werden? (3) Wie kann ein Produkt konzipiert, umgesetzt und evaluiert werden, das die fächerübergreifende Förderung der ‹Digital Literacy› ermöglicht?
Für die Beantwortung wurden theoretische Erkenntnisse, darunter bildungspolitische Bestimmungen und Konzeptpapiere, Medienkompetenzmodelle und spieltheoretische Ansätze beleuchtet sowie leitfadengestützte Experteninterviews durchgeführt. Anhand dieser wurden spezifische Anforderungen für die fächerübergreifende Konzeption eines modularen Educational Games abgeleitet, welches umgesetzt und anhand des Anwendungsszenarios ‹Körperbilder auf Sozialen Medien› evaluiert wurde. Die Ergebnisse der Evaluation zeigten neben einem hohen Motivations- und Spaßfaktor durch die integrierten Spielelemente auch das Interesse der Schüler:innen und Lehrkräfte. Außerdem förderte das Educational Game die Reflexionskompetenz sowie die Übernahme und Auseinandersetzung mit unterschiedlichen Sichtweisen.
Diese Arbeit leistet damit einen Beitrag zur Schließung der Forschungslücke zu Digital Literacy im Schulbereich im deutschsprachigen Raum und stellt gleichzeitig ein Educational Game zur Verfügung, welches die Vermittlung von Digital Literacy ohne spezifische technische oder digitale Kompetenzen ermöglicht.
Die vorliegende Arbeit lässt sich im Bereich der Bonitätsbewertung einordnen. Es gibt bisweilen kein gängiges System, mit welchem eine Debt Capacity oder eine Bonitätsbewertung ermittelt wird. In der Praxis erfolgt oftmals die Vereinfachung dieser Bewertung anhand des EBITDA. Mit dieser Arbeit soll untersucht werden, ob diese Vereinfachung sinnvoll ist. Dazu werden neben dem EBITDA auch der Free Cashflow und die Debt Capacity von Unternehmen genauer untersucht. Für 69 Unternehmen werden die Jahresabschlussdaten und Credit Ratings der Big Three zusammengestellt. Anhand der Korrelations- und Regressionsanalyse werden die Werte verglichen. Das EBITDA unterliegt dem Free Cashflow sowohl bei der Abschätzung der Debt Capacity als auch bei der Ermittlung von Credit Ratings. Beide besitzen jedoch zu wenig Aussagekraft, um nur aufgrund dieser Daten Managemententscheidungen treffen zu können. Die Vereinfachung kann in dieser Form nicht unterstützt werden, und es sollte immer eine detailliertere Prüfung vorgezogen werden. Es gibt jedoch statistisch signifikante Zusammenhänge, weshalb das EBITDA und der Free Cashflow zumindest einen Anhaltspunkt für die Bewertung bieten können.
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
Das Modellprojekt „Caritas Care – Betreuung zuhause“ wurde 2012 in einer Kooperation der Caritas Schweiz und der Caritas Alba Iulia (Transsylvanien/Rumänien) ins Leben gerufen. Damit sollte ein Modell geschaffen werden, welches einerseits dem wachsenden Markt der „Betreuung zuhause“ in der Schweiz entgegenkommt, aber andererseits fairere Arbeitsbedingungen für die Betreuungspersonen vorsieht. Fairness sollte durch einen Versicherungsschutz der Arbeitskräfte, Weiterbildungsmöglichkeiten und ein Entgelt, das mit anderen Arbeitsverhältnissen vergleichbar ist, sowie dank klar abgegrenzter Arbeits-, Präsenz- und Freizeit erreicht werden. Die Umsetzung erfolgt folgendermaßen: Angestellte Betreuungs- und Pflegefachkräfte der Caritas Alba Iulia können für sechs Wochen bis zu drei Monaten in die Schweiz gehen, um dort in Privathaushalten hilfsbedürftige Menschen zu unterstützen (Live-in-Betreuungen). Sie werden während dieser Zeit von der Caritas Schweiz angestellt. Danach kehren die Betreuenden wieder in ihr Anstellungsverhältnis bei der Caritas Alba Iulia zurück. Es wird sozusagen Personal „verliehen“. Damit soll einem Verlust von qualifiziertem Betreuungs- und Pflegepersonal durch Abwanderung aus Rumänien entgegengewirkt werden. Im Rahmen des studiengangsübergreifenden, interdisziplinären Kontextstudiums der Masterstudiengänge der Fachhochschule Vorarlberg (Österreich) hat sich eine Gruppe Forschender zum Ziel gesetzt, dieses Modellprojekt forscherisch zu erkunden. Wir wollten wissen, wie dieses Live-in-Betreuungsangebot nach zehn Jahren Laufzeit funktioniert. Insbesondere interessierten uns die Erfahrungen der rumänischen Betreuer:innen und ihrer Angehörigen sowie der projektverantwortlichen Leitungspersonen in der Caritas Alba Iulia und der Caritas Schweiz. Im Rahmen einer Feldforschungswoche im Juli 2022 in Transsylvanien/Siebenbürgen wurden 28 formelle Interviews mit Projektverantwortlichen, Betreuern/Betreuerinnen und deren Angehörigen durchgeführt. Zusätzlich wurden Dokumente und Feldnotizen sowie Gedächtnisprotokolle von informellen Gesprächen mit Personen der extramuralen Einrichtungen in Rumänien in die Auswertung integriert. Die Auswertung erfolgte inhaltsanalytisch.
Interne Kontrollsysteme helfen Unternehmen bei der Steuerung und Überwachung risikobehafteter Prozesse und sind für Unternehmen bestimmter Größe und Rechtsform sogar verpflichtend. Der Gedanke eines spezifischen internen Kontrollsystems für Steuern ist dagegen recht neu. Da der Staat ein starkes Interesse an der korrekten und möglichst umfassenden Unternehmensbesteuerung hat, wurde das Prinzip des Horizontal Monitorings aufgegriffen und zur Begleitenden Kontrolle weiterentwickelt. Diese tritt anstelle der sonst üblichen Außenprüfung durch das zuständige Finanzamt. Zielgruppe für die begleitende Kontrolle sind besonders große, in Österreich ansässige Unternehmen und Unternehmensgruppen. Ein wesentliches Kriterium, um die begleitende Kontrolle beantragen zu können, ist das Vorhandensein eines funktionstüchtigen steuerlichen internen Kontrollsystems. Die Arbeit beschäftigt sich mit der Gestaltung und Funktionsweise eines steuerlichen internen Kontrollsystems, wie es für die begleitende Kontrolle erforderlich ist. Es thematisiert die für ein Unternehmen damit verbundenen Vor- und Nachteile, sowohl für das steuerliche interne Kontrollsystem selbst als auch die begleitende Kontrolle und vorhandenes Entwicklungspotenzial.
Um Data Analytics gezielt und effektiv einzusetzen, gilt es als wichtig, die organisationale Reife eines Unternehmens in Bezug auf die Umsetzung von Data Analytics zu messen und zu verstehen. Da viele Unternehmen allerdings noch nicht bereit für die Implementierung von Supply Chain Analytics sind, benötigen sie ein Tool mit dem die eigene organisationale Reife gemessen und verbessert werden kann. Dafür wird in dieser Arbeit ein Readiness-Assess- ment-Framework entwickelt, das die organisationale Reife eines Unternehmens bestimmt und mittels ergänzendem Leitfaden Möglichkeiten zur Optimierung der eigenen Reife aufzeigt. Die Besonderheit dieses Assessments liegt in der Aufteilung in einzelne organisationale und tech- nologische Kategorien sowie deren Erfolgsfaktoren. Der Aufbau dieser Arbeit folgt dem De- sign-Science-Ansatz von Peffers et al. (2006). Mittels eines Literature Reviews und Expert:in- neninterviews wurden die Kategorien und Erfolgsfaktoren für das Assessment identifiziert und verifiziert. Nach der Entwicklung des Assessments wurde in einem Workshop die Praxistaug- lichkeit des Frameworks überprüft. Abschließend werden Ansatzpunkte für künftige Weiter- entwicklungen des Frameworks dargestellt.
In den letzten Jahren wurde den technischen Aspekten der Datenanalyse viel Aufmerksamkeit gewidmet, den organisatorischen Implikationen jedoch nur wenig, was dazu geführt hat, dass eine Reihe von Unternehmen nicht in der Lage war, den vollen Nutzen aus ihren Data Analytics-Investitionen zu ziehen was u.a. dazu führte das die Potenziale von Data Analytics nicht vollständig ausgeschöpft wurden. Ziel dieser Arbeit ist es, die organisatorischen Herausforderungen aus der Sicht des Managements, der Kultur und der Organisation zu beleuchten und unter der theoretischen Orientierung des „Dynamic Capability View“ die Haupttreiber für die organisatorische Verankerung von Data Analytics zu beleuchten, um die Potenziale der evidenzbasierten Entscheidungsfindung in einer datengetriebenen Organisation voll auszuschöpfen. Die Literaturarbeit zu Data Analytics und ihren organisatorischen Auswirkungen, die auf der Grundlage einer theoretisch-konzeptionellen Forschungsarbeit durchgeführt wurde, zeigt, dass es in diesem Kontext eine Vielzahl von Parametern gibt, die sich gegenseitig beeinflussen. Diese Studie hat gezeigt, dass Unternehmen einen ganzheitlichen Ansatz verfolgen müssen, um die Vorteile der modernen Data-Analytics-Methoden voll ausschöpfen zu können. Die Ergebnisse deuten darauf hin, dass die Hauptantriebskräfte für Datenanalysefähigkeiten gut ausgebildete Manager mit einem ausgeprägten analytischen Verständnis sind, die von klar definierten evidenzbasierten Prozessen geleitet werden, welche in einer hoch kultivierten datengetriebenen Kultur eingebettet sind. Dies ist die Grundlage für Wettbewerbsvorteile in hochdynamischen Umgebungen und führt in weiterer Folge zu einem höheren Niveau der Wertschöpfung.
Daten werden heute oft auch als das «neue Gold» bezeichnet. Denn die letzten Jahre haben gezeigt, dass Daten die Grundlage erstaunlicher unter- nehmerischer Erfolgsgeschichten sein können. Dabei ist die Arbeit mit Daten nicht grundlegend neu. Vielmehr geht es heute im Vergleich zu früher um nahezu unendlich grossen Mengen an Daten, die im Rahmen nahezu aller denkbaren Prozesse oder Schnittstellen gesammelt, gespeichert und ausgewertet werden können. Unter anderem beinhaltet dies Maschinendaten, unternehmens- interne Prozesse oder Daten über Kunden und den Markt, welche die Grundlage für lernende Systeme (Künstliche Intelligenz) bilden. Wir können heute davon ausgehen, dass künftig nicht mehr die technische Machbarkeit, sondern die mensch- liche Vorstellungskraft die Grenzen des Möglichen definiert.
Bekannt sind vor allem etliche Erfolgsgeschichten von Grossunternehmen, die ihr Geschäft auf Daten aufbauen. Etablierte KMU sind hingegen noch zögerlicher, mit Daten zu arbeiten und diese wertschöpfend einzusetzen. Diese Broschüre geht auf die besondere Situation von KMU im Umgang mit Daten und Data Science ein. Denn auch für KMU kann es lohnend oder sogar zwingend notwendig sein, sich mit dem Thema «Data Science» zu beschäftigen. Daten und Data Science bieten grosse
Chancen, sie können aber auch zu einer Bedrohung im Wettbewerb werden. Und, zu lange warten sollten KMU nicht, die Zeit drängt. Denn Geschwindigkeit ist einer der zentralen Wettbewerbsfaktoren im digitalen Zeitalter. Das IBH-Lab KMUdigital unter- stützt KMU dabei, den herausfordernden Weg in eine digitale Zukunft schneller und einfacher zu gehen.
Diese Broschüre geht daher insbesondere auf die Rolle von Daten und Data Science für KMU in der Bodenseeregion ein. Sie stellt eine Zusammen- fassung ausgewählter Erkenntnisse und Handlungs- empfehlungen dar, die wir in einem zweijährigen Forschungsprojekt gemeinsam mit 16 Unternehmen aus der Bodenseeregion gewinnen konnten. Die Erkenntnisse sollen KMU bei der Nutzung von Daten anhand von Data Science unterstützen. Dabei ist es kein Ziel, dass KMU zu einem «kleinen Google» werden. Vielmehr braucht es KMU- spezifische Lösungen und Überlegungen, wie mit Daten sinnvoll, zielorientiert und ressourcen- schonend umgegangen werden kann. Wie kann das aussehen? Welche Chancen, Herausforderungen und Lösungen bieten sich KMU vor dem Hinter- grund ihrer besonderen Situation? Was muss dazu im Unternehmen verändert werden? Welche Unterschiede bestehen im Vergleich zu Gross- unternehmen auf diesem Weg?
Diese und weitere Fragen stehen im Mittelpunkt des vorliegenden Projektberichts zum Einzelprojekt «Data Science für KMU leicht gemacht» oder kurz «Data Science 4 KMU» bzw. «Data4KMU», welches unter dem Dach des IBH-Labs KMUdigital in den Jahren 2018 bis 2019 durchgeführt wurde. Dazu werden Daten und Data Science aus mehreren Perspektiven betrachtet, die nicht unabhängig voneinander sind: Strategie und Geschäftsmodell, Services und Prozesse, Leadership, HRM und
Organisation, Organisationskultur und Ganzheitichkeit, sowie Technologie. Diese Perspektiven greifen wir in den nachfolgenden Kapiteln auf.
Die vorliegende Broschüre wäre ohne die wertvolle Unterstützung der Praxispartner des Projektes, des Managements des IBH-Labs KMUdigital sowie ohne die finanzielle Projektförderung durch die Inter- nationale Bodenseehochschule (IBH) und Interreg nicht möglich gewesen. Ihnen allen gilt unser ganz besonderer Dank!
Das Forschungsprojekt Data Sharing Framework untersuchte Data Sharing im Kontext von datenbasierten Services und Produkten in Ökosystemen aus fünf Perspektiven: Kultur, Vertrauen, Wert, Recht & Governance, Sicherheit. Die Forschungsergebnisse bestätigen die Relevanz dieser Perspektiven und es hat sich gezeigt, dass diese Aspekte sowohl Barrieren als auch Treiber für Datennutzung und -austausch zwi- schen Unternehmen darstellen.
Ausgangspunkt waren die folgenden forschungs- und praxisleitenden Annahmen:
• These 1: KMU können durch die Nutzung und das
Teilen von Daten Mehrwerte in Form neuer Produkte und Services generieren. Aus wissenschaftlicher Sicht liegt der Fokus des Themas Daten und Data Science bisher überwiegend auf der technischen Umsetzung datenintensiver Geschäftsmodelle und Kooperationen durch die Unternehmen.
• These 2: Die technische Umsetzung ist eine notwendige Bedingung für die datenbasierte Leistun- gen, sie reicht jedoch nicht aus, um eine Kooperations- und Teilbereitschaft bei KMU hinsichtlich ihrer Daten (Daten-Teilbereitschaft) auszulösen. Zahlreiche Stakeholder zögern, Daten zu teilen, vor allem in einem grenzüberschreitenden Kontext, wie z.B. in der Programmregion.
• These 3: KMU benötigen Data Access und Data Trust Strukturen, um mögliche Kooperationspotenziale tatsächlich zu heben. Dies erfordert u.a. gemeinsa- me Standards, ein annäherndes Verständnis vom Wert der Daten, Data-Governance in Kombination mit zu definierenden Trust-Standards, welche die erforderliche formelle und informelle Sicherheit bieten.
Nachfolgend wird ein Überblick über die hieraus hervorgegangenen Ergebnisse gegeben:
Kultur
Die Perspektive der Organisationskultur stellt das Denken und Handeln im Unternehmen und im Ökosystem in den Mittelpunkt. Eine Organisationskultur, welche die Arbeit mit Daten, Data Science Praktiken und vor allem das Teilen von Daten ermöglicht, stellt Daten in den Mittelpunkt des Wertschöpfungsprozesses. Dies erfordert eine generelle Sensibilisierung
für das Thema Daten, durchlässige Grenzen im und zwischen Unternehmen, ebenso wie ein neues Verständnis von Rollen, Strukturen und Prozessen im Unternehmen.
Vertrauen
Das Vertrauen ist im Ökosystem von großer Bedeutung. Das Einbeziehen von internen Stakeholdern und das Starten mit kleineren Pilotprojekten wird vorgeschlagen, um Vertrauen innerhalb der Organisation und mit externen Partnern zu schaffen.
Wert
Als notwendige Voraussetzung wird der Wert der Daten hervorgehoben. Unternehmen sollten den potenziellen Wert der Datenflüsse kennen, bevor sie sich entscheiden, ob sie diese Daten teilen und nutzen möchten. Es wird empfohlen, eine grobe Quanti- fizierung des Wertflusses vorzunehmen oder gegebe- nenfalls eine detailliertere Analyse durchzuführen.
Recht & Governance
Für die Berücksichtigung rechtlicher Rahmenbedingungen gemeinsamer Datennutzung sollten Organisationen zunächst eine interne Data Governance etablieren, um auf neue regulatorische Entwicklungen reagieren zu können. Die Einrichtung von Data-Asset-Management, Data-IP und -Compliance-Ma-nagement und Data-Contract-Management wird hier empfohlen.
Datensicherheit
Im Sicherheitskontext sind Methoden zur Gewährleistung der Datenintegrität, Privatsphäre und Sicherheit entscheidend. Es wird empfohlen, einen kollaborativen Ansatz zur Implementierung von Sicherheitsstandards zu verfolgen und dabei IKT-Experten einzubeziehen. Anfänglich können Best Practices ausreichen, aber längerfristig sollte eine kontinuierliche Sicherheitsrisikobewertung und Ge- schäftsprozessintegration angestrebt werden.
Minuten können in medizinischen Notfällen unmittelbar die Anwendbarkeit von Behandlungsmethoden, das Ausmaß von bleibenden Einschränkungen sowie die Überlebenschancen beeinflussen. Doch hat das präklinische Notfallmanagement heute mit steigenden Einsatzzahlen, zunehmenden Einsätzen ohne Dringlichkeit und dem demografischen Wandel bei gleichzeitigem Fachkräftemangel zu kämpfen. Entsprechend gewinnt das Prozessmanagement zur Gestaltung effizienter Rettungsketten an Bedeutung. Vor diesem Hintergrund ging die vorliegende Arbeit der Frage nach, welche Potentiale die Datenanalytik in vernetzten Rettungsketten für das Prozessmanagement hat, um wertvolle Zeit zu gewinnen. Zudem wurden die Herausforderungen der Datenanalytik in diesem Bereich betrachtet. Zur Beantwortung der Forschungsfrage wurde dabei eine theoretisch-konzeptionelle Vorgehensweise gewählt. Die Untersuchung zeigte, dass die Potentiale der Datenanalytik in diesem Kontext in der Entscheidungsunterstützung zur Standortwahl, zur Kapazitätsplanung und in der Abwicklung von Notfällen liegen. Zudem könnte diese bei der Prozessanalyse, sowie der Prävention und Vermeidung von Einsätzen unterstützen. Dahingegen liegen die Herausforderungen in der Notwendigkeit einer übergeordneten Strategie, der hinreichenden Datenqualität und Verfügbarkeit der Daten. Darüber hinaus bestehen Herausforderungen im Bereich der IT-Sicherheit und des Datenschutzes, sowie der oft fehlenden Vernetzung. Zusammenfassend wären die Potentiale der Datenanalytik zur Optimierung der Zeit in Rettungsketten vielversprechend, jedoch stehen dem Einsatz dieser aktuell noch eine Vielzahl an Herausforderungen gegenüber.
Das Energieinstitut Vorarlberg hat zusammen mit mehreren Regionen in Vorarlberg das Sanierungslotsenprojekt gestartet, um die Beratungssituation bei der Gebäudesanierung zu verbessern. Durch wiederholten Kundenkontakt wurde festgestellt, dass es ein Beratungsdefizit für Besitzer älterer Einfamilienhäuser gibt. Zwischen der Erkenntnis, dass eine Sanierung des Gebäudes notwendig ist und dem Zeitpunkt, an dem die ersten Leistungen bestellt werden, gibt es keine sachkundige Betreuung in den Fragestellungen der zukünftigen Gebäudenutzung. In den bisher angebotenen Beratungen werden zwar auch unterschiedliche Sanierungsvarianten miteinander verglichen. Jedoch bezieht sich der Vergleich auf Variationen von Sanierungsmaßnahmen, wie beispielsweise Dämmstoff - und Fensterqualität oder die Auswahl eines Heizungssystems. Darüber hinaus gehende Fragen über altersgerechtes Wohnen, Generationenwohnen, Nachverdichtung und Vermietung werden in diesen Beratungen nicht behandelt. In allen Fragen der zukünftigen Nutzung und den zukünftigen Anforderungen an das Gebäude, den darauf abgestimmten Sanierungszielen und der zugehörigen Kostenschätzung mit Finanzierungsberechnung sind die Besitzer auf sich gestellt.
Deshalb ist der Bedarf nach einem einfachen Rechentool, welches in einer frühen Phase der Sanierungsberatung, eine schnelle Berechnung der in Betracht kommenden Sanierungsvarianten ermöglicht, entstanden. In dieser frühen Phase ist es bislang nicht üblich eine Kostenschätzung abzugeben. Für diese Berechnungen wird eine Datenbank mit Sanierungs - und Umbaukostenelementen benötigt, sodass mit einer abgesicherten Basisdaten kalkuliert werden kann.
In der vorliegenden Masterarbeit werden eine auf Microsoft Excel basierende Datenbank und das dazugehörige Rechentool vorgestellt, die die beschriebenen Anforderungen erfüllen. Mit Hilfe der Datenbank wird eine Grundlage geschaffen, an denen sich die Sanierungslotsen orientieren können. Zusätzlich zu den Netto- und Bruttokosten, die bei den einzelnen Sanierungsmaßnahmen anfallen, werden auch Einheitskosten angegeben, die in das Rechentool eingetragen werden können.
Das Rechentool ermöglicht den Vergleich von fünf unterschiedlichen Sanierungsvarianten. Durch die freie Eingabe der Flächen können auch Varianten mit unterschiedlichen Nutzungskonzepten und unterschiedlichen Grundrissen verglichen werden. Neben einer Grobkostenrechnung der Sanierungskosten erfolgt im Tool auch die Berechnung der Förderung laut der Wohnaussanierungsrichtlinie und Energieförderungsrichtlinie des Landes Vorarlberg. Weitere Förderungen können als Einmalzuschüsse eingetragen werden. Eine vereinfachte Wirtschaftlichkeitsbetrachtung erfolgt über die Berechnung der Finanzierung der Sanierung. Hierbei werden auch Einnahmen durch Vermietung berücksichtigt.
In Europa und den USA werden rund 39 % des Energieverbrauchs durch den Betrieb von Gebäuden verursacht. Sie bieten somit großes Potential, den Gesamtenergieverbrauch zu verringern. Eine sinnvolle Möglichkeit dieser Umsetzung, ohne auf Gebäudekomfort verzichten zu müssen, liegt in der Optimierung der Gebäudeeffizienz. Dahingehend werden physikalische und datenbasierte Modelle als Planungstool für die Gebäudemodellierung verwendet, um frühzeitig Erkenntnisse über deren Energieverbrauch zu gewinnen. Während physikalische Modelle thermodynamische Prinzipien zur Modellierung des Energieverbrauchs einsetzen, verwenden datenbasierte Modelle historische oder allgemein verfügbare Daten, um ein Vorhersagemodell zu entwickeln. Das Ziel dieser Arbeit ist die Erstellung eines datenbasierten Modells, zur Prognose des Energieverbrauchs der Beleuchtung von Bürogebäuden. Es wurden bereits zahlreiche Studien hinsichtlich Prognosen des Energieverbrauchs erstellt. Die meisten beziehen sich jedoch auf den Gesamtenergieverbrauch oder jenen, welcher für Heizung, Kühlung oder Klimatechnik aufgewendet wird. Die Recherche des Autors ergab, dass vergleichsweise wenig Forschung für Vorhersagemodelle zur Ermittlung des Energieverbrauchs für die Beleuchtung betrieben wurde. Zur Umsetzung der Analyse stehen dem Autor Daten aus der Beleuchtungsinfrastruktur sowie Wetter-, Zeit- und Gebäudedaten zur Verfügung. Anhand dieser Arbeit soll eruiert werden, ob diese Daten hinreichend aussagekräftig sind, um ein geeignetes Modell zu entwickeln.
In den letzten Jahrzehnten gewann Aluminium als vielseitig einsetzbarer Werkstoff immer mehr an Bedeutung. Das Vorarlberger Unternehmen Hydro Extrusion Nenzing ist Teil der Aluminiumverarbeitungsindustrie und stellt stranggepresste Aluminiumprofile her. Beim Strangpressen werden Aluminiumstangen in einem Durchlaufinduktionsofen auf bis zu 520 °C erhitzt und anschließend durch ein formgebendes Werkzeug gepresst. Nach dem induktivem Aufwärmen wird ein Teil der Stange aus dem Ofen gefahren und abgeschert. Die erzeugte Temperaturverteilung an diesem abgescherten Bolzen ist der sogenannte Taper. Das induktive Aufwärmen ist ein wichtiger Teil der Extrusion und steht im Fokus dieser Forschungsarbeit. Ziel dieser Arbeit ist es, den Aufwärmprozess der Aluminiumstangen, mithilfe einer Kombination aus explorativer Datenanalyse und Methoden des maschinellen Lernens, genauer zu verstehen und den resultierenden Taper vorherzusagen. Außerdem werden parallel die signifikanten Einflussparameter, ohne Berücksichtigung von Materialparametern, untersucht.
Nach der explorativen Datenanalyse wurden mithilfe eines k-means-Clusterverfahren zwei Klassifizierungsvarianten entwickelt. In der ersten Variante liegen die Taper nach ihrer Bolzenlänge und Form gegliedert vor. Es zeigte sich, dass die Taper der Bolzen mit ähnlicher Länge auch ähnliche Formen annehmen. Ein einfacher Entscheidungsbaum konnte die 13 Zielklassen zu etwa 85 % vorhersagen. Die Bolzenlänge spielt bei der Vorhersage eine wichtige Rolle. Die zweite Klassifizierungsvariante basiert hingegen ausschließlich auf der Taperform. Die angewendeten Modelle (k-Nearest-Neighbor, Decision Tree, Random Forest) waren jedoch kaum in der Lage, die 11 Klassen abzubilden. Grund für die unzureichende Vorhersageleistung können die vielen Unsicherheiten in der Datenstruktur sein. Die anschließende detaillierte, explorative Analyse der formabweichenden Taper deutet fehlende Merkmale im Datensatz an. Einige Bolzen setzen sich aus zwei Stangenenden zusammen. Diese geteilten Bolzen führen zu abweichenden Aufwärmverhalten, wodurch auffällige Taper entstehen. Die Information ob sich ein Bolzen aus zwei Stangen zusammensetzt fehlt jedoch im Datensatz. Der Aufwärmvorgang der Stangen wird demnach durch ein Wechselspiel der aktuellen Regelung und zwei maßgeblichen Faktoren beeinflusst: die Bolzenlänge und das Auftreten von geteilten Bolzen. Diese Faktoren bestimmen die Stangentemperatur im Ofen, den induzierten Strom und somit den resultierenden Taper. Aufgrund dieser Ergebnisse könnte die temperaturbasierte Regelung zukünftig durch eine Steuerung hinsichtlich des induzierten Stroms ersetzt, dadurch Energie eingespart und Schrott vermieden werden.
Die vorliegende Arbeit beschreibt eine Methode zur Prognose von Anomalien in einzelnen Sensordaten für die Anwendung in Expertensystemen im Bereich der Biomassekraftwerke. Die in fünf Schritten beschriebene Methode beinhaltet neben der Datenaufbereitung eine Anomalievorauswahl durch eine unüberwachte Ausreißererkennung, welche mittels des PYOD-Toolkit umgesetzt wurde. Bei der anschließenden Anomaliebestimmung wird der zuvor generierte binäre Zielvektor durch einen mit dem System vertrauten Experten validiert. Eine darauffolgende überwachte binäre Klassifikation mit unbekannten Betriebsdaten ergibt, dass mittel- bis langfristige Anomalien im Mehrstunden- bis Mehrtagesbereich in Form eines Trends reproduktiv vorhergesagt werden können. Kurzfristige Anomalien im Minutenbereich in Form von Extremfällen können hingegen nicht reproduktiv vorhergesagt werden. Eine zusätzliche Untersuchung zur Vorhersage einer Anomalie noch vor deren tatsächlichen Eintrittszeitpunkt brachte keine zufriedenstellenden Ergebnisse. Demnach lässt sich mit dieser Methode nur eine bestimmte Art von Anomalien in Expertensystemen für Biomassekraftwerke vorhersagen. Dazu sollte zudem darauf geachtet werden, dass es trotz positiv erzielter quantitativer Ergebnisse notwendig ist, für die qualitative Prüfung einen mit dem System vertrauten Experten hinzuzuziehen und dass für die zu prognostizierende Anomalie die geeignete Abtastzeit zu wählen ist. Abschließend bleibt zu erwähnen, dass Anomalien, welche nur durch Über- bzw. Unterschreitung eines definierten Grenzwertes gekennzeichnet werden, als zu trivial für diese Methode gelten. Diese können über eine einfache Grenzwertbetrachtung identifiziert werden.
Nicht zuletzt seit der Pandemie sind sich Wissenschaftler einig, dass Homeoffice ein fester Bestandteil der Arbeitswelt bleiben wird. Die Coronakrise hat dabei gezeigt, wie wichtig Kompetenzen, wie digitales Know-how und Selbstorganisation, sowie eine offene Unternehmens- und partizipative Führungskultur, für den Erfolg von Homeoffice sind. So soll in der Masterarbeit am Beispiel von Vorarlberg die Forschungsfrage geklärt werden, welche Voraussetzungen für Homeoffice vorliegen müssen und wie sich Homeoffice unter Berücksichtigung soziodemografischer Moderatoren auf Angestellte mit und ohne Führungsverantwortung im Arbeits- und Privatalltag auswirkt. Zur Beantwortung der Forschungsfrage wurden die Erkenntnisse aus Literatur und Forschung mittels einer quantitativen Erhebung in Vorarlberg untersucht. Anhand dieser wird ersichtlich, dass die Rahmenbedingungen in Vorarlberg überwiegend erfüllt werden, aber einzelne, wie die Ergonomie des Heimarbeitsplatzes oder Schulungen im Umgang mit dezentraler Arbeit, noch ausbaufähig sind und Homeoffice selten einzelvertraglich vereinbart wird. Dennoch sind die Angestellten Vorarlbergs insgesamt zufrieden mit Homeoffice und sehen vor allem die Produktivität und Vereinbarkeit von Privat- und Berufsleben positiver als bei der Präsenzarbeit.
Die gemeinsame Betrachtung der zwei Megatrends „Nachhaltigkeit“ und „Digitalisierung“ findet derzeit bedingt in Großunternehmen statt, wenngleich Tomorrow’s Leaders Vorreiterunternehmen in beiden Bereichen sein werden. Die Zielsetzung dieser Masterarbeit besteht darin, den Einfluss der Digitalisierung auf die nachhaltige Entwicklung bei ATX-, DAX- und SMI-Unternehmen zu untersuchen. Auf Basis eines Mixed-Methods-Ansatzes wird quantitativ der lineare Zusammenhang zwischen offengelegten Informationen im Bereich Digitalisierung und dem ESG-Rating bzw. dem Rating der einzelnen ESG-Dimensionen empirisch erforscht. Diese Resultate wurden mithilfe von Experteninterviews vertiefend validiert sowie mit Handlungsempfehlungen für die erfolgreiche Berücksichtigung von Digitainability in Großunternehmen erweitert. Anhand der Regressionsanalyse wurde jedoch kein signifikanter Zusammenhang zwischen offengelegten Digitalisierungsinformationen und dem ESG-Rating sowie E-, S- und G-Rating bzw. eine Scheinkorrelation aufgrund der Marktkapitalisierung als Indikator für die Unternehmensgröße festgestellt. Laut den Experteneinschätzungen sind diese Forschungsergebnisse nachvollziehbar, da Digitalisierung bei Großunternehmen lediglich als Hilfsmittel zur Umsetzung der Nachhaltigkeit wahrgenommen wird. Das aktive Zusammendenken beider Megatrends ist aber aufgrund des regulatorischen Drucks sowie der Wahrung der Wettbewerbsfähigkeit anzutreiben und zu pflegen, womit die formulierten Handlungsempfehlungen als Unterstützung für Großunternehmen dienen.
Die Finanz- und Wirtschaftskrise 2008/09 ist Anlass für die Hinterfragung bestehender Anreizsysteme. Die vorliegende Arbeit untersucht die Beteiligung des Controllings bei der Anreizgestaltung ab diesem Zeitpunkt. Die Methodik ist eine systematische Literaturrecherche und Experteninterviews, die entlang der Gestaltungselemente des Anreizsystems ausgewertet werden. Seit dem Betrachtungszeitraum sind wesentliche Entwicklungen festzustellen von Individual- zu Gruppen-Incentivierung, vom Einsatz monetärer Anreize zu gemischten Anreizen (monetär und immateriell). Letzteres spiegelt sich in den Bemessungsgrundlagen wider, welche finanzielle und nicht-finanzielle Kennzahlen nutzen. Zur Generierung einer nachhaltigen Unternehmensentwicklung werden Long-Term-Incentives forciert. Das Controlling ist bei der Anreizgestaltung, beim Definieren von ‚Bemessungsgrundlagen‘ und ‚Anreizfunktionen‘, stark eingebunden. Die Aufgabenfelder des Controllings sind weit-gefächert: Reporting, Übersetzung von Geschäftszielen in Bemessungsgrundlagen, Wissensvermittlung, der Harmonisierung von Zielen bis zur Steuerungsfunktion bei Entscheidungen. Aus dieser Perspektive betrachtet übernimmt das Controlling zusätzliche Verantwortung und unterstützt das Management bei der Anreizgestaltung, was den Schluss nahelegt, dass eine Rollentransformation des Controllers zum Business Partner stattfindet.
Die Wertschöpfung eines Unternehmens wird durch die Mitarbeitenden beeinflusst. Die quantitative, wie auch die qualitative Verfügbarkeit von Personen am Arbeitsmarkt hat für Unternehmen einen hohen Stellenwert. Der Fachkräftemangel am Arbeitsmarkt führt zum sog. War for Talents. Daher ist es notwendig, sich mit den verfügbaren Personen auseinanderzusetzen und Strategien, aber auch Perspektiven zu erarbeiten, um die Kandidat:innen auf dem Arbeitsmarkt für sich zu gewinnen (vgl. Ullah & Witt, 2015, S. 8). Um den besten und zugleich passendsten Mitarbeiter bzw. die entsprechende Mitarbeiterin zu finden und langfristig ans Unternehmen zu binden, möchte es als attraktiver Arbeitgeber auf dem Arbeitsmarkt wahrgenommen werden (vgl. Bruhn et al., 2013, S. 63).
Das Ziel der Masterarbeit besteht darin, mit Hilfe von Interviews die Forschungsfrage zu beantworten und aus den Ergebnissen sowie im Abgleich mit weiteren bisherigen theoreti-schen und empirischen Erkenntnissen konkrete Handlungsempfehlungen für das Dienstleistungsunternehmen zu erstellen bzw. aufzuzeigen. Aufbauend auf einer theoretischen Analyse wird anhand von Experteninterviews ermittelt, welche Social-Media-Kanäle in der Praxis eingesetzt werden und welche Wirkungen diese mit sich bringen. Durch Handlungs-empfehlungen sollen Unternehmen entscheiden können, worauf beim Social-Media-Einsatz geachtet werden soll. Die Handlungsempfehlungen basieren auf durch die empirische Forschung gewonnenen Erkenntnissen von Expert:innen. Hierbei wurde darauf geachtet, dass die Betreffenden für das Unternehmen HR-Social-Media-Media betreuen und planen. In Zeiten der Digitalisierung und eines im Vollzug befindlichen Generationswechsels ist die Betreuung von Social-Media-Kanälen strategisch anzugehen.
Der Implementierungsprozess einer Unternehmensstrategie im Kontext der digitalen Transformation
(2022)
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
In Benin werden einerseits große Mengen verschiedenster Abfallarten häufig in der Landschaft entsorgt und unter freiem Himmel verbrannt. Andererseits ist Energie in Benin sehr knapp und muss zu einem hohen Prozentsatz aus Nachbarländern
importiert werden. Hier setzt die vorliegende Arbeit an mit der Frage: Welche Varianten der Müllverbrennung mit Nutzung thermischer Energie sind hinsichtlich ökonomischer, technischer und ökologischer Kriterien in Benin realisierbar? Zur Beantwortung dieser Frage werden zunächst die Rahmenbedingungen vor Ort analysiert, um Anforderungen an eine solche Müllverbrennungsanlage abzuleiten. Als Kern der Arbeit wird eine Müllverbrennungsanlage mit anschließender Abgasreinigung konzipiert, die auf einem bereits vor Ort erprobten Ofen aufsetzt, der zur Verbrennung medizinischer Abfälle konstruiert wurde. Anhand einer detaillierten Analyse von Abgasreinigungstechnik wird aufgezeigt, wie dieser Basisofen zur Verbrennung von landwirtschaftlichen Abfällen und Kunststoffen angepasst werden kann. Konkrete Beispiele zur Nutzung thermischer Energie zur Kälteerzeugung, Salzherstellung und Palmölherstellung zeigen auf, dass das vorgestellte Konzept praxistauglich ist.
Der IAS 39 steht nach der Finanzkrise 2008 / 2009 in der Kritik: Wertberichtigungen seien „too little, and too late“ gebildet worden. Die Einführung des IFRS 9 soll die frühzeitige Bildung von Wertberichtigungen ermöglichen und Prozyklizität und Komplexität verringern. Die Bankenaufsicht begrüßt die Einführung des IFRS 9, ist sich aber einig mit der Wissenschaft: Die frühzeitige Erkennung von makroökonomischen Umschwüngen ist schwierig. Am Beginn der Covid-19 Pandemie fordern IASB und die Aufsichtsbehörden die Banken auf, Ermessensspielräume zu nützen, um übermäßige Prozyklizität zu vermeiden. Die Arbeit stellt zu Beginn den theoretischen Rahmen dar. Darauf aufbauend wird anhand von Abschlüssen von österreichischen Banken untersucht, ob die Erwartungen an den IFRS 9 in der Covid-19 Pandemie erfüllt worden sind. Eine wichtige Datenquelle ist das Transparency Exercise der EBA. Die Untersuchung lässt auf keine frühzeitige Erkennung der Krise schließen. Die überwiegend vergleichbaren Modelle und die Auswertung der Kennzahlen bestätigen die Gefahr von Prozyklizität. Die Offenlegungen sind in Teilen wenig transparent, außerdem schwankt ihre Qualität stark.
Das Thema Nachhaltigkeit wurde in den letzten Jahren zu einer stetig wachsenden Herausforderung für Unternehmen, welche sich in einer Nachhaltigkeitsberichtserstattung (kurz: NBE) etablierte. Die vorliegende Untersuchung der Entwicklung der NBE der DAX-40-Unternehmen basiert auf einem Kategorienkatalog, eigens entwickelt aus den SDGs. Hiermit ist es möglich Umfang und Metadaten der Berichte in einem standardisierten und vergleichbaren Format festzuhalten. Diese Informationen wurden mithilfe deskriptiver Betrachtung und statistischer Methoden ausgewertet. Dadurch wird aufgezeigt, dass trotz der quantitativen Entwicklung der Berichte und vermehrter Behandlung nachhaltiger Themen, diese inhaltlich sehr stark, aufgrund einer fehlenden Standardisierung bzw. Verpflichtung für die Publikation von Nachhaltigkeitsthemen, variieren. Dies führt dazu, dass sowohl der Vergleich von Berichten zwischen Unternehmen als auch von unterschiedlichen Berichten desselben Unternehmens nur mit sehr hohem Aufwand möglich ist. Sinnvoll wäre die weiterführende Forschung im Bereich der NBE für Großunternehmen nach Inkrafttreten der Regelungen der CSRD und im Speziellen der Vergleich der Nachhaltigkeitsberichtserstattung vor und nach der Standardisierung.
Die Gewalt der Anderen
(2020)
In der Beratungstätigkeit als Sozialarbeiterin im Bereich der Opferhilfe sind Vergewaltigungsmythen sowie deren Verbreitung und Auswirkungen Teil der alltäglichen Praxis. Diese Masterarbeit zeigt auf wie problematisch deren Existenz in Bezug auf die Verarbeitung von Gewalterfahrung und den gesamtgesellschaftlichen Umgang mit sexualisierter Gewalt ist. Wie sich Vergewaltigungsmythen ausdrücken und inwiefern diese Teil des medialen Diskurses über sexualisierte Gewalt sind, wird anhand einer kritischen Diskursanalyse untersucht. Bereits die theoretische Auseinandersetzung zeigt auf, dass ein Teil der verbreiteten Vergewaltigungsmythen sich einem kulturrassistischen Stereotyp bedient, welcher gemäß unterschiedlichen wissenschaftlichen Untersuchungen maßgeblichen Einfluss auf die Strafverfolgung hat. Daher wird ein weiterer Fokus der Untersuchung auf die Verbreitung dieser Kulturalisierung der Gewalt gelegt. Als Ergebnis der theoretischen Auseinandersetzung und empirischen Untersuchung wird festgestellt, dass sich der Diskurs über sexualisierte Gewalt aus unterschiedlichen Diskurssträngen zusammensetzt, wobei die strafrechtliche und täter*innenorientierte Perspektive überwiegt und konstruktive Darstellungen und betroffene Personen wenig präsent sind. Dieser überlagernde Diskursstrang erschwert die Thematisierung von sexualisierter Gewalt als gesellschaftlichem Problem und schränkt den Begriff, aufgrund der juristischen Kategorisierung sexualisierter Gewalt in Delikte, in ihrer Repräsentation ein. Aus der Perspektive der Sozialen Arbeit benötigt der Diskurs mehr Fokus auf relevante Informationen für Betroffene, mehr Kontextinformationen sowie die Erfassung und Benennung von Gewalt als strukturellem, gesamtgesellschaftlichem Problem.
Aufgrund des fortschreitenden wirtschaftlichen und gesellschaftlichen Strukturwandels und der zunehmenden Digitalisierung, hat die Bedeutung immaterieller Vermögenswerte erheblich zugenommen. Dabei steht die Goodwill-Bilanzierung und insbesondere die Folgebehandlung des bei einem Unternehmenszusammenschluss erworbenen Goodwills im besonderen Fokus der Standardsetter und Bilanzadressaten. Der bei der Folgebilanzierung des Goodwills gegebene Ermessensspielraum führt zu der Sorge, dass diese Ermessensspielräume seitens der Manager opportunistisch genutzt werden könnten. Die vorliegende Arbeit untersucht, ob bei österreichischen Unternehmen die Goodwill-Bilanzierung als Instrument für Earnings Management dient. Unter Anwendung multipler Regressionsmodelle wird ein Datensample österreichischer Unternehmen im Zeitraum von 2015 bis 2019 auf die Einflüsse möglicher Earnings Management-Motive auf die vorgenommenen Goodwill-Impairments überprüft. Die Ergebnisse zeigen, dass Manager österreichischer Unternehmen Big Bath Accounting betreiben und damit schlechte Unternehmensjahre nutzen, um Goodwill-Impairments vorzunehmen. Die Ergebnisse zeigen zudem eine Tendenz, dass Big Bath Accounting insbesondere dann zur Anwendung kommt, wenn es einen Wechsel im Finanzvorstand gibt. Weiters zeigen die Ergebnisse den hohen Einfluss der Aktionärsstruktur auf die Impairmententscheidungen. Bei Unternehmen mit großen institutionellen Aktionären liegt eine zusätzliche Kontrollinstanz vor, die Earnings Management-Verhalten reduziert. Die vorliegende Arbeit unterstützt die aktuellen Diskussionen der internationalen Rechnungslegung über die Beibehaltung des Impairment-Tests und liefert Hinweise darauf, dass bei österreichischen Unternehmen Earnings Management-Motive bei der Goodwill-Bilanzierung eine Rolle spielen.
Die Masterarbeit befasst sich mit der Thematik von Jugend und Adoleszenz im Zusammenhang mit möglichen Schwierigkeiten innerhalb der Identitätsentwicklung und wie diese gelöst werden können. Die Identitätsbildungsprozesse im Jugendalter sollen im Theorieteil dieser Arbeit in Bezug auf Bildungsinstitutionen aufgezeigt und kritisch reflektiert werden. Anschließend wird im Praxisteil ein Toolkit zur Unterstützung der Identitätsentwicklung ausgearbeitet werden, welches Jugendlichen zur Reflexion anregen und bei der Erreichung von Zielen Unterstützung bieten soll.
Die Masterarbeit befasst sich mit der Neugestaltung öffentlicher Räume. Anhand einer qualita-tiven Studie wird die Parkanlage Superkilen, Kopenhagen untersucht. Es wird die Frage nachgegangen, ob Superkilen aus der Perspektive der postmigrantischen Gesellschaft und der Sozialraumarbeit als ein gelungenes Beispiel gilt. Als Datengrundlage der Analyse dienen ein systematisches Review und eine teilnehmende Beobachtung. Die Analyse erfolgt anhand einer qualitativen Inhaltsanalyse. Die induktiv herausgearbeiteten Codes werden anhand des St. Galler Modells dargelegt. Die Ergebnisse zeigen, dass die Grundidee der Gestalter:innen, nämlich die Vielfalt des Viertels durch konkrete internationale Objekte darzustellen, nicht mit der Lebenswelt der Bewohner:innen übereinstimmte. Unterschiedliche Grundverständnisse in Bezug auf Kultur und Diversity wurden hierbei erkannt. Gleichzeitig zeigen sich spielerische Designelemente als besonders förderliche Faktoren für alltägliche Begegnungen in Superkilen und Aneignungen finden statt. Die interkulturelle Soziale Arbeit kann mit ihrer Differenzsensi-bilität und ihrem Fokus auf die unmittelbare Lebenswelt von Menschen als Profession und Disziplin zur Bearbeitung dieser Thematik beitragen.
Der Forschungsbericht gibt Antworten auf folgende Forschungsfrage: "Wie gestalten sich die interkulturellen Lebenswelten im Jahre 2021 im Orden der Steyler Missionare in St. Gabriel?" Das Erkenntnisinteresse dieser Studie ist, wie eine Ordensgemeinschaft in der heutigen Zeit funktioniert. Wie die veränderten gesellschaftlichen Werte, Normen und Regeln sich auswirken und wie sich ein normaler Alltag für ein Ordensmitglied gestaltet. Was es heißt zu missionieren und welche Erfahrungen Steyler Missionare hinsichtlich eines gelingenden interkulturellen Zusammenlebens haben, werden in dieser Studie beleuchtet. Die Recherchen zum Forschungsstand ergaben, dass es kaum Studien zum Ordensleben aus sozialwissenschaftlicher Sicht gibt. Die Lebenswelten der Ordensmitglieder werden mit Hilfe des lebensweltorientierten Ansatzes nach Thiersch und der Bedürfnistheorie nach Obrecht theoretisch fundiert. Das Sampling erfolgte mittels eines qualitativen Stichprobenplans. Die Datenerhebung erfolgte im Juli 2021. Die Auswertung erfolgte inhaltsanalytisch nach Mayring. Die Steyler Missionare können als weltoffene Ordensgemeinschaft betrachtet werden, deren Handeln wesentlich von den unterschiedlichen Missionserfahrungen geprägt ist. Ordensstrukturen unterscheiden sich deutlich von Strukturen der übrigen Gesellschaft. Diese Strukturen haben eine positive Wirkung auf die Ordensmitglieder. Diese, als auch eine sinnstiftende und erfüllende Tätigkeit sowie ein gewisses Maß an Freizeit ist anscheinend das Rezept für ein zufriedenes Leben. Die Mission hat für den Orden einen zentralen Stellenwert. Integration, Rassismus und Kolonialismus sind permanente Herausforderungen auch im Zusammenleben und werden aus verschiedenen Perspektiven diskutiert. In der Ordensgemeinschaft hat es viele Veränderungen gegeben, die Auswirkungen von diesen und der Umgang hiermit werden beschrieben sowie ein Blick in die Zukunft gewagt.
Die vorliegende Masterarbeit untersucht die Rolle des Controllings für innovative Startups in Österreich, insbesondere in der Anfangsphase. Experteninterviews wurden durchgeführt, um Einsichten in die Herausforderungen, Chancen und Best Practices des Startup-Controllings zu gewinnen. Die gewonnenen Erkenntnisse wurden analysiert und in Kategorien zusammengefasst, um einen umfassenden Überblick über die wichtigsten Ergebnisse zu liefern. Die Arbeit betont die Bedeutung einer effektiven Controlling-Funktion für Startups, um fundierte Entscheidungen zu treffen, die finanzielle Leistungsfähigkeit zu verbessern und das langfristige Wachstum zu unterstützen.
Die vier Tage Arbeitswoche
(2020)
Das Ziel der vorliegenden Masterarbeit war es, den Nutzen einer 4-Tage-Woche einerseits für Mitarbeiter, aber auch für Unternehmen herauszufinden. Dazu wurde als erstes herausgefunden, welche Auswirkungen die Arbeitszeit auf Mitarbeiter haben kann und inwiefern das immer wichtiger werdende Thema Work-Life-Balance davon betroffen ist.
Als nächster Schritt wurden Erfahrungsberichte von Unternehmen, sowie derer Mitarbeiter analysiert. Derzeit gibt es noch nicht viele Länder und Unternehmen, welche sich für eine 4-Tage-Woche einsetzen, weshalb diejenigen, die eine 4-Tage-Woche befürworten oder eingeführt haben, große mediale Aufmerksamkeit erhalten und regelmäßig interviewt werden.
Daraufhin wurden weitere Arbeitszeitmodelle analysiert, welche als Alternative für den Zweck einer besseren Work-Life-Balance und auch bessere Wettbewerbsfähigkeit für Unternehmen eingesetzt werden können.
Dann folgte die empirische Analyse, wobei Experteninterviews und auch eine quantitative Umfrage in Vorarlberg durchgeführt wurden. Dabei wurden einerseits Kenner der 4-Tage-Woche, aber auch Nicht-Kenner befragt und diese Umfrageergebnisse miteinander verglichen.
Als letzter Schritt wurde Kontakt mit einer bekannten Unternehmensberaterin aufgenommen, welche Spezialistin im Bereich Change-Management und Organisationsentwicklung ist. Somit wurde eine Handlungsempfehlung zur Implementierung einer 4-Tage-Woche ausgearbeitet.
Diese Masterarbeit ist sowohl für Entscheidungsträger im Personalbereich, als auch für all jene Dienstnehmer, welche ihre Work-Life-Balance für wichtig erachten.
Praxisanleiter:innen nehmen eine entscheidende Rolle in der Ausbildung von Pflegepersonen wahr. Die Tätigkeit fordert eine Vielzahl von Kompetenzen. Die Weiterbildung Praxisanleitung bietet eine wichtige Grundlage für die Entwicklung dieser Kompetenzen – deren Rahmenbedingungen, Methoden und Inhalte in Österreich werden in dieser Studie untersucht.
Diese Arbeit resultiert in einem Leitfaden, der zur verbesserten Wirksamkeit von Lernmaßnahmen in Organisationen beitragen soll. Inbesondere die Verkürzung der Halbwertszeit von Wissen gab Anlass zur vorliegenden Untersuchung. In den Kapiteln zwei und drei wurde das theoretische Fundament durch Bearbeitung der Themen Personal-/Kompetenzentwicklung, allgemeine und individuelle Lerntheorie, sowie Lernbedarfsanalyse, Lerntransfer und Lernevaluation gebildet. Darauf aufbauend wurde mit der Methodik (Kapitel 4) der Experteninterviews der aktuelle Stand definierter Organisationen im Raum Ostschweiz, Westösterreich und Liechtenstein hinsichtlich Lernbedarfsanalyse, Lerntransfer und Lernevaluation erhoben. Diese Ergebnisse wurden in Kapitel 5 mit der Literaturstudie aus Kapitel 2 und 3 verglichen. Der Leitfaden besteht für Lernbedarfsanalyse, Lerntransfer und Lernevaluation aus unterschiedlichen Schritten, die in Tabellenformat dargestellt und beschrieben sind (Kapitel 6). In Kapitel 7 wurden, neben einer Zusammenfassung und einem Fazit, weiterführende Forschungsansätze zur Thematik angeführt.
Die überdurchschnittlich hohe Akzeptanz von Frauen für Studiengänge der Veranstaltungsbranche
(2023)
Das ausgewiesene Ziel der vorliegenden Masterthesis ist die Formulierung eines möglichen, multiperspektivischen Erklärungsansatzes für die überdurchschnittlich hohe Akzeptanz von Frauen für Studiengänge der Veranstaltungswirtschaft. Das Resultat besteht in der Beantwortung der Hauptforschungsfrage: „Welche evidenten Gründe sind ausschlaggebend, dass sich mehr Frauen als Männer für ein duales Studium der Vertiefung ‚Betriebswirtschaftslehre – Messe-, Kongress- und Eventmanagement‘ an der Dualen Hochschule Baden-Württemberg Ravensburg entscheiden bzw. entschieden haben?“ Hierfür wurde die Strategie der Triangulation mit unterschiedlichen Methoden gewählt. Nach der Sekundärdatenrecherche wurden unabhängig voneinander qualitative Tiefeninterviews und eine standardisierte Online-Befragung mit direkter Fragestellung durchgeführt. Im Anschluss daran wurden die Einzelergebnisse als möglicher Erklärungsansatz zusammengefasst und interpretiert. Die Erkenntnisse zeigen, dass die Studienfachwahl eine Vielzahl unterschiedlicher Einflussfaktoren vorweist: Neben begrenzt rationalen Aspekten spielen die individuelle Persönlichkeit sowie die Interessen eine bedeutende Rolle. Des Weiteren könnte die Interaktion biologischer und soziokultureller Faktoren die Geschlechterverteilung erklären.