Master's Thesis
Refine
Document Type
- Master's Thesis (298) (remove)
Institute
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (2)
- Soziales & Gesundheit (2)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (1)
- Forschungszentrum Energie (1)
- Gestaltung (1)
- Hochschulservices (1)
- Technik | Engineering & Technology (1)
- Wirtschaft (1)
Language
- German (298) (remove)
Keywords
- Digitalisierung (11)
- Controlling (6)
- Digitale Transformation (6)
- Industrie 4.0 (5)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Photovoltaik (4)
- Agilität (3)
- Demand Side Management (3)
- ESG (3)
In Zeiten zunehmenden Umweltbewusstseins und steigender Energiekosten gewinnt die Optimierung der Energieeffizienz von Anlagen und Gebäudetechnik zunehmend an Bedeutung. Insbesondere im Kontext nachhaltiger und ressourcenschonender Heizungs- und Warmwassersysteme haben sich Wärmepumpen als maßgebliche Technologien etabliert. Die effiziente Bereitstellung von Warmwasser nimmt dabei eine essenzielle Position ein, da sie einen erheblichen Anteil am Gesamtenergieverbrauch eines Gebäudes ausmacht. Die vorliegende Masterarbeit widmet sich der Fragestellung, welchen Einfluss Zirkulationsleitungen auf die Effizienz von Wärmepumpen haben und wie sich alternative dezentrale Warmwasserbereitungssysteme auf diese auswirken. Konkret wird diese Fragestellung am Beispiel einer Mittelschule in Frastanz untersucht. Die Untersuchung erfolgt mithilfe von Simulationen mit der Software GeoT*Sol, wodurch verschiedene Szenarien der Warmwasserbereitung und deren Auswirkungen auf die Jahresarbeitszahl (JAZ) der Wärmepumpe simuliert werden. Es werden sechs Varianten verglichen, darunter der Ist-Stand mit Zirkulationsleitung, eine zeitlich angepasste Zirkulation, eine Variante ohne Zirkulation sowie dezentrale Warmwasserbereitung mit und ohne Photovoltaik-Einbindung. Die Ergebnisse zeigen, dass die Zirkulationsleitung einen signifikanten Einfluss auf die JAZ einer Wärmepumpe hat, da permanent Wärmeverluste entstehen, selbst ohne Warmwasserbedarf. Die dezentrale Warmwasserbereitung mit PV-Einbindung erweist sich als vielversprechend, sowohl in Bezug auf energetische Einsparungen als auch auf finanzielle Rentabilität. Die Masterarbeit bietet somit wichtige Erkenntnisse und Handlungsempfehlungen für die Mittelschule Frastanz, um ihre Energieeffizienz zu steigern und Kosten einzusparen. Die Empfehlungen zur Beibehaltung der Bestandswärmepumpe, der Installation dezentraler Warmwasserbereitungsanlagen und der PV-Anlage können als Grundlage für zukünftige Investitionsentscheidungen dienen und einen Beitrag zum nachhaltigen Energiemanagement der Schule leisten.
Zu Beginn wurde im eigenen beruflichen Umfeld beobachtet, dass Informationen und Wissen, die heutzutage im Arbeitsalltag in Fülle ausgetauscht werden, häufig nicht die gewünschte Aufmerksamkeit und Offenheit erhalten. Diese Masterarbeit untersucht, wie bei dieser Art von Beobachtungen, deren komplexe Natur die Identifizierung von Lösungsansätzen erschwert, das eigentliche Problem erkannt werden kann. Frederic Vester zufolge ermöglicht ein vernetztes Denken dabei, Erkenntnisse vor allem aus den miteinander verknüpften Faktoren zu gewinnen. Diese Denkweise lässt sich in einer systemischen wie auch einer transdisziplinären Betrachtungsweise finden, wobei diese der Herausforderung gegenüberstehen vielfältige Perspektiven auf das Problem miteinander in Einklang zu bringen. Dies wirft die Frage auf, inwiefern eine gestalterische Zwischeninstanz dazu beitragen kann, einen gemeinsamen Denkraum zu eröffnen. Das Ziel dieser Arbeit ist, einen Entwurfsvorschlag für die Gestaltung eines Erkenntnisprozesses zu erarbeiten. Der Forschungsansatz dieser Arbeit – (FÜR+ÜBER)DURCH – leitet sich aus Christopher Fraylings Kategorien zur Designforschung ab. Die ‚Recherche FÜR‘ führt dazu, ein Problem als ein System zu betrachten, für das Wolfgang Jonas ein Problem-Design vorschlägt. In der ‚Recherche ÜBER‘ zeigt sich, dass es explizites wie auch implizites Wissen für eine umfassende Problembetrachtung braucht. Dafür wurde die Spuren-sicherung der Kunst auf das Design übertragen, um vorhandenes Wissen visuell zu dokumentieren. Mit Charles S. Peirce visuelles Entwurfs- und Erkenntnisverfahren lässt sich zudem ein anschauliches Denken durch diagrammatisches Schlussfolgern fördern. Die theoretischen Erkenntnisse münden in der ‚Transformation DURCH‘ in einen Vorschlag für ein diagrammatisches Problem-Design. Diesen gilt es in Bezug zu dem praxisbasierten Gestaltungsentwurf aus dem Masterprojekt zu reflektieren. In einer Werkshalle wurden Prototypische Beobachtungen zum ‚Zusammenspiel von Aufmerksamkeit und Offenheit‘ physisch in Beziehung gesetzt und anschließend mit zwei Testgruppen daraufhin untersucht, ob sich daraus neue Erkenntnisse ergeben. Es zeigte sich, das Design auf diese Weise einen gemeinsamen Austausch fördern kann. Gleichzeitig wurde deutlich, dass der Gestaltungsprozess die Vernetztheit eines Problems darstellen kann, jedoch ein vernetztes Denken aktiv initiiert werden muss, wofür im Entwurfsvorschlag dieser Arbeit ein visuelles Verfahren vorgestellt wird.
Diese Forschungsarbeit analysiert die Konfliktfähigkeit der Generation Z im Rahmen des Projektma-nagements und strebt die Entwicklung individuelle Konfliktmanagementstrategien an, die den Bedürf-nissen und Präferenzen dieser Generation gerecht werden. Angesichts der sich ständig wandelnden Arbeitswelt, stellt die effektive Bewältigung von Konflikten eine zentrale Herausforderung für Unter-nehmen dar. Die zentrale Frage lautet: „Wie können Unternehmen wirkungsvolle Strategien für das Konfliktma-nagement entwickeln, um im Rahmen des Projektmanagements die Konfliktfähigkeit der Generation Z angemessen zu berücksichtigen?“ Die Beantwortung erfolgt durch die Anwendung qualitativer For-schungsmethoden, inklusive Experteninterviews von Führungskräften und Projektleiter:innen, die be-reits mit dieser Altersgruppe, in Bezug auf das Projektmanagement zusammengearbeitet oder im Team angeleitet haben. Die Ergebnisse verdeutlichen spezifische Konfliktmuster und Präferenzen innerhalb der Generation Z, die sich klar von den Generationen zuvor unterscheiden. Massgeschneiderte Konfliktmanagement-strategien tragen dazu bei, Konflikte effizienter zu bewältigen und ein harmonisches Arbeitsumfeld zu schaffen. Die Strategien umfassen Insbesondere eine stärkere Einbindung von digitalen Kommunika-tionsmöglichkeiten, flexiblere Arbeitsstrukturen und gezielte Schulungen zur Konfliktlösung. Demzufolge wird offensichtlich, dass die Integration dieser Strategien essenziell ist, um die Konflikt-bewältigung und die Arbeitsatmosphäre zu optimieren. Daher richtet sich diese Arbeit besonders an Interessierte, die tiefere Einsichten in die Gestaltung von Konfliktbewältigung und das Potenzial dieser Altersgruppe suchen. Die Masterarbeit stützt sich auf eine umfassende Recherche, die auf einer sorgfältigen Analyse von Büchern, Fachzeitschriften, Forschungsarbeiten und Onlinequellen basiert. Unabhängig von meiner eigenen individuellen Perspektive und den Erfahrungen, die ich in Projekten mit der Generation Z gesammelt habe, verfolgt diese Arbeit das Ziel, einen eingehenden Einblick in den Umgang mit Kon-flikten sowie das Potential dieser spezifischen Altersgruppe zu vermitteln. Dieser Forschungsansatz trägt dazu bei, die Erkenntnisse dieser Masterarbeit in einen umfassenden Kontext zu setzen und ihre Relevanz für die praxisorientierte Gestaltung von Konfliktmanagement zu unterstreichen
Die vorliegende Arbeit beschäftigt sich mit verschiedenen Regelstrategien für eine nachträgliche Bauteilaktivierung zur Gebäudesanierung und deren Auswirkungen auf die Energieeffizienz. Im Rahmen einer Kooperation der Alpenländischen Gemeinnützigen Wohnbaugesellschaft und dem Energieinstitut Vorarlberg, wird ein Gebäude aus dem Altbestand der Südtiroler Siedlung in Bludenz saniert und mit einer nachtäglichen Bauteilaktivierung der Bestand-wand versehen. Um die Auswirkungen verschiedener Regelstrategien sowohl auf den Komfort in den Wohnungen als auch auf die Energieeffizienz des Gebäudes zu untersuchen, wird mithilfe der Simulationssoftware IDA ICE ein Gebäudemodell erstellt und verschiedene Regelungen simuliert. Dabei werden Parameter wie das Erreichen der Solltemperatur, der Komfort oder der benötigte Heizwärmebedarf als Bewertungskriterium herangezogen, um diese zu vergleichen. Zuerst werden Flächenregelungen untersucht, die anhand der Temperatur eines Raumes oder dem Mittelwert mehrerer Räume eine komplette Gebäudeseite regeln. Darauffolgend werden Etagen- und Einzelraumregelungen untersucht. Zur Anwendung kommen gewöhnliche Thermostat- und PI-Regler, sowie eine Rücklauftemperaturregelung und eine prädiktive Regelung, welche mithilfe einer idealen Wettervorhersage arbeitet. Ziel ist es, die Auswirkung der Regelungen auf die Raumtemperaturen zu untersuchen und eine geeignete Regelstrategie für das Gebäude zu finden.
Einfluss staatlicher Fördermaßnahmen auf Investitionsentscheidungen von Unternehmen – Eine Untersuchung der Wirksamkeit der AWS-Investitionsprämie auf Vorarlberger Unternehmen. Die Investitionsförderung ist ein wichtiges Instrument der österreichischen Politik. Dabei soll durch Zuschüsse bei Investitionen in Digitalisierung, Ökologisierung, bauliche Anlagen oder auch technische Einrichtungen die weltweite Wettbewerbsfähigkeit gestärkt und österreichische Arbeitsplätze gesichert werden.
Ziel dieser Arbeit ist es, den Einfluss der staatlichen Fördermaßnahmen auf Investitionsentscheidungen von Vorarlberger Unternehmen zu untersuchen. Anhand von Experteninterviews und der Auswertung des AWS-Leistungsberichtes soll festgestellt werden, ob diese Förderungen die gewünschte Wirksamkeit aufweisen können.
Zunächst werden die verschiedenen Investitionsrechenverfahren ausführlich erklärt und er-läutert. In weiterer Folge behandelt diese Arbeit die staatlichen Förderungen und weitere Anreize der Politik. Darüber hinaus werden die Experteninterviews miteinander verglichen und analysiert, um Erkenntnisse über die Auswirkung staatlicher Fördermaßnahmen zu gewinnen. Definitiv ist ein Einfluss staatlicher Fördermaßnahmen gegeben. Einerseits hat sich das Volumen der Investitionen stark erhöht, anderseits sind diese in den Zeitraum der Förderungen verlegt worden. Ein weiterer wichtiger Aspekt ist, dass die staatlichen Fördermaßnahmen die Basis der Investitionsrechenverfahren verändern.
Ansätze des maschinellen Lernens werden sowohl in der Forschung als auch in der Praxis eingesetzt, um gewünschte Ausgabedaten anhand bekannter Eingabedaten vorherzusagen. In dieser Masterarbeit wird die Anwendung des maschinellen Lernens in der Batteriedatenanalyse zur Bestimmung des Alterungsstatus von Lithium-Ionen-Batterien untersucht. Das Ziel dieser Arbeit besteht in der Vorhersage von Alterungskurven (englisch state of health - SoH) für Lithium-Ionen Batterien über die Anzahl der Entladezyklen (Zeitachse). Dies erfolgt auf der Grundlage zuvor erfasster Daten für drei Typen von Lithium-Ionen-Batterien, die bei Temperaturen von 15 °C, 25 °C und 35 °C sowie C-Raten von 0,5C, 1C und 2C aufgenommen wurden. Im Zuge dessen wurden die angewandten Methoden des maschinellen Lernens analysiert und ihre Ergebnisse verglichen. Der Umfang dieser Arbeit hebt sich von anderen Ansätzen des maschinellen Lernens in der Batteriedatenanalyse ab, da dieselben Methoden in einem breiteren Spektrum von Daten mit unterschiedlichen Temperaturen und Kathodenmaterialien verwendet wurden. Dies ist für die Analyse von Unterschieden im Verhalten in der Praxis relevant. Nach dem Erwerb und der Vorbereitung der Daten wurden Modelle mit vier ausgewählten Regressionsverfahren (lineare Regression, Ridge-Regression, Random-Forest-Regression und KNN-Regression) des überwachten Lernens trainiert und die Vorhersagen durchgeführt. Aus den Ergebnissen kann eine allgemeingültige Auslegungsgrundlage für weitere Untersuchungen und die praktische Anwendung abgeleitet werden, bei der die Vorhersagen von SoH-Kurven für Lithium-Ionen-Batterien mit linearer Regression und Ridge-Regression die höchste Genauigkeit aufweisen.
Die berührungslose Bedienung stellt in der Mensch-Computer-Interaktion (HCI) eine wichtige Alternative gegenüber berührungsbasierter Bedienung dar. Expertinnen und Experten gehen davon aus, dass dadurch berührungsbasierte Bedienung in bestimmten Anwendungsfällen, wie in Operationssälen oder der Automobilbranche, abgelöst wird. Allerdings weisen gestenbasierte Systeme Inkonsistenzen bei der Bedienung auf, da diese für unterschiedliche Technologien, in verschiedenen Nutzungskontexten und gezielt durch Markendifferenzierung entwickelt werden. Eine weitere Herausforderung stellt die Uneinigkeit potenzieller Endnutzer:innen über geeignete Gesten dar (Gesture Disagreement Problem). Dies hat zur Folge, dass sich bisher kein allgemeingültiges Gestenset etablieren konnte. Um ein Gestenset für die berührungslose Bedienung für der HoloLens 2 in der mobilen Vermessung zu entwickeln, wurden kontextspezifische Anforderungen identifiziert und im Gestenerhebungsprozess berücksichtigt. Zur Identifizierung wurden in dieser Arbeit Interviews und eine Beobachtung der Nutzer:innen während des Arbeitsprozesses durchgeführt. Zudem untersucht diese Arbeit, ob und wie das oben genannte Problem der Uneinigkeit sowie die Voreingenommenheit im Gestenerhebungsprozess vermieden werden kann. Durch die Anwendung von zwei verschiedenen Priming-strategien sowie der Produktionsstrategie sollte diesen Problemen entgegengewirkt werden. Anhand der Auswertung ist zu erkennen, dass das Gesture Dis-agrement Problem nicht vollständig gelöst werden konnte. In der Gestenerhebung wurden 355 unterschiedliche Gesten für 19 Aufgaben erhoben. Bedienbefehle, die eine Assoziation zur berührungsbasierten Bedienung mit Bildschirmgeräten darstellten, wurden kaum erhoben. Dies beweist, dass die Voreingenommenheit vermieden werden konnte. Um die Auswahl der Gestenvorschläge einzuschränken wurden die Gesten von den Probandinnen und Probanden anhand der zwei Usability Kriterien „Einprägsamkeit“ und „Auffindbarkeit“ bewertet. Anhand von wissenschaftlichen Veröffentlichungen zur einhändigen Bedienung von Infotainmentsystemen zeigt sich, dass die Einprägsamkeit von Gestenbefehlen begrenzt ist. Im Kontext der mobilen Vermessung ist angedacht, Gestenbefehle als Shortcuts einzusetzen, um grafische Schnittstellen zu reduzieren. Dies hat zur Folge, dass die Probandinnen und Probanden eine Reihe von Gestenbefehlen lernen und sich einprägen müssen. Da aufgrund der hohen Anzahl der Gesten die Bewertungen nicht ausreichen, wurde die Auswahl anhand von zwei Auswertungsverfahren eingegrenzt. Zum einen wurde die Taxonomie für berührungslose Handgesten von Piumsomboon et al. (2013) herangezogen, um die Merkmale der Gesten zu gruppieren. Die Merkmale der Gesten wurden in einer Matrix, die die Bewertungen zur Einprägsamkeit und Auffindbarkeit berücksichtigen, eingeordnet. Zudem wird die prozentuale Menge dieser Merkmale berücksichtigt, um herauszufinden ob bestimmte Aufgaben spezifische Gestenmerkmale aufweisen. Zum anderen wurde ein Ansatz verfolgt, bei dem ähnliche Gesten zusammengefasst werden, um als Vorlage für die Expertenmeinung zu dienen. Unter Berücksichtigung ergonomischer, technischer und logischer Anforderungen wurde aus den resultierenden Gesten ein konsistentes Gestenset entwickelt, das zur berührungslosen, einhändigen Bedienung auf der HoloLens 2 und im Kontext der mobilen Vermessung angewendet werden kann. Weitere Untersuchungen sind notwendig um die Einprägsamkeit des Gestensets zu überprüfen. Zudem muss ein Konzept entwickelt werden, wie dieses Gestenset erlernt werden kann.
Operative Exzellenz wird als Sammelbegriff für strategische Managementansätze angesehen, welche anhand von Optimierungsinitiativen die Geschäftsprozesse des Unternehmens auf Kundenbedürfnisse, Qualität wie auch auf Effizienz ausrichten. Exzellenzmodelle kombinieren sowohl technische als auch soziale Faktoren im Streben nach nachhaltiger Verbesserung und basieren nicht nur auf dem Betriebsmanagement und den technischen Prozessen, sondern widmen auch den Menschen und ihrem Einfluss auf die erfolgreiche Umsetzung eines Optimierungsprogramms besondere Aufmerksamkeit. Ziel dieser Masterarbeit ist es, die entscheidende Rolle von Führungskräften und deren Führungsstile zu diskutieren, welche laut der ausgewerteten akademischen Literatur, sich für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 als erfolgsversprechend nennen lassen, indem die gewünschte Organisationskultur durch gezielte Anwendung von Führungskonzepten gefördert wird. Die Fragestellung der Masterarbeit wird anhand eines theoretisch-konzeptionellen Vorgehens beantwortet. Die Untersuchungen haben die Erkenntnisse zu Tage gebracht, dass sich mit dem Wandel der Anforderungen an die Unternehmen, auch die Führungskonzepte an die Anforderungen angepasst haben und somit auch die Führungsphilosophie von „Command and Control“ zu „Empowerment“, „agiler Führung“ und „transformationaler Führung“ übergegangen ist. Für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 konnten die Führungskonzepte „Transformationale Führung“, „Symbolische Führung“, „Mitarbeiter empowern“ und „Agile Führung“ identifiziert werden. Es besteht Grund zur Annahme, dass eine Kombination der vorgestellten Führungskonzepte die besten Ergebnisse liefern würde, insofern das geeignetste Führungskonzept situationsadäquat angewendet wird.
Vor über 25 Jahren, im Mai 1997 wurde mit dem Gewaltschutzgesetzes in Österreich eine klare Haltung gegen Gewalt an Frauen gesetzt. Dennoch sind die Zahlen von häuslicher Gewalt gegen Frauen bis heute erschreckend hoch. Die Gesetzeslage in Österreich gilt als fortschrittlich, die Umsetzung der Gesetze steht dabei jedoch immer wieder in Kritik. (Baer 2010, S. 556). Um herauszufinden, was es für einen gelingenden Gewaltschutz von Frauen bedarf, muss mit den Expert*innen aus diesem Feld gesprochen werden. In vorliegender Arbeit wurde daher erforscht, wie sich die multi-institutionelle Zusammenarbeit zum Schutz und der Unterstützung von gewaltbetroffenen Frauen in Vorarlberg gestaltet und welche Faktoren aus Sicht der Expert*innen die Unterstützung von gewaltbetroffenen Frauen erschweren, beziehungsweise erleichtern. Um dies zu erforschen, wurden Expert*inneninterviews im Bereich der Sozialen Arbeit, Justiz, Polizei und dem Gesundheitswesen geführt. Da häusliche Gewalt gegen Frauen ein gesamtgesellschaftliches Problem darstellt (Carstensen 2018, S. 52), wurde die vorliegende Forschungsarbeit anhand der Kritischen Diskursanalyse nach Jäger durchgeführt. (Jäger 2015) Die Arbeit gibt einen Überblick über die Organisation der multi-institutionellen Zusammenarbeit gegen häusliche Gewalt an Frauen in Vorarlberg. Zudem zeigt sie gelingende und hemmende Faktoren im Interventionssystem und in der Zusammenarbeit auf. Dabei werden zum einen die positiven Entwicklungen und Errungenschaften im Interventionssystem verdeutlicht als auch die bestehenden Defizite und Möglichkeiten der Verbesserung aufgezeigt. Dabei zeigt sich u.a. der Bedarf an Schulungen für die verschiedenen Professionsgruppen im Interventionssystem als auch ein Defizit an Zugängen und Vernetzungen im medizinischen Bereich.
Die vorliegende Arbeit lässt sich im Bereich der Bonitätsbewertung einordnen. Es gibt bisweilen kein gängiges System, mit welchem eine Debt Capacity oder eine Bonitätsbewertung ermittelt wird. In der Praxis erfolgt oftmals die Vereinfachung dieser Bewertung anhand des EBITDA. Mit dieser Arbeit soll untersucht werden, ob diese Vereinfachung sinnvoll ist. Dazu werden neben dem EBITDA auch der Free Cashflow und die Debt Capacity von Unternehmen genauer untersucht. Für 69 Unternehmen werden die Jahresabschlussdaten und Credit Ratings der Big Three zusammengestellt. Anhand der Korrelations- und Regressionsanalyse werden die Werte verglichen. Das EBITDA unterliegt dem Free Cashflow sowohl bei der Abschätzung der Debt Capacity als auch bei der Ermittlung von Credit Ratings. Beide besitzen jedoch zu wenig Aussagekraft, um nur aufgrund dieser Daten Managemententscheidungen treffen zu können. Die Vereinfachung kann in dieser Form nicht unterstützt werden, und es sollte immer eine detailliertere Prüfung vorgezogen werden. Es gibt jedoch statistisch signifikante Zusammenhänge, weshalb das EBITDA und der Free Cashflow zumindest einen Anhaltspunkt für die Bewertung bieten können.
Einfluss verhaltensökonomischer Faktoren auf die Nutzung neuer Technologien im Prozessmanagement
(2023)
Process Mining ist ein effektives Werkzeug, um bestehende Lücken in der Prozessüberwachung eines im Unternehmen integrierten Prozessmanagements zu verringern. Trotz dem weitverbreiteten Bewusstsein über diesen Umstand, wird Process Mining bisher in wenigen Unternehmen erfolgreich eingesetzt. Da die Einführung einer neuen Technologie als Change-Projekt einzustufen ist, ist die soziale Ebene in Form der Mitarbeitenden zu berücksichtigen. Da Menschen nicht ausschließlich rational entscheiden und handeln, ist davon auszugehen, dass auch Erkenntnisse aus der Verhaltensökonomie in diesem Zusammenhang eine Rolle spielen. Die vorliegende Arbeit beschäftigt sich insbesondere mit möglichen verhaltensökonomischen Faktoren, die für die Nutzung neuer Technologien im Prozessmanagement relevant sind. Für die Beantwortung dieser Frage wurde als Anwendungsbeispiel das Feld des Process Mining und ein theoretisch-konzeptionelles Vorgehen gewählt. Dabei werden zunächst die Forschungsfelder Process Mining, Change Management und Verhaltensökonomie theoretisch aufgearbeitet und mit verschiedenen Eigenschaften charakterisiert, um dann mögliche verhaltensökonomische Faktoren abzuleiten. Diese Masterarbeit zeigt, dass verhaltensökonomischen Faktoren in Form von kognitiven Verzerrungen entscheidend zum Erfolg bei der Einführung neuer Technologien beitragen. Von den drei ermittelten Charakteristika der „Neuartigkeit“, der „Komplexität der Technologie“ und den mit der Technologie einhergehenden „Ängsten und Unsicherheiten“ lassen sich folgende kognitive Verzerrungen ableiten: Der Status-Quo-Bias, die Verlustaversion, der Confirmation Bias, der Appeal to Novelty und der Pessimism Bias. Für jede kognitive Verzerrung wurden Gegenmaßnahmen aufgezeigt.
Mit dem Namen Coachly wird eine elektronische Lernplattform bezeichnet, welche im Rahmen eines neuen Lernkonzeptes die Wissensaneignung bzw. Wissensvermittlung für Lernende und Lehrende im schulischen Unterricht erleichtern und effizienter gestalten soll. Dies wird vor allem durch fest integrierte individuelle Coaching-Einheiten und ein konstantes Monitoring des Lernprozesses gewährleistet. Die vorliegende Arbeit beschäftigt sich in ihrer theoretischen Auseinandersetzung mit den Themenbereichen „Lernen“ und „Unterricht“. Während bei Ersterem unter anderem Lernziele und verschiedene Lerntheorien behandelt werden, widmet sich das Kapitel „Unterricht“ den Unterrichtsarten „Klassischer Unterricht“, „E-Learning“ und „Blended Learning“. Auch Unterrichtsmethoden und innovative Ansätze der Wissensaneignung werden hier abgehandelt. Darüber hinaus dokumentiert die Arbeit die verwendete Forschungsmethode und deren Ergebnisse sowie die Konzeption und Umsetzung des entstandenen Lernkonzeptes und der integrierten Lernplattform. Ausgangspunkt der Forschungsarbeit war dabei die Frage, wie eine Lernumgebung geschaffen werden kann, die die Lernenden bei der Wissensaneignung und Lehrende bei der Wissensvermittlung unterstützt.
Als Folge des demographischen Wandels müssen Unternehmen in Österreich und ganz Europa lernen, mit einer alternden Belegschaft, dem Fachkräftemangel und Problemen bei der Rekrutierung von Mitarbeitenden umzugehen. Um erfolgreich wirtschaften zu können, sind Unternehmen daher gezwungen, solche Arbeitsbedingungen zu bieten, dass Mitarbei-tende aller Generationen gesund und leistungsfähig ihre Arbeit tun können. Die generatio-nenspezifische Gestaltung der Betrieblichen Gesundheitsförderung setzt an diesem Punkt an und hilft den Unternehmen, der demographischen Entwicklung gut gerüstet zu begeg-nen. Die vorliegende Arbeit beschäftigt sich mit der generationenspezifischen Betrieblichen Ge-sundheitsförderung. Im Rahmen einer qualitativen Untersuchung werden Chancen und Ri-siken identifiziert, die in einer generationenspezifischen Betrieblichen Gesundheitsförderung liegen. Dabei werden die Bedürfnisse der unterschiedlichen Generationen an die Betriebli-che Gesundheitsförderung berücksichtigt. Am Ende der Arbeit steht ein Maßnahmenkatalog für generationenspezifische Betriebliche Gesundheitsförderung, der die Chancen und Risiken die darin liegen, miteinbezieht und eine Unterstützung in der praktischen Arbeit im Unternehmen bieten soll.
Virtual Reality im Golfsport
(2023)
Die Möglichkeiten des Einsatzes von Virtual Reality (VR) abseits des Unterhaltungssektors sind sehr umfangreich. Die Technologie kann als Wiedergabemedium von klassischen audiovisuellen Inhalten oder speziell für VR entwickelten Inhalten verwendet werden, jeweils mit oder ohne Interaktion der benutzenden Person. Um die in dieser Arbeit gestellte Forschungsfrage „Wie kann VR im Golfsport unterstützend beim Training eingesetzt werden?“ zu beantworten wurde VR als Medium auf seine Anwendungsmöglichkeiten hin überprüft und aufgezeigt, wo diese Technologie im Bereich „Training“ wirkungsvoll eingesetzt werden kann. Die Verwendung einer Mind Map ergab eine erste Produktidee: Golfplätze mittels VR zu besuchen, bevor die Spielenden selbst zu einem Turnier anreisen. Durch Literaturrecherchen, Experteninterview, die qualitative Auswertung von Interviews von Golfspielenden und eine Analyse der am Markt befindlichen digitalen „Helfer“ für Golfer:innen wurden Hinweise gesammelt, um sowohl eine Hypothese zur möglichen Zielgruppe aufzustellen, als auch die Forschungsfrage, durch Konkretisieren der Produktidee, zu beantworten.
Erkenntnisse über die am Markt befindlichen Produkte und Hinweise aus der Sportpsychologie führten zu der Hypothese, dass die Effektivität des Produktes im Einsatz des mentalen Trainings verbessert werden könnte, wenn neben dem visuellen Kanal ein Audiokanal die Darstellung der virtuellen Umgebung unterstützt. Auch wenn diese Hypothese in einer Feldstudie mit 7 Teilnehmern weder wiederlegt noch bestätigt werden konnte, zeigt die Auswertung einer Onlineumfrage zum Produkt und die erarbeitete Theorie großes Potential für den Einsatz von VR als Unterstützung im mentalen Training und für weitere Forschung auf diesem Gebiet auf. Als Produktidee ging aus der Arbeit eine VR-Applikation, zur mentalen Vorbereitung auf wenig bekannte Golfplätze, für gute und professionelle Golfspieler:innen hervor.
Reporting der Zukunft
(2023)
Das Reporting als Kernkompetenz des Controllings befindet sich in einem Prozess der Veränderung. Die Digitalisierung und sich ändernde Anforderungen an das Controlling erfordern eine Weiterentwicklung und den Einsatz neuer Analysemethoden. Die deskriptiv ausgerichtete Welt des Reportings erfährt durch den Einsatz von Business Analytics eine Erweiterung um prädiktive und präskriptive Methoden, die Unternehmen in der Entscheidungsfindung unterstützen sollen. Voraussetzungen für den Einsatz von Business Analytics sind die in den Unternehmen eingesetzten Technologien zur Digitalisierung der Geschäftsprozesse und die für die Analyse verwendbaren Datengrundlagen. Neben sich ändern-den Prozessen innerhalb des Reportings, gilt es auch (Analyse-)Kompetenzen zu entwickeln.
Im Rahmen der Business Analytics kommen statistische Methoden zum Einsatz, die reale Umwelten modellierbar und somit quantifizier- und berechenbar machen. Doch welche Methoden werden im Bereich Business Analytics heute verwendet und dienen bereits jetzt oder zukünftig einer Datenanalyse und -aufbereitung im Sinne einer Advanced Analytics? Anhand einer Case Study mit vier befragten Unternehmen der Region wurde der aktuelle Entwicklungsstand des Reportings in eine fünfstufige Matrix eingestuft.
Die digitale Geschäftstransformation forciert Unternehmen regelrecht, grundlegende sowie neue Fähigkeiten zu entwickeln, um weiterhin wettbewerbsfähig zu bleiben. Unter anderem auch in der Supply Chain. Die Integration digitaler Anwendungen in diesem Bereich ist aller-dings äußerst mangelhaft. Aus diesem Grund wird zunächst der aktuelle Grad der Digitalisierung von global agierenden Unternehmen eruiert. Als ein weiteres Ziel dieser Arbeit wird die Erreichung einer nachhaltigen Wettbewerbsfähigkeit hinsichtlich einer Supply-Chain-4.0-Integration anhand der Theorie der Business Capabilities untersucht. Dazu wird die Forschungsfrage wie folgt definiert: „Was lässt sich fundiert über den Grad der Digitalisierung von global agierenden Unternehmen in ihrer Supply Chain sagen und welche Rolle spielt dabei das Business Capability Manage-ment?” Um die Forschungsfrage erfolgreich beantworten zu können, wird ein theoretisch-konzeptio-nelles Vorgehen angewendet. In Verbindung mit der Methode der konzentrischen Kreise wird eine umfassende Literaturrecherche ermöglicht. Die Auseinandersetzung mit der Literatur zeigt auf, dass die Anwendung der Digitalisierung in diesem Bereich in einer Vielzahl neuer Business Capabilities mit weiterführenden positiven Auswirkungen resultiert.
Erneuerbare Energiegemeinschaften (eEG) sind ein neues, innovatives und in der Entwicklung befindendes Thema bzw. Projekt. Entstanden ist es dadurch, dass Österreich die Vorschläge und neuen Gesetze aus dem Clean energy for all Europeans package mit der Verabschiedung des Erneuerbaren-Ausbau-Gesetz Ende 2021 in nationales Recht umgesetzt hat. In dem Leitfaden Energiegemeinschaften Ausschreibung 2021 ist in der Pionierphase und Integrationsphase klar vorgegeben, dass ein Monitoring über zwei Betriebsjahre zu betreiben ist. Das Monitoring von erneuerbaren Energiegemeinschaften wird in dieser Arbeit erstmalig behandelt. Es wurden Key Performance Indicators entwickelt, spezifiziert und erste Probeerhebungen durchgeführt. In dieser Arbeit wurde untersucht, welche Monitoring-Bereiche es geben könnte, mit welchem Erfolgsindikatoren-Set zum aktuellen Zeitpunkt ein sinnvolles Monitoring betrieben werden kann und welche Erfolgsindikatoren im Allgemeinen in Österreich erforderlich sind, um eine Aussage über den Erfolg von erneuerbaren Energiegemeinschaften treffen zu können. Hierfür wurde eine Grundlagenforschung im Bereich erneuerbare Energiegemeinschaften, ein normativer Vergleich zu ähnlichen Förderprogrammen und Experteninterviews durchgeführt. Anhand der daraus resultierenden Ergebnisse wurden finale KPIs spezifiziert. Mit diesen KPIs wurde in einem Monitoring-Tool ein Erfolgsindikatoren-Set angelegt und mit entsprechenden Zielwerten in Kontext gebracht. Zusätzlich wurden Daten von verschiedenen eEG angefragt und anhand dessen wurden in dem Tool erste Probeerhebungen durchgeführt, um die Machbarkeit zu untersuchen.
Durch das Voranschreiten der Digitalisierung hat die Technologie Robotic Process Automtion innerhalb der letzten Jahre an Bedeutung gewonnen und findet bereits in Bereichen des Rechnungswesens Anwendung. Ein Hauptargument für die Nutzung von sogenannten Software Robotern ist die dadurch generierte Steigerung der Prozesseffizienz. Dies ermöglich die Freisetzung von Mitarbeiterkapazitäten für wertschöpfende Tätigkeiten. Durch Automatisierung im Bereich des Cash Conversion Cycles kann der Geldumschlag in Tagen verringert werden, was wiederum zu mehr Liquidität führt. Trotzdem wird Robotic Process Automation in vielen Unternehmen noch nicht verwendet. Ziel dieser Arbeit ist es, die Gründe für oder auch gegen eine Implementierung von Robotic Process Automation zu untersuchen. Die Beantwortung der Forschungsfrage erfolgt mittels leitfadengestützter Experteninterviews. Dazu wurden Sieben Personen in leitenden Funktionen im Finanzbereich befragt. Die Ergebnisse der Untersuchung ergaben, dass einerseits die Eliminierung von manuellen Tätigkeiten und andererseits die Verringerung von Fehlerpotentialen als Gründe für eine Implementierung von Robotic Process Automation sprechen. Allerdings wurden auf der Gegenseite Gründe wie mangelnde Ressourcen und die skeptische Haltung seitens Mitarbeitenden und Management gegenüber der Technologie genannt. Einer der wesentlichen Gründe gegen die Einführung, welcher aus den Ergebnissen hervorging, war der bereits hohe Grad der Automatisierung.
Chatbots für Alle
(2023)
Digitale Barrierefreiheit ist eine der großen Aufgaben in unserer Gesellschaft, um die Gleichstellung aller Menschen zu gewährleisten. Für unterschiedliche Personengruppen stellt die Anwesenheit von Barrieren ein Problem dar, daher hat sich diese Arbeit zur Fragestellung gesetzt, welche konkreten Gestaltungsempfehlungen exemplarisch zum Abbau kognitiver Barrieren bei textbasierten Gesprächsschnittstellen beitragen können. Wie Menschen mit kognitiven Einschränkungen, mit beispielsweise Lernschwierigkeiten, Gestaltung innerhalb von Dialog-Systemen wahrnehmen, ist weitgehendst unerforscht. Denn das Web wird vornehmlich für Nutzende mit durchschnittlichen Fähigkeiten und Anforderungen gestaltet. Um Barrierefreiheit im Digitalen zu gewährleisten, bieten die Web Content Accessibility Guidelines (WCAG) eine Referenz für die gesetzliche Grundlage. Allerdings sind die darin enthaltenden Erfolgskriterien allgemein fürs Web und nicht konkret genug für textbasierte Chatbots formuliert und lassen für Designer:innen und Entwickler:innen großen Interpretationsspielraum in der Umsetzung offen. Digitale Barrieren sind Hindernisse, die Menschen teilweise oder vollkommen behindern etwas zu tun. Vor allem erleben marginalisierte Personengruppen, wie ältere Menschen oder Menschen mit Einschränkungen, Ausschlussmechanismen aus digitalen Produkten und Services. Zeitgleich zu dieser Ungerechtigkeit schreitet der demografische Wandel voran. Parallel damit steigt die Wahrscheinlichkeit mit einer Einschränkung psychischer oder physischer Natur zu leben – beispielsweise eine Demenz im Alter zu haben. Die Nichtteilnahme im Digitalen führt in einer Gesamtbetrachtung in Folge zu einer mehr oder weniger ausgeprägten sozialen und gesellschaftlichen Spaltung. Zudem ist die Frage, wer für die Umsetzung von Barrierefreiheit verantwortlich ist weitgehend ungeklärt. Zugrundeliegende Faktoren für Ausschlussmechanismen ist z. B. die personelle Homogenität in Entwicklungsteams und damit zusammenhängend die Reproduktion der privilegierten Sichtweisen in gestaltete Artefakte. Offensichtlich ist, dass Entwickler:innen und Designer:innen zur Konstruktion und damit zur Dekonstruktion von Barrieren beitragen können. Das Ziel des Forschungsvorhabens ist es, einen Beitrag zum aktuellen Wissensstand zu leisten und reale Nutzende zu partizipieren. Dazu wurden gestalterische Experimente und Usability Tests durchgeführt und die exemplarischen Ergebnisse in konkreten Gestaltungsempfehlungen in einem Empfehlungskatalog synthetisiert.
Erfolgsfaktor Fachkarriere
(2023)
Angesichts des anhaltenden Fachkräftemangels und der steigenden Komplexität der globalen Wirtschaft stellt die Fachkarriere eine vielversprechende Alternative zur klassischen Führungskarriere dar, um hochqualifizierte Fachkräfte langfristig zu binden und ihr Fachwissen effektiv zu nutzen. Das Ziel dieser Masterarbeit besteht darin, die Anforderungen, Erwartungen, Chancen, Herausforderungen und Risiken von Fachkarrieren zu analysieren und daraus Handlungsempfehlungen für HR-Bereiche abzuleiten. Im Rahmen einer qualitativen Studie, basierend auf Expert*inneninterviews mit Fachexpert*innen, Führungskräften der Fachexpert*innen und HR-Verantwortlichen großer Industrieunternehmen in Liechtenstein, wurden die Ergebnisse ermittelt. Diese zeigen, dass Fachexpert*innen und deren Führungskräfte klare Strukturen der Fachkarriere und Sichtbarkeit der Fachexpert*innen erwarten, während Unternehmen Vorteile wie eine gesteigerte Wertschätzung der Fachexpertise, individuelle Karrieremöglichkeiten und die Bindung von Fachwissen erkennen. Allerdings gibt es auch Herausforderungen wie die sorgfältige Auswahl von Fachexpert*innen und die Gestaltung der Aufstiegsmöglichkeiten innerhalb der Fachkarriere. Basierend auf den Ergebnissen wurden konkrete Handlungsempfehlungen für HR-Bereiche entwickelt, um eine erfolgreiche Implementierung und Unterstützung von Fachkarrieren zu ermöglichen.
Die Anforderungen an gute Prognosen im Energiehandel der illwerke vkw AG steigen kontinuierlich an, da diese dazu verwendet werden, die richtigen Energiemengen auf dem Day-Ahead-Markt zu kaufen oder zu verkaufen. Zusätzliche Herausforderungen wie Wettereinflüsse und der steigende Energiebedarf von E-Autos erschweren die Prognose. Darüber hinaus gestaltet es sich mit den herkömmlichen Prognosebewertungen schwierig, die Kostenaspekte angemessen abzubilden. Aus diesem Grund wird in dieser Masterarbeit eine neue Methode zur Bewertung der Prognosequalität implementiert und mit bewährten Kennzahlen wie R², MAE, MAPE und RMSE verglichen. Diese Methode nutzt einen Preisverlauf, der die durchschnittlichen Marktpreise der Ausgleichsenergiepreise als Bewertungsmaßstab widerspiegelt. Die neue Bewertungsmethode wird mit Algorithmen wie dem Artificial Neural Network von Tensorflow, dem Decision Tree Regressor, der Linearen Regression, dem Multi-Layer Perception und dem Random Forest Regressor von Scikit-Learn verglichen. Zudem wird ein eigens erstelltes Gurobi-Modell, welches die Ausgleichsenergiepreise für die Gewichtung der absoluten Prognosefehler heranzieht, als Lineare Regression implementiert. Die genannten Modelle werden mithilfe von Python implementiert. Es werden tägliche Vorhersagen basierend auf viertelstündlichen Daten für Zeiträume von bis zu einem Jahr unter Verwendung eines Sliding-Window-Verfahrens mit unterschiedlichen Trainingsdaten erstellt. Die neue Bewertungsmethode mit der Einbeziehung von Kostenfaktoren, konnte sich im Vergleich zu MAPE, MAE, RMSE und R² nicht deutlich von den anderen unterscheiden. Die besten Ergebnisse wurden mit der Linearen Regression von Scikit-Learn und dem Gurobi-Modell mit der preisgewichteten Minimierung erzielt. Dabei sind die anderen Algorithmen nicht weit von den Resultaten der LR und GP entfernt. Unter dem Aspekt, dass das eigene Modell die Kosten minimieren soll, konnte es aber nicht als die beste Methode bewertet werden. Deswegen müssen das Modell und die gewählten Ausgleichsenergiepreise optimiert werden. Hierzu erzielte unter den sieben verwendeten Methoden die Lineare Regression das beste Ergebnis.
Das Wärmequartier wird als entscheidende räumliche Einheit betrachtet, um Effizienzsteigerungen zu ermöglichen. Dabei spielt die Nutzung regionaler Wärmequellen eine wichtige Rolle, um den steigenden Energiebedarf der Menschheit zu decken. Neben der vielversprechenden Nutzung der Erdwärme durch eine Erdwärmepumpe werden in Uferregionen zunehmend Seewasserwärmepumpen eingesetzt, denn diese nutzen die thermische Energie aus dem See, um den Heiz- und Kühlbedarf zu decken. Dabei ist der geschlossene Kreislauf im Vergleich zu dem offenen Kreislauf weniger effizient, aber dafür stabiler und zuverlässiger, da der Wärmeübertrager im See Vereisungs- und Korrosionsprobleme abmildern kann. Aus diesem Grund werden zunehmend Überlegungen an einem in den See eingetauchten Wärmeübertrager angesetzt. Allerdings wird dieses Potential im deutschsprachigen Raum kaum ausgeschöpft. In dieser Studie erfolgt anhand eines Referenzgebäudes eines Wärmequartiers ein simulativer Vergleich eines Erdwärmepumpensystems mit Erdsonden und eines Seewasserwärmepumpensystems mit einem in den See eingetauchten Rohrbündelwärmeübertrager. Für den Rohrbündelwärmeübertrager wurde die Auswirkungen von einer sich veränderten Übertragungsfläche auf die Effizienz analysiert und optimale Eigenschaften definiert. Der Effekt von einem veränderten Nennvolumen der Pufferspeicher auf die Effizienz, die Heizzyklen und die Vorlauftemperatur der Fußbodenheizung und Brauchwarmwassers wurde untersucht. Die Folgen von Temperaturänderungen des Erdreichs und des Seewassers auf die Effizienz des Gesamtsystems wurde zudem betrachtet. Die Ergebnisse zeigen, dass die Systemeffizienz durch die Übertragungsfläche und das Verhältnis zwischen Rohrbündelanzahl und -länge verbessert werden kann. Weitere Ergebnisse zeigen, dass die Seewasserwärmepumpe empfindlicher auf Temperaturänderungen der Wärmequelle reagiert als die Erdwärmepumpe. Es wurde ein abschließender jährlicher Vergleich basierend auf den Erkenntnissen aus den Analysen zu dem Rohrbündelwärmeübertrager und dem Nennvolumen der Pufferspeicher mit dem bestehenden geothermischen Referenzsystem durchgeführt. Die Untersuchung der Ergebnisse ergab, dass die Jahresarbeitszahl der Erdwärmepumpe für die Trinkwassererwärmung höher als die der Seewasserwärmepumpe ist. Für den Heizbetrieb wurde eine geringfügig höhere Jahresarbeitszahl bei der Erdwärmepumpe festgestellt. Dafür ist die Seewasserwärmepumpe robuster hinsichtlich der Effizienz und zuverlässiger bezüglich der Wärmebedarfsdeckung von Heizwärme- und Brauchwarmwasserbedarf.
Die Gewinnung von motivierten und qualifizierten Mitarbeitenden stellt aufgrund verschiedenster aktueller Einflussfaktoren wie demografische Veränderungen oder der Fachkräftemangel eine große Herausforderung für das Recruiting dar. Eine umso wichtigere Rolle spielt daher die Bindung des Personals ans Unternehmen. Die interne Rekrutierung bietet in diesem Zusammenhang eine Möglichkeit, die im Unternehmen bereits vorhandenen Ressourcen zu nutzen, wobei sich im Vergleich zur externen Personalbeschaffung Chancen wie auch Risiken ergeben. Es haben sich kritische Erfolgsfaktoren gezeigt, die erkannt und in weiterer Folge berücksichtigt werden sollten. Diese sind für das Vorgehen beim internen Recruiting von Bedeutung, um möglichst das volle Potenzial ausschöpfen zu können. Im Rahmen dieser Masterarbeit wurde eine ausführliche Literaturrecherche durchgeführt, sodass in weiterer Folge eine Forschungsfrage abgeleitet werden konnte. Es wurden sieben Interviews mit ausgewählten HR-Expertinnen und HR-Experten geführt, die in Unternehmen arbeiten, die der Vorarlberger Industrie zugehörig sind. Anschließend wurden die Interviews nach der qualitativen Inhaltsanalyse ausgewertet. Im Zuge der Diskussion wurden die Interviewergebnisse der Literaturrecherche gegenübergestellt, wobei die Forschungsfrage beantwortet werden konnte. Schlussendlich wurden Handlungsimplikationen für das interne Recruiting abgleitet. Die Forschungsergebnisse deuten darauf hin, dass es im Hinblick auf die interne Rekrutierung verschiedene Erfolgsfaktoren gibt, die Unternehmen für das eigene Vorgehen berücksichtigen können. Dazu zählen beispielsweise die Bedeutung der Kommunikation während des gesamten Prozesses – Kündigungsfristen und Übergabeprozesse sollten ausreichend besprochen und umfassend geplant werden. Zudem ist es hilfreich, interne Absagen mit Bedacht auszusprechen und sachliche Gründe aufzuzeigen. Auch die involvierten Führungskräfte spielen im gesamten internen Personalbeschaffungsprozess eine bedeutende Rolle. Darüber hinaus haben sich weitere Aspekte gezeigt, die für das Vorgehen beim internen Recruiting von Bedeutung sind.
Die Masterarbeit befasst sich mit der Neugestaltung öffentlicher Räume. Anhand einer qualita-tiven Studie wird die Parkanlage Superkilen, Kopenhagen untersucht. Es wird die Frage nachgegangen, ob Superkilen aus der Perspektive der postmigrantischen Gesellschaft und der Sozialraumarbeit als ein gelungenes Beispiel gilt. Als Datengrundlage der Analyse dienen ein systematisches Review und eine teilnehmende Beobachtung. Die Analyse erfolgt anhand einer qualitativen Inhaltsanalyse. Die induktiv herausgearbeiteten Codes werden anhand des St. Galler Modells dargelegt. Die Ergebnisse zeigen, dass die Grundidee der Gestalter:innen, nämlich die Vielfalt des Viertels durch konkrete internationale Objekte darzustellen, nicht mit der Lebenswelt der Bewohner:innen übereinstimmte. Unterschiedliche Grundverständnisse in Bezug auf Kultur und Diversity wurden hierbei erkannt. Gleichzeitig zeigen sich spielerische Designelemente als besonders förderliche Faktoren für alltägliche Begegnungen in Superkilen und Aneignungen finden statt. Die interkulturelle Soziale Arbeit kann mit ihrer Differenzsensi-bilität und ihrem Fokus auf die unmittelbare Lebenswelt von Menschen als Profession und Disziplin zur Bearbeitung dieser Thematik beitragen.
Die Umsetzung von Konzepten der Industrial Internet of Things (IIoT) stellt Unternehmen vor große Herausforderungen. Ein Kernaspekt dabei ist das Vernetzen maschineller und menschlicher Akteure, sodass sich diese gegenseitig verstehen und dadurch sinnvolle Entscheidun-gen treffen können. Dieses Verstehen setzt eine semantische Interoperabilität der Akteure voraus, die meist mithilfe von Ontologien und Ontologie Matching ermöglicht werden soll. Ziel dieser Arbeit ist es, die Grundkonzepte zum Ermöglichen semantischer Interoperabilität zusammenzufassen und aktuelle Anwendungsbeispiele und Herangehensweisen zu besprechen, um darauf aufbauend bestimmen zu können, wie weit Forschung und Unternehmen noch von der Umsetzung der semantischen Interoperabilität im Kontext der IIoT entfernt sind. Dazu wurde ein theoretisch-konzeptionelles Vorgehen gewählt. Die Ergebnisse der vorliegenden Arbeit weisen darauf hin, dass in naher Zukunft nicht mit einer erfolgreichen Umset-zung zu rechnen ist, welche generisch genug ist, in unterschiedlichen Bereichen der IIoT eingesetzt zu werden. Dafür konnte gezeigt werden, dass sich mehrere, mitunter gegenseitig beeinflussende Trends in der Herangehensweise zur Lösung der semantischen Interoperabilität ausgebildet haben, nämlich hybride Alignmentarchitekturen, ein modularer Aufbau von Ontologien, das Erstellen von maschinenlesbaren Standards und dazu gehörenden Ontologien sowie ein Trend zur Verwendung von Wissensgraph Embeddings. Besonders der letzte Trend ist dabei kritisch zu betrachten. Darüber hinaus konnten in dieser Arbeit offene Problemfelder bestimmt werden, die aus derzeitiger Sicht einer erfolgreichen Umsetzung semantischer Interoperabilität entgegenstehen. Dies betrifft einerseits das Fehlen einer Harmonisierung von IIoT-Standards und andererseits den Mangel an Alignmentdatenbanken und Benchmarks für Ontologie Alignments im Bereich der IIoT. Darüber hinaus bedarf es eines abgestimmten, strategischen Vorgehens der derzeit laufenden und zukünftigen Initiativen, um vorhandene Erkenntnisse besser zu nutzen und um sich wiederholende Probleme nachhaltig zu lösen.
Der stationäre Handel ist von zunehmenden Unsicherheiten gekennzeichnet, wobei die wachsende Verlagerung des Einkaufs auf die digitalen Vertriebskanäle dabei eine zentrale Rolle spielt. Jenen Entwicklungen kann mitunter mit der Einführung eines Omnichannel-Geschäftsmodells entgegengewirkt werden, wodurch der Fortbestand der stationären Geschäfte unterstützt werden kann. Für die Omnichannel-Etablierung ist eine Umstrukturierung des Handels essenziell, vielfach hängt dies mit einer Neuausrichtung der Geschäftsarchitektur zusammen. In diesem Kontext werden die relevanten Geschäftsprozesse in Frage gestellt und gegebenenfalls neu definiert. Das Hauptziel dieser Arbeit war es daher, auf Basis einer theoretisch-konzeptionellen Methodik herauszufinden, wie der stationäre Handel durch die Ausrichtung der Geschäftsprozesse an einem Omnichannel-Geschäftsmodell langfristig und nachhaltig optimiert werden kann. Anhand der Ergebnisse konnte ein Leitfaden entwickelt werden, welcher sich an EinzelhändlerInnen richtet und bei der Omnichannel-Transformation Unterstützung gewährleisten soll. Aus den durchgeführten Analysen wurden schließlich dezidierte Fokuspunkte abgeleitet, denen in der Transformationsphase besondere Aufmerksamkeit zu schenken gilt. Hierzu zählt nicht nur die IT-Landschaft und die Datenanalytik, sondern auch die Organisation samt den involvierten Personen und den entsprechenden Kompetenzen. Die Berücksichtigung aller Aspekte kann die Chancen einer erfolgreichen Omnichannel-Integrierung erhöhen, aber aufgrund der Komplexität nicht garantieren.
Minuten können in medizinischen Notfällen unmittelbar die Anwendbarkeit von Behandlungsmethoden, das Ausmaß von bleibenden Einschränkungen sowie die Überlebenschancen beeinflussen. Doch hat das präklinische Notfallmanagement heute mit steigenden Einsatzzahlen, zunehmenden Einsätzen ohne Dringlichkeit und dem demografischen Wandel bei gleichzeitigem Fachkräftemangel zu kämpfen. Entsprechend gewinnt das Prozessmanagement zur Gestaltung effizienter Rettungsketten an Bedeutung. Vor diesem Hintergrund ging die vorliegende Arbeit der Frage nach, welche Potentiale die Datenanalytik in vernetzten Rettungsketten für das Prozessmanagement hat, um wertvolle Zeit zu gewinnen. Zudem wurden die Herausforderungen der Datenanalytik in diesem Bereich betrachtet. Zur Beantwortung der Forschungsfrage wurde dabei eine theoretisch-konzeptionelle Vorgehensweise gewählt. Die Untersuchung zeigte, dass die Potentiale der Datenanalytik in diesem Kontext in der Entscheidungsunterstützung zur Standortwahl, zur Kapazitätsplanung und in der Abwicklung von Notfällen liegen. Zudem könnte diese bei der Prozessanalyse, sowie der Prävention und Vermeidung von Einsätzen unterstützen. Dahingegen liegen die Herausforderungen in der Notwendigkeit einer übergeordneten Strategie, der hinreichenden Datenqualität und Verfügbarkeit der Daten. Darüber hinaus bestehen Herausforderungen im Bereich der IT-Sicherheit und des Datenschutzes, sowie der oft fehlenden Vernetzung. Zusammenfassend wären die Potentiale der Datenanalytik zur Optimierung der Zeit in Rettungsketten vielversprechend, jedoch stehen dem Einsatz dieser aktuell noch eine Vielzahl an Herausforderungen gegenüber.
In den letzten Jahren wurde den technischen Aspekten der Datenanalyse viel Aufmerksamkeit gewidmet, den organisatorischen Implikationen jedoch nur wenig, was dazu geführt hat, dass eine Reihe von Unternehmen nicht in der Lage war, den vollen Nutzen aus ihren Data Analytics-Investitionen zu ziehen was u.a. dazu führte das die Potenziale von Data Analytics nicht vollständig ausgeschöpft wurden. Ziel dieser Arbeit ist es, die organisatorischen Herausforderungen aus der Sicht des Managements, der Kultur und der Organisation zu beleuchten und unter der theoretischen Orientierung des „Dynamic Capability View“ die Haupttreiber für die organisatorische Verankerung von Data Analytics zu beleuchten, um die Potenziale der evidenzbasierten Entscheidungsfindung in einer datengetriebenen Organisation voll auszuschöpfen. Die Literaturarbeit zu Data Analytics und ihren organisatorischen Auswirkungen, die auf der Grundlage einer theoretisch-konzeptionellen Forschungsarbeit durchgeführt wurde, zeigt, dass es in diesem Kontext eine Vielzahl von Parametern gibt, die sich gegenseitig beeinflussen. Diese Studie hat gezeigt, dass Unternehmen einen ganzheitlichen Ansatz verfolgen müssen, um die Vorteile der modernen Data-Analytics-Methoden voll ausschöpfen zu können. Die Ergebnisse deuten darauf hin, dass die Hauptantriebskräfte für Datenanalysefähigkeiten gut ausgebildete Manager mit einem ausgeprägten analytischen Verständnis sind, die von klar definierten evidenzbasierten Prozessen geleitet werden, welche in einer hoch kultivierten datengetriebenen Kultur eingebettet sind. Dies ist die Grundlage für Wettbewerbsvorteile in hochdynamischen Umgebungen und führt in weiterer Folge zu einem höheren Niveau der Wertschöpfung.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.
New Work 2025–2030
(2023)
Unternehmen stehen vor der Herausforderung, durch passende Arbeitsbedingungen die bestehenden Mitarbeitenden zu binden und neue Talente zu finden. Eine mögliche Lösung für diese Herausforderungen kann ‚New Work‘ sein. Es ist notwendig zu verstehen, was New Work für die Region Vorarlberg bedeutet und was bei der Konzeption von neuen Arbeitsbe-dingungen zu berücksichtigen ist. Das Ziel der vorliegenden Arbeit ist es, eine Antwort auf die Frage zu finden, was New Work für die Region Vorarlberg in den Jahren 2025–2030 bedeutet und eine entsprechende Standortbestimmung durchzuführen. Dazu wird die folgende Forschungsfrage vertieft untersucht: ‚Was bedeutet New Work für die Region Vorarlberg in den Jahren 2025–2030?‘ Die Vertiefung dieser Fragestellung erfolgt über weitere Unterfragen. Um Antworten auf die Forschungsfrage zu erhalten, wurde ein Mixed-Methods-Ansatz gewählt. Für eine Standortbestimmung zum Thema ‚New Work‘ in Vorarlberg wurden im ersten Schritt Befragungen zweier Fokusgruppen, als qualitativer Teil der Forschung, durchgeführt. Die Ergebnisse dieser Befragung wurden ausgewertet. Aus den Ergebnissen und dem theoretischen Input wurden Hypothesen sowie ein Fragebogen zur quantitativen Untersuchung erstellt. Die qualitative Forschung ist die Grundlage für die anschließende quantitative Untersuchung. Durch diese Vorgehensweise sind sowohl eine Vertiefung und eine Ergänzung der qualitativen als auch der quantitativen Daten möglich. Die Ergebnisse zeigen, dass New Work ein generationenübergreifendes Thema ist. Es gibt keine nennenswerten Unterschiede zwischen den Generationen. Jedoch gibt es Unterschiede zwischen jüngeren und älteren Personen bezüglich der unterschiedlichen New-Work-Methoden. Die Antworten zeigen auf, dass es vor allem zwischen Frauen und Männern Unterschiede in den Vorstellungen der Arbeitsbedingungen gibt. Frauen legen vor allem Wert auf Flexibilität, psychologisches Empowerment und motivationale Faktoren. Weiterführende Forschung im Bereich ‚New Work‘ könnte sich mit den Unterschieden zwischen Frauen und Männern befassen und was die passenden Rahmenbedingungen sind, um die Leistung und Motivation dieser beiden Personengruppen zu steigern.
Projekte zeichnen sich aus durch ihre Einmaligkeit und Offenheit. Unternehmen sind bestrebt ihre Projekte zum positiven Abschluss zu bringen. In dieser Ausarbeitung wird die Rolle der Verhaltensökonomie im Projektmanagement beleuchtet. Dabei wird der Fokus auf die Projektplanung und insbesondere auf die Aufwandsschätzung gelegt. Der theoretische Rahmen bildet ein solides Verständnis von Verhaltensökonomie und Projektmanagement. Mittels systematischer Literaturrecherche für den Zeitraum von 2017 bis 2023 werden die gängigsten kognitiven Verzerrungen ergründet, die in Projekten, insbesondere bei Aufwandsschätzungen häufig auftreten. Die häufigste kognitive Verzerrung ist der Optimism Bias, gefolgt vom Escalation of Commitment, Strategic Misrepresentation bis hin zur Planning Fallacy und dem Endownment Effect. Das Ergebnis dieser Ausarbeitung zeigt, dass kognitive Verzerrungen den Projekterfolg maßgeblich beeinflussen können.
Diese vorliegende Masterarbeit untersucht die Herausforderungen, vor denen kleine und mittlere Unternehmen (KMUs) stehen, um den künftigen ESG-Anforderungen (Umwelt, Soziales, Governance) von Banken bei der Kreditvergabe gerecht zu werden. Anhand einer umfassen-den Literaturanalyse sowie einer qualitativen Inhaltsanalyse mittels Experteninterviews werden verschiedene Aspekte beleuchtet, darunter bankenregulatorische Vorschriften, Auswirkungen der ESG-Implementierung auf Kreditkonditionen und Kreditwürdigkeit, Vorbereitungsstrategien für KMUs und abgeleitete Handlungsempfehlungen. Die Ergebnisse zeigen, dass eine Integration von ESG-Kriterien in den Kreditprüfungsprozess eine ganzheitlichere Bewertung der Rückzahlungsfähigkeit ermöglicht und positive Auswirkungen auf die Kreditwürdigkeit haben kann. Jedoch sind die praktischen Auswirkungen auf Kreditkonditionen und -entscheidungen noch begrenzt und erfordern weitere Untersuchungen. Die Arbeit verdeutlicht auch die Bedeutung von ESG-Kompetenzen, Datenmanagement und einer Anpassung der Geschäftsmodelle von KMUs, um den ESG-Anforderungen gerecht zu werden. Die Ergebnisse bieten wertvolle Erkenntnisse für KMUs, um proaktiv ESG-Aspekte zu berücksichtigen und zu managen.
Die gemeinsame Betrachtung der zwei Megatrends „Nachhaltigkeit“ und „Digitalisierung“ findet derzeit bedingt in Großunternehmen statt, wenngleich Tomorrow’s Leaders Vorreiterunternehmen in beiden Bereichen sein werden. Die Zielsetzung dieser Masterarbeit besteht darin, den Einfluss der Digitalisierung auf die nachhaltige Entwicklung bei ATX-, DAX- und SMI-Unternehmen zu untersuchen. Auf Basis eines Mixed-Methods-Ansatzes wird quantitativ der lineare Zusammenhang zwischen offengelegten Informationen im Bereich Digitalisierung und dem ESG-Rating bzw. dem Rating der einzelnen ESG-Dimensionen empirisch erforscht. Diese Resultate wurden mithilfe von Experteninterviews vertiefend validiert sowie mit Handlungsempfehlungen für die erfolgreiche Berücksichtigung von Digitainability in Großunternehmen erweitert. Anhand der Regressionsanalyse wurde jedoch kein signifikanter Zusammenhang zwischen offengelegten Digitalisierungsinformationen und dem ESG-Rating sowie E-, S- und G-Rating bzw. eine Scheinkorrelation aufgrund der Marktkapitalisierung als Indikator für die Unternehmensgröße festgestellt. Laut den Experteneinschätzungen sind diese Forschungsergebnisse nachvollziehbar, da Digitalisierung bei Großunternehmen lediglich als Hilfsmittel zur Umsetzung der Nachhaltigkeit wahrgenommen wird. Das aktive Zusammendenken beider Megatrends ist aber aufgrund des regulatorischen Drucks sowie der Wahrung der Wettbewerbsfähigkeit anzutreiben und zu pflegen, womit die formulierten Handlungsempfehlungen als Unterstützung für Großunternehmen dienen.
„Sozialraumarbeit“ und „Sozialraumorientierung“ sind Schlagworte der letzten Jahre, die die Wiederentdeckung des Sozialräumlichen nicht nur in der Sozialen Arbeit markieren. Das gesteigerte Interesse reicht weit über die Disziplin und Profession der Sozialen Arbeit hin-aus und findet ihren Niederschlag auch in der Sozialpolitik und Verwaltung, in kommunalen und regionalen Strukturen sowie in den Organisationen des Sozialwesens. Die Entstehungsgeschichte der Sozialen Arbeit in Vorarlberg ist eng verknüpft mit der sozialräumlichen Bearbeitung sozialer Probleme. Weniger Aufmerksamkeit in der Auseinandersetzung der letzten Jahre wird hierbei auf die Soziale Arbeit als Profession bzw. die Sozialarbeiten-den selbst gelegt. Die Studie soll hierzu im Hinblick auf die Gestaltung von kommunaler sowie sozialräumlicher Sozialer Arbeit und der Profession Soziale Arbeit einen Beitrag leisten. Grundlage der Studie ist die qualitative Inhaltsanalyse leitfadengestützter qualitativer Interviews mit Sozialarbeitenden der sozialräumlichen Sozialen Arbeit Vorarlbergs. Anhand der zentralen sowie theoretischen Dimensionen von Sozialer Arbeit und Konzepten der sozialräumlichen Sozialen Arbeit werden Faktoren für gelingende sozialräumliche Soziale Arbeit, im Speziellen im kommunalen Rahmen, sowie die Herausforderungen in der Praxis und als Profession identifiziert.
Die makroökonomischen Entwicklungen, insbesondere ausgelöst durch die Corona-Pandemie und den Ukraine/Russland-Krieg, stellen die Wirtschaftsakteure vor große Herausforderungen. Die Unsicherheiten im aktuellen Marktumfeld wirken sich auch auf Leveraged Buyout Transaktionen von Private Equity Investoren im deutschen Mittelstand und deren Finanzierungen aus. Ziel der Masterarbeit war es, die Auswirkungen dieser Entwicklungen auf die Akquisitionsfinanzierung durch Banken zu untersuchen und daraus Handlungsempfehlungen für Private Equity Investoren und Banken abzuleiten. Nach der Schaffung der theoretischen Grundlagen wurde für die empirische Untersuchung ein Mixed-Methods-Ansatz verfolgt, der die Durchführung von fünf Expert*inneninterviews und eine anschließende Online-Umfrage mit insgesamt 121 Teilnehmer*innen zur Verifizierung der qualitativen Ergebnisse und zur statistischen Überprüfung der gebildeten Hypothesen umfasste. Die Ergebnisse zeigen diverse Auswirkungen für den Finanzierungsprozess, die Strukturierung sowie die Syndizierung von Akquisitionsfinanzierungen, die aber je nach Branche, Geschäftsmodell und Transaktionsgröße unterschiedlich stark ausgeprägt sind.
Im Vertriebscontrolling halten zunehmend Verfahren aus dem Bereich Predictive Analytics Einzug. Hierdurch verändern sich die klassischen Arbeitsweisen mehr und mehr. Doch welche Faktoren sind dabei zu berücksichtigen und welche Einsatzmöglichkeiten finden sich für Predictive Analytics im Umfeld des Vertriebscontrollings? Dieser Frage wird in der vorliegenden Arbeit nachgegangen. Hieraus ergibt sich das Ziel, Einsatzmöglichkeiten für Predictive Analytics im Vertriebscontrolling herauszustellen und Schlüsselfaktoren herauszuarbeiten, die in diesem Kontext zu berücksichtigen sind. Außerdem sollen diesbezügliche Handlungsempfehlungen benannt werden. Dabei liegt der Fokus auf der Branche des Maschinen- und Anlagenbaus. Um diese Forschungsfragen zu beantworten, wurde mittels einer Literaturanalyse ein Reifegradmodell erarbeitet, das die verschiedenen Reifegrade über die relevanten Dimensionen Daten, Technologie, Prozesse, Methoden und Kompetenzen darstellt. Zudem wurden Bei-spiele für die Nutzung der häufigsten Methoden aus dem Bereich Predictive Analytics im Controlling-Umfeld zusammengetragen. Vor diesem Hintergrund konnten die Schlüsselfaktoren für den erfolgreichen Einsatz von Predictive Analytics im Vertriebscontrolling abgeleitet wer-den. Des Weiteren wurde eine qualitative Befragung in Form von Experteninterviews durch-geführt, wobei die in den Interviews thematisierten Unternehmen in das genannte Reifegradmodell eingruppiert wurden. Es zeigten sich bei der Analyse im Allgemeinen niedrige Reifegrade in den Dimensionen Methoden, Kompetenz und Technologie. Hieraus ergeben sich die folgenden Handlungsempfehlungen: die Einführung geeigneter Software aus dem Predictive-Analytics-Bereich, eine erste Anwendung von Predictive-Analytics-Methoden sowie der Aufbau von Wissen in den Bereichen Data-Science und Business-Analytics in Form von Fortbildungsmaßnahmen. Werden diese Empfehlungen befolgt, kann in Unternehmen aus dem Maschinen- und Anlagenbau ein erfolgreicher Einsatz von Predictive Analytics im Vertriebscontrolling gelingen. Hierdurch wiederum können die betreffenden Unternehmen bei der Prognose zukünftiger Entwicklungen unterstützt und wertvolle Entscheidungshilfen erlangt werden, was in weitergehend Forschungsarbeiten aufgegriffen werden kann.
Die aktuell eingesetzte Word-Antragsvorlage zur Erstellung und Einreichung von Ethikanträgen für die Forschungsethik-Kommission der Fachhochschule Vorarlberg entspricht nicht mehr den Anforderungen und Wünschen der Anwender:innen. Neben technischen Limitierungen stellen vor allem die eingeschränkten Möglichkeiten den Grund dar, weshalb anhand der Prinzipien sowie der vier Phasen des User-Centered Designs eine Software-Lösung ausgearbeitet wurde, die das bestehende System langfristig ablösen können soll. Die einzelnen Kapitel dieser Arbeit entsprechen jeweils einer der vier Phasen und stellen als Ganzes eine vollständig abgeschlossene Iteration des Prozesses dar. Die durchgeführte Analyse der Nutzerkontexte basiert auf der Aufarbeitung der Kriterien der Forschungsethik und vor allem einer detaillierten Analyse des bestehenden Systems und Prozesses der Forschungsethik-Kommission. Neben der Funktionsweise und dem inhaltlichen Aufbau werden im Zuge dessen gleichzeitig die Stärken und Schwächen erläutert. Ebenso findet eine breite Analyse von anderweitigen Systemen und Prozessen von Ethikkommissionen innerhalb Österreichs statt, um den Stand der Technik zu erheben. Die anschließende Definition von konkreten Anforderungen basiert auf der Umsetzung einer qualitativen Inhaltsanalyse der durchgeführten Interviews nach Kuckartz. Insgesamt können dabei neun Anforderungen definiert werden, die unterschiedlich priorisiert größtenteils in der eigens entwickelten EthicsVision Plattform umgesetzt werden konnten. Zum Einsatz kommen dabei sowohl Docker als auch das Symfony-Framework und die Angular-Plattform. Die abschließende Evaluation des Prototyps basiert auf Feedback der Antragsteller:innen und der Forschungsethik-Kommission. Der Proof of Concept wird dabei als gute Basis wahrgenommen, während bereits diverse Weiterentwicklungsmöglichkeiten aufgezeigt werden können. Das Ziel der Arbeit, die Neuentwicklung des Ethikantrag-Tools zu bewerkstelligen, konnte erreicht und ein Weg für die künftige Gestaltung des Prozesses aufgezeigt werden.
Die überdurchschnittlich hohe Akzeptanz von Frauen für Studiengänge der Veranstaltungsbranche
(2023)
Das ausgewiesene Ziel der vorliegenden Masterthesis ist die Formulierung eines möglichen, multiperspektivischen Erklärungsansatzes für die überdurchschnittlich hohe Akzeptanz von Frauen für Studiengänge der Veranstaltungswirtschaft. Das Resultat besteht in der Beantwortung der Hauptforschungsfrage: „Welche evidenten Gründe sind ausschlaggebend, dass sich mehr Frauen als Männer für ein duales Studium der Vertiefung ‚Betriebswirtschaftslehre – Messe-, Kongress- und Eventmanagement‘ an der Dualen Hochschule Baden-Württemberg Ravensburg entscheiden bzw. entschieden haben?“ Hierfür wurde die Strategie der Triangulation mit unterschiedlichen Methoden gewählt. Nach der Sekundärdatenrecherche wurden unabhängig voneinander qualitative Tiefeninterviews und eine standardisierte Online-Befragung mit direkter Fragestellung durchgeführt. Im Anschluss daran wurden die Einzelergebnisse als möglicher Erklärungsansatz zusammengefasst und interpretiert. Die Erkenntnisse zeigen, dass die Studienfachwahl eine Vielzahl unterschiedlicher Einflussfaktoren vorweist: Neben begrenzt rationalen Aspekten spielen die individuelle Persönlichkeit sowie die Interessen eine bedeutende Rolle. Des Weiteren könnte die Interaktion biologischer und soziokultureller Faktoren die Geschlechterverteilung erklären.
Die vorliegende Masterarbeit untersucht die Auswirkungen der EU-Taxonomie auf das Controlling in Unternehmen. Die EU-Taxonomie stellt ein Klassifizierungssystem dar, das darauf abzielt, ökologisch nachhaltige wirtschaftliche Aktivitäten zu definieren und zu fördern. Im Rahmen dieser Arbeit wird analysiert, wie das Controlling von Unternehmen durch die Einführung der EU-Taxonomie beeinflusst wird und welche Herausforderungen und Chancen sich dadurch ergeben. Zunächst wird eine umfassende Literaturrecherche durchgeführt, um ein theoretisches Verständnis zum Thema Nachhaltigkeit und zur EU-Taxonomie sowie ihren Auswirkungen auf das Controlling zu entwickeln. Dabei wird auf relevante Studien, Richtlinien und Berichten eingegangen, um die aktuelle Diskussion in diesem Bereich zu erfassen. Im Anschluss daran werden qualitative Interviews mit Controlling-Experten ausgewählter Unternehmen durchgeführt. Diese Interviews dienen dazu, Einsichten in die konkreten Auswirkungen der EU-Taxonomie auf das Controlling zu gewinnen. Es werden Fragen zu Themen wie der Identifizierung nachhaltiger Aktivitäten, der Messung von Nachhaltigkeitskriterien und der Integration der EU-Taxonomie in bestehende Controlling-Prozesse gestellt. Die Analyse der erhobenen Daten erfolgt mittels qualitativer Inhaltsanalyse, um Muster, Themen und Schlüsselerkenntnisse zu identifizieren. Die Ergebnisse dieser Analyse werden anschließend interpretiert und in Bezug auf bestehende theoretische Ansätze und Modelle diskutiert. Die Ergebnisse liefern einen Einblick in die Auswirkungen der EU-Taxonomie auf das Controlling von Aktiengesellschaften und tragen zur aktuellen Diskussion über nachhaltiges Controlling bei. Da die EU-Taxonomie noch recht frisch ist, muss man auf weitere Einführungen sowie Anpassung warten, um die vollumfänglichen Auswirkungen zu spüren.
Die vorliegende Masterarbeit untersucht die Rolle des Controllings für innovative Startups in Österreich, insbesondere in der Anfangsphase. Experteninterviews wurden durchgeführt, um Einsichten in die Herausforderungen, Chancen und Best Practices des Startup-Controllings zu gewinnen. Die gewonnenen Erkenntnisse wurden analysiert und in Kategorien zusammengefasst, um einen umfassenden Überblick über die wichtigsten Ergebnisse zu liefern. Die Arbeit betont die Bedeutung einer effektiven Controlling-Funktion für Startups, um fundierte Entscheidungen zu treffen, die finanzielle Leistungsfähigkeit zu verbessern und das langfristige Wachstum zu unterstützen.
Die vorliegende Arbeit setzt sich mit Forschungstrends im Bereich der Entscheidungsfindung von Manager:innen auseinander. Dabei stehen komplexe Entscheidungen im Vordergrund. Im theoretischen Teil erfolgte eine Einführung in die Entscheidungstheorie. Anschließend wird die Funktion des Managements als Entscheidungsträger:in thematisiert. Anhand einer vertieften Literarturrecherche wurde eine Trendanalyse durchgeführt, um herauszufinden, welche Themenbereiche besonders viel Aufmerksamkeit in der Forschung über komplexe Managemententscheidungen erlangt haben. Herausgefunden wurde, dass besonders multikriterielle Entscheidungsmethoden beforscht wurden. Es wurde häufig im Bereich Energiewirtschaft, Nachhaltigkeit und Klimawandel geforscht, da hier die Voraussetzungen für komplexe Entscheidungen gegeben sind. Neben mathematisch fundierten Methoden kommen auch heuristische Ansätze zur Komplexitätsreduktion zur Anwendung, lässt sich aus den Forschungsergebnissen ableiten. Insgesamt wurden 12 Trends identifiziert, die sich teilweise überschneiden. Aus den gesichteten Forschungsarbeiten ließen sich Handlungsempfehlungen ableiten, die in einem eigenen Kapitel präsentiert werden.
Validierung der Stromnetzberechnungsansätze anhand realer Messungen in der Niederspannungsebene
(2023)
Die politischen Ziele der Energiewende und insbesondere der zunehmende Ausbau der Elektromobilität führt zu steigenden Belastungen in den Niederspannungsnetzen. Eines der Hauptprobleme besteht darin, dass die genauen Informationen über den Zeitpunkt und die Dauer der Ladevorgänge fehlen, was eine präzise Bestimmung des Netzzustandes erschwert - auch deshalb, weil dieser durch die statische Netzberechnung erhoben wird, welche weitestgehend auf Annahmen und nicht zeitreihenbasierten Werten beruht. Im Folgenden wird daher untersucht, wie groß die Abweichungen der Niederspannungsparameter zwischen Trafostation und letztem Kabelverteilschrank bei realen Messungen im Winter im Vergleich zur statischen Worst-Case Berechnung sind. Weiters wird ermittelt, welche Änderungen der Eingangsparameter zu einer Optimierung der Ergebnisse führen. Dafür werden reale Messungen in verschiedenen Niederspannungsspannungsnetzen realisiert und nach einer Analyse der Messergebnisse werden die Eingangsparameter für die Netzberechnung bestimmt. Auf Basis dieser Inputparameter werden vier verschiedene Szenarien gebildet und die Berechnung mit diesen Szenarien durchgeführt. Anschließend werden die Berechnungsergebnisse mit den Messergebnissen verglichen. Der Vergleich der Methoden zeigt, dass die Berechnung den Worst-Case-Fall im Netz sehr realistisch abbildet. Jedoch ist aufällig, dass dieser Fall nur selten vorkommt und die betrachteten Verteilernetze zum größten Teil viel geringer belastet sind. Die 95%-Szenario-Betrachtungen zeigen, dass eine Vernachlässigung der selten vorkommenden Ausreißer zu einer Änderung der Eingangsparameter und einer Optimierung der Netzberechnung führt. Aus der Untersuchung geht zusätzlich hervor, dass die Annahme des Leistungsfaktors cos ϕ mit 0,90 zu niedrig angesetzt ist. Es kann festgehalten werden, dass sich dieser bei allen Netzen zwischen 0,999 und 0,990 befindet. Dieser Eingangsparameter für die statische Worst-Case-Berechnung kann aufgrund der gewonnenen Erkenntnisse optimiert werden.
In einer Zeit allgegenwärtiger Online-Interaktionen sind Datenschutzbedenken für Nutzer:innen von sozialen Medien und Messenger-Diensten zu einem wichtigen Thema geworden. Obwohl es wichtig ist, die Inhalte von Datenschutzrichtlinien bzw. Datenschutzerklärungen zu erfassen, haben Benutzer:innen Schwierigkeiten, den Umfang, die komplexe Rechtssprache und die technischen Details in diesen Dokumenten zu verstehen. Dies führt dazu, dass sie sich diesen Datenschutzrisiken, die mit ihren Online-Aktivitäten verbunden sind, nicht bewusst sind. Diese Masterarbeit beschäftigt sich mit der Frage, inwieweit Informationen von Social-Me- dia-Datenschutzrichtlinien durch eine einheitliche Struktur einem breiten Nutzer:innenkreis leichter zugänglich gemacht werden können. Diese sollen dabei nicht nur gekürzt, sondern durch den Einsatz gestalterischer Mittel vereinfacht, sprich simplifiziert, werden, ohne den jeweiligen Inhalt zu verfälschen. Die Studie wird einen benutzer:innenzentrierten Designansatz verwenden, der die Zusammenarbeit von Teilnehmer:innen mit unterschiedlichen demografischen Merkmalen und unterschied- lichen technologischen Kompetenzniveaus beinhaltet. Durch einen iterativen Prozess wird ein Zeichensystem in Form verschiedener Icons entworfen, verfeinert und bewertet, um die effektivsten Formate für die Übermittlung von Datenschutzinformationen zu ermitteln. Hierbei spielen wahrnehmungspsychologische Aspekte eine wesentliche Rolle. Um die Auswirkungen der Visualisierungen auf das Bewusstsein und das Verständnis der Datenschutzerklärungen der Benutzer:innen zu bewerten, wird ein gemischter Methodenansatz eingesetzt. Quantitative Daten werden durch Befragungen vor und nach der Intervention gesammelt, um das Wissen und Verständnis der Teilnehmer:innen über Datenschutzkonzepte zu bewerten. Darüber hinaus werden durch Interviews und der Erstellung sowie des Testings eines Prototypens qualitative Daten gesammelt, um tiefere Einblicke in die Wahrnehmungen und Erfahrungen der Teilnehmer:innen zu gewinnen. Für die Umsetzung des Prototypens ist eine Webseite angedacht, die Nutzer:innen einen Überblick der wichtigsten Inhalte der Datenschutzrichtlinien ermöglicht und in reduzierter Form, durch den Einsatz von Icons, darstellt (z. B. Was wird gesammelt? Welche Risiken sind damit verbunden? usw.). Die Ergebnisse dieser Forschungsarbeit werden zum Bereich der Informationsvisualisierung beitragen, indem sie Strategien ermöglicht, um komplexe Datenschutzerklärungen zu vereinfachen und sie für Nutzer:innen sozialer Medien und Messenger-Dienste zugänglicher zu machen. Durch die Förderung des Bewusstseins und des Verständnisses für Datenschutzpraktiken soll die Zielgruppe in die Lage versetzt werden, fundierte Entscheidungen bezüglich ihrer persönlichen Daten zu treffen und Datenschutzrisiken zu mindern. Die Entwicklung benutzer:innen-freundlicher bzw. menschenzentrierter Datenschutzschnittstellen fördert dabei nicht nur die Transparenz, sondern auch das Vertrauen in neue Technologien und Medien. Zusammenfassend setzt sich diese Masterarbeit mit der entscheidenden Herausforderung, das Datenschutzbewusstsein durch Vereinfachung und Visualisierung von Datenschutzrichtlinien sozialer Medien zu stärken. Durch die Kombination von Prinzipien der Informationsvisualisierung mit den teils schwer zugänglichen Inhalten dieser Texte versucht diese Arbeit, die Lücke zwischen dem Verständnis/Bewusstsein der Nutzer:innen und den rechtlichen Komplexitäten zu schließen und letztendlich eine datenschutzbewusstere digitale Gesellschaft zu fördern.
Der Klimawandel und der damit einhergehende Temperaturanstieg stellen den Gebäudesektor in Bezug auf die sommerliche Überhitzung vor erhebliche Herausforderungen. Zur Abschätzung der Auswirkungen ist es relevant, Klimadaten für einen angemessenen Zeitraum zu verwenden, um geeignete Maßnahmen zur Hitzeminderung ergreifen zu können.Die sommerliche Überhitzung variiert je nach Gebäudetyp, Standort und örtlichen Gegebenheiten. Aus diesem Grund werden in dieser wissenschaftlichen Untersuchung Wohngebäude mit mehr als zehn Wohneinheiten für das Klimaszenario RCP4.5 im Jahr 2060 in Österreich analysiert. Zur Beurteilung des Wohnkomforts wurden umfangreiche Messungen im Rahmen einer Studie des Energieinstituts Vorarlberg an einem repräsentativen Gebäude über einen längeren Zeitraum durchgeführt. Basierend auf den gewonnenen Messwerten wird ein Referenzgebäude im Gebäudesimulationsprogramm IDA ICE konstruiert und simuliert. Um verschiedene Klimazonen angemessen abzubilden, werden die Standorte Bregenz, Klagenfurt und Wien für das Gebäude im Jahr 2022 betrachtet. Diese Ergebnisse bilden die Grundlage, um den Einfluss des Klimawandels auf die sommerliche Überhitzung abschätzen zu können. Im nächsten Schritt werden die neuen Klimadatensätze für das Klimaszenario RCP4.5 im Jahr 2060 für dieselben Standorte implementiert und mit den Ergebnissen von 2022 verglichen. Dadurch können verschiedene Kennziffern wie maximale Temperaturen, Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C und die Häufigkeit von Übertemperaturgradstunden herangezogen werden, um die zukünftige Hitzebelastung zu bewerten. Die Ergebnisse zeigen, dass mit einer Erhöhung der maximalen Temperatur, der mittleren Temperatur zwischen Mai und September sowie der Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C zu rechnen ist. Der Grenzwert von 25 °C wird dabei um 12 bis 29 Prozent überschritten. Die Maximaltem-peratur steigt um vier bis neun Prozent, während sich der Wert für die mittlere Temperatur um zwei bis drei Prozent erhöht. Besonders stark nimmt die Häufigkeit von Übertemperaturen über einen längeren Zeitraum zu. Für die Umsetzung passiver Maßnahmen zeigt sich, dass diese zu einer signifikanten Reduk-tion der Stundenanzahl mit Temperaturen über den Grenzwerten führen können. Auch durch simple Maßnahmen, wie die Integration einer Nachtlüftung, kann eine Absenkung der Tem-peraturen und folglich der Stundenanzahl über den Grenzwerten erreicht werden. Ein thermischer Komfort basierend ausschließlich auf passiven Maßnahmen kann nicht für sämtliche Standorte in der Zukunft gewährleistet werden.
Um Data Analytics gezielt und effektiv einzusetzen, gilt es als wichtig, die organisationale Reife eines Unternehmens in Bezug auf die Umsetzung von Data Analytics zu messen und zu verstehen. Da viele Unternehmen allerdings noch nicht bereit für die Implementierung von Supply Chain Analytics sind, benötigen sie ein Tool mit dem die eigene organisationale Reife gemessen und verbessert werden kann. Dafür wird in dieser Arbeit ein Readiness-Assess- ment-Framework entwickelt, das die organisationale Reife eines Unternehmens bestimmt und mittels ergänzendem Leitfaden Möglichkeiten zur Optimierung der eigenen Reife aufzeigt. Die Besonderheit dieses Assessments liegt in der Aufteilung in einzelne organisationale und tech- nologische Kategorien sowie deren Erfolgsfaktoren. Der Aufbau dieser Arbeit folgt dem De- sign-Science-Ansatz von Peffers et al. (2006). Mittels eines Literature Reviews und Expert:in- neninterviews wurden die Kategorien und Erfolgsfaktoren für das Assessment identifiziert und verifiziert. Nach der Entwicklung des Assessments wurde in einem Workshop die Praxistaug- lichkeit des Frameworks überprüft. Abschließend werden Ansatzpunkte für künftige Weiter- entwicklungen des Frameworks dargestellt.
Die Nutzung des Controllings als zentrales Instrument zur Unternehmenssteuerung in der landwirtschaftlichen Branche in Österreich zeigt eine uneinheitliche Ausprägung. Während größere Betriebe das Controlling zur effektiven Steuerung einsetzen und dabei die Planung, Umsetzung und Anpassung betonen, vernachlässigen kleinere und mittlere Betriebe häufig die Nutzung von Controlling oder generellen Aufzeichnungen. Die Verwendung von Werkzeugen und Führungsinstrumenten variiert entsprechend den spezifischen Bedürfnissen und Rahmenbedingungen der Betriebe. Im Ackerbau spielt die langfristige Planung eine zentrale Rolle, während Gemüseanbaubetriebe Instrumente wie Liquiditätsplanung und Marktbeobachtung einsetzen. Tierhaltungsbetriebe führen interne Kalkulationen und Kostenabschätzungen durch. Auch die Planungsebenen und die Auswahl finanzieller Leistungskennzahlen unterscheiden sich in den landwirtschaftlichen Betrieben. Die Messung der wirtschaftlichen Ergebnisse erfolgt mittels verschiedener Methoden wie Gewinn- und Verlustrechnung, doppelter Buchhaltung und Einnahmen-Ausgaben-Rechnung. Externe Faktoren wie Wetterbedingungen, Marktpreise und politische Veränderungen beeinflussen die Geschäftstätigkeit landwirtschaftlicher Unternehmen. Es bestehen sowohl verschiedene Herausforderungen für die zukünftige Unternehmensführung als auch Chancen in den Bereichen Effizienzsteigerung, Smart Farming, Direktvermarktung und Anpassung an den Klimawandel und regionale Märkte. Landwirte zeigen eine Bereitschaft zur Innovation und Offenheit für neue Lösungsansätze.
Der Fachkräftemangel stellt ein weit verbreitetes und zunehmendes Problem dar, das alle Wirtschaftsbereiche betrifft. Besonders in technischen Berufen gestaltet sich die Rekrutierung qualifizierter Mitarbeitenden als äußerst herausfordernd. Es wird immer deutlicher, dass es nicht ausreicht, lediglich Mitarbeiter:innen anzuwerben; vielmehr ist es von entscheidender Bedeutung, sie gezielt zu Fachkräften auszubilden. Trainee-Programme bieten eine Möglichkeit, diese Entwicklung zu fördern. Die vorliegende Masterarbeit widmet sich den Gestaltungselementen von Trainee- Programmen und bietet einen umfassenden Überblick über Definitionen, Methoden und Ausbildungselemente innerhalb dieser Programme. Diese Arbeit konzentriert sich auf die Identifikation kritischer Erfolgsfaktoren technischer Trainee-Programme, indem sowohl in der qualitativen Forschung untersucht wird, inwiefern Vorarlberger Industrieunternehmen diese Gestaltungselemente in ihren bereits implementierten technischen Trainee-Programmen berücksichtigen und welche Erfahrungswerte bisher gesammelt wurden, als auch in der quantitativen Forschung speziell technische Hochschülerinnen und -studenten als Zielgruppe herangezogen werden. Die Ergebnisse dieser Forschungsarbeit liefern wertvolle Erkenntnisse und praxisorientierte Handlungsempfehlungen für Unternehmen bei der Gestaltung ihrer Trainee-Programme. Besonders betont wird die Bedeutung der individuellen Anpassung an die Bedürfnisse und Interessen der potenziellen Trainees, einschließlich ihrer fachlichen Schwerpunkte, Karriereziele und Lernpräferenzen. Mentoring, Networking und interne Zusammenarbeit werden als wichtige Elemente für eine umfassende Entwicklung der Trainees innerhalb des Programms hervorgehoben. Darüber hinaus wird empfohlen, ein flexibles Framework einzusetzen, das Standards und Richtlinien für die Trainee-Programme festlegt, aber gleichzeitig Raum für Anpassungen und individuelle Entwicklungsmöglichkeiten bietet. Diese Masterarbeit trägt dazu bei, das Verständnis für die Gestaltungselemente von Trainee- Programmen zu vertiefen und liefert wertvolle Erkenntnisse für Unternehmen in Vorarlberg und darüber hinaus. Durch die Ergänzung des Phasenmodells der Trainee-Programme mit den Ergebnissen der qualitativen und quantitativen Forschung werden praxisnah e Empfehlungen abgeleitet, um Trainee-Programme attraktiver zu gestalten. Dadurch wird eine gezielte Entwicklung von Fachkräften im Unternehmen ermöglicht und eine langfristige Bindung an das Unternehmen gefördert.
Die sichtbare Digitalisierung des Bankensektors beruht im Kern auf der Steigerung des Qualitätserlebnisses für Kund*innen. Als ein Symbol dessen hat sich das Videoidentifizierungsverfahren etabliert, durch welches ein digitales Onboarding von Neukund*innen in Banken möglich gemacht wird. Gefördert wird die Implementierung dieser Technologie am Markt im Wesentlichen durch den Entwicklungseinsatz von Direktbanken. Das Setup dieses Verfahrens steht im Kontrast zu den Kernelementen – Kundenberatung und physische Eröffnung – welche eng mit klassischen Banken verbunden wird. Digitalisierung hat sich zu einem Synonym von Fortschritt entwickelt, viele positive Aspekte, aber vor allem eine Effizienzsteigerung im Prozesse sind beobachtbar. Erfolge wie unter anderem die geografische Markterweiterung samt einem ertragssteigernden Marktsegment, verbesserte Kundenzufriedenheit und Prozessexzellenz, die den heutigen Anforderungen gerecht wird sind zu verzeichnen. Welche weiteren Chancen und Risiken zwei der bedeutendsten Finanzplätze in Europa – Liechtenstein und Deutschland – im Detail mit dieser Technologie verbinden, ist Ziel dieser Forschungsarbeit, an wessen Ende eine konkrete Handlungsempfehlung kommuniziert werden wird.
Der Fremdvergleichsgrundsatz ist ein wichtiges Instrument zur Bestimmung von Verrechnungspreisen zwischen verbundenen Unternehmen, um Gewinnverschiebungen zu vermeiden. Durch den Vergleich mit unabhängigen Unternehmen sollen angemessene Preise und Bedingungen für internationale Transaktionen gewährleistet werden. Die Anwendung des Fremdvergleichsgrundsatzes erfordert eine sorgfältige Analyse der Transaktionen und trägt zur Einhaltung der Steuervorschriften bei. Die wirtschaftlichen Auswirkungen der Covid-19-Pandemie haben jedoch neue Herausforderungen für die Bestimmung von Verrechnungspreisen hervorgebracht, wie die Berücksichtigung staatlicher Hilfen oder das Vorhandensein verlässlicher Vergleichsdaten. Konzernunternehmen waren daher dazu gezwungen, ihre bisherige Verrechnungspreispolitik zu überdenken und gegebenenfalls anzupassen. In der vorliegenden Masterarbeit werden die Auswirkungen der Covid-19-Pandemie auf die Bestimmung von Verrechnungspreisen in multinationalen Konzernunternehmen mit Hauptsitz in Vorarlberg untersucht. Um das angestrebte Ziel dieser Arbeit zu erreichen, ist es von großer Bedeutung, den aktuellen Forschungsstand zu den Auswirkungen der Covid-19-Pandemie auf die Bestimmung von Verrechnungspreisen durch eine umfassende Literaturrecherche zu erfassen und die rechtlichen Grundlagen zu analysieren. Basierend auf dem gewonnenen theoretischen und rechtlichen Wissen wurden Fachleute bedeutender Unternehmen mit Headquarter in Vorarlberg befragt. Darüber hinaus wurden Expertinnen aus renommierten Beratungsunternehmen befragt, um die Thematik aus verschiedenen Perspektiven zu beleuchten.
Die vorliegende Masterarbeit befasst sich mit dem Verhalten von Mitarbeitenden in psychologisch sicheren und unsicheren Situationen. Hierfür wird das Konstrukt der psychologischen Sicherheit mit der Theorie der Ressourcenerhaltung verbunden. Dies wird als ein möglicher Ansatz gesehen, um zu erklären, wie psychologische Sicherheit entstehen kann. Es wird ermittelt, welche Ressourcen, als Prädiktoren von psychologischer Sicherheit relevant sind und zu welchen verhaltensbezogenen Konsequenzen psychologisch sichere und unsichere Situationen führen. Um die hierfür benötigten Daten zu erheben, wurde eine qualitative Studie in Form von neun teilstandardisierten Interviews, nach der Critical Incident Methode, durchgeführt. Die Ergebnisse zeigen auf, dass mit dieser Methode relevante Ressourcen der psychologischen Sicherheit ermittelt und verhaltensbezogene Konsequenzen, erfasst werden. Somit eignet sich die methodische Herangehensweise der vorliegenden Arbeit zur Anwendung in Unternehmen. Auf diese Weise können Unternehmen ermitteln, welche relevante Ressourcen für ihre Mitarbeitenden, die zur psychologischen Sicherheit führen, bereits vorhanden sind und welche gefördert werden müssen.
Der Standard IAS 36 regelt die Bewertung bestimmter Vermögenswerte in der IFRS-Bilanz und soll verhindern, dass Vermögenswerte mit einem Buchwert ausgewiesen werden, der höher ist als ihr erzielbarer Betrag. Zu diesem Zweck werden der Nutzungswert, der sich aus der Nutzung des Vermögenswertes ergibt, und der beizulegende Zeitwert, der einen theoretischen oder realen Marktwert darstellt, ermittelt. Aufgrund des Interpretationsspielraums des Standards, sich ändernder Faktoren wie Zinssätze und Wachstumsannahmen und der großen Auswirkungen, die Wertminderungen auf die Ergebnisse der Jahresabschlüsse haben können, ist der Impairment Test ein aktuelles Thema. In dieser Arbeit werden verschiedene Herangehensweisen zur Wertminderungsprüfung untersucht und gemeinsam mit identifizierten Verbesserungsmöglichkeiten in einem Best-Practice-Modell zusammengefasst. Zu diesem Zweck wurden Interviews mit sechs Unternehmen und sechs Wirtschaftsprüfern und Wirtschaftsprüferinnen aus der DACH-Region geführt und anschließend mittels fokussierter Interviewanalyse nach Kuckartz und Rädiker (2020) ausgewertet. Es zeigte sich, dass insbesondere die vorgelagerte Trigger Analyse und die Kontrollmechanismen an verschiedenen Stellen des Prozesses in der Praxis weiterentwickelt werden sollten. Darüber hinaus wird empfohlen, im Falle einer Wertminderung eines Goodwills nicht nur auf dem in der Praxis bevorzugten Nutzungswert zu beharren, sondern einen zweiten Bewertungszyklus mit dem beizulegenden Zeitwert durchzuführen, um den Wertminderungsbedarf zu reduzieren. Die Ergebnisse dieser Studie bieten verschiedene Möglichkeiten für weitere Forschungen, beispielsweise könnten weitere Experten und Expertinnen aus verschiedenen Ländern befragt werden, oder es könnte mehr Aufmerksamkeit auf Teilprozesse, wie z.B. die Trigger Analyse oder die Goodwill-Bewertung mit dem Fair-Value-Ansatz, gelegt werden.
Die vorliegende Arbeit betrachtet in wie weit die analysierten Berichterstattungen ausgewählter ATX Unternehmen die zukünftig zwingend zu erfüllenden europäischen Nachhaltigkeitsberichterstattungsstandards (ESRS) bereits in den Berichterstattungen des Geschäftsjahres 2022 erfüllen. Hierzu wird zuerst eine Einbettung der ESRS in die rechtliche Landkarte und deren Umsetzungszeitraum beschrieben, bevor die Gliederung und einzelnen ESRS vorgestellt werden. Der empirische Teil untersucht mittels einer qualitativen Inhaltsanalyse die Berichterstattungen ausgewählter ATX Unternehmen hinlänglich der Einhaltung der im ersten Schritt der Umsetzung zwingend zu berücksichtigenden ESRS. Dabei geht die Auswertung sowohl auf Unterschiede zwischen den Berichten, sowie berichtsübergreifend auf die einzelnen Standards ein.
Die Digitalisierung und Mediatisierung haben einen bedeutenden Einfluss auf das Leben von Ju- gendlichen. Obwohl ihnen aufgrund ihrer Generationszugehörigkeit oft eine hohe digitale Kom- petenz zugeschrieben wird, ist dies nur teilweise zutreffend. Um Jugendlichen eine erfolgreiche Bewältigung ihres digitalen Lebens, vor allem in Bezug auf krisenhafte Situationen, zu ermögli- chen, sind Unterstützungsangebote auf allen Ebenen der digitalen Lebenswelt erforderlich. In Vorarlberg hat sich der medienpädagogische Stammtisch gegründet, um wertvolle Unterstüt- zungsangebote für Jugendliche in diesem Bereich eine Vernetzungs- und Kooperationsplattform zu bieten. Die Forschungsfrage dieser Masterarbeit lautet: Wie gestaltet sich das Unterstützungsnetzwerk für die Bewältigung von Krisensituationen in der digitalen Lebenswelt von Jugendlichen in Vorarlberg? Um diese Frage möglichst umfassend zu beantworten, werden verschiedene Unterfragen untersucht, da- runter die Zugangsmöglichkeiten für bestimmte Zielgruppen, die beteiligte Akteur*innen, die Be- ziehungen zwischen den Angeboten sowie die Expert*innenwahrnehmungen zur Vorarlberger Soziallandschaft. Als Ausgangspunkt der Forschung dient der medienpädagogische Stammtisch, welcher im No- vember 2020 gegründet wurde, um den Bedarf an medienpädagogischen Angeboten für junge Menschen in Vorarlberg zu ermitteln und um eine Vernetzungsplattform zu bieten. Vertreter*in- nen verschiedener Einrichtungen schlossen sich zusammen, um die durch die Coronamaßnah- men verschärfte Situation zu verbessern. Der Stammtisch dient als Netzwerk und ermöglicht den Austausch zwischen den Akteur*innen. Die Bedeutung digitaler Unterstützungsnetzwerke für Jugendliche wird durch verschiedene Studien untermauert. So ermöglichen Digitale Netzwerke den Aufbau sozialer Beziehungen, den Austausch von Erfahrungen und Interessen sowie die Verbesserung der psychischen Gesundheit von Jugendlichen. Sowohl die Angebotslandschaft Vorarlbergs als auch die Unterstützungsangebote in krisenhaften Lebenssituation wurde durch die Unterstützung von Netzwerkkarten erhoben und bieten damit eine Visualisierung der Ak- teur*innen und deren Beziehungen als Unterstützungsnetzwerk. Im Rahmen der Forschungserkenntnisse betonen die Expert*innen, dass der medienpädagogi- sche Stammtisch eine wertvolle Ressource ist und Unterstützung in der Entwicklung digitaler Kompetenzen bietet. Sie sehen die digitale Lebenswelt als Erweiterung der realen Lebenswelt und plädieren für eine ganzheitliche Betrachtung beider Räume. Die Expert*innen betonen die Bedeutung einer Vernetzung von Akteur*innen auf verschiedenen Ebenen und die Notwendig- keit einer gemeinsamen Bewältigung der digitalen Herausforderungen. Digitale Unterstützungs- netzwerke können Jugendlichen in Krisensituationen helfen und ihre psychische Gesundheit stärken. Eine enge Zusammenarbeit zwischen den Akteur*innen, die Verbesserung der digitalen Bildung und Qualifizierung von Fachkräften sowie präventive Maßnahmen sind entscheidend, um Jugendliche im digitalen Raum zu unterstützen. Insgesamt zeigt sich, dass eine ganzheitliche und koordinierte Herangehensweise erforderlich ist, um Jugendlichen in der digitalen Lebenswelt effektive Unterstützung zu bieten. Die Evaluation und Weiterentwicklung des Unterstützungsnetzwerks sind von großer Bedeutung, um den sich wandelnden Bedürfnissen gerecht zu werden. Zudem ist die Einbeziehung des sozialen Umfelds der Jugendlichen ebenfalls unerlässlich. Die Digitalisierung bringt sowohl Risiken als auch Chancen mit sich, was maßgeblich zur Rele- vanz beiträgt, ein starkes und effektives Unterstützungsnetzwerk aufzubauen, das Jugendliche auf ihrem Weg durch das digitale Zeitalter begleitet und unterstützt.
In den letzten Jahren hat die Forschung im Bereich queerer Lebenswelten und LGBTIAQ* Thematiken zugenommen und konventionelle Vorstellungen über Geschlechterdichotomien verändert, was zu einer breiteren Akzeptanz verschiedener Identitäten geführt hat. Zudem wurden die Auswirkungen von Diskriminierung auf LGBTIAQ* Personen untersucht, was zur Entwicklung des Minderheitenstressmodell führte. Um Diskriminierung zu bekämpfen und angemessene Unterstützung zu bieten, ist es zentral, queere Themen in die Soziale Arbeit zu integrieren. Es ist wichtig die Sensibilisierung für die Anliegen und Herausforderungen von jungen erwachsenen LGBTIAQ* Personen zu erhöhen und eine queer inklusive Perspektive zu fördern. Insbesondere in Bezug auf junge Erwachsene, die von gängigen heteronormativen Normen abweichen, da diese zu einer vulnerablen Gruppe zählen und marginalisiert sind. In urbanen Regionen wie dem Rheintal in Vorarlberg müsste, wie in urbanen Zentren in Wien herausgefunden wurde, ebenfalls ein dringender Bedarf an einem sicheren Raum und Unterstützungsstrukturen für junge erwachsene LGBTIAQ* Personen bestehen. Die vorliegende Masterarbeit widmet sich dieser Thematik und konzentriert sich auf die Situation im Vorarlberger Rheintal. Dabei stehen im Fokus der Untersuchung die Lebensbewältigung und Lebensgestaltung von jungen queeren Erwachsenen und die strukturellen Herausforderungen, die Gestaltung von Orten sowie die Interaktion mit Menschen. Die Forschungsfrage zielt darauf ab, die Erfahrungen und Herausforderungen dieser Gruppe im Hin- blick auf Soziale Arbeit und die Gestaltung von einem geeigneten Raum zu erforschen. Der Forschungsstand und das theoretische Verständnis werden umfassend dargestellt, wobei Konzepte aus der interkulturellen Sozialen Arbeit, der Queer Theorie, der Identitätskonstruktion und dem Minderheitenstressmodell herangezogen werden. Die methodische Herangehensweise, einschließlich der Auswahl der Interviewmethoden, des Sampling-Prozesses und der Forschungsethik, wird ausführlich beschrieben, um sicherzustellen, dass die Erkenntnisse auf einer soliden methodischen Grundlage basieren. Eine Auswertung der Daten erfolgt in verschiedenen Abschnitten. Die Masterarbeit fasst alle gewonnenen Erkenntnisse zusammen, wobei besondere Aufmerksamkeit auf interkulturelle Perspektiven gelegt wird. Abschließend werden in einer Diskussion und Schlussfolgerung die Besonderheiten des Rheintal Vorarlberg, Limitationen, Ausblicke, Kritik und Reflexion beleuchtet und es werden Handlungsempfehlungen für die Soziale Arbeit formuliert.
Die Gesundheit beeinflusst das Wohlbefinden von Menschen (Weltgesundheitsorganisation, 2019), ebenso hat das Wohlbefinden Einfluss auf die Gesundheit (Röhrle, 2018). In der vorliegenden Masterarbeit wird mit Hilfe theoretischer Bezüge aus der klinischen Sozialarbeit beleuchtet, wie das Wohlbefinden von Menschen mit psychischen Erkrankungen durch das Klettern beeinflusst wird. Dazu wird folgende Forschungsfrage formuliert: ‚Welche Auswirkungen hat das Klettern, als Intervention der Sozialen Arbeit, auf das subjektive bio-psycho-soziale Wohlbefinden von erwachsenen Menschen mit psychischer Erkrankung?‘. Um die Forschungsfrage zu beantworten, wurden fünf qualitative leitfadengestützte Interviews mit Menschen durchgeführt, die im Rahmen des Tagestrukturierungsangebotes all_tag bei Aqua Mühle Vorarlberg an wöchentlichen Klettereinheiten teilnehmen. Ebenso wurden zwei Expert*innen-Interviews mit Personen, die das Angebot leiten, durchgeführt. Mittels qualitativer Inhaltsanalyse nach Mayring wurden Situationen, Erlebnisse und Ereignis-se herausgearbeitet, in denen das subjektive bio-psycho-soziale Wohlbefinden von teilnehmenden Personen durch das Klettern individuell beeinflusst wird. Neben der Erkenntnis, durch was das Befinden beim Klettern beeinflusst wird, konnte auch erforscht werden, wie das Wohlbefinden durch das Klettern Beeinflussung findet. Diese Ergebnisse werden zum großen Teil durch die Aussagen der Expert*innen untermauert. Durch die Auswertung kristallisierten sich neue Erkenntnisse für die Praxis der Sozialen Arbeit und Lücken speziell in Bezug auf finanzielle, personelle und zeitliche Ressourcen in der Arbeit mit dem Medium Klettern heraus, für die Lösungsansätze beschrieben werden.
Der Übergang zu erneuerbaren Energiesystemen und deren optimale Betriebsweise ist entscheidend für die Reduzierung des Energieverbrauchs und der damit verbundenen Einsparung von CO2-Emissionen. In privaten Haushalten dominiert traditionell die Hystereseregelung bei der Wärmeerzeugung. Neuere Bauten, ausgestattet mit Wärmepumpen und Photovoltaikanlagen, bieten jedoch beachtliches Potenzial zur Effizienzsteigerung durch angepasste Regelungsstrategien. Eine intelligente Laststeuerung ermöglicht erhebliche Kosteneinsparungen und eine Erhöhung des Autarkiegrades. Vorhandene literarische Ansätze liefern Methoden zur Systemmodellierung und -identifikation. Darüber hinaus demonstrieren sie das Potenzial der Optimierung durch den Model Predictive Control (MPC) Ansatz. Eine spezifische Evaluierung anhand von Realdaten eines Energiesystems mit Abluft-Wärmepumpe fehlt jedoch. Daher bedarf es der Bewertung des Lastverschiebungspotentials dieser Systemkonfiguration. Die Systemidentifikation erfolgt basierend auf Messdaten, welche gleichzeitig als Referenz für den Vergleich des traditionellen Hysteresebetriebs mit der MPC-Steuerung dienen. Die Analyse offenbart das Lastverschiebungspotential durch die optimierte Betriebsweise einschließlich einer Gesamtkosteneinsparung von bis zu 42% und einer Steigerung des Autarkiegrades um bis zu 10%. Diese Potentiale variieren saisonal, sind jedoch das ganze Jahr über vorhanden.
GESCHICHTEN BEIM GEHEN
(2022)
Eine junge Frau geht ihre Wege durch Dornbirn, einer Stadt mit rund 50.000 Einwohnern. Sie wohnt im Zentrum der Kleinstadt, durchläuft diese meist zu Fuß, zu den unterschiedlichsten Zwecken und immer mit offenen Augen. Sie stellt fest, dass je öfter sie denselben Weg geht, sie umso mehr Neues entdeckt: Dinge abseits des Alltäglichen. Sie bemerkt, dass sie scheinbar Gleiches immer wieder anders wahrnimmt.
In diesem Buch hat sie die Geschichten, die sich während dem Vorgang des Gehens bilden, gesammelt. Diese lassen in ihrer Gesamtheit ein Bild ihrer Wege entstehen: durch Texte, Notizen, Illustrationen, Grafiken, Fotografien und Filme.
Sie (er)fasst somit den Raum, der sich bildet, wenn sie sich durch die Stadt bewegt – und macht diesen für uns sichtbar. Folgen Sie ihr auf ihrem Weg und begeben Sie sich mit den beiliegenden Karten selbst auf Entdeckungsreise. Sie werden staunen.
Geschichten beim Gehen ist ein Forschungsprojekt, das einerseits versucht eine Theorie zur Raumkonstitution (Kunst des Handelns von Michel de Certeau) in ein visuelles Erscheinungsbild zu übersetzen und gleichzeitig Methoden zur Wahrnehmbarmachung erarbeitet, die andere Karten oder Darstellungen jenseits von Karten liefern.
Die Arbeit soll als Beispiel für ein Forschen mittels gestalterischen Methoden dienen. Entstanden sind zwei Bücher: O, das Buch vom Ort und R, das Buch vom Raum. Ersteres bildet die wissenschaftliche Kontextualisierung und diskutiert die gewonnenen Erkenntnisse. Zweiteres funktioniert als visuelles Essay und zeigt angewendete gestalterische Methoden und verwendete Medien: ein Prozess im Wechselspiel von Theorie und Praxis.
Gestenbasierende grafische Benutzeroberflächen werden zunehmend beliebter. Diesbezüglich werden immer mehr Animation in Verbindung mit Nutzergesten eingesetzt.
Diese Arbeit setzt sich mit der Gestaltung von Animationen in gestenbasierten grafischen Benutzeroberflächen auseinander.
Dazu gehört auch, Animationen als Feedback auf eine hochfrequente Eingabemethode so zu gestalten, dass sie möglichst lange von Nutzern*innen als affektiv positiv wahrgenommen werden. Das Hauptaugenmerk der Arbeit liegt dabei auf der Interaktion von Nutzer*innen mit natürlichen Objektbewegungen.
Natürliche Objektbewegungen orientieren sich am Verhalten von Objekten in der physischen Welt. Sie verfügen beispielsweise über konzeptionelle Trägheit, Masse und reagieren auf unsichtbare Kräfte wie Schwerkraft.
Menschen verfügen über kausale Denkmuster, die in der physischen Welt die Interaktion mit Objekten prägen. So wissen Menschen, dass sie um ein träges Objekt wie eine Tasse zu bewegen, Energie benötigen, damit sich diese bewegt.
Untersucht wurde, ob das Verständnis von Nutzer*innen für natürliche Objektbewegungen auch in einer digitalen Umgebung existiert.
Im theoretischen Teil der Arbeit wurde die Rolle von Interfaceanimationen in modernen Benutzeroberflächen untersucht, Kriterien ausgearbeitet um eine reibungslose Nutzererfahrung zu ermöglichen und Parameter dargestellt, welche die Wahrnehmung der Charakteristik einer Animation positiv beeinflussen können. Ein zentraler Aspekt der Arbeit ist dabei die Gestaltung von natürlichen Objektbewegungen, um ein vertrautes, vorhersehbares und nachvollziehbares Nutzererlebnis schaffen können.
Anschließend wird das aus den Ergebnissen resultierende Konzept von prozeduralen Interfaceanimationen dargelegt. Eine prozedurale Interfaceanimation generiert aus den Vorgaben eines natürlichen Bewegungspfades generisch unterschiedliche Instanzen. Der Bewegungspfad kann über die Richtung und Geschwindigkeit einer Nutzergeste von dem*der Nutzer*in gesteuert werden.
In der abschließenden Evaluation wurde die elektrodermale Aktivität von 16 Probandinnen untersucht und bewertet, während diese sich mit drei unterschiedlichen Varianten der Animation auseinandersetzten. Es konnte nachgewiesen werden, dass ein unnatürlich starker Einfluss auf natürliche Objektbewegungen signifikante Unterschiede in den affektiv wahrgenommenen Reaktionen auslöst.
Mit Industrie 4.0 kündigte sich in Unternehmen ein großer Wandel. Dieser ist insbesondere im Bereich der Fertigung und Produktion spürbar. Von der vierten industriellen Revolution sollen Unternehmen profitieren, indem Prozesse digitalisiert und automatisiert, neue Technologien implementiert und die Wettbewerbsfähigkeit gesichert wird. Deswegen wird die Industrie 4.0 von vielen Unternehmen als Chance gesehen. Mit dem Einsatz von digitalen Technologien erhoffen sich Unternehmen, ihre Potenziale auszuschöpfen und sich Wettbewerbsvorteile zu sichern.
Im Hinblick auf die Industrie 4.0 sind jedoch kleine und mittlere Unternehmen vor Herausforderungen gestellt. Die Gründe hierfür sind vielfältig und werden in der vorliegenden Masterarbeit beleuchtet.
Dies führt dazu, dass KMU bei dem technischen, digitalen Fortschritt im Rahmen der Industrie 4.0 hinterherhinken. Es fällt ihnen schwer, den eigenen Status quo zu ermitteln und richtige Entscheidungen zu treffen, um die Hürden der Industrie 4.0 erfolgreich zu meistern. Damit dies gelingt, empfiehlt sich zu analysieren, wo das jeweilige Unternehmen aktuell steht und wie es sich abheben möchte, um seine Entscheidungen gezielt auf die Transformation von Industrie 4.0 ausrichten zu können.
Solche Orientierungshilfen, wie Referenz- oder Reifegradmodelle, die auf die Bedürfnisse der KMU eingehen und explizit auf ihre individuellen Anforderungen ausgerichtet sind, sind ein wichtiger Bestandteil der Masterarbeit.
In der vorliegenden Masterarbeit soll somit folgende Forschungsfrage beantwortet werden:
Warum sind die IT-Prozesse besonders kritisch für KMU in der Industrie 4.0 und lässt sich ein unterstützendes, reifegradbasiertes Referenzmodell zur Verbesserung der IT-Prozesse entwickeln?
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
Aufgrund des anhaltenden Klimawandels wird eine Reduzierung des Ausstoßes von Kohlendioxid (CO2) immer wichtiger. Dabei könnte die Verwendung und Weiterentwicklung von CO2-Gashydraten als „Carbon Capture“-Methode (CC) einen großen Beitrag leisten. Bei der Bildung von Gashydraten wird Gas in den Hohlräumen eines Hydratgitters, welches sich unter hohen Drücken und niedrigen Temperaturen bildet, eingeschlossen. In dieser Arbeit wurden verfahrenstechnische Methoden getestet, um die Dynamik der Gashydratbildung zu verbessern. Dies wird vor allem durch eine Verbesserung von Massen- und Wärmetransport erreicht. Das Hauptproblem für die langen Bildungszeiten ist unter anderem eine sehr geringe Kontaktfläche. Diese kann durch den Einsatz eines Rührers, eines permanenten Gasdurchflusses und durch die Verwendung von Dry Water erhöht werden. Dry Water besteht aus vielen winzigen Wassertröpfchen, die von hydrophobiertem Siliziumdioxid (SiO2) umschlossen sind. Dadurch kann die Dauer der Induktions- und Wachstumsphase der Gashydratbildung verkürzt werden.
In dieser Arbeit wird ein Reaktor mit 30 ml Volumen und ein Schrägblattrührer mit einem Durchmesser von 17 mm verwendet. Der Rührer wurde bei einer maximalen Drehzahl von 15 000 rpm ca. alle 10 min für max. 30 s betrieben, bis die Wachstumsphase der Gashydratbildung beginnt. Der Gasdurchfluss hatte einen Volumenstrom von ca. 4 slm. Das verwendete Dry Water wurde in einem Haushaltsmixer bei 25 000 rpm aus Kieselsäure und Wasser hergestellt und besitzt einen Wasseranteil von 95 %. Es wurden unterschiedliche Kombinationen getestet. Die kürzeste Induktionszeit wurde mit durchschnittlich 6,9 min durch den Einsatz eines Rührers in Kombination mit einem Gasdurchfluss und Wasser erreicht, bei einem Volumenverhältnis zwischen Gas und Wasser von 8,8 v/v nach 60 min. Die größte Menge an Gashydrat konnte durch den Einsatz von Dry Water in Kombination mit einem Gasdurchfluss erreicht werden. Das führte nach 60 min zu einem Volumenverhältnis zwischen Gas und Wasser von 14,9 v/v. Die Induktionszeit betrug dabei 120 min.
Berufliche Ausbildung ist seit jeher Tradition und Garant einer zielgerichteten, systematischen und wiederholbaren Vermittlung von Kompetenzen in kodifizierten Berufen. Das Modell der dualen Berufsausbildung dient dabei der Verzahnung von schulischen und betrieblichen Anteilen. Insbesondere im deutschsprachigen Raum haben sich hierbei vermehrt anspruchsvolle Bereiche herausgebildet. Besonderes Interesse besteht dabei in der Bodenseeregion, da hier nahezu alle deutschsprachigen Länder einen gemeinsamen Wirtschaftsraum bilden.
Im Fokus dieser Arbeit liegt die Untersuchung bestehender theoretischer Modelle zur Verbundausbildung hinsichtlich der Veränderung und Anpassung durch die betriebliche Praxis. Zu diesem Zweck wurden auf Basis einer theoretischen Untersuchung zunächst bestehende Modelle identifiziert und in Bezug auf Gestaltungsfaktoren untersucht. In einem zweiten Schritt wurden im Rahmen eines qualitativen Forschungsansatzes Leitfaden gestützte Experten:innen Interviews durchgeführt. Im Ergebnis konnte eine empfohlene Anpassung des Ausbildungsvereines als idealtypisches Modell entwickelt werden. Konkrete Handlungsempfehlungen bilden die Grundlage zum Vergleich bestehender Verbünde, ebenso wie zur Gründung neuer Verbundvorhaben.
Der Begriff der Nachhaltigkeit und der damit einhergehende Druck der Gesellschaft auf Unternehmen nimmt stetig zu. Unternehmen haben in den letzten Jahren damit begonnen, nachhaltige Ansätze im Rahmen ihrer wirtschaftlichen Tätigkeit zu integrieren und nach außen hin zu vertreten.
Das Ziel dieser Arbeit ist die Entwicklung eines sogenannten ESG-Leitfadens, welcher als zusätzliches Analysewerkzeug im Rahmen einer Unternehmensprüfung von Private-Equity-Gesellschaften eingesetzt werden kann. Der Leitfaden gilt als Leitlinie für die Einhaltung von ESG-Kriterien sowie den Bestimmungen der EU-Offenlegungsverordnung für nachhaltige Finanzprodukte.
Im Rahmen einer umfassenden Recherche wurden in einem ersten Schritt bestehende Due-Diligence-Prüfungen auf nachhaltige Aspekte untersucht. Anschließend wurden weitere Kriterien zur Erfüllung der ESG-Aspekte auf Basis einer entwickelten Methodik extrahiert und in den vorgesehenen Leitfaden implementiert. Weiters wurde sichergestellt, dass mit der Anwendung des Leitfadens die Grundzüge der EU-Offenlegungsverordnung eingehalten werden können.
In einem abschließend durchgeführten Anwendungstest wurde die Einsatzfähigkeit des Leitfadens bestätigt. Der Erfolg des ESG-Leitfadens, im Hinblick auf einen später darauf zurückzuführenden wirtschaftlichen Erfolg, kann lediglich in Kombination mit weiteren Prüfmethoden sichergestellt werden.
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
Seit der Einführung von modernen Smartphones steigt die Bildschirmdiagonale der mobilen Endgeräte Jahr für Jahr. Dies ist sowohl ein Fluch als auch ein Segen zugleich. Einerseits kann auf einer größeren Bildschirmfläche eine größere Anzahl von Inhalten grafisch dargestellt werden. Andererseits bedeutet dies aber auch, dass Interaktionen mit der gesamten verfügbaren Bildschirmfläche sich als immer schwieriger gestalten. Insbesondere bei der einhändigen Bedienung des Smartphones mit dem Daumen erfordern ungünstig platzierte klickbare Bedienelemente eine erhebliche Streckung des betreffenden Fingers oder sogar die Unterstützung durch die andere Hand. Dadurch kann die Präzision von Berührungsinteraktionen beeinträchtigt werden. Es stellt sich deshalb folgende Forschungsfrage: „Inwiefern hängt die Berührungspräzision von unvorteilhaft positionierten Bedienelementen in Smartphones ab und wie unterscheiden sich die verschiedenen Altersgruppen hinsichtlich Smartphone Interaktionen?“ Zur Beantwortung der Forschungsfrage wurde eine quantitative Studie im Design einer interaktiven Umfrage für Smartphones programmiert und an potentielle Teilnehmer:innen versandt. Dabei wurden die Teilnehmenden aufgefordert vordefinierte Haltegriffe einzuhalten. Es wurden die Berührungsinteraktionen und die Antworten der Teilnehmenden protokolliert und anschließend analysiert. Bei der Datenanalyse wurden die erhobenen Daten der Teilnehmenden in vier Altersklassen unterteilt und anschließend auf Differenzen bezüglich der Bedienpräzision untersucht. Die Darstellung und der Vergleich der Benutzer:inneninteraktionen durch OffsetVektoren ergab, dass die Versuchsgruppe der Senioren bei allen vordefinierten Haltegriffen eine signifikant geringere Präzision in Bezug auf die Berührungsgenauigkeit aufwies als die anderen Testgruppen. Darüber hinaus wurde festgestellt, dass Objekte, die weiter von der natürlichen Fingerposition entfernt sind, mit einer geringeren Präzision selektiert werden als Objekte, die in unmittelbarer Nähe zum bedienenden Finger positioniert sind. Dies zeigte sich sowohl bei der Bedienung mit dem Daumen als auch mit dem Zeigefinger und ist abhängig vom Winkel des bedienenden Fingers zum Smartphone.
Krypto-Assets im Treasury
(2022)
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
Diese Studie zielt darauf ab, Unterschiede in der User Experience von 3D-Karten Anwendungen im Nutzungskontext Skitourenplanung festzustellen, um Erkenntnisse über die Vor- und Nachteile zu gewinnen. Es findet ein Vergleich zwischen der Touchscreen Applikation „Fatmap“1 (FATMAP | Discover a world of adventure..., o. J.) und einem auf der Basis mobiler Augmented Reality entwickelten Prototypen statt.
Um die Usability zu untersuchen, wurden Evaluationen zur Messung der Faktoren Effektivität, Effizienz und Zufriedenheit durchgeführt. Auf Grundlage der Ergebnisse wurde zudem ein Vorbereitungstool für eine alpine Skitour entwickelt. Für den Versuchsaufbau wurde zu Beginn die prototypische mobile AR-Applikation dem UX-Design Prozess folgend aufgesetzt. In dieser Phase fand eine tiefgreifende Recherche zu den Themen Orientierung, Interaktion und Skitouren statt, woraus die Anforderungen und das Konzept für den Prototyp abgeleitet wurden. Dieser wurde mit Hilfe einer Online-Plattform umgesetzt und auf einem iPad evaluiert. Das Testdesign beinhaltet Fragebögen zur wahrgenommenen User Experience, einen Usability Test zur Messung der Effizienz und einen Usability Test zur Messung der Effektivität. Insgesamt wurden 17 Proband: innen mit beiden Applikationen evaluiert, die gemessenen Faktoren ausgewertet und interpretiert. Die Ergebnisse zeigen, dass es Unterschiede bei der Effizienz und der Zufriedenheit der Anwendungen gibt, aber auch die Effektivität wird kontrovers diskutiert. Die Erkenntnisse bestätigen Vorteile bei der Interaktion mit dem AR-Prototypen, lassen jedoch offen, ob sich Nachteile der Effektivität durch technische Verbesserungen eliminieren lassen. In jedem Fall wurde die AR-Anwendung als spannender und origineller wahrgenommen, was zu einer höheren Motivation führt.
Einfluss von Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg im Banken- und Versicherungssektor
(2022)
Den Nachhaltigkeitsbegriff gibt es schon lange, doch die letzten Jahre erlebte er einen wahren Aufschwung. Die Unternehmen erkannten diese Chance und beschäftigten sich intensiver mit dem Thema der Nachhaltigkeitsberichterstattung. Mit der Global Reporting Initiative (GRI) gibt es zwar einen international anerkannten Standard, doch die meisten Unternehmen verwenden ein eigenes Format. Das erschwert die Vergleichbarkeit der Berichte. Um den Einfluss der Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg zu messen, wurden neun Banken aus der DACH-Region ausgewählt. Für sie wurde ein eigenes Scoring-Modell entwickelt. Es umfasst die Kategorien Ökonomie, Ökologie, Soziales, Kommunikation und Glaubwürdigkeit. Der Unternehmenserfolg wird durch die Rentabilitätskennzahlen Return on Sales (ROS) und Return on Equity (ROE) abgebildet. Mit dem Korrelationskoeffizienten nach Person ergab sich für den Beobachtungszeitraum 2018, 2019 und 2020 kein allgemeiner Zusammenhang. Beim Vergleich des Durchschnittswerts der drei Banken mit dem höchsten Nachhaltigkeitsscore, mit jenem der drei niedrigsten, hingegen schon (0,79). Zusätzlich war erkennbar, dass die Gruppe mit den höheren Scores auch die Ende 2019 beginnende Corona-Pandemie besser überstand. Während der ROE der Gruppe mit den niedrigsten Scores bis auf -0,74% fiel, blieb er bei der anderen Gruppe stabil bei 8%. Mittels t-Test konnte jedoch knapp keine statistische Signifikanz nachgewiesen werden (0,0627 > 0,05).
Postdigitale Gaststube
(2022)
Die tägliche Arbeit von Büroangestellten besteht oft aus Aufgaben, die sich in verschiedenen Zeitabständen wiederholen. Die Art unterscheidet sich abhängig vom Berufsfeld. Jedoch kostet deren Ausführung Zeit und den stört Arbeitsfluss. Könnten diese Aufgaben automatisiert werden, hätte dies den Vorteil, dass zeitliche Ressourcen freigesetzt würden und es dadurch zu einer Steigerung der Produktivität käme, da diese zusätzlichen Ressourcen anderweitig genutzt werden könnten. Daher ist es notwendig geeignete Aufgaben ausfindig zu machen und anhand der entsprechenden Technologien zu automatisieren.
Das Ziel der vorliegenden Arbeit ist es, die repetitiven Aufgaben in der definierten Zielgruppe zu eruieren und diese in weiterer Folge zu automatisieren. Dazu wird folgende Forschungs-frage gestellt: „Implementierung eines Chatbots anhand von der SAP zur Verfügung gestellter Technologien, um repetitive Aufgaben zu automatisieren.“
Die Umsetzung der Arbeit erfolgte im Rahmen der Tätigkeit bei einem SAP Beratungshaus. Dadurch beschränkt sich die Zielgruppe auf hausinterne SAP Berater*innen und SAP Tech-nologien. Ziel dieser Arbeit war es, einen Prototypen zu implementieren der es ermöglicht, dass die Berater*innen sich täglich wiederholende Aufgaben anhand eines Chatbots automa-tisiert ausführen können. Als Ergebnis dieses Greenfield Projektes sollte ein Proof-of-concept zur Verfügung gestellt werden, der die ausgewählten Anwendungsfälle abdeckt und eine Grundlage für die Erweiterung bildet. Die Hauptaufgabe liegt zum einen in der Erfassung der Anwendungsfälle und zum anderen im Aufbau von entsprechendem Know-How für die Um-setzung mit den ausgewählten Technologien.
Als Technologie, zur Interaktion mit dem Benutzer, wird für den Chatbot die SAP Conversati-onal AI verwendet. Zur Ausführung der Aufgaben erfolgt die Umsetzung anhand der SAP In-telligent Robot Process Automation im Zusammenspiel mit dem SAP GUI Scripting und an-wendungsfallspezifischen ABAP Programmen.
Die Evaluation der User Expirience erfolgt in Form des SUMI Fragebogens. Dieser untersucht die Dimensionen der Effizienz, Beinflussbarkeit, Hilfsbereitschaft, Kontrollierbarkeit und Er-lernbarkeit. Für die Durchführung der Untersuchung wurden den Anwender*innen Szenarien vorgelegt, welche alltägliche Situationen widerspiegeln. Basierend auf diesen Szenarien soll-ten die Aufgaben mit Hilfe des Chatbots gelöst werden. Das Ergebnis der Untersuchung zeigt, dass der Prototyp vor allem in den Bereichen der Effizienz und der Kontrollierbarkeit einiges an Verbesserungspotenzial offenbart hat. Jedoch wird der Nutzen der Anwendung von acht der zehn Testpersonen als wichtig bis sehr wichtig eingestuft.
Die Umsetzung legt die Möglichkeiten und das Potenzial der Technologien offen und stellt mit dem Prototypen eine solide Grundlage für zukünftige Entwicklungen zur Verfügung. Weiters werden durch die Evaluation die Schwächen und Stärken offengelegt und ein Konzept ver-wendet, welches auch für zukünftige Erweiterungen verwendet werden kann.
Industriebetriebe wie auch jene der Lebensmittelbranche sind zunehmend auf der Suche nach umweltfreundlichen Alternativen zur Wärmebereitstellung. Wo bislang Gas oder sogar Öl als Brennstoff verwendet wurde, gewinnen Wärmepumpen langsam an Akzeptanz. In dieser Arbeit wird gezeigt, wie eine Hochtemperaturwärmepumpe am Beispiel eines Schokoladeherstellers effizient betrieben werden kann. Zur Beschreibung der Ausgangslage wird zunächst der Wirkungsgrad des gegebenen Kesselhauseses berechnet, um anschließend die nötigen Lastprofile festzulegen. Nach der thermischen Modellierung möglicher Wärmequellen und einer gegebenen Wärmepumpe werden vier Jahressimulationen mit der Programmiersprache Python durchgeführt. Die Ergebnisse zeigen zum einen, mit welchen Wirkungsgraden und Verdichterleistungen zu rechnen ist und zum anderen wie sich diese auf die betrachteten Wärmequellen auswirken. Die abschließende Wirtschaftlichkeitsberechnung beinhaltet die Analyse monatlicher Betriebskosten unter Berücksichtigung der angekündigten CO2-Bepreisung, sowie die Amortisationsdauern der betrachteten Szenarien. Die Sensitivitätsanalyse der Amortisationsdauer zeigt außerdem, in welchem Verhältnis sich Strom- und Gaspreis entwickeln dürfen, damit eine Wärmepumpe dieser Art wirtschaftlich konkurrieren kann. Die Ergebnisse der Simulationen zeigen darüber hinaus welche Reduktion der CO2-Emissionen bezogen auf die Prozesswärmebereistellung möglich ist.
Durch die zunehmende Homogenität von Produkten ist der technologische Fortschritt des reinen Produktes kein Alleinstellungsmerkmal mehr. Die Entwicklung datenbasierter Services bietet die Option trotzdem langfristige Wettbewerbsvorteile zu erzielen. Ein Großteil der KMU ist sich dabei in der Methodik unsicher. Es wird erörtert, wie KMU Geschäftsmodelle mit datenbasierten Services weiterentwickeln können. Mit einer qualitativen Untersuchung werden Praxiserfahrungen aufgezeigt und theoretische Thesen validiert.
Die Weiterentwicklung zu einem datenbasierten Geschäftsmodell ist ein umfangreicher Prozess, der mit Chancen und Herausforderungen einhergeht. Als Herausforderung hat sich die Wahl relevanter Methoden und die Anpassung an die jeweiligen Rahmenbedingungen herausgestellt. Referenzprozesse strukturieren das Vorgehen und sollen gleichzeitig Flexibilität gewährleisten. Während des Prozesses ist die Kundenorientierung und Akzeptanz sicherzustellen. Aufgabe der Geschäftsführung ist es, die Weiterentwicklung zu fördern, Mitarbeitende einzubinden und Ressourcen bereitzustellen. Insgesamt konnte gezeigt werden, dass die Weiterentwicklung zur Veränderung der gesamten Unternehmenslogik sowie einem Paradigmenwechsel vom reinen Produktverkauf zum umfassenden Serviceangebot führt.
Untersuchung zur Lösbarkeit der Rückwärtskinematik eines 6-DOF Roboter mit einem neuronalen Netz
(2022)
Das Berechnen der inversen Kinematik ist komplex und muss für jeden Robotertyp individuell gelöst werden. Da ein Manipulator ohne die Rückwärtskinematik, die die erforderlichen Achsvariablen für eine Ziellage ermittelt, in der Praxis nicht verwendet werden kann, ist dieses Problem elementar in der Robotik. In dieser Arbeit wird der Ansatz zur Lösung der inversen Kinematik mit einem neuronalen Netz für einen Roboter mit sechs Freiheitsgarden untersucht. Dabei ist besonders darauf zu achten alle Mehrdeutigkeiten der inversen Kinematik beim Training zu berücksichtigen, da sonst das Kriterium des Determinismus zwischen Inputs und Outputs verletzt wird, was verhindert, dass ein Netz für das Problem trainiert werden kann. Es hat sich gezeigt, dass der Optimierungsalgorithmus Adams ebenso gute Ergebnisse wie der Scaled Conjugated Gradient erzielt. Die in Tensorflow verwendete typischen Aktivierungsfunktion Tangens hyperbolicus, weist im Vergleich zu anderen untersuchten Aktivierungsfunktionen, die in Tensorflow implementiert sind, die beste Performance auf. In MATLAB hingegen weist die Log sigmoid Aktivierungsfunktion die beste Performance von den implementierten Aktivierungsfunktionen auf. Zusätzlich verringert das Einschränken der Achsvariablen auf die tatsächlichen Achsbeschränkungen beim Trainieren des Netzes, sowohl den Netzwerkfehler als auch die Datenmenge, die benötigt wird, damit das Netz gut generalisiert. Abschließend stellt sich heraus, dass die trainierten Netze keine Praxistauglichkeit aufweisen, da der erzielte Netzwerkfehler zu groß ist. Da alle Mehrdeutigkeiten durch geometrische Analyse ausgeschlossen sind und ein ausreichend großer Datensatz verwendet wurde, kann mit den hier vorgestellten Ansätzen das Ergebnis nur durch komplexere Netze und damit mehr Daten verbessert werden. Andere Ansätze die zusätzliche Informationen zur Berechnung der Achswinkel zur Verfügung stellen könnten zudem auch bessere Ergebnisse erzielen. Darüber hinaus könnte es sinnvoll sein, Ansätze zu untersuchen, die sich die Achsbeschränkungen zunutze machen.
Der Begriff Digital Rights Management (DRM) umfasst Richtlinien, Techniken und digitale Werkzeuge, mit denen die Nutzung digitaler Inhalte eingeschränkt, gesteuert und kontrolliert werden kann. Im Wesentlichen werden dabei Technologien von Rechteinhaber:innen zur Zugangs- und Nutzungssteuerung sowie Verfolgung von Rechtsverstößen und gegebenenfalls sogar zur differenzierten Abrechnung digitaler Inhalte angewendet. Herkömmliche DRM-Systeme bestehen hauptsächlich aus Software und stützen sich auf softwarebasierte IT-Sicherheit. Um die IT-Sicherheit von DRM-Systeme auszuweiten, können Hardwarekomponenten eingesetzt werden. Die Kombination aus software- und hardwarebasierter IT-Sicherheit wird als Trusted Computing (TC) bezeichnet und ermöglicht Rechteinhaber:innen völlig neue Szenarien.
Um die Möglichkeiten von DRM mit TC zu erforschen bzw. diese zu demonstrieren, wurde im praktischen Teil dieser Arbeit eine technische und organisatorische Maßnahme prototypisch umgesetzt, mit der es einem Auftraggeber-System möglich ist, mit einer definierten Lizenz (bzw. DRM-Policy) sensible proprietäre Daten an ein Auftragnehmer-System zu senden, sodass dieses die sensiblen Daten nur auf eine Art und Weise verwenden kann, wie die Lizenz es vorgibt. Zur Umsetzung der Systeme wurde ein kryptografischer Coprozessor - genannt Trusted Platform Module (TPM) - verwendet. Das TPM verfügt über weitreichende kryptografische Funktionalitäten und bietet eine hardwarebasierte IT-Sicherheit. Das Gesamtsystem wurde somit als zweiteiliges System, ein Auftraggeber-System und ein Auftragnehmer-System, umgesetzt.
Im theoretischen Teil der Arbeit wird zuerst auf DRM und anschließend auf TC eingegangen. Besonders einige wichtige Funktionalitäten des TPM, welche in das System integriert wurden, werden erläutert. Des Weiteren wird auch das abhörsichere Kommunikationsprotokoll Hypertext Transfer Protocol Secure (HTTPS) vorgestellt und erklärt. HTTPS wird verwendet für den geschützten Datenaustausch zwischen den beiden Teilsystemen. Wie das Gesamtsystem inklusive der beiden Teilsystemen umgesetzt wurde, sowie welche Features es bietet und wie es funktioniert wird auch in einem Kapitel präsentiert und erläutert. Abschließend werden die positiven und negativen Aspekte des Systems sowie eine auf eigener Meinung beruhende Schlussfolgerung präsentiert.
Das Ziel dieser Arbeit ist die Analyse und Entwicklung einer Aktor-Bibliothek in Rust. Existierende Aktor-Bibliotheken in Rust verletzen grundlegende Regeln des Aktor-Modells, wodurch diese in nicht allen Anwendungsfällen verwendet werden können. Des Weiteren existiert keine strukturierte Arbeit zu der Entwicklung einer Aktor-Bibliothek in Rust. Die in dieser Arbeit entwickelte Bibliothek entspricht einerseits den Ideen des Aktor-Modells, andererseits wird die Erarbeitung und die durchlaufene Analyse der Bibliothek durch diese Arbeit dokumentiert. In einem ersten Schritt wird das Aktor-Modell und grundlegende Spracheigenschaften von Rust eingeführt, bevor das Design der entwickelten Aktor-Bibliothek vorgestellt und getroffene Design-Entscheidungen beschrieben und begründet werden. Darauffolgend werden die Implementationen der relevantesten Komponenten der Bibliothek beschrieben und anhand von Code-Beispielen erklärt. Des Weiteren wird das Design und die Implementation eines Test-Frameworks für Aktoren präsentiert, das das Testen von Aktoren erleichtern soll. Anhand der Implementation eines Praxisbeispiels wird die entwickelte Aktor-Bibliothek mit Java Akka durch Code-Vergleiche und Benchmarks verglichen. Hierbei wird gezeigt, dass die Verwendung der entwickelten Bibliothek mit einem vergleichbar gleich großen Code-Aufwand zu denselben und mitunter besseren Ergebnissen führen kann. Abschließend werden vorhandene Einschränkungen der entwickelten Bibliothek und deren Auswirkungen beschrieben.
Kooperation setzt einen Informationsaustausch voraus. Die Veränderung der Kooperation durch die Globalisierung und Dezentralisierung von zusammenarbeitenden Personen und Organisationen ließen neue Kommunikationswege entstehen. Innerhalb der Jahre 1980 – 2022 wurden Technologien entwickelt, die den Informationsaustausch und die soziale Interaktion im digitalen Raum beeinflussen. Ein wesentliches Werkzeug dafür sind sogenannte Groupwares. Sie sind „[...] computer-based systems that support groups of people engaged in a common task (or goal) and that provide an interface to a shared environment.“ (Ellis; Gibbs; Rein 1991)
Das Ziel dieser Arbeit ist die Gestaltung einer solchen Groupware bzw. eines Kollaborationstools als Unterstützung für Meetings auf Basis gesellschaftlicher Einflüsse. Beginnend mit der aktuellen Beschaffenheit und Klärung der Begriffswelt, folgt darauf die Auseinandersetzung mit theoretischen Hintergründen, die eine Bearbeitung dieses Themas erst erlauben. Im nächsten Schritt wird die technische Realisierung mit all ihren Projektschritten, vom Grundgedanken bis hin zum Einsatz in unterschiedlichen Bereichen, erläutert. Die durchgeführte Evaluation in simulierten Umgebungen gibt Rückschlüsse auf eine Adaption.
Anschließend werden Empfehlungen für eine weitere Entwicklung und Untersuchungen abgegeben und zukünftige Möglichkeiten behandelt.
Thank god it's friday
(2022)
Das Ziel der vorliegenden Masterarbeit ist es zu untersuchen, welche Rolle Design im Kontext gesellschaftspolitischer Bewegungen spielt und in welchen Zeichen sich der Protest der Klimabewegung Fridays for Future äußert. Ebenfalls untersucht wird, inwiefern sich diese einst subversiven Elemente der Klimabewegung wiederum in den Mainstream der Werbeindustrie eingliedern.
Dazu wird die folgende Forschungsfrage gestellt: In welchen Zeichen manifestiert sich der aktuelle Klimaprotest und welche Zeichen finden sich in der Werbung wieder? Lässt sich für den Betrachtenden noch dechiffrieren wo der Protest aufhört und der Konsum beginnt?
Das Erkenntnisinteresse besteht darin, Bilder aus dem Aktionsrepertoire der Fridays for Future Bewegung über den Zeitraum 2019-2021 zu sammeln, die Ausbildung ihrer visuellen und sprachlichen Ausdrucksformen zu analysieren und zu dechiffrieren.
Zur Untersuchung des Bildmaterials werden Methoden aus unterschiedlichen Disziplinen eingesetzt. Protestäußerungen, die über Plakate, Fotografien und andere Medien zum Ausdruck kommen, werden gesammelt und mit bildwissenschaftlichen und rhetorischen Methoden untersucht. Die Argumentation erfolgt anhand der Untersuchung dreier konkreter Beispiele aus der Werbung mittels der dokumentarischen Methode der Bildinterpretation nach Bohnsack. In der Analyse der Kampagnen geht es um das Wechselverhältnis zwischen der ästhetischen Selbstdarstellung der Bewegung und ihrer Rezeption bzw. Re-Inszenierung in der Werbung.
Die Ergebnisse der Analyse zeigen, wie sich Werbung durch die Aneignung der Klimasymbolik vom klassischen Kommunikationsinstrument der Wirtschaft zunehmend zu einer Kommunikation auf nicht-ökonomischer und gesamtgesellschaftlicher Ebene entwickelt.
Bezugnehmend auf die Re-Inszenierung der Protestcodes in der Werbung werden diese in der praktischen Ausarbeitung durch die Antiwerbung-Aktionsform des Culture Jammings selbst noch einmal zitiert und ironisiert. Dabei werden die Medien und Mittel der Werbung verwendet, wodurch sich ein Dreisatz aus Aneignung, Manipulation und Wiedereinspeisung ergibt.
Aufgrund des fortschreitenden wirtschaftlichen und gesellschaftlichen Strukturwandels und der zunehmenden Digitalisierung, hat die Bedeutung immaterieller Vermögenswerte erheblich zugenommen. Dabei steht die Goodwill-Bilanzierung und insbesondere die Folgebehandlung des bei einem Unternehmenszusammenschluss erworbenen Goodwills im besonderen Fokus der Standardsetter und Bilanzadressaten. Der bei der Folgebilanzierung des Goodwills gegebene Ermessensspielraum führt zu der Sorge, dass diese Ermessensspielräume seitens der Manager opportunistisch genutzt werden könnten. Die vorliegende Arbeit untersucht, ob bei österreichischen Unternehmen die Goodwill-Bilanzierung als Instrument für Earnings Management dient. Unter Anwendung multipler Regressionsmodelle wird ein Datensample österreichischer Unternehmen im Zeitraum von 2015 bis 2019 auf die Einflüsse möglicher Earnings Management-Motive auf die vorgenommenen Goodwill-Impairments überprüft. Die Ergebnisse zeigen, dass Manager österreichischer Unternehmen Big Bath Accounting betreiben und damit schlechte Unternehmensjahre nutzen, um Goodwill-Impairments vorzunehmen. Die Ergebnisse zeigen zudem eine Tendenz, dass Big Bath Accounting insbesondere dann zur Anwendung kommt, wenn es einen Wechsel im Finanzvorstand gibt. Weiters zeigen die Ergebnisse den hohen Einfluss der Aktionärsstruktur auf die Impairmententscheidungen. Bei Unternehmen mit großen institutionellen Aktionären liegt eine zusätzliche Kontrollinstanz vor, die Earnings Management-Verhalten reduziert. Die vorliegende Arbeit unterstützt die aktuellen Diskussionen der internationalen Rechnungslegung über die Beibehaltung des Impairment-Tests und liefert Hinweise darauf, dass bei österreichischen Unternehmen Earnings Management-Motive bei der Goodwill-Bilanzierung eine Rolle spielen.
Die vorliegende Arbeit hatte zum Ziel einen Deckungsbeitragsrechnungs-Report zu erstellen. Neben einer Literaturrecherche zum Thema (mehrstufige) Deckungsbeitragsrechnungen wurde ebenfalls nach allgemeinen Design-Empfehlungen recherchiert. Hier wird insbesondere auf vier Autoren eingegangen: Eduard Tufte, Stephen Few, Eisl et al. und die International Business Communication Standards (IBCS) von Hichert und Faisst.
Der wesentliche Kern dieser Arbeit ist dann die Entwicklung eines Musterberichts. Hierfür wurde zuerst eine Vorstudie in Form von Experteninterviews durchgeführt. Im Zuge dieser ergabt sich, dass die mehrstufige Deckungsbeitragsrechnung in der Praxis nicht von so hoher Relevanz ist, wie die Literatur vermuten lässt. Deshalb wurde das Thema der vorliegenden Arbeit an dieser Stelle auch angepasst: statt der Darstellung mehrstufiger Deckungsbeitragsrechnungen werden nun einfache Deckungsbeitragsrechnungen behandelt.
Anschließend an die Vorstudie wurde ein Leitfaden zur Berichtserstellung ausgearbeitet. Nach diesem werden zuerst Ziel, Berichtsempfänger, Berichtsinhalte und Aktualisierungsintervall definiert. Im Anschluss kann ein geeignetes Tool für die Berichtserstellung gewählt werden. Die Umsetzung erfolgt dann zuerst mittels Skizzen, bevor der Bericht tatsächlich im gewählten Tool umgesetzt wird.
In weiterer Folge wurden vier Fragen ausformuliert, welche in Form eines Experiments beantwortet werden sollen. Verschiedene Grafiken wurden anhand von drei Qualitätsmerkmalen (Effektivität, Effizienz und Attraktivität) geprüft, um die Fragen zu beantworten. Die vier Fragen lauten:
1. Sind Verhältnisse (z.B. Doppel so hoch) bei Balkendiagrammen besser leserlich als in Kuchendiagrammen?
2. Ist eine räumliche Trennung von Kategorien besser als eine farbliche?
3. Sind drei Szenarien einer Kennzahl (z.B. AC, PY, BU) in einer Grafik besser im Hinblick auf die Qualitätsmerkmale als zwei Grafiken?
4. Gibt es Unterschiede bei der Abbildung von drei Szenarien zwischen IBCS konformen Darstellungen und Bullet Charts von Stephen Few?
Das Experiment hat ergeben, dass Balkendiagramme Kuchendiagrammen in allen Qualitätsmerkmalen vorzuziehen sind. Auch eine räumliche Trennung von Kategorien hat sich aufgrund der Effizienz als besser durchgesetzt. Bezüglich der zwei gegenüber drei Szenarien konnte die Grafik mit nur zwei Szenarien im Hinblick auf Effektivität und Effizienz besser abschneiden. Allerdings liegen die Werte sehr nahe beisammen und die Probanden konnten bereits in der kurzen Zeit erste Lerneffekte erzielen. Deshalb wird empfohlen, die geringen Effektivitäts- und Effizienzverluste in Kauf zu nehmen, da im Gegenzug dafür die Grafik um weitere wertvolle Informationen angereichert werden kann. Abschließend konnten sich die IBCS-konformen Darstellungen den Bullet Charts von Stephen Few gegenüber durchsetzen. Hierbei hat ein Balkendiagramm mit Abweichungs-Pins am besten abgeschnitten, gefolgt von einem Balkendiagramm mit drei Szenarien: AC, BU und PY. Mit diesen Erkenntnissen wurde dann das Musterdashboard ausgearbeitet.
Durch künstliche Intelligenz gesteuerte Prozesse haben einen großen Einfluss auf unsere Wahrnehmung und auch umgekehrt beeinflussen sozio-kulturelle Vorstellungen digitale Prozesse. Technologien, die von einer durch geschlechtsspezifische Datenlücken geprägten Gesellschaft entwickelt werden, reproduzieren stereotype Narrative und Gender Biases. Die Arbeit mit der Forschungsfrage Wie tragen Suchmaschinen zu einer Fortschreitung von Gender Biases durch geschlechtsspezifische Datenlücken bei?, wird mit aus diversen Bereichen herangezogener Literatur, sowie eigenen experimentellen Ansätzen zur Erkenntnisgewinnung verfasst. Die Problemstellung wird in die folgenden Bereiche unterteilt und diskutiert: die Gender Data Gap, welche fehlende Daten über nicht-männliche Personen beschreibt, die Gender Gap, die das Fehlen nicht-männlicher Personen in Entwicklungsprozessen thematisiert und Algorithmische Biases, welche mit unterschiedlich starkem menschlichen Einfluss dargelegt werden. Die durchgeführten Untersuchungen befassen sich mit Darstellungen von Geschlecht durch die Suchmaschine Google. Es konnte bestätigt werden, dass stereotype Identitätsdarstellungen vorkommen und Google eine generisch-maskuline Sichtweise vertritt, wodurch geschlechtsspezifische Datenlücken verstärkt werden. Mit dem Ziel, Biases in digitalen Prozessen sichtbar zu machen, werden in dieser Arbeit gestalterische Lösungsansätze präsentiert, die an verschiedenen Punkten der Problemstellung anknüpfen.
Innerhalb des Managements haben sich im Laufe der Zeit Management-Disziplinen gebildet, die Unternehmen bei der systematischen Transformation unterstützen. Unter dem Einsatz von Vorgehensmodellen, Frameworks und abstrakten Darstellungsmethoden wird der Versuch unternommen, alle Aspekte eines Transformationsvorhaben zu berücksichtigen und den Anwender schrittweise durch die zunehmend komplexen und dynamischen Veränderungsprojekte zu führen. Begriffe wie das Business Engineering oder aber das Enterprise Architecture Management werden in diesem Zusammenhang oftmals benannt. Diese Management-Disziplinen überschneiden sich teilweise, bezogen auf die Vorgehensweise, die eingesetzten Methoden sowie den Inhalt und die Zielvorstellungen. Teilweise werden die Begrifflichkeiten synonym aufgegriffen, teilweise sind die Auffassungen über den Inhalt der Disziplinen unterschiedlich. In den Wirtschaftswissenschaften führen diese unterschiedlichen Auffassungen oftmals zu einer nicht unerheblichen Verwirrung. Begrifflichkeiten, die hierbei sehr ähnlich sind, können jedoch von unterschiedlicher Natur sein. Teilweise wird ein Umsturzversuch unternommen und Methoden sowie Best Practices werden für die eigenen Zwecke verwendet und als etwas „Neues“ veröffentlicht. Das Business Architecture Management, welches lange Zeit ausschließlich als Bestandteil des Enterprise Architecture Management angesehen wurde, hat sich mittlerweile innerhalb des Managements als eigene Management-Disziplin etabliert und versucht sich von anderen Management-Disziplinen abzugrenzen. Um mehr Klarheit über den Inhalt, die Charakteristika, die Merkmalsausprägungen und das Vorgehen zu schaffen, stellt diese Masterarbeit den Versuch dar, das Business Engineering mit dem Business Architecture Management im gemeinsamen Kontext zueinander zu untersuchen. Es werden die Fragen geklärt, welche Belastbaren Erkenntnisse der Vergleich beider Disziplinen ergibt, und ob eine sinnvolle Einordung beider
Disziplinen zueinander möglich ist.
Herkömmliche Lernprozesse sind in der dynamischen Arbeitswelt nicht mehr zielführend. Für transformatives Lernen werden neue Formen der Zusammenarbeit, neue Kompetenzen und neue Lernformate benötigt. Der selbstgesteuerte Lernansatz wird dabei der neuen Arbeitswelt gerecht. Jedoch werden die Potenziale des selbstgesteuerten Lernens in Unternehmen noch wenig genutzt. Im Rahmen der klassischen Personalentwicklung werden meist Kurskataloge und Schulungsprogramme erstellt, die den Inhalt sowie den zeitlichen und örtlichen Rahmen vorgeben. Somit ist es das Ziel dieser Arbeit, vorhandene Chancen und Herausforderungen des selbstgesteuerten Lernansatzes in Unternehmen zu identifizieren sowie Möglichkeiten zur Gestaltung von Rahmenbedingungen zur aktiven Förderung des selbstgesteuerten Lernens durch die Personalentwicklung aufzuzeigen. Dazu wird der Begriff des selbstgesteuerten Lernens abgegrenzt, Modelle werden aufgezeigt und personenabhängige Faktoren für das selbstgesteuerte Lernen werden betrachtet. In einem weiteren Schritt werden die Perspektive der Personalentwicklung und deren Rolle für das selbstgesteuerte Lernen dargelegt. Mithilfe der Durchführung zweier Case Studies wird ein tiefergehendes Verständnis zum selbstgesteuerten Lernen in Unternehmen erzeugt und die forschungsleitenden Fragen werden beantwortet. Die Ergebnisse dieser Arbeit resultieren in Implikationen für die Personalentwicklung, die die zu bearbeitenden Handlungsfelder für optimale Rahmenbedingungen für das selbstgesteuerte Lernen von Mitarbeitenden in Unternehmen abbilden.
In den 13 Jahren seit Einführung der IFRS für KMU in Deutschland belegen mehrere Studien, dass dieser Standard, entgegen der Erwartungen, keine Erfolge im Bereich der Anwenderzahlen erzielen konnte. Trotz der Entwicklung eines international angepassten und auf die Bedürfnisse der KMU fokussierten Rechnungslegungsstandards, blieb eine Etablierung innerhalb der KMU aus.
Ziel dieser Arbeit ist die Analyse, inwiefern eine doppelte Rechnungslegung nach IFRS und HGB wirtschaftliche und geschäftsanalytische Vorteile für die Anteilseigner deutscher KMU generiert. Aufbauend auf der beschriebenen Zielsetzung gilt es zu überprüfen, welche Anteilseigner deutscher KMU von dem doppelten Rechnungslegungsstandard adressiert werden und ferner, in welchem Ausmaß eine höhere Bedürfnisbefriedigung resultiert. Zunächst erfolgt im Rahmen einer umfassenden Literaturrecherche eine Untersuchung der Anteilseigner deutscher KMU und deren Anforderungen an ein Rechnungslegungssystem. Anschließend findet eine Überprüfung möglicher Vorteile statt, welche die Anwendung der IFRS für KMU befürworten würden. Darüber hinaus wurden zehn Experteninterviews durchgeführt mit der Intention, erworbene Erkenntnisse zu revidieren und überdies neue zu generieren. In einer abschließenden Inhaltsextraktion werden die gewonnen Annahmen artikuliert und anschließend interpretiert, um die zugrundeliegende Forschungsfrage zu beantworten.
Wohnzukünfte
(2022)
Die Thematik Wohnen ist in ihren Abhängigkeiten vielschichtig und damit komplex. Wird der Fokus jedoch nicht auf die einzelnen Aktanten, sondern auf die Beziehungen gelegt, kristallisiert sich die Nachbarschaft mit ihren Bewohner:innen an der Schnittstelle zu allen anderen Akteur:innen heraus. Vorstellungen von Gesellschaften in Form von Ideologien und die Gestaltung von Räumen sind direkt miteinander verknüpft. Doch die zeitgenössische Architektur basiert noch immer auf dem Wohnverständnis des 19. Jahrhunderts, der patriarchalen Kleinfamilie. Zeitgenössisch verändern sich Lebensformen aber zunehmend und werden immer vielfältiger. Welche Wünsche, Bedürfnisse und Anforderungen haben also Menschen heute an ihren Wohnraum? Wie stellen sie sich ihre Zukunft des Wohnens vor und was bedeutet für sie, sich zuhause fühlen? Was möchten Menschen mit anderen teilen und wie sieht für sie eine gute Nachbarschaft aus?Es gibt viele Studien und Erhebungen im Bereich der ‚Hard Facts‘, also Haushaltsgröße, Wohnfläche, Nutzungsfläche oder Preis, doch bis dato kaum relevantes, öffentlich zur Verfügung stehendes Wissen im Bereich der ‚Soft Facts‘, die die eben aufgeworfenen Fragen beinhalten. Diese Wünsche und Bedürfnisse lassen sich nur schwer mit klassisch standardisierten Erhebungs- und Beteiligungsformaten erfassen, wie sie in herkömmlichen Beteiligungsprozessen der Quartiers- und Immobilienentwicklung, aber auch von Statistikunternehmen eingesetzt werden.
Die Materialität jedoch, die Methode, mit der Wünsche und Bedürfnisse erfasst werden sollen, hat einen maßgeblichen Einfluss darauf, welche Handlungsabläufe bzw. welche unterschiedlichen Gesellschaftsstrukturen hervorgerufen werden. ‚Körperliches‘ Wissen, das über das Ausüben sozialer Praktiken entsteht, entspricht oftmals nicht dem Explizierten, weshalb das wirkliche Tun, statt nur das Darüber-Sprechen, in der Erforschung von komplexen, sozialen Phänomenen so wichtig ist. Praxisintegrierende Designforschung kombiniert mit einem Mixed-Methods-Ansatz ermöglicht genau das. Im Forschungsprozess dieser Masterarbeit wurden auf diese Weise vier Formate zur Erforschung von Wünschen und Bedürfnissen der Vorarlberger:innen an den (erweiterten) Wohnraum entwickelt, getestet, evaluiert und zur Datenerhebung eingesetzt. Die daraus entstandenen Daten wurden multiperspektivisch interpretiert, diskutiert und zu zwölf Thesen, zwölf möglichen ‚Wohnzukünften‘ synthetisiert.
Wärmepumpen werden als vielversprechende Lösung zur Dekarbonisierung des Gebäudesektors angesehen. Konventionelle Kältemittel, die als direkte Emissionen aus Wärmepumpensystemen austreten, stellen insbesondere vor dem Hintergrund steigender Installationszahlen ein relevantes Treibhauspotenzial dar. Natürliche Kältemittel verfügen über ein geringes Treibhauspotenzial und können daher zur Substitution konventioneller Kältemittel verwendet werden. Dennoch werden sie bislang nicht im großen Maßstab eingesetzt. Es bedarf weiterer Studien und Anreize, um den Einsatz natürlicher Kältemittel voranzubringen. In dieser Fallstudie erfolgt anhand eines Referenzprojektes ein simulativer Vergleich zweier reversibler Luft-Wasser-Wärmepumpen. Im Referenzfall wird das konventionelle Kältemittel R32 verwendet, als Alternative dient das natürliche Kältemittel R290. Die beiden Systeme werden hinsichtlich ihrer Effizienz, Klimawirksamkeit und Wirtschaftlichkeit verglichen. Die notwendigen Berechnungen basieren auf einem kalibrierten Simulationsmodell des Gebäudes und der Anlage. Die Ergebnisse zeigen einen energetischen und ökologischen Vorteil für R290. Im Heizbetrieb, der den Hauptteil des thermischen Energiebedarfs im Referenzprojekt ausmacht, erreicht die Wärmepumpe mit R290 eine um 9% höhere Jahresarbeitszahl. Im Gegensatz dazu erzielt die R32-Wärmepumpe eine um 12% höhere Jahresarbeitszahl im Kühlbetrieb. Durch die höhere Effizienz im Heizbetrieb und das niedrigere Treibhauspotenzial des Kältemittels liegen die Emissionen durch den Betrieb der R290-Wärmepumpe um 17% unter denen der R32-Wärmepumpe. Der wirtschaftliche Vergleich der beiden Systeme fällt aufgrund höherer Investitionskosten zum Nachteil der R290-Wärmepumpe aus.
Das Thema Nachhaltigkeit wurde in den letzten Jahren zu einer stetig wachsenden Herausforderung für Unternehmen, welche sich in einer Nachhaltigkeitsberichtserstattung (kurz: NBE) etablierte. Die vorliegende Untersuchung der Entwicklung der NBE der DAX-40-Unternehmen basiert auf einem Kategorienkatalog, eigens entwickelt aus den SDGs. Hiermit ist es möglich Umfang und Metadaten der Berichte in einem standardisierten und vergleichbaren Format festzuhalten. Diese Informationen wurden mithilfe deskriptiver Betrachtung und statistischer Methoden ausgewertet. Dadurch wird aufgezeigt, dass trotz der quantitativen Entwicklung der Berichte und vermehrter Behandlung nachhaltiger Themen, diese inhaltlich sehr stark, aufgrund einer fehlenden Standardisierung bzw. Verpflichtung für die Publikation von Nachhaltigkeitsthemen, variieren. Dies führt dazu, dass sowohl der Vergleich von Berichten zwischen Unternehmen als auch von unterschiedlichen Berichten desselben Unternehmens nur mit sehr hohem Aufwand möglich ist. Sinnvoll wäre die weiterführende Forschung im Bereich der NBE für Großunternehmen nach Inkrafttreten der Regelungen der CSRD und im Speziellen der Vergleich der Nachhaltigkeitsberichtserstattung vor und nach der Standardisierung.