Refine
Year of publication
Document Type
- Master's Thesis (298)
- Part of a Book (176)
- Article (160)
- Conference Proceeding (88)
- Book (84)
- Report (22)
- Other (15)
- Doctoral Thesis (5)
- Working Paper (5)
- Bachelor Thesis (1)
- Part of Periodical (1)
Institute
- Wirtschaft (243)
- Soziales & Gesundheit (108)
- Forschungsgruppe Empirische Sozialwissenschaften (104)
- Forschungszentrum Human Centred Technologies (65)
- Technik | Engineering & Technology (65)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (50)
- Didaktik (mit 31.03.2021 aufgelöst; Integration ins TELL Center) (31)
- Gestaltung (29)
- Forschungszentrum Business Informatics (19)
- Department of Engineering (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (14)
Language
- German (855) (remove)
Keywords
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Social Work (17)
- Soziale Arbeit (15)
- Digitalisierung (14)
- Controlling (10)
- +KDC 122 (9)
- Design : Theorie, Reflexion (9)
- Digitale Transformation (7)
- Entscheidung (7)
Der Fremdvergleichsgrundsatz ist ein wichtiges Instrument zur Bestimmung von Verrechnungspreisen zwischen verbundenen Unternehmen, um Gewinnverschiebungen zu vermeiden. Durch den Vergleich mit unabhängigen Unternehmen sollen angemessene Preise und Bedingungen für internationale Transaktionen gewährleistet werden. Die Anwendung des Fremdvergleichsgrundsatzes erfordert eine sorgfältige Analyse der Transaktionen und trägt zur Einhaltung der Steuervorschriften bei. Die wirtschaftlichen Auswirkungen der Covid-19-Pandemie haben jedoch neue Herausforderungen für die Bestimmung von Verrechnungspreisen hervorgebracht, wie die Berücksichtigung staatlicher Hilfen oder das Vorhandensein verlässlicher Vergleichsdaten. Konzernunternehmen waren daher dazu gezwungen, ihre bisherige Verrechnungspreispolitik zu überdenken und gegebenenfalls anzupassen. In der vorliegenden Masterarbeit werden die Auswirkungen der Covid-19-Pandemie auf die Bestimmung von Verrechnungspreisen in multinationalen Konzernunternehmen mit Hauptsitz in Vorarlberg untersucht. Um das angestrebte Ziel dieser Arbeit zu erreichen, ist es von großer Bedeutung, den aktuellen Forschungsstand zu den Auswirkungen der Covid-19-Pandemie auf die Bestimmung von Verrechnungspreisen durch eine umfassende Literaturrecherche zu erfassen und die rechtlichen Grundlagen zu analysieren. Basierend auf dem gewonnenen theoretischen und rechtlichen Wissen wurden Fachleute bedeutender Unternehmen mit Headquarter in Vorarlberg befragt. Darüber hinaus wurden Expertinnen aus renommierten Beratungsunternehmen befragt, um die Thematik aus verschiedenen Perspektiven zu beleuchten.
Die vorliegende Masterarbeit befasst sich mit dem Verhalten von Mitarbeitenden in psychologisch sicheren und unsicheren Situationen. Hierfür wird das Konstrukt der psychologischen Sicherheit mit der Theorie der Ressourcenerhaltung verbunden. Dies wird als ein möglicher Ansatz gesehen, um zu erklären, wie psychologische Sicherheit entstehen kann. Es wird ermittelt, welche Ressourcen, als Prädiktoren von psychologischer Sicherheit relevant sind und zu welchen verhaltensbezogenen Konsequenzen psychologisch sichere und unsichere Situationen führen. Um die hierfür benötigten Daten zu erheben, wurde eine qualitative Studie in Form von neun teilstandardisierten Interviews, nach der Critical Incident Methode, durchgeführt. Die Ergebnisse zeigen auf, dass mit dieser Methode relevante Ressourcen der psychologischen Sicherheit ermittelt und verhaltensbezogene Konsequenzen, erfasst werden. Somit eignet sich die methodische Herangehensweise der vorliegenden Arbeit zur Anwendung in Unternehmen. Auf diese Weise können Unternehmen ermitteln, welche relevante Ressourcen für ihre Mitarbeitenden, die zur psychologischen Sicherheit führen, bereits vorhanden sind und welche gefördert werden müssen.
Die Anforderungen an gute Prognosen im Energiehandel der illwerke vkw AG steigen kontinuierlich an, da diese dazu verwendet werden, die richtigen Energiemengen auf dem Day-Ahead-Markt zu kaufen oder zu verkaufen. Zusätzliche Herausforderungen wie Wettereinflüsse und der steigende Energiebedarf von E-Autos erschweren die Prognose. Darüber hinaus gestaltet es sich mit den herkömmlichen Prognosebewertungen schwierig, die Kostenaspekte angemessen abzubilden. Aus diesem Grund wird in dieser Masterarbeit eine neue Methode zur Bewertung der Prognosequalität implementiert und mit bewährten Kennzahlen wie R², MAE, MAPE und RMSE verglichen. Diese Methode nutzt einen Preisverlauf, der die durchschnittlichen Marktpreise der Ausgleichsenergiepreise als Bewertungsmaßstab widerspiegelt. Die neue Bewertungsmethode wird mit Algorithmen wie dem Artificial Neural Network von Tensorflow, dem Decision Tree Regressor, der Linearen Regression, dem Multi-Layer Perception und dem Random Forest Regressor von Scikit-Learn verglichen. Zudem wird ein eigens erstelltes Gurobi-Modell, welches die Ausgleichsenergiepreise für die Gewichtung der absoluten Prognosefehler heranzieht, als Lineare Regression implementiert. Die genannten Modelle werden mithilfe von Python implementiert. Es werden tägliche Vorhersagen basierend auf viertelstündlichen Daten für Zeiträume von bis zu einem Jahr unter Verwendung eines Sliding-Window-Verfahrens mit unterschiedlichen Trainingsdaten erstellt. Die neue Bewertungsmethode mit der Einbeziehung von Kostenfaktoren, konnte sich im Vergleich zu MAPE, MAE, RMSE und R² nicht deutlich von den anderen unterscheiden. Die besten Ergebnisse wurden mit der Linearen Regression von Scikit-Learn und dem Gurobi-Modell mit der preisgewichteten Minimierung erzielt. Dabei sind die anderen Algorithmen nicht weit von den Resultaten der LR und GP entfernt. Unter dem Aspekt, dass das eigene Modell die Kosten minimieren soll, konnte es aber nicht als die beste Methode bewertet werden. Deswegen müssen das Modell und die gewählten Ausgleichsenergiepreise optimiert werden. Hierzu erzielte unter den sieben verwendeten Methoden die Lineare Regression das beste Ergebnis.
Der Übergang zu erneuerbaren Energiesystemen und deren optimale Betriebsweise ist entscheidend für die Reduzierung des Energieverbrauchs und der damit verbundenen Einsparung von CO2-Emissionen. In privaten Haushalten dominiert traditionell die Hystereseregelung bei der Wärmeerzeugung. Neuere Bauten, ausgestattet mit Wärmepumpen und Photovoltaikanlagen, bieten jedoch beachtliches Potenzial zur Effizienzsteigerung durch angepasste Regelungsstrategien. Eine intelligente Laststeuerung ermöglicht erhebliche Kosteneinsparungen und eine Erhöhung des Autarkiegrades. Vorhandene literarische Ansätze liefern Methoden zur Systemmodellierung und -identifikation. Darüber hinaus demonstrieren sie das Potenzial der Optimierung durch den Model Predictive Control (MPC) Ansatz. Eine spezifische Evaluierung anhand von Realdaten eines Energiesystems mit Abluft-Wärmepumpe fehlt jedoch. Daher bedarf es der Bewertung des Lastverschiebungspotentials dieser Systemkonfiguration. Die Systemidentifikation erfolgt basierend auf Messdaten, welche gleichzeitig als Referenz für den Vergleich des traditionellen Hysteresebetriebs mit der MPC-Steuerung dienen. Die Analyse offenbart das Lastverschiebungspotential durch die optimierte Betriebsweise einschließlich einer Gesamtkosteneinsparung von bis zu 42% und einer Steigerung des Autarkiegrades um bis zu 10%. Diese Potentiale variieren saisonal, sind jedoch das ganze Jahr über vorhanden.
Um Data Analytics gezielt und effektiv einzusetzen, gilt es als wichtig, die organisationale Reife eines Unternehmens in Bezug auf die Umsetzung von Data Analytics zu messen und zu verstehen. Da viele Unternehmen allerdings noch nicht bereit für die Implementierung von Supply Chain Analytics sind, benötigen sie ein Tool mit dem die eigene organisationale Reife gemessen und verbessert werden kann. Dafür wird in dieser Arbeit ein Readiness-Assess- ment-Framework entwickelt, das die organisationale Reife eines Unternehmens bestimmt und mittels ergänzendem Leitfaden Möglichkeiten zur Optimierung der eigenen Reife aufzeigt. Die Besonderheit dieses Assessments liegt in der Aufteilung in einzelne organisationale und tech- nologische Kategorien sowie deren Erfolgsfaktoren. Der Aufbau dieser Arbeit folgt dem De- sign-Science-Ansatz von Peffers et al. (2006). Mittels eines Literature Reviews und Expert:in- neninterviews wurden die Kategorien und Erfolgsfaktoren für das Assessment identifiziert und verifiziert. Nach der Entwicklung des Assessments wurde in einem Workshop die Praxistaug- lichkeit des Frameworks überprüft. Abschließend werden Ansatzpunkte für künftige Weiter- entwicklungen des Frameworks dargestellt.
Der Klimawandel und der damit einhergehende Temperaturanstieg stellen den Gebäudesektor in Bezug auf die sommerliche Überhitzung vor erhebliche Herausforderungen. Zur Abschätzung der Auswirkungen ist es relevant, Klimadaten für einen angemessenen Zeitraum zu verwenden, um geeignete Maßnahmen zur Hitzeminderung ergreifen zu können.Die sommerliche Überhitzung variiert je nach Gebäudetyp, Standort und örtlichen Gegebenheiten. Aus diesem Grund werden in dieser wissenschaftlichen Untersuchung Wohngebäude mit mehr als zehn Wohneinheiten für das Klimaszenario RCP4.5 im Jahr 2060 in Österreich analysiert. Zur Beurteilung des Wohnkomforts wurden umfangreiche Messungen im Rahmen einer Studie des Energieinstituts Vorarlberg an einem repräsentativen Gebäude über einen längeren Zeitraum durchgeführt. Basierend auf den gewonnenen Messwerten wird ein Referenzgebäude im Gebäudesimulationsprogramm IDA ICE konstruiert und simuliert. Um verschiedene Klimazonen angemessen abzubilden, werden die Standorte Bregenz, Klagenfurt und Wien für das Gebäude im Jahr 2022 betrachtet. Diese Ergebnisse bilden die Grundlage, um den Einfluss des Klimawandels auf die sommerliche Überhitzung abschätzen zu können. Im nächsten Schritt werden die neuen Klimadatensätze für das Klimaszenario RCP4.5 im Jahr 2060 für dieselben Standorte implementiert und mit den Ergebnissen von 2022 verglichen. Dadurch können verschiedene Kennziffern wie maximale Temperaturen, Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C und die Häufigkeit von Übertemperaturgradstunden herangezogen werden, um die zukünftige Hitzebelastung zu bewerten. Die Ergebnisse zeigen, dass mit einer Erhöhung der maximalen Temperatur, der mittleren Temperatur zwischen Mai und September sowie der Stundenanzahl mit Temperaturen über 25 °C bzw. 27 °C zu rechnen ist. Der Grenzwert von 25 °C wird dabei um 12 bis 29 Prozent überschritten. Die Maximaltem-peratur steigt um vier bis neun Prozent, während sich der Wert für die mittlere Temperatur um zwei bis drei Prozent erhöht. Besonders stark nimmt die Häufigkeit von Übertemperaturen über einen längeren Zeitraum zu. Für die Umsetzung passiver Maßnahmen zeigt sich, dass diese zu einer signifikanten Reduk-tion der Stundenanzahl mit Temperaturen über den Grenzwerten führen können. Auch durch simple Maßnahmen, wie die Integration einer Nachtlüftung, kann eine Absenkung der Tem-peraturen und folglich der Stundenanzahl über den Grenzwerten erreicht werden. Ein thermischer Komfort basierend ausschließlich auf passiven Maßnahmen kann nicht für sämtliche Standorte in der Zukunft gewährleistet werden.
In den letzten Jahren wurde den technischen Aspekten der Datenanalyse viel Aufmerksamkeit gewidmet, den organisatorischen Implikationen jedoch nur wenig, was dazu geführt hat, dass eine Reihe von Unternehmen nicht in der Lage war, den vollen Nutzen aus ihren Data Analytics-Investitionen zu ziehen was u.a. dazu führte das die Potenziale von Data Analytics nicht vollständig ausgeschöpft wurden. Ziel dieser Arbeit ist es, die organisatorischen Herausforderungen aus der Sicht des Managements, der Kultur und der Organisation zu beleuchten und unter der theoretischen Orientierung des „Dynamic Capability View“ die Haupttreiber für die organisatorische Verankerung von Data Analytics zu beleuchten, um die Potenziale der evidenzbasierten Entscheidungsfindung in einer datengetriebenen Organisation voll auszuschöpfen. Die Literaturarbeit zu Data Analytics und ihren organisatorischen Auswirkungen, die auf der Grundlage einer theoretisch-konzeptionellen Forschungsarbeit durchgeführt wurde, zeigt, dass es in diesem Kontext eine Vielzahl von Parametern gibt, die sich gegenseitig beeinflussen. Diese Studie hat gezeigt, dass Unternehmen einen ganzheitlichen Ansatz verfolgen müssen, um die Vorteile der modernen Data-Analytics-Methoden voll ausschöpfen zu können. Die Ergebnisse deuten darauf hin, dass die Hauptantriebskräfte für Datenanalysefähigkeiten gut ausgebildete Manager mit einem ausgeprägten analytischen Verständnis sind, die von klar definierten evidenzbasierten Prozessen geleitet werden, welche in einer hoch kultivierten datengetriebenen Kultur eingebettet sind. Dies ist die Grundlage für Wettbewerbsvorteile in hochdynamischen Umgebungen und führt in weiterer Folge zu einem höheren Niveau der Wertschöpfung.
Die Umsetzung von Konzepten der Industrial Internet of Things (IIoT) stellt Unternehmen vor große Herausforderungen. Ein Kernaspekt dabei ist das Vernetzen maschineller und menschlicher Akteure, sodass sich diese gegenseitig verstehen und dadurch sinnvolle Entscheidun-gen treffen können. Dieses Verstehen setzt eine semantische Interoperabilität der Akteure voraus, die meist mithilfe von Ontologien und Ontologie Matching ermöglicht werden soll. Ziel dieser Arbeit ist es, die Grundkonzepte zum Ermöglichen semantischer Interoperabilität zusammenzufassen und aktuelle Anwendungsbeispiele und Herangehensweisen zu besprechen, um darauf aufbauend bestimmen zu können, wie weit Forschung und Unternehmen noch von der Umsetzung der semantischen Interoperabilität im Kontext der IIoT entfernt sind. Dazu wurde ein theoretisch-konzeptionelles Vorgehen gewählt. Die Ergebnisse der vorliegenden Arbeit weisen darauf hin, dass in naher Zukunft nicht mit einer erfolgreichen Umset-zung zu rechnen ist, welche generisch genug ist, in unterschiedlichen Bereichen der IIoT eingesetzt zu werden. Dafür konnte gezeigt werden, dass sich mehrere, mitunter gegenseitig beeinflussende Trends in der Herangehensweise zur Lösung der semantischen Interoperabilität ausgebildet haben, nämlich hybride Alignmentarchitekturen, ein modularer Aufbau von Ontologien, das Erstellen von maschinenlesbaren Standards und dazu gehörenden Ontologien sowie ein Trend zur Verwendung von Wissensgraph Embeddings. Besonders der letzte Trend ist dabei kritisch zu betrachten. Darüber hinaus konnten in dieser Arbeit offene Problemfelder bestimmt werden, die aus derzeitiger Sicht einer erfolgreichen Umsetzung semantischer Interoperabilität entgegenstehen. Dies betrifft einerseits das Fehlen einer Harmonisierung von IIoT-Standards und andererseits den Mangel an Alignmentdatenbanken und Benchmarks für Ontologie Alignments im Bereich der IIoT. Darüber hinaus bedarf es eines abgestimmten, strategischen Vorgehens der derzeit laufenden und zukünftigen Initiativen, um vorhandene Erkenntnisse besser zu nutzen und um sich wiederholende Probleme nachhaltig zu lösen.
New Work 2025–2030
(2023)
Unternehmen stehen vor der Herausforderung, durch passende Arbeitsbedingungen die bestehenden Mitarbeitenden zu binden und neue Talente zu finden. Eine mögliche Lösung für diese Herausforderungen kann ‚New Work‘ sein. Es ist notwendig zu verstehen, was New Work für die Region Vorarlberg bedeutet und was bei der Konzeption von neuen Arbeitsbe-dingungen zu berücksichtigen ist. Das Ziel der vorliegenden Arbeit ist es, eine Antwort auf die Frage zu finden, was New Work für die Region Vorarlberg in den Jahren 2025–2030 bedeutet und eine entsprechende Standortbestimmung durchzuführen. Dazu wird die folgende Forschungsfrage vertieft untersucht: ‚Was bedeutet New Work für die Region Vorarlberg in den Jahren 2025–2030?‘ Die Vertiefung dieser Fragestellung erfolgt über weitere Unterfragen. Um Antworten auf die Forschungsfrage zu erhalten, wurde ein Mixed-Methods-Ansatz gewählt. Für eine Standortbestimmung zum Thema ‚New Work‘ in Vorarlberg wurden im ersten Schritt Befragungen zweier Fokusgruppen, als qualitativer Teil der Forschung, durchgeführt. Die Ergebnisse dieser Befragung wurden ausgewertet. Aus den Ergebnissen und dem theoretischen Input wurden Hypothesen sowie ein Fragebogen zur quantitativen Untersuchung erstellt. Die qualitative Forschung ist die Grundlage für die anschließende quantitative Untersuchung. Durch diese Vorgehensweise sind sowohl eine Vertiefung und eine Ergänzung der qualitativen als auch der quantitativen Daten möglich. Die Ergebnisse zeigen, dass New Work ein generationenübergreifendes Thema ist. Es gibt keine nennenswerten Unterschiede zwischen den Generationen. Jedoch gibt es Unterschiede zwischen jüngeren und älteren Personen bezüglich der unterschiedlichen New-Work-Methoden. Die Antworten zeigen auf, dass es vor allem zwischen Frauen und Männern Unterschiede in den Vorstellungen der Arbeitsbedingungen gibt. Frauen legen vor allem Wert auf Flexibilität, psychologisches Empowerment und motivationale Faktoren. Weiterführende Forschung im Bereich ‚New Work‘ könnte sich mit den Unterschieden zwischen Frauen und Männern befassen und was die passenden Rahmenbedingungen sind, um die Leistung und Motivation dieser beiden Personengruppen zu steigern.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.
In einer Zeit allgegenwärtiger Online-Interaktionen sind Datenschutzbedenken für Nutzer:innen von sozialen Medien und Messenger-Diensten zu einem wichtigen Thema geworden. Obwohl es wichtig ist, die Inhalte von Datenschutzrichtlinien bzw. Datenschutzerklärungen zu erfassen, haben Benutzer:innen Schwierigkeiten, den Umfang, die komplexe Rechtssprache und die technischen Details in diesen Dokumenten zu verstehen. Dies führt dazu, dass sie sich diesen Datenschutzrisiken, die mit ihren Online-Aktivitäten verbunden sind, nicht bewusst sind. Diese Masterarbeit beschäftigt sich mit der Frage, inwieweit Informationen von Social-Me- dia-Datenschutzrichtlinien durch eine einheitliche Struktur einem breiten Nutzer:innenkreis leichter zugänglich gemacht werden können. Diese sollen dabei nicht nur gekürzt, sondern durch den Einsatz gestalterischer Mittel vereinfacht, sprich simplifiziert, werden, ohne den jeweiligen Inhalt zu verfälschen. Die Studie wird einen benutzer:innenzentrierten Designansatz verwenden, der die Zusammenarbeit von Teilnehmer:innen mit unterschiedlichen demografischen Merkmalen und unterschied- lichen technologischen Kompetenzniveaus beinhaltet. Durch einen iterativen Prozess wird ein Zeichensystem in Form verschiedener Icons entworfen, verfeinert und bewertet, um die effektivsten Formate für die Übermittlung von Datenschutzinformationen zu ermitteln. Hierbei spielen wahrnehmungspsychologische Aspekte eine wesentliche Rolle. Um die Auswirkungen der Visualisierungen auf das Bewusstsein und das Verständnis der Datenschutzerklärungen der Benutzer:innen zu bewerten, wird ein gemischter Methodenansatz eingesetzt. Quantitative Daten werden durch Befragungen vor und nach der Intervention gesammelt, um das Wissen und Verständnis der Teilnehmer:innen über Datenschutzkonzepte zu bewerten. Darüber hinaus werden durch Interviews und der Erstellung sowie des Testings eines Prototypens qualitative Daten gesammelt, um tiefere Einblicke in die Wahrnehmungen und Erfahrungen der Teilnehmer:innen zu gewinnen. Für die Umsetzung des Prototypens ist eine Webseite angedacht, die Nutzer:innen einen Überblick der wichtigsten Inhalte der Datenschutzrichtlinien ermöglicht und in reduzierter Form, durch den Einsatz von Icons, darstellt (z. B. Was wird gesammelt? Welche Risiken sind damit verbunden? usw.). Die Ergebnisse dieser Forschungsarbeit werden zum Bereich der Informationsvisualisierung beitragen, indem sie Strategien ermöglicht, um komplexe Datenschutzerklärungen zu vereinfachen und sie für Nutzer:innen sozialer Medien und Messenger-Dienste zugänglicher zu machen. Durch die Förderung des Bewusstseins und des Verständnisses für Datenschutzpraktiken soll die Zielgruppe in die Lage versetzt werden, fundierte Entscheidungen bezüglich ihrer persönlichen Daten zu treffen und Datenschutzrisiken zu mindern. Die Entwicklung benutzer:innen-freundlicher bzw. menschenzentrierter Datenschutzschnittstellen fördert dabei nicht nur die Transparenz, sondern auch das Vertrauen in neue Technologien und Medien. Zusammenfassend setzt sich diese Masterarbeit mit der entscheidenden Herausforderung, das Datenschutzbewusstsein durch Vereinfachung und Visualisierung von Datenschutzrichtlinien sozialer Medien zu stärken. Durch die Kombination von Prinzipien der Informationsvisualisierung mit den teils schwer zugänglichen Inhalten dieser Texte versucht diese Arbeit, die Lücke zwischen dem Verständnis/Bewusstsein der Nutzer:innen und den rechtlichen Komplexitäten zu schließen und letztendlich eine datenschutzbewusstere digitale Gesellschaft zu fördern.
Die Gewinnung von motivierten und qualifizierten Mitarbeitenden stellt aufgrund verschiedenster aktueller Einflussfaktoren wie demografische Veränderungen oder der Fachkräftemangel eine große Herausforderung für das Recruiting dar. Eine umso wichtigere Rolle spielt daher die Bindung des Personals ans Unternehmen. Die interne Rekrutierung bietet in diesem Zusammenhang eine Möglichkeit, die im Unternehmen bereits vorhandenen Ressourcen zu nutzen, wobei sich im Vergleich zur externen Personalbeschaffung Chancen wie auch Risiken ergeben. Es haben sich kritische Erfolgsfaktoren gezeigt, die erkannt und in weiterer Folge berücksichtigt werden sollten. Diese sind für das Vorgehen beim internen Recruiting von Bedeutung, um möglichst das volle Potenzial ausschöpfen zu können. Im Rahmen dieser Masterarbeit wurde eine ausführliche Literaturrecherche durchgeführt, sodass in weiterer Folge eine Forschungsfrage abgeleitet werden konnte. Es wurden sieben Interviews mit ausgewählten HR-Expertinnen und HR-Experten geführt, die in Unternehmen arbeiten, die der Vorarlberger Industrie zugehörig sind. Anschließend wurden die Interviews nach der qualitativen Inhaltsanalyse ausgewertet. Im Zuge der Diskussion wurden die Interviewergebnisse der Literaturrecherche gegenübergestellt, wobei die Forschungsfrage beantwortet werden konnte. Schlussendlich wurden Handlungsimplikationen für das interne Recruiting abgleitet. Die Forschungsergebnisse deuten darauf hin, dass es im Hinblick auf die interne Rekrutierung verschiedene Erfolgsfaktoren gibt, die Unternehmen für das eigene Vorgehen berücksichtigen können. Dazu zählen beispielsweise die Bedeutung der Kommunikation während des gesamten Prozesses – Kündigungsfristen und Übergabeprozesse sollten ausreichend besprochen und umfassend geplant werden. Zudem ist es hilfreich, interne Absagen mit Bedacht auszusprechen und sachliche Gründe aufzuzeigen. Auch die involvierten Führungskräfte spielen im gesamten internen Personalbeschaffungsprozess eine bedeutende Rolle. Darüber hinaus haben sich weitere Aspekte gezeigt, die für das Vorgehen beim internen Recruiting von Bedeutung sind.
Minuten können in medizinischen Notfällen unmittelbar die Anwendbarkeit von Behandlungsmethoden, das Ausmaß von bleibenden Einschränkungen sowie die Überlebenschancen beeinflussen. Doch hat das präklinische Notfallmanagement heute mit steigenden Einsatzzahlen, zunehmenden Einsätzen ohne Dringlichkeit und dem demografischen Wandel bei gleichzeitigem Fachkräftemangel zu kämpfen. Entsprechend gewinnt das Prozessmanagement zur Gestaltung effizienter Rettungsketten an Bedeutung. Vor diesem Hintergrund ging die vorliegende Arbeit der Frage nach, welche Potentiale die Datenanalytik in vernetzten Rettungsketten für das Prozessmanagement hat, um wertvolle Zeit zu gewinnen. Zudem wurden die Herausforderungen der Datenanalytik in diesem Bereich betrachtet. Zur Beantwortung der Forschungsfrage wurde dabei eine theoretisch-konzeptionelle Vorgehensweise gewählt. Die Untersuchung zeigte, dass die Potentiale der Datenanalytik in diesem Kontext in der Entscheidungsunterstützung zur Standortwahl, zur Kapazitätsplanung und in der Abwicklung von Notfällen liegen. Zudem könnte diese bei der Prozessanalyse, sowie der Prävention und Vermeidung von Einsätzen unterstützen. Dahingegen liegen die Herausforderungen in der Notwendigkeit einer übergeordneten Strategie, der hinreichenden Datenqualität und Verfügbarkeit der Daten. Darüber hinaus bestehen Herausforderungen im Bereich der IT-Sicherheit und des Datenschutzes, sowie der oft fehlenden Vernetzung. Zusammenfassend wären die Potentiale der Datenanalytik zur Optimierung der Zeit in Rettungsketten vielversprechend, jedoch stehen dem Einsatz dieser aktuell noch eine Vielzahl an Herausforderungen gegenüber.
Die vorliegende Arbeit setzt sich mit Forschungstrends im Bereich der Entscheidungsfindung von Manager:innen auseinander. Dabei stehen komplexe Entscheidungen im Vordergrund. Im theoretischen Teil erfolgte eine Einführung in die Entscheidungstheorie. Anschließend wird die Funktion des Managements als Entscheidungsträger:in thematisiert. Anhand einer vertieften Literarturrecherche wurde eine Trendanalyse durchgeführt, um herauszufinden, welche Themenbereiche besonders viel Aufmerksamkeit in der Forschung über komplexe Managemententscheidungen erlangt haben. Herausgefunden wurde, dass besonders multikriterielle Entscheidungsmethoden beforscht wurden. Es wurde häufig im Bereich Energiewirtschaft, Nachhaltigkeit und Klimawandel geforscht, da hier die Voraussetzungen für komplexe Entscheidungen gegeben sind. Neben mathematisch fundierten Methoden kommen auch heuristische Ansätze zur Komplexitätsreduktion zur Anwendung, lässt sich aus den Forschungsergebnissen ableiten. Insgesamt wurden 12 Trends identifiziert, die sich teilweise überschneiden. Aus den gesichteten Forschungsarbeiten ließen sich Handlungsempfehlungen ableiten, die in einem eigenen Kapitel präsentiert werden.
Der stationäre Handel ist von zunehmenden Unsicherheiten gekennzeichnet, wobei die wachsende Verlagerung des Einkaufs auf die digitalen Vertriebskanäle dabei eine zentrale Rolle spielt. Jenen Entwicklungen kann mitunter mit der Einführung eines Omnichannel-Geschäftsmodells entgegengewirkt werden, wodurch der Fortbestand der stationären Geschäfte unterstützt werden kann. Für die Omnichannel-Etablierung ist eine Umstrukturierung des Handels essenziell, vielfach hängt dies mit einer Neuausrichtung der Geschäftsarchitektur zusammen. In diesem Kontext werden die relevanten Geschäftsprozesse in Frage gestellt und gegebenenfalls neu definiert. Das Hauptziel dieser Arbeit war es daher, auf Basis einer theoretisch-konzeptionellen Methodik herauszufinden, wie der stationäre Handel durch die Ausrichtung der Geschäftsprozesse an einem Omnichannel-Geschäftsmodell langfristig und nachhaltig optimiert werden kann. Anhand der Ergebnisse konnte ein Leitfaden entwickelt werden, welcher sich an EinzelhändlerInnen richtet und bei der Omnichannel-Transformation Unterstützung gewährleisten soll. Aus den durchgeführten Analysen wurden schließlich dezidierte Fokuspunkte abgeleitet, denen in der Transformationsphase besondere Aufmerksamkeit zu schenken gilt. Hierzu zählt nicht nur die IT-Landschaft und die Datenanalytik, sondern auch die Organisation samt den involvierten Personen und den entsprechenden Kompetenzen. Die Berücksichtigung aller Aspekte kann die Chancen einer erfolgreichen Omnichannel-Integrierung erhöhen, aber aufgrund der Komplexität nicht garantieren.
Die Masterarbeit befasst sich mit der Neugestaltung öffentlicher Räume. Anhand einer qualita-tiven Studie wird die Parkanlage Superkilen, Kopenhagen untersucht. Es wird die Frage nachgegangen, ob Superkilen aus der Perspektive der postmigrantischen Gesellschaft und der Sozialraumarbeit als ein gelungenes Beispiel gilt. Als Datengrundlage der Analyse dienen ein systematisches Review und eine teilnehmende Beobachtung. Die Analyse erfolgt anhand einer qualitativen Inhaltsanalyse. Die induktiv herausgearbeiteten Codes werden anhand des St. Galler Modells dargelegt. Die Ergebnisse zeigen, dass die Grundidee der Gestalter:innen, nämlich die Vielfalt des Viertels durch konkrete internationale Objekte darzustellen, nicht mit der Lebenswelt der Bewohner:innen übereinstimmte. Unterschiedliche Grundverständnisse in Bezug auf Kultur und Diversity wurden hierbei erkannt. Gleichzeitig zeigen sich spielerische Designelemente als besonders förderliche Faktoren für alltägliche Begegnungen in Superkilen und Aneignungen finden statt. Die interkulturelle Soziale Arbeit kann mit ihrer Differenzsensi-bilität und ihrem Fokus auf die unmittelbare Lebenswelt von Menschen als Profession und Disziplin zur Bearbeitung dieser Thematik beitragen.
Das Wärmequartier wird als entscheidende räumliche Einheit betrachtet, um Effizienzsteigerungen zu ermöglichen. Dabei spielt die Nutzung regionaler Wärmequellen eine wichtige Rolle, um den steigenden Energiebedarf der Menschheit zu decken. Neben der vielversprechenden Nutzung der Erdwärme durch eine Erdwärmepumpe werden in Uferregionen zunehmend Seewasserwärmepumpen eingesetzt, denn diese nutzen die thermische Energie aus dem See, um den Heiz- und Kühlbedarf zu decken. Dabei ist der geschlossene Kreislauf im Vergleich zu dem offenen Kreislauf weniger effizient, aber dafür stabiler und zuverlässiger, da der Wärmeübertrager im See Vereisungs- und Korrosionsprobleme abmildern kann. Aus diesem Grund werden zunehmend Überlegungen an einem in den See eingetauchten Wärmeübertrager angesetzt. Allerdings wird dieses Potential im deutschsprachigen Raum kaum ausgeschöpft. In dieser Studie erfolgt anhand eines Referenzgebäudes eines Wärmequartiers ein simulativer Vergleich eines Erdwärmepumpensystems mit Erdsonden und eines Seewasserwärmepumpensystems mit einem in den See eingetauchten Rohrbündelwärmeübertrager. Für den Rohrbündelwärmeübertrager wurde die Auswirkungen von einer sich veränderten Übertragungsfläche auf die Effizienz analysiert und optimale Eigenschaften definiert. Der Effekt von einem veränderten Nennvolumen der Pufferspeicher auf die Effizienz, die Heizzyklen und die Vorlauftemperatur der Fußbodenheizung und Brauchwarmwassers wurde untersucht. Die Folgen von Temperaturänderungen des Erdreichs und des Seewassers auf die Effizienz des Gesamtsystems wurde zudem betrachtet. Die Ergebnisse zeigen, dass die Systemeffizienz durch die Übertragungsfläche und das Verhältnis zwischen Rohrbündelanzahl und -länge verbessert werden kann. Weitere Ergebnisse zeigen, dass die Seewasserwärmepumpe empfindlicher auf Temperaturänderungen der Wärmequelle reagiert als die Erdwärmepumpe. Es wurde ein abschließender jährlicher Vergleich basierend auf den Erkenntnissen aus den Analysen zu dem Rohrbündelwärmeübertrager und dem Nennvolumen der Pufferspeicher mit dem bestehenden geothermischen Referenzsystem durchgeführt. Die Untersuchung der Ergebnisse ergab, dass die Jahresarbeitszahl der Erdwärmepumpe für die Trinkwassererwärmung höher als die der Seewasserwärmepumpe ist. Für den Heizbetrieb wurde eine geringfügig höhere Jahresarbeitszahl bei der Erdwärmepumpe festgestellt. Dafür ist die Seewasserwärmepumpe robuster hinsichtlich der Effizienz und zuverlässiger bezüglich der Wärmebedarfsdeckung von Heizwärme- und Brauchwarmwasserbedarf.
Validierung der Stromnetzberechnungsansätze anhand realer Messungen in der Niederspannungsebene
(2023)
Die politischen Ziele der Energiewende und insbesondere der zunehmende Ausbau der Elektromobilität führt zu steigenden Belastungen in den Niederspannungsnetzen. Eines der Hauptprobleme besteht darin, dass die genauen Informationen über den Zeitpunkt und die Dauer der Ladevorgänge fehlen, was eine präzise Bestimmung des Netzzustandes erschwert - auch deshalb, weil dieser durch die statische Netzberechnung erhoben wird, welche weitestgehend auf Annahmen und nicht zeitreihenbasierten Werten beruht. Im Folgenden wird daher untersucht, wie groß die Abweichungen der Niederspannungsparameter zwischen Trafostation und letztem Kabelverteilschrank bei realen Messungen im Winter im Vergleich zur statischen Worst-Case Berechnung sind. Weiters wird ermittelt, welche Änderungen der Eingangsparameter zu einer Optimierung der Ergebnisse führen. Dafür werden reale Messungen in verschiedenen Niederspannungsspannungsnetzen realisiert und nach einer Analyse der Messergebnisse werden die Eingangsparameter für die Netzberechnung bestimmt. Auf Basis dieser Inputparameter werden vier verschiedene Szenarien gebildet und die Berechnung mit diesen Szenarien durchgeführt. Anschließend werden die Berechnungsergebnisse mit den Messergebnissen verglichen. Der Vergleich der Methoden zeigt, dass die Berechnung den Worst-Case-Fall im Netz sehr realistisch abbildet. Jedoch ist aufällig, dass dieser Fall nur selten vorkommt und die betrachteten Verteilernetze zum größten Teil viel geringer belastet sind. Die 95%-Szenario-Betrachtungen zeigen, dass eine Vernachlässigung der selten vorkommenden Ausreißer zu einer Änderung der Eingangsparameter und einer Optimierung der Netzberechnung führt. Aus der Untersuchung geht zusätzlich hervor, dass die Annahme des Leistungsfaktors cos ϕ mit 0,90 zu niedrig angesetzt ist. Es kann festgehalten werden, dass sich dieser bei allen Netzen zwischen 0,999 und 0,990 befindet. Dieser Eingangsparameter für die statische Worst-Case-Berechnung kann aufgrund der gewonnenen Erkenntnisse optimiert werden.
Die aktuell eingesetzte Word-Antragsvorlage zur Erstellung und Einreichung von Ethikanträgen für die Forschungsethik-Kommission der Fachhochschule Vorarlberg entspricht nicht mehr den Anforderungen und Wünschen der Anwender:innen. Neben technischen Limitierungen stellen vor allem die eingeschränkten Möglichkeiten den Grund dar, weshalb anhand der Prinzipien sowie der vier Phasen des User-Centered Designs eine Software-Lösung ausgearbeitet wurde, die das bestehende System langfristig ablösen können soll. Die einzelnen Kapitel dieser Arbeit entsprechen jeweils einer der vier Phasen und stellen als Ganzes eine vollständig abgeschlossene Iteration des Prozesses dar. Die durchgeführte Analyse der Nutzerkontexte basiert auf der Aufarbeitung der Kriterien der Forschungsethik und vor allem einer detaillierten Analyse des bestehenden Systems und Prozesses der Forschungsethik-Kommission. Neben der Funktionsweise und dem inhaltlichen Aufbau werden im Zuge dessen gleichzeitig die Stärken und Schwächen erläutert. Ebenso findet eine breite Analyse von anderweitigen Systemen und Prozessen von Ethikkommissionen innerhalb Österreichs statt, um den Stand der Technik zu erheben. Die anschließende Definition von konkreten Anforderungen basiert auf der Umsetzung einer qualitativen Inhaltsanalyse der durchgeführten Interviews nach Kuckartz. Insgesamt können dabei neun Anforderungen definiert werden, die unterschiedlich priorisiert größtenteils in der eigens entwickelten EthicsVision Plattform umgesetzt werden konnten. Zum Einsatz kommen dabei sowohl Docker als auch das Symfony-Framework und die Angular-Plattform. Die abschließende Evaluation des Prototyps basiert auf Feedback der Antragsteller:innen und der Forschungsethik-Kommission. Der Proof of Concept wird dabei als gute Basis wahrgenommen, während bereits diverse Weiterentwicklungsmöglichkeiten aufgezeigt werden können. Das Ziel der Arbeit, die Neuentwicklung des Ethikantrag-Tools zu bewerkstelligen, konnte erreicht und ein Weg für die künftige Gestaltung des Prozesses aufgezeigt werden.