Refine
Year of publication
- 2023 (170) (remove)
Document Type
- Master's Thesis (83)
- Article (47)
- Conference Proceeding (19)
- Part of a Book (5)
- Book (3)
- Other (3)
- Preprint (3)
- Report (3)
- Doctoral Thesis (2)
- Bachelor Thesis (1)
- Working Paper (1)
Institute
- Wirtschaft (24)
- Forschungszentrum Mikrotechnik (16)
- Forschungszentrum Business Informatics (13)
- Soziales & Gesundheit (12)
- Forschungszentrum Energie (8)
- Forschungszentrum Human Centred Technologies (8)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (5)
- Forschungsgruppe Empirische Sozialwissenschaften (4)
- Forschung (3)
- Josef Ressel Zentrum für Robuste Entscheidungen (3)
Keywords
- Controlling (7)
- Digitalisierung (5)
- Business Analytics (4)
- Kultur (4)
- Soziale Arbeit (4)
- Akademisierung (3)
- Schreibdidaktik (3)
- Vorarlberg (3)
- leadership (3)
- Bank (2)
Einfluss staatlicher Fördermaßnahmen auf Investitionsentscheidungen von Unternehmen – Eine Untersuchung der Wirksamkeit der AWS-Investitionsprämie auf Vorarlberger Unternehmen. Die Investitionsförderung ist ein wichtiges Instrument der österreichischen Politik. Dabei soll durch Zuschüsse bei Investitionen in Digitalisierung, Ökologisierung, bauliche Anlagen oder auch technische Einrichtungen die weltweite Wettbewerbsfähigkeit gestärkt und österreichische Arbeitsplätze gesichert werden.
Ziel dieser Arbeit ist es, den Einfluss der staatlichen Fördermaßnahmen auf Investitionsentscheidungen von Vorarlberger Unternehmen zu untersuchen. Anhand von Experteninterviews und der Auswertung des AWS-Leistungsberichtes soll festgestellt werden, ob diese Förderungen die gewünschte Wirksamkeit aufweisen können.
Zunächst werden die verschiedenen Investitionsrechenverfahren ausführlich erklärt und er-läutert. In weiterer Folge behandelt diese Arbeit die staatlichen Förderungen und weitere Anreize der Politik. Darüber hinaus werden die Experteninterviews miteinander verglichen und analysiert, um Erkenntnisse über die Auswirkung staatlicher Fördermaßnahmen zu gewinnen. Definitiv ist ein Einfluss staatlicher Fördermaßnahmen gegeben. Einerseits hat sich das Volumen der Investitionen stark erhöht, anderseits sind diese in den Zeitraum der Förderungen verlegt worden. Ein weiterer wichtiger Aspekt ist, dass die staatlichen Fördermaßnahmen die Basis der Investitionsrechenverfahren verändern.
Ansätze des maschinellen Lernens werden sowohl in der Forschung als auch in der Praxis eingesetzt, um gewünschte Ausgabedaten anhand bekannter Eingabedaten vorherzusagen. In dieser Masterarbeit wird die Anwendung des maschinellen Lernens in der Batteriedatenanalyse zur Bestimmung des Alterungsstatus von Lithium-Ionen-Batterien untersucht. Das Ziel dieser Arbeit besteht in der Vorhersage von Alterungskurven (englisch state of health - SoH) für Lithium-Ionen Batterien über die Anzahl der Entladezyklen (Zeitachse). Dies erfolgt auf der Grundlage zuvor erfasster Daten für drei Typen von Lithium-Ionen-Batterien, die bei Temperaturen von 15 °C, 25 °C und 35 °C sowie C-Raten von 0,5C, 1C und 2C aufgenommen wurden. Im Zuge dessen wurden die angewandten Methoden des maschinellen Lernens analysiert und ihre Ergebnisse verglichen. Der Umfang dieser Arbeit hebt sich von anderen Ansätzen des maschinellen Lernens in der Batteriedatenanalyse ab, da dieselben Methoden in einem breiteren Spektrum von Daten mit unterschiedlichen Temperaturen und Kathodenmaterialien verwendet wurden. Dies ist für die Analyse von Unterschieden im Verhalten in der Praxis relevant. Nach dem Erwerb und der Vorbereitung der Daten wurden Modelle mit vier ausgewählten Regressionsverfahren (lineare Regression, Ridge-Regression, Random-Forest-Regression und KNN-Regression) des überwachten Lernens trainiert und die Vorhersagen durchgeführt. Aus den Ergebnissen kann eine allgemeingültige Auslegungsgrundlage für weitere Untersuchungen und die praktische Anwendung abgeleitet werden, bei der die Vorhersagen von SoH-Kurven für Lithium-Ionen-Batterien mit linearer Regression und Ridge-Regression die höchste Genauigkeit aufweisen.
Die berührungslose Bedienung stellt in der Mensch-Computer-Interaktion (HCI) eine wichtige Alternative gegenüber berührungsbasierter Bedienung dar. Expertinnen und Experten gehen davon aus, dass dadurch berührungsbasierte Bedienung in bestimmten Anwendungsfällen, wie in Operationssälen oder der Automobilbranche, abgelöst wird. Allerdings weisen gestenbasierte Systeme Inkonsistenzen bei der Bedienung auf, da diese für unterschiedliche Technologien, in verschiedenen Nutzungskontexten und gezielt durch Markendifferenzierung entwickelt werden. Eine weitere Herausforderung stellt die Uneinigkeit potenzieller Endnutzer:innen über geeignete Gesten dar (Gesture Disagreement Problem). Dies hat zur Folge, dass sich bisher kein allgemeingültiges Gestenset etablieren konnte. Um ein Gestenset für die berührungslose Bedienung für der HoloLens 2 in der mobilen Vermessung zu entwickeln, wurden kontextspezifische Anforderungen identifiziert und im Gestenerhebungsprozess berücksichtigt. Zur Identifizierung wurden in dieser Arbeit Interviews und eine Beobachtung der Nutzer:innen während des Arbeitsprozesses durchgeführt. Zudem untersucht diese Arbeit, ob und wie das oben genannte Problem der Uneinigkeit sowie die Voreingenommenheit im Gestenerhebungsprozess vermieden werden kann. Durch die Anwendung von zwei verschiedenen Priming-strategien sowie der Produktionsstrategie sollte diesen Problemen entgegengewirkt werden. Anhand der Auswertung ist zu erkennen, dass das Gesture Dis-agrement Problem nicht vollständig gelöst werden konnte. In der Gestenerhebung wurden 355 unterschiedliche Gesten für 19 Aufgaben erhoben. Bedienbefehle, die eine Assoziation zur berührungsbasierten Bedienung mit Bildschirmgeräten darstellten, wurden kaum erhoben. Dies beweist, dass die Voreingenommenheit vermieden werden konnte. Um die Auswahl der Gestenvorschläge einzuschränken wurden die Gesten von den Probandinnen und Probanden anhand der zwei Usability Kriterien „Einprägsamkeit“ und „Auffindbarkeit“ bewertet. Anhand von wissenschaftlichen Veröffentlichungen zur einhändigen Bedienung von Infotainmentsystemen zeigt sich, dass die Einprägsamkeit von Gestenbefehlen begrenzt ist. Im Kontext der mobilen Vermessung ist angedacht, Gestenbefehle als Shortcuts einzusetzen, um grafische Schnittstellen zu reduzieren. Dies hat zur Folge, dass die Probandinnen und Probanden eine Reihe von Gestenbefehlen lernen und sich einprägen müssen. Da aufgrund der hohen Anzahl der Gesten die Bewertungen nicht ausreichen, wurde die Auswahl anhand von zwei Auswertungsverfahren eingegrenzt. Zum einen wurde die Taxonomie für berührungslose Handgesten von Piumsomboon et al. (2013) herangezogen, um die Merkmale der Gesten zu gruppieren. Die Merkmale der Gesten wurden in einer Matrix, die die Bewertungen zur Einprägsamkeit und Auffindbarkeit berücksichtigen, eingeordnet. Zudem wird die prozentuale Menge dieser Merkmale berücksichtigt, um herauszufinden ob bestimmte Aufgaben spezifische Gestenmerkmale aufweisen. Zum anderen wurde ein Ansatz verfolgt, bei dem ähnliche Gesten zusammengefasst werden, um als Vorlage für die Expertenmeinung zu dienen. Unter Berücksichtigung ergonomischer, technischer und logischer Anforderungen wurde aus den resultierenden Gesten ein konsistentes Gestenset entwickelt, das zur berührungslosen, einhändigen Bedienung auf der HoloLens 2 und im Kontext der mobilen Vermessung angewendet werden kann. Weitere Untersuchungen sind notwendig um die Einprägsamkeit des Gestensets zu überprüfen. Zudem muss ein Konzept entwickelt werden, wie dieses Gestenset erlernt werden kann.
Operative Exzellenz wird als Sammelbegriff für strategische Managementansätze angesehen, welche anhand von Optimierungsinitiativen die Geschäftsprozesse des Unternehmens auf Kundenbedürfnisse, Qualität wie auch auf Effizienz ausrichten. Exzellenzmodelle kombinieren sowohl technische als auch soziale Faktoren im Streben nach nachhaltiger Verbesserung und basieren nicht nur auf dem Betriebsmanagement und den technischen Prozessen, sondern widmen auch den Menschen und ihrem Einfluss auf die erfolgreiche Umsetzung eines Optimierungsprogramms besondere Aufmerksamkeit. Ziel dieser Masterarbeit ist es, die entscheidende Rolle von Führungskräften und deren Führungsstile zu diskutieren, welche laut der ausgewerteten akademischen Literatur, sich für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 als erfolgsversprechend nennen lassen, indem die gewünschte Organisationskultur durch gezielte Anwendung von Führungskonzepten gefördert wird. Die Fragestellung der Masterarbeit wird anhand eines theoretisch-konzeptionellen Vorgehens beantwortet. Die Untersuchungen haben die Erkenntnisse zu Tage gebracht, dass sich mit dem Wandel der Anforderungen an die Unternehmen, auch die Führungskonzepte an die Anforderungen angepasst haben und somit auch die Führungsphilosophie von „Command and Control“ zu „Empowerment“, „agiler Führung“ und „transformationaler Führung“ übergegangen ist. Für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 konnten die Führungskonzepte „Transformationale Führung“, „Symbolische Führung“, „Mitarbeiter empowern“ und „Agile Führung“ identifiziert werden. Es besteht Grund zur Annahme, dass eine Kombination der vorgestellten Führungskonzepte die besten Ergebnisse liefern würde, insofern das geeignetste Führungskonzept situationsadäquat angewendet wird.
Vor über 25 Jahren, im Mai 1997 wurde mit dem Gewaltschutzgesetzes in Österreich eine klare Haltung gegen Gewalt an Frauen gesetzt. Dennoch sind die Zahlen von häuslicher Gewalt gegen Frauen bis heute erschreckend hoch. Die Gesetzeslage in Österreich gilt als fortschrittlich, die Umsetzung der Gesetze steht dabei jedoch immer wieder in Kritik. (Baer 2010, S. 556). Um herauszufinden, was es für einen gelingenden Gewaltschutz von Frauen bedarf, muss mit den Expert*innen aus diesem Feld gesprochen werden. In vorliegender Arbeit wurde daher erforscht, wie sich die multi-institutionelle Zusammenarbeit zum Schutz und der Unterstützung von gewaltbetroffenen Frauen in Vorarlberg gestaltet und welche Faktoren aus Sicht der Expert*innen die Unterstützung von gewaltbetroffenen Frauen erschweren, beziehungsweise erleichtern. Um dies zu erforschen, wurden Expert*inneninterviews im Bereich der Sozialen Arbeit, Justiz, Polizei und dem Gesundheitswesen geführt. Da häusliche Gewalt gegen Frauen ein gesamtgesellschaftliches Problem darstellt (Carstensen 2018, S. 52), wurde die vorliegende Forschungsarbeit anhand der Kritischen Diskursanalyse nach Jäger durchgeführt. (Jäger 2015) Die Arbeit gibt einen Überblick über die Organisation der multi-institutionellen Zusammenarbeit gegen häusliche Gewalt an Frauen in Vorarlberg. Zudem zeigt sie gelingende und hemmende Faktoren im Interventionssystem und in der Zusammenarbeit auf. Dabei werden zum einen die positiven Entwicklungen und Errungenschaften im Interventionssystem verdeutlicht als auch die bestehenden Defizite und Möglichkeiten der Verbesserung aufgezeigt. Dabei zeigt sich u.a. der Bedarf an Schulungen für die verschiedenen Professionsgruppen im Interventionssystem als auch ein Defizit an Zugängen und Vernetzungen im medizinischen Bereich.
Die vorliegende Arbeit lässt sich im Bereich der Bonitätsbewertung einordnen. Es gibt bisweilen kein gängiges System, mit welchem eine Debt Capacity oder eine Bonitätsbewertung ermittelt wird. In der Praxis erfolgt oftmals die Vereinfachung dieser Bewertung anhand des EBITDA. Mit dieser Arbeit soll untersucht werden, ob diese Vereinfachung sinnvoll ist. Dazu werden neben dem EBITDA auch der Free Cashflow und die Debt Capacity von Unternehmen genauer untersucht. Für 69 Unternehmen werden die Jahresabschlussdaten und Credit Ratings der Big Three zusammengestellt. Anhand der Korrelations- und Regressionsanalyse werden die Werte verglichen. Das EBITDA unterliegt dem Free Cashflow sowohl bei der Abschätzung der Debt Capacity als auch bei der Ermittlung von Credit Ratings. Beide besitzen jedoch zu wenig Aussagekraft, um nur aufgrund dieser Daten Managemententscheidungen treffen zu können. Die Vereinfachung kann in dieser Form nicht unterstützt werden, und es sollte immer eine detailliertere Prüfung vorgezogen werden. Es gibt jedoch statistisch signifikante Zusammenhänge, weshalb das EBITDA und der Free Cashflow zumindest einen Anhaltspunkt für die Bewertung bieten können.
Einfluss verhaltensökonomischer Faktoren auf die Nutzung neuer Technologien im Prozessmanagement
(2023)
Process Mining ist ein effektives Werkzeug, um bestehende Lücken in der Prozessüberwachung eines im Unternehmen integrierten Prozessmanagements zu verringern. Trotz dem weitverbreiteten Bewusstsein über diesen Umstand, wird Process Mining bisher in wenigen Unternehmen erfolgreich eingesetzt. Da die Einführung einer neuen Technologie als Change-Projekt einzustufen ist, ist die soziale Ebene in Form der Mitarbeitenden zu berücksichtigen. Da Menschen nicht ausschließlich rational entscheiden und handeln, ist davon auszugehen, dass auch Erkenntnisse aus der Verhaltensökonomie in diesem Zusammenhang eine Rolle spielen. Die vorliegende Arbeit beschäftigt sich insbesondere mit möglichen verhaltensökonomischen Faktoren, die für die Nutzung neuer Technologien im Prozessmanagement relevant sind. Für die Beantwortung dieser Frage wurde als Anwendungsbeispiel das Feld des Process Mining und ein theoretisch-konzeptionelles Vorgehen gewählt. Dabei werden zunächst die Forschungsfelder Process Mining, Change Management und Verhaltensökonomie theoretisch aufgearbeitet und mit verschiedenen Eigenschaften charakterisiert, um dann mögliche verhaltensökonomische Faktoren abzuleiten. Diese Masterarbeit zeigt, dass verhaltensökonomischen Faktoren in Form von kognitiven Verzerrungen entscheidend zum Erfolg bei der Einführung neuer Technologien beitragen. Von den drei ermittelten Charakteristika der „Neuartigkeit“, der „Komplexität der Technologie“ und den mit der Technologie einhergehenden „Ängsten und Unsicherheiten“ lassen sich folgende kognitive Verzerrungen ableiten: Der Status-Quo-Bias, die Verlustaversion, der Confirmation Bias, der Appeal to Novelty und der Pessimism Bias. Für jede kognitive Verzerrung wurden Gegenmaßnahmen aufgezeigt.
Mit dem Namen Coachly wird eine elektronische Lernplattform bezeichnet, welche im Rahmen eines neuen Lernkonzeptes die Wissensaneignung bzw. Wissensvermittlung für Lernende und Lehrende im schulischen Unterricht erleichtern und effizienter gestalten soll. Dies wird vor allem durch fest integrierte individuelle Coaching-Einheiten und ein konstantes Monitoring des Lernprozesses gewährleistet. Die vorliegende Arbeit beschäftigt sich in ihrer theoretischen Auseinandersetzung mit den Themenbereichen „Lernen“ und „Unterricht“. Während bei Ersterem unter anderem Lernziele und verschiedene Lerntheorien behandelt werden, widmet sich das Kapitel „Unterricht“ den Unterrichtsarten „Klassischer Unterricht“, „E-Learning“ und „Blended Learning“. Auch Unterrichtsmethoden und innovative Ansätze der Wissensaneignung werden hier abgehandelt. Darüber hinaus dokumentiert die Arbeit die verwendete Forschungsmethode und deren Ergebnisse sowie die Konzeption und Umsetzung des entstandenen Lernkonzeptes und der integrierten Lernplattform. Ausgangspunkt der Forschungsarbeit war dabei die Frage, wie eine Lernumgebung geschaffen werden kann, die die Lernenden bei der Wissensaneignung und Lehrende bei der Wissensvermittlung unterstützt.
Als Folge des demographischen Wandels müssen Unternehmen in Österreich und ganz Europa lernen, mit einer alternden Belegschaft, dem Fachkräftemangel und Problemen bei der Rekrutierung von Mitarbeitenden umzugehen. Um erfolgreich wirtschaften zu können, sind Unternehmen daher gezwungen, solche Arbeitsbedingungen zu bieten, dass Mitarbei-tende aller Generationen gesund und leistungsfähig ihre Arbeit tun können. Die generatio-nenspezifische Gestaltung der Betrieblichen Gesundheitsförderung setzt an diesem Punkt an und hilft den Unternehmen, der demographischen Entwicklung gut gerüstet zu begeg-nen. Die vorliegende Arbeit beschäftigt sich mit der generationenspezifischen Betrieblichen Ge-sundheitsförderung. Im Rahmen einer qualitativen Untersuchung werden Chancen und Ri-siken identifiziert, die in einer generationenspezifischen Betrieblichen Gesundheitsförderung liegen. Dabei werden die Bedürfnisse der unterschiedlichen Generationen an die Betriebli-che Gesundheitsförderung berücksichtigt. Am Ende der Arbeit steht ein Maßnahmenkatalog für generationenspezifische Betriebliche Gesundheitsförderung, der die Chancen und Risiken die darin liegen, miteinbezieht und eine Unterstützung in der praktischen Arbeit im Unternehmen bieten soll.
Virtual Reality im Golfsport
(2023)
Die Möglichkeiten des Einsatzes von Virtual Reality (VR) abseits des Unterhaltungssektors sind sehr umfangreich. Die Technologie kann als Wiedergabemedium von klassischen audiovisuellen Inhalten oder speziell für VR entwickelten Inhalten verwendet werden, jeweils mit oder ohne Interaktion der benutzenden Person. Um die in dieser Arbeit gestellte Forschungsfrage „Wie kann VR im Golfsport unterstützend beim Training eingesetzt werden?“ zu beantworten wurde VR als Medium auf seine Anwendungsmöglichkeiten hin überprüft und aufgezeigt, wo diese Technologie im Bereich „Training“ wirkungsvoll eingesetzt werden kann. Die Verwendung einer Mind Map ergab eine erste Produktidee: Golfplätze mittels VR zu besuchen, bevor die Spielenden selbst zu einem Turnier anreisen. Durch Literaturrecherchen, Experteninterview, die qualitative Auswertung von Interviews von Golfspielenden und eine Analyse der am Markt befindlichen digitalen „Helfer“ für Golfer:innen wurden Hinweise gesammelt, um sowohl eine Hypothese zur möglichen Zielgruppe aufzustellen, als auch die Forschungsfrage, durch Konkretisieren der Produktidee, zu beantworten.
Erkenntnisse über die am Markt befindlichen Produkte und Hinweise aus der Sportpsychologie führten zu der Hypothese, dass die Effektivität des Produktes im Einsatz des mentalen Trainings verbessert werden könnte, wenn neben dem visuellen Kanal ein Audiokanal die Darstellung der virtuellen Umgebung unterstützt. Auch wenn diese Hypothese in einer Feldstudie mit 7 Teilnehmern weder wiederlegt noch bestätigt werden konnte, zeigt die Auswertung einer Onlineumfrage zum Produkt und die erarbeitete Theorie großes Potential für den Einsatz von VR als Unterstützung im mentalen Training und für weitere Forschung auf diesem Gebiet auf. Als Produktidee ging aus der Arbeit eine VR-Applikation, zur mentalen Vorbereitung auf wenig bekannte Golfplätze, für gute und professionelle Golfspieler:innen hervor.
Reporting der Zukunft
(2023)
Das Reporting als Kernkompetenz des Controllings befindet sich in einem Prozess der Veränderung. Die Digitalisierung und sich ändernde Anforderungen an das Controlling erfordern eine Weiterentwicklung und den Einsatz neuer Analysemethoden. Die deskriptiv ausgerichtete Welt des Reportings erfährt durch den Einsatz von Business Analytics eine Erweiterung um prädiktive und präskriptive Methoden, die Unternehmen in der Entscheidungsfindung unterstützen sollen. Voraussetzungen für den Einsatz von Business Analytics sind die in den Unternehmen eingesetzten Technologien zur Digitalisierung der Geschäftsprozesse und die für die Analyse verwendbaren Datengrundlagen. Neben sich ändern-den Prozessen innerhalb des Reportings, gilt es auch (Analyse-)Kompetenzen zu entwickeln.
Im Rahmen der Business Analytics kommen statistische Methoden zum Einsatz, die reale Umwelten modellierbar und somit quantifizier- und berechenbar machen. Doch welche Methoden werden im Bereich Business Analytics heute verwendet und dienen bereits jetzt oder zukünftig einer Datenanalyse und -aufbereitung im Sinne einer Advanced Analytics? Anhand einer Case Study mit vier befragten Unternehmen der Region wurde der aktuelle Entwicklungsstand des Reportings in eine fünfstufige Matrix eingestuft.
Die digitale Geschäftstransformation forciert Unternehmen regelrecht, grundlegende sowie neue Fähigkeiten zu entwickeln, um weiterhin wettbewerbsfähig zu bleiben. Unter anderem auch in der Supply Chain. Die Integration digitaler Anwendungen in diesem Bereich ist aller-dings äußerst mangelhaft. Aus diesem Grund wird zunächst der aktuelle Grad der Digitalisierung von global agierenden Unternehmen eruiert. Als ein weiteres Ziel dieser Arbeit wird die Erreichung einer nachhaltigen Wettbewerbsfähigkeit hinsichtlich einer Supply-Chain-4.0-Integration anhand der Theorie der Business Capabilities untersucht. Dazu wird die Forschungsfrage wie folgt definiert: „Was lässt sich fundiert über den Grad der Digitalisierung von global agierenden Unternehmen in ihrer Supply Chain sagen und welche Rolle spielt dabei das Business Capability Manage-ment?” Um die Forschungsfrage erfolgreich beantworten zu können, wird ein theoretisch-konzeptio-nelles Vorgehen angewendet. In Verbindung mit der Methode der konzentrischen Kreise wird eine umfassende Literaturrecherche ermöglicht. Die Auseinandersetzung mit der Literatur zeigt auf, dass die Anwendung der Digitalisierung in diesem Bereich in einer Vielzahl neuer Business Capabilities mit weiterführenden positiven Auswirkungen resultiert.
Erneuerbare Energiegemeinschaften (eEG) sind ein neues, innovatives und in der Entwicklung befindendes Thema bzw. Projekt. Entstanden ist es dadurch, dass Österreich die Vorschläge und neuen Gesetze aus dem Clean energy for all Europeans package mit der Verabschiedung des Erneuerbaren-Ausbau-Gesetz Ende 2021 in nationales Recht umgesetzt hat. In dem Leitfaden Energiegemeinschaften Ausschreibung 2021 ist in der Pionierphase und Integrationsphase klar vorgegeben, dass ein Monitoring über zwei Betriebsjahre zu betreiben ist. Das Monitoring von erneuerbaren Energiegemeinschaften wird in dieser Arbeit erstmalig behandelt. Es wurden Key Performance Indicators entwickelt, spezifiziert und erste Probeerhebungen durchgeführt. In dieser Arbeit wurde untersucht, welche Monitoring-Bereiche es geben könnte, mit welchem Erfolgsindikatoren-Set zum aktuellen Zeitpunkt ein sinnvolles Monitoring betrieben werden kann und welche Erfolgsindikatoren im Allgemeinen in Österreich erforderlich sind, um eine Aussage über den Erfolg von erneuerbaren Energiegemeinschaften treffen zu können. Hierfür wurde eine Grundlagenforschung im Bereich erneuerbare Energiegemeinschaften, ein normativer Vergleich zu ähnlichen Förderprogrammen und Experteninterviews durchgeführt. Anhand der daraus resultierenden Ergebnisse wurden finale KPIs spezifiziert. Mit diesen KPIs wurde in einem Monitoring-Tool ein Erfolgsindikatoren-Set angelegt und mit entsprechenden Zielwerten in Kontext gebracht. Zusätzlich wurden Daten von verschiedenen eEG angefragt und anhand dessen wurden in dem Tool erste Probeerhebungen durchgeführt, um die Machbarkeit zu untersuchen.
Durch das Voranschreiten der Digitalisierung hat die Technologie Robotic Process Automtion innerhalb der letzten Jahre an Bedeutung gewonnen und findet bereits in Bereichen des Rechnungswesens Anwendung. Ein Hauptargument für die Nutzung von sogenannten Software Robotern ist die dadurch generierte Steigerung der Prozesseffizienz. Dies ermöglich die Freisetzung von Mitarbeiterkapazitäten für wertschöpfende Tätigkeiten. Durch Automatisierung im Bereich des Cash Conversion Cycles kann der Geldumschlag in Tagen verringert werden, was wiederum zu mehr Liquidität führt. Trotzdem wird Robotic Process Automation in vielen Unternehmen noch nicht verwendet. Ziel dieser Arbeit ist es, die Gründe für oder auch gegen eine Implementierung von Robotic Process Automation zu untersuchen. Die Beantwortung der Forschungsfrage erfolgt mittels leitfadengestützter Experteninterviews. Dazu wurden Sieben Personen in leitenden Funktionen im Finanzbereich befragt. Die Ergebnisse der Untersuchung ergaben, dass einerseits die Eliminierung von manuellen Tätigkeiten und andererseits die Verringerung von Fehlerpotentialen als Gründe für eine Implementierung von Robotic Process Automation sprechen. Allerdings wurden auf der Gegenseite Gründe wie mangelnde Ressourcen und die skeptische Haltung seitens Mitarbeitenden und Management gegenüber der Technologie genannt. Einer der wesentlichen Gründe gegen die Einführung, welcher aus den Ergebnissen hervorging, war der bereits hohe Grad der Automatisierung.
Chatbots für Alle
(2023)
Digitale Barrierefreiheit ist eine der großen Aufgaben in unserer Gesellschaft, um die Gleichstellung aller Menschen zu gewährleisten. Für unterschiedliche Personengruppen stellt die Anwesenheit von Barrieren ein Problem dar, daher hat sich diese Arbeit zur Fragestellung gesetzt, welche konkreten Gestaltungsempfehlungen exemplarisch zum Abbau kognitiver Barrieren bei textbasierten Gesprächsschnittstellen beitragen können. Wie Menschen mit kognitiven Einschränkungen, mit beispielsweise Lernschwierigkeiten, Gestaltung innerhalb von Dialog-Systemen wahrnehmen, ist weitgehendst unerforscht. Denn das Web wird vornehmlich für Nutzende mit durchschnittlichen Fähigkeiten und Anforderungen gestaltet. Um Barrierefreiheit im Digitalen zu gewährleisten, bieten die Web Content Accessibility Guidelines (WCAG) eine Referenz für die gesetzliche Grundlage. Allerdings sind die darin enthaltenden Erfolgskriterien allgemein fürs Web und nicht konkret genug für textbasierte Chatbots formuliert und lassen für Designer:innen und Entwickler:innen großen Interpretationsspielraum in der Umsetzung offen. Digitale Barrieren sind Hindernisse, die Menschen teilweise oder vollkommen behindern etwas zu tun. Vor allem erleben marginalisierte Personengruppen, wie ältere Menschen oder Menschen mit Einschränkungen, Ausschlussmechanismen aus digitalen Produkten und Services. Zeitgleich zu dieser Ungerechtigkeit schreitet der demografische Wandel voran. Parallel damit steigt die Wahrscheinlichkeit mit einer Einschränkung psychischer oder physischer Natur zu leben – beispielsweise eine Demenz im Alter zu haben. Die Nichtteilnahme im Digitalen führt in einer Gesamtbetrachtung in Folge zu einer mehr oder weniger ausgeprägten sozialen und gesellschaftlichen Spaltung. Zudem ist die Frage, wer für die Umsetzung von Barrierefreiheit verantwortlich ist weitgehend ungeklärt. Zugrundeliegende Faktoren für Ausschlussmechanismen ist z. B. die personelle Homogenität in Entwicklungsteams und damit zusammenhängend die Reproduktion der privilegierten Sichtweisen in gestaltete Artefakte. Offensichtlich ist, dass Entwickler:innen und Designer:innen zur Konstruktion und damit zur Dekonstruktion von Barrieren beitragen können. Das Ziel des Forschungsvorhabens ist es, einen Beitrag zum aktuellen Wissensstand zu leisten und reale Nutzende zu partizipieren. Dazu wurden gestalterische Experimente und Usability Tests durchgeführt und die exemplarischen Ergebnisse in konkreten Gestaltungsempfehlungen in einem Empfehlungskatalog synthetisiert.
This thesis investigates the role of leadership behaviours of C-level executives in the context of post-M&A integration processes. The primary focus is on understanding the impact of specific leadership behaviours on inspiring desirable follower effects and facilitating emotional acceptance during organizational change. Drawing on the frameworks presented in “Six- Dimension Integrative Model of Leadership” and "The Six Domains of Leadership" developed by Sitkin et al., the study conducts expert interviews with managers from middle management who have recently experienced M&A integration. The answers are analysed in depth to identify the most effective leadership behaviours, highlighting those mentioned most frequently and those capable of triggering multiple follower effects simultaneously. The result is a list of behaviours that can serve as a guideline for C-level executives who want to foster desirable follower effects throughout the M&A integration journey.
Erfolgsfaktor Fachkarriere
(2023)
Angesichts des anhaltenden Fachkräftemangels und der steigenden Komplexität der globalen Wirtschaft stellt die Fachkarriere eine vielversprechende Alternative zur klassischen Führungskarriere dar, um hochqualifizierte Fachkräfte langfristig zu binden und ihr Fachwissen effektiv zu nutzen. Das Ziel dieser Masterarbeit besteht darin, die Anforderungen, Erwartungen, Chancen, Herausforderungen und Risiken von Fachkarrieren zu analysieren und daraus Handlungsempfehlungen für HR-Bereiche abzuleiten. Im Rahmen einer qualitativen Studie, basierend auf Expert*inneninterviews mit Fachexpert*innen, Führungskräften der Fachexpert*innen und HR-Verantwortlichen großer Industrieunternehmen in Liechtenstein, wurden die Ergebnisse ermittelt. Diese zeigen, dass Fachexpert*innen und deren Führungskräfte klare Strukturen der Fachkarriere und Sichtbarkeit der Fachexpert*innen erwarten, während Unternehmen Vorteile wie eine gesteigerte Wertschätzung der Fachexpertise, individuelle Karrieremöglichkeiten und die Bindung von Fachwissen erkennen. Allerdings gibt es auch Herausforderungen wie die sorgfältige Auswahl von Fachexpert*innen und die Gestaltung der Aufstiegsmöglichkeiten innerhalb der Fachkarriere. Basierend auf den Ergebnissen wurden konkrete Handlungsempfehlungen für HR-Bereiche entwickelt, um eine erfolgreiche Implementierung und Unterstützung von Fachkarrieren zu ermöglichen.
This study aims to address the research gap surrounding the role of leadership in the formation of high-performance teams within startup companies. While there is existing research on high-performing teams, limited attention has been given to leadership in this environment. To bridge this gap, the study combines a literature review and qualitative analysis through semi-structured interviews with diverse stakeholders in startups, with the goal of providing practical guidance for startup executives based on the research findings. The study uncovers key aspects of leadership in high-performance teams, emphasizing the importance of skills such as motivation and support for team members, fostering psychological safety and trust, and effectively managing uncertainty. In addition to resource constraints and high expectations, the study sheds light on the challenges faced by leaders in startup and high-performance team environments, particularly the blurring of traditional leadership roles as team members seek autonomy and decision-making authority. These findings present opportunities for future research to explore this progressive leadership style. Overall, this study contributes to our understanding of leadership dynamics within high-performance teams operating in the context of startups. It offers valuable insights that can help startup executives navigate the complexities of leadership and foster the development of successful and high-performing teams.
Effective lead management
(2023)
In the last few years the global interest on lead management has increased. This classic topic for marketing and sales departments is aimed at converting potential customers into sales. The following thesis identifies the challenges and solutions for marketing and sales departments in order to process effective lead management. Using data from a literature review and qualitative empirical research, conducted with representatives of marketing and sales departments, the results showed overall and task specific challenges and solutions. The research indicates that overall challenges and solutions regarding the gap between marketing and sales, new processes and data management including data quality, software and silos emerge. In addition task specific challenges and solutions concerning lead generation including purchased leads, lead qualification, lead nurturing and sales specific challenges and solutions conclusively the focus on existing customers, time famine and lead routing were identified. This thesis provides a framework for further studies regarding the challenges and solutions for marketing and sales departments processing lead management.
Female Entrepreneurship
(2023)
Die unternehmerische Initiative ist eine wichtige Triebkraft für das Wachstum der Wirtschaft und für Innovationen. Frauen stehen jedoch nach wie vor vor speziellen Herausforderungen, wenn es um die Gründung von Unternehmen geht. Eines der größten Hindernisse für weibliches Unternehmertum ist der Mangel an Unterstützung. Frauen haben nach wie vor Schwierigkeiten, Kapital für ihre Vorhaben zu beschaffen. Untersuchungen haben gezeigt, dass weibliche Personen im Vergleich zu männlichen Personen weniger Unternehmen gründen. In diesem Zusammenhang spielt das Mentoring eine entscheidende Rolle bei der Entwicklung von Unternehmerinnen. Dies ermöglicht den Austausch wertvoller Erfahrungen, das Erlernen von Fähigkeiten, wertvolles Feedback und die Erweiterung des Netzwerks. Die Wirksamkeit eines solchen Mentorinnen Programms wird im Rahmen der vorliegenden Arbeit anhand des Pilotprojekt Fempower Community untersucht. Dabei wird analysiert welchen Einfluss ein Mentoringprogramm auf die Gründungsvorhaben und die definierten Kernkompetenzen der Teilnehmerinnen hat. Um diese Frage zu beantworten, wurde eine standardisierte quantitative Befragung der Teilnehmerinnen, sowie Interviews mit vier Teilnehmerinnen des Programms durchgeführt. Darüber hinaus wurden Sekundärstudien zum Vergleich herangezogen. Zu den Hauptzielen des Mentoring-Programms gehört, die unternehmerischen Vorhaben der Teilnehmerinnen zu realisieren und deren Kernkompetenzen zu stärken. Die Auswertung der quantitativen Studie ergab, dass die Teilnehmerinnen ihre Ziele zum Teil erreichten und ihre Kernkompetenzen zum Teil verbesserten. Aus den Interviews geht hervor, dass sich das Mentoring-Programm positiv auf die Entwicklung ihrer unternehmerischen Pläne ausgewirkt hat und die Kernkompetenzen der Teilnehmerinnen fördern konnte.
Die Anforderungen an gute Prognosen im Energiehandel der illwerke vkw AG steigen kontinuierlich an, da diese dazu verwendet werden, die richtigen Energiemengen auf dem Day-Ahead-Markt zu kaufen oder zu verkaufen. Zusätzliche Herausforderungen wie Wettereinflüsse und der steigende Energiebedarf von E-Autos erschweren die Prognose. Darüber hinaus gestaltet es sich mit den herkömmlichen Prognosebewertungen schwierig, die Kostenaspekte angemessen abzubilden. Aus diesem Grund wird in dieser Masterarbeit eine neue Methode zur Bewertung der Prognosequalität implementiert und mit bewährten Kennzahlen wie R², MAE, MAPE und RMSE verglichen. Diese Methode nutzt einen Preisverlauf, der die durchschnittlichen Marktpreise der Ausgleichsenergiepreise als Bewertungsmaßstab widerspiegelt. Die neue Bewertungsmethode wird mit Algorithmen wie dem Artificial Neural Network von Tensorflow, dem Decision Tree Regressor, der Linearen Regression, dem Multi-Layer Perception und dem Random Forest Regressor von Scikit-Learn verglichen. Zudem wird ein eigens erstelltes Gurobi-Modell, welches die Ausgleichsenergiepreise für die Gewichtung der absoluten Prognosefehler heranzieht, als Lineare Regression implementiert. Die genannten Modelle werden mithilfe von Python implementiert. Es werden tägliche Vorhersagen basierend auf viertelstündlichen Daten für Zeiträume von bis zu einem Jahr unter Verwendung eines Sliding-Window-Verfahrens mit unterschiedlichen Trainingsdaten erstellt. Die neue Bewertungsmethode mit der Einbeziehung von Kostenfaktoren, konnte sich im Vergleich zu MAPE, MAE, RMSE und R² nicht deutlich von den anderen unterscheiden. Die besten Ergebnisse wurden mit der Linearen Regression von Scikit-Learn und dem Gurobi-Modell mit der preisgewichteten Minimierung erzielt. Dabei sind die anderen Algorithmen nicht weit von den Resultaten der LR und GP entfernt. Unter dem Aspekt, dass das eigene Modell die Kosten minimieren soll, konnte es aber nicht als die beste Methode bewertet werden. Deswegen müssen das Modell und die gewählten Ausgleichsenergiepreise optimiert werden. Hierzu erzielte unter den sieben verwendeten Methoden die Lineare Regression das beste Ergebnis.
Das Wärmequartier wird als entscheidende räumliche Einheit betrachtet, um Effizienzsteigerungen zu ermöglichen. Dabei spielt die Nutzung regionaler Wärmequellen eine wichtige Rolle, um den steigenden Energiebedarf der Menschheit zu decken. Neben der vielversprechenden Nutzung der Erdwärme durch eine Erdwärmepumpe werden in Uferregionen zunehmend Seewasserwärmepumpen eingesetzt, denn diese nutzen die thermische Energie aus dem See, um den Heiz- und Kühlbedarf zu decken. Dabei ist der geschlossene Kreislauf im Vergleich zu dem offenen Kreislauf weniger effizient, aber dafür stabiler und zuverlässiger, da der Wärmeübertrager im See Vereisungs- und Korrosionsprobleme abmildern kann. Aus diesem Grund werden zunehmend Überlegungen an einem in den See eingetauchten Wärmeübertrager angesetzt. Allerdings wird dieses Potential im deutschsprachigen Raum kaum ausgeschöpft. In dieser Studie erfolgt anhand eines Referenzgebäudes eines Wärmequartiers ein simulativer Vergleich eines Erdwärmepumpensystems mit Erdsonden und eines Seewasserwärmepumpensystems mit einem in den See eingetauchten Rohrbündelwärmeübertrager. Für den Rohrbündelwärmeübertrager wurde die Auswirkungen von einer sich veränderten Übertragungsfläche auf die Effizienz analysiert und optimale Eigenschaften definiert. Der Effekt von einem veränderten Nennvolumen der Pufferspeicher auf die Effizienz, die Heizzyklen und die Vorlauftemperatur der Fußbodenheizung und Brauchwarmwassers wurde untersucht. Die Folgen von Temperaturänderungen des Erdreichs und des Seewassers auf die Effizienz des Gesamtsystems wurde zudem betrachtet. Die Ergebnisse zeigen, dass die Systemeffizienz durch die Übertragungsfläche und das Verhältnis zwischen Rohrbündelanzahl und -länge verbessert werden kann. Weitere Ergebnisse zeigen, dass die Seewasserwärmepumpe empfindlicher auf Temperaturänderungen der Wärmequelle reagiert als die Erdwärmepumpe. Es wurde ein abschließender jährlicher Vergleich basierend auf den Erkenntnissen aus den Analysen zu dem Rohrbündelwärmeübertrager und dem Nennvolumen der Pufferspeicher mit dem bestehenden geothermischen Referenzsystem durchgeführt. Die Untersuchung der Ergebnisse ergab, dass die Jahresarbeitszahl der Erdwärmepumpe für die Trinkwassererwärmung höher als die der Seewasserwärmepumpe ist. Für den Heizbetrieb wurde eine geringfügig höhere Jahresarbeitszahl bei der Erdwärmepumpe festgestellt. Dafür ist die Seewasserwärmepumpe robuster hinsichtlich der Effizienz und zuverlässiger bezüglich der Wärmebedarfsdeckung von Heizwärme- und Brauchwarmwasserbedarf.
Die Gewinnung von motivierten und qualifizierten Mitarbeitenden stellt aufgrund verschiedenster aktueller Einflussfaktoren wie demografische Veränderungen oder der Fachkräftemangel eine große Herausforderung für das Recruiting dar. Eine umso wichtigere Rolle spielt daher die Bindung des Personals ans Unternehmen. Die interne Rekrutierung bietet in diesem Zusammenhang eine Möglichkeit, die im Unternehmen bereits vorhandenen Ressourcen zu nutzen, wobei sich im Vergleich zur externen Personalbeschaffung Chancen wie auch Risiken ergeben. Es haben sich kritische Erfolgsfaktoren gezeigt, die erkannt und in weiterer Folge berücksichtigt werden sollten. Diese sind für das Vorgehen beim internen Recruiting von Bedeutung, um möglichst das volle Potenzial ausschöpfen zu können. Im Rahmen dieser Masterarbeit wurde eine ausführliche Literaturrecherche durchgeführt, sodass in weiterer Folge eine Forschungsfrage abgeleitet werden konnte. Es wurden sieben Interviews mit ausgewählten HR-Expertinnen und HR-Experten geführt, die in Unternehmen arbeiten, die der Vorarlberger Industrie zugehörig sind. Anschließend wurden die Interviews nach der qualitativen Inhaltsanalyse ausgewertet. Im Zuge der Diskussion wurden die Interviewergebnisse der Literaturrecherche gegenübergestellt, wobei die Forschungsfrage beantwortet werden konnte. Schlussendlich wurden Handlungsimplikationen für das interne Recruiting abgleitet. Die Forschungsergebnisse deuten darauf hin, dass es im Hinblick auf die interne Rekrutierung verschiedene Erfolgsfaktoren gibt, die Unternehmen für das eigene Vorgehen berücksichtigen können. Dazu zählen beispielsweise die Bedeutung der Kommunikation während des gesamten Prozesses – Kündigungsfristen und Übergabeprozesse sollten ausreichend besprochen und umfassend geplant werden. Zudem ist es hilfreich, interne Absagen mit Bedacht auszusprechen und sachliche Gründe aufzuzeigen. Auch die involvierten Führungskräfte spielen im gesamten internen Personalbeschaffungsprozess eine bedeutende Rolle. Darüber hinaus haben sich weitere Aspekte gezeigt, die für das Vorgehen beim internen Recruiting von Bedeutung sind.
Die Masterarbeit befasst sich mit der Neugestaltung öffentlicher Räume. Anhand einer qualita-tiven Studie wird die Parkanlage Superkilen, Kopenhagen untersucht. Es wird die Frage nachgegangen, ob Superkilen aus der Perspektive der postmigrantischen Gesellschaft und der Sozialraumarbeit als ein gelungenes Beispiel gilt. Als Datengrundlage der Analyse dienen ein systematisches Review und eine teilnehmende Beobachtung. Die Analyse erfolgt anhand einer qualitativen Inhaltsanalyse. Die induktiv herausgearbeiteten Codes werden anhand des St. Galler Modells dargelegt. Die Ergebnisse zeigen, dass die Grundidee der Gestalter:innen, nämlich die Vielfalt des Viertels durch konkrete internationale Objekte darzustellen, nicht mit der Lebenswelt der Bewohner:innen übereinstimmte. Unterschiedliche Grundverständnisse in Bezug auf Kultur und Diversity wurden hierbei erkannt. Gleichzeitig zeigen sich spielerische Designelemente als besonders förderliche Faktoren für alltägliche Begegnungen in Superkilen und Aneignungen finden statt. Die interkulturelle Soziale Arbeit kann mit ihrer Differenzsensi-bilität und ihrem Fokus auf die unmittelbare Lebenswelt von Menschen als Profession und Disziplin zur Bearbeitung dieser Thematik beitragen.
Die Umsetzung von Konzepten der Industrial Internet of Things (IIoT) stellt Unternehmen vor große Herausforderungen. Ein Kernaspekt dabei ist das Vernetzen maschineller und menschlicher Akteure, sodass sich diese gegenseitig verstehen und dadurch sinnvolle Entscheidun-gen treffen können. Dieses Verstehen setzt eine semantische Interoperabilität der Akteure voraus, die meist mithilfe von Ontologien und Ontologie Matching ermöglicht werden soll. Ziel dieser Arbeit ist es, die Grundkonzepte zum Ermöglichen semantischer Interoperabilität zusammenzufassen und aktuelle Anwendungsbeispiele und Herangehensweisen zu besprechen, um darauf aufbauend bestimmen zu können, wie weit Forschung und Unternehmen noch von der Umsetzung der semantischen Interoperabilität im Kontext der IIoT entfernt sind. Dazu wurde ein theoretisch-konzeptionelles Vorgehen gewählt. Die Ergebnisse der vorliegenden Arbeit weisen darauf hin, dass in naher Zukunft nicht mit einer erfolgreichen Umset-zung zu rechnen ist, welche generisch genug ist, in unterschiedlichen Bereichen der IIoT eingesetzt zu werden. Dafür konnte gezeigt werden, dass sich mehrere, mitunter gegenseitig beeinflussende Trends in der Herangehensweise zur Lösung der semantischen Interoperabilität ausgebildet haben, nämlich hybride Alignmentarchitekturen, ein modularer Aufbau von Ontologien, das Erstellen von maschinenlesbaren Standards und dazu gehörenden Ontologien sowie ein Trend zur Verwendung von Wissensgraph Embeddings. Besonders der letzte Trend ist dabei kritisch zu betrachten. Darüber hinaus konnten in dieser Arbeit offene Problemfelder bestimmt werden, die aus derzeitiger Sicht einer erfolgreichen Umsetzung semantischer Interoperabilität entgegenstehen. Dies betrifft einerseits das Fehlen einer Harmonisierung von IIoT-Standards und andererseits den Mangel an Alignmentdatenbanken und Benchmarks für Ontologie Alignments im Bereich der IIoT. Darüber hinaus bedarf es eines abgestimmten, strategischen Vorgehens der derzeit laufenden und zukünftigen Initiativen, um vorhandene Erkenntnisse besser zu nutzen und um sich wiederholende Probleme nachhaltig zu lösen.
Der stationäre Handel ist von zunehmenden Unsicherheiten gekennzeichnet, wobei die wachsende Verlagerung des Einkaufs auf die digitalen Vertriebskanäle dabei eine zentrale Rolle spielt. Jenen Entwicklungen kann mitunter mit der Einführung eines Omnichannel-Geschäftsmodells entgegengewirkt werden, wodurch der Fortbestand der stationären Geschäfte unterstützt werden kann. Für die Omnichannel-Etablierung ist eine Umstrukturierung des Handels essenziell, vielfach hängt dies mit einer Neuausrichtung der Geschäftsarchitektur zusammen. In diesem Kontext werden die relevanten Geschäftsprozesse in Frage gestellt und gegebenenfalls neu definiert. Das Hauptziel dieser Arbeit war es daher, auf Basis einer theoretisch-konzeptionellen Methodik herauszufinden, wie der stationäre Handel durch die Ausrichtung der Geschäftsprozesse an einem Omnichannel-Geschäftsmodell langfristig und nachhaltig optimiert werden kann. Anhand der Ergebnisse konnte ein Leitfaden entwickelt werden, welcher sich an EinzelhändlerInnen richtet und bei der Omnichannel-Transformation Unterstützung gewährleisten soll. Aus den durchgeführten Analysen wurden schließlich dezidierte Fokuspunkte abgeleitet, denen in der Transformationsphase besondere Aufmerksamkeit zu schenken gilt. Hierzu zählt nicht nur die IT-Landschaft und die Datenanalytik, sondern auch die Organisation samt den involvierten Personen und den entsprechenden Kompetenzen. Die Berücksichtigung aller Aspekte kann die Chancen einer erfolgreichen Omnichannel-Integrierung erhöhen, aber aufgrund der Komplexität nicht garantieren.
Minuten können in medizinischen Notfällen unmittelbar die Anwendbarkeit von Behandlungsmethoden, das Ausmaß von bleibenden Einschränkungen sowie die Überlebenschancen beeinflussen. Doch hat das präklinische Notfallmanagement heute mit steigenden Einsatzzahlen, zunehmenden Einsätzen ohne Dringlichkeit und dem demografischen Wandel bei gleichzeitigem Fachkräftemangel zu kämpfen. Entsprechend gewinnt das Prozessmanagement zur Gestaltung effizienter Rettungsketten an Bedeutung. Vor diesem Hintergrund ging die vorliegende Arbeit der Frage nach, welche Potentiale die Datenanalytik in vernetzten Rettungsketten für das Prozessmanagement hat, um wertvolle Zeit zu gewinnen. Zudem wurden die Herausforderungen der Datenanalytik in diesem Bereich betrachtet. Zur Beantwortung der Forschungsfrage wurde dabei eine theoretisch-konzeptionelle Vorgehensweise gewählt. Die Untersuchung zeigte, dass die Potentiale der Datenanalytik in diesem Kontext in der Entscheidungsunterstützung zur Standortwahl, zur Kapazitätsplanung und in der Abwicklung von Notfällen liegen. Zudem könnte diese bei der Prozessanalyse, sowie der Prävention und Vermeidung von Einsätzen unterstützen. Dahingegen liegen die Herausforderungen in der Notwendigkeit einer übergeordneten Strategie, der hinreichenden Datenqualität und Verfügbarkeit der Daten. Darüber hinaus bestehen Herausforderungen im Bereich der IT-Sicherheit und des Datenschutzes, sowie der oft fehlenden Vernetzung. Zusammenfassend wären die Potentiale der Datenanalytik zur Optimierung der Zeit in Rettungsketten vielversprechend, jedoch stehen dem Einsatz dieser aktuell noch eine Vielzahl an Herausforderungen gegenüber.
In den letzten Jahren wurde den technischen Aspekten der Datenanalyse viel Aufmerksamkeit gewidmet, den organisatorischen Implikationen jedoch nur wenig, was dazu geführt hat, dass eine Reihe von Unternehmen nicht in der Lage war, den vollen Nutzen aus ihren Data Analytics-Investitionen zu ziehen was u.a. dazu führte das die Potenziale von Data Analytics nicht vollständig ausgeschöpft wurden. Ziel dieser Arbeit ist es, die organisatorischen Herausforderungen aus der Sicht des Managements, der Kultur und der Organisation zu beleuchten und unter der theoretischen Orientierung des „Dynamic Capability View“ die Haupttreiber für die organisatorische Verankerung von Data Analytics zu beleuchten, um die Potenziale der evidenzbasierten Entscheidungsfindung in einer datengetriebenen Organisation voll auszuschöpfen. Die Literaturarbeit zu Data Analytics und ihren organisatorischen Auswirkungen, die auf der Grundlage einer theoretisch-konzeptionellen Forschungsarbeit durchgeführt wurde, zeigt, dass es in diesem Kontext eine Vielzahl von Parametern gibt, die sich gegenseitig beeinflussen. Diese Studie hat gezeigt, dass Unternehmen einen ganzheitlichen Ansatz verfolgen müssen, um die Vorteile der modernen Data-Analytics-Methoden voll ausschöpfen zu können. Die Ergebnisse deuten darauf hin, dass die Hauptantriebskräfte für Datenanalysefähigkeiten gut ausgebildete Manager mit einem ausgeprägten analytischen Verständnis sind, die von klar definierten evidenzbasierten Prozessen geleitet werden, welche in einer hoch kultivierten datengetriebenen Kultur eingebettet sind. Dies ist die Grundlage für Wettbewerbsvorteile in hochdynamischen Umgebungen und führt in weiterer Folge zu einem höheren Niveau der Wertschöpfung.
This thesis focuses on implementing and testing communication over a private 5G standalone network in an industrial environment, with a specific emphasis on communication between two articulated robots. The main objective is to examine machine-to-machine communication behavior in various test scenarios. Initially, the 5G core and radio access network components are described, along with their associated interfaces, to establish foundational knowledge. Subsequently, a use case involving two articulated robots is implemented, and essential metrics are defined for testing, including round-trip time, packet and inter-packet delay, and packet error rate. The tests investigate the impact of 5G quality of service, packet size, and transmission interval on communication between the robots, focusing on the effects of network traffic. The results highlight the significance of prioritizing network resources based on the assigned quality of service identifier (5QI), demonstrate the influence of packet sizes on communication performance, and underscore the importance of transmission intervals for automation purposes. Additionally, the study examines how network disturbances influence the movements of a robot controlled via 5G, establishing a direct relationship between network metrics and the resulting deviations in the robot’s trajectory. The work concludes that while machine-to-machine communication can be successfully implemented with 5G SA, tradeoffs must be carefully considered, especially concerning packet error rate, and emphasizes the importance of understanding the required resources before implementation to ensure feasibility. Future research directions include investigating network slicing, secure remote control of robots, and exploring the use of higher frequency bands. The study highlights the significance of aligning theoretical standards with practical implementation options in the evolving landscape of 5G Networks.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.
New Work 2025–2030
(2023)
Unternehmen stehen vor der Herausforderung, durch passende Arbeitsbedingungen die bestehenden Mitarbeitenden zu binden und neue Talente zu finden. Eine mögliche Lösung für diese Herausforderungen kann ‚New Work‘ sein. Es ist notwendig zu verstehen, was New Work für die Region Vorarlberg bedeutet und was bei der Konzeption von neuen Arbeitsbe-dingungen zu berücksichtigen ist. Das Ziel der vorliegenden Arbeit ist es, eine Antwort auf die Frage zu finden, was New Work für die Region Vorarlberg in den Jahren 2025–2030 bedeutet und eine entsprechende Standortbestimmung durchzuführen. Dazu wird die folgende Forschungsfrage vertieft untersucht: ‚Was bedeutet New Work für die Region Vorarlberg in den Jahren 2025–2030?‘ Die Vertiefung dieser Fragestellung erfolgt über weitere Unterfragen. Um Antworten auf die Forschungsfrage zu erhalten, wurde ein Mixed-Methods-Ansatz gewählt. Für eine Standortbestimmung zum Thema ‚New Work‘ in Vorarlberg wurden im ersten Schritt Befragungen zweier Fokusgruppen, als qualitativer Teil der Forschung, durchgeführt. Die Ergebnisse dieser Befragung wurden ausgewertet. Aus den Ergebnissen und dem theoretischen Input wurden Hypothesen sowie ein Fragebogen zur quantitativen Untersuchung erstellt. Die qualitative Forschung ist die Grundlage für die anschließende quantitative Untersuchung. Durch diese Vorgehensweise sind sowohl eine Vertiefung und eine Ergänzung der qualitativen als auch der quantitativen Daten möglich. Die Ergebnisse zeigen, dass New Work ein generationenübergreifendes Thema ist. Es gibt keine nennenswerten Unterschiede zwischen den Generationen. Jedoch gibt es Unterschiede zwischen jüngeren und älteren Personen bezüglich der unterschiedlichen New-Work-Methoden. Die Antworten zeigen auf, dass es vor allem zwischen Frauen und Männern Unterschiede in den Vorstellungen der Arbeitsbedingungen gibt. Frauen legen vor allem Wert auf Flexibilität, psychologisches Empowerment und motivationale Faktoren. Weiterführende Forschung im Bereich ‚New Work‘ könnte sich mit den Unterschieden zwischen Frauen und Männern befassen und was die passenden Rahmenbedingungen sind, um die Leistung und Motivation dieser beiden Personengruppen zu steigern.
Projekte zeichnen sich aus durch ihre Einmaligkeit und Offenheit. Unternehmen sind bestrebt ihre Projekte zum positiven Abschluss zu bringen. In dieser Ausarbeitung wird die Rolle der Verhaltensökonomie im Projektmanagement beleuchtet. Dabei wird der Fokus auf die Projektplanung und insbesondere auf die Aufwandsschätzung gelegt. Der theoretische Rahmen bildet ein solides Verständnis von Verhaltensökonomie und Projektmanagement. Mittels systematischer Literaturrecherche für den Zeitraum von 2017 bis 2023 werden die gängigsten kognitiven Verzerrungen ergründet, die in Projekten, insbesondere bei Aufwandsschätzungen häufig auftreten. Die häufigste kognitive Verzerrung ist der Optimism Bias, gefolgt vom Escalation of Commitment, Strategic Misrepresentation bis hin zur Planning Fallacy und dem Endownment Effect. Das Ergebnis dieser Ausarbeitung zeigt, dass kognitive Verzerrungen den Projekterfolg maßgeblich beeinflussen können.
In an oversaturated market, companies are required to use innovative and, above all, creative advertising methods to capture their customers’ attention, and thus differentiate themselves from rival businesses. To this end, companies have been increasingly relying on the use of humor, a phenomenon that remains highly subjective and is perceived differently by each individual. This master’s thesis, which was completed as part of the International Marketing and Sales program at the FH Vorarlberg, focuses on this phenomenon of humor as well as its impact on advertising perception. With the aid of three different theories, the term “humor” is defined. Furthermore, this study explains and researches the so-called vampire effect, wherein various factors (in this case humor) draw attention away from the actual advertising message. In addition, this thesis takes a closer look at involvement, as a person’s involvement or interest in a brand or product can influence brand and product recall and recognition. An online survey was conducted to determine whether the vampire effect caused by humor is able to influence brand and product recall. In other words, this concerns whether the viewer can still remember the brand and product afterward or whether the humor employed triggers the vampire effect. Furthermore, this thesis explored whether the vampire effect caused by humor is able to influence brand and product recognition. Recall is the retrieval of information from memory without direct cues, whereas recognition refers to the recognition of information when it is presented again. Furthermore, within this context, it was discovered that brand and product recall varies with low and high involvement viewers of the advertisement. In other words, this means that the strength of the vampire effect caused by humor changes depending on the strength of the viewer’s involvement. During the course of this research, it was further observed that the humor employed significantly affects the perception of the advertising message, thus confirming the existence of the vampire effect. This effect also influences both brand as well as product recall and recognition. In both cases, participants in the survey were less able to remember the product and brand in the humorous advertising. Furthermore, it was proven that people with low involvement in the advertised product group are more heavily affected by the vampire effect. As such, they are more likely to not remember the product or brand after seeing the advertisement.
Diese vorliegende Masterarbeit untersucht die Herausforderungen, vor denen kleine und mittlere Unternehmen (KMUs) stehen, um den künftigen ESG-Anforderungen (Umwelt, Soziales, Governance) von Banken bei der Kreditvergabe gerecht zu werden. Anhand einer umfassen-den Literaturanalyse sowie einer qualitativen Inhaltsanalyse mittels Experteninterviews werden verschiedene Aspekte beleuchtet, darunter bankenregulatorische Vorschriften, Auswirkungen der ESG-Implementierung auf Kreditkonditionen und Kreditwürdigkeit, Vorbereitungsstrategien für KMUs und abgeleitete Handlungsempfehlungen. Die Ergebnisse zeigen, dass eine Integration von ESG-Kriterien in den Kreditprüfungsprozess eine ganzheitlichere Bewertung der Rückzahlungsfähigkeit ermöglicht und positive Auswirkungen auf die Kreditwürdigkeit haben kann. Jedoch sind die praktischen Auswirkungen auf Kreditkonditionen und -entscheidungen noch begrenzt und erfordern weitere Untersuchungen. Die Arbeit verdeutlicht auch die Bedeutung von ESG-Kompetenzen, Datenmanagement und einer Anpassung der Geschäftsmodelle von KMUs, um den ESG-Anforderungen gerecht zu werden. Die Ergebnisse bieten wertvolle Erkenntnisse für KMUs, um proaktiv ESG-Aspekte zu berücksichtigen und zu managen.
Alleviating the curse of dimensionality in minkowski sum approximations of storage flexibility
(2023)
Many real-world applications require the joint optimization of a large number of flexible devices over some time horizon. The flexibility of multiple batteries, thermostatically controlled loads, or electric vehicles, e.g., can be used to support grid operations and to reduce operation costs. Using piecewise constant power values, the flexibility of each device over d time periods can be described as a polytopic subset in power space. The aggregated flexibility is given by the Minkowski sum of these polytopes. As the computation of Minkowski sums is in general demanding, several approximations have been proposed in the literature. Yet, their application potential is often objective-dependent and limited by the curse of dimensionality. In this paper, we show that up to 2d vertices of each polytope can be computed efficiently and that the convex hull of their sums provides a computationally efficient inner approximation of the Minkowski sum. Via an extensive simulation study, we illustrate that our approach outperforms ten state-of-the-art inner approximations in terms of computational complexity and accuracy for different objectives. Moreover, we propose an efficient disaggregation method applicable to any vertex-based approximation. The proposed methods provide an efficient means to aggregate and to disaggregate typical battery storages in quarter-hourly periods over an entire day with reasonable accuracy for aggregated cost and for peak power optimization.
Whether at the intramolecular or cellular scale in organisms, cell-cell adhesion adapt to external mechanical cues arising from the static environment of cells and from dynamic interactions between neighboring cells. Cell-cell adhesions need to resist detachment forces to secure the integrity and internal organization of organisms. In the past, various techniques have been developed to characterize adhesion properties of molecules and cells in vitro, and to understand how cells sense and probe their environment. Atomic force microscopy and dual-pipette aspiration, where cells are mainly present in suspension, are common methods for studying detachment forces of cell-cell adhesions. How cell-cell adhesion forces are developed for adherent and environment-adapted cells, however, is less clear. Here, we designed the Cell-Cell Separation Device (CC-SD), a microstructured substrate that measures both intercellular forces and external stresses of cells towards the matrix. The design is based on micropillar arrays originally designed for cell traction-force measurements. We designed PDMS micropillar-blocks, to which cells could adhere and be able to connect to each other across the gap. Controlled stretching of the whole substrate changed the distance between blocks and increased gap size. That allowed us to apply strains to cell-cell contacts, eventually leading to cell-cell adhesion detachment, which was measured by pillar deflections. The CC-SD provided an increase of the gap between the blocks of up to 2.4-fold, which was sufficient to separate substrate-attached cells with fully developed F-actin network. Simultaneously measured pillar deflections allowed us to address cellular response to the intercellular strain applied. The CC-SD thus opens up possibilities for the analysis of intercellular force detachments and sheds light on the robustness of cell-cell adhesions in dynamic processes in tissue development.
Open tracing tools
(2023)
Background: Coping with the rapid growing complexity in contemporary software architecture, tracing has become an increasingly critical practice and been adopted widely by software engineers. By adopting tracing tools, practitioners are able to monitor, debug, and optimize distributed software architectures easily. However, with excessive number of valid candidates, researchers and practitioners have a hard time finding and selecting the suitable tracing tools by systematically considering their features and advantages. Objective: To such a purpose, this paper aims to provide an overview of popular Open tracing tools via comparison. Methods: Herein, we first identified 30 tools in an objective, systematic, and reproducible manner adopting the Systematic Multivocal Literature Review protocol. Then, we characterized each tool looking at the 1) measured features, 2) popularity both in peer-reviewed literature and online media, and 3) benefits and issues. We used topic modeling and sentiment analysis to extract and summarize the benefits and issues. Specially, we adopted ChatGPT to support the topic interpretation. Results: As a result, this paper presents a systematic comparison amongst the selected tracing tools in terms of their features, popularity, benefits and issues. Conclusion: The result mainly shows that each tracing tool provides a unique combination of features with also different pros and cons. The contribution of this paper is to provide the practitioners better understanding of the tracing tools facilitating their adoption.
Das Forschungsprojekt Data Sharing Framework untersuchte Data Sharing im Kontext von datenbasierten Services und Produkten in Ökosystemen aus fünf Perspektiven: Kultur, Vertrauen, Wert, Recht & Governance, Sicherheit. Die Forschungsergebnisse bestätigen die Relevanz dieser Perspektiven und es hat sich gezeigt, dass diese Aspekte sowohl Barrieren als auch Treiber für Datennutzung und -austausch zwi- schen Unternehmen darstellen.
Ausgangspunkt waren die folgenden forschungs- und praxisleitenden Annahmen:
• These 1: KMU können durch die Nutzung und das
Teilen von Daten Mehrwerte in Form neuer Produkte und Services generieren. Aus wissenschaftlicher Sicht liegt der Fokus des Themas Daten und Data Science bisher überwiegend auf der technischen Umsetzung datenintensiver Geschäftsmodelle und Kooperationen durch die Unternehmen.
• These 2: Die technische Umsetzung ist eine notwendige Bedingung für die datenbasierte Leistun- gen, sie reicht jedoch nicht aus, um eine Kooperations- und Teilbereitschaft bei KMU hinsichtlich ihrer Daten (Daten-Teilbereitschaft) auszulösen. Zahlreiche Stakeholder zögern, Daten zu teilen, vor allem in einem grenzüberschreitenden Kontext, wie z.B. in der Programmregion.
• These 3: KMU benötigen Data Access und Data Trust Strukturen, um mögliche Kooperationspotenziale tatsächlich zu heben. Dies erfordert u.a. gemeinsa- me Standards, ein annäherndes Verständnis vom Wert der Daten, Data-Governance in Kombination mit zu definierenden Trust-Standards, welche die erforderliche formelle und informelle Sicherheit bieten.
Nachfolgend wird ein Überblick über die hieraus hervorgegangenen Ergebnisse gegeben:
Kultur
Die Perspektive der Organisationskultur stellt das Denken und Handeln im Unternehmen und im Ökosystem in den Mittelpunkt. Eine Organisationskultur, welche die Arbeit mit Daten, Data Science Praktiken und vor allem das Teilen von Daten ermöglicht, stellt Daten in den Mittelpunkt des Wertschöpfungsprozesses. Dies erfordert eine generelle Sensibilisierung
für das Thema Daten, durchlässige Grenzen im und zwischen Unternehmen, ebenso wie ein neues Verständnis von Rollen, Strukturen und Prozessen im Unternehmen.
Vertrauen
Das Vertrauen ist im Ökosystem von großer Bedeutung. Das Einbeziehen von internen Stakeholdern und das Starten mit kleineren Pilotprojekten wird vorgeschlagen, um Vertrauen innerhalb der Organisation und mit externen Partnern zu schaffen.
Wert
Als notwendige Voraussetzung wird der Wert der Daten hervorgehoben. Unternehmen sollten den potenziellen Wert der Datenflüsse kennen, bevor sie sich entscheiden, ob sie diese Daten teilen und nutzen möchten. Es wird empfohlen, eine grobe Quanti- fizierung des Wertflusses vorzunehmen oder gegebe- nenfalls eine detailliertere Analyse durchzuführen.
Recht & Governance
Für die Berücksichtigung rechtlicher Rahmenbedingungen gemeinsamer Datennutzung sollten Organisationen zunächst eine interne Data Governance etablieren, um auf neue regulatorische Entwicklungen reagieren zu können. Die Einrichtung von Data-Asset-Management, Data-IP und -Compliance-Ma-nagement und Data-Contract-Management wird hier empfohlen.
Datensicherheit
Im Sicherheitskontext sind Methoden zur Gewährleistung der Datenintegrität, Privatsphäre und Sicherheit entscheidend. Es wird empfohlen, einen kollaborativen Ansatz zur Implementierung von Sicherheitsstandards zu verfolgen und dabei IKT-Experten einzubeziehen. Anfänglich können Best Practices ausreichen, aber längerfristig sollte eine kontinuierliche Sicherheitsrisikobewertung und Ge- schäftsprozessintegration angestrebt werden.
Creating a schedule to perform certain actions in a realworld environment typically involves multiple types of uncertainties. To create a plan which is robust towards uncertainties, it must stay flexible while attempting to be reliable and as close to optimal as possible. A plan is reliable if an adjustment to accommodate for a new requirement causes only a few disruptions. The system needs to be able to adapt to the schedule if unforeseen circumstances make planned actions impossible, or if an unlikely event would enable the system to follow a better path. To handle uncertainties, the used methods need to be dynamic and adaptive. The planning algorithms must be able to re-schedule planned actions and need to adapt the previously created plan to accommodate new requirements without causing critical disruptions to other required actions.
Coupling is one of the most frequently mentioned metric in software systems. However, to measure logical coupling between microservices, runtime information is needed or the availability of service-log files to analyze the calls between services is required. This work presents our emerging results, in which we propose a metric to statically calculate logical coupling between microservices based on commits to versioning systems. We performed an initial validation of the proposed metric with a dataset containing 145 open-source microservices projects. The results illustrate how logical coupling affects every system and increases overtime. However, we did not find a correlation between the number of commits or the number of developers and the introduction of logical coupling. In future, we investigate why, how, and when logical coupling is introduced in a system.
This paper presents design, simulation, and optimization of the three-dimensional 1×4 optical multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding. The splitter was simulated by using beam propagation method in BeamPROP simulation engine of RSoft photonic tool and optimized for an operating wavelength of 1.55 µm. According to the minimum insertion loss, the dimensions of the MMI coupler and the length of the whole MMI splitter structure were optimized applying a waveguide with a core size of 4×4 µm2. The objective of the study is to create a design for fabrication by three-dimensional direct laser writing optical lithography.
Design, simulation, and optimization of the 1×4 optical three-dimensional multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding is demonstrated. The splitter was simulated by using beam propagation method in BeamPROP simulation module of RSoft photonic tool and optimized for an operating wavelength of 1.55 μm . According to the minimum insertion loss, the dimensions of the splitter were optimized for a waveguide with a core size of 4×4 μm2 . The objective of the study is to create the design for fabrication by three-dimensional direct laser writing optical lithography.
The role of entrepreneurs and intrapreneurs in the current zeitgeist is to drive innovation, re-shape rigid, established processes in business as well as for consumers. They use new viewpoints to pioneer new (business) models which focus on ‘smartness’ rather than the purely monetary and short-sighted models of yesteryear. Fostering and supporting the culture of this current zeitgeist is a mayor challenge for entre- and intrapreneurial support infrastructures, namely startup centres and innovation hubs of universities and other public institutions as well as innovation centres of private companies. Hereby, support may range from access to funding over provision of resources such as offices or computing hardware to coaching in the development of business ideas and strategic roadmaps for product and service deployment. In this paper, we focus on describing the status-quo of afore- mentioned support infrastructures in Vorarlberg and the Lake Constance region, then extend the scope to existing (international) approaches for aiding founders and inno- vators in the development of smart services. An analysis of success stories of the Vorarlberg startup centre ‘startupstube’ and other initiatives including their compar- ison to international counterparts builds the basis for a methodological framework for (service science) coaching in entre- and intrapreneurial support infrastructures. The paper is concluded by the description of a framework for choosing the right methods and tools to create service value in entre-/intrapreneurship based upon tested, proven know-how and for defining support infrastructure needs based upon pre-defined stakeholder and target groups as well as the (industry) sectors of the innovators.
International Entrepreneurship explains the opportunities and challenges facing internationalizing entrepreneurial ventures. The book inlcudes a thorough discussion of fundamentals as well as contemporary research findings. Numerous cases, featuring diverse contexts, illustrate theory and help classroom use.
Redundanz und Varietät
(2023)
Ausrechnen oder aushandeln?
(2023)
Vast amounts of oily wastewater are byproducts of the petrochemical and the shipping industry and to this day frequently discharged into water bodies either without or after insufficient treatment. To alleviate the resulting pollution, water treatment processes are in great demand. Bubble column humidifiers (BCHs) as part of humidification–dehumidification systems are predestined for such a task, since they are insensitive to different feed liquids, simple in design and have low maintenance requirements. While humidification in a bubble column has been investigated plentiful for desalination, a systematic investigation of oily wastewater treatment is missing in literature. We filled this gap by analyzing the treatment of an oil–water emulsion experimentally to derive recommendations for future design and operation of BCHs. Our humidity measurements indicate that the air stream is always saturated after humidification for a liquid height of only 10 cm. A residual water mass fraction of 3.5 wt% is measured after a batch run of six hours. Furthermore, continuous measurements show that an increase in oil mass fraction leads to a decrease in system productivity especially for high oil mass fractions. This decrease is caused by the heterogeneity of the liquid temperature profile. A lower liquid height mitigates this heterogeneity, therefore decreasing the heat demand and improving the overall efficiency. The oil content of the produced condensate is below 15 ppm, allowing discharge into various water bodies. The results of our systematic investigation prove suitability and indicate a strong future potential for the use of BCHs in oily wastewater treatment.
Purpose – The purpose of this study is to explore the exogenous and endogenous drivers of the high-growth of Unicorn start-ups along their life cycle, with a particular focus on Unicorns in the fintech industry.
Design/methodology/approach – The study employs an explorative longitudinal analysis with a matched pair of two cases of Unicorns start-ups with similar antecedent features to understand holistically drivers over the longer term.
Findings – High-growth patterns over the longer term are the result of a combined industry- and company-life cycle perspective. Drivers and growth patterns vary significantly according to the time of entry in the industry and
its development status. The findings are systematised within a set of propositions to be tested in future research.
Research limitations/implications – The limitations lie in empirical evidence, as the analysis is limited to one matched-pair. The revealed Unicorns’ drivers for long-term growth might encourage future research to further investigate these drivers on a larger scale.
Practical implications – The study offers practical recommendations for start-ups with high-growth ambitions and advice to policy makers regarding the development of tailor-made support programs.
Originality/value – The study significantly extends extant work on growth and high-growth by examining endogenous and exogenous triggers over time and by linking the Unicorn-life cycle to the industry life cycle, an approach which has, to the best of the authors’ knowledge, not yet been applied.
Digital twin as enabler of business model innovation for infrastructure construction projects
(2023)
Emerging technologies and methods are becoming an important element of the construction industry. Digital Twins are used as a base to store data in BIM models and make use out of the data respectively make the data visible. The transparency in all phases of the lifecycle of building and infrastructure assets is crucial in order to get a more efficient lifecycle of planning, construction and maintenance. Whereas other industries increased performance in these phases by making use out of the data, construction industry is stuck in traditional methods and business models. In this paper we propose a concept that focuses on the digital production twin. The comparison of planning data with As-Is production data can empower a data driven continuous improvement process and support the decision making process of future innovations and suitable business models. This paper outlines the possibility to use the data stored in a digital twin with regards to the evaluation of possible business models.
We present design of planar 16-channel, 100-GHz multi-mode polymer-based AWG. This AWG was designed for central wavelength of 1550 nm applying AWG-Parameters tool. The AWG structure was created and simulated in the commercial photonic tool PHASAR from Optiwave. Achieved transmission characteristics were evaluated by AWG-Analyzer tool. For the design, multi-mode waveguides having a cross-section of (4x4) µm2 were used. The simulated results show strong worsening of the transmission characteristics in comparison when using single-mode waveguides. Nevertheless, the transmitting channels are clearly separated. The reason for using thicker multi-mode waveguides in the design is possibility to fabricate the AWG structure on polymer basis using direct laser writing lithography.
Statistische Methodenkompetenz wird im Controlling zunehmend bedeutender, so ist die evidenzbasierte Prognose durch algorithmische Analyse von Datenbeständen ein Schwerpunkt von Controlling Analytics. Die Fallstudie durchleuchtet daher anhand von Datenmaterial des Schweizer Bundesamts für Statistik das Vorgehen bei einer Datenanalyse, insbesondere beim Einsatz der Zeitregression für Prognosezwecke, und geht dabei auf methodische Besonderheiten, Caveats und Einsatzmöglichkeiten in Microsoft Excel ein. Die Fallbeschreibung und Aufgaben sind im WiSt-Heft Nr. 4/23 zu finden.
Digitalization is changing business models and operational processes. At the same time, improved data availability and powerful analytical methods are influencing controlling and increasingly require the use of statistical and information technology skills and knowledge. Using a case study from marketing controlling, the article shows the use of business analytics methods and addresses the tasks of controlling in the digital age.
Optoelectronic system based on photonic integrated circuits to miniaturize spectral domain OCT
(2023)
We present a miniaturized optical coherence tomography (OCT) setup based on photonic integrated circuits (PIC) for the 850 nm range. We designed a 512-channel arrayed waveguide grating (AWG) on a PIC for spectral domain OCT (SD-OCT) that is co-integrated with PIN-photodiodes and analog-to-digital-converters on one single chip. This image sensor is combined with all the necessary electronics to act as a camera. It is integrated into a fiber-based OCT system, achieving a sensitivity of >80dB and various samples are imaged. This optoelectronic system will allow building small and cost-effective OCT systems to monitor retinal diseases.
Der vorliegende Beitrag stellt das Konzept eines Flipped Classroom-Ansatzes für die Lehrveranstaltung „Grundlagen der Wirtschaft und finanziellen Unternehmensführung“ im Masterstudiengang Wirtschaftsinformatik der Fachhochschule Vorarlberg vor. Es werden die Rahmenbedingungen der Lehrveranstaltung erläutert und die didaktischen Überlegungen sowie Zielsetzungen diskutiert. Besonderes Augenmerk wird auf die Vorteile des Blended Learning sowie die Bedeutung von Feedback gelegt. Anschließend werden die Inhalte, der Aufbau sowie die verwendeten Materialien und Tools beschrieben. Es wird gesondert auf den Feedbackprozess eingegangen. Abschließend erfolgt eine Bewertung des Lehrveranstaltungskonzepts anhand der Dimensionen technischer Ablauf, Engagement der Studierenden, Klausurerfolg und Lehrveranstaltungsevaluation. Auf dieser Basis werden mögliche Verbesserungen für die Zukunft abgeleitet. Insgesamt wird deutlich, dass der Flipped Classroom-Ansatz eine effektive Methode ist, die mit Standardtools umgesetzt werden kann und die den Lernerfolg und die Zufriedenheit der Studierenden fördert.
The main aims of this work are the validation of the developed process of gluing a single-mode optical fiber array with a photonic chip and the selection of a more suitable adhesive from the two adhesives being compared. An active alignment system was used for adjusting the two optical fiber arrays to a photonics chip. The gluing was done by two compared UV curable adhesives applied in the optical path. The insertion losses of glued coupling were measured and investigated at two discrete wavelengths 1310 nm and 1550 nm during temperature testing in the climatic chamber according to Telcordia GR_1209_Corei04 [3]. The measurement, investigation, and comparison of insertion losses of the glued coupling at the spectral band from 1530 nm to 1570 nm were done immediately after gluing process and after three temperature cycles in the climatic chamber with one month delay.
In this paper, a 256-channel, 10-GHz arrayed waveguide gratings demultiplexer for ultra-dense wavelength division multiplexing was designed using an in-house developed tool called AWG-Parameters. The AWG demultiplexer was designed for a central wavelength of 1550 nm and the structure was simulated in PHASAR tool from Optiwave. Two different AWG designs were developed and the influence of the design parameters on the AWG performance was studied.
Das Kreisgespräch
(2023)
In Bewegung kommen
(2023)
Das Modellprojekt „Caritas Care – Betreuung zuhause“ wurde 2012 in einer Kooperation der Caritas Schweiz und der Caritas Alba Iulia (Transsylvanien/Rumänien) ins Leben gerufen. Damit sollte ein Modell geschaffen werden, welches einerseits dem wachsenden Markt der „Betreuung zuhause“ in der Schweiz entgegenkommt, aber andererseits fairere Arbeitsbedingungen für die Betreuungspersonen vorsieht. Fairness sollte durch einen Versicherungsschutz der Arbeitskräfte, Weiterbildungsmöglichkeiten und ein Entgelt, das mit anderen Arbeitsverhältnissen vergleichbar ist, sowie dank klar abgegrenzter Arbeits-, Präsenz- und Freizeit erreicht werden. Die Umsetzung erfolgt folgendermaßen: Angestellte Betreuungs- und Pflegefachkräfte der Caritas Alba Iulia können für sechs Wochen bis zu drei Monaten in die Schweiz gehen, um dort in Privathaushalten hilfsbedürftige Menschen zu unterstützen (Live-in-Betreuungen). Sie werden während dieser Zeit von der Caritas Schweiz angestellt. Danach kehren die Betreuenden wieder in ihr Anstellungsverhältnis bei der Caritas Alba Iulia zurück. Es wird sozusagen Personal „verliehen“. Damit soll einem Verlust von qualifiziertem Betreuungs- und Pflegepersonal durch Abwanderung aus Rumänien entgegengewirkt werden. Im Rahmen des studiengangsübergreifenden, interdisziplinären Kontextstudiums der Masterstudiengänge der Fachhochschule Vorarlberg (Österreich) hat sich eine Gruppe Forschender zum Ziel gesetzt, dieses Modellprojekt forscherisch zu erkunden. Wir wollten wissen, wie dieses Live-in-Betreuungsangebot nach zehn Jahren Laufzeit funktioniert. Insbesondere interessierten uns die Erfahrungen der rumänischen Betreuer:innen und ihrer Angehörigen sowie der projektverantwortlichen Leitungspersonen in der Caritas Alba Iulia und der Caritas Schweiz. Im Rahmen einer Feldforschungswoche im Juli 2022 in Transsylvanien/Siebenbürgen wurden 28 formelle Interviews mit Projektverantwortlichen, Betreuern/Betreuerinnen und deren Angehörigen durchgeführt. Zusätzlich wurden Dokumente und Feldnotizen sowie Gedächtnisprotokolle von informellen Gesprächen mit Personen der extramuralen Einrichtungen in Rumänien in die Auswertung integriert. Die Auswertung erfolgte inhaltsanalytisch.
Organic acidurias (OAs), urea-cycle disorders (UCDs), and maple syrup urine disease (MSUD) belong to the category of intoxication-type inborn errors of metabolism (IT-IEM). Liver transplantation (LTx) is increasingly utilized in IT-IEM. However, its impact has been mainly focused on clinical outcome measures and rarely on health-related quality of life (HRQoL). Aim of the study was to investigate the impact of LTx on HrQoL in IT-IEMs. This single center prospective study involved 32 patients (15 OA, 11 UCD, 6 MSUD; median age at LTx 3.0 years, range 0.8–26.0). HRQoL was assessed pre/post transplantation by PedsQL-General Module 4.0 and by MetabQoL 1.0, a specifically designed tool for IT-IEM. PedsQL highlighted significant post-LTx improvements in total and physical functioning in both patients' and parents' scores. According to age at transplantation (≤3 vs. >3 years), younger patients showed higher post-LTx scores on Physical (p = 0.03), Social (p < 0.001), and Total (p =0.007) functioning. MetabQoL confirmed significant post-LTx changes in Total and Physical functioning in both patients and parents scores (p ≤ 0.009). Differently from PedsQL, MetabQoL Mental (patients p = 0.013, parents p = 0.03) and Social scores (patients p = 0.02, parents p = 0.012) were significantly higher post-LTx. Significant improvements (p = 0.001–0.04) were also detected both in self- and proxy-reports for almost all MetabQoL subscales. This study shows the importance of assessing the impact of transplantation on HrQoL, a meaningful outcome reflecting patients' wellbeing. LTx is associated with significant improvements of HrQol in both self- and parentreports. The comparison between PedsQL-GM and MetabQoL highlighted that MetabQoL demonstrated higher sensitivity in the assessment of diseasespecific domains than the generic PedsQL tool.
Demand-side management approaches that exploit the temporal flexibility of electric vehicles have attracted much attention in recent years due to the increasing market penetration. These demand-side management measures contribute to alleviating the burden on the power system, especially in distribution grids where bottlenecks are more prevalent. Electric vehicles can be defined as an attractive asset for distribution system operators, which have the potential to provide grid services if properly managed. In this thesis, first, a systematic investigation is conducted for two typically employed demand-side management methods reported in the literature: A voltage droop control-based approach and a market-driven approach. Then a control scheme of decentralized autonomous demand side management for electric vehicle charging scheduling which relies on a unidirectionally communicated grid-induced signal is proposed. In all the topics considered, the implications on the distribution grid operation are evaluated using a set of time series load flow simulations performed for representative Austrian distribution grids. Droop control mechanisms are discussed for electric vehicle charging control which requires no communication. The method provides an economically viable solution at all penetrations if electric vehicles charge at low nominal power rates. However, with the current market trends in residential charging equipment especially in the European context where most of the charging equipment is designed for 11 kW charging, the technical feasibility of the method, in the long run, is debatable. As electricity demand strongly correlates with energy prices, a linear optimization algorithm is proposed to minimize charging costs, which uses next-day market prices as the grid-induced incentive function under the assumption of perfect user predictions. The constraints on the state of charge guarantee the energy required for driving is delivered without failure. An average energy cost saving of 30% is realized at all penetrations. Nevertheless, the avalanche effect due to simultaneous charging during low price periods introduces new power peaks exceeding those of uncontrolled charging. This obstructs the grid-friendly integration of electric vehicles.
Background: Cardiovascular disease is the major cause of death worldwide. Although knowledge regarding diagnosing and treating cardiovascular disease has increased dramatically, secondary prevention remains insufficiently implemented due to failure among affected individuals to adhere to guideline recommendations. This has continued to lead to high morbidity and mortality rates. Involving patients in their healthcare and facilitating their active roles in their chronic disease management is an opportunity to meet the needs of the increasing number of cardio-vascular patients. However, simple recall of advice regarding a more preventive lifestyle does not affect sustainable behavioral lifestyle changes. We investigate the effect of plaque visualization combined with low-threshold daily lifestyle tasks using the smartphone app PreventiPlaque to evaluate change in cardiovascular risk profile. Methods: and study design: This randomized, controlled clinical trial includes 240 participants with ultrasound evidence of atherosclerotic plaque in one or both carotid arteries, defined as focal thickening of the vessel wall measuring 50% more than the regular vessel wall. A criterion for participation is access to a smartphone suitable for app usage. The participants are randomly assigned to an intervention or a control group. While both groups receive the standard of care, the intervention group has additional access to the PreventiPlaque app during the 12-month follow-up. The app includes daily tasks that promote a healthier lifestyle in the areas of smoking cessation, medication adherence, physical activity, and diet. The impact of plaque visualization and app use on the change in cardiovascular risk profile is assessed by SCORE2. Feasibility and effectiveness of the PreventiPlaque app are evaluated using standardized and validated measures for patient feedback.
The usage of data gathered for Industry 4.0 and smart factory scenarios continues to be a problem for companies of all sizes. This is often the case because they aim to start with complicated and time-intensive Machine Learning scenarios. This work evaluates the Process Capability Analysis (PCA) as a pragmatic, easy and quick way of leveraging the gathered machine data from the production process. The area of application considered is injection molding. After describing all the required domain knowledge, the paper presents an approach for a continuous analysis of all parts produced. Applying PCA results in multiple key performance indicators that allow for fast and comprehensible process monitoring. The corresponding visualizations provide the quality department with a tool to efficiently choose where and when quality checks need to be performed. The presented case study indicates the benefit of analyzing whole process data instead of considering only selected production samples. The use of machine data enables additional insights to be drawn about process stability and the associated product quality.
Tap or swipe
(2023)
Formen des Dialogs
(2023)
Armut im Blick?
(2023)
Highly-sensitive single-step sensing of levodopa by swellable microneedle-mounted nanogap sensors
(2023)
Microneedle (MN) sensing of biomarkers in interstitial fluid (ISF) can overcome the challenges of self-diagnosis of diseases by a patient, such as blood sampling, handling, and measurement analysis. However, the MN sensing technologies still suffer from poor measurement accuracy due to the small amount of target molecules present in ISF, and require multiple steps of ISF extraction, ISF isolation from MN, and measurement with additional equipment. Here, we present a swellable MN-mounted nanogap sensor that can be inserted into the skin tissue, absorb ISF rapidly, and measure biomarkers in situ by amplifying the measurement signals by redox cycling in nanogap electrodes. We demonstrate that the MN-nanogap sensor measures levodopa (LDA), medication for Parkinson disease, down to 100 nM in an aqueous solution, and 1 μM in both the skin-mimicked gelatin phantom and porcine skin.
The production of liquid-gas mixtures with desired properties still places high demands on process technology and is usually realized in bubble columns. The physical calculation models used have individual dimensionless factors which, depending on the application, are only valid for small ranges consisting of flow velocity, nozzle geometry and test setup. An iterative but time-consuming design of such dispersion processes is used in industry for producing a liquid-gas mixture according to desired requirements. In the present investigation, we accelerate the necessary design loops by setting up a physical model, which consists of several subsystems that are enriched by dedicated experiments to realize liquid-gas dispersions with low volume fraction and small air bubble diameters in oil. Our approach allows the extraction of individual dimensionless factors from maps of the introduced subsystems. These maps allow for targeted corrective measures of a production process for keeping the quality. The calculation-based approach avoids the need for performing iterative design loops. Overall, this approach supports the controlled generation of liquid-gas mixtures.
In 2021, a prominent Austria dairy producer suffered from an IT attack and was completely paralysed. Without clearly defined mitigation measures in place, major disruptions were caused alongside the whole supply chain, including logistics service providers, governmental food safety bodies, as well as retailers (i.e., supermarkets and convenience stores). In this paper, we ask the question how digitisation and digital transformation impact IT security, especially when considering the complex company ecosystems of food production and food supply chains in Austria. The problem statement stems from a gap in knowledge of key differences in approaches towards IT security, resilience, risk management and especially business interfaces between food suppliers, supermarkets, distributors, logistics and other service providers. In order to answer related research questions, firstly, the authors conduct literature research, and highlight common guidelines and standardisation as well as look at state-based recommendations for critical infrastructure. In a second step, the paper describes a quantitative and qualitative survey with Austrian food companies (producers and retailers) which is described in detail in the paper. A description of recommended measures for the industry, further steps, as well as an outlook conclude the paper.
Through mandatory ESG (environmental, social, governance) reporting large companies must disclose their ESG activities showing how sustainability risks are incorporated in their decision-making and production processes. This disclosure obligation, however, does not apply to small and medium-sized enterprises (SME), creating a gap in the ESG dataset. Banks are therefore required to collect sustainability data of their SME customers independently to ensure complete ESG integration in the risk analysis process for loans. In this paper, we examine ESG risk analysis through a smart science approach laying the focus on possible value outcomes of sustainable smart services for banks as well as for their (SME) customers. The paper describes ESG factors, how services can be derived from them, targeted metrics of ESG and an ESG Service Creation Framework (business ecosystem building, process model, and value creation). The description of an exemplary use case highlighting the necessary ecosystem for service creation as well as the created value concludes the paper.
A step change is needed in the deployment of renewable energy if the triple challenge of ensuring climate change mitigation, energy security, and energy affordability is to be met. Yet, social acceptance of infrastructure projects and policies remains a key concern. While there has been decades of fruitful research on the social acceptance of wind energy and other renewables, much of the extant research is cross-sectional in nature, failing to capture the important dynamic processes that can make or break renewable energy projects. This paper introduces a Special Issue of Energy Policy which focuses on the neglected topic of the dynamics of social acceptance of renewable energy, drawing on contributions made at an international research conference held in St. Gallen (Switzerland) in June 2022. In addition to introducing these papers and drawing out common themes, we also seek to offer some conceptual clarity on the issue of dynamics in social acceptance, taking into account the influence of time, power, and scale in shaping decision-making processes. We conclude by highlighting a number of avenues of potential future research.
Praxisanleiter:innen nehmen eine entscheidende Rolle in der Ausbildung von Pflegepersonen wahr. Die Tätigkeit fordert eine Vielzahl von Kompetenzen. Die Weiterbildung Praxisanleitung bietet eine wichtige Grundlage für die Entwicklung dieser Kompetenzen – deren Rahmenbedingungen, Methoden und Inhalte in Österreich werden in dieser Studie untersucht.
Die persönliche Black-Box
(2023)
Akademisierung der Pflege
(2023)
Akademisierung der Pflege
Überführungsprozess der sekundären Pflegeausbildung in den tertiären Bildungssektor
Hintergrund:
In der Entwicklung von tertiären Bildungsangeboten in der Pflege gelten angloamerikanische und
nordeuropäische Länder als Vorreiter. Im Vergleich dazu setzte die Tertiärisierung der Pflegeausbildung im deutschsprachigen Raum erst verzögert ein. In Österreich waren, ähnlich der Schweiz und Deutschland, berufsqualifizierende Abschlüsse der Pflegeausbildung traditionell nicht im Hochschulbereich verankert, sondern Gesundheits- und Krankenpflege-Schulen übernahmen die berufsqualifizierende Pflegeausbildung auf sekundärem Bildungsniveau. Mit der Novellierung des Gesundheits- und Krankenpflegegesetztes im Jahr 2016 dekretierte Österreich im Rahmen einer umfassenden Ausbildungsreform und mit einer Übergangsfrist bis 2024 die vollständige Ausbildungsüberführung der sekundären Pflegeausbildung (gehobener Dienst) in den tertiären Hochschulsektor. Bei diesem Transformationsprozess treffen nicht nur unterschiedliche Institutionen, Organisationen und Ausbildungskulturen aufeinander, sondern auch verschiedene Systempartner*innen mit divergierenden Interessen, Motiven und Erwartungshaltungen, die zur Dynamik und Komplexität der Ausbildungsüberführung beitragen.
Ziel:
Vor dem theoretischen Hintergrund der Professionssoziologie konzentriert sich diese Dissertation auf das empirische Phänomen des Überführungsprozesses der sekundären Pflegeausbildung (gehobener Dienst) in den tertiären Bildungssektor am Beispiel der Entwicklung in Vorarlberg (Österreich). Für die theoretische Einbettung bzw. Interpretation des empirischen Praxisbeispiels dient der professionstheoretische Ansatz von Andrew Abbott, um die Ausbildungstransformation als komplexen und dynamischen Prozess mit unterschiedlichen Perspektiven, Interessen und Ansprüchen jener Systempartner*innen zu verstehen, die den Transformationsprozess verantworten und intensiv in die Umsetzung der Ausbildungsüberführung involviert sind. Durch die Anwendung von Abbotts Theorieansatz auf den Fall der Akademisierung der Pflegeausbildung leistet diese Studie einen Beitrag zur Fachliteratur der Professionalisierung der Pflege.
Methodik:
Zur Exploration dient eine qualitative Einzelfallstudie, die sich über fünf Jahre erstreckt und multiple Datenquellen (Datentriangulation) nutzt, um unterschiedliche Daten, Informationen und Perspektiven aus Einzel- und Gruppeninterviews, Dokumenten und Forschungstagebuch zusammenzuführen. Die Verwendung unterschiedlicher Datenquellen dient der Strategie, ein tiefes und fundiertes Verständnis des untersuchten Forschungsphänomens zu erlangen.
Ergebnis:
Als Beitrag zur bestehenden Fachliteratur erläutert diese Studie nicht nur den Prozessverlauf mit seinen Meilensteinen, Merkmalen und Ereignissen, sondern zeigt, dass unterschiedliche Interessen, Ansprüche und Hintergründe der verantwortlichen Systempartner*innen den Transformationsprozess und dessen Ausrichtung wesentlich beeinflussen. Divergierende Erwartungshaltungen, Motive und Ansprüche prägen nicht nur Verlauf und Ausrichtung der Überführung, sondern dienen auch als Erklärungsansatz, wie die beteiligten Systempartner*innen agieren, ihre Entscheidungen bzw. Handlungen im Transformationsprozess verantworten und somit zur Dynamik und Komplexität der Ausbildungsüberführung beitragen. Des Weiteren zeigt diese Studie in Anbetracht des österreichischen Bildungskontextes, dass sich der Transformationsprozess der Bachelor-Einführung nicht nur isoliert, sondern eingebettet als Teil einer übergreifenden Ausbildungsreform analysieren lässt, da die Tertiärisierung der Pflegeausbildung weitere Mechanismen und Reaktionen auslöst, die den Ausbildungs- und Berufssektor der Pflege gesamthaft und langfristig betreffen.
Schlussfolgerung:
Die Tertiärisierung der Pflegeausbildung stellt einen langfristigen Transformationsprozess dar, der nicht mit dem Berufseinstieg der Bachelor-Absolvent*innen oder mit einer gesetzlich definierten Überführungsfrist abgeschlossen ist. Die Ausbildungsüberführung sollte im Sinne Abbotts als komplexen und dynamischen Transformationsprozess verstanden werden, der auf verschiedenen Handlungsebenen und mit unterschiedlichen Interessen, Motiven und Ansprüchen stattfindet. Die Akademisierung der Pflegeausbildung erfordert daher einen langfristigen Zeithorizont in der Umsetzung und Prozessbegleitung, um den Systemwechsel auf mehreren Ebenen im Bildungs- und Berufssektor umzusetzen und einen Bewusstseinswandel bei den involvierten Stakeholdergruppen zu erreichen. Dadurch zeichnen sich weiterführende Forschungspotenziale ab.
Schlagwörter:
Akademisierung, Akademisierungsprozess, Transformation, Überführung, Prozess Pflege, Pflegeausbildung, Pflegestudium, Professionalisierung, Professionssoziologie, Professionstheorien, Andrew Abbott,
Einzelfallstudie, Datentriangulation
X-ray microtomography is a nondestructive, three-dimensional inspection technique applied across a vast range of fields and disciplines, ranging from research to industrial, encompassing engineering, biology, and medical research. Phasecontrast imaging extends the domain of application of x-ray microtomography to classes of samples that exhibit weak attenuation, thus appearing with poor contrast in standard x-ray imaging. Notable examples are low-atomic-number materials, like carbon-fiber composites, soft matter, and biological soft tissues.We report on a compact and cost-effective system for x-ray phase-contrast microtomography. The system features high sensitivity to phase gradients and high resolution, requires a low-power sealed x-ray tube, a single optical element, and fits in a small footprint. It is compatible with standard x-ray detector technologies: in our experiments, we have observed that single-photon counting offered higher angular sensitivity, whereas flat panels provided a larger field of view. The system is benchmarked against knownmaterial phantoms, and its potential for soft-tissue three-dimensional imaging is demonstrated on small-animal organs: a piglet esophagus and a rat heart.We believe that the simplicity of the setupwe are proposing, combined with its robustness and sensitivity, will facilitate accessing quantitative x-ray phase-contrast microtomography as a research tool across disciplines, including tissue engineering, materials science, and nondestructive testing in general.
Activation of heat pump flexibilities is a viable solution to support balancing the grid via Demand Side Management measures and fulfill the need for flexibility options. Aggregators as interface between prosumers, distribution system operators and balance responsible parties face the challenge due to data privacy and technical restrictions to transform prosumer information into aggregated available flexibility to enable trading thereof. Thereby, literature lacks a generic, applicable and widely accepted flexibility estimation method for heat pumps,which incorporates reduced sensor and system information, system- and demand-dependent behaviour. In this paper, we adapt and extend a method from literature, by incorporating domain knowledge to overcome reduced sensor and system information. We apply data of five real-world heat pump systems, distinguish operation modes, estimate power and energy flexibility of each single heat pump system, proof transferability of the method, and aggregate the flexibilities available to showcase a small HP pool as a proof of concept.
In this work, parametric excitation is introduced in a fully balanced flexible rotor mounted on two identical active gas foil bearings. The active gas foil bearings change the top foil shape harmonically with a specific amplitude and frequency. The deformable foil shape is approximated by an analytical function, while the gas pressure distribution is evaluated by the numerical solution of the Reynolds equation for compressible flow. The harmonic variation of the foil shape generates a respective variation in the bearings’ stiffness and damping properties and the system experiences parametric resonances and antiresonances in specific excitation frequencies. The nonlinear gas bearing forces generate bifurcations in the solutions of the system at certain rotating speeds and excitation frequencies; period doubling and Neimark-Sacker bifurcations are noticed in the examined system, and their progress is evaluated as the two bifurcation parameters (rotating speed and parametric excitation frequency) are changed, though a codimension-2 numerical continuation of limit cycles. It is found that at specific range of excitation frequency there are parametric anti-resonances and the bifurcations collide and vanish. Therefore, a bifurcation-free operating range is established and the system can operate stable at a wide speed range.
Parametric anti-resonance is a phenomenon that occurs in systems with at least two degrees of freedom; this can be achieved by periodically exciting some parameters of the system. The effect of this properly tuned periodicity is to increase the dissipation in the system, which leads to a raising in the effective damping of vibrations. This contribution presents the design of an open-loop control to reduce the settling time using the anti-resonance concept. The control signal consists of a quasi-periodic signal capable of transferring the system’s oscillations from one mode to another mode of the system. The general averaging technique is used to characterize the dynamics, particularly the so-called slow dynamics of motion. With this analysis, the control signal is designed for the potential application of a microelectromechanical sensor arrangement; for this specific example, up to 96.8% reduction of settling time is achieved.
Im vorliegenden Paper wird ein Vergleich zwischen Produktions-und Simulationsdaten präsentiert welches im Rahmen einer größeren Initiative zur Verwendung von Shopfloor Daten bei einem Projektpartner in der Automobilindustrie umgesetzt wurde. In diesem Projekt wurden die Daten die während der Füllbildsimulation entstehen mit den Daten aus der finalen Werkzeugabnahme verglichen um zu analysieren, wie genau diese miteinander über einstimmen. Je besser die Simulation ist, desto schneller kann der gesamte Werkzeugentwicklungsprozess abgewickelt werden, welcher als Kernprozess massives Einsparungspotenzial und damit Wettbewerbsvorteil mit sich bringt.
Controlling Analytics: Einsatz für Prognosen im Controlling - Teil 1: Fallbeschreibung und Aufgaben
(2023)
Statistische Methodenkompetenz wird im Controlling zunehmend bedeutender, so ist die evidenzbasierte Prognose durch algorithmische Analyse von Datenbeständen ein Schwerpunkt von Controlling Analytics. Die Fallstudie durchleuchtet daher anhand von Datenmaterial des Schweizer Bundesamts für Statistik das Vorgehen bei einer Datenanalyse, insbesondere beim Einsatz der Zeitregression für Prognosezwecke, und geht dabei auf methodische Besonderheiten, Caveats und Einsatzmöglichkeiten in Microsoft Excel ein.
Schreiblehre und KI – Teil 3: Erste Schlussfolgerungen aus dieser Erfahrung für die Schreiblehre
(2023)
Pooled data from published reports on infants with clinically diagnosed vitamin B12 (B12) deficiency were analyzed with the purpose of describing the presentation, diagnostic approaches, and risk factors for the condition to inform prevention strategies. An electronic (PubMed database) and manual literature search following the PRISMA approach was conducted (preregistration with the Open Science Framework, accessed on 15 February 2023). Data were described and analyzed using correlation analyses, Chi-square tests, ANOVAs, and regression analyses, and 102 publications (292 cases) were analyzed. The mean age at first symptoms (anemia, various neurological symptoms) was four months; the mean time to diagnosis was 2.6 months. Maternal B12 at diagnosis, exclusive breastfeeding, and a maternal diet low in B12 predicted infant B12, methylmalonic acid, and total homocysteine. Infant B12 deficiency is still not easily diagnosed. Methylmalonic acid and total homocysteine are useful diagnostic parameters in addition to B12 levels. Since maternal B12 status predicts infant B12 status, it would probably be advantageous to target women in early pregnancy or even preconceptionally to prevent infant B12 deficiency, rather than to rely on newborn screening that often does not reliably identify high-risk children.
Power plant operators increasingly rely on predictive models to diagnose and monitor their systems. Data-driven prediction models are generally simple and can have high precision, making them superior to physics-based or knowledge-based models, especially for complex systems like thermal power plants. However, the accuracy of data-driven predictions depends on (1) the quality of the dataset, (2) a suitable selection of sensor signals, and (3) an appropriate selection of the training period. In some instances, redundancies and irrelevant sensors may even reduce the prediction quality.
We investigate ideal configurations for predicting the live steam production of a solid fuel-burning thermal power plant in the pulp and paper industry for different modes of operation. To this end, we benchmark four machine learning algorithms on two feature sets and two training sets to predict steam production. Our results indicate that with the best possible configuration, a coefficient of determination of R^2 = 0.95 and a mean absolute error of MAE=1.2 t/h with an average steam production of 35.1 t/h is reached. On average, using a dynamic dataset for training lowers MAE by 32% compared to a static dataset for training. A feature set based on expert knowledge lowers MAE by an additional 32 %, compared to a simple feature set representing the fuel inputs. We can conclude that based on the static training set and the basic feature set, machine learning algorithms can identify long-term changes. When using a dynamic dataset the performance parameters of thermal power plants are predicted with high accuracy and allow for detecting short-term problems.