Refine
Year of publication
- 2023 (170) (remove)
Document Type
- Master's Thesis (83)
- Article (47)
- Conference Proceeding (19)
- Part of a Book (5)
- Book (3)
- Other (3)
- Preprint (3)
- Report (3)
- Doctoral Thesis (2)
- Bachelor Thesis (1)
- Working Paper (1)
Institute
- Wirtschaft (24)
- Forschungszentrum Mikrotechnik (16)
- Forschungszentrum Business Informatics (13)
- Soziales & Gesundheit (12)
- Forschungszentrum Energie (8)
- Forschungszentrum Human Centred Technologies (8)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (5)
- Forschungsgruppe Empirische Sozialwissenschaften (4)
- Forschung (3)
- Josef Ressel Zentrum für Robuste Entscheidungen (3)
Keywords
- Controlling (7)
- Digitalisierung (5)
- Business Analytics (4)
- Kultur (4)
- Soziale Arbeit (4)
- Akademisierung (3)
- Schreibdidaktik (3)
- Vorarlberg (3)
- leadership (3)
- Bank (2)
Alleviating the curse of dimensionality in minkowski sum approximations of storage flexibility
(2023)
Many real-world applications require the joint optimization of a large number of flexible devices over some time horizon. The flexibility of multiple batteries, thermostatically controlled loads, or electric vehicles, e.g., can be used to support grid operations and to reduce operation costs. Using piecewise constant power values, the flexibility of each device over d time periods can be described as a polytopic subset in power space. The aggregated flexibility is given by the Minkowski sum of these polytopes. As the computation of Minkowski sums is in general demanding, several approximations have been proposed in the literature. Yet, their application potential is often objective-dependent and limited by the curse of dimensionality. In this paper, we show that up to 2d vertices of each polytope can be computed efficiently and that the convex hull of their sums provides a computationally efficient inner approximation of the Minkowski sum. Via an extensive simulation study, we illustrate that our approach outperforms ten state-of-the-art inner approximations in terms of computational complexity and accuracy for different objectives. Moreover, we propose an efficient disaggregation method applicable to any vertex-based approximation. The proposed methods provide an efficient means to aggregate and to disaggregate typical battery storages in quarter-hourly periods over an entire day with reasonable accuracy for aggregated cost and for peak power optimization.
International Entrepreneurship explains the opportunities and challenges facing internationalizing entrepreneurial ventures. The book inlcudes a thorough discussion of fundamentals as well as contemporary research findings. Numerous cases, featuring diverse contexts, illustrate theory and help classroom use.
Die Digitalisierung und Mediatisierung haben einen bedeutenden Einfluss auf das Leben von Ju- gendlichen. Obwohl ihnen aufgrund ihrer Generationszugehörigkeit oft eine hohe digitale Kom- petenz zugeschrieben wird, ist dies nur teilweise zutreffend. Um Jugendlichen eine erfolgreiche Bewältigung ihres digitalen Lebens, vor allem in Bezug auf krisenhafte Situationen, zu ermögli- chen, sind Unterstützungsangebote auf allen Ebenen der digitalen Lebenswelt erforderlich. In Vorarlberg hat sich der medienpädagogische Stammtisch gegründet, um wertvolle Unterstüt- zungsangebote für Jugendliche in diesem Bereich eine Vernetzungs- und Kooperationsplattform zu bieten. Die Forschungsfrage dieser Masterarbeit lautet: Wie gestaltet sich das Unterstützungsnetzwerk für die Bewältigung von Krisensituationen in der digitalen Lebenswelt von Jugendlichen in Vorarlberg? Um diese Frage möglichst umfassend zu beantworten, werden verschiedene Unterfragen untersucht, da- runter die Zugangsmöglichkeiten für bestimmte Zielgruppen, die beteiligte Akteur*innen, die Be- ziehungen zwischen den Angeboten sowie die Expert*innenwahrnehmungen zur Vorarlberger Soziallandschaft. Als Ausgangspunkt der Forschung dient der medienpädagogische Stammtisch, welcher im No- vember 2020 gegründet wurde, um den Bedarf an medienpädagogischen Angeboten für junge Menschen in Vorarlberg zu ermitteln und um eine Vernetzungsplattform zu bieten. Vertreter*in- nen verschiedener Einrichtungen schlossen sich zusammen, um die durch die Coronamaßnah- men verschärfte Situation zu verbessern. Der Stammtisch dient als Netzwerk und ermöglicht den Austausch zwischen den Akteur*innen. Die Bedeutung digitaler Unterstützungsnetzwerke für Jugendliche wird durch verschiedene Studien untermauert. So ermöglichen Digitale Netzwerke den Aufbau sozialer Beziehungen, den Austausch von Erfahrungen und Interessen sowie die Verbesserung der psychischen Gesundheit von Jugendlichen. Sowohl die Angebotslandschaft Vorarlbergs als auch die Unterstützungsangebote in krisenhaften Lebenssituation wurde durch die Unterstützung von Netzwerkkarten erhoben und bieten damit eine Visualisierung der Ak- teur*innen und deren Beziehungen als Unterstützungsnetzwerk. Im Rahmen der Forschungserkenntnisse betonen die Expert*innen, dass der medienpädagogi- sche Stammtisch eine wertvolle Ressource ist und Unterstützung in der Entwicklung digitaler Kompetenzen bietet. Sie sehen die digitale Lebenswelt als Erweiterung der realen Lebenswelt und plädieren für eine ganzheitliche Betrachtung beider Räume. Die Expert*innen betonen die Bedeutung einer Vernetzung von Akteur*innen auf verschiedenen Ebenen und die Notwendig- keit einer gemeinsamen Bewältigung der digitalen Herausforderungen. Digitale Unterstützungs- netzwerke können Jugendlichen in Krisensituationen helfen und ihre psychische Gesundheit stärken. Eine enge Zusammenarbeit zwischen den Akteur*innen, die Verbesserung der digitalen Bildung und Qualifizierung von Fachkräften sowie präventive Maßnahmen sind entscheidend, um Jugendliche im digitalen Raum zu unterstützen. Insgesamt zeigt sich, dass eine ganzheitliche und koordinierte Herangehensweise erforderlich ist, um Jugendlichen in der digitalen Lebenswelt effektive Unterstützung zu bieten. Die Evaluation und Weiterentwicklung des Unterstützungsnetzwerks sind von großer Bedeutung, um den sich wandelnden Bedürfnissen gerecht zu werden. Zudem ist die Einbeziehung des sozialen Umfelds der Jugendlichen ebenfalls unerlässlich. Die Digitalisierung bringt sowohl Risiken als auch Chancen mit sich, was maßgeblich zur Rele- vanz beiträgt, ein starkes und effektives Unterstützungsnetzwerk aufzubauen, das Jugendliche auf ihrem Weg durch das digitale Zeitalter begleitet und unterstützt.
This thesis evaluates the feasibility of conducting visual inspection tests on power industry constructions using object detection techniques. The introduction provides an overview of this field’s state-of-the-art technologies and approaches. For the implementation, a case study is then conducted, which is done in collaboration with the partner company OMICRON Electronics GmbH, focusing on power transformers as an example. The objective is to develop an inspection test using photographs to identify power transformers and their subcomponents and detect existing rust spots and oil leaks within these components. Three object detection models are trained: one for power transformers and sub-components, one for rust detection, and one for oil leak detection. The training process utilizes the implementation of the YOLOv5 algorithm on a Linux-based workstation with an NVIDIA Quadro RTX 4000 GPU. The power transformer model is trained on a dataset provided by the partner company, while open-source datasets are used for rust and oil leak detection. The study highlights the need for a more powerful GPU to enhance training experiments and utilizes an Azure DevOps Pipeline to optimize the workflow. The performance of the power transformer detection model is satisfactory but influenced by image angles and an imbalance of certain sub-components in the dataset. Multi-angle video footage is a proposed solution for the inspection test to address this limitation and increase the size of the dataset, focusing on reducing the imbalance. The models trained on open-source datasets demonstrate the potential for rust and oil leak detection but lack accuracy due to their generic nature. Therefore, the datasets must be adjusted with case-specific data to achieve the desired accuracy for reliable visual inspection tests. The results of the case study have been well-received by the partner company’s management, indicating future development opportunities. This case study will likely be a foundation for implementing visual inspection tests as a product.
Operative Exzellenz wird als Sammelbegriff für strategische Managementansätze angesehen, welche anhand von Optimierungsinitiativen die Geschäftsprozesse des Unternehmens auf Kundenbedürfnisse, Qualität wie auch auf Effizienz ausrichten. Exzellenzmodelle kombinieren sowohl technische als auch soziale Faktoren im Streben nach nachhaltiger Verbesserung und basieren nicht nur auf dem Betriebsmanagement und den technischen Prozessen, sondern widmen auch den Menschen und ihrem Einfluss auf die erfolgreiche Umsetzung eines Optimierungsprogramms besondere Aufmerksamkeit. Ziel dieser Masterarbeit ist es, die entscheidende Rolle von Führungskräften und deren Führungsstile zu diskutieren, welche laut der ausgewerteten akademischen Literatur, sich für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 als erfolgsversprechend nennen lassen, indem die gewünschte Organisationskultur durch gezielte Anwendung von Führungskonzepten gefördert wird. Die Fragestellung der Masterarbeit wird anhand eines theoretisch-konzeptionellen Vorgehens beantwortet. Die Untersuchungen haben die Erkenntnisse zu Tage gebracht, dass sich mit dem Wandel der Anforderungen an die Unternehmen, auch die Führungskonzepte an die Anforderungen angepasst haben und somit auch die Führungsphilosophie von „Command and Control“ zu „Empowerment“, „agiler Führung“ und „transformationaler Führung“ übergegangen ist. Für eine nachhaltige Verankerung von operativer Exzellenz im Umfeld der Industrie 4.0 konnten die Führungskonzepte „Transformationale Führung“, „Symbolische Führung“, „Mitarbeiter empowern“ und „Agile Führung“ identifiziert werden. Es besteht Grund zur Annahme, dass eine Kombination der vorgestellten Führungskonzepte die besten Ergebnisse liefern würde, insofern das geeignetste Führungskonzept situationsadäquat angewendet wird.
Pooled data from published reports on infants with clinically diagnosed vitamin B12 (B12) deficiency were analyzed with the purpose of describing the presentation, diagnostic approaches, and risk factors for the condition to inform prevention strategies. An electronic (PubMed database) and manual literature search following the PRISMA approach was conducted (preregistration with the Open Science Framework, accessed on 15 February 2023). Data were described and analyzed using correlation analyses, Chi-square tests, ANOVAs, and regression analyses, and 102 publications (292 cases) were analyzed. The mean age at first symptoms (anemia, various neurological symptoms) was four months; the mean time to diagnosis was 2.6 months. Maternal B12 at diagnosis, exclusive breastfeeding, and a maternal diet low in B12 predicted infant B12, methylmalonic acid, and total homocysteine. Infant B12 deficiency is still not easily diagnosed. Methylmalonic acid and total homocysteine are useful diagnostic parameters in addition to B12 levels. Since maternal B12 status predicts infant B12 status, it would probably be advantageous to target women in early pregnancy or even preconceptionally to prevent infant B12 deficiency, rather than to rely on newborn screening that often does not reliably identify high-risk children.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.
Redundanz und Varietät
(2023)
Ausrechnen oder aushandeln?
(2023)
Das Kreisgespräch
(2023)
Formen des Dialogs
(2023)
Die persönliche Black-Box
(2023)
Der Schlüssel zur Zukunft
(2023)
Purpose: In this thesis the viable system model (VSM) is used as a framework to develop a model for the management of a business alliance that contains the necessary and sufficient conditions for maintaining synergy of its constituent organisations and for adapting to a changing environment so that it can remain a long-term viable alliance. In addition, a model is developed that makes explicit the inherent link between the VSM and the core elements of knowledge management theory. Based then on the alliance management model and the link established between the VSM and knowledge management, an application framework is developed to guide practitioners in defining necessary alliance management functions and relationships, the knowledge required by that management to fulfill those functions, and the processes that need to be in place to manage that knowledge. Design/strategy: The research has been divided into four phases: theoretical construction, refinement with practitioners, real-world application, and evaluation of test case and toolset. The researcher has worked closely with practitioners actively involved in the formation of a new international alliance to develop a VSM model and application framework for the alliance management. Formally, the research strategy has been defined as an action research and the research philosophy as one of pragmatism. Findings/limitations: The developed application framework, has been successfully used to identify absent and incomplete roles, actions, and interactions within the management of the specific alliance test case. This has helped to demonstrate how the application framework and VSM model can be used to diagnose and, most importantly, to articulate and visualise management deficiencies to facilitate clear and unambiguous discussions. The timing of this cross-sectional research did not allow the application framework to be utilised from the outset of the alliance formation as an organisational planning tool and also not to its full extent to support the development of knowledge processes for the alliance management. However, the step-by-step approach used in developing the toolset and then explaining its application will allow the reader to judge its credability and generalisability for other practical applications. Practical implications: The developed toolset consists of a VSM for an alliance management, job descriptions for that management (responsibilities, interfaces, and core competencies), a visual model illustrating the link between the VSM and knowledge management, and an application framework to guide the filling of the alliance management job descriptions in phases of recruitment, onboarding, and development (of interfaces and activities processes). Overall, one could say that the conditions prescribed by the VSM are rather obvious and yet, as seen by the specific alliance test case, many of these conditions have been completely overlooked by a management that was more than capable, willing, and empowered to enact those conditions. This gives a good indication that the toolset which has been compiled in a visual and tabular systematic fashion may well be useful to practitioners for the organisational planning of an alliance management. The visual representation of a management role in the VSM as a set of knowledge episodes put forward by this research is significant. It forces the express recognition that knowledge management is an integral part of every interaction that takes place and every action performed that, according to the VSM, are necessary and altogether are sufficient for viability. It means that knowledge management cannot be considered as some abstract topic or unnecessary overhead or afterthought – it is entirely necessary, practical and forms a natural course of events during design of action/interaction processes. In other words, if an organisation is viable then, by definition, it does knowledge management whether or not it is formally recognised as such. The VSM, by defining necessary and sufficient actions and interactions for its roles, therefore provides a focus for relevant knowledge and serves as a tool for structured knowledge management. Originality/value: This research addresses a general academic call for hands-on insights of VSM applications by sharing real-world insights, artifacts and reflections generated by a practical and relevant organisational management application. It also addresses the potential, recognised by academics, for VSM as a framework for knowledge management by developing an intuitive model linking those theories and then using that model as part of a framework to guide its application. The introduction to aspects of knowledge management theory relevant to the model developed as well as the meticulousness and comprehensive explanation of the VSM provides a solid theoretical foundation for practitioners. The developed toolset is based on existing theories from multiple fields of research that have been logically linked and extended in an original and novel manner with a strong focus on practical application. This researcher’s hope is that this will stimulate interest for future research and practical application from academics and practitioners alike.
Mit dem Namen Coachly wird eine elektronische Lernplattform bezeichnet, welche im Rahmen eines neuen Lernkonzeptes die Wissensaneignung bzw. Wissensvermittlung für Lernende und Lehrende im schulischen Unterricht erleichtern und effizienter gestalten soll. Dies wird vor allem durch fest integrierte individuelle Coaching-Einheiten und ein konstantes Monitoring des Lernprozesses gewährleistet. Die vorliegende Arbeit beschäftigt sich in ihrer theoretischen Auseinandersetzung mit den Themenbereichen „Lernen“ und „Unterricht“. Während bei Ersterem unter anderem Lernziele und verschiedene Lerntheorien behandelt werden, widmet sich das Kapitel „Unterricht“ den Unterrichtsarten „Klassischer Unterricht“, „E-Learning“ und „Blended Learning“. Auch Unterrichtsmethoden und innovative Ansätze der Wissensaneignung werden hier abgehandelt. Darüber hinaus dokumentiert die Arbeit die verwendete Forschungsmethode und deren Ergebnisse sowie die Konzeption und Umsetzung des entstandenen Lernkonzeptes und der integrierten Lernplattform. Ausgangspunkt der Forschungsarbeit war dabei die Frage, wie eine Lernumgebung geschaffen werden kann, die die Lernenden bei der Wissensaneignung und Lehrende bei der Wissensvermittlung unterstützt.
Digital twin as enabler of business model innovation for infrastructure construction projects
(2023)
Emerging technologies and methods are becoming an important element of the construction industry. Digital Twins are used as a base to store data in BIM models and make use out of the data respectively make the data visible. The transparency in all phases of the lifecycle of building and infrastructure assets is crucial in order to get a more efficient lifecycle of planning, construction and maintenance. Whereas other industries increased performance in these phases by making use out of the data, construction industry is stuck in traditional methods and business models. In this paper we propose a concept that focuses on the digital production twin. The comparison of planning data with As-Is production data can empower a data driven continuous improvement process and support the decision making process of future innovations and suitable business models. This paper outlines the possibility to use the data stored in a digital twin with regards to the evaluation of possible business models.
Through mandatory ESG (environmental, social, governance) reporting large companies must disclose their ESG activities showing how sustainability risks are incorporated in their decision-making and production processes. This disclosure obligation, however, does not apply to small and medium-sized enterprises (SME), creating a gap in the ESG dataset. Banks are therefore required to collect sustainability data of their SME customers independently to ensure complete ESG integration in the risk analysis process for loans. In this paper, we examine ESG risk analysis through a smart science approach laying the focus on possible value outcomes of sustainable smart services for banks as well as for their (SME) customers. The paper describes ESG factors, how services can be derived from them, targeted metrics of ESG and an ESG Service Creation Framework (business ecosystem building, process model, and value creation). The description of an exemplary use case highlighting the necessary ecosystem for service creation as well as the created value concludes the paper.
Background: Cardiovascular disease is the major cause of death worldwide. Although knowledge regarding diagnosing and treating cardiovascular disease has increased dramatically, secondary prevention remains insufficiently implemented due to failure among affected individuals to adhere to guideline recommendations. This has continued to lead to high morbidity and mortality rates. Involving patients in their healthcare and facilitating their active roles in their chronic disease management is an opportunity to meet the needs of the increasing number of cardio-vascular patients. However, simple recall of advice regarding a more preventive lifestyle does not affect sustainable behavioral lifestyle changes. We investigate the effect of plaque visualization combined with low-threshold daily lifestyle tasks using the smartphone app PreventiPlaque to evaluate change in cardiovascular risk profile. Methods: and study design: This randomized, controlled clinical trial includes 240 participants with ultrasound evidence of atherosclerotic plaque in one or both carotid arteries, defined as focal thickening of the vessel wall measuring 50% more than the regular vessel wall. A criterion for participation is access to a smartphone suitable for app usage. The participants are randomly assigned to an intervention or a control group. While both groups receive the standard of care, the intervention group has additional access to the PreventiPlaque app during the 12-month follow-up. The app includes daily tasks that promote a healthier lifestyle in the areas of smoking cessation, medication adherence, physical activity, and diet. The impact of plaque visualization and app use on the change in cardiovascular risk profile is assessed by SCORE2. Feasibility and effectiveness of the PreventiPlaque app are evaluated using standardized and validated measures for patient feedback.
Der Fachkräftemangel stellt ein weit verbreitetes und zunehmendes Problem dar, das alle Wirtschaftsbereiche betrifft. Besonders in technischen Berufen gestaltet sich die Rekrutierung qualifizierter Mitarbeitenden als äußerst herausfordernd. Es wird immer deutlicher, dass es nicht ausreicht, lediglich Mitarbeiter:innen anzuwerben; vielmehr ist es von entscheidender Bedeutung, sie gezielt zu Fachkräften auszubilden. Trainee-Programme bieten eine Möglichkeit, diese Entwicklung zu fördern. Die vorliegende Masterarbeit widmet sich den Gestaltungselementen von Trainee- Programmen und bietet einen umfassenden Überblick über Definitionen, Methoden und Ausbildungselemente innerhalb dieser Programme. Diese Arbeit konzentriert sich auf die Identifikation kritischer Erfolgsfaktoren technischer Trainee-Programme, indem sowohl in der qualitativen Forschung untersucht wird, inwiefern Vorarlberger Industrieunternehmen diese Gestaltungselemente in ihren bereits implementierten technischen Trainee-Programmen berücksichtigen und welche Erfahrungswerte bisher gesammelt wurden, als auch in der quantitativen Forschung speziell technische Hochschülerinnen und -studenten als Zielgruppe herangezogen werden. Die Ergebnisse dieser Forschungsarbeit liefern wertvolle Erkenntnisse und praxisorientierte Handlungsempfehlungen für Unternehmen bei der Gestaltung ihrer Trainee-Programme. Besonders betont wird die Bedeutung der individuellen Anpassung an die Bedürfnisse und Interessen der potenziellen Trainees, einschließlich ihrer fachlichen Schwerpunkte, Karriereziele und Lernpräferenzen. Mentoring, Networking und interne Zusammenarbeit werden als wichtige Elemente für eine umfassende Entwicklung der Trainees innerhalb des Programms hervorgehoben. Darüber hinaus wird empfohlen, ein flexibles Framework einzusetzen, das Standards und Richtlinien für die Trainee-Programme festlegt, aber gleichzeitig Raum für Anpassungen und individuelle Entwicklungsmöglichkeiten bietet. Diese Masterarbeit trägt dazu bei, das Verständnis für die Gestaltungselemente von Trainee- Programmen zu vertiefen und liefert wertvolle Erkenntnisse für Unternehmen in Vorarlberg und darüber hinaus. Durch die Ergänzung des Phasenmodells der Trainee-Programme mit den Ergebnissen der qualitativen und quantitativen Forschung werden praxisnah e Empfehlungen abgeleitet, um Trainee-Programme attraktiver zu gestalten. Dadurch wird eine gezielte Entwicklung von Fachkräften im Unternehmen ermöglicht und eine langfristige Bindung an das Unternehmen gefördert.
Immersive educational spaces
(2023)
"If only we had had such opportunities to grasp history like this when I was young" – words by an almost 80-year-old woman holding an iPad on which both, the buildings in the background and a tower in the form of a virtual 3D object, appear within reach. To "grasp" history - what an apt use of this action-oriented word for an augmented reality application built on considerations of thinking and acting in history. This telling image emerged during the first test run of the app i.appear which will be the focus of this article's considerations on the use of immersive learning environments. The application i.appear has been used in the city of Dornbirn (Austria) for a year now to teach historical content through location-based augmented reality and other interactive and multimedia technologies. After a brief description of the potential of such applications, the epistemological structure of the hosting app i.appear and its functionality will be outlined. This article will focus on the “Baroque Master Builders” tour of the hosting app that was created and tested as part of the current research.
Die Anforderungen an gute Prognosen im Energiehandel der illwerke vkw AG steigen kontinuierlich an, da diese dazu verwendet werden, die richtigen Energiemengen auf dem Day-Ahead-Markt zu kaufen oder zu verkaufen. Zusätzliche Herausforderungen wie Wettereinflüsse und der steigende Energiebedarf von E-Autos erschweren die Prognose. Darüber hinaus gestaltet es sich mit den herkömmlichen Prognosebewertungen schwierig, die Kostenaspekte angemessen abzubilden. Aus diesem Grund wird in dieser Masterarbeit eine neue Methode zur Bewertung der Prognosequalität implementiert und mit bewährten Kennzahlen wie R², MAE, MAPE und RMSE verglichen. Diese Methode nutzt einen Preisverlauf, der die durchschnittlichen Marktpreise der Ausgleichsenergiepreise als Bewertungsmaßstab widerspiegelt. Die neue Bewertungsmethode wird mit Algorithmen wie dem Artificial Neural Network von Tensorflow, dem Decision Tree Regressor, der Linearen Regression, dem Multi-Layer Perception und dem Random Forest Regressor von Scikit-Learn verglichen. Zudem wird ein eigens erstelltes Gurobi-Modell, welches die Ausgleichsenergiepreise für die Gewichtung der absoluten Prognosefehler heranzieht, als Lineare Regression implementiert. Die genannten Modelle werden mithilfe von Python implementiert. Es werden tägliche Vorhersagen basierend auf viertelstündlichen Daten für Zeiträume von bis zu einem Jahr unter Verwendung eines Sliding-Window-Verfahrens mit unterschiedlichen Trainingsdaten erstellt. Die neue Bewertungsmethode mit der Einbeziehung von Kostenfaktoren, konnte sich im Vergleich zu MAPE, MAE, RMSE und R² nicht deutlich von den anderen unterscheiden. Die besten Ergebnisse wurden mit der Linearen Regression von Scikit-Learn und dem Gurobi-Modell mit der preisgewichteten Minimierung erzielt. Dabei sind die anderen Algorithmen nicht weit von den Resultaten der LR und GP entfernt. Unter dem Aspekt, dass das eigene Modell die Kosten minimieren soll, konnte es aber nicht als die beste Methode bewertet werden. Deswegen müssen das Modell und die gewählten Ausgleichsenergiepreise optimiert werden. Hierzu erzielte unter den sieben verwendeten Methoden die Lineare Regression das beste Ergebnis.
Diese vorliegende Masterarbeit untersucht die Herausforderungen, vor denen kleine und mittlere Unternehmen (KMUs) stehen, um den künftigen ESG-Anforderungen (Umwelt, Soziales, Governance) von Banken bei der Kreditvergabe gerecht zu werden. Anhand einer umfassen-den Literaturanalyse sowie einer qualitativen Inhaltsanalyse mittels Experteninterviews werden verschiedene Aspekte beleuchtet, darunter bankenregulatorische Vorschriften, Auswirkungen der ESG-Implementierung auf Kreditkonditionen und Kreditwürdigkeit, Vorbereitungsstrategien für KMUs und abgeleitete Handlungsempfehlungen. Die Ergebnisse zeigen, dass eine Integration von ESG-Kriterien in den Kreditprüfungsprozess eine ganzheitlichere Bewertung der Rückzahlungsfähigkeit ermöglicht und positive Auswirkungen auf die Kreditwürdigkeit haben kann. Jedoch sind die praktischen Auswirkungen auf Kreditkonditionen und -entscheidungen noch begrenzt und erfordern weitere Untersuchungen. Die Arbeit verdeutlicht auch die Bedeutung von ESG-Kompetenzen, Datenmanagement und einer Anpassung der Geschäftsmodelle von KMUs, um den ESG-Anforderungen gerecht zu werden. Die Ergebnisse bieten wertvolle Erkenntnisse für KMUs, um proaktiv ESG-Aspekte zu berücksichtigen und zu managen.
Although workplace climate has been already extensively studied, the research has not led to firm conclusions regarding leadership trainings referring to the awareness of psychological safety in a company and its influence on existing teams and the general work climate. The author used the already existing model of Carr, Schmidt, Ford, & DeShon (2003) and adjusted it with psychological safety as 4th climate item to develop hypothesen which can also be seen as a path analytic model. The model posied that climate affects individual level outcomes through its impact on cognitive and affective states. Therefore, the author wants to show the correlation between the 4 higher order facets of climate affect the individual levels of job performance, psychological well-being and withdrawal through their impact on orangizational commitment and job saitsfaction (Carr, Schmidt, Ford, & DeShon, 2003).
Die sichtbare Digitalisierung des Bankensektors beruht im Kern auf der Steigerung des Qualitätserlebnisses für Kund*innen. Als ein Symbol dessen hat sich das Videoidentifizierungsverfahren etabliert, durch welches ein digitales Onboarding von Neukund*innen in Banken möglich gemacht wird. Gefördert wird die Implementierung dieser Technologie am Markt im Wesentlichen durch den Entwicklungseinsatz von Direktbanken. Das Setup dieses Verfahrens steht im Kontrast zu den Kernelementen – Kundenberatung und physische Eröffnung – welche eng mit klassischen Banken verbunden wird. Digitalisierung hat sich zu einem Synonym von Fortschritt entwickelt, viele positive Aspekte, aber vor allem eine Effizienzsteigerung im Prozesse sind beobachtbar. Erfolge wie unter anderem die geografische Markterweiterung samt einem ertragssteigernden Marktsegment, verbesserte Kundenzufriedenheit und Prozessexzellenz, die den heutigen Anforderungen gerecht wird sind zu verzeichnen. Welche weiteren Chancen und Risiken zwei der bedeutendsten Finanzplätze in Europa – Liechtenstein und Deutschland – im Detail mit dieser Technologie verbinden, ist Ziel dieser Forschungsarbeit, an wessen Ende eine konkrete Handlungsempfehlung kommuniziert werden wird.
This thesis focuses on implementing and testing communication over a private 5G standalone network in an industrial environment, with a specific emphasis on communication between two articulated robots. The main objective is to examine machine-to-machine communication behavior in various test scenarios. Initially, the 5G core and radio access network components are described, along with their associated interfaces, to establish foundational knowledge. Subsequently, a use case involving two articulated robots is implemented, and essential metrics are defined for testing, including round-trip time, packet and inter-packet delay, and packet error rate. The tests investigate the impact of 5G quality of service, packet size, and transmission interval on communication between the robots, focusing on the effects of network traffic. The results highlight the significance of prioritizing network resources based on the assigned quality of service identifier (5QI), demonstrate the influence of packet sizes on communication performance, and underscore the importance of transmission intervals for automation purposes. Additionally, the study examines how network disturbances influence the movements of a robot controlled via 5G, establishing a direct relationship between network metrics and the resulting deviations in the robot’s trajectory. The work concludes that while machine-to-machine communication can be successfully implemented with 5G SA, tradeoffs must be carefully considered, especially concerning packet error rate, and emphasizes the importance of understanding the required resources before implementation to ensure feasibility. Future research directions include investigating network slicing, secure remote control of robots, and exploring the use of higher frequency bands. The study highlights the significance of aligning theoretical standards with practical implementation options in the evolving landscape of 5G Networks.
Der stationäre Handel ist von zunehmenden Unsicherheiten gekennzeichnet, wobei die wachsende Verlagerung des Einkaufs auf die digitalen Vertriebskanäle dabei eine zentrale Rolle spielt. Jenen Entwicklungen kann mitunter mit der Einführung eines Omnichannel-Geschäftsmodells entgegengewirkt werden, wodurch der Fortbestand der stationären Geschäfte unterstützt werden kann. Für die Omnichannel-Etablierung ist eine Umstrukturierung des Handels essenziell, vielfach hängt dies mit einer Neuausrichtung der Geschäftsarchitektur zusammen. In diesem Kontext werden die relevanten Geschäftsprozesse in Frage gestellt und gegebenenfalls neu definiert. Das Hauptziel dieser Arbeit war es daher, auf Basis einer theoretisch-konzeptionellen Methodik herauszufinden, wie der stationäre Handel durch die Ausrichtung der Geschäftsprozesse an einem Omnichannel-Geschäftsmodell langfristig und nachhaltig optimiert werden kann. Anhand der Ergebnisse konnte ein Leitfaden entwickelt werden, welcher sich an EinzelhändlerInnen richtet und bei der Omnichannel-Transformation Unterstützung gewährleisten soll. Aus den durchgeführten Analysen wurden schließlich dezidierte Fokuspunkte abgeleitet, denen in der Transformationsphase besondere Aufmerksamkeit zu schenken gilt. Hierzu zählt nicht nur die IT-Landschaft und die Datenanalytik, sondern auch die Organisation samt den involvierten Personen und den entsprechenden Kompetenzen. Die Berücksichtigung aller Aspekte kann die Chancen einer erfolgreichen Omnichannel-Integrierung erhöhen, aber aufgrund der Komplexität nicht garantieren.
In this paper, a 256-channel, 10-GHz arrayed waveguide gratings demultiplexer for ultra-dense wavelength division multiplexing was designed using an in-house developed tool called AWG-Parameters. The AWG demultiplexer was designed for a central wavelength of 1550 nm and the structure was simulated in PHASAR tool from Optiwave. Two different AWG designs were developed and the influence of the design parameters on the AWG performance was studied.
We present design of planar 16-channel, 100-GHz multi-mode polymer-based AWG. This AWG was designed for central wavelength of 1550 nm applying AWG-Parameters tool. The AWG structure was created and simulated in the commercial photonic tool PHASAR from Optiwave. Achieved transmission characteristics were evaluated by AWG-Analyzer tool. For the design, multi-mode waveguides having a cross-section of (4x4) µm2 were used. The simulated results show strong worsening of the transmission characteristics in comparison when using single-mode waveguides. Nevertheless, the transmitting channels are clearly separated. The reason for using thicker multi-mode waveguides in the design is possibility to fabricate the AWG structure on polymer basis using direct laser writing lithography.
This paper presents design, simulation, and optimization of the three-dimensional 1×4 optical multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding. The splitter was simulated by using beam propagation method in BeamPROP simulation engine of RSoft photonic tool and optimized for an operating wavelength of 1.55 µm. According to the minimum insertion loss, the dimensions of the MMI coupler and the length of the whole MMI splitter structure were optimized applying a waveguide with a core size of 4×4 µm2. The objective of the study is to create a design for fabrication by three-dimensional direct laser writing optical lithography.
Design, simulation, and optimization of the 1×4 optical three-dimensional multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding is demonstrated. The splitter was simulated by using beam propagation method in BeamPROP simulation module of RSoft photonic tool and optimized for an operating wavelength of 1.55 μm . According to the minimum insertion loss, the dimensions of the splitter were optimized for a waveguide with a core size of 4×4 μm2 . The objective of the study is to create the design for fabrication by three-dimensional direct laser writing optical lithography.
Erneuerbare Energiegemeinschaften (eEG) sind ein neues, innovatives und in der Entwicklung befindendes Thema bzw. Projekt. Entstanden ist es dadurch, dass Österreich die Vorschläge und neuen Gesetze aus dem Clean energy for all Europeans package mit der Verabschiedung des Erneuerbaren-Ausbau-Gesetz Ende 2021 in nationales Recht umgesetzt hat. In dem Leitfaden Energiegemeinschaften Ausschreibung 2021 ist in der Pionierphase und Integrationsphase klar vorgegeben, dass ein Monitoring über zwei Betriebsjahre zu betreiben ist. Das Monitoring von erneuerbaren Energiegemeinschaften wird in dieser Arbeit erstmalig behandelt. Es wurden Key Performance Indicators entwickelt, spezifiziert und erste Probeerhebungen durchgeführt. In dieser Arbeit wurde untersucht, welche Monitoring-Bereiche es geben könnte, mit welchem Erfolgsindikatoren-Set zum aktuellen Zeitpunkt ein sinnvolles Monitoring betrieben werden kann und welche Erfolgsindikatoren im Allgemeinen in Österreich erforderlich sind, um eine Aussage über den Erfolg von erneuerbaren Energiegemeinschaften treffen zu können. Hierfür wurde eine Grundlagenforschung im Bereich erneuerbare Energiegemeinschaften, ein normativer Vergleich zu ähnlichen Förderprogrammen und Experteninterviews durchgeführt. Anhand der daraus resultierenden Ergebnisse wurden finale KPIs spezifiziert. Mit diesen KPIs wurde in einem Monitoring-Tool ein Erfolgsindikatoren-Set angelegt und mit entsprechenden Zielwerten in Kontext gebracht. Zusätzlich wurden Daten von verschiedenen eEG angefragt und anhand dessen wurden in dem Tool erste Probeerhebungen durchgeführt, um die Machbarkeit zu untersuchen.
Grey Box models provide an important approach for control analysis in the Heating, Ventilation and Air Conditioning (HVAC) sector. Grey Box models consist of physical models where parameters are estimated from data. Due to the vast amount of component models that can be found in literature, the question arises, which component models perform best on a given system or dataset? This question is investigated systematically using a test case system with real operational data. The test case system consists of a HVAC system containing an energy recovery unit (ER), a heating coil (HC) and a cooling coil (CC). For each component, several suitable model variants from the literature are adapted appropriately and implemented. Four model variants are implemented for the ER and five model variants each for the HC and CC. Further, three global optimization algorithms and four local optimization algorithms to solve the nonlinear least squares system identification are implemented, leading to a total of 700 combinations. The comparison of all variants shows that the global optimization algorithms do not provide significantly better solutions. Their runtimes are significantly higher. Analysis of the models shows a dependency of the model accuracy on the number of total parameters.
Effective lead management
(2023)
In the last few years the global interest on lead management has increased. This classic topic for marketing and sales departments is aimed at converting potential customers into sales. The following thesis identifies the challenges and solutions for marketing and sales departments in order to process effective lead management. Using data from a literature review and qualitative empirical research, conducted with representatives of marketing and sales departments, the results showed overall and task specific challenges and solutions. The research indicates that overall challenges and solutions regarding the gap between marketing and sales, new processes and data management including data quality, software and silos emerge. In addition task specific challenges and solutions concerning lead generation including purchased leads, lead qualification, lead nurturing and sales specific challenges and solutions conclusively the focus on existing customers, time famine and lead routing were identified. This thesis provides a framework for further studies regarding the challenges and solutions for marketing and sales departments processing lead management.
A model is presented that allows for the calculation of the success probability by which a vanilla Evolution Strategy converges to the global optimizer of the Rastrigin test function. As a result a population size scaling formula will be derived that allows for an estimation of the population size needed to ensure a high convergence security depending on the search space dimensionality.
Als Folge des demographischen Wandels müssen Unternehmen in Österreich und ganz Europa lernen, mit einer alternden Belegschaft, dem Fachkräftemangel und Problemen bei der Rekrutierung von Mitarbeitenden umzugehen. Um erfolgreich wirtschaften zu können, sind Unternehmen daher gezwungen, solche Arbeitsbedingungen zu bieten, dass Mitarbei-tende aller Generationen gesund und leistungsfähig ihre Arbeit tun können. Die generatio-nenspezifische Gestaltung der Betrieblichen Gesundheitsförderung setzt an diesem Punkt an und hilft den Unternehmen, der demographischen Entwicklung gut gerüstet zu begeg-nen. Die vorliegende Arbeit beschäftigt sich mit der generationenspezifischen Betrieblichen Ge-sundheitsförderung. Im Rahmen einer qualitativen Untersuchung werden Chancen und Ri-siken identifiziert, die in einer generationenspezifischen Betrieblichen Gesundheitsförderung liegen. Dabei werden die Bedürfnisse der unterschiedlichen Generationen an die Betriebli-che Gesundheitsförderung berücksichtigt. Am Ende der Arbeit steht ein Maßnahmenkatalog für generationenspezifische Betriebliche Gesundheitsförderung, der die Chancen und Risiken die darin liegen, miteinbezieht und eine Unterstützung in der praktischen Arbeit im Unternehmen bieten soll.
„Sozialraumarbeit“ und „Sozialraumorientierung“ sind Schlagworte der letzten Jahre, die die Wiederentdeckung des Sozialräumlichen nicht nur in der Sozialen Arbeit markieren. Das gesteigerte Interesse reicht weit über die Disziplin und Profession der Sozialen Arbeit hin-aus und findet ihren Niederschlag auch in der Sozialpolitik und Verwaltung, in kommunalen und regionalen Strukturen sowie in den Organisationen des Sozialwesens. Die Entstehungsgeschichte der Sozialen Arbeit in Vorarlberg ist eng verknüpft mit der sozialräumlichen Bearbeitung sozialer Probleme. Weniger Aufmerksamkeit in der Auseinandersetzung der letzten Jahre wird hierbei auf die Soziale Arbeit als Profession bzw. die Sozialarbeiten-den selbst gelegt. Die Studie soll hierzu im Hinblick auf die Gestaltung von kommunaler sowie sozialräumlicher Sozialer Arbeit und der Profession Soziale Arbeit einen Beitrag leisten. Grundlage der Studie ist die qualitative Inhaltsanalyse leitfadengestützter qualitativer Interviews mit Sozialarbeitenden der sozialräumlichen Sozialen Arbeit Vorarlbergs. Anhand der zentralen sowie theoretischen Dimensionen von Sozialer Arbeit und Konzepten der sozialräumlichen Sozialen Arbeit werden Faktoren für gelingende sozialräumliche Soziale Arbeit, im Speziellen im kommunalen Rahmen, sowie die Herausforderungen in der Praxis und als Profession identifiziert.
Im Vertriebscontrolling halten zunehmend Verfahren aus dem Bereich Predictive Analytics Einzug. Hierdurch verändern sich die klassischen Arbeitsweisen mehr und mehr. Doch welche Faktoren sind dabei zu berücksichtigen und welche Einsatzmöglichkeiten finden sich für Predictive Analytics im Umfeld des Vertriebscontrollings? Dieser Frage wird in der vorliegenden Arbeit nachgegangen. Hieraus ergibt sich das Ziel, Einsatzmöglichkeiten für Predictive Analytics im Vertriebscontrolling herauszustellen und Schlüsselfaktoren herauszuarbeiten, die in diesem Kontext zu berücksichtigen sind. Außerdem sollen diesbezügliche Handlungsempfehlungen benannt werden. Dabei liegt der Fokus auf der Branche des Maschinen- und Anlagenbaus. Um diese Forschungsfragen zu beantworten, wurde mittels einer Literaturanalyse ein Reifegradmodell erarbeitet, das die verschiedenen Reifegrade über die relevanten Dimensionen Daten, Technologie, Prozesse, Methoden und Kompetenzen darstellt. Zudem wurden Bei-spiele für die Nutzung der häufigsten Methoden aus dem Bereich Predictive Analytics im Controlling-Umfeld zusammengetragen. Vor diesem Hintergrund konnten die Schlüsselfaktoren für den erfolgreichen Einsatz von Predictive Analytics im Vertriebscontrolling abgeleitet wer-den. Des Weiteren wurde eine qualitative Befragung in Form von Experteninterviews durch-geführt, wobei die in den Interviews thematisierten Unternehmen in das genannte Reifegradmodell eingruppiert wurden. Es zeigten sich bei der Analyse im Allgemeinen niedrige Reifegrade in den Dimensionen Methoden, Kompetenz und Technologie. Hieraus ergeben sich die folgenden Handlungsempfehlungen: die Einführung geeigneter Software aus dem Predictive-Analytics-Bereich, eine erste Anwendung von Predictive-Analytics-Methoden sowie der Aufbau von Wissen in den Bereichen Data-Science und Business-Analytics in Form von Fortbildungsmaßnahmen. Werden diese Empfehlungen befolgt, kann in Unternehmen aus dem Maschinen- und Anlagenbau ein erfolgreicher Einsatz von Predictive Analytics im Vertriebscontrolling gelingen. Hierdurch wiederum können die betreffenden Unternehmen bei der Prognose zukünftiger Entwicklungen unterstützt und wertvolle Entscheidungshilfen erlangt werden, was in weitergehend Forschungsarbeiten aufgegriffen werden kann.
Einfluss verhaltensökonomischer Faktoren auf die Nutzung neuer Technologien im Prozessmanagement
(2023)
Process Mining ist ein effektives Werkzeug, um bestehende Lücken in der Prozessüberwachung eines im Unternehmen integrierten Prozessmanagements zu verringern. Trotz dem weitverbreiteten Bewusstsein über diesen Umstand, wird Process Mining bisher in wenigen Unternehmen erfolgreich eingesetzt. Da die Einführung einer neuen Technologie als Change-Projekt einzustufen ist, ist die soziale Ebene in Form der Mitarbeitenden zu berücksichtigen. Da Menschen nicht ausschließlich rational entscheiden und handeln, ist davon auszugehen, dass auch Erkenntnisse aus der Verhaltensökonomie in diesem Zusammenhang eine Rolle spielen. Die vorliegende Arbeit beschäftigt sich insbesondere mit möglichen verhaltensökonomischen Faktoren, die für die Nutzung neuer Technologien im Prozessmanagement relevant sind. Für die Beantwortung dieser Frage wurde als Anwendungsbeispiel das Feld des Process Mining und ein theoretisch-konzeptionelles Vorgehen gewählt. Dabei werden zunächst die Forschungsfelder Process Mining, Change Management und Verhaltensökonomie theoretisch aufgearbeitet und mit verschiedenen Eigenschaften charakterisiert, um dann mögliche verhaltensökonomische Faktoren abzuleiten. Diese Masterarbeit zeigt, dass verhaltensökonomischen Faktoren in Form von kognitiven Verzerrungen entscheidend zum Erfolg bei der Einführung neuer Technologien beitragen. Von den drei ermittelten Charakteristika der „Neuartigkeit“, der „Komplexität der Technologie“ und den mit der Technologie einhergehenden „Ängsten und Unsicherheiten“ lassen sich folgende kognitive Verzerrungen ableiten: Der Status-Quo-Bias, die Verlustaversion, der Confirmation Bias, der Appeal to Novelty und der Pessimism Bias. Für jede kognitive Verzerrung wurden Gegenmaßnahmen aufgezeigt.
Die vorliegende Arbeit setzt sich mit Forschungstrends im Bereich der Entscheidungsfindung von Manager:innen auseinander. Dabei stehen komplexe Entscheidungen im Vordergrund. Im theoretischen Teil erfolgte eine Einführung in die Entscheidungstheorie. Anschließend wird die Funktion des Managements als Entscheidungsträger:in thematisiert. Anhand einer vertieften Literarturrecherche wurde eine Trendanalyse durchgeführt, um herauszufinden, welche Themenbereiche besonders viel Aufmerksamkeit in der Forschung über komplexe Managemententscheidungen erlangt haben. Herausgefunden wurde, dass besonders multikriterielle Entscheidungsmethoden beforscht wurden. Es wurde häufig im Bereich Energiewirtschaft, Nachhaltigkeit und Klimawandel geforscht, da hier die Voraussetzungen für komplexe Entscheidungen gegeben sind. Neben mathematisch fundierten Methoden kommen auch heuristische Ansätze zur Komplexitätsreduktion zur Anwendung, lässt sich aus den Forschungsergebnissen ableiten. Insgesamt wurden 12 Trends identifiziert, die sich teilweise überschneiden. Aus den gesichteten Forschungsarbeiten ließen sich Handlungsempfehlungen ableiten, die in einem eigenen Kapitel präsentiert werden.
Der Übergang zu erneuerbaren Energiesystemen und deren optimale Betriebsweise ist entscheidend für die Reduzierung des Energieverbrauchs und der damit verbundenen Einsparung von CO2-Emissionen. In privaten Haushalten dominiert traditionell die Hystereseregelung bei der Wärmeerzeugung. Neuere Bauten, ausgestattet mit Wärmepumpen und Photovoltaikanlagen, bieten jedoch beachtliches Potenzial zur Effizienzsteigerung durch angepasste Regelungsstrategien. Eine intelligente Laststeuerung ermöglicht erhebliche Kosteneinsparungen und eine Erhöhung des Autarkiegrades. Vorhandene literarische Ansätze liefern Methoden zur Systemmodellierung und -identifikation. Darüber hinaus demonstrieren sie das Potenzial der Optimierung durch den Model Predictive Control (MPC) Ansatz. Eine spezifische Evaluierung anhand von Realdaten eines Energiesystems mit Abluft-Wärmepumpe fehlt jedoch. Daher bedarf es der Bewertung des Lastverschiebungspotentials dieser Systemkonfiguration. Die Systemidentifikation erfolgt basierend auf Messdaten, welche gleichzeitig als Referenz für den Vergleich des traditionellen Hysteresebetriebs mit der MPC-Steuerung dienen. Die Analyse offenbart das Lastverschiebungspotential durch die optimierte Betriebsweise einschließlich einer Gesamtkosteneinsparung von bis zu 42% und einer Steigerung des Autarkiegrades um bis zu 10%. Diese Potentiale variieren saisonal, sind jedoch das ganze Jahr über vorhanden.
Strain-induced dynamic control over the population of quantum emitters in two-dimensional materials
(2023)
The discovery of quantum emitters in two-dimensional materials has triggered a surge of research to assess their suitability for quantum photonics. While their microscopic origin is still the subject of intense studies, ordered arrays of quantum emitters are routinely fabricated using static strain-gradients, which are used to drive excitons toward localized regions of the 2D crystals where quantum-light-emission takes place. However, the possibility of using strain in a dynamic fashion to control the appearance of individual quantum emitters has never been explored so far. In this work, we tackle this challenge by introducing a novel hybrid semiconductor-piezoelectric device in which WSe2 monolayers are integrated onto piezoelectric pillars delivering both static and dynamic strains. Static strains are first used to induce the formation of quantum emitters, whose emission shows photon anti-bunching. Their excitonic population and emission energy are then reversibly controlled via the application of a voltage to the piezoelectric pillar. Numerical simulations combined with drift-diffusion equations show that these effects are due to a strain-induced modification of the confining-potential landscape, which in turn leads to a net redistribution of excitons among the different quantum emitters. Our work provides relevant insights into the role of strain in the formation of quantum emitters in 2D materials and suggests a method to switch them on and off on demand.
Im vorliegenden Paper wird ein Vergleich zwischen Produktions-und Simulationsdaten präsentiert welches im Rahmen einer größeren Initiative zur Verwendung von Shopfloor Daten bei einem Projektpartner in der Automobilindustrie umgesetzt wurde. In diesem Projekt wurden die Daten die während der Füllbildsimulation entstehen mit den Daten aus der finalen Werkzeugabnahme verglichen um zu analysieren, wie genau diese miteinander über einstimmen. Je besser die Simulation ist, desto schneller kann der gesamte Werkzeugentwicklungsprozess abgewickelt werden, welcher als Kernprozess massives Einsparungspotenzial und damit Wettbewerbsvorteil mit sich bringt.
The usage of data gathered for Industry 4.0 and smart factory scenarios continues to be a problem for companies of all sizes. This is often the case because they aim to start with complicated and time-intensive Machine Learning scenarios. This work evaluates the Process Capability Analysis (PCA) as a pragmatic, easy and quick way of leveraging the gathered machine data from the production process. The area of application considered is injection molding. After describing all the required domain knowledge, the paper presents an approach for a continuous analysis of all parts produced. Applying PCA results in multiple key performance indicators that allow for fast and comprehensible process monitoring. The corresponding visualizations provide the quality department with a tool to efficiently choose where and when quality checks need to be performed. The presented case study indicates the benefit of analyzing whole process data instead of considering only selected production samples. The use of machine data enables additional insights to be drawn about process stability and the associated product quality.
Der Fremdvergleichsgrundsatz ist ein wichtiges Instrument zur Bestimmung von Verrechnungspreisen zwischen verbundenen Unternehmen, um Gewinnverschiebungen zu vermeiden. Durch den Vergleich mit unabhängigen Unternehmen sollen angemessene Preise und Bedingungen für internationale Transaktionen gewährleistet werden. Die Anwendung des Fremdvergleichsgrundsatzes erfordert eine sorgfältige Analyse der Transaktionen und trägt zur Einhaltung der Steuervorschriften bei. Die wirtschaftlichen Auswirkungen der Covid-19-Pandemie haben jedoch neue Herausforderungen für die Bestimmung von Verrechnungspreisen hervorgebracht, wie die Berücksichtigung staatlicher Hilfen oder das Vorhandensein verlässlicher Vergleichsdaten. Konzernunternehmen waren daher dazu gezwungen, ihre bisherige Verrechnungspreispolitik zu überdenken und gegebenenfalls anzupassen. In der vorliegenden Masterarbeit werden die Auswirkungen der Covid-19-Pandemie auf die Bestimmung von Verrechnungspreisen in multinationalen Konzernunternehmen mit Hauptsitz in Vorarlberg untersucht. Um das angestrebte Ziel dieser Arbeit zu erreichen, ist es von großer Bedeutung, den aktuellen Forschungsstand zu den Auswirkungen der Covid-19-Pandemie auf die Bestimmung von Verrechnungspreisen durch eine umfassende Literaturrecherche zu erfassen und die rechtlichen Grundlagen zu analysieren. Basierend auf dem gewonnenen theoretischen und rechtlichen Wissen wurden Fachleute bedeutender Unternehmen mit Headquarter in Vorarlberg befragt. Darüber hinaus wurden Expertinnen aus renommierten Beratungsunternehmen befragt, um die Thematik aus verschiedenen Perspektiven zu beleuchten.
The advent of autonomous and self-driving cranes represents a significant advancement in industrial automation. One critical prerequisites for achieving this long-term goal is the accurate and reliable detection of tools guided by ropes in real-world environments. Since the tool is suspended by ropes, the tool pose cannot be controlled directly. This master’s thesis addresses the challenges of pose estimation for rope-guided tools using point cloud measurements. The proposed algorithm utilizes constraints imposed by the crane kinematics and information extracted during the segmentation process to efficiently infer the pose of the hook, therefore enabling the use of the pose for decision making in real-time critical applications. RANSAC (Random Sample and Consensus) is deployed in the segmentation process to extract geometric primitives from the point cloud which represent the ropes and distinctive parts of the tool. Since the point cloud is often to sparse for feature matching a bounding box is used to estimate the initial position of the tool. Two different methods are presented to improve the initial pose. A computationally expensive method with a high level of confidence, integrating the ICP (Iterative Closest Point) algorithm is used as a benchmark. A linear Kalman filter is used in the second method which is real-time capable. The benchmark is then used to evaluate the real-time capable approach. The core contributions of this research lie in the innovative utilization of bounding boxes for pose estimation. The findings and methodologies presented herein constitute an advancement towards the realization of autonomous and self-driving cranes.
Il presente capitolo è incentrato su uno dei nuovi paradigmi di produzione e consumo, l’economia circolare – i.e., “un’economia in cui gli scarti e l’inquinamento sono minimizzati grazie al design consapevole di prodotti, processi e servizi, il valore delle risorse è mantenuto il più a lungo possibile e i sistemi naturali vengono rigenerati” (Gusmerotti et al., 2020, p. 9). L’elaborato si focalizza in particolare su uno dei modelli di business considerati “circolari” (CBM) (Linder e Williander, 2017), il product-as-a-service (PaaS da qui in poi) (Lacy et al., 2016). Alla base di questo modello di business vi è l’idea che i clienti non acquisiscono la proprietà dei beni, bensì li utilizzano al pari dei servizi, a fronte di un pagamento, come riporta la letteratura concernente i product-service systems (PSS) (Lacy et al., 2016; Mont, 2002; Tukker e Tischner, 2006; Tukker, 2015). Questo approccio al consumo rientra nel più complesso fenomeno della servitizzazione, la quale comporta “l’innovazione nelle capacità e nei processi di un’impresa, in modo che essa possa meglio creare valore – per il cliente e l’impresa stessa – passando dalla vendita di prodotti alla vendita di sistemi di prodotto-servizio” (Neely, 2009, p. 10).
Parametric anti-resonance is a phenomenon that occurs in systems with at least two degrees of freedom; this can be achieved by periodically exciting some parameters of the system. The effect of this properly tuned periodicity is to increase the dissipation in the system, which leads to a raising in the effective damping of vibrations. This contribution presents the design of an open-loop control to reduce the settling time using the anti-resonance concept. The control signal consists of a quasi-periodic signal capable of transferring the system’s oscillations from one mode to another mode of the system. The general averaging technique is used to characterize the dynamics, particularly the so-called slow dynamics of motion. With this analysis, the control signal is designed for the potential application of a microelectromechanical sensor arrangement; for this specific example, up to 96.8% reduction of settling time is achieved.
Reporting der Zukunft
(2023)
Das Reporting als Kernkompetenz des Controllings befindet sich in einem Prozess der Veränderung. Die Digitalisierung und sich ändernde Anforderungen an das Controlling erfordern eine Weiterentwicklung und den Einsatz neuer Analysemethoden. Die deskriptiv ausgerichtete Welt des Reportings erfährt durch den Einsatz von Business Analytics eine Erweiterung um prädiktive und präskriptive Methoden, die Unternehmen in der Entscheidungsfindung unterstützen sollen. Voraussetzungen für den Einsatz von Business Analytics sind die in den Unternehmen eingesetzten Technologien zur Digitalisierung der Geschäftsprozesse und die für die Analyse verwendbaren Datengrundlagen. Neben sich ändern-den Prozessen innerhalb des Reportings, gilt es auch (Analyse-)Kompetenzen zu entwickeln.
Im Rahmen der Business Analytics kommen statistische Methoden zum Einsatz, die reale Umwelten modellierbar und somit quantifizier- und berechenbar machen. Doch welche Methoden werden im Bereich Business Analytics heute verwendet und dienen bereits jetzt oder zukünftig einer Datenanalyse und -aufbereitung im Sinne einer Advanced Analytics? Anhand einer Case Study mit vier befragten Unternehmen der Region wurde der aktuelle Entwicklungsstand des Reportings in eine fünfstufige Matrix eingestuft.
Die vorliegende Arbeit lässt sich im Bereich der Bonitätsbewertung einordnen. Es gibt bisweilen kein gängiges System, mit welchem eine Debt Capacity oder eine Bonitätsbewertung ermittelt wird. In der Praxis erfolgt oftmals die Vereinfachung dieser Bewertung anhand des EBITDA. Mit dieser Arbeit soll untersucht werden, ob diese Vereinfachung sinnvoll ist. Dazu werden neben dem EBITDA auch der Free Cashflow und die Debt Capacity von Unternehmen genauer untersucht. Für 69 Unternehmen werden die Jahresabschlussdaten und Credit Ratings der Big Three zusammengestellt. Anhand der Korrelations- und Regressionsanalyse werden die Werte verglichen. Das EBITDA unterliegt dem Free Cashflow sowohl bei der Abschätzung der Debt Capacity als auch bei der Ermittlung von Credit Ratings. Beide besitzen jedoch zu wenig Aussagekraft, um nur aufgrund dieser Daten Managemententscheidungen treffen zu können. Die Vereinfachung kann in dieser Form nicht unterstützt werden, und es sollte immer eine detailliertere Prüfung vorgezogen werden. Es gibt jedoch statistisch signifikante Zusammenhänge, weshalb das EBITDA und der Free Cashflow zumindest einen Anhaltspunkt für die Bewertung bieten können.
Power plant operators increasingly rely on predictive models to diagnose and monitor their systems. Data-driven prediction models are generally simple and can have high precision, making them superior to physics-based or knowledge-based models, especially for complex systems like thermal power plants. However, the accuracy of data-driven predictions depends on (1) the quality of the dataset, (2) a suitable selection of sensor signals, and (3) an appropriate selection of the training period. In some instances, redundancies and irrelevant sensors may even reduce the prediction quality.
We investigate ideal configurations for predicting the live steam production of a solid fuel-burning thermal power plant in the pulp and paper industry for different modes of operation. To this end, we benchmark four machine learning algorithms on two feature sets and two training sets to predict steam production. Our results indicate that with the best possible configuration, a coefficient of determination of R^2 = 0.95 and a mean absolute error of MAE=1.2 t/h with an average steam production of 35.1 t/h is reached. On average, using a dynamic dataset for training lowers MAE by 32% compared to a static dataset for training. A feature set based on expert knowledge lowers MAE by an additional 32 %, compared to a simple feature set representing the fuel inputs. We can conclude that based on the static training set and the basic feature set, machine learning algorithms can identify long-term changes. When using a dynamic dataset the performance parameters of thermal power plants are predicted with high accuracy and allow for detecting short-term problems.
Die Umsetzung von Konzepten der Industrial Internet of Things (IIoT) stellt Unternehmen vor große Herausforderungen. Ein Kernaspekt dabei ist das Vernetzen maschineller und menschlicher Akteure, sodass sich diese gegenseitig verstehen und dadurch sinnvolle Entscheidun-gen treffen können. Dieses Verstehen setzt eine semantische Interoperabilität der Akteure voraus, die meist mithilfe von Ontologien und Ontologie Matching ermöglicht werden soll. Ziel dieser Arbeit ist es, die Grundkonzepte zum Ermöglichen semantischer Interoperabilität zusammenzufassen und aktuelle Anwendungsbeispiele und Herangehensweisen zu besprechen, um darauf aufbauend bestimmen zu können, wie weit Forschung und Unternehmen noch von der Umsetzung der semantischen Interoperabilität im Kontext der IIoT entfernt sind. Dazu wurde ein theoretisch-konzeptionelles Vorgehen gewählt. Die Ergebnisse der vorliegenden Arbeit weisen darauf hin, dass in naher Zukunft nicht mit einer erfolgreichen Umset-zung zu rechnen ist, welche generisch genug ist, in unterschiedlichen Bereichen der IIoT eingesetzt zu werden. Dafür konnte gezeigt werden, dass sich mehrere, mitunter gegenseitig beeinflussende Trends in der Herangehensweise zur Lösung der semantischen Interoperabilität ausgebildet haben, nämlich hybride Alignmentarchitekturen, ein modularer Aufbau von Ontologien, das Erstellen von maschinenlesbaren Standards und dazu gehörenden Ontologien sowie ein Trend zur Verwendung von Wissensgraph Embeddings. Besonders der letzte Trend ist dabei kritisch zu betrachten. Darüber hinaus konnten in dieser Arbeit offene Problemfelder bestimmt werden, die aus derzeitiger Sicht einer erfolgreichen Umsetzung semantischer Interoperabilität entgegenstehen. Dies betrifft einerseits das Fehlen einer Harmonisierung von IIoT-Standards und andererseits den Mangel an Alignmentdatenbanken und Benchmarks für Ontologie Alignments im Bereich der IIoT. Darüber hinaus bedarf es eines abgestimmten, strategischen Vorgehens der derzeit laufenden und zukünftigen Initiativen, um vorhandene Erkenntnisse besser zu nutzen und um sich wiederholende Probleme nachhaltig zu lösen.
Ansätze des maschinellen Lernens werden sowohl in der Forschung als auch in der Praxis eingesetzt, um gewünschte Ausgabedaten anhand bekannter Eingabedaten vorherzusagen. In dieser Masterarbeit wird die Anwendung des maschinellen Lernens in der Batteriedatenanalyse zur Bestimmung des Alterungsstatus von Lithium-Ionen-Batterien untersucht. Das Ziel dieser Arbeit besteht in der Vorhersage von Alterungskurven (englisch state of health - SoH) für Lithium-Ionen Batterien über die Anzahl der Entladezyklen (Zeitachse). Dies erfolgt auf der Grundlage zuvor erfasster Daten für drei Typen von Lithium-Ionen-Batterien, die bei Temperaturen von 15 °C, 25 °C und 35 °C sowie C-Raten von 0,5C, 1C und 2C aufgenommen wurden. Im Zuge dessen wurden die angewandten Methoden des maschinellen Lernens analysiert und ihre Ergebnisse verglichen. Der Umfang dieser Arbeit hebt sich von anderen Ansätzen des maschinellen Lernens in der Batteriedatenanalyse ab, da dieselben Methoden in einem breiteren Spektrum von Daten mit unterschiedlichen Temperaturen und Kathodenmaterialien verwendet wurden. Dies ist für die Analyse von Unterschieden im Verhalten in der Praxis relevant. Nach dem Erwerb und der Vorbereitung der Daten wurden Modelle mit vier ausgewählten Regressionsverfahren (lineare Regression, Ridge-Regression, Random-Forest-Regression und KNN-Regression) des überwachten Lernens trainiert und die Vorhersagen durchgeführt. Aus den Ergebnissen kann eine allgemeingültige Auslegungsgrundlage für weitere Untersuchungen und die praktische Anwendung abgeleitet werden, bei der die Vorhersagen von SoH-Kurven für Lithium-Ionen-Batterien mit linearer Regression und Ridge-Regression die höchste Genauigkeit aufweisen.
HINTERGRUND: Gesundheitsförderungsforschung und ‐ausbildung sind zentrale Hebel für Kapazitätsentwicklung und Voraussetzungen für eine qualitätsgesicherte Gesundheitsförderungspraxis. Das Kompetenzzentrum Zukunft Gesundheitsförderung im Fonds Gesundes Österreich hat als eine Aufgabe, Capacity Building für Gesundheitsförderung (GF) in Österreich zu unterstützen und weiterzuentwickeln. Das Diskussionspapier widmet sich der Frage, welche Maßnahmen es braucht, um die Ausbildung und Forschung in Österreich weiterzuentwickeln und zu stärken. ***METHODE: Aufbauend auf der Fallstudie zu Forschungsaktivitäten an (Privat‐)Universitäten, FHs, außeruniversitären Forschungseinrichtungen sowie Aktivitäten im Bereich Ausbildung zu einzelnen tertiären Studienangeboten mit explizitem GF‐Bezug (Plunger/Wahl 2023; Wahl/Plunger 2023) wurden mit Expertinnen und Experten aus den Bereichen Ausbildung, Forschung und Praxis im Rahmen von drei Workshops und zwei schriftlichen Feedbackschleifen Entwicklungsperspektiven zur Gesundheitsförderungsausbildung und ‐forschung entwickelt. ***ERGEBNISSE: Im Diskussionspapier wurden für die Bereiche Ausbildung und Forschung jeweils drei zentrale Entwicklungsperspektiven benannt und hinsichtlich eines Zielbilds, des Nutzens und der Realisierungsmöglichkeiten beschrieben: Im Bereich Ausbildung sind das die Stärkung der Vernetzung der Ausbildungs‐, Forschungs‐ und Praxiseinrichtungen, die Entwicklung und Etablierung von Kernkompetenzen in der Gesundheitsförderung und die (Weiter‐)Entwicklung spezialisierter Ausbildungsangebote und Lehrformate für Gesundheitsförderung. Für den Bereich Forschung sind das die Stärkung langfristiger finanzieller Ressourcen, die Stärkung von Strukturen für die Verbindung von Forschung, Policy und Praxis sowie die Stärkung von (Nachwuchs‐)Wissenschaftlerinnen, (Nachwuchs‐)Wissenschaftlern und des Forschungsumfelds für Gesundheitsförderungsforschung. Die einzelnen Perspektiven sind zum Teil eng miteinander verbunden und können einander stärken. Übergreifend braucht es sowohl für die Ausbildung als auch für die Forschung Advocacy‐Arbeit und Sensibilisierungsarbeit unter Expertinnen, Experten, Entscheidungsträgerinnen und ‐trägern sowie ausreichend finanzielle Ressourcen und Rahmenbedingungen, die die beschriebenen Entwicklungen ermöglichen. Die konkreten Inhalte der Entwicklungsperspektiven sollen in Zukunft unter Einbindung aller relevanten (inter‐)nationalen Akteurinnen und Akteure gestaltet werden.
Highly-sensitive single-step sensing of levodopa by swellable microneedle-mounted nanogap sensors
(2023)
Microneedle (MN) sensing of biomarkers in interstitial fluid (ISF) can overcome the challenges of self-diagnosis of diseases by a patient, such as blood sampling, handling, and measurement analysis. However, the MN sensing technologies still suffer from poor measurement accuracy due to the small amount of target molecules present in ISF, and require multiple steps of ISF extraction, ISF isolation from MN, and measurement with additional equipment. Here, we present a swellable MN-mounted nanogap sensor that can be inserted into the skin tissue, absorb ISF rapidly, and measure biomarkers in situ by amplifying the measurement signals by redox cycling in nanogap electrodes. We demonstrate that the MN-nanogap sensor measures levodopa (LDA), medication for Parkinson disease, down to 100 nM in an aqueous solution, and 1 μM in both the skin-mimicked gelatin phantom and porcine skin.
Supply shortages faced in products and resources from semiconductors to natural gas in recent years have had impact massive on global economy, but such challenges are not new for supply chain professionals. Many major events in the past have disrupted supply chains: 9/11 attack in New York, Tsunami in Japan to name a few, but COVID19 have had the biggest and widespread impact in the modern times. Even though supply chain resilience being a term coined in early 2000’s, its usage and importance has increased since then. With the curiosity of assessing the current state of sup-ply chain resilience literature and finding a resilience measurement method which is a one-fit for all supply chains in the manufacturing industry of Vorarlberg, the following research project was undertaken. Research is carried out with mixed methods, using a systematic literature review followed by expert interviews. In the conclusion of the research the author argues that there is a significant difference in the understanding of the term resilience within industry, there is a lack on the need for a meas-ure for resilience. The ways in which the structure of an organization impacts the level of resilience, foreseen benefits of digitalization and technologies for resilience are also dis-cussed. A comparative analysis on the SCR measurement methods discovered in literature, resulted in recommending Resilience index for on-time delivery proposed by Carvalho et al for the mentioned industry.
In an oversaturated market, companies are required to use innovative and, above all, creative advertising methods to capture their customers’ attention, and thus differentiate themselves from rival businesses. To this end, companies have been increasingly relying on the use of humor, a phenomenon that remains highly subjective and is perceived differently by each individual. This master’s thesis, which was completed as part of the International Marketing and Sales program at the FH Vorarlberg, focuses on this phenomenon of humor as well as its impact on advertising perception. With the aid of three different theories, the term “humor” is defined. Furthermore, this study explains and researches the so-called vampire effect, wherein various factors (in this case humor) draw attention away from the actual advertising message. In addition, this thesis takes a closer look at involvement, as a person’s involvement or interest in a brand or product can influence brand and product recall and recognition. An online survey was conducted to determine whether the vampire effect caused by humor is able to influence brand and product recall. In other words, this concerns whether the viewer can still remember the brand and product afterward or whether the humor employed triggers the vampire effect. Furthermore, this thesis explored whether the vampire effect caused by humor is able to influence brand and product recognition. Recall is the retrieval of information from memory without direct cues, whereas recognition refers to the recognition of information when it is presented again. Furthermore, within this context, it was discovered that brand and product recall varies with low and high involvement viewers of the advertisement. In other words, this means that the strength of the vampire effect caused by humor changes depending on the strength of the viewer’s involvement. During the course of this research, it was further observed that the humor employed significantly affects the perception of the advertising message, thus confirming the existence of the vampire effect. This effect also influences both brand as well as product recall and recognition. In both cases, participants in the survey were less able to remember the product and brand in the humorous advertising. Furthermore, it was proven that people with low involvement in the advertised product group are more heavily affected by the vampire effect. As such, they are more likely to not remember the product or brand after seeing the advertisement.
Die Masterarbeit befasst sich mit der Neugestaltung öffentlicher Räume. Anhand einer qualita-tiven Studie wird die Parkanlage Superkilen, Kopenhagen untersucht. Es wird die Frage nachgegangen, ob Superkilen aus der Perspektive der postmigrantischen Gesellschaft und der Sozialraumarbeit als ein gelungenes Beispiel gilt. Als Datengrundlage der Analyse dienen ein systematisches Review und eine teilnehmende Beobachtung. Die Analyse erfolgt anhand einer qualitativen Inhaltsanalyse. Die induktiv herausgearbeiteten Codes werden anhand des St. Galler Modells dargelegt. Die Ergebnisse zeigen, dass die Grundidee der Gestalter:innen, nämlich die Vielfalt des Viertels durch konkrete internationale Objekte darzustellen, nicht mit der Lebenswelt der Bewohner:innen übereinstimmte. Unterschiedliche Grundverständnisse in Bezug auf Kultur und Diversity wurden hierbei erkannt. Gleichzeitig zeigen sich spielerische Designelemente als besonders förderliche Faktoren für alltägliche Begegnungen in Superkilen und Aneignungen finden statt. Die interkulturelle Soziale Arbeit kann mit ihrer Differenzsensi-bilität und ihrem Fokus auf die unmittelbare Lebenswelt von Menschen als Profession und Disziplin zur Bearbeitung dieser Thematik beitragen.
Validierung der Stromnetzberechnungsansätze anhand realer Messungen in der Niederspannungsebene
(2023)
Die politischen Ziele der Energiewende und insbesondere der zunehmende Ausbau der Elektromobilität führt zu steigenden Belastungen in den Niederspannungsnetzen. Eines der Hauptprobleme besteht darin, dass die genauen Informationen über den Zeitpunkt und die Dauer der Ladevorgänge fehlen, was eine präzise Bestimmung des Netzzustandes erschwert - auch deshalb, weil dieser durch die statische Netzberechnung erhoben wird, welche weitestgehend auf Annahmen und nicht zeitreihenbasierten Werten beruht. Im Folgenden wird daher untersucht, wie groß die Abweichungen der Niederspannungsparameter zwischen Trafostation und letztem Kabelverteilschrank bei realen Messungen im Winter im Vergleich zur statischen Worst-Case Berechnung sind. Weiters wird ermittelt, welche Änderungen der Eingangsparameter zu einer Optimierung der Ergebnisse führen. Dafür werden reale Messungen in verschiedenen Niederspannungsspannungsnetzen realisiert und nach einer Analyse der Messergebnisse werden die Eingangsparameter für die Netzberechnung bestimmt. Auf Basis dieser Inputparameter werden vier verschiedene Szenarien gebildet und die Berechnung mit diesen Szenarien durchgeführt. Anschließend werden die Berechnungsergebnisse mit den Messergebnissen verglichen. Der Vergleich der Methoden zeigt, dass die Berechnung den Worst-Case-Fall im Netz sehr realistisch abbildet. Jedoch ist aufällig, dass dieser Fall nur selten vorkommt und die betrachteten Verteilernetze zum größten Teil viel geringer belastet sind. Die 95%-Szenario-Betrachtungen zeigen, dass eine Vernachlässigung der selten vorkommenden Ausreißer zu einer Änderung der Eingangsparameter und einer Optimierung der Netzberechnung führt. Aus der Untersuchung geht zusätzlich hervor, dass die Annahme des Leistungsfaktors cos ϕ mit 0,90 zu niedrig angesetzt ist. Es kann festgehalten werden, dass sich dieser bei allen Netzen zwischen 0,999 und 0,990 befindet. Dieser Eingangsparameter für die statische Worst-Case-Berechnung kann aufgrund der gewonnenen Erkenntnisse optimiert werden.
X-ray microtomography is a nondestructive, three-dimensional inspection technique applied across a vast range of fields and disciplines, ranging from research to industrial, encompassing engineering, biology, and medical research. Phasecontrast imaging extends the domain of application of x-ray microtomography to classes of samples that exhibit weak attenuation, thus appearing with poor contrast in standard x-ray imaging. Notable examples are low-atomic-number materials, like carbon-fiber composites, soft matter, and biological soft tissues.We report on a compact and cost-effective system for x-ray phase-contrast microtomography. The system features high sensitivity to phase gradients and high resolution, requires a low-power sealed x-ray tube, a single optical element, and fits in a small footprint. It is compatible with standard x-ray detector technologies: in our experiments, we have observed that single-photon counting offered higher angular sensitivity, whereas flat panels provided a larger field of view. The system is benchmarked against knownmaterial phantoms, and its potential for soft-tissue three-dimensional imaging is demonstrated on small-animal organs: a piglet esophagus and a rat heart.We believe that the simplicity of the setupwe are proposing, combined with its robustness and sensitivity, will facilitate accessing quantitative x-ray phase-contrast microtomography as a research tool across disciplines, including tissue engineering, materials science, and nondestructive testing in general.
Die Gewinnung von motivierten und qualifizierten Mitarbeitenden stellt aufgrund verschiedenster aktueller Einflussfaktoren wie demografische Veränderungen oder der Fachkräftemangel eine große Herausforderung für das Recruiting dar. Eine umso wichtigere Rolle spielt daher die Bindung des Personals ans Unternehmen. Die interne Rekrutierung bietet in diesem Zusammenhang eine Möglichkeit, die im Unternehmen bereits vorhandenen Ressourcen zu nutzen, wobei sich im Vergleich zur externen Personalbeschaffung Chancen wie auch Risiken ergeben. Es haben sich kritische Erfolgsfaktoren gezeigt, die erkannt und in weiterer Folge berücksichtigt werden sollten. Diese sind für das Vorgehen beim internen Recruiting von Bedeutung, um möglichst das volle Potenzial ausschöpfen zu können. Im Rahmen dieser Masterarbeit wurde eine ausführliche Literaturrecherche durchgeführt, sodass in weiterer Folge eine Forschungsfrage abgeleitet werden konnte. Es wurden sieben Interviews mit ausgewählten HR-Expertinnen und HR-Experten geführt, die in Unternehmen arbeiten, die der Vorarlberger Industrie zugehörig sind. Anschließend wurden die Interviews nach der qualitativen Inhaltsanalyse ausgewertet. Im Zuge der Diskussion wurden die Interviewergebnisse der Literaturrecherche gegenübergestellt, wobei die Forschungsfrage beantwortet werden konnte. Schlussendlich wurden Handlungsimplikationen für das interne Recruiting abgleitet. Die Forschungsergebnisse deuten darauf hin, dass es im Hinblick auf die interne Rekrutierung verschiedene Erfolgsfaktoren gibt, die Unternehmen für das eigene Vorgehen berücksichtigen können. Dazu zählen beispielsweise die Bedeutung der Kommunikation während des gesamten Prozesses – Kündigungsfristen und Übergabeprozesse sollten ausreichend besprochen und umfassend geplant werden. Zudem ist es hilfreich, interne Absagen mit Bedacht auszusprechen und sachliche Gründe aufzuzeigen. Auch die involvierten Führungskräfte spielen im gesamten internen Personalbeschaffungsprozess eine bedeutende Rolle. Darüber hinaus haben sich weitere Aspekte gezeigt, die für das Vorgehen beim internen Recruiting von Bedeutung sind.
In einer Zeit allgegenwärtiger Online-Interaktionen sind Datenschutzbedenken für Nutzer:innen von sozialen Medien und Messenger-Diensten zu einem wichtigen Thema geworden. Obwohl es wichtig ist, die Inhalte von Datenschutzrichtlinien bzw. Datenschutzerklärungen zu erfassen, haben Benutzer:innen Schwierigkeiten, den Umfang, die komplexe Rechtssprache und die technischen Details in diesen Dokumenten zu verstehen. Dies führt dazu, dass sie sich diesen Datenschutzrisiken, die mit ihren Online-Aktivitäten verbunden sind, nicht bewusst sind. Diese Masterarbeit beschäftigt sich mit der Frage, inwieweit Informationen von Social-Me- dia-Datenschutzrichtlinien durch eine einheitliche Struktur einem breiten Nutzer:innenkreis leichter zugänglich gemacht werden können. Diese sollen dabei nicht nur gekürzt, sondern durch den Einsatz gestalterischer Mittel vereinfacht, sprich simplifiziert, werden, ohne den jeweiligen Inhalt zu verfälschen. Die Studie wird einen benutzer:innenzentrierten Designansatz verwenden, der die Zusammenarbeit von Teilnehmer:innen mit unterschiedlichen demografischen Merkmalen und unterschied- lichen technologischen Kompetenzniveaus beinhaltet. Durch einen iterativen Prozess wird ein Zeichensystem in Form verschiedener Icons entworfen, verfeinert und bewertet, um die effektivsten Formate für die Übermittlung von Datenschutzinformationen zu ermitteln. Hierbei spielen wahrnehmungspsychologische Aspekte eine wesentliche Rolle. Um die Auswirkungen der Visualisierungen auf das Bewusstsein und das Verständnis der Datenschutzerklärungen der Benutzer:innen zu bewerten, wird ein gemischter Methodenansatz eingesetzt. Quantitative Daten werden durch Befragungen vor und nach der Intervention gesammelt, um das Wissen und Verständnis der Teilnehmer:innen über Datenschutzkonzepte zu bewerten. Darüber hinaus werden durch Interviews und der Erstellung sowie des Testings eines Prototypens qualitative Daten gesammelt, um tiefere Einblicke in die Wahrnehmungen und Erfahrungen der Teilnehmer:innen zu gewinnen. Für die Umsetzung des Prototypens ist eine Webseite angedacht, die Nutzer:innen einen Überblick der wichtigsten Inhalte der Datenschutzrichtlinien ermöglicht und in reduzierter Form, durch den Einsatz von Icons, darstellt (z. B. Was wird gesammelt? Welche Risiken sind damit verbunden? usw.). Die Ergebnisse dieser Forschungsarbeit werden zum Bereich der Informationsvisualisierung beitragen, indem sie Strategien ermöglicht, um komplexe Datenschutzerklärungen zu vereinfachen und sie für Nutzer:innen sozialer Medien und Messenger-Dienste zugänglicher zu machen. Durch die Förderung des Bewusstseins und des Verständnisses für Datenschutzpraktiken soll die Zielgruppe in die Lage versetzt werden, fundierte Entscheidungen bezüglich ihrer persönlichen Daten zu treffen und Datenschutzrisiken zu mindern. Die Entwicklung benutzer:innen-freundlicher bzw. menschenzentrierter Datenschutzschnittstellen fördert dabei nicht nur die Transparenz, sondern auch das Vertrauen in neue Technologien und Medien. Zusammenfassend setzt sich diese Masterarbeit mit der entscheidenden Herausforderung, das Datenschutzbewusstsein durch Vereinfachung und Visualisierung von Datenschutzrichtlinien sozialer Medien zu stärken. Durch die Kombination von Prinzipien der Informationsvisualisierung mit den teils schwer zugänglichen Inhalten dieser Texte versucht diese Arbeit, die Lücke zwischen dem Verständnis/Bewusstsein der Nutzer:innen und den rechtlichen Komplexitäten zu schließen und letztendlich eine datenschutzbewusstere digitale Gesellschaft zu fördern.
Schreiblehre und KI – Teil 3: Erste Schlussfolgerungen aus dieser Erfahrung für die Schreiblehre
(2023)
Minuten können in medizinischen Notfällen unmittelbar die Anwendbarkeit von Behandlungsmethoden, das Ausmaß von bleibenden Einschränkungen sowie die Überlebenschancen beeinflussen. Doch hat das präklinische Notfallmanagement heute mit steigenden Einsatzzahlen, zunehmenden Einsätzen ohne Dringlichkeit und dem demografischen Wandel bei gleichzeitigem Fachkräftemangel zu kämpfen. Entsprechend gewinnt das Prozessmanagement zur Gestaltung effizienter Rettungsketten an Bedeutung. Vor diesem Hintergrund ging die vorliegende Arbeit der Frage nach, welche Potentiale die Datenanalytik in vernetzten Rettungsketten für das Prozessmanagement hat, um wertvolle Zeit zu gewinnen. Zudem wurden die Herausforderungen der Datenanalytik in diesem Bereich betrachtet. Zur Beantwortung der Forschungsfrage wurde dabei eine theoretisch-konzeptionelle Vorgehensweise gewählt. Die Untersuchung zeigte, dass die Potentiale der Datenanalytik in diesem Kontext in der Entscheidungsunterstützung zur Standortwahl, zur Kapazitätsplanung und in der Abwicklung von Notfällen liegen. Zudem könnte diese bei der Prozessanalyse, sowie der Prävention und Vermeidung von Einsätzen unterstützen. Dahingegen liegen die Herausforderungen in der Notwendigkeit einer übergeordneten Strategie, der hinreichenden Datenqualität und Verfügbarkeit der Daten. Darüber hinaus bestehen Herausforderungen im Bereich der IT-Sicherheit und des Datenschutzes, sowie der oft fehlenden Vernetzung. Zusammenfassend wären die Potentiale der Datenanalytik zur Optimierung der Zeit in Rettungsketten vielversprechend, jedoch stehen dem Einsatz dieser aktuell noch eine Vielzahl an Herausforderungen gegenüber.
Die makroökonomischen Entwicklungen, insbesondere ausgelöst durch die Corona-Pandemie und den Ukraine/Russland-Krieg, stellen die Wirtschaftsakteure vor große Herausforderungen. Die Unsicherheiten im aktuellen Marktumfeld wirken sich auch auf Leveraged Buyout Transaktionen von Private Equity Investoren im deutschen Mittelstand und deren Finanzierungen aus. Ziel der Masterarbeit war es, die Auswirkungen dieser Entwicklungen auf die Akquisitionsfinanzierung durch Banken zu untersuchen und daraus Handlungsempfehlungen für Private Equity Investoren und Banken abzuleiten. Nach der Schaffung der theoretischen Grundlagen wurde für die empirische Untersuchung ein Mixed-Methods-Ansatz verfolgt, der die Durchführung von fünf Expert*inneninterviews und eine anschließende Online-Umfrage mit insgesamt 121 Teilnehmer*innen zur Verifizierung der qualitativen Ergebnisse und zur statistischen Überprüfung der gebildeten Hypothesen umfasste. Die Ergebnisse zeigen diverse Auswirkungen für den Finanzierungsprozess, die Strukturierung sowie die Syndizierung von Akquisitionsfinanzierungen, die aber je nach Branche, Geschäftsmodell und Transaktionsgröße unterschiedlich stark ausgeprägt sind.
Die berührungslose Bedienung stellt in der Mensch-Computer-Interaktion (HCI) eine wichtige Alternative gegenüber berührungsbasierter Bedienung dar. Expertinnen und Experten gehen davon aus, dass dadurch berührungsbasierte Bedienung in bestimmten Anwendungsfällen, wie in Operationssälen oder der Automobilbranche, abgelöst wird. Allerdings weisen gestenbasierte Systeme Inkonsistenzen bei der Bedienung auf, da diese für unterschiedliche Technologien, in verschiedenen Nutzungskontexten und gezielt durch Markendifferenzierung entwickelt werden. Eine weitere Herausforderung stellt die Uneinigkeit potenzieller Endnutzer:innen über geeignete Gesten dar (Gesture Disagreement Problem). Dies hat zur Folge, dass sich bisher kein allgemeingültiges Gestenset etablieren konnte. Um ein Gestenset für die berührungslose Bedienung für der HoloLens 2 in der mobilen Vermessung zu entwickeln, wurden kontextspezifische Anforderungen identifiziert und im Gestenerhebungsprozess berücksichtigt. Zur Identifizierung wurden in dieser Arbeit Interviews und eine Beobachtung der Nutzer:innen während des Arbeitsprozesses durchgeführt. Zudem untersucht diese Arbeit, ob und wie das oben genannte Problem der Uneinigkeit sowie die Voreingenommenheit im Gestenerhebungsprozess vermieden werden kann. Durch die Anwendung von zwei verschiedenen Priming-strategien sowie der Produktionsstrategie sollte diesen Problemen entgegengewirkt werden. Anhand der Auswertung ist zu erkennen, dass das Gesture Dis-agrement Problem nicht vollständig gelöst werden konnte. In der Gestenerhebung wurden 355 unterschiedliche Gesten für 19 Aufgaben erhoben. Bedienbefehle, die eine Assoziation zur berührungsbasierten Bedienung mit Bildschirmgeräten darstellten, wurden kaum erhoben. Dies beweist, dass die Voreingenommenheit vermieden werden konnte. Um die Auswahl der Gestenvorschläge einzuschränken wurden die Gesten von den Probandinnen und Probanden anhand der zwei Usability Kriterien „Einprägsamkeit“ und „Auffindbarkeit“ bewertet. Anhand von wissenschaftlichen Veröffentlichungen zur einhändigen Bedienung von Infotainmentsystemen zeigt sich, dass die Einprägsamkeit von Gestenbefehlen begrenzt ist. Im Kontext der mobilen Vermessung ist angedacht, Gestenbefehle als Shortcuts einzusetzen, um grafische Schnittstellen zu reduzieren. Dies hat zur Folge, dass die Probandinnen und Probanden eine Reihe von Gestenbefehlen lernen und sich einprägen müssen. Da aufgrund der hohen Anzahl der Gesten die Bewertungen nicht ausreichen, wurde die Auswahl anhand von zwei Auswertungsverfahren eingegrenzt. Zum einen wurde die Taxonomie für berührungslose Handgesten von Piumsomboon et al. (2013) herangezogen, um die Merkmale der Gesten zu gruppieren. Die Merkmale der Gesten wurden in einer Matrix, die die Bewertungen zur Einprägsamkeit und Auffindbarkeit berücksichtigen, eingeordnet. Zudem wird die prozentuale Menge dieser Merkmale berücksichtigt, um herauszufinden ob bestimmte Aufgaben spezifische Gestenmerkmale aufweisen. Zum anderen wurde ein Ansatz verfolgt, bei dem ähnliche Gesten zusammengefasst werden, um als Vorlage für die Expertenmeinung zu dienen. Unter Berücksichtigung ergonomischer, technischer und logischer Anforderungen wurde aus den resultierenden Gesten ein konsistentes Gestenset entwickelt, das zur berührungslosen, einhändigen Bedienung auf der HoloLens 2 und im Kontext der mobilen Vermessung angewendet werden kann. Weitere Untersuchungen sind notwendig um die Einprägsamkeit des Gestensets zu überprüfen. Zudem muss ein Konzept entwickelt werden, wie dieses Gestenset erlernt werden kann.
Die aktuell eingesetzte Word-Antragsvorlage zur Erstellung und Einreichung von Ethikanträgen für die Forschungsethik-Kommission der Fachhochschule Vorarlberg entspricht nicht mehr den Anforderungen und Wünschen der Anwender:innen. Neben technischen Limitierungen stellen vor allem die eingeschränkten Möglichkeiten den Grund dar, weshalb anhand der Prinzipien sowie der vier Phasen des User-Centered Designs eine Software-Lösung ausgearbeitet wurde, die das bestehende System langfristig ablösen können soll. Die einzelnen Kapitel dieser Arbeit entsprechen jeweils einer der vier Phasen und stellen als Ganzes eine vollständig abgeschlossene Iteration des Prozesses dar. Die durchgeführte Analyse der Nutzerkontexte basiert auf der Aufarbeitung der Kriterien der Forschungsethik und vor allem einer detaillierten Analyse des bestehenden Systems und Prozesses der Forschungsethik-Kommission. Neben der Funktionsweise und dem inhaltlichen Aufbau werden im Zuge dessen gleichzeitig die Stärken und Schwächen erläutert. Ebenso findet eine breite Analyse von anderweitigen Systemen und Prozessen von Ethikkommissionen innerhalb Österreichs statt, um den Stand der Technik zu erheben. Die anschließende Definition von konkreten Anforderungen basiert auf der Umsetzung einer qualitativen Inhaltsanalyse der durchgeführten Interviews nach Kuckartz. Insgesamt können dabei neun Anforderungen definiert werden, die unterschiedlich priorisiert größtenteils in der eigens entwickelten EthicsVision Plattform umgesetzt werden konnten. Zum Einsatz kommen dabei sowohl Docker als auch das Symfony-Framework und die Angular-Plattform. Die abschließende Evaluation des Prototyps basiert auf Feedback der Antragsteller:innen und der Forschungsethik-Kommission. Der Proof of Concept wird dabei als gute Basis wahrgenommen, während bereits diverse Weiterentwicklungsmöglichkeiten aufgezeigt werden können. Das Ziel der Arbeit, die Neuentwicklung des Ethikantrag-Tools zu bewerkstelligen, konnte erreicht und ein Weg für die künftige Gestaltung des Prozesses aufgezeigt werden.
In den letzten Jahren wurde den technischen Aspekten der Datenanalyse viel Aufmerksamkeit gewidmet, den organisatorischen Implikationen jedoch nur wenig, was dazu geführt hat, dass eine Reihe von Unternehmen nicht in der Lage war, den vollen Nutzen aus ihren Data Analytics-Investitionen zu ziehen was u.a. dazu führte das die Potenziale von Data Analytics nicht vollständig ausgeschöpft wurden. Ziel dieser Arbeit ist es, die organisatorischen Herausforderungen aus der Sicht des Managements, der Kultur und der Organisation zu beleuchten und unter der theoretischen Orientierung des „Dynamic Capability View“ die Haupttreiber für die organisatorische Verankerung von Data Analytics zu beleuchten, um die Potenziale der evidenzbasierten Entscheidungsfindung in einer datengetriebenen Organisation voll auszuschöpfen. Die Literaturarbeit zu Data Analytics und ihren organisatorischen Auswirkungen, die auf der Grundlage einer theoretisch-konzeptionellen Forschungsarbeit durchgeführt wurde, zeigt, dass es in diesem Kontext eine Vielzahl von Parametern gibt, die sich gegenseitig beeinflussen. Diese Studie hat gezeigt, dass Unternehmen einen ganzheitlichen Ansatz verfolgen müssen, um die Vorteile der modernen Data-Analytics-Methoden voll ausschöpfen zu können. Die Ergebnisse deuten darauf hin, dass die Hauptantriebskräfte für Datenanalysefähigkeiten gut ausgebildete Manager mit einem ausgeprägten analytischen Verständnis sind, die von klar definierten evidenzbasierten Prozessen geleitet werden, welche in einer hoch kultivierten datengetriebenen Kultur eingebettet sind. Dies ist die Grundlage für Wettbewerbsvorteile in hochdynamischen Umgebungen und führt in weiterer Folge zu einem höheren Niveau der Wertschöpfung.
Programmable Logic Controller (PLC) modules are used in industrial settings to control and monitor various manufacturing processes. Detecting these modules can be helpful during installation and maintenance. However, the limited availability of real annotated images to train an object detector poses a challenge. This thesis aims to research object detection of these modules on real images by using synthetic data during training. The synthetic images are generated from CAD models and improved with Generative Adversarial Networks (GANs). The CAD models are rendered in different scenes, and perfectly annotated images are automatically saved. A technique called domain randomization is applied during rendering. It renders the modules in different poses with constantly changing backgrounds. As the CAD models do not visually resemble the real modules, it is necessary to improve the synthetic images. This project researches StarGAN and CycleGAN for the task of image-to-image translation. A GAN is trained with real and synthetic images and can then translate between these domains. YOLOv8 and Faster R-CNN are tested for object detection. The best mean Average Precision (mAP) is achieved when training with a synthetic dataset where 50% of the images were improved with StarGAN. When trained with YOLOv8 and evaluated on a real dataset, it achieves a mAP of 84.4%. Overall, the accuracy depends on the quality of the CAD models. Using a GAN improves the detection rate for all modules, but especially for unrealistic CAD models.
Beyond the Four-Level Model: Dark and Hot States in Quantum Dots Degrade Photonic Entanglement
(2023)
Entangled photon pairs are essential for a multitude of quantum photonic applications. To date, the best performing solid-state quantum emitters of entangled photons are semiconductor quantum dots operated around liquid-helium temperatures. To favor the widespread deployment of these sources, it is important to explore and understand their behavior at temperatures accessible with compact Stirling coolers. Here we study the polarization entanglement among photon pairs from the biexciton–exciton cascade in GaAs quantum dots at temperatures up to ∼65 K. We observe entanglement degradation accompanied by changes in decay dynamics, which we ascribe to thermal population and depopulation of hot and dark states in addition to the four levels relevant for photon pair generation. Detailed calculations considering the presence and characteristics of the additional states and phonon-assisted transitions support the interpretation. We expect these results to guide the optimization of quantum dots as sources of highly entangled photons at elevated temperatures.
Synthetic polymers, such as polyamide (PA), inherently possess a moderate number of surface functionalities compared to natural polymers, which negatively impacts the uniformity of metallic coatings obtained through wet-chemical methods like electroless plating. The paper presents the use of a siloxane interlayer formed from the condensation of the hydrolyzed 3-triethoxysilylpropyl succinic anhydride (TESPSA) precursor as a strategy to modify the surface properties of polyamide 6.6 (PA66) fabrics and improve the uniformity of the copper surface coating. The application of the siloxane intermediate coating demonstrates a significant improvement in electrical conductivity, up to 20 times higher than fabrics without the interlayer. The morphology of the coatings was investigated using scanning electron (SEM) and laser confocal scanning microscopy (LSM). In addition, dye adsorption, flexural rigidity, air permeability and contact angle measurements were conducted to monitor the change in the PA66 properties after the siloxane functionalization.
Zu Beginn des Forschungsprojektes „Neue Museumswelten“ wollten wir von Studierenden der Studiengänge Bachelor und Master InterMedia an der Fachhochschule Vorarlberg wissen, was sie mit dem Begriff „Museum“ verbinden. „Museum? Da gehe ich nur im Urlaub hin. Aber hier in Vorarlberg nicht“, war eine geläufige Aussage, die auf ein bestimmtes mentales Modell von Museum verweist. Viele Studierenden gehören also der Gruppe der Gelegenheits- oder Nichtbesucher:innen an. Wie sich in weiterer Folge herausstellte, handelt es sich dabei um eine durchaus heterogene Gruppe, die jedoch auch Gemeinsamkeiten aufweist: Alle Menschen, mit denen wir bisher im Zuge des Forschungsprojekts im Stadtraum, auf Events und im Museum sprachen, spielten und Zukunftsvisionen entwickelten, brachten ihre eigenen Bilder, Vorstellungen und Ideen zu Museen und möglichen Museumszukünften mit. Der Untersuchung genau dieser Bilder und Vorstellungen – der mentalen Modelle von Museum also –, widmet sich das von Interreg geförderte Forschungsprojekt unter Einbindung vielfältiger Perspektiven und Methoden aus Sozialforschung und Design. Es verfolgt den innovativen Weg, „Designerly Ways of Knowing“0 von Beginn an konsequent in den Forschungsprozess zu integrieren, um anstrebenswerte Museumszukünfte gemeinsam mit den Menschen auszuloten...
Die überdurchschnittlich hohe Akzeptanz von Frauen für Studiengänge der Veranstaltungsbranche
(2023)
Das ausgewiesene Ziel der vorliegenden Masterthesis ist die Formulierung eines möglichen, multiperspektivischen Erklärungsansatzes für die überdurchschnittlich hohe Akzeptanz von Frauen für Studiengänge der Veranstaltungswirtschaft. Das Resultat besteht in der Beantwortung der Hauptforschungsfrage: „Welche evidenten Gründe sind ausschlaggebend, dass sich mehr Frauen als Männer für ein duales Studium der Vertiefung ‚Betriebswirtschaftslehre – Messe-, Kongress- und Eventmanagement‘ an der Dualen Hochschule Baden-Württemberg Ravensburg entscheiden bzw. entschieden haben?“ Hierfür wurde die Strategie der Triangulation mit unterschiedlichen Methoden gewählt. Nach der Sekundärdatenrecherche wurden unabhängig voneinander qualitative Tiefeninterviews und eine standardisierte Online-Befragung mit direkter Fragestellung durchgeführt. Im Anschluss daran wurden die Einzelergebnisse als möglicher Erklärungsansatz zusammengefasst und interpretiert. Die Erkenntnisse zeigen, dass die Studienfachwahl eine Vielzahl unterschiedlicher Einflussfaktoren vorweist: Neben begrenzt rationalen Aspekten spielen die individuelle Persönlichkeit sowie die Interessen eine bedeutende Rolle. Des Weiteren könnte die Interaktion biologischer und soziokultureller Faktoren die Geschlechterverteilung erklären.
Der Standard IAS 36 regelt die Bewertung bestimmter Vermögenswerte in der IFRS-Bilanz und soll verhindern, dass Vermögenswerte mit einem Buchwert ausgewiesen werden, der höher ist als ihr erzielbarer Betrag. Zu diesem Zweck werden der Nutzungswert, der sich aus der Nutzung des Vermögenswertes ergibt, und der beizulegende Zeitwert, der einen theoretischen oder realen Marktwert darstellt, ermittelt. Aufgrund des Interpretationsspielraums des Standards, sich ändernder Faktoren wie Zinssätze und Wachstumsannahmen und der großen Auswirkungen, die Wertminderungen auf die Ergebnisse der Jahresabschlüsse haben können, ist der Impairment Test ein aktuelles Thema. In dieser Arbeit werden verschiedene Herangehensweisen zur Wertminderungsprüfung untersucht und gemeinsam mit identifizierten Verbesserungsmöglichkeiten in einem Best-Practice-Modell zusammengefasst. Zu diesem Zweck wurden Interviews mit sechs Unternehmen und sechs Wirtschaftsprüfern und Wirtschaftsprüferinnen aus der DACH-Region geführt und anschließend mittels fokussierter Interviewanalyse nach Kuckartz und Rädiker (2020) ausgewertet. Es zeigte sich, dass insbesondere die vorgelagerte Trigger Analyse und die Kontrollmechanismen an verschiedenen Stellen des Prozesses in der Praxis weiterentwickelt werden sollten. Darüber hinaus wird empfohlen, im Falle einer Wertminderung eines Goodwills nicht nur auf dem in der Praxis bevorzugten Nutzungswert zu beharren, sondern einen zweiten Bewertungszyklus mit dem beizulegenden Zeitwert durchzuführen, um den Wertminderungsbedarf zu reduzieren. Die Ergebnisse dieser Studie bieten verschiedene Möglichkeiten für weitere Forschungen, beispielsweise könnten weitere Experten und Expertinnen aus verschiedenen Ländern befragt werden, oder es könnte mehr Aufmerksamkeit auf Teilprozesse, wie z.B. die Trigger Analyse oder die Goodwill-Bewertung mit dem Fair-Value-Ansatz, gelegt werden.
The thorny issue of time
(2023)
Die Gesundheit beeinflusst das Wohlbefinden von Menschen (Weltgesundheitsorganisation, 2019), ebenso hat das Wohlbefinden Einfluss auf die Gesundheit (Röhrle, 2018). In der vorliegenden Masterarbeit wird mit Hilfe theoretischer Bezüge aus der klinischen Sozialarbeit beleuchtet, wie das Wohlbefinden von Menschen mit psychischen Erkrankungen durch das Klettern beeinflusst wird. Dazu wird folgende Forschungsfrage formuliert: ‚Welche Auswirkungen hat das Klettern, als Intervention der Sozialen Arbeit, auf das subjektive bio-psycho-soziale Wohlbefinden von erwachsenen Menschen mit psychischer Erkrankung?‘. Um die Forschungsfrage zu beantworten, wurden fünf qualitative leitfadengestützte Interviews mit Menschen durchgeführt, die im Rahmen des Tagestrukturierungsangebotes all_tag bei Aqua Mühle Vorarlberg an wöchentlichen Klettereinheiten teilnehmen. Ebenso wurden zwei Expert*innen-Interviews mit Personen, die das Angebot leiten, durchgeführt. Mittels qualitativer Inhaltsanalyse nach Mayring wurden Situationen, Erlebnisse und Ereignis-se herausgearbeitet, in denen das subjektive bio-psycho-soziale Wohlbefinden von teilnehmenden Personen durch das Klettern individuell beeinflusst wird. Neben der Erkenntnis, durch was das Befinden beim Klettern beeinflusst wird, konnte auch erforscht werden, wie das Wohlbefinden durch das Klettern Beeinflussung findet. Diese Ergebnisse werden zum großen Teil durch die Aussagen der Expert*innen untermauert. Durch die Auswertung kristallisierten sich neue Erkenntnisse für die Praxis der Sozialen Arbeit und Lücken speziell in Bezug auf finanzielle, personelle und zeitliche Ressourcen in der Arbeit mit dem Medium Klettern heraus, für die Lösungsansätze beschrieben werden.
In Bewegung kommen
(2023)
Armut im Blick?
(2023)