Refine
Year of publication
Document Type
- Article (450)
- Master's Thesis (412)
- Conference Proceeding (396)
- Part of a Book (231)
- Book (107)
- Report (28)
- Other (18)
- Doctoral Thesis (14)
- Working Paper (9)
- Preprint (5)
Institute
- Wirtschaft (350)
- Forschungszentrum Mikrotechnik (253)
- Technik | Engineering & Technology (194)
- Forschungszentrum Business Informatics (168)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (164)
- Soziales & Gesundheit (145)
- Forschungsgruppe Empirische Sozialwissenschaften (117)
- Forschungszentrum Human Centred Technologies (102)
- Forschungszentrum Energie (88)
- Didaktik (mit 31.03.2021 aufgelöst; Integration ins TELL Center) (68)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Soziale Arbeit (15)
- Digitalisierung (14)
- Controlling (11)
- Laser ablation (11)
- Y-branch splitter (11)
- arrayed waveguide gratings (11)
- +KDC 122 (9)
.Certeau
(2021)
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
In this paper, a 256-channel, 10-GHz arrayed waveguide gratings demultiplexer for ultra-dense wavelength division multiplexing was designed using an in-house developed tool called AWG-Parameters. The AWG demultiplexer was designed for a central wavelength of 1550 nm and the structure was simulated in PHASAR tool from Optiwave. Two different AWG designs were developed and the influence of the design parameters on the AWG performance was studied.
The paper shows concepts of optical splitting based on three dimensional (3D) optical splitters based on multimode interference principle. This paper is focused on the design, fabrication and characterization of 3D MMI splitter with formed output waveguides based on IP-Dip polymer for direct application on optical fiber. The MMI optical splitter was simulated and fabricated using direct laser writing process. Output characteristics were characterized by highly resolved near-field scanning optical microscope (NSOM) and compared with 3D MMI splitter without output waveguides.
In this paper, we propose and simulate a new type of three-dimensional (3D) optical splitter based on multimode interference (MMI) for the wavelength of 1550 nm. The splitter was proposed on the square basis with the width of 20 x 20 µm2 using the IP-Dip polymer as a standard material for 3D laser lithography. We present the optical field distribution in the proposed MMI splitter and its integration possibility on optical fiber. The design is aimed to the possible fabrication process using the 3D laser lithography for forthcoming experiments.
In this paper, we document optical splitters based on Y-branch and also on MMI splitting principle. The 1×4 Y-branch splitter was prepared in 3D geometry fully from polymer approaching the single mode transmission at 1550 nm. We also prepared new concept of 1×4 MMI optical splitter. Their optical properties and character of output optical field were measured by near-field scanning optical microscope. Splitting properties and optical outputs of both splitters are very promising and increase an attractiveness of presented 3D technology and polymers.
We present a new concept of 3D polymer-based 1 × 4 beam splitter for wavelength splitting around 1550 nm. The beam splitter consists of IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding. The splitter was designed and simulated with two different photonics tools and the results show high splitting ratio for single-mode and multi-mode operation with low losses. Based on the simulations, a 3D beam splitter was designed and realized using direct laser writing (DLW) process with adaptation to coupling to standard single-mode fiber. With respect to the technological limits, the multi-mode splitter having core of (4 × 4) μm 2 was designed and fabricated together with supporting stable mechanical construction. Splitting properties were investigated by intensity monitoring of splitter outputs using optical microscopy and near-field scanning optical microscopy. In the development phase, the optical performance of fabricated beam splitter was examined by splitting of short visible wavelengths using red light emitting diode. Finally, the splitting of 1550 nm laser light was studied in detail by near-field measurements and compared with the simulated results. The nearly single-mode operation was observed and the shape of propagating mode and mode field diameter was well recognized.
Power plant operators increasingly rely on predictive models to diagnose and monitor their systems. Data-driven prediction models are generally simple and can have high precision, making them superior to physics-based or knowledge-based models, especially for complex systems like thermal power plants. However, the accuracy of data-driven predictions depends on (1) the quality of the dataset, (2) a suitable selection of sensor signals, and (3) an appropriate selection of the training period. In some instances, redundancies and irrelevant sensors may even reduce the prediction quality.
We investigate ideal configurations for predicting the live steam production of a solid fuel-burning thermal power plant in the pulp and paper industry for different modes of operation. To this end, we benchmark four machine learning algorithms on two feature sets and two training sets to predict steam production. Our results indicate that with the best possible configuration, a coefficient of determination of R^2 = 0.95 and a mean absolute error of MAE=1.2 t/h with an average steam production of 35.1 t/h is reached. On average, using a dynamic dataset for training lowers MAE by 32% compared to a static dataset for training. A feature set based on expert knowledge lowers MAE by an additional 32 %, compared to a simple feature set representing the fuel inputs. We can conclude that based on the static training set and the basic feature set, machine learning algorithms can identify long-term changes. When using a dynamic dataset the performance parameters of thermal power plants are predicted with high accuracy and allow for detecting short-term problems.
This thesis aims to support the product development process. Therefore, an approach is developed, implemented as a prototype and evaluated, for automated solution space exploration of formally predefined design automation tasks holding the product knowledge of engineers. For this reason, a classification of product development tasks related to the representation of the mathematical model is evaluated based on the parameters defined in this thesis. In a second step, the mathematical model should be solved. A Solver is identified able to handle the given problem class.
Due to the context of this work, System Modelling Language (SysML) is chosen for the product knowledge formalisation. In the next step the given SysML model has to be translated into an object-oriented model. This translation is implemented by extracting information of a ".xml"-file using the XML Metadata Interchanging (XMI) standard. The information contained in the file is structured using the Unified Modelling Language (UML) profile for SysML. Afterwards a mathematical model in MiniZinc language is generated. MiniZinc is a mathematical modelling language interpretable by many different Solvers. The generated mathematical model is classified related to the Variable Type and Linearity of the Constraints and Objective of the generated mathematical model. The output is stored in a ".txt"-file.
To evaluate the functionality of the prototype, time consumption of the different performed procedures is measured. This data shows that models containing Continuous Variables need a longer time to be classified and optimised. Another observation shows that the transformation into an object-oriented model and the translation of this model into a mathematical representation are dependent on the number of SysML model elements. Using MiniZinc resulted in the restriction that models which use non-linear functions and Boolean Expressions cannot be solved. This is because the implementation of non-linear Solvers at MiniZinc is still in the development phase. An investigation of the optimally of the results, provided by the Solvers, was left for further work.
The Digital Factory Vorarlberg is the youngest Research Center of Vorarlberg University of Applied Sciences. In the lab of the research center a research and learning factory has been established for educating students and employees of industrial partners. Showcases and best practice scenarios for various topics of digitalization in the manufacturing industry are demonstrated. In addition, novel methods and technologies for digital production, cloud-based manufacturing, data analytics, IT- and OT-security or digital twins are being developed. The factory comprises only a minimum core of logistics and fabrication processes to guarantee manageability within an academic setup. As a product, fidget spinners are being fabricated. A webshop allows customers to individually design their products and directly place orders in the factory. A centralized SCADA-System is the core data hub for the factory. Various data analytic tools and methods and a novel database for IoT-applications are connected to the SCADA-System. As an alternative to on premise manufacturing, orders can be pushed into a cloud-based manufacturing platform, which has been developed at the Digital Factory. A broker system allows fabrication in distributed facilities and offers various optimization services. Concepts, such as outsourcing product configuration to customers or new types of engineering services in cloud-based manufacturing can be explored and demonstrated. In this paper, we present the basic concept of the Digital Factory Vorarlberg, as well as some of the newly developed topics.
Flexibility estimation is the first step necessary to incorporate building energy systems into demand side management programs. We extend a known method for temporal flexibility estimation from literature to a real-world residential heat pump system, solely based on historical cloud data. The method proposed relies on robust simplifications and estimates employing process knowledge, energy balances and manufacturer's information. Resulting forced and delayed temporal flexibility, covering both domestic hot water and space heating demands as constraints, allows to derive a flexibility range for the heat pump system. The resulting temporal flexibility lay within the range of 24 minutes and 6 hours for forced and delayed flexibility, respectively. This range provides new insights into the system's behaviour and is the basis for estimating power and energy flexibility - the first step necessary to incorporate building energy systems into demand side management programs.
A covariance matrix self-adaptation evolution strategy for optimization under linear constraints
(2018)
Purpose – The purpose of this study is to explore the exogenous and endogenous drivers of the high-growth of Unicorn start-ups along their life cycle, with a particular focus on Unicorns in the fintech industry.
Design/methodology/approach – The study employs an explorative longitudinal analysis with a matched pair of two cases of Unicorns start-ups with similar antecedent features to understand holistically drivers over the longer term.
Findings – High-growth patterns over the longer term are the result of a combined industry- and company-life cycle perspective. Drivers and growth patterns vary significantly according to the time of entry in the industry and
its development status. The findings are systematised within a set of propositions to be tested in future research.
Research limitations/implications – The limitations lie in empirical evidence, as the analysis is limited to one matched-pair. The revealed Unicorns’ drivers for long-term growth might encourage future research to further investigate these drivers on a larger scale.
Practical implications – The study offers practical recommendations for start-ups with high-growth ambitions and advice to policy makers regarding the development of tailor-made support programs.
Originality/value – The study significantly extends extant work on growth and high-growth by examining endogenous and exogenous triggers over time and by linking the Unicorn-life cycle to the industry life cycle, an approach which has, to the best of the authors’ knowledge, not yet been applied.
A modified matrix adaptation evolution strategy with restarts for constrained real-world problems
(2020)
In combination with successful constraint handling techniques, a Matrix Adaptation Evolution Strategy (MA-ES) variant (the εMAg-ES) turned out to be a competitive algorithm on the constrained optimization problems proposed for the CEC 2018 competition on constrained single objective real-parameter optimization. A subsequent analysis points to additional potential in terms of robustness and solution quality. The consideration of a restart scheme and adjustments in the constraint handling techniques put this into effect and simplify the configuration. The resulting BP-εMAg-ES algorithm is applied to the constrained problems proposed for the IEEE CEC 2020 competition on Real-World Single-Objective Constrained optimization. The novel MA-ES variant realizes improvements over the original εMAg-ES in terms of feasibility and effectiveness on many of the real-world benchmarks. The BP-εMAg-ES realizes a feasibility rate of 100% on 44 out of 57 real-world problems and improves the best-known solution in 5 cases.
A multi-recombinative active matrix adaptation evolution strategy for constrained optimization
(2019)
A novel calorimetric technique for the analysis of gas-releasing endothermic dissociation reactions
(2020)
Synthetic polymers, such as polyamide (PA), inherently possess a moderate number of surface functionalities compared to natural polymers, which negatively impacts the uniformity of metallic coatings obtained through wet-chemical methods like electroless plating. The paper presents the use of a siloxane interlayer formed from the condensation of the hydrolyzed 3-triethoxysilylpropyl succinic anhydride (TESPSA) precursor as a strategy to modify the surface properties of polyamide 6.6 (PA66) fabrics and improve the uniformity of the copper surface coating. The application of the siloxane intermediate coating demonstrates a significant improvement in electrical conductivity, up to 20 times higher than fabrics without the interlayer. The morphology of the coatings was investigated using scanning electron (SEM) and laser confocal scanning microscopy (LSM). In addition, dye adsorption, flexural rigidity, air permeability and contact angle measurements were conducted to monitor the change in the PA66 properties after the siloxane functionalization.
A quantum-light source that delivers photons with a high brightness and a high degree of entanglement is fundamental for the development of efficient entanglement-based quantum-key distribution systems. Among all possible candidates, epitaxial quantum dots are currently emerging as one of the brightest sources of highly entangled photons. However, the optimization of both brightness and entanglement currently requires different technologies that are difficult to combine in a scalable manner. In this work, we overcome this challenge by developing a novel device consisting of a quantum dot embedded in a circular Bragg resonator, in turn, integrated onto a micromachined piezoelectric actuator. The resonator engineers the light-matter interaction to empower extraction efficiencies up to 0.69(4). Simultaneously, the actuator manipulates strain fields that tune the quantum dot for the generation of entangled photons with fidelities up to 0.96(1). This hybrid technology has the potential to overcome the limitations of the key rates that plague current approaches to entanglement-based quantum key distribution and entanglement-based quantum networks. Introduction
In engineering design, optimization methods are frequently used to improve the initial design of a product. However, the selection of an appropriate method is challenging since many
methods exist, especially for the case of simulation-based optimization. This paper proposes a systematic procedure to support this selection process. Building upon quality function deployment, end-user and design use case requirements can be systematically taken into account via a decision
matrix. The design and construction of the decision matrix are explained in detail. The proposed
procedure is validated by two engineering optimization problems arising within the design of box-type boom cranes. For each problem, the problem statement and the respectively applied optimization methods are explained in detail. The results obtained by optimization validate the use
of optimization approaches within the design process. The application of the decision matrix shows the successful incorporation of customer requirements to the algorithm selection.
A systemic-constructivist approach to the facilitation and debriefing of simulations and games
(2010)
Abseits - aside - à'lécart
(2012)
Purpose: The purpose of this qualitative phenomenological study is to explore the of self-initiated expatriates prior to and during acculturation to life in a smaller periphery region such as Vorarlberg, Austria. By providing insights into their lived experience this research aims to fill in the gaps of missing information on motivators, success factors to adjustment, issues, and stressors, and more that SIEs experience when adjusting. Specifically, what items promote adjustment and what items hinder adjustment.
Findings: Developed a better understanding of how and what motivational factors lead to expatriation. Furthermore, that opportunities arise by chance. During acculturation, language factors (dialect), cultural differences act as stressors. While social support, and organizational support, learning of the language act as promoters of acculturation.
Further Research could be done including ethnicities, SIEs moving from developed to developing countries, adjustment in regions with dialect vs no dialect.
Key words: self-initiated expatriates, expatriation, acculturation, adjustment, promoting acculturation, hindering acculturation.
Issues with professional conduct and discrimination against Lesbian, Gay, Bisexual, Transgender (LGBT+) people in health and social care, continue to exist in most EU countries and worldwide.
The project IENE9 titled: “Developing a culturally competent and compassionate LGBT+ curriculum in health and social care education” aims to enable teacher/trainers of theory and practice to enhance their skills regarding LGBT+ issues and develop teaching tools to support the inclusion of LGBT+ issues within health and social care curricula. The newly culturally competent and compassionate LGBT+ curriculum will be delivered though a Massive Open Online Course (MOOC) which is aimed at health and social care workers, professionals and learners across Europe and worldwide.
We have identified educational policies and guidelines at institutions teaching in health and social care, taken into account for developing the learning/teaching resources. The MOOC will be an innovative training model based on the Papadopoulos (2014) model for “Culturally Competent Compassion”. The module provides a logical and easy to follow structure based on its four constructs 'Culturally Aware and Compassionate Learning', 'Culturally Knowledgeable and Compassionate Learning', 'Culturally Sensitive and Compassionate Learning', 'Culturally Competent and Compassionate Learning'.
Specific training may result in better knowledge and skills of the health and social care workforce, which helps to reduce inequalities and communication with LGBT+ people, as well as diminishing the feelings of stigma or discrimination experienced.
Active demand side management with domestic hot water heaters using binary integer programming
(2013)
A rapid change to remote work during the beginning of the Covid-19 pandemic allowed many organizations to roll out new collaboration platforms to rapidly digitalize their workflows and processes in order to continue operation. This sudden shift to remote work revealed to employees the potential benefits of working remotely in the form of additional flexibility and also showed the challenges and barriers organizations could face by introducing such a strategy. This thesis aims to uncover the key considerations that the organizations of the industrial sector in Vorarlberg need to consider establishing a remote work strategy. According to the results from the research, the Covid-19 pandemic was as a paradigm change for the interviewed decision makers about how they thought about remote work and how they transformed their respective organizations too continue to operate. After the initial phase of Covid-19 restrictions organizations started to experiment with a remote work strategy of their own, based on their past experiences. For now, most of the interviewed organizations use already different remote work concepts and evaluate which one suits best their needs. The main considerations as to why an organization introduced a remote work strategy are to be an attractive employer and to stay ahead in the search for new talent. Further by introducing a remote work strategy, organizations need to change their rules of collaboration, adapt their core values to fit a remote workplace and to introduce collaboration platforms which are designed to support a remote workforce.
Creating a schedule to perform certain actions in a realworld environment typically involves multiple types of uncertainties. To create a plan which is robust towards uncertainties, it must stay flexible while attempting to be reliable and as close to optimal as possible. A plan is reliable if an adjustment to accommodate for a new requirement causes only a few disruptions. The system needs to be able to adapt to the schedule if unforeseen circumstances make planned actions impossible, or if an unlikely event would enable the system to follow a better path. To handle uncertainties, the used methods need to be dynamic and adaptive. The planning algorithms must be able to re-schedule planned actions and need to adapt the previously created plan to accommodate new requirements without causing critical disruptions to other required actions.
Adaptive indirect fieldoriented control of an induction machine in the armature control range
(2012)
Scrum has been a prominent project management framework for managing software development projects. The scrum team embodies values such as commitment, focus, respect, courage, and openness to develop trust, which serves as the foundation of the scrum framework. However, in recent years, scrum teams are shifting towards a work-from-home environment which is relatively new to most of them and known to present various challenges. Looking at the benefits of adhering to scrum values, this study aims to investigate the challenges scrum teams experience in adhering to scrum values while operating virtually, as well as to explore practical strategies to overcome the identified challenges, particularly during the storming stage of team development. This research employed a qualitative methodology using semi-structured interviews with scrum team members who have experience working in a virtual environment. Through qualitative content analysis of semi-structured interviews, this research identifies significant challenges within five main categories: communication, collaboration, interpersonal dynamics, the virtual work environment, and personal workspace issues. However, beyond the challenges, the study reveals practical strategies as well for successful team dynamics and higher efficiency. The strategies derived from team members' experiences are categorized into six categories: enhanced meeting management, leveraging in-person engagements, optimizing tools & technology, effective communication strategies, team-building, and nurturing a positive work culture.
Traditional power grids are mainly based on centralized power generation and subsequent distribution. The increasing penetration of distributed renewable energy sources and the growing number of electrical loads is creating difficulties in balancing supply and demand and threatens the secure and efficient operation of power grids. At the same time, households hold an increasing amount of flexibility, which can be exploited by demand-side management to decrease customer cost and support grid operation. Compared to the collection of individual flexibilities, aggregation reduces optimization complexity, protects households’ privacy, and lowers the communication effort. In mathematical terms, each flexibility is modeled by a set of power profiles, and the aggregated flexibility is modeled by the Minkowski sum of individual flexibilities. As the exact Minkowski sum calculation is generally computationally prohibitive, various approximations can be found in the literature. The main contribution of this paper is a comparative evaluation of several approximation algorithms in terms of novel quality criteria, computational complexity, and communication effort using realistic data. Furthermore, we investigate the dependence of selected comparison criteria on the time horizon length and on the number of households. Our results indicate that none of the algorithms perform satisfactorily in all categories. Hence, we provide guidelines on the application-dependent algorithm choice. Moreover, we demonstrate a major drawback of some inner approximations, namely that they may lead to situations in which not using the flexibility is impossible, which may be suboptimal in certain situations.
Diese Arbeit hat die Untersuchung der Frage, wie Mitarbeiter:innen agile Führung inmitten der COVID-19-Krise wahrnehmen, zum Ziel. Die leitende Forschungsfrage lautet: „Wie erfolgreich ist agile Führung in Zeiten der COVID-19-Pandemie aus Mitarbeitendensicht?“ Hierbei wird die Führungssituation anhand der aktuellen Veränderungstreiber und der COVID-19-Pandemie kontextualisiert. Daraufhin wird nach einem Aufriss der Historie verschiedener Führungstheorien, die agile Führung näher betrachtet. Im Rahmen dieser Aufarbeitung wird agiles Führungsverhalten definiert, welches für die fortführende quantitative Empirie von zentraler Bedeutung ist. Anschließend werden die erlangten Daten aus einer durchgeführten Onlinebefragung ausgewertet und analysiert. Als Gegenstand der Untersuchung werden verschiedene Hypothesen im Hinblick auf Wirkungszusammenhänge zwischen agilem Führungsverhalten und der Zufriedenheit der Mitarbeitenden aufgestellt.
Dynamische Veränderungen, steigende Wettbewerbsintensität und ein hohes Maß an Komplexität charakterisieren das aktuelle Marktumfeld, in dem Unternehmen agieren müssen. Das Prozessmanagement muss diesen Veränderungen sowohl auf der strategischen, als auch auf der operativen Ebene begegnen. Eine Adaption des Konzepts der Agilität durch das Prozessmanagement wird daher zunehmend relevant, um die originären Ziele des Prozessmanagements zu erreichen. Allerdings gilt dies unter der Prämisse, dass die agilen Konzepte die Fähigkeiten des Prozessmanagements, auf Veränderungen nachhaltig zu reagieren, stärken. In diesem Zusammenhang sind in der Literatur Arbeiten und Texte zu unterschiedlichen Anwendungen der agilen Konzepte im Prozessmanagement zu finden. Unklar bleibt dabei sowohl, ob diese Texte auf einem gemeinsamen Verständnis des Konzepts basieren, als auch der Zusammenhang und die Vereinbarkeit mit traditionellen Methoden des Prozessmanagements. Unter diesen Voraussetzungen ist es das Ziel der vorliegenden Arbeit den Kontext aufzuzeigen, in welchem agile Konzepte im Prozessmanagement diskutiert werden, und wie diese mit Modellen des traditionellen Prozessmanagements zusammenhängen. Dazu werden ausgewählte Texte auf ihre Verwendung agiler Konzepte als Lösungsstrategien für das allgemeine Handlungsfeld der dynamischen Veränderungen der „VUCA Welt“ analysiert. Die identifizierten Konzepte werden in Bezug zu traditionellen Konzepten, wie dem BPM Life-cycle, kritisch hinterfragt. Die Erkenntnisse der Arbeit belegen, dass die aktuelle Marktsituation ein Umdenken im Prozessmanagement erfordert. Agile Konzepte können das Prozessmanagement dabei unterstützen und Alternativen zu traditionellen Vorgehensweisen aufzeigen. Dabei fehlen jedoch bisher standardisierte Anwendungskonzepte und ein einheitliches Verständnis des Begriffs der Agilität im Prozessmanagement. Ferner erfordern die ganzheitliche Betrachtungsweise und die originären Ziele des Prozessmanagements weiterhin den Einsatz traditionellerer Methoden als Fundament für die Einführung von agilen Konzepten im Prozessmanagement.
Akademische Lehre 2.0
(2014)
Akademisierung der Pflege
(2023)
Akademisierung der Pflege
Überführungsprozess der sekundären Pflegeausbildung in den tertiären Bildungssektor
Hintergrund:
In der Entwicklung von tertiären Bildungsangeboten in der Pflege gelten angloamerikanische und
nordeuropäische Länder als Vorreiter. Im Vergleich dazu setzte die Tertiärisierung der Pflegeausbildung im deutschsprachigen Raum erst verzögert ein. In Österreich waren, ähnlich der Schweiz und Deutschland, berufsqualifizierende Abschlüsse der Pflegeausbildung traditionell nicht im Hochschulbereich verankert, sondern Gesundheits- und Krankenpflege-Schulen übernahmen die berufsqualifizierende Pflegeausbildung auf sekundärem Bildungsniveau. Mit der Novellierung des Gesundheits- und Krankenpflegegesetztes im Jahr 2016 dekretierte Österreich im Rahmen einer umfassenden Ausbildungsreform und mit einer Übergangsfrist bis 2024 die vollständige Ausbildungsüberführung der sekundären Pflegeausbildung (gehobener Dienst) in den tertiären Hochschulsektor. Bei diesem Transformationsprozess treffen nicht nur unterschiedliche Institutionen, Organisationen und Ausbildungskulturen aufeinander, sondern auch verschiedene Systempartner*innen mit divergierenden Interessen, Motiven und Erwartungshaltungen, die zur Dynamik und Komplexität der Ausbildungsüberführung beitragen.
Ziel:
Vor dem theoretischen Hintergrund der Professionssoziologie konzentriert sich diese Dissertation auf das empirische Phänomen des Überführungsprozesses der sekundären Pflegeausbildung (gehobener Dienst) in den tertiären Bildungssektor am Beispiel der Entwicklung in Vorarlberg (Österreich). Für die theoretische Einbettung bzw. Interpretation des empirischen Praxisbeispiels dient der professionstheoretische Ansatz von Andrew Abbott, um die Ausbildungstransformation als komplexen und dynamischen Prozess mit unterschiedlichen Perspektiven, Interessen und Ansprüchen jener Systempartner*innen zu verstehen, die den Transformationsprozess verantworten und intensiv in die Umsetzung der Ausbildungsüberführung involviert sind. Durch die Anwendung von Abbotts Theorieansatz auf den Fall der Akademisierung der Pflegeausbildung leistet diese Studie einen Beitrag zur Fachliteratur der Professionalisierung der Pflege.
Methodik:
Zur Exploration dient eine qualitative Einzelfallstudie, die sich über fünf Jahre erstreckt und multiple Datenquellen (Datentriangulation) nutzt, um unterschiedliche Daten, Informationen und Perspektiven aus Einzel- und Gruppeninterviews, Dokumenten und Forschungstagebuch zusammenzuführen. Die Verwendung unterschiedlicher Datenquellen dient der Strategie, ein tiefes und fundiertes Verständnis des untersuchten Forschungsphänomens zu erlangen.
Ergebnis:
Als Beitrag zur bestehenden Fachliteratur erläutert diese Studie nicht nur den Prozessverlauf mit seinen Meilensteinen, Merkmalen und Ereignissen, sondern zeigt, dass unterschiedliche Interessen, Ansprüche und Hintergründe der verantwortlichen Systempartner*innen den Transformationsprozess und dessen Ausrichtung wesentlich beeinflussen. Divergierende Erwartungshaltungen, Motive und Ansprüche prägen nicht nur Verlauf und Ausrichtung der Überführung, sondern dienen auch als Erklärungsansatz, wie die beteiligten Systempartner*innen agieren, ihre Entscheidungen bzw. Handlungen im Transformationsprozess verantworten und somit zur Dynamik und Komplexität der Ausbildungsüberführung beitragen. Des Weiteren zeigt diese Studie in Anbetracht des österreichischen Bildungskontextes, dass sich der Transformationsprozess der Bachelor-Einführung nicht nur isoliert, sondern eingebettet als Teil einer übergreifenden Ausbildungsreform analysieren lässt, da die Tertiärisierung der Pflegeausbildung weitere Mechanismen und Reaktionen auslöst, die den Ausbildungs- und Berufssektor der Pflege gesamthaft und langfristig betreffen.
Schlussfolgerung:
Die Tertiärisierung der Pflegeausbildung stellt einen langfristigen Transformationsprozess dar, der nicht mit dem Berufseinstieg der Bachelor-Absolvent*innen oder mit einer gesetzlich definierten Überführungsfrist abgeschlossen ist. Die Ausbildungsüberführung sollte im Sinne Abbotts als komplexen und dynamischen Transformationsprozess verstanden werden, der auf verschiedenen Handlungsebenen und mit unterschiedlichen Interessen, Motiven und Ansprüchen stattfindet. Die Akademisierung der Pflegeausbildung erfordert daher einen langfristigen Zeithorizont in der Umsetzung und Prozessbegleitung, um den Systemwechsel auf mehreren Ebenen im Bildungs- und Berufssektor umzusetzen und einen Bewusstseinswandel bei den involvierten Stakeholdergruppen zu erreichen. Dadurch zeichnen sich weiterführende Forschungspotenziale ab.
Schlagwörter:
Akademisierung, Akademisierungsprozess, Transformation, Überführung, Prozess Pflege, Pflegeausbildung, Pflegestudium, Professionalisierung, Professionssoziologie, Professionstheorien, Andrew Abbott,
Einzelfallstudie, Datentriangulation
Die Entwicklungen im Bereich der Algorithmen, Machine Learning und Künstlicher Intelligenz sind rasant und halten Einzug in immer mehr Bereichen des alltäglichen Lebens, insbesondere in den Unternehmen. Aus diesem Grund wird in dieser Arbeit der Frage nachgegangen, inwiefern dieser Trend Auswirkungen auf die benötigten Management-Kompetenzen hat. Zur Beantwortung dieser Frage wird zuerst die klassische Management-Lehre mit ihren zentralen Begrifflichkeiten und bestehenden Kompetenzmodellen beleuchtet und basierend auf diesen Erkenntnissen ein Analyse-Hilfsmodell entwickelt. Im Anschluss werden die wichtigsten Grundlagen zum Themenkomplex Algorithmus, Machine Learning und Künstliche Intelligenz behandelt und auf dieser Basis benötigte Management-Kompetenzen abgeleitet. Zusätzlich werden aktuelle Studien großer Beratungsunternehmen und Fachartikel analysiert und ebenfalls Kompetenzen für den Einsatz von Machine Learning und Künstlicher Intelligenz identifiziert. Schliesslich wird eine Gap-Analyse durchgeführt mit dem Resultat, dass keine grundsätzlich neuen Kompetenzen notwendig sind, diese jedoch teils erweitert werden müssen und sich deren Wichtigkeit verschiebt.
Alles bleibt anders? Profession und Disziplin Sozialer Arbeit im Kontext der Covid-19-Pandemie
(2022)
Alles muss raus
(2022)
Alleviating the curse of dimensionality in minkowski sum approximations of storage flexibility
(2023)
Many real-world applications require the joint optimization of a large number of flexible devices over some time horizon. The flexibility of multiple batteries, thermostatically controlled loads, or electric vehicles, e.g., can be used to support grid operations and to reduce operation costs. Using piecewise constant power values, the flexibility of each device over d time periods can be described as a polytopic subset in power space. The aggregated flexibility is given by the Minkowski sum of these polytopes. As the computation of Minkowski sums is in general demanding, several approximations have been proposed in the literature. Yet, their application potential is often objective-dependent and limited by the curse of dimensionality. In this paper, we show that up to 2d vertices of each polytope can be computed efficiently and that the convex hull of their sums provides a computationally efficient inner approximation of the Minkowski sum. Via an extensive simulation study, we illustrate that our approach outperforms ten state-of-the-art inner approximations in terms of computational complexity and accuracy for different objectives. Moreover, we propose an efficient disaggregation method applicable to any vertex-based approximation. The proposed methods provide an efficient means to aggregate and to disaggregate typical battery storages in quarter-hourly periods over an entire day with reasonable accuracy for aggregated cost and for peak power optimization.
Alter und Recruiting
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Problematik von Arbeitssuchenden 45 plus in Vorarlberg.
Zum Verständnis werden die Fachbegriffe Diversity, Generationen und Altersklassen, Altersdiskriminierung und Work Ability Index erläutert. Die Umfeld- und Einflussfaktoren beschäftigen sich mit den demografischen Grundlagen, den Potenzialen älterer Arbeitnehmender, dem alter(n)s-gerechten Arbeiten, möglicher Herausforderungen im Recruiting und Ideen anderer Länder.
Im Abschnitt Methodologie und Methodik werden Grundlagen der qualitativen Forschung behandelt. Die Datenerhebung erfolgte durch Experteninterviews. Die Details dazu finden sich in den Passagen Sampling, Auswahl der Interviewpartner, Interview-Leitfaden, Auswertungsmethode und Gütekriterien. Die Arbeit fokussiert sich auf Industrieunternehmen in Vorarlberg sowie das AMS, die AK und die Caritas.
Die Antworten aus den Leitfaden-Interviews führen schlussendlich zu potenziellen Reformansätzen, um die Situation für Arbeitnehmende 45 plus zu verbessern. Es ergeben sich mehrere Aspekte, welche wider das Einstellen von älteren Bewerbenden vorliegen.
With Cloud Computing and multi-core CPUs parallel computing resources are becoming more and more affordable and commonly available. Parallel programming should as well be easily accessible for everyone. Unfortunately, existing frameworks and systems are powerful but often very complex to use for anyone who lacks the knowledge about underlying concepts. This paper introduces a software framework and execution environment whose objective is to provide a system which should be easily usable for everyone who could benefit from parallel computing. Some real-world examples are presented with an explanation of all the steps that are necessary for computing in a parallel and distributed manner.
An electrochemical study with three redox substances on a carbon based nanogap electrode array
(2020)
Bubble column humidifiers (BCHs) are frequently used for the humidification of air in various water treatment applications. A potential but not yet profoundly investigated application of such devices is the treatment of oily wastewater. To evaluate this application, the accumulation of an oil-water emulsion using a BCH is experimentally analyzed. The amount of evaporating water vapor can be evaluated by measuring the humidity ratio of the outlet air. However, humidity measurements are difficult in close to saturated conditions, as the formation of liquid droplets on the sensor impacts the measurement accuracy. We use a heating section after the humidifier, such that no liquid droplets are formed on the sensor. This enables us a more accurate humidity measurement. Two batch measurement runs are conducted with (1) tap water and (2) an oil-water emulsion as the respective liquid phase. The humidity measurement in high humidity conditions is highly accurate with an error margin of below 3 % and can be used to predict the oil concentration of the remaining liquid during operation. The measured humidity ratio corresponds with the removed amount of water vapor for both tap water and the accumulation of an oil-water emulsion. Our measurements show that the residual water content
in the oil-water emulsion is below 4 %.
Vast amounts of oily wastewater are byproducts of the petrochemical and the shipping industry and to this day frequently discharged into water bodies either without or after insufficient treatment. To alleviate the resulting pollution, water treatment processes are in great demand. Bubble column humidifiers (BCHs) as part of humidification–dehumidification systems are predestined for such a task, since they are insensitive to different feed liquids, simple in design and have low maintenance requirements. While humidification in a bubble column has been investigated plentiful for desalination, a systematic investigation of oily wastewater treatment is missing in literature. We filled this gap by analyzing the treatment of an oil–water emulsion experimentally to derive recommendations for future design and operation of BCHs. Our humidity measurements indicate that the air stream is always saturated after humidification for a liquid height of only 10 cm. A residual water mass fraction of 3.5 wt% is measured after a batch run of six hours. Furthermore, continuous measurements show that an increase in oil mass fraction leads to a decrease in system productivity especially for high oil mass fractions. This decrease is caused by the heterogeneity of the liquid temperature profile. A lower liquid height mitigates this heterogeneity, therefore decreasing the heat demand and improving the overall efficiency. The oil content of the produced condensate is below 15 ppm, allowing discharge into various water bodies. The results of our systematic investigation prove suitability and indicate a strong future potential for the use of BCHs in oily wastewater treatment.
An implementation approach of the gap navigation tree using the TurtleBot 3 Burger and ROS Kinetic
(2020)
The creation of a spatial model of the environment is an important task to allow the planning of routes through the environment. Depending on the number of sensor inputs different ways of creating a spatial environment model are possible. This thesis introduces an implementation approach of the Gap Navigation Tree which is aimed for usage with robots that have a limited amount of sensors. The Gap Navigation Tree is a tree structure based on depth discontinuities constructed from the data of a laser scanner. Using the simulated TurtleBot 3 Burger and ROS kinetic a framework is created that implements the theory of the Gap Navigation Tree. The framework is structured in a way that allows using different robots with different sensor types by separating the detection of depth discontinuities from the building and updating of the Gap Navigation Tree.
Neben klassischen Kennzahlen, welche nach einem anerkannten Rechnungslegungsstandard (z.B. IFRS) berechnet werden, sind häufig auch sogenannte alternative Leistungskennzahlen in Geschäftsberichten oder Investor-Relations Unterlagen mit ausgewiesen. Diese erfreuen sich zunehmender Beliebtheit bei börsennotierten Unternehmen, da unternehmensspezifische Anpassungen vorgenommen werden können. Folglich wird eine unternehmensübergreifende Vergleichbarkeit erschwert, wodurch zunehmend Regulierungen durch entsprechende Institutionen erfolgen. In dieser Arbeit kann aufgezeigt werden, dass die gewünschte Transparenz länderübergreifend sehr stark abweicht und diese Regelungen noch nicht vollumfänglich durch die Unternehmen umgesetzt wurden.
Neben der tatsächlichen Verwendung von alternativen Leistungskennzahlen ist es von Interesse ob diese Kennzahlen zusätzlichen Erklärungsgehalt für den Unternehmenswert beinhalten. Dabei kann innerhalb der Arbeit aufgezeigt werden, dass das EBITDA, der Free Cash-Flow oder die Nettoverschuldung einen Mehrwert in der Analyse bieten können. Je nach länder-, regionalen-, branchen- oder währungsspezifischen Charakteristika haben unterschiedliche Kennzahlen einen signifikanten Einfluss auf den Unternehmenswert und können somit einen Mehrwert in der Analyse bieten.
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
Obwohl der Energiebedarf eines Krankenhauses nur ca. 1,2% der Gesamtkosten ausmacht, werden Energieeinsparmaßnahmen und -optimierungen immer wichtiger. Neben dem steigenden Umweltbewusstsein wird auch der Kostendruck in diesem Dienstleistungssektor immer größer. Trotz der in vielen Krankenhäusern vorhandenen und gut ausgebauten Gebäudeleittechnik fehlt oft das Detailwissen über den Energieverbrauch und deren Verursacher.
Aufgrund der großen Anzahl an verwendeten Geräten und Kleinverbrauchern sowie der vielen gebäudetechnischen Großgeräte ist eine genaue Ursachensuche kein leichtes Unterfangen. Auch im Krankenhaus Feldkirch sind eine Vielzahl automatischer Stromzähler installiert und im Energiemonitoringsystem aufgeschaltet. Dennoch ist aktuell nur der Gesamtstromverbrauch bekannt und verwertbar. Analysen auf Gebäude oder Anlagen-Ebene werden nur sehr wenige durchgeführt.
In dieser Arbeit soll untersucht werden, wie die wesentlichen Einflussfaktoren auf den Stromverbrauch mithilfe der installierten automatischen Zähler identifiziert werden können.
Um herauszufinden, mit welchen Methoden der größte Informationsgehalt gewonnen werden kann, kommen verschiedene Methoden wie Kennzahlenvergleiche, die Darstellung als Sankey-Diagramm, objektspezifische Vergleiche und statistische Analysen sowie Energieganganalysen zur Anwendung.
Die erarbeiteten Auswertungen und Darstellungen zeigen sehr schnell, dass ohne eine Vielzahl an Subzählern keine sinnvollen Analysen möglich sind. Die große Anzahl an angeschlossenen Verbrauchern und deren variables Regelverhalten lassen aus den Daten (z. B. Summenzählern) anhand zusammengefasster Stromverläufe kaum Schlüsse für einzelne Gebäude zu. Es zeigt sich auch, dass eine einzelne Darstellungsform für alle Auswertungen keinen Sinn macht. In dieser Arbeit werden mögliche Einbauorte für die Stromzähler vorgeschlagen sowie Verfahren für eine durchdachte Auswertung der Energieverbräuche und Umsetzung in die Praxis angeführt.
Das Management eines Unternehmens kann Mithilfe von bilanzpolitischen Maßnahmen bewusst Einfluss auf das Unternehmensergebnis nehmen. Durch Ausnutzung von Ermessenspielräumen bei der Bildung und Auflösung von Rückstellungen können stille Reserven gebildet und in späteren Perioden wieder aufgelöst werden.
In dieser Masterarbeit wurde untersucht ob die Unternehmen des M-DAX mithilfe der Big-Bath-Accounting-Methode oder der Income-Smoothing-Methode bewusst Einfluss auf das Jahresergebnis genommen haben. Hierfür wurden die Geschäftsberichte der Zielgruppe im Zeitraum von 2009 – 2018 empirisch untersucht. Um die Gültigkeit der Hypothesen zu überprüfen wurde das ausgewiesene EBIT mit einem bereinigten EBIT verglichen. Für die Ermittlung des bereinigten EBITs wurden die tatsächlichen Rückstellungsbildungen bzw. Rückstellungsauflösungen durch die über den Betrachtungszeitraum durchschnittlichen Rückstellungsbildung bzw. Rückstellungsauflösung ersetzt.
Die Ergebnisse der empirischen Untersuchung haben gezeigt, dass die Unternehmen der Zielgruppe Mithilfe von Rückstellungen großen Einfluss auf das EBIT nehmen können. Weiter konnte belegt werden, dass die meisten Unternehmen bei der Rückstellungsbewertung grundsätzlich vorsichtig agieren und höhere Beträge in Rückstellungen bilanzieren.
Die EU-Ziele umfassen die Steigerung des Anteils an erneuerbaren Energien an der Energieerzeugung um 32 % bis 2030. Doch erneuerbare Energien bringen neben den Vorteilen für den Umweltschutz auch Probleme mit sich. Ihre Schwankungen und Unkontrollierbarkeit stellen große Herausforderungen für das Stromnetz dar. Um die Netz- und damit die Versorgungssicherheit weiterhin gewährleisten zu können, braucht es Lösungen, die weder das Stromnetz, die Verbraucher noch die Energieversorger benachteiligen. Eine Möglichkeit wäre es, zusätzliche Kraftwerke und Infrastruktur (Redundanzen) aufzubauen, welche potenzielle Schwankungen ausgleichen können. Dieser Lösungsansatz gilt als traditioneller Weg, der hohe Kosten und negative Umweltauswirkungen mit sich bringt. Demand Side Management hat das Potenzial, effiziente Lösungen diesbezüglich anzubieten. Welche Vorteile der Einsatz von DSM auf Ebene der Haushaltsverbraucher für die Energieversorger in Bezug auf den Abruf von Ausgleichsenergie bringt, wird in dieser Arbeit behandelt. Dafür wurde ein agentenbasiertes Modell entwickelt, welches darauf abzielt, die Abweichung zwischen dem von dem Energieversorger prognostizierten Verbrauch und dem realen Verbrauch seiner Haushaltskunden zu verringern. Jeder Haushalt in dem vorgestellten Modell ist mit einer Flexibilität in Form eines Batteriespeichers ausgestattet. Die Speicherbewirtschaftung wird basierend auf einem Signal, welches der Energieversorger übermittelt, automatisch vom Haushalt für jeden Tag im Betrachtungszeitraum optimiert. Jede Abweichung zwischen der vom Energieversorger erstellten Prognose und der tatsächlich bezogenen Strommenge stellt dabei einen Bezug von Ausgleichsenergie dar. Untersucht werden die Auswirkungen der Anzahl an Haushalten sowie ein unterschiedlicher Wissensstand auf die Prognose. Weiters werden zwei unterschiedliche Arten von Demand Side Management analysiert. Einmal die Einflussnahme auf die Last der Haushalte durch ein Preissignal, einmal durch das Vorgeben eines Lastgangs. Um die Effektivität der beiden Varianten bestimmen zu können, wird auch die Menge an Ausgleichsenergie erhoben, welche ohne das Vorhandensein eines Batteriespeichers (also ohne Steuerung) anfallen würde. Das Modell wurde entwickelt, um einen Trend aufzuzeigen und keine spezifische Einsparungsmenge zu ermitteln, da dies von der jeweiligen Situation des Energieversorgers abhängt. Die Erstellung der unterschiedlichen Wissensstände basiert auf den österreichischen rechtlichen Vorgaben bezüglich der Datenübertragung bei intelligenten Messgeräten. Dabei ist einmal der Jahresverbrauch, einmal der Tagesverbrauch und einmal die stündlichen Verbrauchswerte bekannt. Das Preissignal ist negativ korreliert zu den am Day-Ahead-Markt gehandelten Mengen und das Lastsignal basiert auf einer der Prognosen des Energieversorgers, je nach Variante, die untersucht wird. Es zeigte sich, dass ein besserer Wissensstand nur teilweise eine Verbesserung der Prognose erzielte. Wobei die unterschiedlichen Wissensstände auf den realen Werten der nicht verwendeten Haushalte aus dem gleichen Datensatz aufbauen und so beispielsweise Wettereinflüsse in der Prognose schon bekannt waren, was die Prognose basierend auf Jahreswerten sehr genau machte. Der Aggregationseffekt von mehreren Haushalten beeinflusst die Prognose positiv. Auf einzelner Haushaltsebene schneiden die Vorhersagen deutlich schlechter ab als bei Prognosen des Gesamtverbrauchs aller Haushalte. Die Optimierung basierend auf dem Lastsignal generiert eine geringere Menge an Ausgleichsenergie als das Preissignal. Das liegt unter anderem daran, dass die Prognose nur die Verbräuche der Haushaltskunden berücksichtigt und nicht die Mengen, die am Markt gehandelt werden. In den untersuchten Varianten stellte sich heraus, dass am wenigsten Ausgleichsenergie über alle Haushalte erzeugt wird, wenn kein Demand Side Management betrieben wird, also keine Batteriespeicher vorhanden sind und die Prognose des Energieversorgers auf Stundenwerten basiert. Auf einzelner Haushaltsebene fällt bei der Optimierung mittels Lastsignal am wenigsten Ausgleichsenergie an.
Weltweit hatten 2017 840 Millionen Menschen keinen Zugang zu Strom. Hinzu kommen Millionen weitere Menschen, die an unzuverlässige Stromquellen angeschlossen sind. Für das Wirtschaftswachstum, die menschliche Entwicklung und ökologische Nachhaltigkeit ist eine zuverlässige Stromversorgung jedoch von großer Bedeutung.
Die vorliegende Arbeit beschäftigt sich daher mit der Konzeptionierung einer zuverlässigen Stromversorgung für eine Hochschule in Benin (Westafrika), die sich mit einem unzuverlässigen Netzanschluss konfrontiert sieht. Die Konzeptionierung erfolgt mithilfe der Software HOMER.
Aufgrund unsicherer Systembedingungen wurden mehrere Szenarien und der Einfluss verschiedener Systemparameter untersucht.
Die Ergebnisse zeigen, dass eine zuverlässige Stromversorgung durch die Implementierung eines Mini-Grids erreicht werden kann. Dabei hat die Ausgangssituation einen bedeutenden Einfluss auf die Systemauslegung. Für das untersuchte Szenario, in dem die Hochschule keine Stromkosten bezahlte, erwies sich ein PV/Dieselgenerator/Batterien-Mini-Grid als geeignet. Dabei entstehen Stromkosten von mindestens 0,013 USD pro kWh, was leicht erhöhte Kosten gegenüber den Bezugskosten bedeutet. Dieser Kostenzuwachs lässt sich aber mit der erhöhten Zuverlässigkeit rechtfertigen. Auch unter der Annahme, dass die offiziellen Bezugskosten bezahlt werden müssen, erwies sich ein PV/Dieselgenerator/Batterie-Mini-Grid als geeignet. Die Größe der PV-Anlage fällt in diesem Fall deutlich größer aus, was zu einem reduzierten Einsatz des Dieselgenerators führt. Ein untersuchtes Off-Grid erwies sich als unwirtschaftlich.
Somit enthält die Arbeit wichtige Erkenntnisse darüber, wie sich verschiedene Parameter auf ein geeignetes System auswirken. Zudem wurde ein Systemvorschlag ausgearbeitet. Diese Informationen sollen nicht nur den beteiligten Personen vor Ort helfen, sondern auch als Grundlage für zukünftige Projekte dienen.
Diese Arbeit beschäftigt sich mit der Analyse von Blasenindikatoren speziell des Immobilienbereichs, aber auch von Aktienmärkten. Im ersten Teil der Arbeit wird versucht, vergangene Blasenbildungen aufzuzeigen und zu erläutern, weshalb sich diese bilden konnten und schlussendlich geplatzt sind. Dies soll einem besseren Verständnis der restlichen Arbeit dienen. Weiters werden Indikatoren, die üblicherweise genutzt werden, um einen Markt einzuschätzen aufgezeigt und erläutert. Ebenfalls werden diese teilweise zueinander in Relation gestellt, um Zusammenhänge der einzelnen Indikatoren zu erkennen. Im Anschluss dieser Aufstellung werden bekannte, vom internationalen Markt anerkannte, Indikatoren aufgezeigt und erläutert und mit Beispielen unterlegt. Den Abschluss der Arbeit bildet das Einsetzen von ausgewählten Indikatoren für die Märkte Schweiz und Österreich und ein daraus abgeleitetes Fazit, ob eine Blase in diesen Ländern als Wahrscheinlich gilt oder nicht. Auch wird erläutert, dass ein einzelner Indikator wenig bis keine Aussagekraft zur Einschätzung einer Blasensituation hat, sondern Indikatorensets dazu benötigt werden.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
Mit dem entwickelten, gemischt-ganzzahligen linearen Optimierungsmodell wird ein grosser Beitrag geleistet, das die wichtigen Betriebskennzahlen einer PV-Speicheranlage, wie der Eigenverbrauchsanteil um bis zu 89 % und der Autarkiegrad um bis zu 73 % durch eine variable Grenzkostenoptimierung bei zusätzlicher E-Auto Berücksichtigung gesteigert werden können. Der Eigenverbrauch der PV-Erzeugung wird durch den stationären Batteriespeicher auf 71 % mehr als verdoppelt. Das beispielhafte Szenario hat einen Haushaltsverbrauch von 5 MWh pro Jahr und besteht aus einer 5 kWp PV-Anlage, mit einem 5 kWh Batteriespeicher und dem Tesla Model 3 mit einer Jahresfahrleistung von 16778 km.
Das erstellte Softwareprogramm kann einfach auf weitere verschiedene Anlagenkonstellationen und mit eigenen Eingangszeitreihenprofile der Haushaltslast, der PV-Erzeugung und der E-Auto Nutzung parametriert werden. Neben der Kennzahlenberechnung des konkreten Szenarios wird der jeweilige Einfluss einer Anlagenkomponente, wie PV, Batterie und Last bei deren Variation, auf die Kennzahlen grafisch gut sichtbar dargestellt.
Die Ergebnisse bestätigen bisherige Arbeiten, dass die Dimensionierung der Anlagenkomponenten nach der einfachen Faust-Formel 1:1:1 erfolgen soll: Der stationäre Batteriespeicher und die PV-Anlage sollen gleich gross sein und ihre Grösse in kWh soll der Jahreslast in MWh entsprechen. Damit wird nahezu schon ein gutes Optimum von Eigenverbrauch, Eigenverbrauchsanteil und Autarkiegrad bei minimalen Energiekosten gefunden und die Netzbelastung durch Bezug und Einspeisung kann reduziert werden.
Die vorliegende Masterarbeit befasst sich mit der Analyse von Unterstützungsverfahren, um mithilfe eines Roboters einen Fügeprozess kombiniert mit einer Fügeachse durchführen zu können. Durch das Führen der Bauteile durch den Roboter während des Fügevorgangs entsteht eine Überbestimmung zwischen Fügeachse und Roboter. Die auftretenden Kräfte und Momente, die dadurch auf den Roboter wirken, sind zu untersuchen. Mithilfe der Analysen soll ermittelt werden, ob der Roboter während der Fügeprozesse innerhalb seiner Leistungsgrenzen betrieben wird und ob eine ausreichend genaue Kompensation der Kräfte möglich ist. Ein dazu erstellter Versuchsaufbau soll diese Analysen ermöglichen. Nach dem Erarbeiten von Grundlagen der Roboterregelung wird speziell auf die, bei diesem Versuchsaufbau zu Verfügung stehenden, Unterstützungsverfahren des Roboters eingegangen. Die Eigenschaften und Anwendung des jeweiligen Verfahrens werden beleuchtet und dargestellt. Dem folgt eine Übersicht der geplanten Fügeversuche, um das Verhalten des Roboters während der Fügeprozesse zu analysieren. Die Auswertung einer durchgeführten Messsystemanalyse und der Fügeversuche stellt die Verwendbarkeit und die erreichbaren Toleranzen sowie die Stärken und Schwächen der Unterstützungsverfahren dar.
Skiing is one of the most popular winter sports in the world and especially in the alps. As the skiers enjoy their time on the slopes the most annoying thing that could happen is long waiting times at a lift. Unfortunately, because of climate changes, this happens more regularly because smaller skiing areas at lower altitudes have to close and the number of good skiing days decreases as well. This leads to a increase in the number of skiers in the skiing areas which inevitably leads to longer waiting times and dissatisfied skiers. To prevent this from happening, the carriers of the skiing areas have to manage the skiers flow and distribution and what better way to analyse the current situation and possible changes then by simulating the whole area. A simulation has the advantage of being flexible with regards to time as well as configuration. Be it simulating a skiing day and look into detail of the behaviour of a single skier and how it moves in the area by simulating in real time or setting the focus to the whole area and find out when and where queues are forming throughout the whole day by speeding up the time and simulate the day in only seconds, everything is possible. Even simulating a scenario where some part of the area is closed and the skiers cannot take specific lifts due to some technical error or some slopes because of to less snow. By simulating and analysing all these scenarios not only does the experts of the skiing area gain valuable statistical information about the area but can also simulate changes to the system like a crowd fl ow control or an increase or decrease in capacity of a lift. The simulation built in context with this work for the skiing area of Mellau shows all those applications but can also be used as a basis for further improvements of the skiing area or be expanded to other areas like Damüls. The simulation was implemented using the Anylogic simulation environment and the statistical evaluation was also performed in this program.
This master’s thesis provides an overview of a more efficient, future-oriented living concept in Dornbirn, Austria. The use of a combined heat and power unit (CHP), in combination with a thermal storage, as a heating system is specifically investigated. In order to make this heating system more attractive for the consumer, the sale of the generated electricity from the CHP is considered. The more efficient use of energy for heating increases the attractiveness by a minimisation of the living space. This master’s thesis aims to draw attention to the issue and to achieve a rethinking in the planning of future living space. For the research and elaboration of this thesis, statistics and trustworthy literature were used, and physical modelling was applied. This Master’s thesis can be assigned to the fields of energy technology, mechatronics, architecture and civil engineering. It contributes for students, researchers, and other interested person in these sectors.