Refine
Year of publication
- 2020 (168) (remove)
Document Type
- Master's Thesis (89)
- Article (48)
- Conference Proceeding (12)
- Part of a Book (6)
- Report (6)
- Other (4)
- Doctoral Thesis (2)
- Book (1)
Institute
- Soziales & Gesundheit (21)
- Wirtschaft (18)
- Forschungszentrum Mikrotechnik (15)
- Forschungszentrum Business Informatics (14)
- Technik | Engineering & Technology (8)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (6)
- Forschungszentrum Energie (4)
- Department of Engineering (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (2)
- Gestaltung (2)
- Forschung (1)
Keywords
- Ausscheidung (4)
- Controlling (3)
- Digitalisierung (3)
- Machine learning (3)
- Optical coherence tomography (3)
- Arrayed waveguide gratings (2)
- Change management (2)
- Demand Side Management (2)
- Digitale Transformation (2)
- Entscheidung (2)
This thesis aims to support the product development process. Therefore, an approach is developed, implemented as a prototype and evaluated, for automated solution space exploration of formally predefined design automation tasks holding the product knowledge of engineers. For this reason, a classification of product development tasks related to the representation of the mathematical model is evaluated based on the parameters defined in this thesis. In a second step, the mathematical model should be solved. A Solver is identified able to handle the given problem class.
Due to the context of this work, System Modelling Language (SysML) is chosen for the product knowledge formalisation. In the next step the given SysML model has to be translated into an object-oriented model. This translation is implemented by extracting information of a ".xml"-file using the XML Metadata Interchanging (XMI) standard. The information contained in the file is structured using the Unified Modelling Language (UML) profile for SysML. Afterwards a mathematical model in MiniZinc language is generated. MiniZinc is a mathematical modelling language interpretable by many different Solvers. The generated mathematical model is classified related to the Variable Type and Linearity of the Constraints and Objective of the generated mathematical model. The output is stored in a ".txt"-file.
To evaluate the functionality of the prototype, time consumption of the different performed procedures is measured. This data shows that models containing Continuous Variables need a longer time to be classified and optimised. Another observation shows that the transformation into an object-oriented model and the translation of this model into a mathematical representation are dependent on the number of SysML model elements. Using MiniZinc resulted in the restriction that models which use non-linear functions and Boolean Expressions cannot be solved. This is because the implementation of non-linear Solvers at MiniZinc is still in the development phase. An investigation of the optimally of the results, provided by the Solvers, was left for further work.
The Digital Factory Vorarlberg is the youngest Research Center of Vorarlberg University of Applied Sciences. In the lab of the research center a research and learning factory has been established for educating students and employees of industrial partners. Showcases and best practice scenarios for various topics of digitalization in the manufacturing industry are demonstrated. In addition, novel methods and technologies for digital production, cloud-based manufacturing, data analytics, IT- and OT-security or digital twins are being developed. The factory comprises only a minimum core of logistics and fabrication processes to guarantee manageability within an academic setup. As a product, fidget spinners are being fabricated. A webshop allows customers to individually design their products and directly place orders in the factory. A centralized SCADA-System is the core data hub for the factory. Various data analytic tools and methods and a novel database for IoT-applications are connected to the SCADA-System. As an alternative to on premise manufacturing, orders can be pushed into a cloud-based manufacturing platform, which has been developed at the Digital Factory. A broker system allows fabrication in distributed facilities and offers various optimization services. Concepts, such as outsourcing product configuration to customers or new types of engineering services in cloud-based manufacturing can be explored and demonstrated. In this paper, we present the basic concept of the Digital Factory Vorarlberg, as well as some of the newly developed topics.
A modified matrix adaptation evolution strategy with restarts for constrained real-world problems
(2020)
In combination with successful constraint handling techniques, a Matrix Adaptation Evolution Strategy (MA-ES) variant (the εMAg-ES) turned out to be a competitive algorithm on the constrained optimization problems proposed for the CEC 2018 competition on constrained single objective real-parameter optimization. A subsequent analysis points to additional potential in terms of robustness and solution quality. The consideration of a restart scheme and adjustments in the constraint handling techniques put this into effect and simplify the configuration. The resulting BP-εMAg-ES algorithm is applied to the constrained problems proposed for the IEEE CEC 2020 competition on Real-World Single-Objective Constrained optimization. The novel MA-ES variant realizes improvements over the original εMAg-ES in terms of feasibility and effectiveness on many of the real-world benchmarks. The BP-εMAg-ES realizes a feasibility rate of 100% on 44 out of 57 real-world problems and improves the best-known solution in 5 cases.
A novel calorimetric technique for the analysis of gas-releasing endothermic dissociation reactions
(2020)
Issues with professional conduct and discrimination against Lesbian, Gay, Bisexual, Transgender (LGBT+) people in health and social care, continue to exist in most EU countries and worldwide.
The project IENE9 titled: “Developing a culturally competent and compassionate LGBT+ curriculum in health and social care education” aims to enable teacher/trainers of theory and practice to enhance their skills regarding LGBT+ issues and develop teaching tools to support the inclusion of LGBT+ issues within health and social care curricula. The newly culturally competent and compassionate LGBT+ curriculum will be delivered though a Massive Open Online Course (MOOC) which is aimed at health and social care workers, professionals and learners across Europe and worldwide.
We have identified educational policies and guidelines at institutions teaching in health and social care, taken into account for developing the learning/teaching resources. The MOOC will be an innovative training model based on the Papadopoulos (2014) model for “Culturally Competent Compassion”. The module provides a logical and easy to follow structure based on its four constructs 'Culturally Aware and Compassionate Learning', 'Culturally Knowledgeable and Compassionate Learning', 'Culturally Sensitive and Compassionate Learning', 'Culturally Competent and Compassionate Learning'.
Specific training may result in better knowledge and skills of the health and social care workforce, which helps to reduce inequalities and communication with LGBT+ people, as well as diminishing the feelings of stigma or discrimination experienced.
Die Entwicklungen im Bereich der Algorithmen, Machine Learning und Künstlicher Intelligenz sind rasant und halten Einzug in immer mehr Bereichen des alltäglichen Lebens, insbesondere in den Unternehmen. Aus diesem Grund wird in dieser Arbeit der Frage nachgegangen, inwiefern dieser Trend Auswirkungen auf die benötigten Management-Kompetenzen hat. Zur Beantwortung dieser Frage wird zuerst die klassische Management-Lehre mit ihren zentralen Begrifflichkeiten und bestehenden Kompetenzmodellen beleuchtet und basierend auf diesen Erkenntnissen ein Analyse-Hilfsmodell entwickelt. Im Anschluss werden die wichtigsten Grundlagen zum Themenkomplex Algorithmus, Machine Learning und Künstliche Intelligenz behandelt und auf dieser Basis benötigte Management-Kompetenzen abgeleitet. Zusätzlich werden aktuelle Studien großer Beratungsunternehmen und Fachartikel analysiert und ebenfalls Kompetenzen für den Einsatz von Machine Learning und Künstlicher Intelligenz identifiziert. Schliesslich wird eine Gap-Analyse durchgeführt mit dem Resultat, dass keine grundsätzlich neuen Kompetenzen notwendig sind, diese jedoch teils erweitert werden müssen und sich deren Wichtigkeit verschiebt.
Alter und Recruiting
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Problematik von Arbeitssuchenden 45 plus in Vorarlberg.
Zum Verständnis werden die Fachbegriffe Diversity, Generationen und Altersklassen, Altersdiskriminierung und Work Ability Index erläutert. Die Umfeld- und Einflussfaktoren beschäftigen sich mit den demografischen Grundlagen, den Potenzialen älterer Arbeitnehmender, dem alter(n)s-gerechten Arbeiten, möglicher Herausforderungen im Recruiting und Ideen anderer Länder.
Im Abschnitt Methodologie und Methodik werden Grundlagen der qualitativen Forschung behandelt. Die Datenerhebung erfolgte durch Experteninterviews. Die Details dazu finden sich in den Passagen Sampling, Auswahl der Interviewpartner, Interview-Leitfaden, Auswertungsmethode und Gütekriterien. Die Arbeit fokussiert sich auf Industrieunternehmen in Vorarlberg sowie das AMS, die AK und die Caritas.
Die Antworten aus den Leitfaden-Interviews führen schlussendlich zu potenziellen Reformansätzen, um die Situation für Arbeitnehmende 45 plus zu verbessern. Es ergeben sich mehrere Aspekte, welche wider das Einstellen von älteren Bewerbenden vorliegen.
An electrochemical study with three redox substances on a carbon based nanogap electrode array
(2020)
An implementation approach of the gap navigation tree using the TurtleBot 3 Burger and ROS Kinetic
(2020)
The creation of a spatial model of the environment is an important task to allow the planning of routes through the environment. Depending on the number of sensor inputs different ways of creating a spatial environment model are possible. This thesis introduces an implementation approach of the Gap Navigation Tree which is aimed for usage with robots that have a limited amount of sensors. The Gap Navigation Tree is a tree structure based on depth discontinuities constructed from the data of a laser scanner. Using the simulated TurtleBot 3 Burger and ROS kinetic a framework is created that implements the theory of the Gap Navigation Tree. The framework is structured in a way that allows using different robots with different sensor types by separating the detection of depth discontinuities from the building and updating of the Gap Navigation Tree.
Das Management eines Unternehmens kann Mithilfe von bilanzpolitischen Maßnahmen bewusst Einfluss auf das Unternehmensergebnis nehmen. Durch Ausnutzung von Ermessenspielräumen bei der Bildung und Auflösung von Rückstellungen können stille Reserven gebildet und in späteren Perioden wieder aufgelöst werden.
In dieser Masterarbeit wurde untersucht ob die Unternehmen des M-DAX mithilfe der Big-Bath-Accounting-Methode oder der Income-Smoothing-Methode bewusst Einfluss auf das Jahresergebnis genommen haben. Hierfür wurden die Geschäftsberichte der Zielgruppe im Zeitraum von 2009 – 2018 empirisch untersucht. Um die Gültigkeit der Hypothesen zu überprüfen wurde das ausgewiesene EBIT mit einem bereinigten EBIT verglichen. Für die Ermittlung des bereinigten EBITs wurden die tatsächlichen Rückstellungsbildungen bzw. Rückstellungsauflösungen durch die über den Betrachtungszeitraum durchschnittlichen Rückstellungsbildung bzw. Rückstellungsauflösung ersetzt.
Die Ergebnisse der empirischen Untersuchung haben gezeigt, dass die Unternehmen der Zielgruppe Mithilfe von Rückstellungen großen Einfluss auf das EBIT nehmen können. Weiter konnte belegt werden, dass die meisten Unternehmen bei der Rückstellungsbewertung grundsätzlich vorsichtig agieren und höhere Beträge in Rückstellungen bilanzieren.
Die EU-Ziele umfassen die Steigerung des Anteils an erneuerbaren Energien an der Energieerzeugung um 32 % bis 2030. Doch erneuerbare Energien bringen neben den Vorteilen für den Umweltschutz auch Probleme mit sich. Ihre Schwankungen und Unkontrollierbarkeit stellen große Herausforderungen für das Stromnetz dar. Um die Netz- und damit die Versorgungssicherheit weiterhin gewährleisten zu können, braucht es Lösungen, die weder das Stromnetz, die Verbraucher noch die Energieversorger benachteiligen. Eine Möglichkeit wäre es, zusätzliche Kraftwerke und Infrastruktur (Redundanzen) aufzubauen, welche potenzielle Schwankungen ausgleichen können. Dieser Lösungsansatz gilt als traditioneller Weg, der hohe Kosten und negative Umweltauswirkungen mit sich bringt. Demand Side Management hat das Potenzial, effiziente Lösungen diesbezüglich anzubieten. Welche Vorteile der Einsatz von DSM auf Ebene der Haushaltsverbraucher für die Energieversorger in Bezug auf den Abruf von Ausgleichsenergie bringt, wird in dieser Arbeit behandelt. Dafür wurde ein agentenbasiertes Modell entwickelt, welches darauf abzielt, die Abweichung zwischen dem von dem Energieversorger prognostizierten Verbrauch und dem realen Verbrauch seiner Haushaltskunden zu verringern. Jeder Haushalt in dem vorgestellten Modell ist mit einer Flexibilität in Form eines Batteriespeichers ausgestattet. Die Speicherbewirtschaftung wird basierend auf einem Signal, welches der Energieversorger übermittelt, automatisch vom Haushalt für jeden Tag im Betrachtungszeitraum optimiert. Jede Abweichung zwischen der vom Energieversorger erstellten Prognose und der tatsächlich bezogenen Strommenge stellt dabei einen Bezug von Ausgleichsenergie dar. Untersucht werden die Auswirkungen der Anzahl an Haushalten sowie ein unterschiedlicher Wissensstand auf die Prognose. Weiters werden zwei unterschiedliche Arten von Demand Side Management analysiert. Einmal die Einflussnahme auf die Last der Haushalte durch ein Preissignal, einmal durch das Vorgeben eines Lastgangs. Um die Effektivität der beiden Varianten bestimmen zu können, wird auch die Menge an Ausgleichsenergie erhoben, welche ohne das Vorhandensein eines Batteriespeichers (also ohne Steuerung) anfallen würde. Das Modell wurde entwickelt, um einen Trend aufzuzeigen und keine spezifische Einsparungsmenge zu ermitteln, da dies von der jeweiligen Situation des Energieversorgers abhängt. Die Erstellung der unterschiedlichen Wissensstände basiert auf den österreichischen rechtlichen Vorgaben bezüglich der Datenübertragung bei intelligenten Messgeräten. Dabei ist einmal der Jahresverbrauch, einmal der Tagesverbrauch und einmal die stündlichen Verbrauchswerte bekannt. Das Preissignal ist negativ korreliert zu den am Day-Ahead-Markt gehandelten Mengen und das Lastsignal basiert auf einer der Prognosen des Energieversorgers, je nach Variante, die untersucht wird. Es zeigte sich, dass ein besserer Wissensstand nur teilweise eine Verbesserung der Prognose erzielte. Wobei die unterschiedlichen Wissensstände auf den realen Werten der nicht verwendeten Haushalte aus dem gleichen Datensatz aufbauen und so beispielsweise Wettereinflüsse in der Prognose schon bekannt waren, was die Prognose basierend auf Jahreswerten sehr genau machte. Der Aggregationseffekt von mehreren Haushalten beeinflusst die Prognose positiv. Auf einzelner Haushaltsebene schneiden die Vorhersagen deutlich schlechter ab als bei Prognosen des Gesamtverbrauchs aller Haushalte. Die Optimierung basierend auf dem Lastsignal generiert eine geringere Menge an Ausgleichsenergie als das Preissignal. Das liegt unter anderem daran, dass die Prognose nur die Verbräuche der Haushaltskunden berücksichtigt und nicht die Mengen, die am Markt gehandelt werden. In den untersuchten Varianten stellte sich heraus, dass am wenigsten Ausgleichsenergie über alle Haushalte erzeugt wird, wenn kein Demand Side Management betrieben wird, also keine Batteriespeicher vorhanden sind und die Prognose des Energieversorgers auf Stundenwerten basiert. Auf einzelner Haushaltsebene fällt bei der Optimierung mittels Lastsignal am wenigsten Ausgleichsenergie an.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
Mit dem entwickelten, gemischt-ganzzahligen linearen Optimierungsmodell wird ein grosser Beitrag geleistet, das die wichtigen Betriebskennzahlen einer PV-Speicheranlage, wie der Eigenverbrauchsanteil um bis zu 89 % und der Autarkiegrad um bis zu 73 % durch eine variable Grenzkostenoptimierung bei zusätzlicher E-Auto Berücksichtigung gesteigert werden können. Der Eigenverbrauch der PV-Erzeugung wird durch den stationären Batteriespeicher auf 71 % mehr als verdoppelt. Das beispielhafte Szenario hat einen Haushaltsverbrauch von 5 MWh pro Jahr und besteht aus einer 5 kWp PV-Anlage, mit einem 5 kWh Batteriespeicher und dem Tesla Model 3 mit einer Jahresfahrleistung von 16778 km.
Das erstellte Softwareprogramm kann einfach auf weitere verschiedene Anlagenkonstellationen und mit eigenen Eingangszeitreihenprofile der Haushaltslast, der PV-Erzeugung und der E-Auto Nutzung parametriert werden. Neben der Kennzahlenberechnung des konkreten Szenarios wird der jeweilige Einfluss einer Anlagenkomponente, wie PV, Batterie und Last bei deren Variation, auf die Kennzahlen grafisch gut sichtbar dargestellt.
Die Ergebnisse bestätigen bisherige Arbeiten, dass die Dimensionierung der Anlagenkomponenten nach der einfachen Faust-Formel 1:1:1 erfolgen soll: Der stationäre Batteriespeicher und die PV-Anlage sollen gleich gross sein und ihre Grösse in kWh soll der Jahreslast in MWh entsprechen. Damit wird nahezu schon ein gutes Optimum von Eigenverbrauch, Eigenverbrauchsanteil und Autarkiegrad bei minimalen Energiekosten gefunden und die Netzbelastung durch Bezug und Einspeisung kann reduziert werden.
In einer Zeit, in der Daten eine immer größere Rolle spielen, nehmen Schlagwörter wie Big Data, Data Analytics oder Data Mining auch in Organisationen eine große Rolle ein. Daten werden zum neuen digitalen Öl, das durch alle Systeme der Unternehmen und externe Quellen fließt. Richtig eingesetzt, unterstützen sie bei der Strategiefindung, bei der Umsetzung neuer Geschäftsmodelle, beim Gestalten neuer Abläufe und Prozesse und insbesondere bei der Entscheidungsfindung.
Die vorliegende Arbeit beschäftigt sich mit den Themen Daten und Unternehmenssystemen. Von diesen Themen ausgehend wird versucht, eine Brücke zu den Themenfeldern Prozessmanagement und Prozessinnovation zu schlagen. Die Arbeit soll aufzeigen, welche strategischen und operativen Ansätze die Nutzung von Daten als Treiber für Prozessinnovation zulassen. Aufbauend auf einer theoretischen Einordnung der vier skizzierten Gebiete, bildet ein empirischer Teil das Herzstück dieser Arbeit. In diesem Teil werden Aussagen von ExpertInnen darüber zusammengetragen, welche Ansätze zur datengetriebenen Prozessinnovation sie in ihren jeweiligen Unternehmen anwenden. Diese Aufarbeitung ist gegliedert in die drei Ebenen Rahmenbedingungen, Faktoren und Ansätze. Abgeschlossen wird diese Arbeit durch konkrete Handlungsempfehlungen für Unternehmen.
Heutzutage gewinnen visuelle und akustische Eingabemethoden für die Interaktion mit Anwendungen oder Komponenten zunehmend an Bedeutung und sollen die klassische Maus oder Tastatur gegebenenfalls ersetzen. Abgesehen von der Sprachsteuerung benötigen jedoch auch die neuen Methoden für das Absetzen eines Befehls größtenteils die Hände. Es bleibt jedoch die Frage bestehen was passiert, wenn keine freie Hand zur Verfügung steht und ein Sprachbefehl aufgrund des Lärmpegels nicht erkannt wird. Diese Arbeit beschreibt das Konzept einer alternativen Anwendungssteuerung mit Fußgesten und verwendet dafür die Einlegesohlen ‚stapp one‘, die mit Druck- und Beschleunigungssensoren ausgestattet sind. Aufgrund der Durchführung einer Umfrage mit Mehrheitsvotum lassen sich verschiedene Fußgesten für entsprechende Aktionen der gesteuerten Komponenten definieren. Diese wirken auf die Anwender und Anwenderinnen intuitiv und weisen folglich eine hohe Akzeptanz bei der Benutzung auf. Mit einer Verbindungskombination aus Bluetooth und ‚User-Datagram-Protocol‘ (UDP) werden die Sensordaten von der Sohle, über ein Smartphone, zu einem Computer weitergeleitet, um eine Gestenerkennung mit Machine-Learning umzusetzen. Über ein Datenfluss-System werden die empfangenen Werte der Sensoren aufbereitet und eine Feature-Extraktion durchgeführt, sodass diese für eine Klassifizierung von Fußgesten dienen. Basierend auf ‚Deeplearning4j‘ wird ein Algorithmus mit ‚Long Short-Term Memory‘ implementiert und zusammen mit dem Datenfluss-System als ‚Java‘-Bibliothek zur Verfügung gestellt. Zusätzlich werden Datensätze von Fußgesten einer Person erstellt und zum Training sowie zur Evaluierung der Gestenerkennung verwendet. In einer letzten Umfrage wird die implementierte Bibliothek in zwei Applikationen integriert. Zudem wird die Funktion des definierten ‚Gesten-Aktionen-Mapping‘ in drei Anwendungsszenarien analysiert. Die Forschungsergebnisse zeigen eine zuverlässige Klassifizierung der Fußgesten mit einer Genauigkeit von 82 %, wobei unter realen Bedingungen auch Werte zwischen 85 % und 100 % erreicht werden.
Zeros can cause many issues in data analysis and dealing with them requires specialized procedures. We differentiate between rounded zeros, structural zeros and missing values. Rounded zeros occur when the true value of a variable is hidden because of a detection limit in whatever mechanism was used to acquire the data. Structural zeros are values which are truly zero, often coming about due to a hidden mechanism separate from the one which generates values greater than 0. Missing values are values that are completely missing for unknown or known reasons. This thesis outlines various methods for dealing with different kinds of zeros in different contexts. Many of these methods are very specific in their ideal usecase. They are separated based on which kind of zero they are intended for and if they are better suited for compositional or for standard data.
For rounded zeros we impute the zeros with an estimated value below the detection limit. The author describes multiplicative replacement, a simple procedure that imputes values at a fixed fraction of the detection limit. As a more advanced technique, the author describes Kaplan Meier smoothing spline replacement, which interpolates a spline on a Kaplan Meier curve and uses the spline below the detection limit to impute values in a more natural distribution. Rounded zeros cannot be imputed with the same techniques that would be used for regular missing values, since there is more information available on the true value of a rounded zero than there would be for a regular missing value.
Structural zeros cannot be imputed since they are a true zero. Imputing them would falsify their values and produce a value where there should be none. Because of this, we apply modelling techniques that can work around structural zeros and incorporate them. For standard data, the zero inflated Poisson model is presented. This model utilizes a mixture of a logistic and a Poisson distribution to accurately model data with a large amount of structural zeros. While the Poisson distribution is only applicable to count data, the zero inflation concept can be applied to different kinds of distributions. For compositional data, the zero adjusted Dirichlet model is introduced. This model mixes Dirichlet distributions for every pattern of zeros found within the data. Non-algorithmic techniques to reduce the amount of structural zeros present are also shown. These techniques being amalgamation, which combines columns with structural zeros into more broad descriptors and classification, which changes columns into categorical values based on a structural zero being present or not.
Missing values are values that are completely missing for various known or unknown reasons. Different imputation techniques are introduced. For standard data, MissForest imputation is introduced, which utilizes a RandomForest regression to impute mixed type missing values. Another imputation technique shown utilizes both a genetic algorithm and a neural network to impute values based on the genetic algorithm minimizing the error of an autoencoder neural network. In the case of compositional data, knn imputation is presented, which utilizes the knn concept also found in knn clustering to impute the values based on the closest samples with a value available.
All of these methods are explained and demonstrated to give readers a guide to finding the suitable methods to use in different scenarios.
The thesis also provides a general guide on dealing with zeros in data, with decision flowcharts and more detailed descriptions for both compositional and standard data being presented. General tips on getting better results when zeros are involved are also given and explained. This general guide was then applied to a dataset to show it in action.
Nowadays, the area of customer management strives for omni-channel and state-of-the-art CRM concepts including Artificial Intelligence and the approach of Customer Experience. As a result, modern CRM solutions are essential tools for supporting customer processes in Marketing, Sales and Service. AI-driven CRM accelerates sales cycles, improves lead generation and qualification, and enables highly personalized marketing. The focus of this thesis is to present the basics of Customer Relationship Management, to show the latest Gartner insights about CRM and CX, and to demonstrate an AI Business Framework, which introduces AI use cases that are used as a basis for the expert interviews conducted in an international B2B company. AI will transform CX through a better understanding of customer behavior. The following research questions are answered in this thesis: In which AI use cases can Sales and CRM be improved? How can Customer Experience be improved with AI-driven CRM?
Companies develop and implement strategies with the aim to address the needs of their customers. Acquisition is one market expansion strategy that companies can use to acquire new market access, technologies and/or to grow organically. In recent years, Chinese companies have been active in acquiring companies all over the globe to develop their strategic position. This caused certain contra reaction in Europe and as well in the Swiss media against cross-border acquisitions of Swiss companies.
Swiss companies and particularly the Swiss-MEM (Machinery, Electrical and Mechanical) industry is highly export oriented and their value proposition builds on attributes like knowledge, technology, and differentiating products. Among them are many “hidden champions” and niche players who successfully dominate the market segment.
As observed with Chinese companies, Indian companies also started to become more active outside of their domestic markets by increasing their foreign direct investments into Europe, Asia and North America, over the last decades. The lasting and good relationship of India and Switzerland might trigger the wish for Indian companies to acquire Swiss and particularly Swiss-MEM companies for acquisitions.
This Master’s Thesis assesses how often Indian investments into public and privately owned Swiss-MEM companies by acquisition happen, how are the attempts of acquisitions perceived by the stakeholders and what measures Swiss and Swiss-MEM companies can take, to protect themselves from being acquired. To access the research topic, several sub-questions will be analysed with the aid of primary and secondary research to assess the situation.
The research topic is of particular interested to the author since he spent over 20 years working in the Swiss-MEM industry, involved in international affairs and in recent years specifically with India. The observation of Chinese acquisition activities and insight into the size and potential of India were the drivers for researching whether India might follow China’s example.
In conclusion, Indian companies are not explicitly targeting Swiss and Swiss-MEM companies, but there are reasons to believe that it would make sense for Indian companies to look into the acquisition of Swiss and Swiss-MEM companies. The perception of such acquisitions varies, but there are arguments for and against them. Companies must take strategic and organisational measures in order to prevent themselves from becoming the target of an acquisition. However, it is known that the state should not interfere in the market and a discussion at a political level, planning how to deal with cross-border acquisition, is needed.
Further areas for research based on this Master’s Thesis could be the review of how the targeting of Swiss and Swiss-MEM companies by Indian companies would look, and also the topic of the succession planning in Swiss secondary sector in conjunction with Indian targeting for acquisitions. A third area to research might be investigating the political aspects involved in the research questions.
In vielen Ländern gibt es eine stetige Verschiebung von Bargeld zu Kartenzahlung. Dieser Umstand könnte darauf hinweisen, dass Bargeld irgendwann verschwinden wird. Der Bargeldumlauf ist in den meisten Ländern, einschließlich Österreich, jedoch seit Jahrzehnten stabil oder stark gestiegen. Im Gegensatz dazu gilt Schweden als eine Vorreiternation auf dem Weg in die bargeldlose Gesellschaft. In der vorliegenden Masterthesis werden die Unterschiede zwischen Österreich und Schweden erläutert, indem die Zahlungsmärkte als auch das Potenzial der Länder aufgezeigt werden. Weiters werden die möglichen Einflüsse wie Bargeldversorgung, Technologie und Infrastruktur, Regulierungen und das unterschiedliche Zahlungsverhalten und die Mentalität der Konsumenten untersucht. Daraus werden dann Schlussfolgerungen gezogen, wohin sich die verschiedenen Zahlungsmärkte in Zukunft bewegen werden. Die Daten basieren auf Sekundärdaten, die aus Büchern, Zeitschriften, verschiedenen Forschungsarbeiten und Onlinequellen stammen. Egal, welchen Standpunkt Sie in Bezug auf die Zukunft des Bargeldes einnehmen, soll diese Masterthesis einen besseren Einblick über die Transformation unserer Volkswirtschaft und den Mechanismus von unbaren Zahlungen geben.
In dieser Arbeit werden verschiedene Augmented Reality Tools analysiert und getestet, um eine Brandmeldezentrale zu erkennen und auf dieser virtuelle Inhalte darzustellen. Die Erkennung der Zentrale wird mittels Bilderkennung und Objekterkennung von Vuforia, Wikitude und AR Foundation durchgeführt. Zusätzlich wird in dieser Arbeit eine AR Applikation implementiert, welche sowohl mit iOS und Android Geräten als auch für die Microsoft HoloLens 2 kompatibel ist. Die Anwendung soll zeigen, an welcher Stelle in der Brandmeldezentrale ein Fehler vorliegt und wie dieser behoben werden kann. Für die Fehlerbehandlung kommt eine “Schritt für Schritt Anleitung“ zum Einsatz, bei welcher Teile der Zentrale augmentiert hervorgehoben werden, wenn diese für die Behebung des Problems relevant sind. Es werden diverse Geräte bezüglich Interaktion und deren Stärken bzw. Schwächen evaluiert. Für die Analyse haben Testpersonen die Anwendung sowohl auf der HoloLens 2 als auch auf einem iPad Pro getestet. Die Ergebnisse zeigen, dass einige Personen Schwierigkeiten mit der Gestensteuerung auf der HoloLens 2 haben. Die Ausführung der Pinch Geste, welche durch das zusammendrücken von Daumen und Zeigefinger ausgeführt wird, wurde oft zu ungenau durchgeführt. Der Vergleich der beiden Geräte hat ergeben, dass Interaktionen auf dem iPad schneller ausgeführt werden können als auf der HoloLens. Außerdem wurde überprüft, wie sich unterschiedliche Lichtverhältnisse auf die Anwendung auswirken. Dabei stellte sich heraus, dass die Hologramme bei der HoloLens bei einer stark beleuchteten Umgebung nicht gut sichtbar sind. Die Objekterkennung der Brandmeldezentrale weist einige Fehler bei der Erkennung der Brandmeldezentrale auf. Diese sind darauf zurückzuführen, dass die Brandmeldezentrale für die verwendeten Augmented Reality Tools zu wenig Merkmale aufweist.
Ausgehandeltes Verständnis
(2020)
Entscheidungen über die optimierte organisatorische Wertschöpfung werden oft von mehreren Personen getroffen. Möchte die entscheidungsorientierte BWL anwendungsorientiert sein, legt sie den Fokus auf das Gewebe von aufeinander verweisenden (entscheidungsfördernden) Kommunikationen zu legen und auf der Erkenntnisfigur des Beobachters aufzubauen.
The boom of information technology development created high demand for skilled labour force in IT occupations. IT professionals install, test, build, repair or maintain hardware and software and can do the job from any location in the world.
Demand for the workforce significantly outstrips the global supply. In a situation of staff shortage employers have to compete on local and global labour markets. The ability of a firm to attract and retain the best talent would become a source of its sustainable competitive advantage.
Aim of the study is to understand what influences perception of employment attractiveness by IT professionals the most. This study intends to expend the existing knowledge about employees´ needs and “psychological contract” concept.
The research was conducted with the participation of 4 IT and 4 HR English-speaking experts who live and work in Austria. In the study the grounded theory approach and the descriptive qualitative methods were applied.
The research findings explain which factors influence the decision of IT professionals to join, stay or leave an employer. The results are discussed in relation to talent attraction and retention practices of Austrian employers.
Veränderungen im gesellschaftlichen Wertesystem, das Vordringen kommerzieller Privatwirtschaft in Bereiche, die über lange Zeit von Non-Profit-Organisationen abgedeckt worden sind, und die Finanzkrise der öffentlichen Haushalte gelten als große Ursachen für die vielfältige und kontroversielle Diskussion der Social Impact-Orientierung im deutschsprachigen Raum. Diese Arbeit konzentriert sich auf die Frage, wie sich Social Impact-Orientierung auf Instrumente der Unternehmenssteuerung auswirkt. Dazu wird ein Theorieüberblick über gesellschaftliche Wirkungsanalyse erarbeitet und ausgewählte Instrumente der Unternehmenssteuerung vorgestellt. Daraufhin werden fünf Hypothesen gebildet, die in einer Einzelfallstudie anhand eines jungen Sozialunternehmens in Österreich überprüft werden. In diesem Praxisteil ist ein Vergleich hinsichtlich der Impact-Orientierung im untersuchten Sozialunternehmen zu jener, die in der Literatur dargestellt wird, zentral. Weiters wird die Frage untersucht, wie die in der Literatur angegebenen Managementinstrumente für Wirkungsorientierung in diesem Unternehmen angewendet werden und zu welchen Ergebnissen diese führen. Schließlich wird erforscht, ob Wirkungsziele und passende Managementinstrumente einen Beitrag zur Lösung des angenommenen Zielkonfliktes zwischen gesellschaftlichen und ökonomischen Zielen beitragen können. Die Ergebnisse und Erkenntnisse der Einzelfallstudie werden abschließend im Gespräch mit einer übergeordneten Einrichtung einer ersten Verifikation unterzogen. Diese Arbeit kommt zum Schluss, dass Impact-Orientierung eine sehr langfristige Ausrichtung der Unternehmenssteuerung bedarf. Die Impact-Ziele und Indikatoren müssen sich in den gewählten Instrumenten wiederfinden. Nur dadurch ist sichergestellt, dass Unternehmenssteuerung und Impact-Orientierung stringent zusammenwirken. Bei aller Unsicherheit zum WIE der Umsetzung, hat die Impact-Orientierung zentrale Auswirkungen auf die Unternehmenssteuerung.
Auswirkungen der DSGVO auf das Vertriebscontrolling eines Software-as-a-Service Geschäftsmodells
(2020)
Diese Arbeit untersucht die Auswirkungen eines SaaS Geschäftsmodells auf das Vertriebscontrolling. Dazu werden mittels Literatur die Kennzahlen und Instrumente des klassischen Vertriebscontrollings besprochen. Ein SaaS Geschäftsmodell hat spezifische Charakteristika, Herausforderungen und Erfolgsfaktoren, welche im Anschluss eingeführt werden. Diese beeinflussen das Vertriebscontrolling eines SaaS Geschäftsmodells. Die DSGVO schränkt das Vertriebscontrolling dabei, in der Nutzung von personenbezogenen Daten, ein. Diese Arbeit zeigt, dass die Grundelemente des Vertriebscontrollings bestehen bleiben, jedoch andere Kennzahlen verwendet werden müssen. Zusätzlich kommen neue Aufgaben auf das Vertriebscontrolling zu. Abschließend werden Handlungsempfehlungen für das Vertriebscontrolling eines SaaS Geschäftsmodells entwickelt. Mittels einer systematischen Literaturrecherche werden diese Handlungsempfehlungen bestätigt.
Die morphologische Beurteilung menschlicher Embryos ist ein zeitaufwändiger Prozess in der assistierten Reproduktionsmedizin. Etwa fünf Tage entwickeln sich die Embryos bei einer IVF-Behandlung außerhalb des menschlichen Körpers, bevor Embryologinnen und Embryologen die Entscheidung über die zu transferierenden – also die für die Einleitung einer künstlich herbeigeführten Schwangerschaft zu verwendenden – Embryos anhand unterschiedlicher Bewertungskriterien treffen. Im Anschluss an eine Einführung in die Embryologie werden in dieser Arbeit mögliche Methoden zur automatisierten Embryoselektion besprochen, implementiert, miteinander verknüpft und abschließend evaluiert. Die Arbeit beschränkt sich mit dem EmbryoScope auf einen Zeitrafferinkubator, welcher in den IVF Zentren Prof. Zech in Bregenz in den letzten Jahren viele Millionen Bilder tausender befruchteter Eizellen und den daraus entstehenden Embryos aufgenommen hat. Dieses Gerät diente als Datenquelle zur Unterstützung bei der Entwicklung des Analysetools. Das entstandene Softwareprodukt wurde so programmiert, dass gegebenen Daten vorverarbeitet und unter Anwendung von Bildmanipulationsverfahren und komplexer neuronaler Netze analysiert werden können. Das Ergebnis ist eine Software zur Erkennung und Bewertung unterschiedlicher Parameter der Embryoentwicklung, um daraus Vorschläge für die Selektion der zu transferierenden Embryos generieren und übersichtlich präsentieren zu können.
Zur Evaluierung des Systems konnten drei Embryologinnen und Embryologen aus drei IVF Kliniken unterschiedlicher europäischer Länder gewonnen werden, um anhand einer eigens entwickelten Annotationssoftware Vergleichsdaten zu generieren. Als Endergebnis der Arbeit wurde die Einheitlichkeit dieser erhaltenen Annotationsdaten mit den errechneten Vorschläge anhand unterschiedlicher Kriterien berechnet. Die Transferierbarkeit eines einzelnen Embryos konnte im Vergleich zur Entscheidung des Laborpersonals in 73 % der Fälle korrekt erkannt werden. Bezogen auf eine gesamte IVF Behandlung konnte bei den tatsächlich zu transferierenden Embryos eine vollumfängliche Einheitlichkeit von 26 % mit den Embryologinnen und Embryologen erreicht werden. Embryos, welche von dem entstandenen Analysetool als transferierbar erkannt und unter Beachtung weiterer vorhandener Embryos für die weitere Behandlung vorgeschlagen wurden, sind in 63 % der Fälle für einen Transfer geeignet.
Das entstandene Vorschlagsystem ist als Proof of Concept zu verstehen, welches in späteren Arbeiten durch tiefgreifendere Analysen erweitert werden kann. Ein Einsatz des Systems ist aufgrund der geringen Analysesicherheit, sowie technischen und rechtlichen Einschränkungen zum Abschluss der vorliegenden Arbeit nicht vorgesehen.
Autonome Steuerung für das Demand Side Management von Wärmepumpenboilern mit linearer Optimierung
(2020)
Wärmepumpen, im Speziellen Wärmepumpenboiler, stellen mit ihrer thermischen Speicherkapazität eine gute Möglichkeit für autonome verbraucherseitige Laststeuerung (Autonomes Demand Side Management ADSM) dar. Zudem gewinnt diese Art der Brauchwarmwassererzeugung durch ihren dezentralen Ansatz und das Auskommen ohne fossile Energieträger im privaten Wohnbau immer mehr an Bedeutung. In Kombination mit staatlichen Fördergeldern ist die Anzahl verkaufter Einheiten in den letzten 5 Jahren am deutschen Markt um circa 25 % gestiegen. Obwohl das Lastverschiebungspotenzial von Wärmepumpenboilern unter Anwendung von Optimierungsalgorithmen in der Literatur theoretisch nachgewiesen ist, fehlen Verifikationen unter realen Bedingungen. Diese Arbeit will einerseits das theoretische Potential aufzeigen und andererseits mit dem vorgestellten Laborversuch einen Beitrag dazu liefern, die Verifikationslücke zu schließen. Für die Untersuchung im Labor wird ein handelsüblicher Wärmepumpenboiler bestehend aus einer Luft-Wärmepumpe und einem 300 Liter Warmwasserspeicher mit Sensoren und Aktoren ausgestattet. Insgesamt vier Temperatursensoren befinden sich am Speicherzulauf und -ablauf, sowie nahe der Speichermitte. Für die Aufzeichnung des Volumenstroms wird ein magnetisch-induktiver Messsensor am Speichereingang installiert. Zusätzlich wird mithilfe eines Proportionalventils am Speicherausgang das gewünschte Zapfprofil realisiert. Die Datenakquisition wird durch einen Datenlogger durchgeführt und die Optimierungsroutine auf dem PC implementiert. Die autonome Steuerung basiert auf einer von Day-Ahead-Marktpreisen der Energy Exchange Austria (EXAA) getriebenen linearen Optimierung mit dem Ziel, die Kosten der elektrischen Energie zu minimieren. Das Warmwasserverbrauchsprofil bildet den Verbrauch eines 4- Personen-Haushalts ab. Alle Mess- und Simulationsreihen basieren auf den gleichen Day-Ahead Preisfunktionen und Nutzerprofilen. Zur Verifikation des Lastverschiebungspotentials werden die Kosten pro MWh elektrischer Energie und die Kosten pro MWh thermischer Nutzenergie im Hysteresebetrieb (Normalbetrieb) denen des optimierten Betriebs gegenübergestellt. Durch eine Jahressimulation konnte das theoretische Potential nachgewiesen werden. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von rund 18 %. Die Kosten pro MWh thermischer Nutzenergie konnten durch die Optimierung um rund 19 % gesenkt werden. Die thermische Effizienz konnte somit um rund 1 % gesteigert werden. Der Wärmepumpenboiler wurde insgesamt zwei Wochen betrieben; eine Messreihe davon fand dabei im Normalbetrieb statt. In einer weiteren Messreihe wurde die Wärmepumpe mit der Optimierungsroutine betrieben. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von circa 23 %. Ebenso konnten die Kosten pro MWh thermischer Nutzenergie um 19 % gesenkt werden. Gleichzeitig sank die thermische Effizienz um 6 %.
Betriebliche Inklusion
(2020)
Rund 15% der österreichischen Bevölkerung haben eine dauerhafte Behinderung. In Vorarlberg allein leben ca. 5.000 Personen, welche nach dem Behinderteneinstellungsgesetz dem Kreis der begünstigt Behinderten angehörig sind, aber nur 51% dieser sind auch erwerbstätig, so der Stand 2018. Gleichzeitig gab es im Jahr 2018 in Vorarlberg 3.773 zu besetzende Pflichtstellen für begünstigt Behinderte Arbeitnehmende. Tatsächlich besetzt waren von diesen aber nur 52,64%. Es stellt sich somit die Frage, warum fast die Hälfte der zu besetzenden Pflichtstellen nicht besetzt ist, zumal das „Recht auf Arbeit“ als Menschenrecht in der UN-Menschenrechtskonvention verankert ist. Denn die Teilhabe am gesellschaftlichen und beruflichen Leben ist ein wichtiger Punkt für das Selbstwertgefühl eines jeden Menschen. Ziel dieser Masterarbeit ist daher aufzudecken, wie die betriebliche Inklusion in mittelständischen und großen Industrieunternehmen, sowie dem öffentlichen Sektor in Vorarlberg gehandhabt wird und welche Einflussfaktoren auf die Handhabung einwirken. Näher betrachtet werden diesbezüglich die Unterschiede in der Handhabung zwischen den privaten und den öffentlichen Einrichtungen sowie die internen und externen Faktoren, welche die Handhabung beeinflussen. Darüber hinaus soll in Erfahrung gebracht werden, welche Maßnahmen die Vorarlberger Unternehmen bereits ergreifen und wo Verbesserungsbedarf besteht. Um die Forschungsfrage zu beantworten wird im Anschluss an die Literaturrecherche ein Methodenmix aus qualitativen Experteninterviews und einer quantitativen Onlineumfrage eingesetzt. Die Ergebnisse aus den zwei Untersuchungen werden im weiteren Verlauf ausgewertet, kritisch reflektiert und in einem Fazit zusammengefasst. Betrachtet man die Forschungsfrage und die Ergebnisse der Untersuchung, so lässt sich zusammenfassen, das Vorarlberg bereits auf einem guten Stand der betrieblichen Inklusion ist. Die Entwicklung der letzten Jahre zeigt einen Paradigmenwandel, durch welchen sich das Bild vom „Armen Behinderten“ hin zur Selbstbestimmung und Chancengleichheit wandelt. Dieser ist noch nicht vollständig abgeschlossen, weswegen weiter in die Sensibilisierung und Aufklärung der Gesellschaft investiert werden muss, um Vorurteile und Unsicherheiten in Bezug auf Rechte und Pflichten abzubauen. Als externe Faktoren werden der rechtliche Rahmen, die Digitalisierung, sowie die Sichtbarkeit betrieblicher Inklusion und der Diversität von Behinderungen in der Gesellschaft genannt. Einfluss auf die Handhabung hat zudem die Vielfalt an Arten von Beeinträchtigungen, da die zu ergreifenden Maßnahmen auf diese abgestimmt werden müssen. Interne Faktoren stellen die Barrierefreiheit, sowie die persönlichen Haltungen und die Beweggründe der Unternehmer und ihren Mitarbeitenden dar. Abschließend lässt sich feststellen, dass betriebliche Inklusion dann gelingen kann, wenn jede Person unabhängig davon, ob sie eine Beeinträchtigung hat, oder nicht, als Individuum mit individuellen Stärken, Schwächen, Charakterzügen und Eigenschaften verstanden wird. Aufbauend auf diesem Menschenbild gilt es für jede Person auf Grund ihrer individuellen Eigenschaften die passende berufliche Tätigkeit zu finden.
Die vorliegende Arbeit setzt sich mit der Beziehungsgestaltung im Kontext Klinischer Sozialer Arbeit auseinander. Der Fokus liegt dabei auf den Aspekten Nähe Und Distanz, Verletzlichkeit und Macht. Theoretische Grundlage ist ein psychodynamisch-sozialtherapeutischer Zugang. Als Grundlage für die durchgeführte Forschung dient das Tiefeninterview, dessen Ergebnisse anhand der Grounded Theory ausgewertet und interpretiert wurden. Als Resultat zeigt sich die Auswirkung der genannten Aspekte auf die Gestaltung der Helfenden Beziehung und die Wirksamkeit sozialarbeiterischer Intervention. Zudem hat sich das Setting als eine wesentliche Bedingung für die Beziehungsgestaltung herauskristallisiert. Bestätigt haben sich schließlich auch die aufgrund der theoretischen Bearbeitung aus psychoanalytischer/psychodynamischer Perspektive vermuteten Einflüsse von Übertragung und Gegenübertragung, die im Tiefeninterview deutlich zutage getreten sind.
Bilder als Affektgeneratoren
(2020)
Shaolin Wu Fo Dao – die Synthese japanischer und chinesischer Kampfkunst-Lehre auf der Grundlage zen-buddhistischer Theorie und Praxis ist eine neu geschaffene Disziplin. In dieser Fusion verbinden sich wesentliche Elemente aus Budo und Shaolin (-Wudao), deren traditionellen Körper-Geist-Übungen von Kampftechnik (Bu/Wu) und Meditation (Zen/Chan) als originäre Weg- und Heilslehre (Do/Dao) seit jeher der Persönlichkeits- und spirituellen Entwicklung des Ausübenden dienten.
Hier nun, in der Überwindung alter Grenzen zwischen japanischer und chinesischer Kampfkunstsysteme („hart“ und „weich“), wurde hier nun erstmaligen ein zusammengewachsenes Kampfkunstsystem kreiert, um die beidseits positiven Wirkungen auf den Menschen zu bündeln und – und das ist das Besondere – sie in den Dienst buddhistischer (Butsu, jap.: Buddha / chin. Fo) Psychologie und Psychotherapie zu stellen.
Die Verbindung von Budo mit Shaolin als eigenständiges praktisches Lehrkonzept, allein schon eine „revolutionäre Innovation“, erfährt durch ihren Einsatz als spezielle Methode einer Heilkunst zusätzlich Pioniercharakter in der Behandlung von Leid. Gemeint sind sowohl Ansätze aus der Budopädagogik und speziellen Budotherapie zur Heilung, Linderung oder Prävention von physischen, psychosomatischen und psychischen Krisen, Störungen, Krankheiten, Behinderungen und Leiden, als auch im Sinne des philosophischen und wissenschaftlichen Buddhismus, „das Leid in der Welt zu mindern“, zum Wohle des Menschen, für sein Glück und Frieden zu arbeiten.
Budo als Oberbegriff für die traditionellen Kampfkünste, eigentlich namentlich Japans, aber hier im weiteren Sinne alle Kampf- und Bewegungskünste Asiens, die sich als Weg und nicht Sport begreifen, ist in den letzten Jahren vermehrt Gegenstand der öffentlichen Diskussion. Jüngere Veröffentlichungen zum Thema nehmen das historisch, philosophisch, psychologisch und pädagogisch Besondere und sich vom modernen Kampfsport gänzlich Unterscheidende in den Blick, ohne dass allerdings weiterhin begrifflich und inhaltlich falsche Vorstellungen durch die absurde Vereinnahmung der allein dem Budo zugeschrieben Wesenszüge und Wirkweisen in sog. "Budo-Sport"-Verbänden immer mehr verbreiten. Gerade so, als könne man dem modernen Kampfsport durch den Zusatz "Budo" (der suggerieren soll, man beziehe sich auf dessen Wesentliche, "Geistige") etwa einen ehrwürdig-traditionellen Charakter verleihen und den Wettkampfsport bereichern, gar ethisch aufwerten.
Insofern bedarf es immer noch oder immer mehr der Aufklärung darüber, was denn das eigentliche Wesen und Wirken von Budo überhaupt ausmacht, um dem Ganzen gerecht zu werden. Dabei soll sich dieses Buch nun weniger auf die historische, seit der Edo-Periode (1600-1868) vor allem vom Zen-Buddhismus (neben Konfuzianismus und Taoismus sowie Shaolin) geprägte Entwicklung von Budo aus den alten Kriegskünsten (Bugei und Bujutsu) eingehen, als auf das nunmehr auch heute noch Wesentliche und "Spezielle".
Budo als spirituelle wie praktisch-philosophische Weg-Lehre und dadurch Kampf-"Kunst" kann, recht verstanden, ein einzigartiger Schatz in der Theorie und Praxis des Studiums von "Kampf" und "Kämpfen-Können" sowie des Selbst sein, und am Ende auch des eigenen Lebens. Budo wirkt!
Es ist ein auf Bewegung, Begegnung und Besinnung angelegtes bewährtes ganzheitliches Instrument der Selbsterziehung, Charakterschulung und Persönlichkeitsentwicklung und als originärer Weg ("Do") zum "Friedvollen Krieger" eine konkrete Anleitung zu körperlicher, seelischer, geistiger, d.h. psycho-physischer wie psycho-emotionaler Selbstbeherrschung, die auf der Grundlage von stetig geübter Achtsamkeit und Wertschätzung in der Meisterschaft zu Einsicht und Gewaltverzicht führt. In diesem Buch wird das Thema Budo, sein Wesen und Wirken, aus Erfahrung und wissenschaftlicher Erkenntnis heraus analysiert, um ein ebenso weitergehendes wie tieferes Verständnis von der Sache zu fördern.
Die Autoren (Vorstellung im entsprechenden Kapitel hinten), allesamt!
Business Analytics zählt zu den Zukunftsthemen im Controlling. In der Controllinglehre spielt Analytics bisher aber nur eine untergeordnete Rolle. Der Beitrag beschreibt ein innovatives Lehrprojekt, das Studierende im Masterstudium Accounting, Controlling & Finance an der FH Vorarlberg befähigt, controllingrelevante Fragestellungen im Kontext von Business Analytics eigenständig zu beantworten. Gleichzeitig erlernen die Studierenden den Umgang mit der Open-Source-Software R.
Die Digitalisierung verändert Geschäftsmodelle und betriebliche Prozesse. Zugleich beeinflussen auch eine verbesserte Datenverfügbarkeit und leistungsfähige analytische Methoden das Controlling und erfordern vermehrt das Einbringen statistischer und informationstechnologischer Fertigkeiten und Kenntnisse. An einem Fallbeispiel aus dem Marketing-Controlling zeigt der Beitrag den Einsatz von Methoden der Business Analytics und thematisiert die Aufgaben des Controllings im digitalen Zeitalter.
In recent years, much research has been done on medical laser applications inside the human body, as they are minimally invasive and therefore have fewer side effects and are less expensive than conventional therapies. In order to bring the laser light into the human body, a glass fibre with a diffuser is needed. The goal of this master thesis is the characterization and production of fibre optic diffusers that can be used for the three therapeutic applications: photodynamic therapy, laser-induced thermotherapy and endovenous laser therapy. For this purpose the following goals have to be achieved:
- Optimization of the efficiency and homogeneity of internally structured diffusers
- Examine damage thresholds of the diffusers in the tissue using a crash test
- Achieving a better understanding of the decouple mechanism with a simulation
Using an ultra-short pulse laser, modifications could be introduced into the fibre in this way that the radiation profile is homogeneous and the decoupling efficiency is 68.3 %. It was discovered that the radiation profile depends on the wavelength. Attempts have been made to improve the decoupling efficiency by mirroring the distal end of the fibre. The mirror reflects the remaining light back into the fibre, so that it is also decoupled lateral on the modifications. Vapor-deposited aluminum with physical vapor deposition is a promising approach. However, the adhesion of the coating must be improved or the coating must be protected by a mechanical cover, otherwise it will flake off too quickly.
In a crash test, it was shown that the glass fibre diffusers can withstand 20 W laser power for 300 s without visible change. In an ex vivo test, the coagulation zone in the tissue was examined and it was showed that the diffusers radiate radially homogeneously. Using a ray trace simulation, the course of the light rays in the fibre was examined and the correlation of modification width and length with the decoupling efficiency was investigated. It was discovered that there are helical light rays in the fibre, which cannot be decoupled by modifications in the fibre centre.
Die Checkliste „Pflegedokumentation“ basiert auf einer Literaturrecherche. Verschiedene Artikel bildeten die Grundlage für die Kriterien der Checkliste „Defäkation in der Pflegedokumentation“. Anhand dieser Checkliste wird untersucht, ob die genannten Items in der Pflegedokumentation enthalten sind und wenn ja, ob diese dann auch tatsächlich ausgefüllt und welche begründeten Rückschlüsse daraus gezogen werden und wie die Umsetzung überprüft wird und Maßnahmen ggfs angepasst werden. Z.B. Möglichkeiten der Erprobung bestimmter Interventionen gut dokumentieren.
Die Checkliste „Sanitäre Einrichtung“ (Toilette, Badezimmer) basiert auf einer aktuellen Literaturstudie. Anhand verschiedener Fachtermen wurden in unterschiedlichen Datenbanken nach relevanten Artikeln gesucht, diese in Bezug auf die Fragestellung „Kriterien, die eine sanitäre Einrichtung (Toilette / Badezimmer) für Menschen in einer stationären Altenpflegeeinrichtung erfüllen muss“ analysiert und die entsprechenden geforderten Kriterien in die Checkliste aufgenommen.
Gas hydrates are usually synthesized by bringing together a pressurized gas and liquid or solid water. In both cases, the transport of gas or water to the hydrate growth site is hindered once an initial film of hydrate has grown at the water–gas interface. A seemingly forgotten gas-phase technique overcomes this problem by slowly depositing water vapor on a cold surface in the presence of the pressurized guest gas. Despite being used for the synthesis of low-formation-pressure hydrates, it has not yet been tested for hydrates of CO 2 and CH 4 . Moreover, the potential of the technique for the study of hydrate decomposition has not been recognized yet. We employ two advanced implementations of the condensation technique to form hydrates of CO 2 and CH 4 and demonstrate the applicability of the process for the study of hydrate decomposition and the phenomenon of self-preservation. Our results show that CO 2 and CH 4 hydrate samples deposited on graphite at 261–265 K are almost pure hydrates with an ice fraction of less than 8%. Rapid depressurization experiments with thin deposits (approx. 330 mm thickness) of CO 2 hydrate on an aluminum surface at 265 K yield identical dissociation curves when the deposition is done at identical pressure. However, hydrates deposited at 1 MPa almost completely withstand decomposition after rapid depressurization to 0.1 MPa, while samples deposited at 2 MPa decompose 7 times faster. Therefore, this synthesis technique is not only applicable for the study of hydrate decomposition but can also be used for the controlled deposition of a super-preserved hydrate.
Complementarities and synergies of quadruple helix innovation design in smart city development
(2020)
Increased urbanization trends are stimulating regional needs to support transitions from urban environments to smart cities, using its holistic perspective as a source to innovation. Strong relations between smart cities, urban and regional development, are getting increased attention both at policy and implementation level, providing fertile ground for execution of the new European policy frameworks that supports quadruple helix approaches to innovation. Smart specialization strategies (RIS3) encompass such initiatives, placing ICT and collaboration between academia, industry, government, and citizen at the center of urban innovation. However, there is still lack of research on effects of such approaches to innovation, involving both quadruple helix clusters and ICT in utilizing innovation potentials for developing smart cities. This study aims to increase the understanding on how quadruple helix urban innovation strengthens competitiveness of regions by improving its local smart areas – RIS3. We identified smart specialization patterns and applied comparative benchmark between nine smallmedium sized urban regions in Central Europe. Building on these results, the study provides an overview of the effects of RIS3 strategies implemented through quadruple helix innovation clusters on competitiveness of regions and Smart City development.
This master thesis investigates a Computational Intelligence-based method for solving PDEs. The proposed strategy formulates the residual of a PDE as a fitness function. The solution is approximated by a finite sum of Gauss kernels. An appropriate optimisation technique, in this case JADE, is deployed that searches for the best fitting parameters for these kernels. This field is fairly young, a comprehensive literature research reveals several past papers that investigate similar techniques.
To evaluate the performance of the solver, a comprehensive testbed is defined. It consists of 11 different Poisson equations. The solving time, the memory consumption and the approximation quality are compared to the state of the art open-source Finite Element solver NGSolve. The first experiment tests a serial JADE. The results are not as good as comparable work in the literature. Further, a strange behaviour is observed, where the fitness and the quality do not match. The second experiment implements a parallel JADE, which allows to make use of parallel hardware. This significantly speeds up the solving time. The third experiment implements a parallel JADE with adaptive kernels. It starts with one kernel and introduce more kernels along the solving process. A significant improvement is observed on one PDE, that is purposely built to be solvable. On all other testbed PDEs the quality-difference is not conclusive. The last experiment investigates the discrepancy between the fitness and the quality. Therefore, a new kernel is defined. This kernel inherits all features of the Gauss kernel and extends it with a sine function. As a result, the observed inconsistency between fitness and quality is mitigated.
The thesis closes with a proposal for further investigations. The concepts here should be reconsidered by using better performing optimisation algorithms from the literature, like CMA-ES. Beyond that, an adaptive scheme for the collocation points could be tested. Finally, the fitness function should be further examined.
Many test drives are carried out in the automotive environment. During these test drives many signals are recorded. The task of the test engineers is to find certain patterns (e.g. an emergency stop) in these long time series. Finding these interesting patterns is currently done with rule based processing. This procedure is very time consuming and requires a test engineer with expertise. In this thesis it is examined if the emerging field of machine learning can be used to support the engineers in this task. Active Learning, a subarea of machine learning, is used to train a classifier during the labeling process. Thereby it proposes similar windows to the already labeled ones. This saves the annotator time for searching or formulating rules for the problem. A data generator is worked out to replace the missing labeled data for tests. The custom performance measure “proportion of seen samples” is developed to make the success measurable. A modular software architecture is designed. With that, several combinations of Time Series Classification algorithms and query strategies are compared on artificial data. The results are verified on real datasets, which are open source available. The best performing, but computational intensive solution is an adapted RandOm Convolutional KErnel Transform (ROCKET). The custom query strategy “certainty sampling” shows the best results for highly imbalanced datasets.
Cultural Due Diligence
(2020)
Much research has been conducted in recent years to discover the reasons for the high failure rate of M&As, whereas one frequently cited reason is the incompatibility of the corporate cultures. In order to minimize this risk and to be able to react to these differences already at an early stage, Cultural Due Diligence offers itself as part of the due diligence process. Unlike existing, more general research, I emphasize the cultural challenges companies face when investing transnationally with this thesis. Using the results of a single case study with inductive character, I answer the question how to conduct Cultural Due Diligence in cross-border M&As and propose an appropriate model. The findings reveal that especially in cross-border M&As, cultural incompatibility poses a risk for failure. I was able to find out that companies that seek to grow internationally with M&As deal with similar issues in terms of corporate culture as pointed out in existing Cultural Due Diligence methods. The present study, however, shows that national culture has a great influence on corporate culture, which is why it is essential to include it in the cultural assessment in cross-border acquisitions. This provides information about why there are differences, besides the fact that they exist. Only this understanding puts a company in the appropriate starting position to recognize differences, understand them, assess whether these differ-ences are acceptable, as well as to develop appropriate strategies to address them in the integration phase.
Daten werden heute oft auch als das «neue Gold» bezeichnet. Denn die letzten Jahre haben gezeigt, dass Daten die Grundlage erstaunlicher unter- nehmerischer Erfolgsgeschichten sein können. Dabei ist die Arbeit mit Daten nicht grundlegend neu. Vielmehr geht es heute im Vergleich zu früher um nahezu unendlich grossen Mengen an Daten, die im Rahmen nahezu aller denkbaren Prozesse oder Schnittstellen gesammelt, gespeichert und ausgewertet werden können. Unter anderem beinhaltet dies Maschinendaten, unternehmens- interne Prozesse oder Daten über Kunden und den Markt, welche die Grundlage für lernende Systeme (Künstliche Intelligenz) bilden. Wir können heute davon ausgehen, dass künftig nicht mehr die technische Machbarkeit, sondern die mensch- liche Vorstellungskraft die Grenzen des Möglichen definiert.
Bekannt sind vor allem etliche Erfolgsgeschichten von Grossunternehmen, die ihr Geschäft auf Daten aufbauen. Etablierte KMU sind hingegen noch zögerlicher, mit Daten zu arbeiten und diese wertschöpfend einzusetzen. Diese Broschüre geht auf die besondere Situation von KMU im Umgang mit Daten und Data Science ein. Denn auch für KMU kann es lohnend oder sogar zwingend notwendig sein, sich mit dem Thema «Data Science» zu beschäftigen. Daten und Data Science bieten grosse
Chancen, sie können aber auch zu einer Bedrohung im Wettbewerb werden. Und, zu lange warten sollten KMU nicht, die Zeit drängt. Denn Geschwindigkeit ist einer der zentralen Wettbewerbsfaktoren im digitalen Zeitalter. Das IBH-Lab KMUdigital unter- stützt KMU dabei, den herausfordernden Weg in eine digitale Zukunft schneller und einfacher zu gehen.
Diese Broschüre geht daher insbesondere auf die Rolle von Daten und Data Science für KMU in der Bodenseeregion ein. Sie stellt eine Zusammen- fassung ausgewählter Erkenntnisse und Handlungs- empfehlungen dar, die wir in einem zweijährigen Forschungsprojekt gemeinsam mit 16 Unternehmen aus der Bodenseeregion gewinnen konnten. Die Erkenntnisse sollen KMU bei der Nutzung von Daten anhand von Data Science unterstützen. Dabei ist es kein Ziel, dass KMU zu einem «kleinen Google» werden. Vielmehr braucht es KMU- spezifische Lösungen und Überlegungen, wie mit Daten sinnvoll, zielorientiert und ressourcen- schonend umgegangen werden kann. Wie kann das aussehen? Welche Chancen, Herausforderungen und Lösungen bieten sich KMU vor dem Hinter- grund ihrer besonderen Situation? Was muss dazu im Unternehmen verändert werden? Welche Unterschiede bestehen im Vergleich zu Gross- unternehmen auf diesem Weg?
Diese und weitere Fragen stehen im Mittelpunkt des vorliegenden Projektberichts zum Einzelprojekt «Data Science für KMU leicht gemacht» oder kurz «Data Science 4 KMU» bzw. «Data4KMU», welches unter dem Dach des IBH-Labs KMUdigital in den Jahren 2018 bis 2019 durchgeführt wurde. Dazu werden Daten und Data Science aus mehreren Perspektiven betrachtet, die nicht unabhängig voneinander sind: Strategie und Geschäftsmodell, Services und Prozesse, Leadership, HRM und
Organisation, Organisationskultur und Ganzheitichkeit, sowie Technologie. Diese Perspektiven greifen wir in den nachfolgenden Kapiteln auf.
Die vorliegende Broschüre wäre ohne die wertvolle Unterstützung der Praxispartner des Projektes, des Managements des IBH-Labs KMUdigital sowie ohne die finanzielle Projektförderung durch die Inter- nationale Bodenseehochschule (IBH) und Interreg nicht möglich gewesen. Ihnen allen gilt unser ganz besonderer Dank!
Die Finanz- und Wirtschaftskrise 2008/09 ist Anlass für die Hinterfragung bestehender Anreizsysteme. Die vorliegende Arbeit untersucht die Beteiligung des Controllings bei der Anreizgestaltung ab diesem Zeitpunkt. Die Methodik ist eine systematische Literaturrecherche und Experteninterviews, die entlang der Gestaltungselemente des Anreizsystems ausgewertet werden. Seit dem Betrachtungszeitraum sind wesentliche Entwicklungen festzustellen von Individual- zu Gruppen-Incentivierung, vom Einsatz monetärer Anreize zu gemischten Anreizen (monetär und immateriell). Letzteres spiegelt sich in den Bemessungsgrundlagen wider, welche finanzielle und nicht-finanzielle Kennzahlen nutzen. Zur Generierung einer nachhaltigen Unternehmensentwicklung werden Long-Term-Incentives forciert. Das Controlling ist bei der Anreizgestaltung, beim Definieren von ‚Bemessungsgrundlagen‘ und ‚Anreizfunktionen‘, stark eingebunden. Die Aufgabenfelder des Controllings sind weit-gefächert: Reporting, Übersetzung von Geschäftszielen in Bemessungsgrundlagen, Wissensvermittlung, der Harmonisierung von Zielen bis zur Steuerungsfunktion bei Entscheidungen. Aus dieser Perspektive betrachtet übernimmt das Controlling zusätzliche Verantwortung und unterstützt das Management bei der Anreizgestaltung, was den Schluss nahelegt, dass eine Rollentransformation des Controllers zum Business Partner stattfindet.
Design and optimization of 1x2N Y-branch optical splitters for telecommunication applications
(2020)
This paper presents the design and optimization of 1x2N Y-branch optical splitters for telecom applications. A waveguide channel profile, used in the splitter design, is based on a standard silica-on-silicon material platform. Except for the lengths of the used Y-branches, design parameters such as port pitch between the waveguides and simulation parameters for all splitters were considered fixed. For every Y-branch splitter, insertion loss, non-uniformity, and background crosstalk are calculated. According to the minimum insertion loss and minimum non-uniformity, the optimum length for each Y-branch is determined. Finally, the individual Y-branches are cascade joined to design various Y-branch optical splitters, from 1x2 to 1x64.
This is Intellectual Output 2 (IO2) of the project “Developing a culturally competent and compassionate LGBT+ curriculum in health and social care education“ IENE9. The aim of the project is to enable teacher/trainers of theory and practice to enhance their skills regarding LGBT+ issues and develop teaching tools to support the inclusion of LGBT+ issues within health and social care curricula. The newly culturally competent and compassionate LGBT+ curriculum will be delivered through a MOOC which is aimed at health and social care teachers/trainers, workers, professionals, and learners across Europe and worldwide. The IO2 of this project, Internet Mapping and Systematic documentation of educational policies and guidelines as well as legislation at European and national level for LGBT+ inclusive education, aims to create an easy to navigate resource with information about European and national legislation/guidance/policies. Visit www.iene-lgbt.com for more information.
Die Realität ist keinesfalls einfach da. Sie wird vielmehr von den Beteiligten erst kommunikativ erzeugt. Einzeln und gemeinsam werden Beobachtungen und damit erzielte Ergebnisse, gedankliche Vorstellungen, argumentative Begründungen sowie grundlegende Annahmen und damit zusammenhängende Deutungen schriftlich und/oder mündlich kommuniziert und miteinander ausgetauscht.
Die Gewalt der Anderen
(2020)
In der Beratungstätigkeit als Sozialarbeiterin im Bereich der Opferhilfe sind Vergewaltigungsmythen sowie deren Verbreitung und Auswirkungen Teil der alltäglichen Praxis. Diese Masterarbeit zeigt auf wie problematisch deren Existenz in Bezug auf die Verarbeitung von Gewalterfahrung und den gesamtgesellschaftlichen Umgang mit sexualisierter Gewalt ist. Wie sich Vergewaltigungsmythen ausdrücken und inwiefern diese Teil des medialen Diskurses über sexualisierte Gewalt sind, wird anhand einer kritischen Diskursanalyse untersucht. Bereits die theoretische Auseinandersetzung zeigt auf, dass ein Teil der verbreiteten Vergewaltigungsmythen sich einem kulturrassistischen Stereotyp bedient, welcher gemäß unterschiedlichen wissenschaftlichen Untersuchungen maßgeblichen Einfluss auf die Strafverfolgung hat. Daher wird ein weiterer Fokus der Untersuchung auf die Verbreitung dieser Kulturalisierung der Gewalt gelegt. Als Ergebnis der theoretischen Auseinandersetzung und empirischen Untersuchung wird festgestellt, dass sich der Diskurs über sexualisierte Gewalt aus unterschiedlichen Diskurssträngen zusammensetzt, wobei die strafrechtliche und täter*innenorientierte Perspektive überwiegt und konstruktive Darstellungen und betroffene Personen wenig präsent sind. Dieser überlagernde Diskursstrang erschwert die Thematisierung von sexualisierter Gewalt als gesellschaftlichem Problem und schränkt den Begriff, aufgrund der juristischen Kategorisierung sexualisierter Gewalt in Delikte, in ihrer Repräsentation ein. Aus der Perspektive der Sozialen Arbeit benötigt der Diskurs mehr Fokus auf relevante Informationen für Betroffene, mehr Kontextinformationen sowie die Erfassung und Benennung von Gewalt als strukturellem, gesamtgesellschaftlichem Problem.
Die vier Tage Arbeitswoche
(2020)
Das Ziel der vorliegenden Masterarbeit war es, den Nutzen einer 4-Tage-Woche einerseits für Mitarbeiter, aber auch für Unternehmen herauszufinden. Dazu wurde als erstes herausgefunden, welche Auswirkungen die Arbeitszeit auf Mitarbeiter haben kann und inwiefern das immer wichtiger werdende Thema Work-Life-Balance davon betroffen ist.
Als nächster Schritt wurden Erfahrungsberichte von Unternehmen, sowie derer Mitarbeiter analysiert. Derzeit gibt es noch nicht viele Länder und Unternehmen, welche sich für eine 4-Tage-Woche einsetzen, weshalb diejenigen, die eine 4-Tage-Woche befürworten oder eingeführt haben, große mediale Aufmerksamkeit erhalten und regelmäßig interviewt werden.
Daraufhin wurden weitere Arbeitszeitmodelle analysiert, welche als Alternative für den Zweck einer besseren Work-Life-Balance und auch bessere Wettbewerbsfähigkeit für Unternehmen eingesetzt werden können.
Dann folgte die empirische Analyse, wobei Experteninterviews und auch eine quantitative Umfrage in Vorarlberg durchgeführt wurden. Dabei wurden einerseits Kenner der 4-Tage-Woche, aber auch Nicht-Kenner befragt und diese Umfrageergebnisse miteinander verglichen.
Als letzter Schritt wurde Kontakt mit einer bekannten Unternehmensberaterin aufgenommen, welche Spezialistin im Bereich Change-Management und Organisationsentwicklung ist. Somit wurde eine Handlungsempfehlung zur Implementierung einer 4-Tage-Woche ausgearbeitet.
Diese Masterarbeit ist sowohl für Entscheidungsträger im Personalbereich, als auch für all jene Dienstnehmer, welche ihre Work-Life-Balance für wichtig erachten.
In der betriebswirtschaftlichen Fachliteratur ist die erkenntnistheoretische Denkfigur des Beobachters bis auf wenige Ausnahmen weitgehend ausgeblendet. Das muss nicht sein. Beispielsweise kann aus einer Beobachterperspektive notiert werden: Unternehmen ereignen sich, indem Beobachter auf eine Art und Weise tätig werden, die sie als Organisation von Gütern und Dienstleistungen, als Deckung fremder Bedarfe und als Verzinsung des eingesetzten Kapitals verstehen, voneinander unterscheiden und wechselseitig aufeinander beziehen.
Diese Arbeit resultiert in einem Leitfaden, der zur verbesserten Wirksamkeit von Lernmaßnahmen in Organisationen beitragen soll. Inbesondere die Verkürzung der Halbwertszeit von Wissen gab Anlass zur vorliegenden Untersuchung. In den Kapiteln zwei und drei wurde das theoretische Fundament durch Bearbeitung der Themen Personal-/Kompetenzentwicklung, allgemeine und individuelle Lerntheorie, sowie Lernbedarfsanalyse, Lerntransfer und Lernevaluation gebildet. Darauf aufbauend wurde mit der Methodik (Kapitel 4) der Experteninterviews der aktuelle Stand definierter Organisationen im Raum Ostschweiz, Westösterreich und Liechtenstein hinsichtlich Lernbedarfsanalyse, Lerntransfer und Lernevaluation erhoben. Diese Ergebnisse wurden in Kapitel 5 mit der Literaturstudie aus Kapitel 2 und 3 verglichen. Der Leitfaden besteht für Lernbedarfsanalyse, Lerntransfer und Lernevaluation aus unterschiedlichen Schritten, die in Tabellenformat dargestellt und beschrieben sind (Kapitel 6). In Kapitel 7 wurden, neben einer Zusammenfassung und einem Fazit, weiterführende Forschungsansätze zur Thematik angeführt.
Digitalisation poses great challenges for regional tourism management. However, many organisations are currently undergoing a transformation from a marketing to a destination management organisation (DMO), which is why only a few have managed to adopt new digital approaches and to assert themselves as DMOs within the destination and against ever growing global platforms.
The presented master thesis therefore deals with this issue and aims to pave the way for DMOs to develop and use digital business models themselves.
The objective of the thesis is to develop a systematic process for the development of own DMO business models and to evaluate whether the establishment of a multi-sided platform as the recipe for the success of global platform providers is also suitable for DMOs. For this purpose, an extensive literature research was conducted and semi-structured expert interviews were evaluated. In addition, the Anchor Point Canvas was developed as a supporting framework for the modelling of business models for companies with historically grown structures and constraints.
Digitale Transformation ist heutzutage eine Pflichtaufgabe. Die Literatur zu dem Themengebiet bietet sehr viel Auswahl. Trotzdem fehlt es immer noch an einem gängigen Konzept, welches bei der digitalen Transformation unterstützten soll.
Dementsprechend beschäftigt sich die vorliegende Masterarbeit mit der Fragestellung, ob es sich beim Enterprise Architecture Management (EAM, auf Deu. Unternehmensarchitektur) um so ein gängiges Konzept handeln könnte.
Um dies zu beantworten und eine gewisse Übersicht in den Stand der aktuellen Forschung zu bringen, wurde eine Literaturrecherche durchgeführt. Diese beinhaltet neben den theoretischen Hintergründen zur digitalen Transformation und EAM auch noch ein Ausarbeiten der digitalen Anforderungen an das EAM.
Ein EA-Framework wird als Referenzmodell ausgewählt und anhand der neuen Anforderungen einer kritischen Betrachtung unterzogen. Die Arbeit soll zum einen Erkenntnisse darüber liefern ob es ich sich bei dem gewählten Framework um ein mögliches Werkzeug handelt, welches bei der digitalen Transformation einen Mehrwert liefert. Zum anderen soll sie zeigen ob mit EAM die Lücke zum fehlenden Konzept geschlossen werden kann.
ÖKOPROFIT ist ein Kooperationsprojekt zwischen den örtlichen Gemeindenund der lokalenWirtschaft.Die Teilnahme ist für die Betriebe freiwillig. Ziel ist die Betriebskostensenkung bei gleichzeitiger Schonung der Ressourcen. In Vorarlberg sind derzeit circa170 Betriebe zertifiziert. Im Rahmen der Rezertifizierung, die jedes Jahr stattfindet, wird von den Betrieben ein Umweltbericht erstellt. Die Berichte werden derzeit in Word verfasst, in eine Cloud geladen und dort von den Auditoren geprüft. Dies ist jedoch nicht mehr zeitgemäß. Im Rahmen des CESBA-AlpsInterreg Alpine Projektes (2016-2019) wurde ein Tool entwickelt, mit dem Ziel Nachhaltigkeit und Energieeffizienz im Alpenraum zu verbessern. In dieser Arbeit wird nun geprüft, inwiefern das bestehende CESBA-Alps-Tool in Wert gesetzt und somit in den Rezertifizierungsprozess von ÖKOPROFIT integriert werden kann. Das Tool wird zunächst so eingerichtet, dass die Betriebe mit ihren dazugehörigenIndikatoren sowie passende Indikatoren-Sets angelegt werden können. Für den Test werden historische Daten bis zum Jahr 2013von zwei Pilot-Clustern (Landeskrankenhäuser und Landesregierungsgebäude) mit unterschiedlichen Indikatoren-Sets eingepflegt. Es wird untersucht, inwiefern die Auswertungen und Exporte für den Rezertifizierungsprozess bereits tauglich sind. Jegliche Auffälligkeiten, Fehler oder Verbesserungsvorschläge werden gesammelt. Es wird klar, dass die Export-Dateien verschlankt und optimiert werden müssen, damit sie ohne Mehraufwand verwertet werdenkönnen. Die wichtigste Handlungsempfehlung ist die automatisierte Berichtlegungsfunktion. Es sollte ein Texteditor in das Tool eingearbeitet werden, in den Unternehmen einzelne Textbausteine einpflegen können, sodass mithilfe des Tools nicht nur das Kennzahlenkapitel des Umweltberichts, sondern alle Kapitel standardisiert erarbeitet werden können. Nur so kann sichergestellt werden, dass das Tool für die Betriebe eine Arbeitserleichterung und somit Zeitersparnis generiert. In einem weiteren Arbeitspaketwurden ähnliche Online-Tools anhand von im Vorhinein ausgewählten und priorisierten Kriterien, die ein optimales Tool erfüllen sollte, mithilfe einer gewichteten Entscheidungsmatrix semiquantitativ verglichen. Hierbei schnitt das in dieser Arbeit getestete Tool selbst ohne die Verbesserungen am besten ab. Es stellt sich heraus, dass es bereits die Hälfte der ausgewählten Kriterien in einer sehr guten Weise erfüllt. Die Kriterien wurden von der ÖKOPROFIT-Programmleitung definiert. Werden die Handlungsempfehlungen in der Zukunft noch umgesetzt, könnte mit dem Tool tatsächlich eine Verbesserung des derzeitigen ÖKOPROFIT-Rezertifizierungsprozesses erwirkt werden.
In dieser Arbeit wird eine Evaluation zwischen verschiedenen implementierten Ansätzen eines Empfehlungssystems auf der Basis eines realen Datensatzes durchgeführt. Der Datensatz beinhaltet das Navigationsverhalten von Besuchern einer Website über Kochrezepte. Während der Vorverarbeitung wird der Datensatz mit zusätzlichen Metainformationen für jedes besuchte Rezept aus dem Content Management System der Webseite angereichert. Die implementierten Empfehlungssysteme verwenden sowohl den Content Based Filtering als auch den Collaborative Filtering Ansatz. Zusätzlich werden beide Ansätze kombiniert und in einem hybriden Empfehlungssystem eingesetzt. Darüber hinaus werden für jede Person im Datensatz zwei individuelle Profile erstellt. Dabei handelt es sich um ein kurzlebiges Session-Profil und ein permanentes Langzeit-Profil. Mit jedem Besuch eines Rezeptes werden beide Profile dynamisch angepasst, so dass sich die individuellen Präferenzen der Personen jederzeit in den Profilen widerspiegeln. Für die Evaluation wird ein eigener Algorithmus angewendet, welcher es erlaubt einen Vergleich zwischen den implementierten Empfehlungssystemen vorzunehmen. Die Besonderheit an dem Evaluationsalgorithmus ist, dass dieser lediglich die besuchten Items und deren Beschreibung für den Vergleich benötigt. Es werden keine expliziten Bewertungen von den Webseitenbesuchern verwendet. In der Arbeit werden die Ergebnisse der unterschiedlichen Ansätze für ein Empfehlungssystem mit dem eigenen Evaluationsalgorithmus diskutiert und die Vor- bzw. Nachteile der jeweiligen Ansätze erläutert. Bei der Analyse stellt sich heraus, dass für den in dieser Arbeit verwendete Datensatz ein hybrides Empfehlungssystem, welches sowohl das Session-Profil als auch das Langzeit-Profil kombiniert, die besten Ergebnisse erzielt. Mit diesem System wird eine Übereinstimmungsgenauigkeit zwischen den vorgeschlagenen Rezepten und den tatsächlich besuchten Rezepten von knapp 36% erreicht. Die beiden Content Based Systeme, welche jeweils entweder das Session-Profil oder das Langzeit-Profil verwenden, erzielen eine Übereinstimmungsgenauigkeit von ca 30% bzw. 20%. Die Algorithmen mit dem Collaborative Filtering Ansatz erreichen bei dem verwendeten Datensatz nur eine Übereinstimmungsgenauigkeit von ca. 15% bzw. 13,5%. Als Referenzmodell wird ein Empfehlungssystem verwendet, das nach dem Zufallsprinzip Rezepte vorschlägt, wodurch eine Übereinstimmungsgenauigkeit von etwa 6% erreicht wird.
Real-time measurements of the differences in inhaled and exhaled, unlabeled and fully deuterated acetone concentration levels, at rest and during exercise, have been conducted using proton transfer reaction mass spectrometry. A novel approach to continuously differentiate between the inhaled and exhaled breath acetone concentration signals is used. This leads to unprecedented fine grained data of inhaled and exhaled concentrations. The experimental results obtained are compared with those predicted using a simple three compartment model that theoretically describes the influence of inhaled concentrations on exhaled breath concentrations for volatile organic compounds with high blood:air partition coefficients, and hence is appropriate for acetone. An agreement between the predicted and observed concentrations is obtained. Our results highlight that the influence of the upper airways cannot be neglected for volatiles with high blood:air partition coefficients, i.e. highly water soluble volatiles.
This master thesis investigates effective leadership behaviour of multicultural teams during change management. Multicultural teams can be highly effective in dealing with complex change processes and can represent a key player to tackle today’s VUCA-world challenges.
Effectiveness of multicultural teams during change depends critically on leadership with a range of specific behaviours. Involvement and support of the employees in a coaching role is key. Leaders need to display behaviours such as continuous development of cultural and emotional intelligence, critical self-reflection, open-mindedness, and readiness to serve as authentic role models. Furthermore, the creation of a sense of unity based on good communication and common sense is essential to build multicultural teams, and to enable them to embrace their differences as opportunity. Trust, transparency and a holistic change process are vital. Effectiveness essentially depends on the following factors: the organization’s culture, the characteristics of the employees and of their leader, and on the external environment. Leaders should take these factors into consideration at all times.
Throughout history, a variety of influences have changed the way we sell our products. Starting with the Industrial Revolution up to the first saturation phase in the 1970s. The question now arises as to whether the heating industry is currently back on an evolutionary development path with the increasing digitalisation of distribution. How the sales process in the B2B sector will change with increasing digitalisation and what effects this will have on sales personnel is only documented by a few sources which do not allow any conclusions to be drawn about the craft or even the heating industry. This results in a research gap which is to be closed in the context of this thesis. The aim of this research project is to find out the effects of a further digitalisation of the sales process on the sales force in the defined environment of the heating industry in Central Europe. For this purpose the following research questions are asked: Which steps in the sales process in the heating industry in Central Europe should be digitalised? How will the digitalisation of the sales process affect the sales force in the heating industry in Central Europe? A case study, according to Yin was chosen as the research method. The data were collected by means of in-depth interviews and analysed qualitatively, according to Mayring. The increasing digitalisation will have a large effect on the sales force, tasks will disappear, new tasks will be added and new ones will replace conventional working methods. In summary, automation will simply make tasks superfluous, software tools will improve quality and increase efficiency, and personal selling will become a premium skill. Companies will try to automate as many backoffice activities as possible and reduce the number of office staff if necessary.
Eindimensionales Siliziumkarbid-Faserwachstum ohne Katalysator über karbothermische Reduktion
(2020)
In dieser Arbeit werden eindimensionale Siliziumkarbid-Fasern über die karbothermische Reduktion von stickstoffdotiertem Siliziumoxykarbid-Glas, welches über einen Sol-Gel-Prozess synthetisiert wurde, hergestellt. Als Wachstumssubstrat für die Fasern werden drei Arten von Kohlenstofffasern verwendet, die entweder in Sol eingelegt sind oder erst bei der karbothermischen Reduktion mit dem Precursor im Graphittiegel eingelegt werden. Es werden vier Formen von eindimensionalem Siliziumkarbid produziert, bei denen Durchmesser und Länge von <100 nm bis zu mehreren µm variieren. Die Charakterisierung der synthetisierten Fasern erfolgt über optische Mikroskopie, Rasterelektronenmikroskopie und Raman-Spektroskopie. Der Einfluss der Druckentwicklung während der karbothermischen Reduktion auf das Faserwachstum wird anhand von Druck-Temperatur-Verläufen ermittelt.
Einkauf 4.0
(2020)
Traditionelle Einkaufsprozesse haben viele Fehlerquellen und ungenütztes Potential. Viele Konzepte, die meist im Zusammenhang mit Digitalisierung und Industrie 4.0 stehen, versprechen Optimierungen. Diese Vielfalt führt jedoch in der Praxis zu Unklarheiten, da fraglich ist, was tatsächlich hinter den Konzepten steckt. Insbesondere der sogenannte „Einkauf 4.0“, der mehr als eine Digitalisierung der Beschaffungsprozesse verspricht, wirft viele Fragen auf.
Das Ziel der vorliegenden Forschungsarbeit ist es festzulegen, welche Merkmale dem „Einkauf 4.0“ zugeschrieben werden können und ob sich diese in Praxis wiederfinden. Dazu werden folgende Forschungsfragen gestellt:
1. Welche Merkmale können eindeutig dem Begriff „Einkauf 4.0“ zugeordnet werden, um eine aktuell gültige Umfangsdefinition zu erstellen?
2. Werden die gefundenen Merkmale des Einkauf 4.0 in der Praxis als relevant erachtet und umgesetzt? Falls ja, welche?
Um die erste Forschungsfrage zu beantworten wurden eine qualitative und eine quantitative Inhaltsanalyse durchgeführt. Die Merkmale des Begriff Einkauf 4.0 konnten dadurch eindeutig festlegt und abgrenzt werden. Die zweite Forschungsfrage wurde beantwortet in dem ein Vergleich der gefundenen Merkmale mit der Studie „BME-Barometer Elektronische Beschaffung 2020“ des BME e. V. erfolgte.
Die Auswertung der Inhaltsanalysen zeigt, dass sich Merkmale für den Einkauf 4.0 finden lassen, diese jedoch kritisch zu hinterfragen sind. Der Vergleich der Merkmale mit der Studie des BME e.V., ergibt, dass einige Merkmale in der Praxis wiederzufinden sind; Sie sind jedoch von unterschiedlicher Relevanz. Weiterführende Forschung ausgehend von der hier formulierten Definition würden tiefere Einblicke in das Konzept des Einkauf 4.0 ermöglichen.
Die vorliegende Arbeit befasst sich mit der Untersuchung von dezentralen Warmwasserbereitungssystemen, wobei der Fokus auf Energieeffizienz liegt. Als Vergleichs- und Referenzobjekt wird das Wohngebäude „KliNaWo“ mit 19 Wohneinheiten am Standort Feldkirch herangezogen, in welchem eine zentrale Warmwasserbereitung realisiert wurde. Als ersten Schritt werden die theoretischen Grundlagen hinsichtlich der zentralen und dezentralen Warmwasserbereitungs-systeme sowie der unterschiedlichen Wärmeerzeuger, Speichertechnologien und Verteilsysteme erarbeitet. Anschließend erfolgt eine Erläuterung der aktuellen Normensituation und den wichtigsten Fakten bezüglich Trinkwasserhygiene.
Des Weiteren wird das Referenzobjekt „KliNaWo“ sowie die verwendeten Messdaten zur Kalibrierung der Simulationsmodelle beschrieben. Im nachfolgenden Kapitel erfolgt eine detaillierte Darstellung der zu untersuchenden Systeme, wobei es sich um das Wohnungssatellitensystem sowohl mit kontinuierlicher Beladung als auch im Ladefensterbetrieb sowie um dezentrale Boiler-Wärmepumpen handelt. Anschließend wird die verwendete Simulationssoftware Polysun erläutert und erklärt wie die Systeme in der Software abgebildet und welche Ersatzmodelle angewendet werden.
Die Nutzenergie in Bezug auf das Warmwasser beträgt bei der zentralen Variante 20.584 kWh und ist bei allen dezentralen Systemen mit 20.142 kWh etwas geringer, da die Verteilverluste der Warmwasser-Einzelleitungen aufgrund des niedrigeren Temperaturniveaus geringer ausfallen. Da die rückgewinnbaren Wärmeverluste berücksichtigt werden, ergeben sich auch für den Heizwärmebedarf in Abhängigkeit der Variante unterschiedliche Werte im Bereich von 54.322 kWh bis 58.104 kWh. Als Vergleichsgröße wird der gesamte Stromverbrauch der Wärmepumpen inklusive der Förderpumpen herangezogen, welcher für die Deckung des Heizwärmebedarfs, der Verluste sowie des Energiebedarfs bezüglich Warmwasser notwendig ist.
Aus dem Vergleich der Varianten ergibt sich, dass der Stromverbrauch des zentralen Systems mit 14.109 kWh am geringsten ausfällt und das Wohnungssatellitensystem im Ladefensterbetrieb mit einem Strombedarf von 14.441 kWh nur wenig darüber liegt. Beim Wohnungssatellitensystem mit kontinuierlicher Beladung und bei den Boiler-Wärmepumpen-Systemen liegen die Stromverbräuche deutlich höher. Anhand der Simulationsergebnisse kann festgestellt werden, dass die dezentralen Anlagenkonfigurationen unter Berücksichtigung der ÖNROM B 2531 nicht effizienter sind als das zentrale System, wobei das Wohnungssatellitensystem im Ladefensterbetrieb in derselben Größenordnung wie das zentrale System liegt. Allerdings sind beim Wohnungssatellitensystem höhere Investitionskosten gegenüber der zentralen Variante zu erwarten, wodurch das System wirtschaftlich schlechter abschneidet.
Die Aktualität des Klimawandels fordert Maßnahmen in privaten und wirtschaftlichen Bereichen. Die Veränderungen des Klimas führen dazu, dass Regelungen und Gesetze für das Energiewesen der Unternehmen entwickelt werden. Die Gesetze verpflichten die Unternehmen für Energie- und Umweltaudits. Viele Unternehmen führen noch zusätzliche Maßnahmen für eine Verbesserung der Energieeffizienz und des Emissionsausstoßes ein. Die Maßnahmen werden immer relevanter.
Die Norm ISO 50001 unterstützt Unternehmen bei der Einführung und bei der Aufrechterhaltung eines Energiemanagementsystems. Das Energiemanagement hilft dabei, die energiebezogene Leistung zu verbessern und einen kontinuierlichen Verbesserungsprozess umzusetzen. Eine weitere freiwillige Möglichkeit ist das Klimaneutralitätsbündnis 2025. Das Bündnis soll den Mitgliedern helfen, den Emissionsausstoß zu verbessern. Die Mitglieder werden über einen definierten Zeitraum von 12 Jahren begleitet, um die Geschäftsprozesse anschließend klimaneutral zu gestalten.
Diese Arbeit beschäftigt sich mit den Anforderungen der Norm ISO 50001 und dem Klimaneutralitätsbündnis. Beides sind freiwillige Instrumente, welche Unternehmen verwenden können, um das eigene Energiewesen zu optimieren und etwas zum Klimaschutz beizutragen. Die Forschung dieser Arbeit beschäftigt sich mit dem Zusammenwirken der beiden Instrumente. Es wird untersucht, ob eine parallele Einführung und Bearbeitung in den Unternehmen möglich ist. Zusätzlich werden die Inhalte und die Anforderungen gegenübergestellt. Mögliche Überschneidungen werden zu Zwecken einer Erleichterung für die Unternehmen überprüft.
Im Zuge dieser Arbeit wird ein Energiemonitoring beim Logistikunternehmen Gebrüder Weiss GmbH eingeführt. Das Unternehmen mit Sitz in Lauterach (Vorarlberg) betreibt weltweit rund 165 Standorte. Die Niederlassung in Lauterach bildet den Versuchsstandort für das Energiemonitoring. Es werden geeignete Partnerunternehmen gesucht, welche ein Energiemonitoringsystem anbieten. Im Zuge der Partnersuche wird ein Pilotprojekt umgesetzt, welches dem Unternehmen erste Einblicke in die Materie bietet. Nach dem erfolgreichen Abschluss des Pilotprojektes folgt die Implementierung des Energiemonitorings. Die einzelnen Schritte und Herausforderungen des Projektes werden dargelegt und die abschließende Umsetzung wird beschrieben. Nach der Einführung in Lauterach folgt die weltweite Ausrollung des Energiemonitorings in allen Standorten.
Over the last years, polymers have gained great attention as substrate material, because of the possibility to produce low-cost sensors in a high-throughput manner or for rapid prototyping and the wide variety of polymeric materials available with different features (like transparency, flexibility, stretchability, etc.). For almost all biosensing applications, the interaction between biomolecules (for example, antibodies, proteins or enzymes) and the employed substrate surface is highly important. In order to realize an effective biomolecule immobilization on polymers, different surface activation techniques, including chemical and physical methods, exist. Among them, plasma treatment offers an easy, fast and effective activation of the surfaces by micro/nanotexturing and generating functional groups (including carboxylic acids, amines, esters, aldehydes or hydroxyl groups). Hence, here we present a systematic and comprehensive plasma activation study of various polymeric surfaces by optimizing different parameters, including power, time, substrate temperature and gas composition. Thereby, the highest immobilization efficiency along with a homogenous biomolecule distribution is achieved with a 5-min plasma treatment under a gas composition of 50% oxygen and nitrogen, at a power of 1000 W and a substrate temperature of 80 C. These results are also confirmed by different surface characterization methods, including SEM, XPS and contact angle measurements.
Flexibilität, Anpassungsfähigkeit und eine schnelle Reaktionsfähigkeit ist der Anspruch an die Arbeitswelt von heute und wird in Zukunft weiter an Dynamik gewinnen. Durch die Entwicklung agiler Ansätze wurden hierfür Lösungsansätze gefunden. Diese können an die Anforderungen der eigenen Arbeitsumgebung adaptiert werden und unterstützen die Unternehmen dabei, auch bei zukünftigen Veränderungen der Arbeitswelt erfolgreich agieren können. Für eine effektive Nutzung agiler Ansätze ist eine stetige Weiterentwicklung der Kompetenzen der Mitarbeitenden unumgänglich. Klassische Methoden zum Erwerb neuer Kompetenzen hinken dem Wandel hinterher. Der Einsatz agiler Ansätze im Arbeitsalltag erfordert daher agile Kompetenzentwicklungsansätze. Ob agile Ansätze selbst ein Erfolgsfaktor beim Erwerb von Kompetenzen darstellen, wird in dieser Studie behandelt.
Die Forschungsfrage dieser Masterarbeit wird beantwortet, indem die Erfolgsfaktoren umsetzbarer Entscheidungen im Projekt herausgearbeitet und mittels Checkliste für die Projektleitung anwendbar werden. Die Checkliste unterstützt, dass das definierte Projektziel unter effizienter Ressourcennutzung erreicht wird, indem das Zustandekommen von Entscheidungen prozesshaft ausgestaltet wird. Die Checkliste baut auf einer managementorientierten Sicht der BWL auf und berücksichtigt die Erkenntnisse des aktuellen Sankt Galler Management-Modells mit seiner Aufgaben- und Praxisperspektive. Durch die Einsicht in die Rhomberg Bahntechnik GmbH soll dem/der Leser/in aufgezeigt werden, welche Rahmenbedingungen und Ziele ein Projekt hat und wie ein Projektmanagement in der Praxis gestaltet werden kann. Die wesentliche Erkenntnis ist, dass komplexe Entscheidungen nur von Menschen getroffen werden können. Die personale Existenzanalyse enthält anwendungsfähige Methoden, mit derer sich die Menschen zu umsetzbaren Entscheidungen führen können. Deshalb wird im Ausblick auf die personale Existenzanalyse kurz eingegangen.
In dieser Arbeit wird eine Topologie-Erkennung beschrieben, welche durch rein passives Scannen ermöglicht wird. Dazu werden die verschiedenen Protokolle beschrieben, welche in dem Bereich Digital Substation verwendet werden, um mögliche Ansätze zu erarbeiten. Es werden die Redundanz-Protokolle STP (Spanning Tree Protocol), RSTP (Rapid Spanning Tree Protocol), PRP (Parallel Redundancy Protocol) und HSR (High-availability Seamless Redundancy) beschrieben. Es wird ein kurzer Überblick zum IEC-61850 Standard und dessen Protokolle SV (Sampled Values) und GOOSE (Generic Object Oriented Substation Event) gegeben. Auf dieser Grundlage wird eine Applikation entwickelt, welche die Data Link Layer Topologie erkennt. Die entwickelte Topologie-Erkennung wird als Proof-of-Concept für STP und RSTP Netzwerke verwendet und die entsprechenden Voraussetzungen werden beschrieben. Auf korrektes Verhalten wurde die in dieser Arbeit entwickelte Applikation mittels verschiedenen, simulierten Netzwerken und einem simplen Laboraufbau getestet. Die Applikation bietet auch die Möglichkeiten, solche Topologien zu visualisieren und zu vergleichen.
Für die Digitale Fabrik an der FH Vorarlberg sollen Intrusion-Detection-Systeme (IDS) zur Erkennung von Angriffen auf Hosts sowie im Netzwerk evaluiert werden. Außerdem sollen die aus den IDS erhaltenen Resultate so dargestellt werden, damit Systemadministratorinnen rapide Entscheidungen bezüglich der generierten Alarme treffen können. Um dies zu gewährleisten sollen neben den IDS zusätzlich entsprechende Visualisierungstools evaluiert werden. In dieser Arbeit werden dazu unterschiedliche signatur- sowie auch anomaliebasierte Netzwerk- und Host-IDS technisch beschrieben und anhand von Kriterien, welche aus den Anforderungen abgeleitet werden, bewertet. Zusätzlich wird die Genauigkeit der IDS durch Testen von spezifischen Angriffen ermittelt. Außerdem werden potenzielle Tools für die Darstellung von Alarmen aus den IDS vorgestellt und ebenfalls anhand den Anforderungen aufgezeigt, welches am geeignetsten ist. Abschließend werden alle Probleme sowie Erkenntnisse aufgezeigt, welche während der Evaluierung auftraten und erläutert, wie diese Arbeit fortgeführt werden kann.
Moving from one country to another, from one cultural context to a different one comes with many challenges and problems. The expatriate adjustment process, in general, has been evaluated extensively in the literature. Little is known if the knowledge in the literature is also valid for the situation of expatriates in rural Vorarlberg. In this paper was examined, which are the most common problems for highly skilled immigrants that are moving to Vorarlberg. In a mixed-method approach, information was gathered with an online questionnaire whose results served as a basis for a series of semi-structured interviews. In addition, an expert talk with a local relocation consultant was conducted. It was found that by far, the most severe difficulty is based on the domestic language situation. An expatriate needs to talk and understand German, but the local language is an Alemannic subsection of the German language that is not easy to understand. Additional difficulties that cause culture shock are limited opening hours, mobility troubles, and several others. The awareness about the composing of these problems might help to find the appropriate measures to support expatriates to come in the future.
The humidification dehumidification (HDH) cycle is a process for thermal water treatment. Many studies were carried out investigating operation of an HDH cycle with water and seawater as working liquid. Currently research into other areas of application is limited. Exchanging the working liquid in the humidifier from seawater to a water oil emulsion and investigating its behavioural changes is the basis for the expansion into applications such as bilge water treatment. This master’s thesis covers analysis of the behaviour of an HDH cycle operated with a water oil emulsion. The main elements are (1) proof of concept for operation of the HDH cycle with a water oil emulsion, (2) comparison of measurements and thermodynamic calculations, (3) investigation of the impact of operating parameters and (4) optical analysis of the bubbly flow in water and oil.
Operation of the HDH cycle using water oil emulsion was shown to be feasible with a small change to the setup previously used for investigations with seawater as working liquid. To keep the emulsion from separating into its individual parts, constant movement of the working liquid needs to be ensured. For this a magnetic stirrer was introduced into the bubble column humidifier (BCH) used. In a batch process an oil concentration of >97 % was reached without visible traces of oil in the produced condensate.
Comparison of the measured and thermodynamically evaluated productivity shows that measured productivity is higher. The proposed explanation for this is supersaturation of air at the BCH exit. Further investigation into this phenomenon is needed to confirm this hypothesis.
Influential parameters investigated are (1) liquid temperature, (2) superficial air velocity and (3) sieve plate orifice diameter. Increase of liquid temperature results in an exponential increase in productivity. At superficial air velocities up to 3 cm/s productivity increases with superficial air velocity. For superficial air velocities higher than 3 cm/s productivity plateaus. At low superficial air velocity, an increase of sieve plate orifice diameter results in increasing productivity. Further increase of the sieve plate orifice diameter inverses this phenomenon.
Bubbly flow in water and oil is influenced by the different viscosities of the liquids. Water creates small bubbles of similar size at low superficial air velocities. At superficial air velocities >2 cm/s turbulences start to increase and finely dispersed bubbles are present in the water. Bubbly flow in oil creates larger bubbles at all superficial air velocities. The airflow transitions to plug flow at velocities of 3 cm/s and above.
Result from this master’s thesis can be used for as a basis to broaden the understanding of the HDH cycle and find new areas of applications.
The humidification-dehumidification process (HDH) for desalination is a promising technology to address water scarcity issues in rural regions. However, a low humidifier efficiency is a weakness of the process. Bubble column humidifiers (BCH) are promising for HDH, as they provide enhanced heat and mass transfer and have low maintenance requirements. Previous studies of HDH-systems with BCHs draw different conclusions regarding the impact of superficial air velocity and liquid height on the humidification. Furthermore, the impact of flow characteristics has never been investigated systematically at all. In this study, an optimized BCH test setup that allows for optical analysis of the humidifier is used and evaluated. Our test setup is validated, since the influence of water temperature on the humidification, which is exponential, is reproduced. Measurements with seawater show that the normalised system productivity is increased by about 56 % with an increase in superficial air velocity from 0.5 to 5 cm/s. Furthermore, the system productivity is increased by around 29 % with an increase in liquid height from 60 to 378 mm. While the impact of superficial air velocity can be traced back to temperature changes at the humidifier and dehumidifier outlets, the impact of liquid height is shown to be caused by a smaller heat loss surface in the humidifier with an increase in liquid height. For the impact of sieve plate orifice diameter, a clear influence on the humidification is not apparent, this parameter needs to be investigated further. Finally, our new test setup allows for analysing the humidification of air (1) in a systematic way, (2) in relevant measurement ranges and (3) in comparison with optical analyses of the flow characteristics.
Die cloud-basierte Verarbeitung von Datenströmen von IoT-Geräten ist aufgrund hoher Latenzzeiten für zeitkritische Anwendungen nur beschränkt möglich. Fog Computing soll durch Nutzung der Rechen- und Speicherkapazitäten von lokal vorhandenen Geräten eine zeitnahe Datenverarbeitung und somit eine Verringerung der Latenzzeit ermöglichen. In dieser Arbeit werden Anforderungen an ein Fog Computing-Framework erhoben, das die dynamische Zuweisung und Ausführung von Services auf ressourcen-beschränkten Geräten in einem lokalen Netzwerk zur dezentralen Datenverarbeitung ermöglicht. Zudem wird dieses Framework prototypisch für mehrere Transportkanäle, unterschiedliche Betriebssysteme und Plattformen realisiert. Dazu werden die Möglichkeiten der Skriptsprache Lua und des Kommunikationsmechanismus Remote Procedure Call genutzt. Das Resultat ist ein positiver Machbarkeitsnachweis für Fog Computing-Funktionalitäten auf ressourcenbeschränkten Systemen. Zudem werden eine geringere Latenz und eine Reduktion der Netzwerklast ermöglicht.
Die digitale Transformation stellt Führungskräfte vor neue Aufgaben. Sie sind aufgefordert, einen Lernweg zu beschreiten und nehmen dabei eine Vorbildfunktion ein.
Diese Masterarbeit widmet sich der Fragestellung, welche Kompetenzen Führungskräfte im Zeitalter der digitalen Transformation benötigen und welche Auswirkungen das auf Leadership-Entwicklungsprogramme hat. Nach der theoretischen Bearbeitung der Thematik wurden qualitative Interviews mit Expertinnen und Experten im Bereich Leadership durchgeführt. Es folgte eine Online-Befragung von Führungskräften, die quantitativ ausgewertet wurde.
Die Ergebnisse zeigen, dass analoge Kompetenzen im digitalen Zeitalter weiterhin die Hauptrolle in der Führungsarbeit spielen. Eine starke Ausprägung der digitalen Kenntnisse führt jedoch zu einer höheren Profitabilität. Die Untersuchung zeigte bei den Befragten Unterschiede bei den Herausforderungen, Kompetenzen und Weiterbildungswünschen in Bezug auf Geschlecht, Alter, digitale Reife und Größe der geführten Teams. Daraus folgt, dass Programme in der Führungskräfteentwicklung individuelle Anpassungen erfordern.
Diese Masterarbeit richtet sich an Interessierte, die das Spannungsfeld von Führenden in der digitalen Transformation verstehen wollen.
Die Bedeutung der betrieblichen Gesundheitsförderung (BGF) ist in den letzten Jahren aufgrund des Wandels der Arbeitswelt durch Technologien, der Globalisierung sowie des demografischen Wandels stark gestiegen. Gesunde und motivierte Mitarbeitende sind essenziell für ein erfolgreiches Unternehmen. Deshalb rückt der Erhalt der Gesundheit der Mitarbeitenden und die Steigerung des Wohlbefindens am Arbeitsplatz für Firmen immer mehr in den Vordergrund. Zahlreiche Betriebe sind somit zunehmend gezwungen, sich mit verschiedenen gesundheitsfördernden Interventionen zu beschäftigen. Die vorliegende Studie beschäftigt sich mit der Frage, welche gesundheitsfördernden Maßnahmen in Vorarlberger Unternehmen und öffentlichen Einrichtungen genutzt werden. Daraus lässt sich ableiten, welche Maßnahmen vorrangig angeboten werden. Die theoretische Grundlage bildet eine Literaturrecherche. Insgesamt wurden 312 Vorarlberger Arbeitnehmende mit einem Durchschnittsalter von 33,79 Jahren mittels einem vollstandardisierten Fragebogen befragt. Als meist genutzte Interventionen stellten sich besonders die verhältnispräventiven Maßnahmen, wie flexible Arbeitszeitmodelle, ergonomische Bürostühle und regelmäßige Pausen, heraus. Der Wunsch nach zusätzlichen verhaltenspräventiven Maßnahmen (prägen den individuellen Lebensstil), wie bspw. gesunde Ernährungsangebote und Obstkörbe, spiegeln sich jedoch in den Ergebnissen wider. Generell lässt sich sagen, dass auch aufgrund der rechtlichen Vorgaben vermehrt Maßnahmen zur gesunden Gestaltung des Arbeitsverhältnisses, also verhältnispräventive Maßnahmen, angeboten und daher auch genutzt werden.
Increasing international competition and accelerated technological change characterize the environment in which companies must maintain and, if possible, expand their competitive advantage. In this context, the new, popular keyword innovation management is often mentioned. Many corporations propagate and use it for marketing purposes. As a result, the companies have to evaluate, develop and launch innovations increasingly faster, which poses great challenges for many and requires a high degree of adaptability.
This master thesis analyzes innovation management (IM) in the automotive industry and in other industries (material manufacturers, service providers, medicine, ...) depending on the number of employees and turnover. In addition, the maturity levels of the IMs and the innovation management systems (IMS) are examined. It also tries to determine which design or "building blocks" are necessary for a successful innovation management. Furthermore, factual and monetary guidelines by the management are evaluated. The thesis also aims to find out how the success of IM is measured. Therefore, guideline-based expert interviews were conducted with responsible people from the innovation departments and then systematically analyzed.
In the literature, expenses for innovations are often wrongly equated with the R&D rate. In this master thesis, it could be shown that this ratio is highest in the automotive industry. However, it does not correlate with the number of employees, turnover, maturity level, success or design of the IM. Furthermore, it could be shown that larger companies have a higher degree of maturity. The reason for this is that more people are usually involved in innovation and that a holistic understanding of innovation is better anchored in large corporations. When designing the IM or the roles of the innovation department, large companies use several different types. While the IM departments in small and medium-sized companies are usually incubators and accelerators, large companies also use corporate venture capital to support start-ups and develop new business models. In this thesis, the success of IM was determined by the number of innovations implemented in customer projects. It was found that, regardless of the size of the company, a higher degree of maturity of the IM and the accelerator role seem to have a positive influence.
Unfortunately, there are rarely concrete goals and targets set by the management although these, along with a holistic understanding of innovation in the company, are without doubt the most important part of a successful innovation management.
Diese Arbeit untersucht ARM und DSP Multiprozessor Ein-Chip-Systeme von Analog Devices hinsichtlich deren Programmierung, Fähigkeiten und Limitierungen. Durch die Integrierung von unterschiedlichen Hardware-Beschleunigern und Prozessoren in Ein-Chip-Systeme wird echte Nebenläufigkeit ermöglicht. Allerdings wird durch die Integrierung mehrerer Prozessoren die Komplexität der Programmierung von Ein-Chip-Systemen erhöht. Im Zuge dieser Arbeit wird untersucht, was bei der Programmierung von ARM und DSP Ein-Chip-Systemen hinsichtlich der heterogenen Prozessoren und Peripheriebausteinen beachtet werden muss. Dabei werden zuerst die Gründe für heterogenes Rechnen und die Trendwende zu Multiprozessorsystemen erläutert. Anschließend wird der aktuelle Stand der Technik erarbeitet und Programmiermodelle beschrieben, die das Programmieren von heterogenen Multiprozessorsystemen vereinfachen. Überdies werden zwei Fallbeispiele gewählt, mit denen bedeutsame Eigenheiten der Programmierung eines Ein-Chip-Systems erarbeitet werden. Im ersten Fallbeispiel werden anhand der UART-Peripherie Erkenntnisse des Ein-ChipSystems dargelegt, die praktische Auswirkungen auf die Verwendung des Systems haben. Im zweiten Fallbeispiel wird bei der Berechnung der schnellen Fourier Transformation das heterogene System auf dessen Rechenleistung untersucht. Dabei wird die Performanz des Hardware-Beschleunigers gegenüber unterschiedlichen Software-Bibliotheken verglichen und die verschiedenartigen Implementierungen analysiert. Zudem werden durch die Performanzanalyse die Einflüsse der Speicherhierachie des Ein-Chip-Systems ermittelt. Weiterhin wird gezeigt, dass sich die Bibliotheken von Analog Devices in deren Anwendung und Performanz voneinander unterscheiden. Außerdem wird veranschaulicht, dass je nach Anwendungsfall eine nicht für DSPs ausgelegte quelloffene Implementierung konkurrenzfähig zu den optimierten Bibliotheken von Analog Devices und dem Hardware-Beschleuniger ist. Zudem wird durch die Analyse der Mehraufwand ermittelt, der für die Konfiguration des Hardware-Beschleunigers aufgebracht werden muss. Dabei wird gezeigt, dass die Verwendung des Hardware-Beschleunigers erst ab einer bestimmten Anzahl an Abtastwerten rentabel ist. Abschließend werden die zwei Fallbeispiele für einen Konzeptnachweis verknüpft, der die Möglichkeiten des heterogenen Rechnens veranschaulicht.
Die Suche nach geeigneten Maßnahmen im Kampf gegen den Pflegefachkräftemangel geht lange Zeit zurück. Immer mehr schnelle und nicht abgestimmte Lösungen kommen dabei auf. Um wirksam die Personallücke schließen zu können, muss an den Problemursachen angeknüpft werden.
In dieser Masterthesis wird der Personalmangel aus einer neuartigen Perspektive betrachtet. Mit Hilfe des Prozessfokus werden die existierenden Ideen mit folgender Fragestellung näher begutachtet: „Inwieweit spielt Business Process Management (BPM) eine Rolle bei den bisherigen Ideen? Kann BPM einen Beitrag zur Arbeitsentlastung der Pflegekräfte und damit zur Linderung des Personalmangels leisten?“
Um diese Frage beantworten zu können, ist eine zweiteilige Methodik erforderlich. Die Literaturrecherche wird mit dem Wissen aus einer Prozessbegehung ergänzt. Da die Kombination verschiedener Methoden ein Basisfachwissen voraussetzt, ist die Zielgruppe durch dieses Faktum definiert.
Am Ende kann die Digitalisierung in Verbindung mit organisatorischen Umstrukturierungen als geeigneter BPM-Lösungsansatz betitelt werden. Dieser knüpft an den Basisanforderungen an, um auf lange Sicht den Pflegemangel beherrschbar machen zu können.
The workplaces are changing with the increase in the use of technology, digital communication, the shift towards multicultural teams, and remote work due to COVID-19. Leaders need more collaboration and acceptance of digital communication tools such as Teams, Slack. This study aims to determine the influence of culture in the acceptance of digital tools in leadership communication. In the literature review, 3 cultures (organizational, national, Individual) were assumed. And Individual culture was tested using Schwartz (openness to change) value survey along with other qualitative questions in 1-1 interviews of Austrians and multinationals living in Austria. Analysis from findings suggests that culture plays an important role in technology acceptance of digital tools in leadership communication. This was confirmed by the Schein model and Schwartz value ratings. The culture comprises of organizational, national, regional, and individual culture. Individual culture plays an important role, but other cultural factors cannot be avoided. Key factors affecting the technology acceptance in Vorarlberg (Austria) are listed along with recommendations to leaders.
Integration of an industrial robot manipulator in ROS to enhance its spatial perception capabilities
(2020)
Robots without any external sensors are not capable of sensing their environment, often leading to damaging collisions. These collisions could potentially be avoided if the robot had a way to sense its environment in the first place. This thesis attempts to tackle this problem by equipping such a robot with extra sensor hardware for perceiving environmental objects. The robot used within this thesis is a KUKA LBR iiwa 7 R800. The goal is a robot capable of moving in an unseen environment without colliding with obstacles nearby.
The research covers different sensor options, robots in cramped areas as well as algorithms and simulation topics. Software platforms and libraries used for the implementation are briefly introduced.
Multiple infrared sensors are directly installed onto the robot manipulator. The extra sensors and the robot are integrated into the ROS middleware to create an application capable of sensing the robots’ environment and plan collision-free paths accordingly.
The experiments show, that the low amount of available sensor data can not map the robots’ environment with enough detail. Additional problems, such as sensor noise corrupting parts of the generated map or the robot recognizing itself as an obstacle, lead to a negative result in total. In future work, the choice of sensors shall be reconsidered and tested upfront via simulation software.
Moderne Darstellungen ermöglichen es, Daten nicht nur als statische Bilder, sondern auch als interaktive Visualisierungen darzustellen. Interaktive Darstellungen können im Kontext von Kundinnen- und Kundenanalysen eine einfache Weise sein, um Unterschiede in verschiedenen Kaufverhalten festzustellen und können so ein essenzielles Hilfsmittel für ein Unternehmen sein. Das Hauptziel dieser Arbeit ist es, anhand eines beispielhaften Verkaufsdatensatzes die Möglichkeiten der Datenexploration und Informationsbeschaffung durch interaktive Visualisierungen aufzuzeigen, sodass Rückschlüsse auf das Kaufverhalten verschiedener Gruppen gezogen werden können.
Auf der Grundlage einer umfassenden Literaturrecherche in den Bereichen der Daten- und Informationsvisualisierung wurde eine Problemdefinition und eine Anforderungsanalyse für die Verkaufsdaten ausgearbeitet. Anonymisierte Verkaufsdaten dienten als Ausgangspunkt für die Datenvorverarbeitung. Diese wurden bereinigt und die gewünschten Informationen aus der Anforderungsanalyse wurden zur weiteren Transformation selektiert. Aufgrund der hohen Dimensionalität der selektierten Daten, wurde bei der Transformation der Dimensionsreduktions Algorithmus “Uniform Manifold Approximation and Projection” (UMAP) verwendet, um die Dimensionen der Daten zur Visualisierung zu reduzieren. Aufbauend auf diesen Schritten wurde ein Prototyp als Webanwendung erstellt, der den Anforderungen der Datenexploration und Informationsgewinnung gerecht wird. Der resultierende Prototyp kombiniert die achsenbasierten Visualisierungsmethoden der Streudiagramme und Parallelen Koordinaten mit der pixelorientierten Visualisierungsmethode der Heatmap. Diese Darstellungen wurden zusätzlich mit Interaktionsmöglichkeiten erweitert, um eine kollaborative Filterung von ähnlichen Konsumentinnen und Konsumenten auf verschiedenen Warengruppenebenen zu ermöglichen.
Abgeschlossen wurde die Arbeit mit einer Evaluation des Prototypen und dessen Qualität zur Exploration. Die Auswertung wurde mit Benutzerinnen und Benutzern absolviert, die einen Versuchsablauf durcharbeiteten und dabei ihre Erkenntnisse in einem Fragebogen dokumentierten. Durch das Ausführen ließen sich Gruppierungen von Kundinnen und Kunden feststellen und diese konnten auf Richtigkeit in Bezug auf das Einkaufsverhalten validiert werden. Die hierarchische Verbindung der Warengruppenebenen und das Erkennen von Mustern in allen drei Warengruppenebenen konnte nicht als erfolgreich bewertet werden. Es wurde jedoch ein Potenzial zur weiteren visuellen Analyse von Konsumentinnen und Konsumenten anhand deren Einkaufsverhalten festgestellt und weitere Anforderungen zur Weiterentwicklung wurden festgehalten.
Electric cell-substrate impedance spectroscopy (ECIS) enables non-invasive and continuous read-out of electrical parameters of living tissue. The aim of the current study was to investigate the performance of interdigitated sensors with 50 μm electrode width and 50 μm inter-electrode distance made of gold, aluminium, and titanium for monitoring the barrier properties of epithelial cells in tissue culture. At first, the measurement performance of the photolithographic fabricated sensors was characterized by defined reference electrolytes. The sensors were used to monitor the electrical properties of two adherent epithelial barrier tissue models: renal proximal tubular LLC-PK1 cells, representing a normal functional transporting epithelium, and human cervical cancer-derived HeLa cells, forming non-transporting cancerous epithelial tissue. Then, the impedance spectra obtained were analysed by numerically fitting the parameters of the two different models to the measured impedance spectrum. Aluminium sensors proved to be as sensitive and consistent in repeated online-recordings for continuous cell growth and differentiation monitoring assensors made of gold, the standard electrode material. Titanium electrodes exhibited an elevated intrinsic ohmic resistance incomparison to gold reflecting its lower electric conductivity. Analysis of impedance spectra through applying models and numerical data fitting enabled the detailed investigation of the development and properties of a functional transporting epithelial tissue using either gold or aluminium sensors. The result of the data obtained, supports the consideration of aluminium and titanium sensor materials as potential alternatives to gold sensors for advanced application of ECIS spectroscopy.
Wer wünscht ihn nicht: den intelligenten, effizienten und wirtschaftlichen Herstellungsprozess? Viele Firmen setzten aktuell auf die Digitalisierung und verbessern so die eigene sowie die mit externen Stellen vernetzte Produktion. Die Digitalisierung bringt einerseits Fortschritt, zeigt aber auch die zunehmende Komplexität der heutigen Produktionsnetzwerke auf. Zahlreiche Entscheidungen sind zu fällen, um einen effizienten und sicheren Austausch mit verschiedenen Betrieben zu gewährleisten.
Ein Blick auf vorhandene Modelle kann da weiterhelfen: Im Projekt i4Production des IBH-Labs KMUdigital haben Teams an drei Standorten in den drei Nachbarländern Deutschland (HTWG Konstanz), Österreich (FH Vorarlberg) und der Schweiz (NTB Buchs, RhySearch) an einer vernetzten Prozesslandschaft gearbeitet. In einem gemeinsamen, standardisierten Automatisierungskonzept wird in der international vernetzten Modellfabrik ein cyberphysisches System (CPS) in Form eines kundenindividualisierten Modellfahrzeuges produziert, das durch den Kunden in diversen Varianten zusammengestellt oder individuell konstruiert werden kann. Die dezentrale Produktion erlaubt eine Datenweitergabe über die Landesgrenzen in Echtzeit und bildet die Simulation eines länderübergreifenden Business-Eco-Systems ab.
Die Erkenntnisse des Projekts i4Production zeigen wie in kleineren und mittleren Unternehmen (KMU) eine verteilte Produktion, inklusive der Einbindung von Mitarbeitenden und Kunden in eine digitalisierte, hochautomatisierte und kundenindividuelle Produktion, organisiert werden kann.
Für Unternehmen wird diese Industrie 4.0-Prozesslandschaft als Modell für die eigene Fertigung in dem neu aufgebauten CNC Präzisionsfertigungslabor „Werkstatt4“ bei RhySearch öffentlich zur Verfügung gestellt. Die „Werkstatt4“ bietet KMU ein digitales Prozessumfeld, in dem getestet werden kann, mit welchen Maßnahmen der eingangs gestellte Wunsch zur optimierten Herstellung, seinen Weg in die Realität finden kann.
Im Folgenden stellen wir Ihnen das Konzept der internationalen Musterfabrik i4Production, die diversen Arbeitsschritte an den beteiligten Hochschulen sowie die wichtigsten Erkenntnisse für KMU der Bodenseeregion vor. Gerne unterstützen wir Sie bei der Gestaltung des Wandels hin zum Unternehmen 4.0: Sprechen Sie uns an.
Die Psychologie beschreibt Lernen als dauerhafte Veränderung des individuellen Wesens oder Verhaltens, basierend auf Erfahrungen. Multimediale Lernmethoden ermöglichen hierbei, den Prozess in der betrieblichen Weiterbildung zu unterstützen und zu optimieren, um den steigenden Anforderungen, gerade im Bereich der Fachkräfteentwicklung, standhalten zu können. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen der Personalentwicklung, mit Fokus auf der betrieblichen Weiterbildung, sowie des Lernens umfassend erläutert. Im zweiten Teil werden die Ergebnisse einer qualitativen Forschung anhand drei verschiedener Perspektiven über die Lernmethoden E-Learning, Präsenztraining und Blended Learning in fünf Vorarlberger Industrieunternehmen präsentiert. Eine Schlussbetrachtung mit dem Ergebnis der Forschungsfrage sowie einem Ausblick für mögliche weiterführende Forschungsansätze runden die Arbeit ab. Ziel dieser Masterarbeit ist die praxisorientierte Anwendbarkeit der Erkenntnisse für Vorarlberger Industriebetriebe in Bezug auf die interne Weiterbildung, insbesondere bei der Entwicklung von Fachkräften.
Investigation of non-uniformly emitting optical fiber diffusers on the light distribution in tissue
(2020)
Kalkül der Form
(2020)
Der Kalkül von Spencer-Brown dokumentiert mit der Form der Unterscheidung in logisch-mathematischer Weise das Benennen eines Beobachtungsobjektes in Abhängigkeit von der zuvor getätigten Unterscheidung des Beobachters. Diese Unterscheidung ist weder Objekt noch Relation: Sie ist eine Operation, die zugleich Operand und Operator ist!