Refine
Year of publication
- 2020 (168) (remove)
Document Type
- Master's Thesis (89)
- Article (48)
- Conference Proceeding (12)
- Part of a Book (6)
- Report (6)
- Other (4)
- Doctoral Thesis (2)
- Book (1)
Institute
- Soziales & Gesundheit (21)
- Wirtschaft (18)
- Forschungszentrum Mikrotechnik (15)
- Forschungszentrum Business Informatics (14)
- Technik | Engineering & Technology (8)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (6)
- Forschungszentrum Energie (4)
- Department of Engineering (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (2)
- Gestaltung (2)
- Forschung (1)
Keywords
- Ausscheidung (4)
- Controlling (3)
- Digitalisierung (3)
- Machine learning (3)
- Optical coherence tomography (3)
- Arrayed waveguide gratings (2)
- Change management (2)
- Demand Side Management (2)
- Digitale Transformation (2)
- Entscheidung (2)
This thesis aims to support the product development process. Therefore, an approach is developed, implemented as a prototype and evaluated, for automated solution space exploration of formally predefined design automation tasks holding the product knowledge of engineers. For this reason, a classification of product development tasks related to the representation of the mathematical model is evaluated based on the parameters defined in this thesis. In a second step, the mathematical model should be solved. A Solver is identified able to handle the given problem class.
Due to the context of this work, System Modelling Language (SysML) is chosen for the product knowledge formalisation. In the next step the given SysML model has to be translated into an object-oriented model. This translation is implemented by extracting information of a ".xml"-file using the XML Metadata Interchanging (XMI) standard. The information contained in the file is structured using the Unified Modelling Language (UML) profile for SysML. Afterwards a mathematical model in MiniZinc language is generated. MiniZinc is a mathematical modelling language interpretable by many different Solvers. The generated mathematical model is classified related to the Variable Type and Linearity of the Constraints and Objective of the generated mathematical model. The output is stored in a ".txt"-file.
To evaluate the functionality of the prototype, time consumption of the different performed procedures is measured. This data shows that models containing Continuous Variables need a longer time to be classified and optimised. Another observation shows that the transformation into an object-oriented model and the translation of this model into a mathematical representation are dependent on the number of SysML model elements. Using MiniZinc resulted in the restriction that models which use non-linear functions and Boolean Expressions cannot be solved. This is because the implementation of non-linear Solvers at MiniZinc is still in the development phase. An investigation of the optimally of the results, provided by the Solvers, was left for further work.
The Digital Factory Vorarlberg is the youngest Research Center of Vorarlberg University of Applied Sciences. In the lab of the research center a research and learning factory has been established for educating students and employees of industrial partners. Showcases and best practice scenarios for various topics of digitalization in the manufacturing industry are demonstrated. In addition, novel methods and technologies for digital production, cloud-based manufacturing, data analytics, IT- and OT-security or digital twins are being developed. The factory comprises only a minimum core of logistics and fabrication processes to guarantee manageability within an academic setup. As a product, fidget spinners are being fabricated. A webshop allows customers to individually design their products and directly place orders in the factory. A centralized SCADA-System is the core data hub for the factory. Various data analytic tools and methods and a novel database for IoT-applications are connected to the SCADA-System. As an alternative to on premise manufacturing, orders can be pushed into a cloud-based manufacturing platform, which has been developed at the Digital Factory. A broker system allows fabrication in distributed facilities and offers various optimization services. Concepts, such as outsourcing product configuration to customers or new types of engineering services in cloud-based manufacturing can be explored and demonstrated. In this paper, we present the basic concept of the Digital Factory Vorarlberg, as well as some of the newly developed topics.
A modified matrix adaptation evolution strategy with restarts for constrained real-world problems
(2020)
In combination with successful constraint handling techniques, a Matrix Adaptation Evolution Strategy (MA-ES) variant (the εMAg-ES) turned out to be a competitive algorithm on the constrained optimization problems proposed for the CEC 2018 competition on constrained single objective real-parameter optimization. A subsequent analysis points to additional potential in terms of robustness and solution quality. The consideration of a restart scheme and adjustments in the constraint handling techniques put this into effect and simplify the configuration. The resulting BP-εMAg-ES algorithm is applied to the constrained problems proposed for the IEEE CEC 2020 competition on Real-World Single-Objective Constrained optimization. The novel MA-ES variant realizes improvements over the original εMAg-ES in terms of feasibility and effectiveness on many of the real-world benchmarks. The BP-εMAg-ES realizes a feasibility rate of 100% on 44 out of 57 real-world problems and improves the best-known solution in 5 cases.
A novel calorimetric technique for the analysis of gas-releasing endothermic dissociation reactions
(2020)
Issues with professional conduct and discrimination against Lesbian, Gay, Bisexual, Transgender (LGBT+) people in health and social care, continue to exist in most EU countries and worldwide.
The project IENE9 titled: “Developing a culturally competent and compassionate LGBT+ curriculum in health and social care education” aims to enable teacher/trainers of theory and practice to enhance their skills regarding LGBT+ issues and develop teaching tools to support the inclusion of LGBT+ issues within health and social care curricula. The newly culturally competent and compassionate LGBT+ curriculum will be delivered though a Massive Open Online Course (MOOC) which is aimed at health and social care workers, professionals and learners across Europe and worldwide.
We have identified educational policies and guidelines at institutions teaching in health and social care, taken into account for developing the learning/teaching resources. The MOOC will be an innovative training model based on the Papadopoulos (2014) model for “Culturally Competent Compassion”. The module provides a logical and easy to follow structure based on its four constructs 'Culturally Aware and Compassionate Learning', 'Culturally Knowledgeable and Compassionate Learning', 'Culturally Sensitive and Compassionate Learning', 'Culturally Competent and Compassionate Learning'.
Specific training may result in better knowledge and skills of the health and social care workforce, which helps to reduce inequalities and communication with LGBT+ people, as well as diminishing the feelings of stigma or discrimination experienced.
Die Entwicklungen im Bereich der Algorithmen, Machine Learning und Künstlicher Intelligenz sind rasant und halten Einzug in immer mehr Bereichen des alltäglichen Lebens, insbesondere in den Unternehmen. Aus diesem Grund wird in dieser Arbeit der Frage nachgegangen, inwiefern dieser Trend Auswirkungen auf die benötigten Management-Kompetenzen hat. Zur Beantwortung dieser Frage wird zuerst die klassische Management-Lehre mit ihren zentralen Begrifflichkeiten und bestehenden Kompetenzmodellen beleuchtet und basierend auf diesen Erkenntnissen ein Analyse-Hilfsmodell entwickelt. Im Anschluss werden die wichtigsten Grundlagen zum Themenkomplex Algorithmus, Machine Learning und Künstliche Intelligenz behandelt und auf dieser Basis benötigte Management-Kompetenzen abgeleitet. Zusätzlich werden aktuelle Studien großer Beratungsunternehmen und Fachartikel analysiert und ebenfalls Kompetenzen für den Einsatz von Machine Learning und Künstlicher Intelligenz identifiziert. Schliesslich wird eine Gap-Analyse durchgeführt mit dem Resultat, dass keine grundsätzlich neuen Kompetenzen notwendig sind, diese jedoch teils erweitert werden müssen und sich deren Wichtigkeit verschiebt.
Alter und Recruiting
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Problematik von Arbeitssuchenden 45 plus in Vorarlberg.
Zum Verständnis werden die Fachbegriffe Diversity, Generationen und Altersklassen, Altersdiskriminierung und Work Ability Index erläutert. Die Umfeld- und Einflussfaktoren beschäftigen sich mit den demografischen Grundlagen, den Potenzialen älterer Arbeitnehmender, dem alter(n)s-gerechten Arbeiten, möglicher Herausforderungen im Recruiting und Ideen anderer Länder.
Im Abschnitt Methodologie und Methodik werden Grundlagen der qualitativen Forschung behandelt. Die Datenerhebung erfolgte durch Experteninterviews. Die Details dazu finden sich in den Passagen Sampling, Auswahl der Interviewpartner, Interview-Leitfaden, Auswertungsmethode und Gütekriterien. Die Arbeit fokussiert sich auf Industrieunternehmen in Vorarlberg sowie das AMS, die AK und die Caritas.
Die Antworten aus den Leitfaden-Interviews führen schlussendlich zu potenziellen Reformansätzen, um die Situation für Arbeitnehmende 45 plus zu verbessern. Es ergeben sich mehrere Aspekte, welche wider das Einstellen von älteren Bewerbenden vorliegen.
An electrochemical study with three redox substances on a carbon based nanogap electrode array
(2020)
An implementation approach of the gap navigation tree using the TurtleBot 3 Burger and ROS Kinetic
(2020)
The creation of a spatial model of the environment is an important task to allow the planning of routes through the environment. Depending on the number of sensor inputs different ways of creating a spatial environment model are possible. This thesis introduces an implementation approach of the Gap Navigation Tree which is aimed for usage with robots that have a limited amount of sensors. The Gap Navigation Tree is a tree structure based on depth discontinuities constructed from the data of a laser scanner. Using the simulated TurtleBot 3 Burger and ROS kinetic a framework is created that implements the theory of the Gap Navigation Tree. The framework is structured in a way that allows using different robots with different sensor types by separating the detection of depth discontinuities from the building and updating of the Gap Navigation Tree.
Das Management eines Unternehmens kann Mithilfe von bilanzpolitischen Maßnahmen bewusst Einfluss auf das Unternehmensergebnis nehmen. Durch Ausnutzung von Ermessenspielräumen bei der Bildung und Auflösung von Rückstellungen können stille Reserven gebildet und in späteren Perioden wieder aufgelöst werden.
In dieser Masterarbeit wurde untersucht ob die Unternehmen des M-DAX mithilfe der Big-Bath-Accounting-Methode oder der Income-Smoothing-Methode bewusst Einfluss auf das Jahresergebnis genommen haben. Hierfür wurden die Geschäftsberichte der Zielgruppe im Zeitraum von 2009 – 2018 empirisch untersucht. Um die Gültigkeit der Hypothesen zu überprüfen wurde das ausgewiesene EBIT mit einem bereinigten EBIT verglichen. Für die Ermittlung des bereinigten EBITs wurden die tatsächlichen Rückstellungsbildungen bzw. Rückstellungsauflösungen durch die über den Betrachtungszeitraum durchschnittlichen Rückstellungsbildung bzw. Rückstellungsauflösung ersetzt.
Die Ergebnisse der empirischen Untersuchung haben gezeigt, dass die Unternehmen der Zielgruppe Mithilfe von Rückstellungen großen Einfluss auf das EBIT nehmen können. Weiter konnte belegt werden, dass die meisten Unternehmen bei der Rückstellungsbewertung grundsätzlich vorsichtig agieren und höhere Beträge in Rückstellungen bilanzieren.
Die EU-Ziele umfassen die Steigerung des Anteils an erneuerbaren Energien an der Energieerzeugung um 32 % bis 2030. Doch erneuerbare Energien bringen neben den Vorteilen für den Umweltschutz auch Probleme mit sich. Ihre Schwankungen und Unkontrollierbarkeit stellen große Herausforderungen für das Stromnetz dar. Um die Netz- und damit die Versorgungssicherheit weiterhin gewährleisten zu können, braucht es Lösungen, die weder das Stromnetz, die Verbraucher noch die Energieversorger benachteiligen. Eine Möglichkeit wäre es, zusätzliche Kraftwerke und Infrastruktur (Redundanzen) aufzubauen, welche potenzielle Schwankungen ausgleichen können. Dieser Lösungsansatz gilt als traditioneller Weg, der hohe Kosten und negative Umweltauswirkungen mit sich bringt. Demand Side Management hat das Potenzial, effiziente Lösungen diesbezüglich anzubieten. Welche Vorteile der Einsatz von DSM auf Ebene der Haushaltsverbraucher für die Energieversorger in Bezug auf den Abruf von Ausgleichsenergie bringt, wird in dieser Arbeit behandelt. Dafür wurde ein agentenbasiertes Modell entwickelt, welches darauf abzielt, die Abweichung zwischen dem von dem Energieversorger prognostizierten Verbrauch und dem realen Verbrauch seiner Haushaltskunden zu verringern. Jeder Haushalt in dem vorgestellten Modell ist mit einer Flexibilität in Form eines Batteriespeichers ausgestattet. Die Speicherbewirtschaftung wird basierend auf einem Signal, welches der Energieversorger übermittelt, automatisch vom Haushalt für jeden Tag im Betrachtungszeitraum optimiert. Jede Abweichung zwischen der vom Energieversorger erstellten Prognose und der tatsächlich bezogenen Strommenge stellt dabei einen Bezug von Ausgleichsenergie dar. Untersucht werden die Auswirkungen der Anzahl an Haushalten sowie ein unterschiedlicher Wissensstand auf die Prognose. Weiters werden zwei unterschiedliche Arten von Demand Side Management analysiert. Einmal die Einflussnahme auf die Last der Haushalte durch ein Preissignal, einmal durch das Vorgeben eines Lastgangs. Um die Effektivität der beiden Varianten bestimmen zu können, wird auch die Menge an Ausgleichsenergie erhoben, welche ohne das Vorhandensein eines Batteriespeichers (also ohne Steuerung) anfallen würde. Das Modell wurde entwickelt, um einen Trend aufzuzeigen und keine spezifische Einsparungsmenge zu ermitteln, da dies von der jeweiligen Situation des Energieversorgers abhängt. Die Erstellung der unterschiedlichen Wissensstände basiert auf den österreichischen rechtlichen Vorgaben bezüglich der Datenübertragung bei intelligenten Messgeräten. Dabei ist einmal der Jahresverbrauch, einmal der Tagesverbrauch und einmal die stündlichen Verbrauchswerte bekannt. Das Preissignal ist negativ korreliert zu den am Day-Ahead-Markt gehandelten Mengen und das Lastsignal basiert auf einer der Prognosen des Energieversorgers, je nach Variante, die untersucht wird. Es zeigte sich, dass ein besserer Wissensstand nur teilweise eine Verbesserung der Prognose erzielte. Wobei die unterschiedlichen Wissensstände auf den realen Werten der nicht verwendeten Haushalte aus dem gleichen Datensatz aufbauen und so beispielsweise Wettereinflüsse in der Prognose schon bekannt waren, was die Prognose basierend auf Jahreswerten sehr genau machte. Der Aggregationseffekt von mehreren Haushalten beeinflusst die Prognose positiv. Auf einzelner Haushaltsebene schneiden die Vorhersagen deutlich schlechter ab als bei Prognosen des Gesamtverbrauchs aller Haushalte. Die Optimierung basierend auf dem Lastsignal generiert eine geringere Menge an Ausgleichsenergie als das Preissignal. Das liegt unter anderem daran, dass die Prognose nur die Verbräuche der Haushaltskunden berücksichtigt und nicht die Mengen, die am Markt gehandelt werden. In den untersuchten Varianten stellte sich heraus, dass am wenigsten Ausgleichsenergie über alle Haushalte erzeugt wird, wenn kein Demand Side Management betrieben wird, also keine Batteriespeicher vorhanden sind und die Prognose des Energieversorgers auf Stundenwerten basiert. Auf einzelner Haushaltsebene fällt bei der Optimierung mittels Lastsignal am wenigsten Ausgleichsenergie an.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
Mit dem entwickelten, gemischt-ganzzahligen linearen Optimierungsmodell wird ein grosser Beitrag geleistet, das die wichtigen Betriebskennzahlen einer PV-Speicheranlage, wie der Eigenverbrauchsanteil um bis zu 89 % und der Autarkiegrad um bis zu 73 % durch eine variable Grenzkostenoptimierung bei zusätzlicher E-Auto Berücksichtigung gesteigert werden können. Der Eigenverbrauch der PV-Erzeugung wird durch den stationären Batteriespeicher auf 71 % mehr als verdoppelt. Das beispielhafte Szenario hat einen Haushaltsverbrauch von 5 MWh pro Jahr und besteht aus einer 5 kWp PV-Anlage, mit einem 5 kWh Batteriespeicher und dem Tesla Model 3 mit einer Jahresfahrleistung von 16778 km.
Das erstellte Softwareprogramm kann einfach auf weitere verschiedene Anlagenkonstellationen und mit eigenen Eingangszeitreihenprofile der Haushaltslast, der PV-Erzeugung und der E-Auto Nutzung parametriert werden. Neben der Kennzahlenberechnung des konkreten Szenarios wird der jeweilige Einfluss einer Anlagenkomponente, wie PV, Batterie und Last bei deren Variation, auf die Kennzahlen grafisch gut sichtbar dargestellt.
Die Ergebnisse bestätigen bisherige Arbeiten, dass die Dimensionierung der Anlagenkomponenten nach der einfachen Faust-Formel 1:1:1 erfolgen soll: Der stationäre Batteriespeicher und die PV-Anlage sollen gleich gross sein und ihre Grösse in kWh soll der Jahreslast in MWh entsprechen. Damit wird nahezu schon ein gutes Optimum von Eigenverbrauch, Eigenverbrauchsanteil und Autarkiegrad bei minimalen Energiekosten gefunden und die Netzbelastung durch Bezug und Einspeisung kann reduziert werden.
In einer Zeit, in der Daten eine immer größere Rolle spielen, nehmen Schlagwörter wie Big Data, Data Analytics oder Data Mining auch in Organisationen eine große Rolle ein. Daten werden zum neuen digitalen Öl, das durch alle Systeme der Unternehmen und externe Quellen fließt. Richtig eingesetzt, unterstützen sie bei der Strategiefindung, bei der Umsetzung neuer Geschäftsmodelle, beim Gestalten neuer Abläufe und Prozesse und insbesondere bei der Entscheidungsfindung.
Die vorliegende Arbeit beschäftigt sich mit den Themen Daten und Unternehmenssystemen. Von diesen Themen ausgehend wird versucht, eine Brücke zu den Themenfeldern Prozessmanagement und Prozessinnovation zu schlagen. Die Arbeit soll aufzeigen, welche strategischen und operativen Ansätze die Nutzung von Daten als Treiber für Prozessinnovation zulassen. Aufbauend auf einer theoretischen Einordnung der vier skizzierten Gebiete, bildet ein empirischer Teil das Herzstück dieser Arbeit. In diesem Teil werden Aussagen von ExpertInnen darüber zusammengetragen, welche Ansätze zur datengetriebenen Prozessinnovation sie in ihren jeweiligen Unternehmen anwenden. Diese Aufarbeitung ist gegliedert in die drei Ebenen Rahmenbedingungen, Faktoren und Ansätze. Abgeschlossen wird diese Arbeit durch konkrete Handlungsempfehlungen für Unternehmen.
Heutzutage gewinnen visuelle und akustische Eingabemethoden für die Interaktion mit Anwendungen oder Komponenten zunehmend an Bedeutung und sollen die klassische Maus oder Tastatur gegebenenfalls ersetzen. Abgesehen von der Sprachsteuerung benötigen jedoch auch die neuen Methoden für das Absetzen eines Befehls größtenteils die Hände. Es bleibt jedoch die Frage bestehen was passiert, wenn keine freie Hand zur Verfügung steht und ein Sprachbefehl aufgrund des Lärmpegels nicht erkannt wird. Diese Arbeit beschreibt das Konzept einer alternativen Anwendungssteuerung mit Fußgesten und verwendet dafür die Einlegesohlen ‚stapp one‘, die mit Druck- und Beschleunigungssensoren ausgestattet sind. Aufgrund der Durchführung einer Umfrage mit Mehrheitsvotum lassen sich verschiedene Fußgesten für entsprechende Aktionen der gesteuerten Komponenten definieren. Diese wirken auf die Anwender und Anwenderinnen intuitiv und weisen folglich eine hohe Akzeptanz bei der Benutzung auf. Mit einer Verbindungskombination aus Bluetooth und ‚User-Datagram-Protocol‘ (UDP) werden die Sensordaten von der Sohle, über ein Smartphone, zu einem Computer weitergeleitet, um eine Gestenerkennung mit Machine-Learning umzusetzen. Über ein Datenfluss-System werden die empfangenen Werte der Sensoren aufbereitet und eine Feature-Extraktion durchgeführt, sodass diese für eine Klassifizierung von Fußgesten dienen. Basierend auf ‚Deeplearning4j‘ wird ein Algorithmus mit ‚Long Short-Term Memory‘ implementiert und zusammen mit dem Datenfluss-System als ‚Java‘-Bibliothek zur Verfügung gestellt. Zusätzlich werden Datensätze von Fußgesten einer Person erstellt und zum Training sowie zur Evaluierung der Gestenerkennung verwendet. In einer letzten Umfrage wird die implementierte Bibliothek in zwei Applikationen integriert. Zudem wird die Funktion des definierten ‚Gesten-Aktionen-Mapping‘ in drei Anwendungsszenarien analysiert. Die Forschungsergebnisse zeigen eine zuverlässige Klassifizierung der Fußgesten mit einer Genauigkeit von 82 %, wobei unter realen Bedingungen auch Werte zwischen 85 % und 100 % erreicht werden.
Zeros can cause many issues in data analysis and dealing with them requires specialized procedures. We differentiate between rounded zeros, structural zeros and missing values. Rounded zeros occur when the true value of a variable is hidden because of a detection limit in whatever mechanism was used to acquire the data. Structural zeros are values which are truly zero, often coming about due to a hidden mechanism separate from the one which generates values greater than 0. Missing values are values that are completely missing for unknown or known reasons. This thesis outlines various methods for dealing with different kinds of zeros in different contexts. Many of these methods are very specific in their ideal usecase. They are separated based on which kind of zero they are intended for and if they are better suited for compositional or for standard data.
For rounded zeros we impute the zeros with an estimated value below the detection limit. The author describes multiplicative replacement, a simple procedure that imputes values at a fixed fraction of the detection limit. As a more advanced technique, the author describes Kaplan Meier smoothing spline replacement, which interpolates a spline on a Kaplan Meier curve and uses the spline below the detection limit to impute values in a more natural distribution. Rounded zeros cannot be imputed with the same techniques that would be used for regular missing values, since there is more information available on the true value of a rounded zero than there would be for a regular missing value.
Structural zeros cannot be imputed since they are a true zero. Imputing them would falsify their values and produce a value where there should be none. Because of this, we apply modelling techniques that can work around structural zeros and incorporate them. For standard data, the zero inflated Poisson model is presented. This model utilizes a mixture of a logistic and a Poisson distribution to accurately model data with a large amount of structural zeros. While the Poisson distribution is only applicable to count data, the zero inflation concept can be applied to different kinds of distributions. For compositional data, the zero adjusted Dirichlet model is introduced. This model mixes Dirichlet distributions for every pattern of zeros found within the data. Non-algorithmic techniques to reduce the amount of structural zeros present are also shown. These techniques being amalgamation, which combines columns with structural zeros into more broad descriptors and classification, which changes columns into categorical values based on a structural zero being present or not.
Missing values are values that are completely missing for various known or unknown reasons. Different imputation techniques are introduced. For standard data, MissForest imputation is introduced, which utilizes a RandomForest regression to impute mixed type missing values. Another imputation technique shown utilizes both a genetic algorithm and a neural network to impute values based on the genetic algorithm minimizing the error of an autoencoder neural network. In the case of compositional data, knn imputation is presented, which utilizes the knn concept also found in knn clustering to impute the values based on the closest samples with a value available.
All of these methods are explained and demonstrated to give readers a guide to finding the suitable methods to use in different scenarios.
The thesis also provides a general guide on dealing with zeros in data, with decision flowcharts and more detailed descriptions for both compositional and standard data being presented. General tips on getting better results when zeros are involved are also given and explained. This general guide was then applied to a dataset to show it in action.
Nowadays, the area of customer management strives for omni-channel and state-of-the-art CRM concepts including Artificial Intelligence and the approach of Customer Experience. As a result, modern CRM solutions are essential tools for supporting customer processes in Marketing, Sales and Service. AI-driven CRM accelerates sales cycles, improves lead generation and qualification, and enables highly personalized marketing. The focus of this thesis is to present the basics of Customer Relationship Management, to show the latest Gartner insights about CRM and CX, and to demonstrate an AI Business Framework, which introduces AI use cases that are used as a basis for the expert interviews conducted in an international B2B company. AI will transform CX through a better understanding of customer behavior. The following research questions are answered in this thesis: In which AI use cases can Sales and CRM be improved? How can Customer Experience be improved with AI-driven CRM?
Companies develop and implement strategies with the aim to address the needs of their customers. Acquisition is one market expansion strategy that companies can use to acquire new market access, technologies and/or to grow organically. In recent years, Chinese companies have been active in acquiring companies all over the globe to develop their strategic position. This caused certain contra reaction in Europe and as well in the Swiss media against cross-border acquisitions of Swiss companies.
Swiss companies and particularly the Swiss-MEM (Machinery, Electrical and Mechanical) industry is highly export oriented and their value proposition builds on attributes like knowledge, technology, and differentiating products. Among them are many “hidden champions” and niche players who successfully dominate the market segment.
As observed with Chinese companies, Indian companies also started to become more active outside of their domestic markets by increasing their foreign direct investments into Europe, Asia and North America, over the last decades. The lasting and good relationship of India and Switzerland might trigger the wish for Indian companies to acquire Swiss and particularly Swiss-MEM companies for acquisitions.
This Master’s Thesis assesses how often Indian investments into public and privately owned Swiss-MEM companies by acquisition happen, how are the attempts of acquisitions perceived by the stakeholders and what measures Swiss and Swiss-MEM companies can take, to protect themselves from being acquired. To access the research topic, several sub-questions will be analysed with the aid of primary and secondary research to assess the situation.
The research topic is of particular interested to the author since he spent over 20 years working in the Swiss-MEM industry, involved in international affairs and in recent years specifically with India. The observation of Chinese acquisition activities and insight into the size and potential of India were the drivers for researching whether India might follow China’s example.
In conclusion, Indian companies are not explicitly targeting Swiss and Swiss-MEM companies, but there are reasons to believe that it would make sense for Indian companies to look into the acquisition of Swiss and Swiss-MEM companies. The perception of such acquisitions varies, but there are arguments for and against them. Companies must take strategic and organisational measures in order to prevent themselves from becoming the target of an acquisition. However, it is known that the state should not interfere in the market and a discussion at a political level, planning how to deal with cross-border acquisition, is needed.
Further areas for research based on this Master’s Thesis could be the review of how the targeting of Swiss and Swiss-MEM companies by Indian companies would look, and also the topic of the succession planning in Swiss secondary sector in conjunction with Indian targeting for acquisitions. A third area to research might be investigating the political aspects involved in the research questions.
In vielen Ländern gibt es eine stetige Verschiebung von Bargeld zu Kartenzahlung. Dieser Umstand könnte darauf hinweisen, dass Bargeld irgendwann verschwinden wird. Der Bargeldumlauf ist in den meisten Ländern, einschließlich Österreich, jedoch seit Jahrzehnten stabil oder stark gestiegen. Im Gegensatz dazu gilt Schweden als eine Vorreiternation auf dem Weg in die bargeldlose Gesellschaft. In der vorliegenden Masterthesis werden die Unterschiede zwischen Österreich und Schweden erläutert, indem die Zahlungsmärkte als auch das Potenzial der Länder aufgezeigt werden. Weiters werden die möglichen Einflüsse wie Bargeldversorgung, Technologie und Infrastruktur, Regulierungen und das unterschiedliche Zahlungsverhalten und die Mentalität der Konsumenten untersucht. Daraus werden dann Schlussfolgerungen gezogen, wohin sich die verschiedenen Zahlungsmärkte in Zukunft bewegen werden. Die Daten basieren auf Sekundärdaten, die aus Büchern, Zeitschriften, verschiedenen Forschungsarbeiten und Onlinequellen stammen. Egal, welchen Standpunkt Sie in Bezug auf die Zukunft des Bargeldes einnehmen, soll diese Masterthesis einen besseren Einblick über die Transformation unserer Volkswirtschaft und den Mechanismus von unbaren Zahlungen geben.
In dieser Arbeit werden verschiedene Augmented Reality Tools analysiert und getestet, um eine Brandmeldezentrale zu erkennen und auf dieser virtuelle Inhalte darzustellen. Die Erkennung der Zentrale wird mittels Bilderkennung und Objekterkennung von Vuforia, Wikitude und AR Foundation durchgeführt. Zusätzlich wird in dieser Arbeit eine AR Applikation implementiert, welche sowohl mit iOS und Android Geräten als auch für die Microsoft HoloLens 2 kompatibel ist. Die Anwendung soll zeigen, an welcher Stelle in der Brandmeldezentrale ein Fehler vorliegt und wie dieser behoben werden kann. Für die Fehlerbehandlung kommt eine “Schritt für Schritt Anleitung“ zum Einsatz, bei welcher Teile der Zentrale augmentiert hervorgehoben werden, wenn diese für die Behebung des Problems relevant sind. Es werden diverse Geräte bezüglich Interaktion und deren Stärken bzw. Schwächen evaluiert. Für die Analyse haben Testpersonen die Anwendung sowohl auf der HoloLens 2 als auch auf einem iPad Pro getestet. Die Ergebnisse zeigen, dass einige Personen Schwierigkeiten mit der Gestensteuerung auf der HoloLens 2 haben. Die Ausführung der Pinch Geste, welche durch das zusammendrücken von Daumen und Zeigefinger ausgeführt wird, wurde oft zu ungenau durchgeführt. Der Vergleich der beiden Geräte hat ergeben, dass Interaktionen auf dem iPad schneller ausgeführt werden können als auf der HoloLens. Außerdem wurde überprüft, wie sich unterschiedliche Lichtverhältnisse auf die Anwendung auswirken. Dabei stellte sich heraus, dass die Hologramme bei der HoloLens bei einer stark beleuchteten Umgebung nicht gut sichtbar sind. Die Objekterkennung der Brandmeldezentrale weist einige Fehler bei der Erkennung der Brandmeldezentrale auf. Diese sind darauf zurückzuführen, dass die Brandmeldezentrale für die verwendeten Augmented Reality Tools zu wenig Merkmale aufweist.
Ausgehandeltes Verständnis
(2020)
Entscheidungen über die optimierte organisatorische Wertschöpfung werden oft von mehreren Personen getroffen. Möchte die entscheidungsorientierte BWL anwendungsorientiert sein, legt sie den Fokus auf das Gewebe von aufeinander verweisenden (entscheidungsfördernden) Kommunikationen zu legen und auf der Erkenntnisfigur des Beobachters aufzubauen.
The boom of information technology development created high demand for skilled labour force in IT occupations. IT professionals install, test, build, repair or maintain hardware and software and can do the job from any location in the world.
Demand for the workforce significantly outstrips the global supply. In a situation of staff shortage employers have to compete on local and global labour markets. The ability of a firm to attract and retain the best talent would become a source of its sustainable competitive advantage.
Aim of the study is to understand what influences perception of employment attractiveness by IT professionals the most. This study intends to expend the existing knowledge about employees´ needs and “psychological contract” concept.
The research was conducted with the participation of 4 IT and 4 HR English-speaking experts who live and work in Austria. In the study the grounded theory approach and the descriptive qualitative methods were applied.
The research findings explain which factors influence the decision of IT professionals to join, stay or leave an employer. The results are discussed in relation to talent attraction and retention practices of Austrian employers.
Veränderungen im gesellschaftlichen Wertesystem, das Vordringen kommerzieller Privatwirtschaft in Bereiche, die über lange Zeit von Non-Profit-Organisationen abgedeckt worden sind, und die Finanzkrise der öffentlichen Haushalte gelten als große Ursachen für die vielfältige und kontroversielle Diskussion der Social Impact-Orientierung im deutschsprachigen Raum. Diese Arbeit konzentriert sich auf die Frage, wie sich Social Impact-Orientierung auf Instrumente der Unternehmenssteuerung auswirkt. Dazu wird ein Theorieüberblick über gesellschaftliche Wirkungsanalyse erarbeitet und ausgewählte Instrumente der Unternehmenssteuerung vorgestellt. Daraufhin werden fünf Hypothesen gebildet, die in einer Einzelfallstudie anhand eines jungen Sozialunternehmens in Österreich überprüft werden. In diesem Praxisteil ist ein Vergleich hinsichtlich der Impact-Orientierung im untersuchten Sozialunternehmen zu jener, die in der Literatur dargestellt wird, zentral. Weiters wird die Frage untersucht, wie die in der Literatur angegebenen Managementinstrumente für Wirkungsorientierung in diesem Unternehmen angewendet werden und zu welchen Ergebnissen diese führen. Schließlich wird erforscht, ob Wirkungsziele und passende Managementinstrumente einen Beitrag zur Lösung des angenommenen Zielkonfliktes zwischen gesellschaftlichen und ökonomischen Zielen beitragen können. Die Ergebnisse und Erkenntnisse der Einzelfallstudie werden abschließend im Gespräch mit einer übergeordneten Einrichtung einer ersten Verifikation unterzogen. Diese Arbeit kommt zum Schluss, dass Impact-Orientierung eine sehr langfristige Ausrichtung der Unternehmenssteuerung bedarf. Die Impact-Ziele und Indikatoren müssen sich in den gewählten Instrumenten wiederfinden. Nur dadurch ist sichergestellt, dass Unternehmenssteuerung und Impact-Orientierung stringent zusammenwirken. Bei aller Unsicherheit zum WIE der Umsetzung, hat die Impact-Orientierung zentrale Auswirkungen auf die Unternehmenssteuerung.
Auswirkungen der DSGVO auf das Vertriebscontrolling eines Software-as-a-Service Geschäftsmodells
(2020)
Diese Arbeit untersucht die Auswirkungen eines SaaS Geschäftsmodells auf das Vertriebscontrolling. Dazu werden mittels Literatur die Kennzahlen und Instrumente des klassischen Vertriebscontrollings besprochen. Ein SaaS Geschäftsmodell hat spezifische Charakteristika, Herausforderungen und Erfolgsfaktoren, welche im Anschluss eingeführt werden. Diese beeinflussen das Vertriebscontrolling eines SaaS Geschäftsmodells. Die DSGVO schränkt das Vertriebscontrolling dabei, in der Nutzung von personenbezogenen Daten, ein. Diese Arbeit zeigt, dass die Grundelemente des Vertriebscontrollings bestehen bleiben, jedoch andere Kennzahlen verwendet werden müssen. Zusätzlich kommen neue Aufgaben auf das Vertriebscontrolling zu. Abschließend werden Handlungsempfehlungen für das Vertriebscontrolling eines SaaS Geschäftsmodells entwickelt. Mittels einer systematischen Literaturrecherche werden diese Handlungsempfehlungen bestätigt.
Die morphologische Beurteilung menschlicher Embryos ist ein zeitaufwändiger Prozess in der assistierten Reproduktionsmedizin. Etwa fünf Tage entwickeln sich die Embryos bei einer IVF-Behandlung außerhalb des menschlichen Körpers, bevor Embryologinnen und Embryologen die Entscheidung über die zu transferierenden – also die für die Einleitung einer künstlich herbeigeführten Schwangerschaft zu verwendenden – Embryos anhand unterschiedlicher Bewertungskriterien treffen. Im Anschluss an eine Einführung in die Embryologie werden in dieser Arbeit mögliche Methoden zur automatisierten Embryoselektion besprochen, implementiert, miteinander verknüpft und abschließend evaluiert. Die Arbeit beschränkt sich mit dem EmbryoScope auf einen Zeitrafferinkubator, welcher in den IVF Zentren Prof. Zech in Bregenz in den letzten Jahren viele Millionen Bilder tausender befruchteter Eizellen und den daraus entstehenden Embryos aufgenommen hat. Dieses Gerät diente als Datenquelle zur Unterstützung bei der Entwicklung des Analysetools. Das entstandene Softwareprodukt wurde so programmiert, dass gegebenen Daten vorverarbeitet und unter Anwendung von Bildmanipulationsverfahren und komplexer neuronaler Netze analysiert werden können. Das Ergebnis ist eine Software zur Erkennung und Bewertung unterschiedlicher Parameter der Embryoentwicklung, um daraus Vorschläge für die Selektion der zu transferierenden Embryos generieren und übersichtlich präsentieren zu können.
Zur Evaluierung des Systems konnten drei Embryologinnen und Embryologen aus drei IVF Kliniken unterschiedlicher europäischer Länder gewonnen werden, um anhand einer eigens entwickelten Annotationssoftware Vergleichsdaten zu generieren. Als Endergebnis der Arbeit wurde die Einheitlichkeit dieser erhaltenen Annotationsdaten mit den errechneten Vorschläge anhand unterschiedlicher Kriterien berechnet. Die Transferierbarkeit eines einzelnen Embryos konnte im Vergleich zur Entscheidung des Laborpersonals in 73 % der Fälle korrekt erkannt werden. Bezogen auf eine gesamte IVF Behandlung konnte bei den tatsächlich zu transferierenden Embryos eine vollumfängliche Einheitlichkeit von 26 % mit den Embryologinnen und Embryologen erreicht werden. Embryos, welche von dem entstandenen Analysetool als transferierbar erkannt und unter Beachtung weiterer vorhandener Embryos für die weitere Behandlung vorgeschlagen wurden, sind in 63 % der Fälle für einen Transfer geeignet.
Das entstandene Vorschlagsystem ist als Proof of Concept zu verstehen, welches in späteren Arbeiten durch tiefgreifendere Analysen erweitert werden kann. Ein Einsatz des Systems ist aufgrund der geringen Analysesicherheit, sowie technischen und rechtlichen Einschränkungen zum Abschluss der vorliegenden Arbeit nicht vorgesehen.
Autonome Steuerung für das Demand Side Management von Wärmepumpenboilern mit linearer Optimierung
(2020)
Wärmepumpen, im Speziellen Wärmepumpenboiler, stellen mit ihrer thermischen Speicherkapazität eine gute Möglichkeit für autonome verbraucherseitige Laststeuerung (Autonomes Demand Side Management ADSM) dar. Zudem gewinnt diese Art der Brauchwarmwassererzeugung durch ihren dezentralen Ansatz und das Auskommen ohne fossile Energieträger im privaten Wohnbau immer mehr an Bedeutung. In Kombination mit staatlichen Fördergeldern ist die Anzahl verkaufter Einheiten in den letzten 5 Jahren am deutschen Markt um circa 25 % gestiegen. Obwohl das Lastverschiebungspotenzial von Wärmepumpenboilern unter Anwendung von Optimierungsalgorithmen in der Literatur theoretisch nachgewiesen ist, fehlen Verifikationen unter realen Bedingungen. Diese Arbeit will einerseits das theoretische Potential aufzeigen und andererseits mit dem vorgestellten Laborversuch einen Beitrag dazu liefern, die Verifikationslücke zu schließen. Für die Untersuchung im Labor wird ein handelsüblicher Wärmepumpenboiler bestehend aus einer Luft-Wärmepumpe und einem 300 Liter Warmwasserspeicher mit Sensoren und Aktoren ausgestattet. Insgesamt vier Temperatursensoren befinden sich am Speicherzulauf und -ablauf, sowie nahe der Speichermitte. Für die Aufzeichnung des Volumenstroms wird ein magnetisch-induktiver Messsensor am Speichereingang installiert. Zusätzlich wird mithilfe eines Proportionalventils am Speicherausgang das gewünschte Zapfprofil realisiert. Die Datenakquisition wird durch einen Datenlogger durchgeführt und die Optimierungsroutine auf dem PC implementiert. Die autonome Steuerung basiert auf einer von Day-Ahead-Marktpreisen der Energy Exchange Austria (EXAA) getriebenen linearen Optimierung mit dem Ziel, die Kosten der elektrischen Energie zu minimieren. Das Warmwasserverbrauchsprofil bildet den Verbrauch eines 4- Personen-Haushalts ab. Alle Mess- und Simulationsreihen basieren auf den gleichen Day-Ahead Preisfunktionen und Nutzerprofilen. Zur Verifikation des Lastverschiebungspotentials werden die Kosten pro MWh elektrischer Energie und die Kosten pro MWh thermischer Nutzenergie im Hysteresebetrieb (Normalbetrieb) denen des optimierten Betriebs gegenübergestellt. Durch eine Jahressimulation konnte das theoretische Potential nachgewiesen werden. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von rund 18 %. Die Kosten pro MWh thermischer Nutzenergie konnten durch die Optimierung um rund 19 % gesenkt werden. Die thermische Effizienz konnte somit um rund 1 % gesteigert werden. Der Wärmepumpenboiler wurde insgesamt zwei Wochen betrieben; eine Messreihe davon fand dabei im Normalbetrieb statt. In einer weiteren Messreihe wurde die Wärmepumpe mit der Optimierungsroutine betrieben. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von circa 23 %. Ebenso konnten die Kosten pro MWh thermischer Nutzenergie um 19 % gesenkt werden. Gleichzeitig sank die thermische Effizienz um 6 %.
Betriebliche Inklusion
(2020)
Rund 15% der österreichischen Bevölkerung haben eine dauerhafte Behinderung. In Vorarlberg allein leben ca. 5.000 Personen, welche nach dem Behinderteneinstellungsgesetz dem Kreis der begünstigt Behinderten angehörig sind, aber nur 51% dieser sind auch erwerbstätig, so der Stand 2018. Gleichzeitig gab es im Jahr 2018 in Vorarlberg 3.773 zu besetzende Pflichtstellen für begünstigt Behinderte Arbeitnehmende. Tatsächlich besetzt waren von diesen aber nur 52,64%. Es stellt sich somit die Frage, warum fast die Hälfte der zu besetzenden Pflichtstellen nicht besetzt ist, zumal das „Recht auf Arbeit“ als Menschenrecht in der UN-Menschenrechtskonvention verankert ist. Denn die Teilhabe am gesellschaftlichen und beruflichen Leben ist ein wichtiger Punkt für das Selbstwertgefühl eines jeden Menschen. Ziel dieser Masterarbeit ist daher aufzudecken, wie die betriebliche Inklusion in mittelständischen und großen Industrieunternehmen, sowie dem öffentlichen Sektor in Vorarlberg gehandhabt wird und welche Einflussfaktoren auf die Handhabung einwirken. Näher betrachtet werden diesbezüglich die Unterschiede in der Handhabung zwischen den privaten und den öffentlichen Einrichtungen sowie die internen und externen Faktoren, welche die Handhabung beeinflussen. Darüber hinaus soll in Erfahrung gebracht werden, welche Maßnahmen die Vorarlberger Unternehmen bereits ergreifen und wo Verbesserungsbedarf besteht. Um die Forschungsfrage zu beantworten wird im Anschluss an die Literaturrecherche ein Methodenmix aus qualitativen Experteninterviews und einer quantitativen Onlineumfrage eingesetzt. Die Ergebnisse aus den zwei Untersuchungen werden im weiteren Verlauf ausgewertet, kritisch reflektiert und in einem Fazit zusammengefasst. Betrachtet man die Forschungsfrage und die Ergebnisse der Untersuchung, so lässt sich zusammenfassen, das Vorarlberg bereits auf einem guten Stand der betrieblichen Inklusion ist. Die Entwicklung der letzten Jahre zeigt einen Paradigmenwandel, durch welchen sich das Bild vom „Armen Behinderten“ hin zur Selbstbestimmung und Chancengleichheit wandelt. Dieser ist noch nicht vollständig abgeschlossen, weswegen weiter in die Sensibilisierung und Aufklärung der Gesellschaft investiert werden muss, um Vorurteile und Unsicherheiten in Bezug auf Rechte und Pflichten abzubauen. Als externe Faktoren werden der rechtliche Rahmen, die Digitalisierung, sowie die Sichtbarkeit betrieblicher Inklusion und der Diversität von Behinderungen in der Gesellschaft genannt. Einfluss auf die Handhabung hat zudem die Vielfalt an Arten von Beeinträchtigungen, da die zu ergreifenden Maßnahmen auf diese abgestimmt werden müssen. Interne Faktoren stellen die Barrierefreiheit, sowie die persönlichen Haltungen und die Beweggründe der Unternehmer und ihren Mitarbeitenden dar. Abschließend lässt sich feststellen, dass betriebliche Inklusion dann gelingen kann, wenn jede Person unabhängig davon, ob sie eine Beeinträchtigung hat, oder nicht, als Individuum mit individuellen Stärken, Schwächen, Charakterzügen und Eigenschaften verstanden wird. Aufbauend auf diesem Menschenbild gilt es für jede Person auf Grund ihrer individuellen Eigenschaften die passende berufliche Tätigkeit zu finden.
Die vorliegende Arbeit setzt sich mit der Beziehungsgestaltung im Kontext Klinischer Sozialer Arbeit auseinander. Der Fokus liegt dabei auf den Aspekten Nähe Und Distanz, Verletzlichkeit und Macht. Theoretische Grundlage ist ein psychodynamisch-sozialtherapeutischer Zugang. Als Grundlage für die durchgeführte Forschung dient das Tiefeninterview, dessen Ergebnisse anhand der Grounded Theory ausgewertet und interpretiert wurden. Als Resultat zeigt sich die Auswirkung der genannten Aspekte auf die Gestaltung der Helfenden Beziehung und die Wirksamkeit sozialarbeiterischer Intervention. Zudem hat sich das Setting als eine wesentliche Bedingung für die Beziehungsgestaltung herauskristallisiert. Bestätigt haben sich schließlich auch die aufgrund der theoretischen Bearbeitung aus psychoanalytischer/psychodynamischer Perspektive vermuteten Einflüsse von Übertragung und Gegenübertragung, die im Tiefeninterview deutlich zutage getreten sind.
Bilder als Affektgeneratoren
(2020)
Shaolin Wu Fo Dao – die Synthese japanischer und chinesischer Kampfkunst-Lehre auf der Grundlage zen-buddhistischer Theorie und Praxis ist eine neu geschaffene Disziplin. In dieser Fusion verbinden sich wesentliche Elemente aus Budo und Shaolin (-Wudao), deren traditionellen Körper-Geist-Übungen von Kampftechnik (Bu/Wu) und Meditation (Zen/Chan) als originäre Weg- und Heilslehre (Do/Dao) seit jeher der Persönlichkeits- und spirituellen Entwicklung des Ausübenden dienten.
Hier nun, in der Überwindung alter Grenzen zwischen japanischer und chinesischer Kampfkunstsysteme („hart“ und „weich“), wurde hier nun erstmaligen ein zusammengewachsenes Kampfkunstsystem kreiert, um die beidseits positiven Wirkungen auf den Menschen zu bündeln und – und das ist das Besondere – sie in den Dienst buddhistischer (Butsu, jap.: Buddha / chin. Fo) Psychologie und Psychotherapie zu stellen.
Die Verbindung von Budo mit Shaolin als eigenständiges praktisches Lehrkonzept, allein schon eine „revolutionäre Innovation“, erfährt durch ihren Einsatz als spezielle Methode einer Heilkunst zusätzlich Pioniercharakter in der Behandlung von Leid. Gemeint sind sowohl Ansätze aus der Budopädagogik und speziellen Budotherapie zur Heilung, Linderung oder Prävention von physischen, psychosomatischen und psychischen Krisen, Störungen, Krankheiten, Behinderungen und Leiden, als auch im Sinne des philosophischen und wissenschaftlichen Buddhismus, „das Leid in der Welt zu mindern“, zum Wohle des Menschen, für sein Glück und Frieden zu arbeiten.
Budo als Oberbegriff für die traditionellen Kampfkünste, eigentlich namentlich Japans, aber hier im weiteren Sinne alle Kampf- und Bewegungskünste Asiens, die sich als Weg und nicht Sport begreifen, ist in den letzten Jahren vermehrt Gegenstand der öffentlichen Diskussion. Jüngere Veröffentlichungen zum Thema nehmen das historisch, philosophisch, psychologisch und pädagogisch Besondere und sich vom modernen Kampfsport gänzlich Unterscheidende in den Blick, ohne dass allerdings weiterhin begrifflich und inhaltlich falsche Vorstellungen durch die absurde Vereinnahmung der allein dem Budo zugeschrieben Wesenszüge und Wirkweisen in sog. "Budo-Sport"-Verbänden immer mehr verbreiten. Gerade so, als könne man dem modernen Kampfsport durch den Zusatz "Budo" (der suggerieren soll, man beziehe sich auf dessen Wesentliche, "Geistige") etwa einen ehrwürdig-traditionellen Charakter verleihen und den Wettkampfsport bereichern, gar ethisch aufwerten.
Insofern bedarf es immer noch oder immer mehr der Aufklärung darüber, was denn das eigentliche Wesen und Wirken von Budo überhaupt ausmacht, um dem Ganzen gerecht zu werden. Dabei soll sich dieses Buch nun weniger auf die historische, seit der Edo-Periode (1600-1868) vor allem vom Zen-Buddhismus (neben Konfuzianismus und Taoismus sowie Shaolin) geprägte Entwicklung von Budo aus den alten Kriegskünsten (Bugei und Bujutsu) eingehen, als auf das nunmehr auch heute noch Wesentliche und "Spezielle".
Budo als spirituelle wie praktisch-philosophische Weg-Lehre und dadurch Kampf-"Kunst" kann, recht verstanden, ein einzigartiger Schatz in der Theorie und Praxis des Studiums von "Kampf" und "Kämpfen-Können" sowie des Selbst sein, und am Ende auch des eigenen Lebens. Budo wirkt!
Es ist ein auf Bewegung, Begegnung und Besinnung angelegtes bewährtes ganzheitliches Instrument der Selbsterziehung, Charakterschulung und Persönlichkeitsentwicklung und als originärer Weg ("Do") zum "Friedvollen Krieger" eine konkrete Anleitung zu körperlicher, seelischer, geistiger, d.h. psycho-physischer wie psycho-emotionaler Selbstbeherrschung, die auf der Grundlage von stetig geübter Achtsamkeit und Wertschätzung in der Meisterschaft zu Einsicht und Gewaltverzicht führt. In diesem Buch wird das Thema Budo, sein Wesen und Wirken, aus Erfahrung und wissenschaftlicher Erkenntnis heraus analysiert, um ein ebenso weitergehendes wie tieferes Verständnis von der Sache zu fördern.
Die Autoren (Vorstellung im entsprechenden Kapitel hinten), allesamt!
Business Analytics zählt zu den Zukunftsthemen im Controlling. In der Controllinglehre spielt Analytics bisher aber nur eine untergeordnete Rolle. Der Beitrag beschreibt ein innovatives Lehrprojekt, das Studierende im Masterstudium Accounting, Controlling & Finance an der FH Vorarlberg befähigt, controllingrelevante Fragestellungen im Kontext von Business Analytics eigenständig zu beantworten. Gleichzeitig erlernen die Studierenden den Umgang mit der Open-Source-Software R.
Die Digitalisierung verändert Geschäftsmodelle und betriebliche Prozesse. Zugleich beeinflussen auch eine verbesserte Datenverfügbarkeit und leistungsfähige analytische Methoden das Controlling und erfordern vermehrt das Einbringen statistischer und informationstechnologischer Fertigkeiten und Kenntnisse. An einem Fallbeispiel aus dem Marketing-Controlling zeigt der Beitrag den Einsatz von Methoden der Business Analytics und thematisiert die Aufgaben des Controllings im digitalen Zeitalter.
In recent years, much research has been done on medical laser applications inside the human body, as they are minimally invasive and therefore have fewer side effects and are less expensive than conventional therapies. In order to bring the laser light into the human body, a glass fibre with a diffuser is needed. The goal of this master thesis is the characterization and production of fibre optic diffusers that can be used for the three therapeutic applications: photodynamic therapy, laser-induced thermotherapy and endovenous laser therapy. For this purpose the following goals have to be achieved:
- Optimization of the efficiency and homogeneity of internally structured diffusers
- Examine damage thresholds of the diffusers in the tissue using a crash test
- Achieving a better understanding of the decouple mechanism with a simulation
Using an ultra-short pulse laser, modifications could be introduced into the fibre in this way that the radiation profile is homogeneous and the decoupling efficiency is 68.3 %. It was discovered that the radiation profile depends on the wavelength. Attempts have been made to improve the decoupling efficiency by mirroring the distal end of the fibre. The mirror reflects the remaining light back into the fibre, so that it is also decoupled lateral on the modifications. Vapor-deposited aluminum with physical vapor deposition is a promising approach. However, the adhesion of the coating must be improved or the coating must be protected by a mechanical cover, otherwise it will flake off too quickly.
In a crash test, it was shown that the glass fibre diffusers can withstand 20 W laser power for 300 s without visible change. In an ex vivo test, the coagulation zone in the tissue was examined and it was showed that the diffusers radiate radially homogeneously. Using a ray trace simulation, the course of the light rays in the fibre was examined and the correlation of modification width and length with the decoupling efficiency was investigated. It was discovered that there are helical light rays in the fibre, which cannot be decoupled by modifications in the fibre centre.
Die Checkliste „Pflegedokumentation“ basiert auf einer Literaturrecherche. Verschiedene Artikel bildeten die Grundlage für die Kriterien der Checkliste „Defäkation in der Pflegedokumentation“. Anhand dieser Checkliste wird untersucht, ob die genannten Items in der Pflegedokumentation enthalten sind und wenn ja, ob diese dann auch tatsächlich ausgefüllt und welche begründeten Rückschlüsse daraus gezogen werden und wie die Umsetzung überprüft wird und Maßnahmen ggfs angepasst werden. Z.B. Möglichkeiten der Erprobung bestimmter Interventionen gut dokumentieren.
Die Checkliste „Sanitäre Einrichtung“ (Toilette, Badezimmer) basiert auf einer aktuellen Literaturstudie. Anhand verschiedener Fachtermen wurden in unterschiedlichen Datenbanken nach relevanten Artikeln gesucht, diese in Bezug auf die Fragestellung „Kriterien, die eine sanitäre Einrichtung (Toilette / Badezimmer) für Menschen in einer stationären Altenpflegeeinrichtung erfüllen muss“ analysiert und die entsprechenden geforderten Kriterien in die Checkliste aufgenommen.
Gas hydrates are usually synthesized by bringing together a pressurized gas and liquid or solid water. In both cases, the transport of gas or water to the hydrate growth site is hindered once an initial film of hydrate has grown at the water–gas interface. A seemingly forgotten gas-phase technique overcomes this problem by slowly depositing water vapor on a cold surface in the presence of the pressurized guest gas. Despite being used for the synthesis of low-formation-pressure hydrates, it has not yet been tested for hydrates of CO 2 and CH 4 . Moreover, the potential of the technique for the study of hydrate decomposition has not been recognized yet. We employ two advanced implementations of the condensation technique to form hydrates of CO 2 and CH 4 and demonstrate the applicability of the process for the study of hydrate decomposition and the phenomenon of self-preservation. Our results show that CO 2 and CH 4 hydrate samples deposited on graphite at 261–265 K are almost pure hydrates with an ice fraction of less than 8%. Rapid depressurization experiments with thin deposits (approx. 330 mm thickness) of CO 2 hydrate on an aluminum surface at 265 K yield identical dissociation curves when the deposition is done at identical pressure. However, hydrates deposited at 1 MPa almost completely withstand decomposition after rapid depressurization to 0.1 MPa, while samples deposited at 2 MPa decompose 7 times faster. Therefore, this synthesis technique is not only applicable for the study of hydrate decomposition but can also be used for the controlled deposition of a super-preserved hydrate.
Complementarities and synergies of quadruple helix innovation design in smart city development
(2020)
Increased urbanization trends are stimulating regional needs to support transitions from urban environments to smart cities, using its holistic perspective as a source to innovation. Strong relations between smart cities, urban and regional development, are getting increased attention both at policy and implementation level, providing fertile ground for execution of the new European policy frameworks that supports quadruple helix approaches to innovation. Smart specialization strategies (RIS3) encompass such initiatives, placing ICT and collaboration between academia, industry, government, and citizen at the center of urban innovation. However, there is still lack of research on effects of such approaches to innovation, involving both quadruple helix clusters and ICT in utilizing innovation potentials for developing smart cities. This study aims to increase the understanding on how quadruple helix urban innovation strengthens competitiveness of regions by improving its local smart areas – RIS3. We identified smart specialization patterns and applied comparative benchmark between nine smallmedium sized urban regions in Central Europe. Building on these results, the study provides an overview of the effects of RIS3 strategies implemented through quadruple helix innovation clusters on competitiveness of regions and Smart City development.
This master thesis investigates a Computational Intelligence-based method for solving PDEs. The proposed strategy formulates the residual of a PDE as a fitness function. The solution is approximated by a finite sum of Gauss kernels. An appropriate optimisation technique, in this case JADE, is deployed that searches for the best fitting parameters for these kernels. This field is fairly young, a comprehensive literature research reveals several past papers that investigate similar techniques.
To evaluate the performance of the solver, a comprehensive testbed is defined. It consists of 11 different Poisson equations. The solving time, the memory consumption and the approximation quality are compared to the state of the art open-source Finite Element solver NGSolve. The first experiment tests a serial JADE. The results are not as good as comparable work in the literature. Further, a strange behaviour is observed, where the fitness and the quality do not match. The second experiment implements a parallel JADE, which allows to make use of parallel hardware. This significantly speeds up the solving time. The third experiment implements a parallel JADE with adaptive kernels. It starts with one kernel and introduce more kernels along the solving process. A significant improvement is observed on one PDE, that is purposely built to be solvable. On all other testbed PDEs the quality-difference is not conclusive. The last experiment investigates the discrepancy between the fitness and the quality. Therefore, a new kernel is defined. This kernel inherits all features of the Gauss kernel and extends it with a sine function. As a result, the observed inconsistency between fitness and quality is mitigated.
The thesis closes with a proposal for further investigations. The concepts here should be reconsidered by using better performing optimisation algorithms from the literature, like CMA-ES. Beyond that, an adaptive scheme for the collocation points could be tested. Finally, the fitness function should be further examined.
Many test drives are carried out in the automotive environment. During these test drives many signals are recorded. The task of the test engineers is to find certain patterns (e.g. an emergency stop) in these long time series. Finding these interesting patterns is currently done with rule based processing. This procedure is very time consuming and requires a test engineer with expertise. In this thesis it is examined if the emerging field of machine learning can be used to support the engineers in this task. Active Learning, a subarea of machine learning, is used to train a classifier during the labeling process. Thereby it proposes similar windows to the already labeled ones. This saves the annotator time for searching or formulating rules for the problem. A data generator is worked out to replace the missing labeled data for tests. The custom performance measure “proportion of seen samples” is developed to make the success measurable. A modular software architecture is designed. With that, several combinations of Time Series Classification algorithms and query strategies are compared on artificial data. The results are verified on real datasets, which are open source available. The best performing, but computational intensive solution is an adapted RandOm Convolutional KErnel Transform (ROCKET). The custom query strategy “certainty sampling” shows the best results for highly imbalanced datasets.
Cultural Due Diligence
(2020)
Much research has been conducted in recent years to discover the reasons for the high failure rate of M&As, whereas one frequently cited reason is the incompatibility of the corporate cultures. In order to minimize this risk and to be able to react to these differences already at an early stage, Cultural Due Diligence offers itself as part of the due diligence process. Unlike existing, more general research, I emphasize the cultural challenges companies face when investing transnationally with this thesis. Using the results of a single case study with inductive character, I answer the question how to conduct Cultural Due Diligence in cross-border M&As and propose an appropriate model. The findings reveal that especially in cross-border M&As, cultural incompatibility poses a risk for failure. I was able to find out that companies that seek to grow internationally with M&As deal with similar issues in terms of corporate culture as pointed out in existing Cultural Due Diligence methods. The present study, however, shows that national culture has a great influence on corporate culture, which is why it is essential to include it in the cultural assessment in cross-border acquisitions. This provides information about why there are differences, besides the fact that they exist. Only this understanding puts a company in the appropriate starting position to recognize differences, understand them, assess whether these differ-ences are acceptable, as well as to develop appropriate strategies to address them in the integration phase.
Daten werden heute oft auch als das «neue Gold» bezeichnet. Denn die letzten Jahre haben gezeigt, dass Daten die Grundlage erstaunlicher unter- nehmerischer Erfolgsgeschichten sein können. Dabei ist die Arbeit mit Daten nicht grundlegend neu. Vielmehr geht es heute im Vergleich zu früher um nahezu unendlich grossen Mengen an Daten, die im Rahmen nahezu aller denkbaren Prozesse oder Schnittstellen gesammelt, gespeichert und ausgewertet werden können. Unter anderem beinhaltet dies Maschinendaten, unternehmens- interne Prozesse oder Daten über Kunden und den Markt, welche die Grundlage für lernende Systeme (Künstliche Intelligenz) bilden. Wir können heute davon ausgehen, dass künftig nicht mehr die technische Machbarkeit, sondern die mensch- liche Vorstellungskraft die Grenzen des Möglichen definiert.
Bekannt sind vor allem etliche Erfolgsgeschichten von Grossunternehmen, die ihr Geschäft auf Daten aufbauen. Etablierte KMU sind hingegen noch zögerlicher, mit Daten zu arbeiten und diese wertschöpfend einzusetzen. Diese Broschüre geht auf die besondere Situation von KMU im Umgang mit Daten und Data Science ein. Denn auch für KMU kann es lohnend oder sogar zwingend notwendig sein, sich mit dem Thema «Data Science» zu beschäftigen. Daten und Data Science bieten grosse
Chancen, sie können aber auch zu einer Bedrohung im Wettbewerb werden. Und, zu lange warten sollten KMU nicht, die Zeit drängt. Denn Geschwindigkeit ist einer der zentralen Wettbewerbsfaktoren im digitalen Zeitalter. Das IBH-Lab KMUdigital unter- stützt KMU dabei, den herausfordernden Weg in eine digitale Zukunft schneller und einfacher zu gehen.
Diese Broschüre geht daher insbesondere auf die Rolle von Daten und Data Science für KMU in der Bodenseeregion ein. Sie stellt eine Zusammen- fassung ausgewählter Erkenntnisse und Handlungs- empfehlungen dar, die wir in einem zweijährigen Forschungsprojekt gemeinsam mit 16 Unternehmen aus der Bodenseeregion gewinnen konnten. Die Erkenntnisse sollen KMU bei der Nutzung von Daten anhand von Data Science unterstützen. Dabei ist es kein Ziel, dass KMU zu einem «kleinen Google» werden. Vielmehr braucht es KMU- spezifische Lösungen und Überlegungen, wie mit Daten sinnvoll, zielorientiert und ressourcen- schonend umgegangen werden kann. Wie kann das aussehen? Welche Chancen, Herausforderungen und Lösungen bieten sich KMU vor dem Hinter- grund ihrer besonderen Situation? Was muss dazu im Unternehmen verändert werden? Welche Unterschiede bestehen im Vergleich zu Gross- unternehmen auf diesem Weg?
Diese und weitere Fragen stehen im Mittelpunkt des vorliegenden Projektberichts zum Einzelprojekt «Data Science für KMU leicht gemacht» oder kurz «Data Science 4 KMU» bzw. «Data4KMU», welches unter dem Dach des IBH-Labs KMUdigital in den Jahren 2018 bis 2019 durchgeführt wurde. Dazu werden Daten und Data Science aus mehreren Perspektiven betrachtet, die nicht unabhängig voneinander sind: Strategie und Geschäftsmodell, Services und Prozesse, Leadership, HRM und
Organisation, Organisationskultur und Ganzheitichkeit, sowie Technologie. Diese Perspektiven greifen wir in den nachfolgenden Kapiteln auf.
Die vorliegende Broschüre wäre ohne die wertvolle Unterstützung der Praxispartner des Projektes, des Managements des IBH-Labs KMUdigital sowie ohne die finanzielle Projektförderung durch die Inter- nationale Bodenseehochschule (IBH) und Interreg nicht möglich gewesen. Ihnen allen gilt unser ganz besonderer Dank!