Refine
Year of publication
Document Type
- Article (368)
- Conference Proceeding (341)
- Master's Thesis (225)
- Part of a Book (220)
- Book (99)
- Report (21)
- Other (14)
- Doctoral Thesis (12)
- Working Paper (7)
- Periodical (3)
Institute
- Wirtschaft (311)
- Forschungszentrum Mikrotechnik (208)
- Department of Computer Science (Ende 2021 aufgelöst) (164)
- Forschungszentrum Business Informatics (139)
- Soziales und Gesundheit (118)
- Forschungsgruppe Empirische Sozialwissenschaften (102)
- Forschungszentrum Nutzerzentrierte Technologien (90)
- Didaktik (75)
- Forschungszentrum Energie (70)
- Gestaltung (32)
Language
- German (662)
- English (646)
- Multiple languages (6)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Laser ablation (11)
- Y-branch splitter (10)
- +KDC 122 (9)
- Design : Theorie, Reflexion (9)
- Soziale Arbeit (8)
- Digitalisierung (7)
- Entscheidung (7)
In recent years, much research has been done on medical laser applications inside the human body, as they are minimally invasive and therefore have fewer side effects and are less expensive than conventional therapies. In order to bring the laser light into the human body, a glass fibre with a diffuser is needed. The goal of this master thesis is the characterization and production of fibre optic diffusers that can be used for the three therapeutic applications: photodynamic therapy, laser-induced thermotherapy and endovenous laser therapy. For this purpose the following goals have to be achieved:
- Optimization of the efficiency and homogeneity of internally structured diffusers
- Examine damage thresholds of the diffusers in the tissue using a crash test
- Achieving a better understanding of the decouple mechanism with a simulation
Using an ultra-short pulse laser, modifications could be introduced into the fibre in this way that the radiation profile is homogeneous and the decoupling efficiency is 68.3 %. It was discovered that the radiation profile depends on the wavelength. Attempts have been made to improve the decoupling efficiency by mirroring the distal end of the fibre. The mirror reflects the remaining light back into the fibre, so that it is also decoupled lateral on the modifications. Vapor-deposited aluminum with physical vapor deposition is a promising approach. However, the adhesion of the coating must be improved or the coating must be protected by a mechanical cover, otherwise it will flake off too quickly.
In a crash test, it was shown that the glass fibre diffusers can withstand 20 W laser power for 300 s without visible change. In an ex vivo test, the coagulation zone in the tissue was examined and it was showed that the diffusers radiate radially homogeneously. Using a ray trace simulation, the course of the light rays in the fibre was examined and the correlation of modification width and length with the decoupling efficiency was investigated. It was discovered that there are helical light rays in the fibre, which cannot be decoupled by modifications in the fibre centre.
Die vorliegende Masterarbeit enthält neue Erkenntnisse in Bezug auf die Frage, ob die Änderung einer Analystenempfehlung für Aktien neue Informationen enthält und ein Anleger eine abnormale Rendite erzielen kann. Darüber hinaus wird untersucht, ob in Phasen des konjunkturellen Abschwungs eine höhere abnormale Rendite im Vergleich zu einem konjunkturellen Aufschwung ausgewiesen wird. Die Ergebnisse zeigen, dass Aktienkurse signifikant positiv auf Kaufempfehlungen und signifikant negativ auf Verkaufsempfehlungen reagieren. Zusätzlich wird belegt, dass eine höhere und zeitlich längere Reaktion auf eine Verkaufsempfehlung gegenüber einer Kaufempfehlung stattfindet. Es wird außerdem festgestellt, dass auch bei isolierter Betrachtung der Konjunkturzyklen (Aufschwung und Abschwung) eine abnormale Rendite erzielt wird. Zudem verzeichnen negative Veränderungen der Analystenempfehlungen eine höhere abnormale Rendite als jene bei positiven Veränderungen.
Diese Arbeit resultiert in einem Leitfaden, der zur verbesserten Wirksamkeit von Lernmaßnahmen in Organisationen beitragen soll. Inbesondere die Verkürzung der Halbwertszeit von Wissen gab Anlass zur vorliegenden Untersuchung. In den Kapiteln zwei und drei wurde das theoretische Fundament durch Bearbeitung der Themen Personal-/Kompetenzentwicklung, allgemeine und individuelle Lerntheorie, sowie Lernbedarfsanalyse, Lerntransfer und Lernevaluation gebildet. Darauf aufbauend wurde mit der Methodik (Kapitel 4) der Experteninterviews der aktuelle Stand definierter Organisationen im Raum Ostschweiz, Westösterreich und Liechtenstein hinsichtlich Lernbedarfsanalyse, Lerntransfer und Lernevaluation erhoben. Diese Ergebnisse wurden in Kapitel 5 mit der Literaturstudie aus Kapitel 2 und 3 verglichen. Der Leitfaden besteht für Lernbedarfsanalyse, Lerntransfer und Lernevaluation aus unterschiedlichen Schritten, die in Tabellenformat dargestellt und beschrieben sind (Kapitel 6). In Kapitel 7 wurden, neben einer Zusammenfassung und einem Fazit, weiterführende Forschungsansätze zur Thematik angeführt.
A novel calorimetric technique for the analysis of gas-releasing endothermic dissociation reactions
(2020)
Real-time measurements of the differences in inhaled and exhaled, unlabeled and fully deuterated acetone concentration levels, at rest and during exercise, have been conducted using proton transfer reaction mass spectrometry. A novel approach to continuously differentiate between the inhaled and exhaled breath acetone concentration signals is used. This leads to unprecedented fine grained data of inhaled and exhaled concentrations. The experimental results obtained are compared with those predicted using a simple three compartment model that theoretically describes the influence of inhaled concentrations on exhaled breath concentrations for volatile organic compounds with high blood:air partition coefficients, and hence is appropriate for acetone. An agreement between the predicted and observed concentrations is obtained. Our results highlight that the influence of the upper airways cannot be neglected for volatiles with high blood:air partition coefficients, i.e. highly water soluble volatiles.
X-ray micro tomography of three-dimensional embroidered current collectors for lithium-ion batteries
(2016)
Greater specific energy densities in lithium-ion batteries can be achieved by using three-dimensional (3D) porous current collectors, which allow for greater areal mass loadings of the electroactive material. In this paper, we present the use of embroidered current collectors for the preparation of thick, pouch-type Li-ion batteries. Experiments were performed on LiFePO 4 (LFP) water-based slurries using styrene-butadiene rubber (SBR) as binder and sodium carboxymethyl cellulose (CMC) as thickener, and formulations of different rheological characteristics were investigated. The electrochemical performance (cyclic voltammetry, rate capability) and morphological characteristics of the LFP half-pouch cells (X-ray micro computed tomography and scanning electron microscopy) were compared between the formulations. An optimum electrode formulation was identified, and a mechanism is proposed to explain differences between the formulations. With the optimum electrode formulation, 350 µm casted electrodes with high mechanical stability were achieved. Electrodes exhibited 4–6 times greater areal mass loadings (4–6 mAh cm −2 ) and 50% greater electroactive material weight than with foils. In tests of half- and full-pouch embroidered cells, a 50% capacity utilization at 1C-rate and 11% at 2C-rate were observed, with a full recovery at C/5-rate. The cycling stability was also maintained over 55 cycles.
net culture lab Katalog
(2010)
Das Ziel der Masterarbeit war die Untersuchung der Umsetzung von flexiblen Arbeitszeitmodellen in Vorarlberger Unternehmen aus der Industriebranche sowie die Untersuchung der Arbeitnehmerpräferenzen von flexiblen Arbeitszeitmodellen. Dazu wurden zwölf HR-Expert/innen in Experteninterviews und zusätzlich über 200 Arbeitnehmende mittels Online-Fragebogen befragt. Die Gegenüberstellung der Ergebnisse zeigen die Diskrepanz zwischen Arbeitszeitmodellen, welche in der Praxis umgesetzt werden, und Arbeitszeitmodellen, welche sich Arbeitnehmende wünschen bzw. bevorzugen. Hauptsächlich wird die Gleitzeit mit Kernzeit umgesetzt. Die komprimierte Vier-Tage-Woche, Vertrauensarbeitszeit, und die Abschaffung der Kernzeiten werden nicht oder selten umgesetzt. Während Unternehmen teilweise Unterschiede in den Präferenzen zwischen Frauen und Männer sowie Jung und Alt beobachten, können die Ergebnisse des Online-Fragebogens diese Aussagen nicht bestätigen. Die Zufriedenheit der Arbeitnehmenden ist hoch. Es bestehen Diskrepanzen zwischen präferierten und umgesetzten Arbeitszeitmodellen.
In der vorliegenden Masterarbeit wird das Verbesserungspotential von Gebäudeleitsystemen am Beispiel der Errichtergemeinschaft Frühlingstraße untersucht. Der Fokus bei der Analyse liegt auf der Ermittlung von Verbesserungen im Bereich der Regel- und Steuerstrategien. Beim Referenzobjekt handelt es sich um sieben Einfamilienhäuser, die durch einen zentralen Pelletkessel mit Wärmeenergie versorgt werden, welche über das miteinander verbundene Kellergeschoss verteilt wird.
Im Kapitel Stand der Technik werden die Gebäudeleitsysteme von Mehrfamilien-Wohnanlagen in den 2000er Jahren und in den 2020er Jahren mit dem ausgeführten Gebäudeleitsystem des Referenzobjektes der Errichtergemeinschaft Frühlingstraße, bei dem es sich ebenfalls um eine Mehrfamilien-Wohnanlage handelt, miteinander verglichen. Nach dem Kapitel Forschungsstand wird die verwendete Methode kurz umrissen. Ein wichtiger Schritt zur fertigen Simulation ist das Verstehen der bestehenden Steuer- und Regelstrategien. Dabei wird sehr genau auf die Regelung der Häuser und des Pelletkessels eingegangen. Ebenfalls werden die zu simulierenden Komponenten, die zur Verfügung gestellten Messdaten und die verwendete Simulationssoftware Polysun beschrieben. Bei der Simulation des Referenzobjektes wird speziell auf die verwendeten Komponenten, aber auch auf die umgesetzten Regel- und Steuerstrategien eingegangen. Die Beschreibung der einzelnen Varianten beschränkt sich auf den Unterschied zur Simulation des Referenzobjektes.
Die einzelnen Varianten unterscheiden sich im Bereich des solaren Deckungsanteils nur sehr geringfügig. Die solare Ausbeute in den Monaten Mai bis August ist bei den Varianten 3 und 4 jedoch deutlich höher als bei den anderen Varianten. Ein deutlicher Unterschied ist auch im Bereich des Pellet-Verbrauchs auszumachen. Bei der Variante 4 werden im Vergleich zum Referenzobjekt jährlich gut 800 kg Pellets eingespart. Dies bedeutet eine Reduktion des CO2-Ausstoßes um 167,8 kg. Dieser Trend der Reduktion kann auch bei den Betriebsdauern des Pelletkessels fortgesetzt werden. Der größte Unterschied der einzelnen Varianten ist bei den Anforderungen des Pelletkessels auszumachen. Somit wird der Pelletkessel bei der Variante 2 14536-mal angefordert und bei der Variante 4 lediglich 3353-mal.
Diese Verbesserungen können durch kleine Anpassungen der Regel- und Steuerstrategien erzielt werden. Gerade weil die Low-Tech Gebäude des Referenzobjekts sehr energieeffizient umgesetzt und nicht mit technischer Ausstattung überladen wurden, können die ermittelten Verbesserungspotentiale bei anderen Gebäuden umgesetzt werden. Bei Gebäuden, die nicht als Low-Tech Gebäude errichtet wurden, ist durch die Anpassung des Gebäudeleitsystems ein größeres Verbesserungspotential zu erwarten.
Der technologische Wandel, der in den letzten Jahren stattgefunden hat, führte zu einer neuen industriellen Revolution. Die vierte industrielle Revolution baut auf cyber-physischen Systemen auf, die mechanische Komponenten durch die Internetkommunikation miteinander vernetzt und dadurch die Steuerung von komplexen Systemen, wie Fertigungsanlagen, ermöglicht. Dies hat zu einem Fortschritt in der Industrie geführt und den Möglichkeiten in der Produktion.
Dem gegenüber steht der altbewährte Lean Production Ansatz, der bereits seit 1970 in den produzierenden Unternehmen dieser Welt, ein fester Bestandteil ist. Darin enthalten sind Methoden, die zum Beispiel zur Verschwendungsminimierung, Prozessverschlankung sowie Produktionssteuerung beitragen.
Obwohl die beiden Produktionsphilosophien auf den ersten Blick nicht in Korrelation zueinanderstehen, sind sie in der realen Produktionswelt kaum voneinander trennbar. Sie queren sich nicht nur in ihren Prinzipien und Leitgedanken, sondern auch in den Methoden selbst. Dabei können sie in vielen Punkten als ergänzend angesehen werden und teilweise auch als aufeinander aufbauend.
Der Hauptteil der vorliegenden Arbeit beschäftigt sich damit, inwiefern Industrie 4.0 einen Einfluss auf die altbewährten Lean Methoden hat und wie diese zwei Themen im Verhältnis zueinanderstehen. Dabei werden die Grundprinzipien, die hinter diesen beiden Begriffen stehen erläutert und zueinander in Relation gestellt. Ebenfalls findet ein direkter Methodenvergleich statt, bei dem ausgewählte Lean Methoden mit Industrie 4.0 verglichen werden. In den Kapiteln werden nicht nur die Gemeinsamkeiten behandelt, sondern natürlich auch die Gegensätze, die diese zwei Prinzipien innehaben. Im anschließenden Kapitel wird weiters definiert, ob Lean Management die Voraussetzung für Investitionen in Industrie 4.0 darstellt, oder ob Industrie 4.0 diverse Lean Methoden sogar obsolet macht.
Den Abschluss der Arbeit bildet eine Analyse des neuen Begriffes Lean 4.0, der bereits in diversen Publikationen vorgestellt wurde. Ebenfalls werden noch drei Modelle vorgestellt, die einen Leitfaden für die Einführung von Industrie 4.0 darstellen und eine eindeutige Stellungnahme dazu nehmen, ob Lean die Voraussetzung für eine erfolgreiche Einführung von Industrie 4.0 im Unternehmen ist.
Leadership, leader-follower relationship, and
subordinates’ behaviors during the Covid-19
pandemic
(2021)
The present research had compared how Uppsala and Bartlett & Ghoshal (B&G) models explain the internationalization process of the Brazilian pulp producer Fibria.
The Uppsala model describes the developments of capabilities that enable the firm to move towards higher commitments abroad. Despite its sine-qua-non dependence on foreign markets, it is unlikely that Fibria will internationalize its production to another country, given the country-specific advantages that the company has in Brazil. Nevertheless, Fibria set its structure abroad even when the direct exports would suffice to reach the markets without any foreign direct investment.
B&G deals with the aspects of the organizational structure and described the Transnational type as the evolution of the international firm. In their typology, Fibria was a Global and Ethnocentric type, but interestingly, elements of Transnational and Geocentric models were also observed in the company.
Both theories overlap or complement each other in many aspects. However, they could not explain the peculiarities of the internationalization of Fibria. One reason is the lack of country-related elements in these models.
Eventually, comparisons between theories such as those presented enable decision-makers to align the corporate strategy using suitable models, bearing in mind the limitations that each method entails.
Der Presse kam zu Beginn des 20. Jahrhunderts eine außerordentlich wichtige Rolle in der Auseinandersetzung zwischen den politischen Lagern, Sozialdemokratie, Deutschnationalismus und Christlich-Soziale Bewegung zu. Jedes der drei Lager hatte ihm mal mehr mal weniger zugeordnete Zeitungen, die reichsweit erschienen oder kleinere Lokal- und Provinzblätter waren. Der Pius-Verein zur Unterstützung der katholischen Presse engagierte sich in dieser Auseinandersetzung für die Sache des politischen Katholizismus. Seine Methoden bestanden in der politischen Agitation und im Sammeln von Spenden für katholische Zeitungen. Im Kronland Tirol war einer der aktivsten Ableger des Pius-Vereins tätig, mit Ortsgruppen in fast jeder Gemeinde.
Clathrate hydrates, or hydrates for short, are inclusion compounds in which water molecules form a hydrogen-bonded host lattice that accommodates the guest molecules. While vast amounts of hydrates are known to exist in seafloor sediments and in the permafrost on Earth, these occurrences might be dwarfed by the amounts of hydrates occurring in space and on celestial bodies. Since methane is the primary guest molecule in most of the natural occurrences on Earth, hydrates are considered a promising source of energy. Moreover, the ability of one volume of hydrate to store about 170 volumes of gas, make hydrates a promising functional material for various industrial applications. While the static properties of hydrates are reasonably well known, the dynamics of hydrate formation and decomposition are insufficiently understood. For instance, the stochastic period of hydrate nucleation, the memory effect, and the self-preservation phenomenon complicate the development of predictive models of hydrate dynamics. Additionally, the influence of meso- and macroscopic defects as well as the roles of mass and heat transport on different length scales remain to be clarified.
Due to its non-invasive and non-destructive nature and the high spatial resolution of approx. 1µm or even less, micro-computed X-ray attenuation tomography ( µCT ) seems to be the perfect method for the study of the evolving structures of forming or decomposing hydrates on the meso- and macroscopic length scale. However, for the naturally occurring hydrates of low atomic number guests the contrast between hydrate, ice, and liquid water is typically very weak because of similar X-ray attenuation coefficients. So far, good contrast was only restricted to synchrotron beamline experiments which utilize the phase information of monochromatic X-rays.
In this thesis it is shown that with the help of a newly developed sample cell, a contrast between the hydrate and the ice phase sufficiently good for the reliable segmentation of the materials can also be achieved in conventional tube-based µCT. An accurate pressure and temperature management, i.e., the added functionality of the cell, further allows for cross-correlation of structural and thermodynamic data. The capability of this µCT setup is demonstrated in a series of studies on the formation and decomposition of hydrates which yield new insights for the development of a novel route to hydrate synthesis. At last, this thesis points towards possibilities how better models of hydrate formation and decomposition can be developed with the aid of µCT and computer simulations.
Gas hydrates are usually synthesized by bringing together a pressurized gas and liquid or solid water. In both cases, the transport of gas or water to the hydrate growth site is hindered once an initial film of hydrate has grown at the water–gas interface. A seemingly forgotten gas-phase technique overcomes this problem by slowly depositing water vapor on a cold surface in the presence of the pressurized guest gas. Despite being used for the synthesis of low-formation-pressure hydrates, it has not yet been tested for hydrates of CO 2 and CH 4 . Moreover, the potential of the technique for the study of hydrate decomposition has not been recognized yet. We employ two advanced implementations of the condensation technique to form hydrates of CO 2 and CH 4 and demonstrate the applicability of the process for the study of hydrate decomposition and the phenomenon of self-preservation. Our results show that CO 2 and CH 4 hydrate samples deposited on graphite at 261–265 K are almost pure hydrates with an ice fraction of less than 8%. Rapid depressurization experiments with thin deposits (approx. 330 mm thickness) of CO 2 hydrate on an aluminum surface at 265 K yield identical dissociation curves when the deposition is done at identical pressure. However, hydrates deposited at 1 MPa almost completely withstand decomposition after rapid depressurization to 0.1 MPa, while samples deposited at 2 MPa decompose 7 times faster. Therefore, this synthesis technique is not only applicable for the study of hydrate decomposition but can also be used for the controlled deposition of a super-preserved hydrate.
In der vorliegenden Masterarbeit geht es darum, inwiefern das Conversational Design von NLP-basierten Chatbots in der Bewerberkommunikation gestaltet werden kann, um eine optimale Candidate Experience für die Bewerber/innen zu schaffen. Das Conversational Design umfasst dabei die Dialoggestaltung, den sprachlichen Stil sowie die Relevanz einer Persönlichkeit eines Chatbots. Es wird beschrieben, wie Chatbots auf der Karrierehomepage sowie auf Messenger-Plattformen eingesetzt werden können. Dabei geht es ausschließlich um Textbots, die mit Hilfe der Technologie von Natural Language Processing und basierend auf das Machine Learning als schwache Form der künstlichen Intelligenz in der Bewerberkommunikation eingesetzt werden. Dazu wurden im empirischen Teil qualitative Experteninterviews mit Personen aus HR-Abteilungen sowie mit Beratungsunternehmen geführt. Ziel dieser Arbeit ist es, einen Leitfaden für HR-Abteilungen bereitzustellen, inwiefern das Conversational Design von Chatbots gestaltet werden kann sowie welche kritischen Erfolgsfaktoren zur Schaffung einer optimalen Candidate Experience berücksichtigt werden müssen.
Für die Messung der Zielerreichung werden eine Vielzahl an unterschiedlichen Beschaffungskennzahlen verwendet. Die unterschiedlichen Messmethoden sowie die dazugehörigen Instrumente passen sich dabei an die jeweilige Beschaffungspolitik an. Jedoch unterliegt die Beschaffungspolitik einem stetigen Wandel. Mit steigendem Reifegrad der Beschaffungspolitik ändert sich auch der Fokus von Messmethoden und Instrumenten. Stehen im ersten Reifegrad der Beschaffungspolitik noch die Kosten von einzelnen Beschaffungsobjekten im Mittelpunkt der Betrachtung, erweitert sich der Fokus beim zweiten Reifegrad bereits auf die Gesamtkosten. Die nächste Evolutionsstufe bildet der dritte Reifegrad, also die wertorientierte Beschaffungspolitik. Dabei werden nicht mehr nur die Kosten betrachtet, sondern auch der Nutzen, der dabei entsteht. Die Differenz zwischen Kosten und Nutzen ist vereinfacht ausgedrückt der Wertbeitrag, der durch die Beschaffung generiert wird. Um diesen Wertbeitrag zu messen, gibt es sowohl in der Literatur als auch in der Praxis zahlreiche Einzelkennzahlen, aber keine Spitzenkennzahl, die auch einen Vergleich mit den Mitbewerbern zulässt. Der Procurement-Value-Added (PVA) bietet dabei einen Lösungsansatz und versucht durch öffentlich zugängliche Daten einerseits den wertorientierten Beschaffungserfolg objektiv darzustellen und andererseits ein einfaches Benchmarking zu ermöglichen. In dieser Arbeit wird der PVA-Ansatz systematisch analysiert und mit anderen wertorientierten Beschaffungskennzahlen verglichen. Dadurch soll festgestellt werden, ob der PVA-Ansatz das Potenzial hat in der Praxis angewendet werden zu können.
Graphite substrates underwent two methods of creating doped silicon carbide films via carbothermal reduction; the first method being liquid-phase processing, or dip-coating, and the second gas-phase processing, otherwise referred to as the solid-vapour reaction. The dip-coating procedure resulted in flaky coatings, while the solid-vapour reaction resulted in polycrystalline films with columnar growth that displayed promising morphological and electrical properties. The films were tested on their performance as semiconductor diodes, and proved that carbothermal reduction in the gas phase is a promising technique for creating polycrystalline silicon carbide films for the application of light-emitting diodes.
Traktorbedienerinnen und Traktorbediener haben das Problem, dass multimodale Mensch-Maschine-Schnittstellen von Traktoren unzureichend bedienbar sind. Dies macht sich vor allem durch lange Einlernzeiten, kognitiver Überforderung aufgrund des Funktionsumfangs und ineffizientem Bedienverhalten bemerkbar.
Traktoren werden längst nicht mehr nur durch mechanische Schalter, Hebel und Tasten gesteuert. Die Bedienung einer modernen landwirtschaftlichen Zugmaschine ist multimodal: primäre Funktionen, wie das Fahren und die grundlegende Steuerung von Anbaugeräten, werden von den Nutzerinnen und Nutzern über haptische Bedien- und Stellelemente ausgeführt, doch Justierungen und Automationen während und vor der Arbeit mit dem Traktor finden vollständig über die Software statt. Über einen Bildschirm werden z. B. Einstellungen an angehängten Anbaugeräten vorgenommen, teilautonome Prozesse zur Austragung justiert, automatische Lenkung und Dokumentation initiiert, Traktor-bedingte Einstellungen, wie z. B. Hydraulikanpassungen ausgeübt, Komfortfunktionen wie das Radio bedient und umfassende Informationen zur Maschine und der Peripherie aufgerufen.
Eine Software muss in diesem Umfeld eine Vielzahl an Informationen verarbeiten und das komplexe System Traktor mit seinen Anbaugeräten funktional darstellen können. Die Traktorenbedienung wird also von enorm vielen Kontexten beeinflusst, die wechselwirken.
Diese Kontexte, wie z. B. Eigenheiten der Bedienerinnen und Bediener, Maschinenkonditionen oder die Art der Tätigkeit, um nur einige wenige zu nennen, muss die Software adressieren können – doch das macht sie in den aktuellen Systemen nicht ausreichend. Dies zeigt sich aus wissenschaftlichen Veröffentlichungen zur Software-Ergonomie in Traktoren und empirischen Untersuchungen im Rahmen dieser Masterarbeit. So ist es für die Bedienerinnen und Bediener ineffizient, wenn sie Prozesse für eine Aufgabe auf dem Feld ausführen müssen, die repetitiv sind. Diese Masterarbeit konzipiert daher anhand des Adaptive User Interface Ansatzes einen Vorschlag für eine Software, die diesem kontextreichen Umfeld gerecht werden kann und zu einer kognitiven Entlastung führen soll. Ein Adaptive User Interface ist ein intelligentes Schnittstellenkonzept, das anhand von Sensorik und Machine Learning Inhalte, Darstellung und Funktionen adaptieren kann. Durch umfassende Analysen des Ist-Stands von Traktor-Softwares und der Befragung und Beobachtung von Bedienerinnen und Bedienern in ihrem alltäglichen Arbeitsumfeld konnten Anforderungen spezifiziert, und darauf basierend iterativ Lösungen entwickelt werden. Das Ergebnis ist ein evaluiertes GUI-Konzept, das auf zwei übereinander angeordneten Bildschirmen basiert und mittels Touch-Eingabe und einer 4-Wege-Taste bedient wird. Auf den Bildschirmen werden Funktionen für Traktor und Schnittstellen, mit denen die Anbaugeräte betrieben werden, getrennt dargestellt. Dies soll für eine Entlastung des Funktionsüberschusses sorgen. Kern dieses Konzepts ist jedoch die Implementierung des adaptiven Ansatzes: Basierend auf dem Kontext werden Adaptionsvorschläge in Form von Dialogen unterbreitet, die minutenlange Arbeitsschritte durch die Software um ein Vielfaches verkürzen können – so steigt die Effizienz enorm. Weiter soll das Konzept durch einen umfassenden Onboarding Prozess und intelligente Hilfsfunktionen auf die optimale Nutzung durch sowohl Anfängerinnen und Anfänger als auch Expertinnen und Experten vorbereiten.
Das Management eines Unternehmens kann Mithilfe von bilanzpolitischen Maßnahmen bewusst Einfluss auf das Unternehmensergebnis nehmen. Durch Ausnutzung von Ermessenspielräumen bei der Bildung und Auflösung von Rückstellungen können stille Reserven gebildet und in späteren Perioden wieder aufgelöst werden.
In dieser Masterarbeit wurde untersucht ob die Unternehmen des M-DAX mithilfe der Big-Bath-Accounting-Methode oder der Income-Smoothing-Methode bewusst Einfluss auf das Jahresergebnis genommen haben. Hierfür wurden die Geschäftsberichte der Zielgruppe im Zeitraum von 2009 – 2018 empirisch untersucht. Um die Gültigkeit der Hypothesen zu überprüfen wurde das ausgewiesene EBIT mit einem bereinigten EBIT verglichen. Für die Ermittlung des bereinigten EBITs wurden die tatsächlichen Rückstellungsbildungen bzw. Rückstellungsauflösungen durch die über den Betrachtungszeitraum durchschnittlichen Rückstellungsbildung bzw. Rückstellungsauflösung ersetzt.
Die Ergebnisse der empirischen Untersuchung haben gezeigt, dass die Unternehmen der Zielgruppe Mithilfe von Rückstellungen großen Einfluss auf das EBIT nehmen können. Weiter konnte belegt werden, dass die meisten Unternehmen bei der Rückstellungsbewertung grundsätzlich vorsichtig agieren und höhere Beträge in Rückstellungen bilanzieren.
The boom of information technology development created high demand for skilled labour force in IT occupations. IT professionals install, test, build, repair or maintain hardware and software and can do the job from any location in the world.
Demand for the workforce significantly outstrips the global supply. In a situation of staff shortage employers have to compete on local and global labour markets. The ability of a firm to attract and retain the best talent would become a source of its sustainable competitive advantage.
Aim of the study is to understand what influences perception of employment attractiveness by IT professionals the most. This study intends to expend the existing knowledge about employees´ needs and “psychological contract” concept.
The research was conducted with the participation of 4 IT and 4 HR English-speaking experts who live and work in Austria. In the study the grounded theory approach and the descriptive qualitative methods were applied.
The research findings explain which factors influence the decision of IT professionals to join, stay or leave an employer. The results are discussed in relation to talent attraction and retention practices of Austrian employers.
Increasing international competition and accelerated technological change characterize the environment in which companies must maintain and, if possible, expand their competitive advantage. In this context, the new, popular keyword innovation management is often mentioned. Many corporations propagate and use it for marketing purposes. As a result, the companies have to evaluate, develop and launch innovations increasingly faster, which poses great challenges for many and requires a high degree of adaptability.
This master thesis analyzes innovation management (IM) in the automotive industry and in other industries (material manufacturers, service providers, medicine, ...) depending on the number of employees and turnover. In addition, the maturity levels of the IMs and the innovation management systems (IMS) are examined. It also tries to determine which design or "building blocks" are necessary for a successful innovation management. Furthermore, factual and monetary guidelines by the management are evaluated. The thesis also aims to find out how the success of IM is measured. Therefore, guideline-based expert interviews were conducted with responsible people from the innovation departments and then systematically analyzed.
In the literature, expenses for innovations are often wrongly equated with the R&D rate. In this master thesis, it could be shown that this ratio is highest in the automotive industry. However, it does not correlate with the number of employees, turnover, maturity level, success or design of the IM. Furthermore, it could be shown that larger companies have a higher degree of maturity. The reason for this is that more people are usually involved in innovation and that a holistic understanding of innovation is better anchored in large corporations. When designing the IM or the roles of the innovation department, large companies use several different types. While the IM departments in small and medium-sized companies are usually incubators and accelerators, large companies also use corporate venture capital to support start-ups and develop new business models. In this thesis, the success of IM was determined by the number of innovations implemented in customer projects. It was found that, regardless of the size of the company, a higher degree of maturity of the IM and the accelerator role seem to have a positive influence.
Unfortunately, there are rarely concrete goals and targets set by the management although these, along with a holistic understanding of innovation in the company, are without doubt the most important part of a successful innovation management.
This thesis aims to support the product development process. Therefore, an approach is developed, implemented as a prototype and evaluated, for automated solution space exploration of formally predefined design automation tasks holding the product knowledge of engineers. For this reason, a classification of product development tasks related to the representation of the mathematical model is evaluated based on the parameters defined in this thesis. In a second step, the mathematical model should be solved. A Solver is identified able to handle the given problem class.
Due to the context of this work, System Modelling Language (SysML) is chosen for the product knowledge formalisation. In the next step the given SysML model has to be translated into an object-oriented model. This translation is implemented by extracting information of a ".xml"-file using the XML Metadata Interchanging (XMI) standard. The information contained in the file is structured using the Unified Modelling Language (UML) profile for SysML. Afterwards a mathematical model in MiniZinc language is generated. MiniZinc is a mathematical modelling language interpretable by many different Solvers. The generated mathematical model is classified related to the Variable Type and Linearity of the Constraints and Objective of the generated mathematical model. The output is stored in a ".txt"-file.
To evaluate the functionality of the prototype, time consumption of the different performed procedures is measured. This data shows that models containing Continuous Variables need a longer time to be classified and optimised. Another observation shows that the transformation into an object-oriented model and the translation of this model into a mathematical representation are dependent on the number of SysML model elements. Using MiniZinc resulted in the restriction that models which use non-linear functions and Boolean Expressions cannot be solved. This is because the implementation of non-linear Solvers at MiniZinc is still in the development phase. An investigation of the optimally of the results, provided by the Solvers, was left for further work.
Autonome Steuerung für das Demand Side Management von Wärmepumpenboilern mit linearer Optimierung
(2020)
Wärmepumpen, im Speziellen Wärmepumpenboiler, stellen mit ihrer thermischen Speicherkapazität eine gute Möglichkeit für autonome verbraucherseitige Laststeuerung (Autonomes Demand Side Management ADSM) dar. Zudem gewinnt diese Art der Brauchwarmwassererzeugung durch ihren dezentralen Ansatz und das Auskommen ohne fossile Energieträger im privaten Wohnbau immer mehr an Bedeutung. In Kombination mit staatlichen Fördergeldern ist die Anzahl verkaufter Einheiten in den letzten 5 Jahren am deutschen Markt um circa 25 % gestiegen. Obwohl das Lastverschiebungspotenzial von Wärmepumpenboilern unter Anwendung von Optimierungsalgorithmen in der Literatur theoretisch nachgewiesen ist, fehlen Verifikationen unter realen Bedingungen. Diese Arbeit will einerseits das theoretische Potential aufzeigen und andererseits mit dem vorgestellten Laborversuch einen Beitrag dazu liefern, die Verifikationslücke zu schließen. Für die Untersuchung im Labor wird ein handelsüblicher Wärmepumpenboiler bestehend aus einer Luft-Wärmepumpe und einem 300 Liter Warmwasserspeicher mit Sensoren und Aktoren ausgestattet. Insgesamt vier Temperatursensoren befinden sich am Speicherzulauf und -ablauf, sowie nahe der Speichermitte. Für die Aufzeichnung des Volumenstroms wird ein magnetisch-induktiver Messsensor am Speichereingang installiert. Zusätzlich wird mithilfe eines Proportionalventils am Speicherausgang das gewünschte Zapfprofil realisiert. Die Datenakquisition wird durch einen Datenlogger durchgeführt und die Optimierungsroutine auf dem PC implementiert. Die autonome Steuerung basiert auf einer von Day-Ahead-Marktpreisen der Energy Exchange Austria (EXAA) getriebenen linearen Optimierung mit dem Ziel, die Kosten der elektrischen Energie zu minimieren. Das Warmwasserverbrauchsprofil bildet den Verbrauch eines 4- Personen-Haushalts ab. Alle Mess- und Simulationsreihen basieren auf den gleichen Day-Ahead Preisfunktionen und Nutzerprofilen. Zur Verifikation des Lastverschiebungspotentials werden die Kosten pro MWh elektrischer Energie und die Kosten pro MWh thermischer Nutzenergie im Hysteresebetrieb (Normalbetrieb) denen des optimierten Betriebs gegenübergestellt. Durch eine Jahressimulation konnte das theoretische Potential nachgewiesen werden. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von rund 18 %. Die Kosten pro MWh thermischer Nutzenergie konnten durch die Optimierung um rund 19 % gesenkt werden. Die thermische Effizienz konnte somit um rund 1 % gesteigert werden. Der Wärmepumpenboiler wurde insgesamt zwei Wochen betrieben; eine Messreihe davon fand dabei im Normalbetrieb statt. In einer weiteren Messreihe wurde die Wärmepumpe mit der Optimierungsroutine betrieben. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von circa 23 %. Ebenso konnten die Kosten pro MWh thermischer Nutzenergie um 19 % gesenkt werden. Gleichzeitig sank die thermische Effizienz um 6 %.
Intelligence structure test
(2010)
Business Intelligence (BI) beschreibt den Bereich, der für die Auswertung betrieblicher Geschäftsdaten verantwortlich ist und von Unternehmen jeder Größe verwendet wird. Die erhaltenen Informationen unterstützen die Entscheidungsfindung von Unternehmen und können sich positiv auf die Geschäftsentwicklung auswirken. Die Hexagon Geosystems hat seit mehreren Jahren Lösungen im Einsatz, mit welchen die systematische Analyse von Geschäftsdaten abgewickelt wird. Für Unternehmen dieser Größe sind leicht zugängliche und benutzerfreundliche BI-Lösungen unerlässlich - über die Jahre und der wachsenden Menge an Analysen und Berichten haben sich aber Probleme in der Verwendung und Verständlichkeit gebildet, welche im Rahmen dieser Masterarbeit untersucht werden.
Zum Beginn werden die theoretischen Inhalte der Arbeit erläutert und eine Wissensgrundlage geschaffen. Aus der in der Ist-Analyse gegebenen Beschaffenheit im Unternehmen werden die Probleme der aktuellen Lösung im Rahmen einer Problemerläuterung aufgewiesen. Die daraus resultierenden Erkenntnisse bilden die Grundlage für die Konzipierung eines Proof of Concepts in den darauf folgenden Kapiteln. In dem Proof of Concept wird ein Vorschlag für ein Baukastensystem zur Erstellung von Berichten und dessen Dokunentationen präsentiert. Eine mittels der System Usability Scale durchgeführten Evaluation zeigte, dass eine benutzungsfreundliche Applikation entstanden ist, welche neben Vorteilen für die Endanwender des Business Warehouses auch Vorteile für die Administratorinnen bei der Erstellung von Berichten mit sich bringt. Eine Zusammenfassung und ein abschließender Ausblick weist diverse Arbeitsschritte auf, welche zur Integration der Applikation in die produktive Landschaft des Unternehmens benötigt werden.
Das Energieinstitut Vorarlberg hat zusammen mit mehreren Regionen in Vorarlberg das Sanierungslotsenprojekt gestartet, um die Beratungssituation bei der Gebäudesanierung zu verbessern. Durch wiederholten Kundenkontakt wurde festgestellt, dass es ein Beratungsdefizit für Besitzer älterer Einfamilienhäuser gibt. Zwischen der Erkenntnis, dass eine Sanierung des Gebäudes notwendig ist und dem Zeitpunkt, an dem die ersten Leistungen bestellt werden, gibt es keine sachkundige Betreuung in den Fragestellungen der zukünftigen Gebäudenutzung. In den bisher angebotenen Beratungen werden zwar auch unterschiedliche Sanierungsvarianten miteinander verglichen. Jedoch bezieht sich der Vergleich auf Variationen von Sanierungsmaßnahmen, wie beispielsweise Dämmstoff - und Fensterqualität oder die Auswahl eines Heizungssystems. Darüber hinaus gehende Fragen über altersgerechtes Wohnen, Generationenwohnen, Nachverdichtung und Vermietung werden in diesen Beratungen nicht behandelt. In allen Fragen der zukünftigen Nutzung und den zukünftigen Anforderungen an das Gebäude, den darauf abgestimmten Sanierungszielen und der zugehörigen Kostenschätzung mit Finanzierungsberechnung sind die Besitzer auf sich gestellt.
Deshalb ist der Bedarf nach einem einfachen Rechentool, welches in einer frühen Phase der Sanierungsberatung, eine schnelle Berechnung der in Betracht kommenden Sanierungsvarianten ermöglicht, entstanden. In dieser frühen Phase ist es bislang nicht üblich eine Kostenschätzung abzugeben. Für diese Berechnungen wird eine Datenbank mit Sanierungs - und Umbaukostenelementen benötigt, sodass mit einer abgesicherten Basisdaten kalkuliert werden kann.
In der vorliegenden Masterarbeit werden eine auf Microsoft Excel basierende Datenbank und das dazugehörige Rechentool vorgestellt, die die beschriebenen Anforderungen erfüllen. Mit Hilfe der Datenbank wird eine Grundlage geschaffen, an denen sich die Sanierungslotsen orientieren können. Zusätzlich zu den Netto- und Bruttokosten, die bei den einzelnen Sanierungsmaßnahmen anfallen, werden auch Einheitskosten angegeben, die in das Rechentool eingetragen werden können.
Das Rechentool ermöglicht den Vergleich von fünf unterschiedlichen Sanierungsvarianten. Durch die freie Eingabe der Flächen können auch Varianten mit unterschiedlichen Nutzungskonzepten und unterschiedlichen Grundrissen verglichen werden. Neben einer Grobkostenrechnung der Sanierungskosten erfolgt im Tool auch die Berechnung der Förderung laut der Wohnaussanierungsrichtlinie und Energieförderungsrichtlinie des Landes Vorarlberg. Weitere Förderungen können als Einmalzuschüsse eingetragen werden. Eine vereinfachte Wirtschaftlichkeitsbetrachtung erfolgt über die Berechnung der Finanzierung der Sanierung. Hierbei werden auch Einnahmen durch Vermietung berücksichtigt.
Rückblicke zur 5. ogsaTAGUNG
(2021)
Im Rahmen eines Forschungsprojektes gingen die Autorinnen folgender Frage nach: Welche identitätsstiftenden Werte der Siebenbürger Sachsen/Sächsinnen sind heute in Oberösterreich noch wahrnehmbar? Es wurde dazu ein qualitatives Forschungsdesign gewählt. Die Ergebnisse zeigen, dass die Auswanderung, Fluchterfahrung und die Ankunft in Österreich wesentlich die Identitäten dieser Personengruppe bestimmte und noch immer beeinflusst. Es wird aufgezeigt, wie sich die Identitäten über drei Generationen verändert haben und was noch als identitätsstiftend erfahrbar ist. Die Ergebnisse leisten einen Beitrag zur Identitätsforschung und bieten eine gute Möglichkeit Erkenntnisse über die beforschte Zielgruppe hinaus zu generieren.
The dynamics of self-adaptive multi-recombinant evolution strategies on the general ellipsoid model
(2014)
Nowadays, the area of customer management strives for omni-channel and state-of-the-art CRM concepts including Artificial Intelligence and the approach of Customer Experience. As a result, modern CRM solutions are essential tools for supporting customer processes in Marketing, Sales and Service. AI-driven CRM accelerates sales cycles, improves lead generation and qualification, and enables highly personalized marketing. The focus of this thesis is to present the basics of Customer Relationship Management, to show the latest Gartner insights about CRM and CX, and to demonstrate an AI Business Framework, which introduces AI use cases that are used as a basis for the expert interviews conducted in an international B2B company. AI will transform CX through a better understanding of customer behavior. The following research questions are answered in this thesis: In which AI use cases can Sales and CRM be improved? How can Customer Experience be improved with AI-driven CRM?
Die Digitalisierung von Unternehmen und deren Produktionsanlagen bringen neue Bedrohungsformen mit sich, die zielorientierter ausgerichtet sind und mehrere Computersysteme gleichzeitig betreffen. Klassische Schutzmechanismen wie Firewalls, Anti-Viren-Systeme und IDS sind zumeist signatur- oder muster-basiert und können diese komplexen Bedrohungsformen nicht effizient erkennen. Die verwendeten Signaturen und Muster können durch Angreifer einfach umgangen werden. Darüber hinaus sind gezielte und komplexe Angriffe nur durch die Verknüpfung von Informationen mehrerer Computersysteme identifizierbar.
In den letzten Jahren wurden daher verstärkt anomalie-basierte IDS entwickelt und eingesetzt, die anhand selbstlernender Algorithmen das normale Verhalten von mehreren miteinander vernetzten Computersystemen erlernen und Abweichungen zum normalen Verhalten identifizieren. Hierzu verwenden die Algorithmen Log- und Monitoringdaten der Anwendungsschicht von verschiedenen Computersystemen und Anwendungen. Der Zugriff auf die Logdaten zur weiteren Analyse ist jedoch kompliziert, weil sie nicht an einer zentralen Stelle zusammenlaufen und es keine allgemein anerkannten Standards für die Erzeugung und Übertragung von Logdaten existieren.
Infolgedessen wird in dieser Arbeit ein zentrales Log-Management-System in eine Produktionsumgebung eingeführt, die verschiedene IT-Komponenten und Komponenten einer realen Güterproduktion beinhaltet. Zudem werden Logdaten verschiedener heterogener Datenquellen auf diesem System zentral aggregiert. Neben der Einführung eines Standards für die Struktur und Übertragung der Logdaten von den einzelnen Datenquellen auf das Log-Management-System, werden Logdaten auf ihre Relevanz hinsichtlich der Erkennung von Anomalien und der Abbildung des Systemverhaltens analysiert. Diese Arbeit beinhaltet zudem fortgeschrittene Bedrohungsszenarien, die für die Evaluation der IDS verwendet werden können und stellt somit eine Grundlage für eine zukünftige Analyse der Logdaten durch IDS dar.
Damit eine möglichst ausfallsichere Energieversorgung und Energieübertragung gewährleistet werden kann, werden verschiedene Betriebsmittel benötigt. Diese Betriebsmittel müssen gewisse Genauigkeitsgrenzwerte einhalten. In dieser Masterarbeit wird die Prüfung der Genauigkeit von Stromwandlern diskutiert. Die Ermittlung der Genauigkeit kann durch das Einspeisen eines Primärnennstroms (einige kA) und eine Messung des Sekundärstroms erfolgen. Daraus wird der Übertragungsfehler bestimmt. Die Genauigkeit wird unter anderem durch den Übertragungsfehler beschrieben, welcher sich aus dem Übersetzungsfehler und dem Phasenfehler zusammensetzt. Es wird bei diesem Verfahren von der Primärmethode oder auch Primärstrommethode gesprochen, dies ist die Referenzmessung nach den Normen IEC 61869-2 und IEEE C57.13. Die Firma OMICRON electronics GmbH entwickelte ein modellbasiertes Messverfahren, das den Einsatz eines mobilen und leichten Messgeräts erlaubt. Das Messgerät wird CT Analyzer genannt. Bei Verwendung dieser Methode werden keine hohen Ströme verwendet, was den BenutzerInnen zusätzlich eine höhere Sicherheit für die Bedienung des Geräts bietet. Mit diesem Messverfahren werden die einzelnen Komponenten des elektrischen Ersatzschaltbildes des Transformators bestimmt. Mit den ermittelten Komponenten kann dann der Übertragungsfehler berechnet werden. Das modellbasierte Messverfahren beruht auf Messungen, die von der Sekundärseite des Stromwandlers her durchgeführt werden. Man spricht bei diesem Messverfahren von der Sekundärspannungsmethode, welche inzwischen in der Norm IEC 61869-2 als alternative Messung angeführt ist. Der Vorteil der Primärmethode ist die Hoch-Präzisionsmessung, da die Prüfung unter realen Bedingungen und mit einer direkten Messung durchgeführt wird. Die Genauigkeit dieser Methode wird durch die Messtechnik selbst bestimmt, sie ist sehr genau und daher als Referenz gültig. Das Ziel der Sekundärspannungsmethode ist es, den Vorteil der Hoch- Präzisionsmessung für die Sekundärspannung zu nützen. Da es sich um ein modellbasiertes Messverfahren handelt, wird die Messgenauigkeit bei diesem Verfahren durch das angewandte Modell bestimmt und nicht durch die Messtechnik wie bei der Primärmethode. Daher sind Untersuchungen am Modell notwendig. Es gibt einige wenige Stromwandlertypen, bei denen es größere nicht akzeptable Differenzen zwischen der Primärmethode und der Sekundärspannungsmethode gibt. Diese Masterarbeit befasst sich deshalb mit Untersuchungen von Möglichkeiten und Grenzen der Sekundärspannungsmethode. Zu Beginn wird eine theoretische Sensitivitätsanalyse mathematisch erarbeitet. In diesem Zusammenhang wird der komplexe Fehlervektor eines Stromwandlers eingeführt. Diese Sensitivitätsanalyse dient der Ermittlung des Einflusses auf den komplexen Fehler in Abhängigkeit von verschiedenen Parametern und zur Auswahl von Stromwandler-Testobjekten. Des Weiteren wird die Sensitivitätsanalyse durch Messungen an verschiedenen Stromwandlern verifiziert. Die Untersuchungen basieren auf MATLAB-Simulationen und Messungen mit dem OMICRON Messgerät CT Analyzer, welches die Sekundärspannungsmethode anwendet. Die Ergebnisse werden mit den Herstellerdaten (Primärmethode) verglichen und analysiert werden.
Mentoring wird traditionell als unterstützende Beziehung zwischen einer (zumindest in einem Teilbereich) weniger erfahrenen und erfahreneren Person gesehen, wobei sich die Inhalte und Zielsetzungen je nach Kontext und beteiligter Personen unterscheiden. Es wird im englischsprachigen Umfeld schon seit vielen Jahren praktiziert und gewinnt im europäischen und auch deutschsprachigen Bereich zunehmend an Popularität.
Ausgehend von meiner eigenen Tätigkeit und Erfahrung als Mentorin für zwei Teams von jungen ostafrikanischen Sozialunternehmern, bin ich der Frage nachgegangen, wie sich interkulturelle Mentoring-Beziehungen durch Design unterstützen und wie sich eine gestaltete Intervention drei weitere Ziele auf dem Weg erreichen lassen – die beidseitige Lernerfahrung reichhaltig gestalten; das Soziale Kapital (Social Capital) beider, des Mentees und Mentors, erhöhen und diversifizieren; und die Wertschätzung für Vielfalt, über die Beziehung hinaus, steigern.
Durch die verstärkte Migration, z.B. bedingt durch den Fachkräftemangel und berufliche Mobilität ganz allgemein, sowie die Internationalisierung von Unternehmen, sehe ich Bedarf für eine Lösung. Forschungsergebnisse von Voigt (2013) denen nach Mentoring in deutschen Tech-Unternehmen eher als „Anpassungsinstrument“ eingesetzt wird, und damit Potentiale, die durch Zusammentreffen von Menschen unterschiedlicher Hintergründe entstehen, vernachlässigt werden, haben mich zusätzlich in meiner Annahme bestätigt.
Neben extensiver Literaturrecherche, Expert:innen-Interviews, diversen Erhebungen zur Einschätzung von Mentoring und Diversität bzw. der Zusammenarbeit von Menschen diverser kultureller Hintergründe, habe ich außerdem eigene Erfahrungen per Selbstethnografie erfasst. Die resultierenden Erkenntnisse, sind in Übungen bzw. Werkzeuge und ein Spiral-Model für Interkulturelle Mentoring-Beziehungen eingeflossen.
Zusammen mit Information zu den Themen Mentoring, Kultur und Lernen, wurden diese in einem Mentoring Playbook zusammengestellt. Diversität und die daraus entstehenden Potentiale wurden konsequent auch in die Gestaltung einbezogen, u.a. durch die Zusammenarbeit mit Gestalter:innen aus vier verschiedenen Ländern.
Quasilineare Tauchankerspule
(2020)
Many test drives are carried out in the automotive environment. During these test drives many signals are recorded. The task of the test engineers is to find certain patterns (e.g. an emergency stop) in these long time series. Finding these interesting patterns is currently done with rule based processing. This procedure is very time consuming and requires a test engineer with expertise. In this thesis it is examined if the emerging field of machine learning can be used to support the engineers in this task. Active Learning, a subarea of machine learning, is used to train a classifier during the labeling process. Thereby it proposes similar windows to the already labeled ones. This saves the annotator time for searching or formulating rules for the problem. A data generator is worked out to replace the missing labeled data for tests. The custom performance measure “proportion of seen samples” is developed to make the success measurable. A modular software architecture is designed. With that, several combinations of Time Series Classification algorithms and query strategies are compared on artificial data. The results are verified on real datasets, which are open source available. The best performing, but computational intensive solution is an adapted RandOm Convolutional KErnel Transform (ROCKET). The custom query strategy “certainty sampling” shows the best results for highly imbalanced datasets.
Combining parallel pattern generation of electrohydrodynamic lithography with serial addressing
(2018)
Beim Online-Lernen ist es wichtig, angemessenes Feedback zu geben, damit der Schüler aus seinen Fehlern lernen und sich weiterbilden kann. Oft besteht Feedback nur aus ungenügenden Informationen, wie etwa nur aus den Worten „Richtig“ oder „Falsch“, mit denen der Schüler nicht viel anfangen kann und somit nicht aus seinen Fehlern lernen kann. Ein gutes Feedback bei inkorrekten Antworten enthält wichtige Informationen, warum eine Antwort oder Aktion falsch ist und wie sie verbessert werden kann. Bei korrekten Antworten ist ein Lob oder eine Anerkennung der richtigen Antwort ebenfalls fördernd.
In dieser Arbeit wird das Feedback des Systems XData, welches für das Erlernen von SQL (Structured Query Language) genutzt wird, verbessert. Dazu wird das aktuelle System beschrieben, um das aktuelle Feedback bei SQL-Queries beurteilen zu können. Um das aktuelle Feedback angemessen verbessern zu können, wird ein Einblick in die Themen Lernen und Feedback gegeben. Die aus den beiden Themen gewonnen Eindrücke und Erkenntnisse werden bestmöglich für das zu verbessernde Feedback genutzt. Um das System und sein Feedback beurteilen zu können, sowie das verbesserte Feedback bewerten zu können, werden verschiedene SQL-Queries (Abfragen) verwendet. Es wird die Implementierung des Feedbacks durch ein Textbausteinsystem beschrieben und die verschiedenen Feedback-Fälle vorgestellt. Abschließend werden die Resultate beschrieben und beurteilt, sowie über die Ausblicke des Systems diskutiert.
In dieser Arbeit werden verschiedene Augmented Reality Tools analysiert und getestet, um eine Brandmeldezentrale zu erkennen und auf dieser virtuelle Inhalte darzustellen. Die Erkennung der Zentrale wird mittels Bilderkennung und Objekterkennung von Vuforia, Wikitude und AR Foundation durchgeführt. Zusätzlich wird in dieser Arbeit eine AR Applikation implementiert, welche sowohl mit iOS und Android Geräten als auch für die Microsoft HoloLens 2 kompatibel ist. Die Anwendung soll zeigen, an welcher Stelle in der Brandmeldezentrale ein Fehler vorliegt und wie dieser behoben werden kann. Für die Fehlerbehandlung kommt eine “Schritt für Schritt Anleitung“ zum Einsatz, bei welcher Teile der Zentrale augmentiert hervorgehoben werden, wenn diese für die Behebung des Problems relevant sind. Es werden diverse Geräte bezüglich Interaktion und deren Stärken bzw. Schwächen evaluiert. Für die Analyse haben Testpersonen die Anwendung sowohl auf der HoloLens 2 als auch auf einem iPad Pro getestet. Die Ergebnisse zeigen, dass einige Personen Schwierigkeiten mit der Gestensteuerung auf der HoloLens 2 haben. Die Ausführung der Pinch Geste, welche durch das zusammendrücken von Daumen und Zeigefinger ausgeführt wird, wurde oft zu ungenau durchgeführt. Der Vergleich der beiden Geräte hat ergeben, dass Interaktionen auf dem iPad schneller ausgeführt werden können als auf der HoloLens. Außerdem wurde überprüft, wie sich unterschiedliche Lichtverhältnisse auf die Anwendung auswirken. Dabei stellte sich heraus, dass die Hologramme bei der HoloLens bei einer stark beleuchteten Umgebung nicht gut sichtbar sind. Die Objekterkennung der Brandmeldezentrale weist einige Fehler bei der Erkennung der Brandmeldezentrale auf. Diese sind darauf zurückzuführen, dass die Brandmeldezentrale für die verwendeten Augmented Reality Tools zu wenig Merkmale aufweist.