Refine
Year of publication
Document Type
- Master's Thesis (409)
- Article (70)
- Conference Proceeding (23)
- Report (14)
- Part of a Book (4)
- Book (3)
- Other (3)
- Doctoral Thesis (2)
- Working Paper (2)
- Bachelor Thesis (1)
Institute
- Forschungszentrum Business Informatics (27)
- Forschungszentrum Mikrotechnik (27)
- Forschungszentrum Energie (22)
- Soziales & Gesundheit (18)
- Technik | Engineering & Technology (13)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (12)
- Forschungszentrum Human Centred Technologies (11)
- Forschungsgruppe Empirische Sozialwissenschaften (10)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (7)
- Wirtschaft (7)
Language
- German (329)
- English (201)
- Multiple languages (2)
Has Fulltext
- yes (532) (remove)
Keywords
- Digitalisierung (11)
- Controlling (7)
- Digitale Transformation (7)
- Machine learning (6)
- Demand Side Management (5)
- Industrie 4.0 (5)
- Soziale Arbeit (5)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Kultur (4)
ÖMG Conference 2019
(2019)
Seit einigen Jahren beschäftigen sich immer mehr Autor*innen mit der Frage, welche Handreichungen Mitarbeitende im Gesundheitssystem brauchen, um adäquater auf die Bedürfnisse älterer LGBTQI* Personen einzugehen, deren (pflegerische) Anliegen nicht erkannt werden, von schwer zu überwindenden Barrieren im Gesundheitssystem berichten und die sich diskriminiert fühlen. Der Fokus der Publikationen liegt auf der sexuellen Orientierung und / oder der Genderidentität, einem Teilaspekt der Identität einer Person. Je nach Kontext und Personen sind andere Teilidentitäten, wie z.B. Familienstatus, Alter, Ethnizität, Teilhabe an sozialen Gruppen unterschiedlich stark berücksichtigt. In einer qualitativen Studie wurden, unter Integration der autoethnographischen Methode, acht Männer zwischen 53 und 75 Jahren aus den Niederlanden und Deutschland in autobiografischen-narrativen Interviews befragt, inwiefern die Coronapandemie ihre Vorstellungen vom gesunden Altern verändert hat. Alle Männer hatten komplexe Biografien, gekennzeichnet von Partnerverlust, Arbeitslosigkeit, Altersfragen, familiären und gesundheitlichen Herausforderungen neben anderen identitätsstiftenden Faktoren. Aber alle identifizierten sich seit ihrer Jugend mit ihrer sexuellen oder Genderidentität, hatten aus vielen Krisen gelernt und sorgten mit einem für sich klaren Management, dass sie auch im Alter gesund bleiben würden – Autonomie stand hoch im Kurs! Die Person nicht nur auf die Zugehörigkeit zur LGBTQI* Gruppe zu reduzieren, sondern in ihrer gesamten Identität in den Gesundheitseinrichtungen zu berücksichtigen kennzeichnet eine adäquate Pflege.
Gütesiegel sind bereits auf vielfältigen Produkten zu finden und sollen beim Einkauf den Konsumierenden Orientierung bieten. Angesichts der Gegebenheit Konsum nachhaltig zu gestalten, soll der Marktanteil von zertifizierten Produkten weiter erhöht werden. Gütesiegel werden in diesem Zusammenhang gerne mit einem guten Gewissen hinsichtlich der konsumierten Produkte assoziiert. Aber was zeichnet ein zertifiziertes Produkt aus und welche Bedeutung hat ein Gütesiegel? Die vorliegende Arbeit nimmt darauf Bezug und führt weiter an, wie die Wertigkeit eines zertifizierten Produktes gegenüber den Konsumierenden kommuniziert werden kann. Um Orientierung bieten zu können, braucht das Gütesiegel eine transparente und verständliche Beschreibung, welche die einheitlichen Standards einer Zertifizierung sowie deren Überprüfung sichtbar macht. Eine solche Beschreibung wird im Rahmen des Konzepts für den Forest Stewardship Council (FSC) gestaltet. Ergebnis ist ein Kommunikationskonzept, welches aufzeigt, wie die Wirkung einer Zertifizierung kommuniziert werden kann. Das Konzept kann an diverse Anforderungen angepasst und auf andere Zertifizierungen übertragen werden. Eine transmediale Erzählwelt erweitert die Beschreibung in Form einer Geschichte und veranschaulicht die Wertigkeit eines zertifizierten Produktes. Eine Zertifizierung bedingt die Bewirtschaftung einer Ressource. Ein Gütesiegel kann insofern nicht für den vollumfänglichen Schutz einer Ressource stehen, aber es kann Einfluss auf die Art und Weise der Bewirtschaftung ausüben und dadurch ein Bewusstsein für Konsumprodukte schaffen.
In den 13 Jahren seit Einführung der IFRS für KMU in Deutschland belegen mehrere Studien, dass dieser Standard, entgegen der Erwartungen, keine Erfolge im Bereich der Anwenderzahlen erzielen konnte. Trotz der Entwicklung eines international angepassten und auf die Bedürfnisse der KMU fokussierten Rechnungslegungsstandards, blieb eine Etablierung innerhalb der KMU aus.
Ziel dieser Arbeit ist die Analyse, inwiefern eine doppelte Rechnungslegung nach IFRS und HGB wirtschaftliche und geschäftsanalytische Vorteile für die Anteilseigner deutscher KMU generiert. Aufbauend auf der beschriebenen Zielsetzung gilt es zu überprüfen, welche Anteilseigner deutscher KMU von dem doppelten Rechnungslegungsstandard adressiert werden und ferner, in welchem Ausmaß eine höhere Bedürfnisbefriedigung resultiert. Zunächst erfolgt im Rahmen einer umfassenden Literaturrecherche eine Untersuchung der Anteilseigner deutscher KMU und deren Anforderungen an ein Rechnungslegungssystem. Anschließend findet eine Überprüfung möglicher Vorteile statt, welche die Anwendung der IFRS für KMU befürworten würden. Darüber hinaus wurden zehn Experteninterviews durchgeführt mit der Intention, erworbene Erkenntnisse zu revidieren und überdies neue zu generieren. In einer abschließenden Inhaltsextraktion werden die gewonnen Annahmen artikuliert und anschließend interpretiert, um die zugrundeliegende Forschungsfrage zu beantworten.
In dieser Arbeit wird Supervised Learning verwendet, um die Zuverlässigkeit von Schweißverbindungen zu evaluieren.
Um die Schweißqualität zu bestimmen, wurden End of Life Tests durchgeführt. Für die statistische Auswertung und Vorhersage der zu erwartenden Lebensdauer, wurden die Daten basierend auf einer logarithmischen Normalverteilung und mit einer multivariablen linearen Regression modelliert. Um die signifikanten Einflussfaktoren zu identifizieren, wurde eine schrittweise Regression genutzt. Die Ergebnisse zeigen, dass das entwickelte Modell die Zuverlässigkeit und Lebensdauer der Schweißverbindung akkurat abbildet und präzise Vorhersagen liefern kann.
Im Rahmen eines Forschungsprojektes gingen die Autorinnen folgender Frage nach: Welche identitätsstiftenden Werte der Siebenbürger Sachsen/Sächsinnen sind heute in Oberösterreich noch wahrnehmbar? Es wurde dazu ein qualitatives Forschungsdesign gewählt. Die Ergebnisse zeigen, dass die Auswanderung, Fluchterfahrung und die Ankunft in Österreich wesentlich die Identitäten dieser Personengruppe bestimmte und noch immer beeinflusst. Es wird aufgezeigt, wie sich die Identitäten über drei Generationen verändert haben und was noch als identitätsstiftend erfahrbar ist. Die Ergebnisse leisten einen Beitrag zur Identitätsforschung und bieten eine gute Möglichkeit Erkenntnisse über die beforschte Zielgruppe hinaus zu generieren.
Die Digitalisierung von Unternehmen und deren Produktionsanlagen bringen neue Bedrohungsformen mit sich, die zielorientierter ausgerichtet sind und mehrere Computersysteme gleichzeitig betreffen. Klassische Schutzmechanismen wie Firewalls, Anti-Viren-Systeme und IDS sind zumeist signatur- oder muster-basiert und können diese komplexen Bedrohungsformen nicht effizient erkennen. Die verwendeten Signaturen und Muster können durch Angreifer einfach umgangen werden. Darüber hinaus sind gezielte und komplexe Angriffe nur durch die Verknüpfung von Informationen mehrerer Computersysteme identifizierbar.
In den letzten Jahren wurden daher verstärkt anomalie-basierte IDS entwickelt und eingesetzt, die anhand selbstlernender Algorithmen das normale Verhalten von mehreren miteinander vernetzten Computersystemen erlernen und Abweichungen zum normalen Verhalten identifizieren. Hierzu verwenden die Algorithmen Log- und Monitoringdaten der Anwendungsschicht von verschiedenen Computersystemen und Anwendungen. Der Zugriff auf die Logdaten zur weiteren Analyse ist jedoch kompliziert, weil sie nicht an einer zentralen Stelle zusammenlaufen und es keine allgemein anerkannten Standards für die Erzeugung und Übertragung von Logdaten existieren.
Infolgedessen wird in dieser Arbeit ein zentrales Log-Management-System in eine Produktionsumgebung eingeführt, die verschiedene IT-Komponenten und Komponenten einer realen Güterproduktion beinhaltet. Zudem werden Logdaten verschiedener heterogener Datenquellen auf diesem System zentral aggregiert. Neben der Einführung eines Standards für die Struktur und Übertragung der Logdaten von den einzelnen Datenquellen auf das Log-Management-System, werden Logdaten auf ihre Relevanz hinsichtlich der Erkennung von Anomalien und der Abbildung des Systemverhaltens analysiert. Diese Arbeit beinhaltet zudem fortgeschrittene Bedrohungsszenarien, die für die Evaluation der IDS verwendet werden können und stellt somit eine Grundlage für eine zukünftige Analyse der Logdaten durch IDS dar.
X-ray microtomography is a nondestructive, three-dimensional inspection technique applied across a vast range of fields and disciplines, ranging from research to industrial, encompassing engineering, biology, and medical research. Phasecontrast imaging extends the domain of application of x-ray microtomography to classes of samples that exhibit weak attenuation, thus appearing with poor contrast in standard x-ray imaging. Notable examples are low-atomic-number materials, like carbon-fiber composites, soft matter, and biological soft tissues.We report on a compact and cost-effective system for x-ray phase-contrast microtomography. The system features high sensitivity to phase gradients and high resolution, requires a low-power sealed x-ray tube, a single optical element, and fits in a small footprint. It is compatible with standard x-ray detector technologies: in our experiments, we have observed that single-photon counting offered higher angular sensitivity, whereas flat panels provided a larger field of view. The system is benchmarked against knownmaterial phantoms, and its potential for soft-tissue three-dimensional imaging is demonstrated on small-animal organs: a piglet esophagus and a rat heart.We believe that the simplicity of the setupwe are proposing, combined with its robustness and sensitivity, will facilitate accessing quantitative x-ray phase-contrast microtomography as a research tool across disciplines, including tissue engineering, materials science, and nondestructive testing in general.
Stress testing is part of today’s bank risk management and often required by the governing regulatory authority. Performing such a stress test with stress scenarios derived from a distribution, instead of pre-defined expert scenarios, results in a systematic approach in which new severe scenarios can be discovered. The required scenario distribution is obtained from historical time series via a Vector-Autoregressive time series model. The worst-case search, i.e. finding the scenario yielding the most severe situation for the bank, can be stated as an optimization problem. The problem itself is a constrained optimization problem in a high-dimensional search space. The constraints are the box constraints on the scenario variables and the plausibility of a scenario.
The latter is expressed by an elliptic constraint. As the evaluation of the stress scenarios is performed with a simulation tool, the optimization problem can be seen as black-box optimization problem. Evolution Strategy, a well-known optimizer for black-box problems, is applied here. The necessary adaptations to the algorithm are explained and a set of different algorithm design choices are investigated. It is shown that a simple box constraint handling method, i.e. setting variables which violate a box constraint to the respective boundary of the feasible domain, in combination with a repair of implausible scenarios provides good results.
Wohnzukünfte
(2022)
Die Thematik Wohnen ist in ihren Abhängigkeiten vielschichtig und damit komplex. Wird der Fokus jedoch nicht auf die einzelnen Aktanten, sondern auf die Beziehungen gelegt, kristallisiert sich die Nachbarschaft mit ihren Bewohner:innen an der Schnittstelle zu allen anderen Akteur:innen heraus. Vorstellungen von Gesellschaften in Form von Ideologien und die Gestaltung von Räumen sind direkt miteinander verknüpft. Doch die zeitgenössische Architektur basiert noch immer auf dem Wohnverständnis des 19. Jahrhunderts, der patriarchalen Kleinfamilie. Zeitgenössisch verändern sich Lebensformen aber zunehmend und werden immer vielfältiger. Welche Wünsche, Bedürfnisse und Anforderungen haben also Menschen heute an ihren Wohnraum? Wie stellen sie sich ihre Zukunft des Wohnens vor und was bedeutet für sie, sich zuhause fühlen? Was möchten Menschen mit anderen teilen und wie sieht für sie eine gute Nachbarschaft aus?Es gibt viele Studien und Erhebungen im Bereich der ‚Hard Facts‘, also Haushaltsgröße, Wohnfläche, Nutzungsfläche oder Preis, doch bis dato kaum relevantes, öffentlich zur Verfügung stehendes Wissen im Bereich der ‚Soft Facts‘, die die eben aufgeworfenen Fragen beinhalten. Diese Wünsche und Bedürfnisse lassen sich nur schwer mit klassisch standardisierten Erhebungs- und Beteiligungsformaten erfassen, wie sie in herkömmlichen Beteiligungsprozessen der Quartiers- und Immobilienentwicklung, aber auch von Statistikunternehmen eingesetzt werden.
Die Materialität jedoch, die Methode, mit der Wünsche und Bedürfnisse erfasst werden sollen, hat einen maßgeblichen Einfluss darauf, welche Handlungsabläufe bzw. welche unterschiedlichen Gesellschaftsstrukturen hervorgerufen werden. ‚Körperliches‘ Wissen, das über das Ausüben sozialer Praktiken entsteht, entspricht oftmals nicht dem Explizierten, weshalb das wirkliche Tun, statt nur das Darüber-Sprechen, in der Erforschung von komplexen, sozialen Phänomenen so wichtig ist. Praxisintegrierende Designforschung kombiniert mit einem Mixed-Methods-Ansatz ermöglicht genau das. Im Forschungsprozess dieser Masterarbeit wurden auf diese Weise vier Formate zur Erforschung von Wünschen und Bedürfnissen der Vorarlberger:innen an den (erweiterten) Wohnraum entwickelt, getestet, evaluiert und zur Datenerhebung eingesetzt. Die daraus entstandenen Daten wurden multiperspektivisch interpretiert, diskutiert und zu zwölf Thesen, zwölf möglichen ‚Wohnzukünften‘ synthetisiert.
Companies worldwide and, therefore, companies from Vorarlberg face a common problem: the lack of skilled workers that led to the so-called “war for talents” in the last decades. This problem encouraged scientists to investigate the importance of many different monetary incentives and non-cash benefits to win this war for talents. This master’s thesis aims to examine if and how companies in Vorarlberg already use non-cash benefits. Furthermore, the most important benefits and their influence on the attractiveness of job advertisements are identified.
For this purpose, interviews with three HR managers from companies in Vorarlberg are carried out. Subsequently, in a quantitative survey, 21 different monetary incentives and non-cash benefits, intangible non-cash benefits, and corporate culture are evaluated by 316 participants. Furthermore, the participants ranked five different job advertisements to conceive results on the research questions.
The results clearly show that non-cash benefits are far more critical for future employees than classical monetary incentives. Although the number of international participants was lower than the number of Austrian and German participants (41 to 81 to 194), it is still obvious that independent of nationality, non-cash benefits can lead to a competitive advantage for companies in Vorarlberg. The interviews show that companies already work with such benefits in their daily business but do not strategically communicate on the topic.
To summarize, it can be concluded that a variety of non-cash benefits should be implemented within a company and also should be mentioned in job advertisements as they can help to attract more applicants not only from Austria but also from abroad and, therefore, help to win the war for talents.
Die Nachfrage nach Brettspielen ist in den letzten Jahren merklich angestiegen, was die jährlichen Umsatzzahlen (2005: 400 Mio. Euro, 2019: 594 Mio. Euro) belegen. Jedes Jahr gibt es mehr als 1.000 Neuerscheinungen, dennoch ist der Bekanntheitsgrad neuer Brettspiele in der Gesellschaft sehr gering.
Der Großteil der Menschen spielt sehr gerne Brettspiele. Hier unterscheidet man nach der Häufigkeit des Spielens. Die Vielspieler kennen sich gut in der Branche aus und probieren sich gerne an neuen Spielen. Im Vergleich dazu spielen Gelegenheitsspieler überwiegend die gleichen Spiele. Zu der großen Varianz an Spielen haben vermutlich viele noch nicht den Zugang gefunden.
Aufgrund dessen bin ich der Frage nachgegangen, weshalb Menschen ihnen bekannte oder unbekannte Spiele spielen. Um einen Zugang zu einem unbekannten Spiel erlangen zu können, muss man mehrere Einstiegshürden bewältigen. Die Spielanleitung stellt dabei eine entscheidende Einstiegs- und Verständnishürde dar. Um ein neues Spiel zu erlernen, gibt es mehrere Methoden, die ich in meiner Arbeit thematisiert habe. In dem Lernprozess kommen unterschiedliche Probleme auf. Aufgrund dessen sollte man, zumindest nach meiner Meinung, diesen Prozess optimieren.
Das Ziel meiner Arbeit ist es, die Einstiegshürde in ein unbekanntes Spiel zu senken und damit einen einfacheren und schnelleren Zugang zum Erlernen des Spiels zu ermöglichen.
Ich konnte belegen, dass die Spielanleitung ein wichtiger Bestandteil im Lernprozess darstellt und nicht ersetzt werden kann. Um den Lernprozess zu optimieren, habe ich eine ergänzende Umsetzung einer Spielanleitung konzipiert, die den praktischen Teil der Arbeit bildet.
Dadurch entstand ein multimodales Konzept, dass den Spieler*innen eine Hilfestellung während des Erlernens eines Spiels gibt. Das Medium soll eine App sein, in der Spiele anhand Animationen erklärt werden. Die Animationen sind modular aufgebaut und sind auf der Basis des Forschungsprojektes EMPAMOS entstanden. Zusätzlich kann man mithilfe eines Chat Bots individuelle Fragen per Texteingabe oder Sprachsteuerung zum erlernenden Spiel stellen.
Für die Messung der Zielerreichung werden eine Vielzahl an unterschiedlichen Beschaffungskennzahlen verwendet. Die unterschiedlichen Messmethoden sowie die dazugehörigen Instrumente passen sich dabei an die jeweilige Beschaffungspolitik an. Jedoch unterliegt die Beschaffungspolitik einem stetigen Wandel. Mit steigendem Reifegrad der Beschaffungspolitik ändert sich auch der Fokus von Messmethoden und Instrumenten. Stehen im ersten Reifegrad der Beschaffungspolitik noch die Kosten von einzelnen Beschaffungsobjekten im Mittelpunkt der Betrachtung, erweitert sich der Fokus beim zweiten Reifegrad bereits auf die Gesamtkosten. Die nächste Evolutionsstufe bildet der dritte Reifegrad, also die wertorientierte Beschaffungspolitik. Dabei werden nicht mehr nur die Kosten betrachtet, sondern auch der Nutzen, der dabei entsteht. Die Differenz zwischen Kosten und Nutzen ist vereinfacht ausgedrückt der Wertbeitrag, der durch die Beschaffung generiert wird. Um diesen Wertbeitrag zu messen, gibt es sowohl in der Literatur als auch in der Praxis zahlreiche Einzelkennzahlen, aber keine Spitzenkennzahl, die auch einen Vergleich mit den Mitbewerbern zulässt. Der Procurement-Value-Added (PVA) bietet dabei einen Lösungsansatz und versucht durch öffentlich zugängliche Daten einerseits den wertorientierten Beschaffungserfolg objektiv darzustellen und andererseits ein einfaches Benchmarking zu ermöglichen. In dieser Arbeit wird der PVA-Ansatz systematisch analysiert und mit anderen wertorientierten Beschaffungskennzahlen verglichen. Dadurch soll festgestellt werden, ob der PVA-Ansatz das Potenzial hat in der Praxis angewendet werden zu können.
Die vorliegende Masterarbeit befasst sich mit dem Verhalten von Mitarbeitenden in psychologisch sicheren und unsicheren Situationen. Hierfür wird das Konstrukt der psychologischen Sicherheit mit der Theorie der Ressourcenerhaltung verbunden. Dies wird als ein möglicher Ansatz gesehen, um zu erklären, wie psychologische Sicherheit entstehen kann. Es wird ermittelt, welche Ressourcen, als Prädiktoren von psychologischer Sicherheit relevant sind und zu welchen verhaltensbezogenen Konsequenzen psychologisch sichere und unsichere Situationen führen. Um die hierfür benötigten Daten zu erheben, wurde eine qualitative Studie in Form von neun teilstandardisierten Interviews, nach der Critical Incident Methode, durchgeführt. Die Ergebnisse zeigen auf, dass mit dieser Methode relevante Ressourcen der psychologischen Sicherheit ermittelt und verhaltensbezogene Konsequenzen, erfasst werden. Somit eignet sich die methodische Herangehensweise der vorliegenden Arbeit zur Anwendung in Unternehmen. Auf diese Weise können Unternehmen ermitteln, welche relevante Ressourcen für ihre Mitarbeitenden, die zur psychologischen Sicherheit führen, bereits vorhanden sind und welche gefördert werden müssen.
Durch die zunehmende Homogenität von Produkten ist der technologische Fortschritt des reinen Produktes kein Alleinstellungsmerkmal mehr. Die Entwicklung datenbasierter Services bietet die Option trotzdem langfristige Wettbewerbsvorteile zu erzielen. Ein Großteil der KMU ist sich dabei in der Methodik unsicher. Es wird erörtert, wie KMU Geschäftsmodelle mit datenbasierten Services weiterentwickeln können. Mit einer qualitativen Untersuchung werden Praxiserfahrungen aufgezeigt und theoretische Thesen validiert.
Die Weiterentwicklung zu einem datenbasierten Geschäftsmodell ist ein umfangreicher Prozess, der mit Chancen und Herausforderungen einhergeht. Als Herausforderung hat sich die Wahl relevanter Methoden und die Anpassung an die jeweiligen Rahmenbedingungen herausgestellt. Referenzprozesse strukturieren das Vorgehen und sollen gleichzeitig Flexibilität gewährleisten. Während des Prozesses ist die Kundenorientierung und Akzeptanz sicherzustellen. Aufgabe der Geschäftsführung ist es, die Weiterentwicklung zu fördern, Mitarbeitende einzubinden und Ressourcen bereitzustellen. Insgesamt konnte gezeigt werden, dass die Weiterentwicklung zur Veränderung der gesamten Unternehmenslogik sowie einem Paradigmenwechsel vom reinen Produktverkauf zum umfassenden Serviceangebot führt.
In this paper, low-loss Y-branch splitters up to 128 splitting ratio are designed, simulated, and optimized by using 2D beam propagation method in OptiBPM tool by Optiwave. For an optical waveguide, a silica-on-silicon material platform is used. The splitters were designed as a planar structure for a telecommunication operating wavelength of 1.55 m. According to the minimum insertion loss and minimum non-uniformity, the optimum length for each Y-branch is determined. The influence of the pre-defined S-Bend waveguide shapes (Arc, Cosine, Sine) and of the waveguide core size reduction on the splitter performance has been also studied. The obtained simulation results of all designed splitters with different S-Bend shape waveguides together with the different waveguide core sizes are discussed and compared with each other.
Greater specific energy densities in lithium-ion batteries can be achieved by using three-dimensional (3D) porous current collectors, which allow for greater areal mass loadings of the electroactive material. In this paper, we present the use of embroidered current collectors for the preparation of thick, pouch-type Li-ion batteries. Experiments were performed on LiFePO 4 (LFP) water-based slurries using styrene-butadiene rubber (SBR) as binder and sodium carboxymethyl cellulose (CMC) as thickener, and formulations of different rheological characteristics were investigated. The electrochemical performance (cyclic voltammetry, rate capability) and morphological characteristics of the LFP half-pouch cells (X-ray micro computed tomography and scanning electron microscopy) were compared between the formulations. An optimum electrode formulation was identified, and a mechanism is proposed to explain differences between the formulations. With the optimum electrode formulation, 350 µm casted electrodes with high mechanical stability were achieved. Electrodes exhibited 4–6 times greater areal mass loadings (4–6 mAh cm −2 ) and 50% greater electroactive material weight than with foils. In tests of half- and full-pouch embroidered cells, a 50% capacity utilization at 1C-rate and 11% at 2C-rate were observed, with a full recovery at C/5-rate. The cycling stability was also maintained over 55 cycles.
The classification of waste with neural networks is already a topic in some scientific papers. An application in the embedded systems area with current AI processors to accelerate the inference has not yet been discussed. In this master work a prototype is created which classifies waste objects and automatically opens the appropriate container for the object. The area of application is in the public space.
For the classification a dataset with 25,681 images and 11 classes is created to re-train the Convolution Neuronal Networks EfficientNet-B0, MobileNet-v2 and NASNet-mobile. These Convolution Neuronal Networks run on the current Edge \acrshort{ai} processors from Google, Intel and Nvidia and are compared for performance, consumption and accuracy.
The master thesis evaluates the result of these comparisons and shows the advantages and disadvantages of the respective processors and the CNNs. For the prototype, the most suitable combination of hardware and AI architecture is used and exhibited at the university fair KasetFair2020. An opinion survey on the application of the machine is conducted.
Mit Kunst und Kultur in Kontakt zu kommen, weckt idealerweise die Lust daran, mehr wissen zu wollen. Interesse an kulturell relevanten Themen hervorzurufen und Rezipient:innen anzuregen, sich mit gesellschaftlich dringlichen Fragestellungen auseinanderzusetzen, um auch an aktuellen Diskursen teilzuhaben, ist die Aufgabe der Kulturarbeiter:innen, Künstler:innen, Kurator:innen, Kunst- und Kulturvermittler:innen von heute. Die von ihnen entwickelten Konzepte und angebotenen Formate fungieren als Schnittstellen aller möglichen gesellschaftsrelevanten Themenbereiche, können Dialoge des Wissenstransfers eröffnen, und einem fruchtbaren interdisziplinären Austausch den Weg ebnen.
Die bislang entwickelten Vermittlungstools hatten nicht immer den gewünschten Erfolg. Der Grund liegt vermutlich auch zum Teil an zu vielen diskursiven und exklusiven Formaten, in denen u. a. zu viel Vorwissen vorausgesetzt wird. Sofern Rezipient:innen Interesse an zeitgenössischer Kunst verspüren, die Zeit und den Mut aufbringen, einem angebotenen Vermittlungsprogramm auch tatsächlich beizuwohnen, wird nicht selten jeglicher Wiederholungswunsch im Keim erstickt, wenn es den Veranstalter:innen nicht gelingt, mit ihren Inhalten direkte Bezüge zum Besucher bzw. zur Besucherin herzustellen. Um diese Menschen nicht „alleine zu lassen“ oder vor den Kopf zu stoßen, und ihnen kulturelle Teilhabe zu ermöglichen, braucht es dringend ein größeres Repertoire an qualitativ hochwertigen sowie niederschwelligen Vermittlungsangeboten.
In meinen Forschungsbemühungen widme ich mich daher der Suche nach neuen Wegen in der Vermittlungsarbeit für zeitgenössische bildende Kunst, mittels derer Kunstrezeption geübt werden kann, in der Annahme, dadurch könne im Laufe der Zeit eine bewusstere Wahrnehmung unserer bilderdominierten Welt entwickelt werden. Eine versierte Kunstrezeption kann – so meine Hypothese – maßgeblich zur visuellen Kompetenz (sowie zu einem unabhängigeren Denken) und folglich zu allgemein geringerer Manipulierbarkeit beitragen. Konkret gehe ich der Frage nach, ob visuelle Kompetenz durch eine achtsame Kunstrezeption unterstützt werden kann.
Insbesondere (Vermittlungs-)Projekte, die Kunst oder Kultur gleichermaßen emotional wie intellektuell erfahrbar machen, können bleibende Eindrücke entfalten. Der bewusste Einsatz nonverbaler Techniken in der (traditionellerweise) sprachlich verankerten Praxis der Kunstvermittlung ermöglicht den Rezipient:innen ein Erlebnis, das innere Zustände, Gefühle mit äußeren Eindrücken und einer umfassenden ästhetischen Erfahrung in Verbindung bringt. Erfahrungen solcher Vielfalt prägen sich bei Personen jeden Alters in einer Art und Weise im Netzwerk der Erinnerungen ein, wie es der Sprache allein nur in sehr seltenen Fällen zu gelingen vermag. In Hinblick auf den Bildungsauftrag kultureller Einrichtungen ermöglichen Vermittlungsprogramme mit Erfahrungs- und Erlebnischarakter demnach ein nachhaltiges Lernen sowie ein bleibendes Verständnis und regen darüber hinaus transformatorische Selbst-Bildungsprozesse an.
Der Standard IAS 36 regelt die Bewertung bestimmter Vermögenswerte in der IFRS-Bilanz und soll verhindern, dass Vermögenswerte mit einem Buchwert ausgewiesen werden, der höher ist als ihr erzielbarer Betrag. Zu diesem Zweck werden der Nutzungswert, der sich aus der Nutzung des Vermögenswertes ergibt, und der beizulegende Zeitwert, der einen theoretischen oder realen Marktwert darstellt, ermittelt. Aufgrund des Interpretationsspielraums des Standards, sich ändernder Faktoren wie Zinssätze und Wachstumsannahmen und der großen Auswirkungen, die Wertminderungen auf die Ergebnisse der Jahresabschlüsse haben können, ist der Impairment Test ein aktuelles Thema. In dieser Arbeit werden verschiedene Herangehensweisen zur Wertminderungsprüfung untersucht und gemeinsam mit identifizierten Verbesserungsmöglichkeiten in einem Best-Practice-Modell zusammengefasst. Zu diesem Zweck wurden Interviews mit sechs Unternehmen und sechs Wirtschaftsprüfern und Wirtschaftsprüferinnen aus der DACH-Region geführt und anschließend mittels fokussierter Interviewanalyse nach Kuckartz und Rädiker (2020) ausgewertet. Es zeigte sich, dass insbesondere die vorgelagerte Trigger Analyse und die Kontrollmechanismen an verschiedenen Stellen des Prozesses in der Praxis weiterentwickelt werden sollten. Darüber hinaus wird empfohlen, im Falle einer Wertminderung eines Goodwills nicht nur auf dem in der Praxis bevorzugten Nutzungswert zu beharren, sondern einen zweiten Bewertungszyklus mit dem beizulegenden Zeitwert durchzuführen, um den Wertminderungsbedarf zu reduzieren. Die Ergebnisse dieser Studie bieten verschiedene Möglichkeiten für weitere Forschungen, beispielsweise könnten weitere Experten und Expertinnen aus verschiedenen Ländern befragt werden, oder es könnte mehr Aufmerksamkeit auf Teilprozesse, wie z.B. die Trigger Analyse oder die Goodwill-Bewertung mit dem Fair-Value-Ansatz, gelegt werden.
Die (Klinische) Soziale Arbeit begegnet dem Scheitern täglich. Soziale Arbeit arbeitet vermehrt mit Menschen, die in ihren Lebensverhältnissen vielfach als gescheitert wahrgenommen werden. Obwohl diese Allgegenwärtigkeit vorliegt, thematisiert die Soziale Arbeit das eigene Scheitern wenig. Scheitern ist sowohl in der Literatur als auch als Forschungsgegenstand in der deutschsprachigen Sozialarbeitswissenschaft unterbeleuchtet. Die vorliegende Arbeit befasst sich deshalb mit dem Diskurs des Scheiterns in der Sozialen Arbeit und ist anhand der Kritischen Diskursanalyse aufgebaut.
Im ersten Teil der Arbeit wird der diskursive Kontext des Scheiterns in der Sozialen Arbeit mit Literatur dargestellt. Die theoretische Rahmung bildet die Kritische Diskursanalyse nach Jäger, angelehnt an die Diskurstheorie nach Foucault, verbunden mit der Handlungstheorie nach Staub-Bernasconi, wobei dem Umgang mit Macht in der Sozialen Arbeit ein Fokus zukommt. Für die Kritische Diskursanalyse wurden Schreibbeiträge zum Scheitern, welche im Forschungsprozess von Sozialarbeiter*innen aus der Praxis der Sozialen Arbeit in Vorarlberg (Österreich) erhoben wurden, analysiert. Im letzten Teil der Arbeit kommt die Bedeutung und Wirkung von Scheitern sowie das Nutzen des Diskurses über Scheitern für die Klinische Soziale Arbeit nochmals zur Geltung.
Die Arbeit zeigt die Aspekte und die Bedeutung des Scheiterns in der Sozialen Arbeit auf und kann als Inspiration herangezogen werden, um sich vertieft mit dem Thema Scheitern reflexiv auseinanderzusetzen und somit dem sozialarbeiterischen Forschungsdesiderat zum Scheitern entgegenzutreten.
If left uncontrolled, electric vehicle charging poses severe challenges to distribution grid operation. Resulting issues are expected to be mitigated by charging control. In particular, voltage-based charging control, by relying only on the local measurements of voltage at the point of connection, provides an autonomous communication-free solution. The controller, attached to the charging equipment, compares the measured voltage to a reference voltage and adapts the charging power using a droop control characteristic. We present a systematic study of the voltage-based droop control method for electric vehicles to establish the usability of the method for all the currently available residential electric vehicle charging possibilities considering a wide range of electric vehicle penetrations. Voltage limits are evaluated according to the international standard EN50160, using long-term load flow simulations based on a real distribution grid topology and real load profiles. The results achieved show that the voltage-based droop controller is able to mitigate the under voltage problems completely in distribution grids in cases either deploying low charging power levels or exhibiting low penetration rates. For high charging rates and high penetrations, the control mechanism improves the overall voltage profile, but it does not remedy the under voltage problems completely. The evaluation also shows the controller’s ability to reduce the peak power at the transformer and indicates the impact it has on users due to the reduction in the average charging rates. The outcomes of the paper provide the distribution grid operators an insight on the voltage-based droop control mechanism for the future grid planning and investments.
Globale Entwicklungen wie der Klimawandel, die Verknappung fossiler Ressourcen, die Coronapandemie oder die wachsende soziale Ungleichheit sind hochkomplexe Probleme, die das Gesellschaftssystem zunehmend destabilisieren und damit Raum für stark chaotische Entwicklungen ermöglichen. Kennzeichnend für Komplexität ist, dass rationales Überlegen oder kognitives Abwägen von Ursache-Wirkungsbeziehungen nicht mehr zielführend sind. Dabei steht im Hintergrund solcher komplexen Probleme, dass die Anzahl der (menschlichen und nicht-menschlichen) Akteure und den Verbindungen zwischen diesen nicht mehr überschau- oder analysierbar ist. In der vorliegenden Arbeit dient Forschung durch Design als Schlüssel zur Visualisierung des Chaos komplexer Systemdynamiken. So wird mittels eines detaillierten Systemmodells durch eine iterativ erstellte Visualisierung mit interaktiven Anwendungsmöglichkeiten das Fallbeispiel der Implementierung der Sustainable Development Goals in der österreichischen Politik dargestellt. Ziel dabei ist es, die zuständigen Kompetenzstellen und Antworten auf den Grad der Implementierung zu finden, wodurch einerseits daraus resultierende Handlungsempfehlungen zur Implementierung gegeben werden können, und andererseits auch Vorschläge zur Erreichung der SDGs. Als essenzielles Resultat konnte primär bestätigt werden, dass sich die Visualisierung von Systemprozessen als durchaus geeignet erwiesen hat. Zumal steht fest, dass eine sogenannte Implementierung der SDGs in Österreich nicht stattgefunden hat. Außerdem wird argumentiert, dass der Großteil der ökologischen SDGs über die Einhaltung bereits bestehender Bundes- und Landesgesetze im Rahmen des Umweltschutzes erreicht werden könnten.
Virtual Reality im Golfsport
(2023)
Die Möglichkeiten des Einsatzes von Virtual Reality (VR) abseits des Unterhaltungssektors sind sehr umfangreich. Die Technologie kann als Wiedergabemedium von klassischen audiovisuellen Inhalten oder speziell für VR entwickelten Inhalten verwendet werden, jeweils mit oder ohne Interaktion der benutzenden Person. Um die in dieser Arbeit gestellte Forschungsfrage „Wie kann VR im Golfsport unterstützend beim Training eingesetzt werden?“ zu beantworten wurde VR als Medium auf seine Anwendungsmöglichkeiten hin überprüft und aufgezeigt, wo diese Technologie im Bereich „Training“ wirkungsvoll eingesetzt werden kann. Die Verwendung einer Mind Map ergab eine erste Produktidee: Golfplätze mittels VR zu besuchen, bevor die Spielenden selbst zu einem Turnier anreisen. Durch Literaturrecherchen, Experteninterview, die qualitative Auswertung von Interviews von Golfspielenden und eine Analyse der am Markt befindlichen digitalen „Helfer“ für Golfer:innen wurden Hinweise gesammelt, um sowohl eine Hypothese zur möglichen Zielgruppe aufzustellen, als auch die Forschungsfrage, durch Konkretisieren der Produktidee, zu beantworten.
Erkenntnisse über die am Markt befindlichen Produkte und Hinweise aus der Sportpsychologie führten zu der Hypothese, dass die Effektivität des Produktes im Einsatz des mentalen Trainings verbessert werden könnte, wenn neben dem visuellen Kanal ein Audiokanal die Darstellung der virtuellen Umgebung unterstützt. Auch wenn diese Hypothese in einer Feldstudie mit 7 Teilnehmern weder wiederlegt noch bestätigt werden konnte, zeigt die Auswertung einer Onlineumfrage zum Produkt und die erarbeitete Theorie großes Potential für den Einsatz von VR als Unterstützung im mentalen Training und für weitere Forschung auf diesem Gebiet auf. Als Produktidee ging aus der Arbeit eine VR-Applikation, zur mentalen Vorbereitung auf wenig bekannte Golfplätze, für gute und professionelle Golfspieler:innen hervor.
Violation-mitigation-based method for PV hosting capacity quantification in low voltage grids
(2022)
Hosting capacity knowledge is of great importance for distribution utilities to assess the amount of PV capacity possible to accommodate without troubling the operation of the grid. In this paper, a novel method to quantify the hosting capacity of low voltage grids is presented. The method starts considering a state of fully exploited building rooftop solar potential. A downward process is proposed - from the starting state with expected violations on the grid operation to a state with no violations. In this process, the installed PV capacity is progressively reduced. The reductions are made sequentially and selectively aiming to mitigate specific violations: nodes overvoltage, lines overcurrent and transformer overloading. Evaluated on real data of fourteen low voltage grids from Austria, the method proposed exhibits benefits in terms of higher hosting capacities and lower computational costs compared to stochastic methods. Furthermore, it also quantifies hosting capacity expansions achievable by overcoming the effect of the violations. The usage of a potential different from solar rooftops is also presented, demonstrating that a user-defined potential allows to quantify the hosting capacity in a more general setting with the method proposed.
Die Unternehmensplanung ist ein Pfeiler der Unternehmenssteuerung und dient zur Prognose der zukünftigen Geschäftsentwicklung sowie als Grundlage für Entscheidungen und Maßnahmen. Es wird auf diverse Charakteristiken der Unternehmensplanung eingegangen, wie die strategische und operative Planung. Die Planungsarten fokussieren sich auf Budget und Forecast. Zu diesen werden verschiedene bisherige Studien vorgestellt.
Die Forschungsfrage untersucht, wie sich in den vergangen zwei Jahren der Planungsprozess in der Bodenseeregion verändert hat und welche Treiber es für die Veränderungen gab. Die quantitative Untersuchung mittels einer Online-Umfrage erfolgt vor dem Hintergrund einer nicht nachlassenden Unsicherheit bedingt durch die Corona-Pandemie. Ein neuer Blickwinkel auf die Unternehmensplanung ist die Analyse von Unterschieden aufgrund der gewählten Unternehmensausrichtung Massenproduktion oder Auftragsfertigung. In den Ergebnissen zeigen sich keine signifikanten Unterschiede zwischen den beiden Geschäftsmodellen. Die Hälfte der befragten Unternehmen hat die Planung angepasst und z.B. die Planungsdauer verkürzt oder Szenarien verwendet.
Welcher Kompetenzbedarf besteht bei HR-MitarbeiterInnen, um die digitale Transformation in Unternehmen mitbegleiten zu können und welche Methoden zur Kompetenzentwicklung von HR-MitarbeiterInnen finden in einer zukunftsorientierten Personalentwicklung Anwendung? Mit einer Antwort auf diese Fragen beschäftigt sich die vorliegende Arbeit. Nach der Erklärung der theoretischen Begriffe und Grundlagen zeigt das Kapitel drei den Kompetenzbedarf von HR-MitarbeiterInnen für die digitale Transformation auf und liefert spezifische Methoden zur Kompetenzentwicklung digitaler Transformation. Dabei spielen die Kompetenzen im Bereich der Führungs- und Motivationsstrategie sowie die Gestaltung des Wissensmanagements eine bedeutende Rolle. Den MitarbeiterInnen im HRM kommt angesichts des Fachkräftemangels aufgrund der demografischen Entwicklung eine zunehmend strategische Bedeutung zu. Sie werden zu engen Partnern in der strategischen Ausrichtung des Unternehmens. Auf der einen Seite steht die Ressource Humankapital, auf der anderen Seite aber auch die Zukunftssicherung, denn im Zeitalter der Digitalisierung und des globalen Wandels ist die nachhaltige Sicherung des Know-how für ein Unternehmen überlebenswichtig. In diesem Kontext müssen die verantwortlichen HR-MitarbeiterInnen andere und zum Teil vielfältigere Kompetenzen mitbringen als noch vor einigen Jahrzehnten. Die Arbeit schließt nach den Handlungsempfehlungen, einem Praxisbeispiel, einem Fazit und einem Ausblick.
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.
Meine Masterarbeit beschreibt im Grunde einen Diskussionsprozess eines Begriffs. Es geht um den Versuch einer Kategorisierung und Bestimmung der Illustrationen, also darum, inwiefern Illustrationen kategorisiert werden können und anhand von welchen Merkmalen bestimmt werden kann, ob es sich um eine Illustration handelt. Diese Untersuchung findet in der Designforschung nämlich nur marginal statt. Julius Wiedemann und der Illustrator Raban Ruddigkeit erklären in ihren Büchern zwar, was eine Illustration ausmacht, jedoch wird weder eine Taxonomie bzw. Definition explizit angeführt oder darauf verwiesen, es kann aus dem Text aber ein Verständnis und damit eine implizite Definition explizit gemacht werden.
Laut Ruddigkeit sind Illustrationen mehr als bloß ein „Abbild der Wirklichkeit“ (Ruddigkeit 2021, Klappentext), denn eine Illustration „erhellt […] übertreibt […] mischt sich ein […] stößt […] Veränderung an […] interpretiert “ (Ruddigkeit 2021, Klappentext) Wiedemann verfolgt einen anderen Ansatz, denn laut ihm muss eine Illustration im Kontext funktionieren. (Vgl. Wiedemann 2007, 7f.)
Die Masterarbeit verfolgt die Methode der relationalen Bestimmung nach Wiesing. (Vgl. Wiesing 2015, Einleitung) Es erfolgt zusätzliche eine Analyse von Literatur, insbesondere liegt der Fokus auf den Theorien unter anderem von Sybille Krämer, Steffen-Peter Ballstaedt, Nelson Goodman, Hartmut Stöckl, Vilem Flusser, Ludwig Wittgenstein und Roland Barthes. Verorten lässt sich die Arbeit in den Bereichen der Bildwissenschaften bzw. der Kategoriensysteme. Ein Begriff wird diskutiert, es wird kein Versuch angestrebt, eine endgültige Lösung zu finden. Die Diskussion wird in einem passenden und übersichtlichen Layout in der Arbeit präsentiert und theoretisch weiter ausgearbeitet, sowie durchdiskutiert. Im besten Fall ergeben sich Vorschläge für eine Definition, eine Möglichkeit zur Kategorisierung bzw. Erhellungen zur Illustration, ohne sie endgültig definieren zu müssen.
Wir können von einem Theater der Begriffsbestimmung sprechen, welches am Fallbeispiel der Illustration inszeniert wird. Die Absicht der Masterarbeit ist somit nicht, eine endgültige Taxonomie aufzustellen, sondern die Diskussion zu eröffnen und Einsichten zu liefern. Mittels Überlegungen, Erkenntnissen aus Experimenten bzw. Analysen, Recherche und Forschung durch Design möchte ich versuchen, diesem komplexen Feld näher zu kommen. Diese Erkenntnisse sollen als Basis für weiterführende Forschung betrachtet werden. Fragen werden gestellt, diese müssen jedoch nicht im Zuge dieser Arbeit beantwortet werden.
Meine Forschungsfrage lautet somit folgendermaßen: Wie kann der Bestimmungsprozess zu einem Begriff offengelegt werden und zu einem fruchtbaren Ergebnis bzw. einer Einsicht führen, am Beispiel des Begriffs Illustration, ohne eine endgültige Lösung anzupeilen?
Projekte zeichnen sich aus durch ihre Einmaligkeit und Offenheit. Unternehmen sind bestrebt ihre Projekte zum positiven Abschluss zu bringen. In dieser Ausarbeitung wird die Rolle der Verhaltensökonomie im Projektmanagement beleuchtet. Dabei wird der Fokus auf die Projektplanung und insbesondere auf die Aufwandsschätzung gelegt. Der theoretische Rahmen bildet ein solides Verständnis von Verhaltensökonomie und Projektmanagement. Mittels systematischer Literaturrecherche für den Zeitraum von 2017 bis 2023 werden die gängigsten kognitiven Verzerrungen ergründet, die in Projekten, insbesondere bei Aufwandsschätzungen häufig auftreten. Die häufigste kognitive Verzerrung ist der Optimism Bias, gefolgt vom Escalation of Commitment, Strategic Misrepresentation bis hin zur Planning Fallacy und dem Endownment Effect. Das Ergebnis dieser Ausarbeitung zeigt, dass kognitive Verzerrungen den Projekterfolg maßgeblich beeinflussen können.
In der vorliegenden Masterarbeit wird das Verbesserungspotential von Gebäudeleitsystemen am Beispiel der Errichtergemeinschaft Frühlingstraße untersucht. Der Fokus bei der Analyse liegt auf der Ermittlung von Verbesserungen im Bereich der Regel- und Steuerstrategien. Beim Referenzobjekt handelt es sich um sieben Einfamilienhäuser, die durch einen zentralen Pelletkessel mit Wärmeenergie versorgt werden, welche über das miteinander verbundene Kellergeschoss verteilt wird.
Im Kapitel Stand der Technik werden die Gebäudeleitsysteme von Mehrfamilien-Wohnanlagen in den 2000er Jahren und in den 2020er Jahren mit dem ausgeführten Gebäudeleitsystem des Referenzobjektes der Errichtergemeinschaft Frühlingstraße, bei dem es sich ebenfalls um eine Mehrfamilien-Wohnanlage handelt, miteinander verglichen. Nach dem Kapitel Forschungsstand wird die verwendete Methode kurz umrissen. Ein wichtiger Schritt zur fertigen Simulation ist das Verstehen der bestehenden Steuer- und Regelstrategien. Dabei wird sehr genau auf die Regelung der Häuser und des Pelletkessels eingegangen. Ebenfalls werden die zu simulierenden Komponenten, die zur Verfügung gestellten Messdaten und die verwendete Simulationssoftware Polysun beschrieben. Bei der Simulation des Referenzobjektes wird speziell auf die verwendeten Komponenten, aber auch auf die umgesetzten Regel- und Steuerstrategien eingegangen. Die Beschreibung der einzelnen Varianten beschränkt sich auf den Unterschied zur Simulation des Referenzobjektes.
Die einzelnen Varianten unterscheiden sich im Bereich des solaren Deckungsanteils nur sehr geringfügig. Die solare Ausbeute in den Monaten Mai bis August ist bei den Varianten 3 und 4 jedoch deutlich höher als bei den anderen Varianten. Ein deutlicher Unterschied ist auch im Bereich des Pellet-Verbrauchs auszumachen. Bei der Variante 4 werden im Vergleich zum Referenzobjekt jährlich gut 800 kg Pellets eingespart. Dies bedeutet eine Reduktion des CO2-Ausstoßes um 167,8 kg. Dieser Trend der Reduktion kann auch bei den Betriebsdauern des Pelletkessels fortgesetzt werden. Der größte Unterschied der einzelnen Varianten ist bei den Anforderungen des Pelletkessels auszumachen. Somit wird der Pelletkessel bei der Variante 2 14536-mal angefordert und bei der Variante 4 lediglich 3353-mal.
Diese Verbesserungen können durch kleine Anpassungen der Regel- und Steuerstrategien erzielt werden. Gerade weil die Low-Tech Gebäude des Referenzobjekts sehr energieeffizient umgesetzt und nicht mit technischer Ausstattung überladen wurden, können die ermittelten Verbesserungspotentiale bei anderen Gebäuden umgesetzt werden. Bei Gebäuden, die nicht als Low-Tech Gebäude errichtet wurden, ist durch die Anpassung des Gebäudeleitsystems ein größeres Verbesserungspotential zu erwarten.
Varying mindsets in Design Thinking. Why they change during the process and how to nudge them
(2019)
Eingebettete Systeme – wie zum Beispiel eine Multifunktions-Küchenmaschine, ein intelligenter Saugroboter oder Lautsprecher mit sprachgesteuerten Assistenten – sind für einige Menschen in der heutigen Zeit nicht mehr wegzudenken. Sie sind mittlerweile Bestandteil unseres täglichen Lebens. Doch hinter jedem System stehen auch eine Vielzahl von Anforderungen, die für die Kundinnen und Kunden, sowie Nutzerinnen und Nutzer relevant sind. Ob diese Anforderungen immer einen Mehrwert für die Kundinnen und Kunden bringen, ist dabei irrelevant. Doch wie kann gewährleistet werden, dass die zu Beginn definierten Anforderungen schlussendlich das gewünschte Ergebnis für die Kundinnen und Kunden oder Nutzerinnen und Nutzer bringt? Durch die Durchführung einer Validierung in verschiedenen Phasen der Systementwicklung können wichtige Erkenntnisse über das Produkt und dessen Funktionen vor der eigentlichen Marktfreigabe gewonnen und noch in den verschiedenen Entwicklungsphasen für Änderungen oder Verbesserungen eingeplant werden. Oft werden diese essentiellen Validierungsprozesse zu spät oder gar nicht durchgeführt, was zu unausgereiften Produktfreigaben führt, was wiederum unzufriedene Kundinnen und Kunden zur Folge haben kann.
Diese Masterarbeit bietet einen Einblick, wie eine solche Validierung in Systementwicklungen integriert werden kann. Unter anderem wird eine klassische Vorgehensweise, das V-Modell, und die agile Methode Scrum betrachtet und auf mögliche Validierungskonzepte hin untersucht. Anhand eines Praxisbeispiels einer bereits durchgeführten Systementwicklung im Elektronikbereich wird gezeigt, wie die Methoden des V-Modells und Scrum in Verbindung mit der Validierung umgesetzt wurden. Die Erkenntnisse aus diesen beiden Teilen, Theorie und Praxis, werden durch Handlungsempfehlungen für Entwicklungsprojekte abgerundet.
Validierung der Stromnetzberechnungsansätze anhand realer Messungen in der Niederspannungsebene
(2023)
Die politischen Ziele der Energiewende und insbesondere der zunehmende Ausbau der Elektromobilität führt zu steigenden Belastungen in den Niederspannungsnetzen. Eines der Hauptprobleme besteht darin, dass die genauen Informationen über den Zeitpunkt und die Dauer der Ladevorgänge fehlen, was eine präzise Bestimmung des Netzzustandes erschwert - auch deshalb, weil dieser durch die statische Netzberechnung erhoben wird, welche weitestgehend auf Annahmen und nicht zeitreihenbasierten Werten beruht. Im Folgenden wird daher untersucht, wie groß die Abweichungen der Niederspannungsparameter zwischen Trafostation und letztem Kabelverteilschrank bei realen Messungen im Winter im Vergleich zur statischen Worst-Case Berechnung sind. Weiters wird ermittelt, welche Änderungen der Eingangsparameter zu einer Optimierung der Ergebnisse führen. Dafür werden reale Messungen in verschiedenen Niederspannungsspannungsnetzen realisiert und nach einer Analyse der Messergebnisse werden die Eingangsparameter für die Netzberechnung bestimmt. Auf Basis dieser Inputparameter werden vier verschiedene Szenarien gebildet und die Berechnung mit diesen Szenarien durchgeführt. Anschließend werden die Berechnungsergebnisse mit den Messergebnissen verglichen. Der Vergleich der Methoden zeigt, dass die Berechnung den Worst-Case-Fall im Netz sehr realistisch abbildet. Jedoch ist aufällig, dass dieser Fall nur selten vorkommt und die betrachteten Verteilernetze zum größten Teil viel geringer belastet sind. Die 95%-Szenario-Betrachtungen zeigen, dass eine Vernachlässigung der selten vorkommenden Ausreißer zu einer Änderung der Eingangsparameter und einer Optimierung der Netzberechnung führt. Aus der Untersuchung geht zusätzlich hervor, dass die Annahme des Leistungsfaktors cos ϕ mit 0,90 zu niedrig angesetzt ist. Es kann festgehalten werden, dass sich dieser bei allen Netzen zwischen 0,999 und 0,990 befindet. Dieser Eingangsparameter für die statische Worst-Case-Berechnung kann aufgrund der gewonnenen Erkenntnisse optimiert werden.
We have investigated the ablation behaviour of single crystal SrTiO3 <100> with focus on the influence of the pulse duration at a wavelength of 248 nm. The experiments were performed with KrF-excimer lasers with pulse durations of 34 ns and 500 fs, respectively. Femtosecond-ablation turns out to be more efficient by one order of magnitude and to eliminate the known problem of cracking of SrTiO3 during laser machining with longer pulses. In addition, the cavities ablated with femtosecond pulses display a smoother surface with no indication of melting and well-defined, sharp edges. These effects can be explained by the reduced thermal shock effect on the material by using ultrashort pulses.
Ein weit verbreitetes Problem von Heizungs-, Lüftungs- und Kühlungsanlagen (HLK-Anlagen) ist das Schwingungsverhalten der Regelung. Dieses führt zu unerwünschten Taktzyklen und damit zu erhöhtem Energieverbrauch, sowie zu verringerter Lebensdauer der Anlagenkomponenten. Deshalb besteht ein wirtschaftliches und ökologisches Interesse an der Vermeidung des Schwingungsverhaltens. Zum Auffinden von Fehlern, sowie deren Ursachenanalyse, steht in der Literatur ein weites Spektrum an möglichen Werkzeugen zur Fehlerdetektion und -diagnose (FDD) zur Verfügung. Klassische FDD-Werkzeuge für den Bereich von HLK-Anlagen basieren auf umfangreichem Domänenwissen zur Bestimmung der Ursache-Wirkungs-Beziehung von Fehlertypen, wie zum Beispiel Schwingungen. Deren Anwendung im HLK-Bereich ist deshalb mit zeitaufwändigen Analysen durch Fachpersonal verbunden, was hohe Kosten zur Folge hat.
Im Zuge dieser Masterarbeit wird ein FDD-Werkzeug für den Fehlertyp Schwingungen entwickelt, welches den hohen Zeitaufwand der Ursachenanalyse des Schwingens von HLK-Anlagen verringert. Durch die Anwendung von Methoden des maschinellen Lernens werden potenzielle Ursachen lokalisiert. Außerdem wird gezeigt, wie mit Hilfe des maschinellen Lernens eine Abschätzung über Gegenmaßnahmen zur Behebung der Schwingungsursachen getroffen werden kann.
Die Herausforderung in der Umsetzung des FDD-Werkzeugs liegt dabei in der Auswahl der Methoden für die Implementierung des datenbasierten Modells. Zur Umsetzung werden Daten einer HLK-Anlage eines Gewerbebetriebs am Standort Vorarlberg verwendet. Das entwickelte FDD-Werkzeug dient der fortlaufenden Auswertung von Schwingungen und der Optimierung bestehender Anlagen. Schlussendlich soll damit der Erhöhung der Energieeffizienz und der Erhöhung der Lebensdauer der Komponenten von HLK-Anlagen beigetragen werden.
Das Ziel dieser Masterarbeit war die Untersuchung der Einflussgrößen Wassertemperatur, Füllstand, Gasleerrohrgeschwindigkeit und Blasengröße auf die Befeuchtung von Luft in einer mit Salzwasser befüllten Blasensäule. Dazu wurde eine umfangreiche Versuchsreihe durchgeführt, um die Auswirkungen zu untersuchen. Großer Wert wurde dabei auf die Reproduzierbarkeit der Ergebnisse gelegt. Es wurde eine große Anzahl Datensätze während den Versuchszeiten geloggt und analysiert. Die Auswertung hat ergeben, dass die Wassertemperatur ein wesentlicher Einflussfaktor auf die Befeuchtung von Luft ist. Die Wassertemperatur zeigt gemäß des Antoine-Gesetzes exponentielle Auswirkungen auf die Kondensatproduktion auf. Hohe Füllstände in der Blasensäule wiesen im Vergleich zu niedrigeren Füllständen eine erhöhte Kondensatproduktion auf. Eine Steigerung der Gasleerrohrgeschwindigkeit in den Versuchen führte zu einer Zunahme der produzierten Kondensatströme. Die in dieser Arbeit untersuchten Spargerplatten der Variation des Lochdurchmessers konnten keine klaren Erkenntnisse auf die Befeuchtung von Luft liefern. Insgesamt sind die Forschungen an der Versuchsanlage noch nicht abgeschlossen und weitere Erkenntnisse zu dieser Thematik sollen in Zukunft gewonnen werden.
Untersuchung zur Lösbarkeit der Rückwärtskinematik eines 6-DOF Roboter mit einem neuronalen Netz
(2022)
Das Berechnen der inversen Kinematik ist komplex und muss für jeden Robotertyp individuell gelöst werden. Da ein Manipulator ohne die Rückwärtskinematik, die die erforderlichen Achsvariablen für eine Ziellage ermittelt, in der Praxis nicht verwendet werden kann, ist dieses Problem elementar in der Robotik. In dieser Arbeit wird der Ansatz zur Lösung der inversen Kinematik mit einem neuronalen Netz für einen Roboter mit sechs Freiheitsgarden untersucht. Dabei ist besonders darauf zu achten alle Mehrdeutigkeiten der inversen Kinematik beim Training zu berücksichtigen, da sonst das Kriterium des Determinismus zwischen Inputs und Outputs verletzt wird, was verhindert, dass ein Netz für das Problem trainiert werden kann. Es hat sich gezeigt, dass der Optimierungsalgorithmus Adams ebenso gute Ergebnisse wie der Scaled Conjugated Gradient erzielt. Die in Tensorflow verwendete typischen Aktivierungsfunktion Tangens hyperbolicus, weist im Vergleich zu anderen untersuchten Aktivierungsfunktionen, die in Tensorflow implementiert sind, die beste Performance auf. In MATLAB hingegen weist die Log sigmoid Aktivierungsfunktion die beste Performance von den implementierten Aktivierungsfunktionen auf. Zusätzlich verringert das Einschränken der Achsvariablen auf die tatsächlichen Achsbeschränkungen beim Trainieren des Netzes, sowohl den Netzwerkfehler als auch die Datenmenge, die benötigt wird, damit das Netz gut generalisiert. Abschließend stellt sich heraus, dass die trainierten Netze keine Praxistauglichkeit aufweisen, da der erzielte Netzwerkfehler zu groß ist. Da alle Mehrdeutigkeiten durch geometrische Analyse ausgeschlossen sind und ein ausreichend großer Datensatz verwendet wurde, kann mit den hier vorgestellten Ansätzen das Ergebnis nur durch komplexere Netze und damit mehr Daten verbessert werden. Andere Ansätze die zusätzliche Informationen zur Berechnung der Achswinkel zur Verfügung stellen könnten zudem auch bessere Ergebnisse erzielen. Darüber hinaus könnte es sinnvoll sein, Ansätze zu untersuchen, die sich die Achsbeschränkungen zunutze machen.
Um ein möglichst kostengünstiges Laden von Elektrofahrzeugen zu erreichen, ist es nötig, diese möglichst in Zeiten zu laden, an denen die Kosten für die Energie geringer sind und die Entstehung von Leistungsspitzen vermieden wird. Aus diesem Grund wird in dieser Arbeit anhand des Verbrauches und den tariflichen Bedingungen eines Betriebes in Österreich die Kostenentwicklung von drei verschiedenen Ladeszenarien untersucht und verglichen. Dabei handelt es sich um das einfache Laden, intelligente Laden und das intelligente Laden mit Vehicle to Grid Erweiterung, wobei hierbei die Energie aus den Fahrzeugen ausschließlich zur Eigenverbrauchsoptimierung und Spitzenlastreduktion eines Betriebes dient und somit nicht in das Netz gespeist wird. Die Ergebnisse werden durch eine lineare Optimierung errechnet wobei bis zu vier Fahrzeuge simuliert werden.
Die Ergebnisse zeigen, dass es durch das intelligente Laden zu keinen neuen Leistungsspitzen kommt und es zusätzlich zu einem erhöhten Eigenverbrauch aus der vorhandenen Photovoltaikanlage kommt.
Dadurch reduzieren sich die Ladekosten in jedem Szenario. Auch in Betrachtung auf die Anschaffungskosten, ist eine Verbesserung ersichtlich. Beim Vehicle to Grid Laden werden die Arbeits- und Leistungskosten noch weiter gesenkt, wobei die Leistungskosten bei zwei Fahrzeugen ihren Tiefpunkt erreicht haben. Zusätzlich kann der Eigenverbrauch aus der Photovoltaikanlage noch weiter erhöht werden. Nachdem hierbei die Investitionskosten noch berücksichtigt wurden, kommt der Autor zum Schluss, dass es nur mit einem Fahrzeug zu einer Verringerung der gesamten Kosten kommt. Dies kommt durch die erhöhten Investitionskosten und dem mit höher werdender Anzahl an Fahrzeugen geringer werdenden Vehicle to Grid Einsatz zustande.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Im Rahmen dieser Masterthesis wurde beispielhaft gezeigt, mit welchen Maßnahmen die Handhabung (Gewicht, Größe) von Nasskühlern verbessert werden kann. Dabei wurde berücksichtigt, dass Kühlleistung und Durchsatz dem aktuellen Stand der Technik entsprechen.
Die zu Beginn durchgeführten Messungen an einem, in der Praxis eingesetzten, Referenzgerät und die darauffolgenden Berechnungen lieferten die thermodynamischen Größen (Temperatur, Druck). Diese physikalischen Größen lieferten die Randbedingungen der darauffolgenden Computational Fluid Dynamics (kurz CFD) Simulationen. Aus technischen Gründen wurde der Druck nicht direkt über Sensoren gemessen, sondern mit Hilfe der gemessenen Temperaturen berechnet. Da die Druckmessung einen zu starken Eingriff ins System dargestellt hätte. Um die Korrektheit der berechneten Drücke sicherzustellen, wurden in weiterer Folge die Temperaturen nachgerechnet und mit den Messwerten verglichen.
Um die Messwerte beziehungsweise die Berechnungen weiter zu bestätigen, ist zuerst ein CAD-Modell des vorhanden Referenzgerätes erstellt worden. Dieses CAD-Modell wurde dann hergenommen, um die ersten CFD Simulationen durchzuführen. Die Schwierigkeit hierbei lag bei der realistischen Abbildung der physikalischen Vorgänge, wie beispielsweise bei dem Verdampfen und Kondensieren des Kältemittels (Arbeitsmedium). Es wurden die einzelnen Komponenten des Kältekreislaufes simuliert (Wärmetauscher des Nutzmediums, Verdampfer und Kondensator des Arbeitsmediums).
Abschließend wurde ein Entwurf zur Optimierung von Schankanlagen erarbeitet. Von diesen wurden (teilweise) CAD Modelle erstellt. Die Modelle der optimierten Komponenten wurden dann, bezogen auf ihr Volumen und Gewicht, mit denen des Referenzgerätes, gegenübergestellt.
Den Abschluss der Arbeit bildet ein Fazit über die durchgeführten Berechnungen, Messungen und Simulationen. Des Weiteren wurden hier Aspekte, die nicht in der Arbeit berücksichtigt wurden, kurz aufgegriffen und erläutert.
Kultur und Werte sind allgegenwärtig in unseren Leben. Sie prägen uns Menschen nicht nur im persönlichen und privaten Umfeld, sondern sind auch Teil von Gesellschaftsstrukturen und Unternehmen. Das Ziel dieser Masterthesis ist es deshalb, herauszufinden, welchen Zusammenhang es zwischen den Themen Unternehmenskultur und Mitarbeiterbindung gibt und ob die Unternehmenskultur in Familienunternehmen dazu beitragen kann eine höhere Mitarbeiterbindung zu schaffen. Dabei werden eine Vielzahl an Motivationsfaktoren, sowie Werten berücksichtigt, welche in einer quantitativen Forschung Aufschluss darüber geben sollen, was den Mitarbeitenden in Vorarlberger Unternehmen wichtig ist und wie diese die Unternehmenskultur in ihren Betrieben wahrnehmen. Mit Hilfe eines standardisierten Fragebogens konnten 151 Personen mit einem Durchschnittsalter von 34,93 Jahren erreicht werden. Dabei wurde ersichtlich, dass die Faktoren angenehme Arbeitsatmosphäre, Jobsicherheit, Weiterbildung/Entwicklung, Führung und Work-Life-Balance die wichtigsten Motivationsfaktoren darstellen. Im Bereich Werte sind Verlässlichkeit, Ehrlichkeit, Verantwortungsbewusstsein, Respekt und Fairness am wichtigsten. Diese Erkenntnisse konnten unabhängig von der Unternehmensform erlangt werden.
Unternehmen müssen ihre Prozesse stetig weiterentwickeln und verbessern, damit sie trotz des stärkeren Wettbewerbsdrucks am globalen Markt bestehen können. Process Mining verknüpft hochinnovative Technologie mit der Evaluation und Entwicklung von Geschäftsprozessen. Process Mining ist ein Verfahren, das dazu dient, bestehende Geschäftsprozesse aus gesammelten Daten von Informationssystemen zu identifizieren, mit bestehenden Soll-Prozessen zu vergleichen und die Geschäftsprozesse anhand der gewonnenen Erkenntnis zu verbessern. Dadurch werden Prozesse optimiert und die Wettbewerbsfähigkeit von Unternehmen wird nachhaltig gesteigert. Dennoch zeigen Erfahrungsberichte und Untersuchungen aus der Marktforschung, dass viele Process Mining Projekte scheitern, weil gewisse Faktoren der Unternehmenskultur nicht berücksichtigt werden. Es besteht eine Wissenslücke, inwiefern die Faktoren den zielführenden Einsatz von Process Mining beeinflussen. Deshalb war es das Ziel dieser Masterarbeit, herauszufinden, welche Faktoren der Unternehmenskultur den zielführenden Einsatz von Process Mining beeinflussen. Hierfür wurden in einer Literaturrecherche N= 1,491 Titel und N= 97 Abstrakte gescannt, bis N=28 wissenschaftliche Artikel und Erfahrungsberichte übrig waren, die von Relevanz und wissenschaftlichen Wert für diese Arbeit waren. Um diese N=28 wissenschaftlichen Artikel und Erfahrungsberichte zu analysieren, wurde eine Kombination aus der Vorgehensweise der Hermeneutik nach Gadamer sowie einer induktiven qualitativen Analyse nach Mayring angewendet. Die Ergebnisse aus der qualitativen Analyse aus dieser Masterarbeit haben gezeigt, dass neben der technologischen Infrastruktur die Faktoren der Unternehmenskultur wie Potenziale der Mitarbeitenden, Vision und Mission, Kommunikation mit den Mitarbeitenden, Partizipation der Mitarbeitenden und Kundenorientierung eine zentrale Rolle für den zielführenden Einsatz von Process Mining spielen. Zusammenfassend wird in dieser Masterarbeit gezeigt, dass es vor dem Beginn eines Projektes wesentlich ist, das Process Mining in die Unternehmensstrategie zu integrieren und gleichzeitig Vertrauen aufzubauen. Die Kompetenzen der Mitarbeitenden und deren Kooperation haben während der Umsetzung nicht nur einen Einfluss auf das Process Mining, sondern werden dadurch auch gestärkt. Zukünftige qualitative Studien könnten dazu beitragen, weitere Faktoren zu identifizieren, die aus Sicht der Mitarbeitenden, des Managements, der Kunden und anderer Stakeholder den zielführenden Einsatz von Process Mining in Unternehmen behindern oder ermöglichen. Außerdem könnte ein Fragebogen entwickelt und validiert werden, um die Bereitschaft von Unternehmen für ein Process Mining Projekt zu evaluieren.
Adult muscle carnitine palmitoyltransferase (CPT) II deficiency is a rare autosomal recessive disorder of long-chain fatty acid metabolism. It is typically associated with recurrent episodes of exercise-induced rhabdomyolysis and myoglobinuria, in most cases caused by a c.338C > T mutation in the CPT2 gene. Here we present the pedigree of one of the largest family studies of CPT II deficiency caused by the c.338C > T mutation, documented so far. The pedigree comprises 24 blood relatives
of the index patient, a 32 year old female with genetically proven CPT II deficiency. In total, the mutation was detected in 20 family members, among them five homozygotes and 15 heterozygotes. Among all homozygotes, first symptoms of CPT II deficiency occurred during childhood. Additionally, two already deceased relatives of the index patient were carriers of at least one copy of the genetic variant, revealing a remarkably high prevalence of the c.338C > T mutation within the tested family. Beside the index patient, only one individual had been diagnosed with CPT II deficiency prior to this study and three cases of CPT II deficiency were newly detected by this family study, pointing
to a general underdiagnosis of the disease. Therefore, this study emphasizes the need to raise awareness of CPT II deficiency for correct diagnosis and accurate management of the disease.
Unbegreiflich? Begreif mich!
(2022)
Fehlendes Wissen führt zu fehlendem Verständnis und beeinträchtigt die Empathie gegenüber Menschen mit Behinderungen und deren Lebensumständen.
Diese Arbeit untersucht bisherige Methoden zur medialen Verständnisvermittlung chronischer Krankheiten mittels Seznografie. Der Fokus liegt dabei auf rheumatischen Erkrankungen. Die Analyse beinhaltet Aspekte der Wahrnemungsvermittlung, welche bislang noch nicht oder ungenügend erforscht wurden. Es werden Beispiele zu verschiedenen Inszenierungen von Krankheit und deren Auswirkungen auf die Betroffenen gesammelt und analysiert. Dabei wird beurteilt, welche Methoden zur Vermittlung eingesetzt werden können, um durch das Erlebnis von Objekten die Empathie gegenüber körperbehinderten Menschen zu steigern und in weiterer Folge deren Inklusion in die Gesellschaft zu verbessern. Die Kombination aus faktischem Wissen gekoppelt mit einer Selbsterfahrung verstärkt den Lerneffekt und kann das Verhalten nachhaltig beeinflussen. Durch das immersive verstehen einer Situation besteht die Möglichkeit Empathie aufzubauen und zu stärken. Diese Faktoren werden bei der Konzipierung mit einbezogen und sind maßgeblich für die Struktur der Ausstellung.
Das erarbeitete Austellungskonzept baut auf bisherigen best practice Beispielen, sowie recherchierten Methoden auf, wobei die Besucher:innen immersiv mit dem Thema Behinderung und chronische Krankheiten konfrontiert werden. Dieses Konzept ist in Form einer Partitur dieser Arbeit beigelegt, um den Erlebnispfad durch die erarbeiteten Inhalte und Darstellungen übersichtlich zu präsentieren. Die entwickelten Objekte wurden durch Recherche und anhand von Interviews auf ihre Eignung geprüft und in ihrer Wirkung und Relevanz bestätigt.