Refine
Year of publication
- 2020 (89) (remove)
Document Type
- Master's Thesis (89) (remove)
Institute
Has Fulltext
- yes (89)
Keywords
- Machine learning (3)
- Change management (2)
- Demand Side Management (2)
- Digitale Transformation (2)
- Digitalisierung (2)
- Erfolgsfaktor (2)
- Gestenerkennung (2)
- International business (2)
- Klinische Soziale Arbeit (2)
- Leadership (2)
Diese Arbeit untersucht ARM und DSP Multiprozessor Ein-Chip-Systeme von Analog Devices hinsichtlich deren Programmierung, Fähigkeiten und Limitierungen. Durch die Integrierung von unterschiedlichen Hardware-Beschleunigern und Prozessoren in Ein-Chip-Systeme wird echte Nebenläufigkeit ermöglicht. Allerdings wird durch die Integrierung mehrerer Prozessoren die Komplexität der Programmierung von Ein-Chip-Systemen erhöht. Im Zuge dieser Arbeit wird untersucht, was bei der Programmierung von ARM und DSP Ein-Chip-Systemen hinsichtlich der heterogenen Prozessoren und Peripheriebausteinen beachtet werden muss. Dabei werden zuerst die Gründe für heterogenes Rechnen und die Trendwende zu Multiprozessorsystemen erläutert. Anschließend wird der aktuelle Stand der Technik erarbeitet und Programmiermodelle beschrieben, die das Programmieren von heterogenen Multiprozessorsystemen vereinfachen. Überdies werden zwei Fallbeispiele gewählt, mit denen bedeutsame Eigenheiten der Programmierung eines Ein-Chip-Systems erarbeitet werden. Im ersten Fallbeispiel werden anhand der UART-Peripherie Erkenntnisse des Ein-ChipSystems dargelegt, die praktische Auswirkungen auf die Verwendung des Systems haben. Im zweiten Fallbeispiel wird bei der Berechnung der schnellen Fourier Transformation das heterogene System auf dessen Rechenleistung untersucht. Dabei wird die Performanz des Hardware-Beschleunigers gegenüber unterschiedlichen Software-Bibliotheken verglichen und die verschiedenartigen Implementierungen analysiert. Zudem werden durch die Performanzanalyse die Einflüsse der Speicherhierachie des Ein-Chip-Systems ermittelt. Weiterhin wird gezeigt, dass sich die Bibliotheken von Analog Devices in deren Anwendung und Performanz voneinander unterscheiden. Außerdem wird veranschaulicht, dass je nach Anwendungsfall eine nicht für DSPs ausgelegte quelloffene Implementierung konkurrenzfähig zu den optimierten Bibliotheken von Analog Devices und dem Hardware-Beschleuniger ist. Zudem wird durch die Analyse der Mehraufwand ermittelt, der für die Konfiguration des Hardware-Beschleunigers aufgebracht werden muss. Dabei wird gezeigt, dass die Verwendung des Hardware-Beschleunigers erst ab einer bestimmten Anzahl an Abtastwerten rentabel ist. Abschließend werden die zwei Fallbeispiele für einen Konzeptnachweis verknüpft, der die Möglichkeiten des heterogenen Rechnens veranschaulicht.
In den Justizanstalten Österreichs arbeiten Menschen unterschiedlicher Berufsgruppen zusammen. Sie haben jeweils eigene Ausbildungen durchlaufen und gehören unterschiedlichen Berufen und Professionen an. Ihre gemeinsame Aufgabe besteht in der Resozialisierung der InsassInnen. Aufgrund ihres unterschiedlichen professionellen Werdegangs bestehen unterschiedliche Zugänge zur Arbeit mit den InsassInnen. Deshalb ist es von Bedeutung, welche Einstellungen die Vollzugsbediensteten zum Sinn der staatlichen Strafe vorweisen und welchen Theorien darüber, weshalb Menschen straffällig werden, sie anhängen. Ein weiterer wichtiger Gesichtspunkt ist ihre Haltung gegenüber GewalttäterInnen inklusive der Sexualstraftäter, da diese Personen durch ihre Delikte andere Menschen in ihrer körperlichen Integrität verletzt haben und somit in besonders verletzender Weise zu Opfern gemacht haben.
Das Forschungsziel dieser Masterarbeit besteht in der Erfassung der Theorien und Einstellungen von Vollzugsbediensteten bezüglich der oben genannten Thematik. Dabei soll herausgestellt werden, welche Auswirkungen die Ergebnisse auf die Soziale Arbeit im Justizvollzug haben und welche Konsequenzen die Soziale Arbeit hieraus ziehen könnte. Außerdem sollen die Ansichten zur Qualität der berufsübergreifenden Zusammenarbeit erfragt werden.
Im Rahmen der Arbeit wurden insgesamt 16 leitfadengestützte Experteninterviews mit Vollzugsbediensteten aus den folgenden Berufsgruppen durchgeführt: Anstaltsleitung, Justizwache, Sozialer Dienst, Psychologischer Dienst und Psychiatrischer Dienst. Allen Berufsgruppen ist gemeinsam, dass der Kontakt zu den InsassInnen in der Tätigkeitsbeschreibung beinhaltet ist.
Die Ergebnisse der Befragungen zeigen, dass die Einstellungen der verschiedenen Vollzugsbediensteten in vielen Aspekten harmonieren, dass es aber auch relevante Unterschiede gibt. Inwieweit diese Unterschiede für die Soziale Arbeit relevant sind und welche Schlüsse bzw. Handlungsempfehlungen daraus abzuleiten sind, soll diese Arbeit zeigen.
Dass die Zusammenarbeit der Vollzugsbediensteten noch überwiegend als gut bzw. harmonisch empfunden wird, haben die Befragungen erwiesen. Außerdem soll diese Arbeit aufzeigen, welche Anregungen anderer Berufsgruppen die Soziale Arbeit aufnehmen kann, um den Strafvollzug auch aus der Perspektive dieser Berufsgruppen besser nachvollziehen zu können.
The classification of waste with neural networks is already a topic in some scientific papers. An application in the embedded systems area with current AI processors to accelerate the inference has not yet been discussed. In this master work a prototype is created which classifies waste objects and automatically opens the appropriate container for the object. The area of application is in the public space.
For the classification a dataset with 25,681 images and 11 classes is created to re-train the Convolution Neuronal Networks EfficientNet-B0, MobileNet-v2 and NASNet-mobile. These Convolution Neuronal Networks run on the current Edge \acrshort{ai} processors from Google, Intel and Nvidia and are compared for performance, consumption and accuracy.
The master thesis evaluates the result of these comparisons and shows the advantages and disadvantages of the respective processors and the CNNs. For the prototype, the most suitable combination of hardware and AI architecture is used and exhibited at the university fair KasetFair2020. An opinion survey on the application of the machine is conducted.
Integration of an industrial robot manipulator in ROS to enhance its spatial perception capabilities
(2020)
Robots without any external sensors are not capable of sensing their environment, often leading to damaging collisions. These collisions could potentially be avoided if the robot had a way to sense its environment in the first place. This thesis attempts to tackle this problem by equipping such a robot with extra sensor hardware for perceiving environmental objects. The robot used within this thesis is a KUKA LBR iiwa 7 R800. The goal is a robot capable of moving in an unseen environment without colliding with obstacles nearby.
The research covers different sensor options, robots in cramped areas as well as algorithms and simulation topics. Software platforms and libraries used for the implementation are briefly introduced.
Multiple infrared sensors are directly installed onto the robot manipulator. The extra sensors and the robot are integrated into the ROS middleware to create an application capable of sensing the robots’ environment and plan collision-free paths accordingly.
The experiments show, that the low amount of available sensor data can not map the robots’ environment with enough detail. Additional problems, such as sensor noise corrupting parts of the generated map or the robot recognizing itself as an obstacle, lead to a negative result in total. In future work, the choice of sensors shall be reconsidered and tested upfront via simulation software.
Heutzutage gewinnen visuelle und akustische Eingabemethoden für die Interaktion mit Anwendungen oder Komponenten zunehmend an Bedeutung und sollen die klassische Maus oder Tastatur gegebenenfalls ersetzen. Abgesehen von der Sprachsteuerung benötigen jedoch auch die neuen Methoden für das Absetzen eines Befehls größtenteils die Hände. Es bleibt jedoch die Frage bestehen was passiert, wenn keine freie Hand zur Verfügung steht und ein Sprachbefehl aufgrund des Lärmpegels nicht erkannt wird. Diese Arbeit beschreibt das Konzept einer alternativen Anwendungssteuerung mit Fußgesten und verwendet dafür die Einlegesohlen ‚stapp one‘, die mit Druck- und Beschleunigungssensoren ausgestattet sind. Aufgrund der Durchführung einer Umfrage mit Mehrheitsvotum lassen sich verschiedene Fußgesten für entsprechende Aktionen der gesteuerten Komponenten definieren. Diese wirken auf die Anwender und Anwenderinnen intuitiv und weisen folglich eine hohe Akzeptanz bei der Benutzung auf. Mit einer Verbindungskombination aus Bluetooth und ‚User-Datagram-Protocol‘ (UDP) werden die Sensordaten von der Sohle, über ein Smartphone, zu einem Computer weitergeleitet, um eine Gestenerkennung mit Machine-Learning umzusetzen. Über ein Datenfluss-System werden die empfangenen Werte der Sensoren aufbereitet und eine Feature-Extraktion durchgeführt, sodass diese für eine Klassifizierung von Fußgesten dienen. Basierend auf ‚Deeplearning4j‘ wird ein Algorithmus mit ‚Long Short-Term Memory‘ implementiert und zusammen mit dem Datenfluss-System als ‚Java‘-Bibliothek zur Verfügung gestellt. Zusätzlich werden Datensätze von Fußgesten einer Person erstellt und zum Training sowie zur Evaluierung der Gestenerkennung verwendet. In einer letzten Umfrage wird die implementierte Bibliothek in zwei Applikationen integriert. Zudem wird die Funktion des definierten ‚Gesten-Aktionen-Mapping‘ in drei Anwendungsszenarien analysiert. Die Forschungsergebnisse zeigen eine zuverlässige Klassifizierung der Fußgesten mit einer Genauigkeit von 82 %, wobei unter realen Bedingungen auch Werte zwischen 85 % und 100 % erreicht werden.
An implementation approach of the gap navigation tree using the TurtleBot 3 Burger and ROS Kinetic
(2020)
The creation of a spatial model of the environment is an important task to allow the planning of routes through the environment. Depending on the number of sensor inputs different ways of creating a spatial environment model are possible. This thesis introduces an implementation approach of the Gap Navigation Tree which is aimed for usage with robots that have a limited amount of sensors. The Gap Navigation Tree is a tree structure based on depth discontinuities constructed from the data of a laser scanner. Using the simulated TurtleBot 3 Burger and ROS kinetic a framework is created that implements the theory of the Gap Navigation Tree. The framework is structured in a way that allows using different robots with different sensor types by separating the detection of depth discontinuities from the building and updating of the Gap Navigation Tree.
In dieser Arbeit werden verschiedene Augmented Reality Tools analysiert und getestet, um eine Brandmeldezentrale zu erkennen und auf dieser virtuelle Inhalte darzustellen. Die Erkennung der Zentrale wird mittels Bilderkennung und Objekterkennung von Vuforia, Wikitude und AR Foundation durchgeführt. Zusätzlich wird in dieser Arbeit eine AR Applikation implementiert, welche sowohl mit iOS und Android Geräten als auch für die Microsoft HoloLens 2 kompatibel ist. Die Anwendung soll zeigen, an welcher Stelle in der Brandmeldezentrale ein Fehler vorliegt und wie dieser behoben werden kann. Für die Fehlerbehandlung kommt eine “Schritt für Schritt Anleitung“ zum Einsatz, bei welcher Teile der Zentrale augmentiert hervorgehoben werden, wenn diese für die Behebung des Problems relevant sind. Es werden diverse Geräte bezüglich Interaktion und deren Stärken bzw. Schwächen evaluiert. Für die Analyse haben Testpersonen die Anwendung sowohl auf der HoloLens 2 als auch auf einem iPad Pro getestet. Die Ergebnisse zeigen, dass einige Personen Schwierigkeiten mit der Gestensteuerung auf der HoloLens 2 haben. Die Ausführung der Pinch Geste, welche durch das zusammendrücken von Daumen und Zeigefinger ausgeführt wird, wurde oft zu ungenau durchgeführt. Der Vergleich der beiden Geräte hat ergeben, dass Interaktionen auf dem iPad schneller ausgeführt werden können als auf der HoloLens. Außerdem wurde überprüft, wie sich unterschiedliche Lichtverhältnisse auf die Anwendung auswirken. Dabei stellte sich heraus, dass die Hologramme bei der HoloLens bei einer stark beleuchteten Umgebung nicht gut sichtbar sind. Die Objekterkennung der Brandmeldezentrale weist einige Fehler bei der Erkennung der Brandmeldezentrale auf. Diese sind darauf zurückzuführen, dass die Brandmeldezentrale für die verwendeten Augmented Reality Tools zu wenig Merkmale aufweist.
Musik im Alltag
(2020)
Musikschülerinnen und Musikschüler finden besonders im Alter von 9 bis 15 Jahren in ihrem Alltag oft keine Zeit, um sich mit ihrem Musikinstrument zu beschäftigen. Dadurch bleibt ihr Spielniveau auf der Stelle und sie verspüren keinen Lernfortschritt, wodurch ihnen langfristig auch die Freude am Musizieren vergeht. Durch den fehlenden Lernfortschritt wiederholt sich auch der wöchentliche Musikunterricht und wirkt auf Dauer eintönig und langweilig. Statistisch gesehen kommt es am häufigsten im Alter von entweder 11 oder 14 Jahren zu einer Abmeldung vom Musikschulunterricht aus Mangel an Zeit und Interesse.
Um den Kindern die Freude am Musizieren zurückzugeben, wurde eine Herangehensweise entwickelt, in der die Kinder ein eigenes Ziel definieren und dieses mithilfe eines Coachinggesprächs in kleinere Aufgaben unterteilen. Ein auditives Benachrichtigungssystem unterstützt die Kinder dabei, im Alltag den passenden Zeitpunkt für diese musikalischen Aufgaben zu finden, damit sie sowohl einen Lernerfolg verspüren als auch Spaß mit dem eigenen Instrument haben.
In dieser Arbeit werden die Anforderungen an ein auditives Benachrichtigungssystem analysiert und der unterschiedliche Einfluss von zeit und kontextbasierten Benachrichtigungen durch Nutzertests eruiert.
The humidification dehumidification (HDH) cycle is a process for thermal water treatment. Many studies were carried out investigating operation of an HDH cycle with water and seawater as working liquid. Currently research into other areas of application is limited. Exchanging the working liquid in the humidifier from seawater to a water oil emulsion and investigating its behavioural changes is the basis for the expansion into applications such as bilge water treatment. This master’s thesis covers analysis of the behaviour of an HDH cycle operated with a water oil emulsion. The main elements are (1) proof of concept for operation of the HDH cycle with a water oil emulsion, (2) comparison of measurements and thermodynamic calculations, (3) investigation of the impact of operating parameters and (4) optical analysis of the bubbly flow in water and oil.
Operation of the HDH cycle using water oil emulsion was shown to be feasible with a small change to the setup previously used for investigations with seawater as working liquid. To keep the emulsion from separating into its individual parts, constant movement of the working liquid needs to be ensured. For this a magnetic stirrer was introduced into the bubble column humidifier (BCH) used. In a batch process an oil concentration of >97 % was reached without visible traces of oil in the produced condensate.
Comparison of the measured and thermodynamically evaluated productivity shows that measured productivity is higher. The proposed explanation for this is supersaturation of air at the BCH exit. Further investigation into this phenomenon is needed to confirm this hypothesis.
Influential parameters investigated are (1) liquid temperature, (2) superficial air velocity and (3) sieve plate orifice diameter. Increase of liquid temperature results in an exponential increase in productivity. At superficial air velocities up to 3 cm/s productivity increases with superficial air velocity. For superficial air velocities higher than 3 cm/s productivity plateaus. At low superficial air velocity, an increase of sieve plate orifice diameter results in increasing productivity. Further increase of the sieve plate orifice diameter inverses this phenomenon.
Bubbly flow in water and oil is influenced by the different viscosities of the liquids. Water creates small bubbles of similar size at low superficial air velocities. At superficial air velocities >2 cm/s turbulences start to increase and finely dispersed bubbles are present in the water. Bubbly flow in oil creates larger bubbles at all superficial air velocities. The airflow transitions to plug flow at velocities of 3 cm/s and above.
Result from this master’s thesis can be used for as a basis to broaden the understanding of the HDH cycle and find new areas of applications.
Moving from one country to another, from one cultural context to a different one comes with many challenges and problems. The expatriate adjustment process, in general, has been evaluated extensively in the literature. Little is known if the knowledge in the literature is also valid for the situation of expatriates in rural Vorarlberg. In this paper was examined, which are the most common problems for highly skilled immigrants that are moving to Vorarlberg. In a mixed-method approach, information was gathered with an online questionnaire whose results served as a basis for a series of semi-structured interviews. In addition, an expert talk with a local relocation consultant was conducted. It was found that by far, the most severe difficulty is based on the domestic language situation. An expatriate needs to talk and understand German, but the local language is an Alemannic subsection of the German language that is not easy to understand. Additional difficulties that cause culture shock are limited opening hours, mobility troubles, and several others. The awareness about the composing of these problems might help to find the appropriate measures to support expatriates to come in the future.
Die Finanz- und Wirtschaftskrise 2008/09 ist Anlass für die Hinterfragung bestehender Anreizsysteme. Die vorliegende Arbeit untersucht die Beteiligung des Controllings bei der Anreizgestaltung ab diesem Zeitpunkt. Die Methodik ist eine systematische Literaturrecherche und Experteninterviews, die entlang der Gestaltungselemente des Anreizsystems ausgewertet werden. Seit dem Betrachtungszeitraum sind wesentliche Entwicklungen festzustellen von Individual- zu Gruppen-Incentivierung, vom Einsatz monetärer Anreize zu gemischten Anreizen (monetär und immateriell). Letzteres spiegelt sich in den Bemessungsgrundlagen wider, welche finanzielle und nicht-finanzielle Kennzahlen nutzen. Zur Generierung einer nachhaltigen Unternehmensentwicklung werden Long-Term-Incentives forciert. Das Controlling ist bei der Anreizgestaltung, beim Definieren von ‚Bemessungsgrundlagen‘ und ‚Anreizfunktionen‘, stark eingebunden. Die Aufgabenfelder des Controllings sind weit-gefächert: Reporting, Übersetzung von Geschäftszielen in Bemessungsgrundlagen, Wissensvermittlung, der Harmonisierung von Zielen bis zur Steuerungsfunktion bei Entscheidungen. Aus dieser Perspektive betrachtet übernimmt das Controlling zusätzliche Verantwortung und unterstützt das Management bei der Anreizgestaltung, was den Schluss nahelegt, dass eine Rollentransformation des Controllers zum Business Partner stattfindet.
Der mit dem Schlagwort Industrie 4.0 verbundene Begriff der Digitalisierung ist eine Herausforderung, der sich Unternehmen aktuell konfrontiert sehen. Allgemein betrachtet verschwimmt mit steigender Digitalisierung in Unternehmen die Abgrenzung zwischen wertschöpfenden und unterstützenden Prozessen. Die Industrie 4.0 verspricht dabei eine vernetzte Zukunft mit neuen Technologien und neuen Geschäftsmodellen. In der Forschung gibt es bisher nur sehr begrenzte Ansätze im Bereich der Industrie 4.0, welche direkt auf die Bauindustrie bzw. ein einzelnes Bauunternehmen ausgerichtet sind.
Die Masterarbeit soll dazu die Beantwortung folgender Fragestellung zum Thema haben: „Wie kann ein Referenzmodell zur reifegradbasierten Ermittlung des Digitalisierungsgrads in einem Unternehmen in der Bauindustrie aufgebaut sein?“
Zur Bearbeitung wird dabei der Ansatzpunkt gezählt, wie die Digitalisierung in der Industrie 4.0 im Kontext mit bisherigen Entwicklungen einzuordnen ist. Dabei wird den Fragestellungen nachgegangen, welche Reifegradmodelle bereits existieren und wie diese auf die Digitalisierung in der Industrie 4.0 adaptiert werden können. Daraus ergibt sich die nachgehende Fragestellung, wie ein Reifegradmodell zur Bewertung des Umsetzungsgrads in der Industrie 4.0 in einem Unternehmen der Bauindustrie aufgebaut sein kann.
Ziel dieser Masterarbeit ist es, ein kombiniertes Reifegradmodell zur entwickeln, welches auf ein Unternehmen in der Bauindustrie anwendbar ist. Damit soll eine Möglichkeit geschaffen werden, die Umsetzungsreife des Unternehmens im Bereich der Industrie 4.0 zu bewerten. Das entwickelte Modell soll dazu in der Lage sein, dem Unternehmen einen fundierten Überblick zu verschaffen, wie weit der Umsetzungsgrad fortgeschritten ist. Auch soll es dem Unternehmen aufzeigen, in welchen Bereichen es Entwicklungsmöglichkeiten gibt. Das Reifegradmodell soll außerdem in der Lage sein, sich auf Änderungen in der Unternehmensstrategie, Weiterentwicklung in der Technologie sowie veränderten Anforderungen in der Bauindustrie anpassen zu können.
Although pilot projects are an accepted means of entry into prospects, research on the object of startups selling SaaS and use pilots to enter and to further scale within their prospect’s organization is limited. The reader can expect a collection of key practices of SaaS startups in the field of Decision Support Software. These combine the main sales-oriented elements within pilot projects that are reflected on by Customer Success Management, Change Management as well as cultural dimensions. Explorative interviews, mainly with stakeholders in Decision Support Software startups, were conducted to further gain an understanding of the research object. Results indicate that pilots are strategically used in the sales of such startups to simultaneously deal with their customer’s uncertainties and as a means for the startups to get commitment and increase their value proposition through the additional service that they offer in order to acquire an internal support basis. Customer Success Management as well as Change Management are furthermore advantageous in quickly achieving measurable results that leverage buyers and seller’s justification for further sales.
The purpose of this work is to explore implicit schemes underlying the market segmentation analysis process. Boosting transparency for and in the new discipline of healthcare marketing, the work offers a toolbox of both primary and secondary methods to identify the accurate target market. This is crucial, since resource allocation in B2C segmentation and targeting is still often misleading. An Austrian, internationally present niche player serves as a research object to turn theoretical insights into practical verification. Data for the thesis are collected through company-internal data analysis and desk research, grounded in a multi-method approach with primary and secondary research. On the one hand, the work assesses the most effective segmentation and attractiveness/knock-out criteria according to scientific sources. Delving into the topic of a priori and a posteriori segmentation, an overview of suitable techniques is going to be offered. On the other hand, the thesis illustrates how the accurate target segment in the healthcare industry can be evaluated and determined through companyinternal consumer and market data.
Primary research on demographics (age, gender), psychographics (preferred channels), behavioral criteria (new/existing, CLC) and product categories is found to be particularly meaningful for the healthcare player. Results vary between countries, which is why an international-marketing strategy instead of a domestic-marketing approach is advisable.
Secondary research shows that socio-demographic and behavioral criteria are most used as a priori criteria, whereas a posteriori segmentation is promising to reveal psychographic clusters. One of the author’s recommendations is to niche down accurate market segments such as LOHAS or “best agers” by refining psychographics/socio-demographics with behavioral segmentation through “occasions” (e.g. back pain, depression, injuries). Novel approaches such as outcome-based segmentation or emphasizing “promoters” are discussed too.
The findings pave marketing managers the way for identifying the accurate target segments in the B2C health industry, selecting accurate methods grounded in profound scientific research and with concepts suitable for SMEs. The thesis proves that marketing segmentation is no longer a “nice-to-have” but a “must” in the health(care) industry.
Die Gewalt der Anderen
(2020)
In der Beratungstätigkeit als Sozialarbeiterin im Bereich der Opferhilfe sind Vergewaltigungsmythen sowie deren Verbreitung und Auswirkungen Teil der alltäglichen Praxis. Diese Masterarbeit zeigt auf wie problematisch deren Existenz in Bezug auf die Verarbeitung von Gewalterfahrung und den gesamtgesellschaftlichen Umgang mit sexualisierter Gewalt ist. Wie sich Vergewaltigungsmythen ausdrücken und inwiefern diese Teil des medialen Diskurses über sexualisierte Gewalt sind, wird anhand einer kritischen Diskursanalyse untersucht. Bereits die theoretische Auseinandersetzung zeigt auf, dass ein Teil der verbreiteten Vergewaltigungsmythen sich einem kulturrassistischen Stereotyp bedient, welcher gemäß unterschiedlichen wissenschaftlichen Untersuchungen maßgeblichen Einfluss auf die Strafverfolgung hat. Daher wird ein weiterer Fokus der Untersuchung auf die Verbreitung dieser Kulturalisierung der Gewalt gelegt. Als Ergebnis der theoretischen Auseinandersetzung und empirischen Untersuchung wird festgestellt, dass sich der Diskurs über sexualisierte Gewalt aus unterschiedlichen Diskurssträngen zusammensetzt, wobei die strafrechtliche und täter*innenorientierte Perspektive überwiegt und konstruktive Darstellungen und betroffene Personen wenig präsent sind. Dieser überlagernde Diskursstrang erschwert die Thematisierung von sexualisierter Gewalt als gesellschaftlichem Problem und schränkt den Begriff, aufgrund der juristischen Kategorisierung sexualisierter Gewalt in Delikte, in ihrer Repräsentation ein. Aus der Perspektive der Sozialen Arbeit benötigt der Diskurs mehr Fokus auf relevante Informationen für Betroffene, mehr Kontextinformationen sowie die Erfassung und Benennung von Gewalt als strukturellem, gesamtgesellschaftlichem Problem.
Die (Klinische) Soziale Arbeit begegnet dem Scheitern täglich. Soziale Arbeit arbeitet vermehrt mit Menschen, die in ihren Lebensverhältnissen vielfach als gescheitert wahrgenommen werden. Obwohl diese Allgegenwärtigkeit vorliegt, thematisiert die Soziale Arbeit das eigene Scheitern wenig. Scheitern ist sowohl in der Literatur als auch als Forschungsgegenstand in der deutschsprachigen Sozialarbeitswissenschaft unterbeleuchtet. Die vorliegende Arbeit befasst sich deshalb mit dem Diskurs des Scheiterns in der Sozialen Arbeit und ist anhand der Kritischen Diskursanalyse aufgebaut.
Im ersten Teil der Arbeit wird der diskursive Kontext des Scheiterns in der Sozialen Arbeit mit Literatur dargestellt. Die theoretische Rahmung bildet die Kritische Diskursanalyse nach Jäger, angelehnt an die Diskurstheorie nach Foucault, verbunden mit der Handlungstheorie nach Staub-Bernasconi, wobei dem Umgang mit Macht in der Sozialen Arbeit ein Fokus zukommt. Für die Kritische Diskursanalyse wurden Schreibbeiträge zum Scheitern, welche im Forschungsprozess von Sozialarbeiter*innen aus der Praxis der Sozialen Arbeit in Vorarlberg (Österreich) erhoben wurden, analysiert. Im letzten Teil der Arbeit kommt die Bedeutung und Wirkung von Scheitern sowie das Nutzen des Diskurses über Scheitern für die Klinische Soziale Arbeit nochmals zur Geltung.
Die Arbeit zeigt die Aspekte und die Bedeutung des Scheiterns in der Sozialen Arbeit auf und kann als Inspiration herangezogen werden, um sich vertieft mit dem Thema Scheitern reflexiv auseinanderzusetzen und somit dem sozialarbeiterischen Forschungsdesiderat zum Scheitern entgegenzutreten.
Die vorliegende Arbeit setzt sich mit der Beziehungsgestaltung im Kontext Klinischer Sozialer Arbeit auseinander. Der Fokus liegt dabei auf den Aspekten Nähe Und Distanz, Verletzlichkeit und Macht. Theoretische Grundlage ist ein psychodynamisch-sozialtherapeutischer Zugang. Als Grundlage für die durchgeführte Forschung dient das Tiefeninterview, dessen Ergebnisse anhand der Grounded Theory ausgewertet und interpretiert wurden. Als Resultat zeigt sich die Auswirkung der genannten Aspekte auf die Gestaltung der Helfenden Beziehung und die Wirksamkeit sozialarbeiterischer Intervention. Zudem hat sich das Setting als eine wesentliche Bedingung für die Beziehungsgestaltung herauskristallisiert. Bestätigt haben sich schließlich auch die aufgrund der theoretischen Bearbeitung aus psychoanalytischer/psychodynamischer Perspektive vermuteten Einflüsse von Übertragung und Gegenübertragung, die im Tiefeninterview deutlich zutage getreten sind.
Menschen in desorganisierten Wohnformen erleben, aufgrund der Normvorstellung von Ordnung, Abwertung und Unverständnis. Dabei entsteht eine desorganisierte Wohnung nicht allein durch Passivität, sondern zeigt sich als innerpsychischen Konflikt nach außen. Die Komplexität des desorganisierten Wohnens umfasst sowohl die Wohnform selbst wie auch die Ursachen und Auswirkungen.
Um bedürfnisgerecht handeln zu können, benötigt es seitens des professionellen Unterstützungssystems eine umfassende Kenntnis des Phänomens. Die Erforschung der Auswirkungen aus der Perspektive der betroffenen Menschen soll Aufschluss darüber geben, wie adäquat interveniert werden kann.
Anhand einer Einzelfallstudie sollen die Diversität und Komplexität dargestellt werden, woraus sich die Flexibilität professioneller Helfer*innen ableiten lässt. Die Grounded Theory und der damit verbundene zirkuläre Prozess ermöglichen es, trotz geringer Erforschung des Phänomens, die erhobenen Daten zu erfassen und zu kategorisieren.
Die Integration von suchterkrankten Menschen in die soziale Gemeinschaft stellt für die Klinische Soziale Arbeit einer große Herausforderung dar. Sie agiert hier in einem Spannungsfeld zwischen individuellem Verhalten der Klienten_innen und den strukturellen Verhältnissen der Gesellschaft. Auf die Befähigung einer sinnstiftenden und ein daseinsmächtiges Leben ermöglichender Arbeit nachgehen zu können, wird von Martha Nussbaum in ihren Schriften zum Capability Approach sehr deutlich hingewiesen und sie sieht darin einen gewichtigen Faktor der gesellschaftlichen Teilhabe.
In der vorliegenden explorativen Studie wurden vor dem theoretischen Hintergrund des Capability Approach Teilnehmer_innen und Nichtteilnehmer_innen des niederschwelligen, von der Caritas in Vorarlberg betriebenen Arbeitsprojekts „Wald“, hinsichtlich ihrer Lebenszufriedenheit, ihrer Haltung zum Arbeitsprojekt als solchem und nach von ihnen bemerkten Veränderungen in den, den Big Five zuzuordnenden Persönlichkeitsmerkmalen, befragt. Die aus den quantitativen Befragungen gewonnenen Daten wurden in Hinblick auf die Fragestellungen empirisch ausgewertet.
In seiner Konzeption setzt das Arbeitsprojekt, ganz im Sinne der internationalen Definition der Sozialen Arbeit, auf Selbstbestimmung und Partizipation der Teilnehmer_innen. Die Klinische Soziale Arbeit erfüllt in diesem Kontext nicht nur ihren per Definition direkt behandelnden Ansatz in der Unterstützung von schwer erreichbaren Klienten_innen, sondern schafft zusätzlich die Bedingungen, um diesen die benötigten Befähigungsräume bereitzustellen. Die Studie legt nahe, dass sowohl das Schaffen von befähigenden Strukturen als auch der Einsatz von verhaltensorientierten Methoden passende Mittel für die Soziale Arbeit sind, Menschen in ihrer Entwicklung hin zu einem daseinsmächtige Leben zu unterstützen.
Seit einigen Jahren beschäftigen sich immer mehr Autor*innen mit der Frage, welche Handreichungen Mitarbeitende im Gesundheitssystem brauchen, um adäquater auf die Bedürfnisse älterer LGBTQI* Personen einzugehen, deren (pflegerische) Anliegen nicht erkannt werden, von schwer zu überwindenden Barrieren im Gesundheitssystem berichten und die sich diskriminiert fühlen. Der Fokus der Publikationen liegt auf der sexuellen Orientierung und / oder der Genderidentität, einem Teilaspekt der Identität einer Person. Je nach Kontext und Personen sind andere Teilidentitäten, wie z.B. Familienstatus, Alter, Ethnizität, Teilhabe an sozialen Gruppen unterschiedlich stark berücksichtigt. In einer qualitativen Studie wurden, unter Integration der autoethnographischen Methode, acht Männer zwischen 53 und 75 Jahren aus den Niederlanden und Deutschland in autobiografischen-narrativen Interviews befragt, inwiefern die Coronapandemie ihre Vorstellungen vom gesunden Altern verändert hat. Alle Männer hatten komplexe Biografien, gekennzeichnet von Partnerverlust, Arbeitslosigkeit, Altersfragen, familiären und gesundheitlichen Herausforderungen neben anderen identitätsstiftenden Faktoren. Aber alle identifizierten sich seit ihrer Jugend mit ihrer sexuellen oder Genderidentität, hatten aus vielen Krisen gelernt und sorgten mit einem für sich klaren Management, dass sie auch im Alter gesund bleiben würden – Autonomie stand hoch im Kurs! Die Person nicht nur auf die Zugehörigkeit zur LGBTQI* Gruppe zu reduzieren, sondern in ihrer gesamten Identität in den Gesundheitseinrichtungen zu berücksichtigen kennzeichnet eine adäquate Pflege.
Die vorliegende Arbeit befasst sich mit der Untersuchung von dezentralen Warmwasserbereitungssystemen, wobei der Fokus auf Energieeffizienz liegt. Als Vergleichs- und Referenzobjekt wird das Wohngebäude „KliNaWo“ mit 19 Wohneinheiten am Standort Feldkirch herangezogen, in welchem eine zentrale Warmwasserbereitung realisiert wurde. Als ersten Schritt werden die theoretischen Grundlagen hinsichtlich der zentralen und dezentralen Warmwasserbereitungs-systeme sowie der unterschiedlichen Wärmeerzeuger, Speichertechnologien und Verteilsysteme erarbeitet. Anschließend erfolgt eine Erläuterung der aktuellen Normensituation und den wichtigsten Fakten bezüglich Trinkwasserhygiene.
Des Weiteren wird das Referenzobjekt „KliNaWo“ sowie die verwendeten Messdaten zur Kalibrierung der Simulationsmodelle beschrieben. Im nachfolgenden Kapitel erfolgt eine detaillierte Darstellung der zu untersuchenden Systeme, wobei es sich um das Wohnungssatellitensystem sowohl mit kontinuierlicher Beladung als auch im Ladefensterbetrieb sowie um dezentrale Boiler-Wärmepumpen handelt. Anschließend wird die verwendete Simulationssoftware Polysun erläutert und erklärt wie die Systeme in der Software abgebildet und welche Ersatzmodelle angewendet werden.
Die Nutzenergie in Bezug auf das Warmwasser beträgt bei der zentralen Variante 20.584 kWh und ist bei allen dezentralen Systemen mit 20.142 kWh etwas geringer, da die Verteilverluste der Warmwasser-Einzelleitungen aufgrund des niedrigeren Temperaturniveaus geringer ausfallen. Da die rückgewinnbaren Wärmeverluste berücksichtigt werden, ergeben sich auch für den Heizwärmebedarf in Abhängigkeit der Variante unterschiedliche Werte im Bereich von 54.322 kWh bis 58.104 kWh. Als Vergleichsgröße wird der gesamte Stromverbrauch der Wärmepumpen inklusive der Förderpumpen herangezogen, welcher für die Deckung des Heizwärmebedarfs, der Verluste sowie des Energiebedarfs bezüglich Warmwasser notwendig ist.
Aus dem Vergleich der Varianten ergibt sich, dass der Stromverbrauch des zentralen Systems mit 14.109 kWh am geringsten ausfällt und das Wohnungssatellitensystem im Ladefensterbetrieb mit einem Strombedarf von 14.441 kWh nur wenig darüber liegt. Beim Wohnungssatellitensystem mit kontinuierlicher Beladung und bei den Boiler-Wärmepumpen-Systemen liegen die Stromverbräuche deutlich höher. Anhand der Simulationsergebnisse kann festgestellt werden, dass die dezentralen Anlagenkonfigurationen unter Berücksichtigung der ÖNROM B 2531 nicht effizienter sind als das zentrale System, wobei das Wohnungssatellitensystem im Ladefensterbetrieb in derselben Größenordnung wie das zentrale System liegt. Allerdings sind beim Wohnungssatellitensystem höhere Investitionskosten gegenüber der zentralen Variante zu erwarten, wodurch das System wirtschaftlich schlechter abschneidet.
Die Aktualität des Klimawandels fordert Maßnahmen in privaten und wirtschaftlichen Bereichen. Die Veränderungen des Klimas führen dazu, dass Regelungen und Gesetze für das Energiewesen der Unternehmen entwickelt werden. Die Gesetze verpflichten die Unternehmen für Energie- und Umweltaudits. Viele Unternehmen führen noch zusätzliche Maßnahmen für eine Verbesserung der Energieeffizienz und des Emissionsausstoßes ein. Die Maßnahmen werden immer relevanter.
Die Norm ISO 50001 unterstützt Unternehmen bei der Einführung und bei der Aufrechterhaltung eines Energiemanagementsystems. Das Energiemanagement hilft dabei, die energiebezogene Leistung zu verbessern und einen kontinuierlichen Verbesserungsprozess umzusetzen. Eine weitere freiwillige Möglichkeit ist das Klimaneutralitätsbündnis 2025. Das Bündnis soll den Mitgliedern helfen, den Emissionsausstoß zu verbessern. Die Mitglieder werden über einen definierten Zeitraum von 12 Jahren begleitet, um die Geschäftsprozesse anschließend klimaneutral zu gestalten.
Diese Arbeit beschäftigt sich mit den Anforderungen der Norm ISO 50001 und dem Klimaneutralitätsbündnis. Beides sind freiwillige Instrumente, welche Unternehmen verwenden können, um das eigene Energiewesen zu optimieren und etwas zum Klimaschutz beizutragen. Die Forschung dieser Arbeit beschäftigt sich mit dem Zusammenwirken der beiden Instrumente. Es wird untersucht, ob eine parallele Einführung und Bearbeitung in den Unternehmen möglich ist. Zusätzlich werden die Inhalte und die Anforderungen gegenübergestellt. Mögliche Überschneidungen werden zu Zwecken einer Erleichterung für die Unternehmen überprüft.
Im Zuge dieser Arbeit wird ein Energiemonitoring beim Logistikunternehmen Gebrüder Weiss GmbH eingeführt. Das Unternehmen mit Sitz in Lauterach (Vorarlberg) betreibt weltweit rund 165 Standorte. Die Niederlassung in Lauterach bildet den Versuchsstandort für das Energiemonitoring. Es werden geeignete Partnerunternehmen gesucht, welche ein Energiemonitoringsystem anbieten. Im Zuge der Partnersuche wird ein Pilotprojekt umgesetzt, welches dem Unternehmen erste Einblicke in die Materie bietet. Nach dem erfolgreichen Abschluss des Pilotprojektes folgt die Implementierung des Energiemonitorings. Die einzelnen Schritte und Herausforderungen des Projektes werden dargelegt und die abschließende Umsetzung wird beschrieben. Nach der Einführung in Lauterach folgt die weltweite Ausrollung des Energiemonitorings in allen Standorten.
Eindimensionales Siliziumkarbid-Faserwachstum ohne Katalysator über karbothermische Reduktion
(2020)
In dieser Arbeit werden eindimensionale Siliziumkarbid-Fasern über die karbothermische Reduktion von stickstoffdotiertem Siliziumoxykarbid-Glas, welches über einen Sol-Gel-Prozess synthetisiert wurde, hergestellt. Als Wachstumssubstrat für die Fasern werden drei Arten von Kohlenstofffasern verwendet, die entweder in Sol eingelegt sind oder erst bei der karbothermischen Reduktion mit dem Precursor im Graphittiegel eingelegt werden. Es werden vier Formen von eindimensionalem Siliziumkarbid produziert, bei denen Durchmesser und Länge von <100 nm bis zu mehreren µm variieren. Die Charakterisierung der synthetisierten Fasern erfolgt über optische Mikroskopie, Rasterelektronenmikroskopie und Raman-Spektroskopie. Der Einfluss der Druckentwicklung während der karbothermischen Reduktion auf das Faserwachstum wird anhand von Druck-Temperatur-Verläufen ermittelt.
Graphite substrates underwent two methods of creating doped silicon carbide films via carbothermal reduction; the first method being liquid-phase processing, or dip-coating, and the second gas-phase processing, otherwise referred to as the solid-vapour reaction. The dip-coating procedure resulted in flaky coatings, while the solid-vapour reaction resulted in polycrystalline films with columnar growth that displayed promising morphological and electrical properties. The films were tested on their performance as semiconductor diodes, and proved that carbothermal reduction in the gas phase is a promising technique for creating polycrystalline silicon carbide films for the application of light-emitting diodes.
Mit dem entwickelten, gemischt-ganzzahligen linearen Optimierungsmodell wird ein grosser Beitrag geleistet, das die wichtigen Betriebskennzahlen einer PV-Speicheranlage, wie der Eigenverbrauchsanteil um bis zu 89 % und der Autarkiegrad um bis zu 73 % durch eine variable Grenzkostenoptimierung bei zusätzlicher E-Auto Berücksichtigung gesteigert werden können. Der Eigenverbrauch der PV-Erzeugung wird durch den stationären Batteriespeicher auf 71 % mehr als verdoppelt. Das beispielhafte Szenario hat einen Haushaltsverbrauch von 5 MWh pro Jahr und besteht aus einer 5 kWp PV-Anlage, mit einem 5 kWh Batteriespeicher und dem Tesla Model 3 mit einer Jahresfahrleistung von 16778 km.
Das erstellte Softwareprogramm kann einfach auf weitere verschiedene Anlagenkonstellationen und mit eigenen Eingangszeitreihenprofile der Haushaltslast, der PV-Erzeugung und der E-Auto Nutzung parametriert werden. Neben der Kennzahlenberechnung des konkreten Szenarios wird der jeweilige Einfluss einer Anlagenkomponente, wie PV, Batterie und Last bei deren Variation, auf die Kennzahlen grafisch gut sichtbar dargestellt.
Die Ergebnisse bestätigen bisherige Arbeiten, dass die Dimensionierung der Anlagenkomponenten nach der einfachen Faust-Formel 1:1:1 erfolgen soll: Der stationäre Batteriespeicher und die PV-Anlage sollen gleich gross sein und ihre Grösse in kWh soll der Jahreslast in MWh entsprechen. Damit wird nahezu schon ein gutes Optimum von Eigenverbrauch, Eigenverbrauchsanteil und Autarkiegrad bei minimalen Energiekosten gefunden und die Netzbelastung durch Bezug und Einspeisung kann reduziert werden.
Die cloud-basierte Verarbeitung von Datenströmen von IoT-Geräten ist aufgrund hoher Latenzzeiten für zeitkritische Anwendungen nur beschränkt möglich. Fog Computing soll durch Nutzung der Rechen- und Speicherkapazitäten von lokal vorhandenen Geräten eine zeitnahe Datenverarbeitung und somit eine Verringerung der Latenzzeit ermöglichen. In dieser Arbeit werden Anforderungen an ein Fog Computing-Framework erhoben, das die dynamische Zuweisung und Ausführung von Services auf ressourcen-beschränkten Geräten in einem lokalen Netzwerk zur dezentralen Datenverarbeitung ermöglicht. Zudem wird dieses Framework prototypisch für mehrere Transportkanäle, unterschiedliche Betriebssysteme und Plattformen realisiert. Dazu werden die Möglichkeiten der Skriptsprache Lua und des Kommunikationsmechanismus Remote Procedure Call genutzt. Das Resultat ist ein positiver Machbarkeitsnachweis für Fog Computing-Funktionalitäten auf ressourcenbeschränkten Systemen. Zudem werden eine geringere Latenz und eine Reduktion der Netzwerklast ermöglicht.
Many test drives are carried out in the automotive environment. During these test drives many signals are recorded. The task of the test engineers is to find certain patterns (e.g. an emergency stop) in these long time series. Finding these interesting patterns is currently done with rule based processing. This procedure is very time consuming and requires a test engineer with expertise. In this thesis it is examined if the emerging field of machine learning can be used to support the engineers in this task. Active Learning, a subarea of machine learning, is used to train a classifier during the labeling process. Thereby it proposes similar windows to the already labeled ones. This saves the annotator time for searching or formulating rules for the problem. A data generator is worked out to replace the missing labeled data for tests. The custom performance measure “proportion of seen samples” is developed to make the success measurable. A modular software architecture is designed. With that, several combinations of Time Series Classification algorithms and query strategies are compared on artificial data. The results are verified on real datasets, which are open source available. The best performing, but computational intensive solution is an adapted RandOm Convolutional KErnel Transform (ROCKET). The custom query strategy “certainty sampling” shows the best results for highly imbalanced datasets.
This master thesis investigates a Computational Intelligence-based method for solving PDEs. The proposed strategy formulates the residual of a PDE as a fitness function. The solution is approximated by a finite sum of Gauss kernels. An appropriate optimisation technique, in this case JADE, is deployed that searches for the best fitting parameters for these kernels. This field is fairly young, a comprehensive literature research reveals several past papers that investigate similar techniques.
To evaluate the performance of the solver, a comprehensive testbed is defined. It consists of 11 different Poisson equations. The solving time, the memory consumption and the approximation quality are compared to the state of the art open-source Finite Element solver NGSolve. The first experiment tests a serial JADE. The results are not as good as comparable work in the literature. Further, a strange behaviour is observed, where the fitness and the quality do not match. The second experiment implements a parallel JADE, which allows to make use of parallel hardware. This significantly speeds up the solving time. The third experiment implements a parallel JADE with adaptive kernels. It starts with one kernel and introduce more kernels along the solving process. A significant improvement is observed on one PDE, that is purposely built to be solvable. On all other testbed PDEs the quality-difference is not conclusive. The last experiment investigates the discrepancy between the fitness and the quality. Therefore, a new kernel is defined. This kernel inherits all features of the Gauss kernel and extends it with a sine function. As a result, the observed inconsistency between fitness and quality is mitigated.
The thesis closes with a proposal for further investigations. The concepts here should be reconsidered by using better performing optimisation algorithms from the literature, like CMA-ES. Beyond that, an adaptive scheme for the collocation points could be tested. Finally, the fitness function should be further examined.
Pump-Probe-Elastographie
(2020)
Krebs ist die zweit häufigste Todesursache in Deutschland. Seine frühzeitige Detektion ist wichtig für eine erfolgreiche Behandlung. Die Detektion und Charakterisierung der Tumore kann unter anderem anhand ihrer mechanischen Eigenschaften erfolgen.
Die Pump-Probe-Elastographie (PPE) ist eine neue und vielversprechende Methode um die mechanischen Eigenschaften von Gewebe durch optische Anregung und Detektion der dadurch entstehenden akustischen Wellen zu charakterisieren.
In dieser Arbeit wurde ein PPE-Mikroskop aufgebaut und anschließend untersucht, wie die Wellenfronten möglichst deutlich sichtbar werden und welchen Einfluss die Pulsenergie auf die erzeugten Wellen hat. Dies geschah anhand zweier Proben – Wasser und Glas. Beide sind transparent und bieten daher auch die Möglichkeit der Messung im Volumen. Wasser unterscheidet sich zudem von Glas, da es kompressibel ist und somit die Entstehung von Stoßwellen erlaubt. In Glas wiederum können nicht nur Longitudinalwellen, sondern auch Transversalwellen und Rayleigh-Wellen entstehen.
Als Ergebnis dieser Arbeit wird gezeigt, dass die Messergebnisse in Wasser abhängig von der Pulsenergie sind, denn die entstehenden Stoßwellen breiten sich mit Überschallgeschwindigkeit aus, was bei zukünftigen Messungen mit Zellgewebe zu beachten ist. In Glas hat die Pulsenergie zwar keinen Einfluss auf die Wellengeschwindigkeit, jedoch werden die Messungen mit zunehmender Energie deutlicher. Auch ist bei Messungen im Volumen nur die Longitudinalwelle zu sehen. Misst man jedoch auf der Glasoberfläche, so entsteht auch eine Druckwelle in der Luft, welche wiederum abhängig von der Pulsenergie ist. Zusätzlich ist in einigen Messungen eine weitere Welle zu erkennen, welche unabhängig von der Pulsenergie ist und sich im Glas, oder auf dessen Oberfläche ausbreitet.
In recent years, much research has been done on medical laser applications inside the human body, as they are minimally invasive and therefore have fewer side effects and are less expensive than conventional therapies. In order to bring the laser light into the human body, a glass fibre with a diffuser is needed. The goal of this master thesis is the characterization and production of fibre optic diffusers that can be used for the three therapeutic applications: photodynamic therapy, laser-induced thermotherapy and endovenous laser therapy. For this purpose the following goals have to be achieved:
- Optimization of the efficiency and homogeneity of internally structured diffusers
- Examine damage thresholds of the diffusers in the tissue using a crash test
- Achieving a better understanding of the decouple mechanism with a simulation
Using an ultra-short pulse laser, modifications could be introduced into the fibre in this way that the radiation profile is homogeneous and the decoupling efficiency is 68.3 %. It was discovered that the radiation profile depends on the wavelength. Attempts have been made to improve the decoupling efficiency by mirroring the distal end of the fibre. The mirror reflects the remaining light back into the fibre, so that it is also decoupled lateral on the modifications. Vapor-deposited aluminum with physical vapor deposition is a promising approach. However, the adhesion of the coating must be improved or the coating must be protected by a mechanical cover, otherwise it will flake off too quickly.
In a crash test, it was shown that the glass fibre diffusers can withstand 20 W laser power for 300 s without visible change. In an ex vivo test, the coagulation zone in the tissue was examined and it was showed that the diffusers radiate radially homogeneously. Using a ray trace simulation, the course of the light rays in the fibre was examined and the correlation of modification width and length with the decoupling efficiency was investigated. It was discovered that there are helical light rays in the fibre, which cannot be decoupled by modifications in the fibre centre.
In dieser Arbeit sollen Möglichkeiten untersucht werden, um eine möglichst robuste und ressourcenschonende Methode für homogene autonome Roboterteams um eine gemeinsame Exploration und Kartierung einer unbekannten Umgebung durchzuführen. Zu diesem Zweck soll eine koordinierte Exploration durchgeführt werden, durch die die zeitliche Effizienz des Roboterteams gesteigert werden kann. Dadurch kann unter geringerem Aufwand und in weniger Zeit eine globale Karte einer unbekannten Umgebung erstellt werden, mit der alle beteiligten Roboter für zukünftige Aufträge arbeiten können. Um dies zu erreichen wurden verschiedene Map-Merging Methoden untersucht, von denen eine auf Feature Detection basierende Verfahren für eine verteilte, robuste und ressourcenschonende Vorgehensweise ausgewählt wurde. Nachdem zwei oder mehr Karten erfolgreich fusioniert werden, kann eine koordinierte Exploration mit den Robotern, die mit der geteilten Karte arbeiten können durchgeführt werden. Für die gemeinsame Exploration werden auf dem implementierten Kartenserver nach allen Frontiers gesucht, die in der Karte vorhanden sind. Diese werden gemeinsam mit den derzeitigen Explorationszielen der anderen Roboter kombiniert und dem Roboter, der gerade versucht ein neues Explorationsziel zu wählen mitgeteilt. Dadurch können alle Roboter selbständig und unabhängig voneinander mit den Informationen der anderen Roboter arbeiten. Durch den Umstand, dass die Roboter die Wahl des Explorationsziels und die Pfadplanung selbstständig durchführen können, funktioniert das Roboterteam auch weiter, falls die Kommunikation zu den anderen Robotern abgebrochen wird. Wenn ein Roboter, der die Kommunkationsmöglichkeit mit dem Kartenserver verloren hat die Kommunikation wiederherstellen kann, können die in der Zwischenzeit gesammelten Daten des Roboters normal für das gesamte System weiter verwendet werden und der Roboter kann die Exploration koordiniert mit den anderen Robotern fortsetzen. Zusätzlich können von dem Kartenserver zusätzliche Informationen angefordert werden, die bei der Entscheidung über das nächste Explorationsziel des Roboters hilfreich sein können. Sollte die Kommunikation nicht wiederhergestellt werden können, wird die Exploration von jedem Roboter individuell und ohne Koordinierung fortgesetzt. Eine Kommunikation mit dem Kartenserver findet nur dann statt, wenn ein Roboter ein neues Explorationsziel benötigt. Dadurch ist die Netzwerkbelastung für die Koordinierung und die Kartenfusionen minimal und alle Roboter können unabhängig von den aufwändigen Berechnungen, die auf dem Kartenserver durchgeführt werden müssen weiter ihrer Aufgabe nachgehen.
In dieser Arbeit wird eine Evaluation zwischen verschiedenen implementierten Ansätzen eines Empfehlungssystems auf der Basis eines realen Datensatzes durchgeführt. Der Datensatz beinhaltet das Navigationsverhalten von Besuchern einer Website über Kochrezepte. Während der Vorverarbeitung wird der Datensatz mit zusätzlichen Metainformationen für jedes besuchte Rezept aus dem Content Management System der Webseite angereichert. Die implementierten Empfehlungssysteme verwenden sowohl den Content Based Filtering als auch den Collaborative Filtering Ansatz. Zusätzlich werden beide Ansätze kombiniert und in einem hybriden Empfehlungssystem eingesetzt. Darüber hinaus werden für jede Person im Datensatz zwei individuelle Profile erstellt. Dabei handelt es sich um ein kurzlebiges Session-Profil und ein permanentes Langzeit-Profil. Mit jedem Besuch eines Rezeptes werden beide Profile dynamisch angepasst, so dass sich die individuellen Präferenzen der Personen jederzeit in den Profilen widerspiegeln. Für die Evaluation wird ein eigener Algorithmus angewendet, welcher es erlaubt einen Vergleich zwischen den implementierten Empfehlungssystemen vorzunehmen. Die Besonderheit an dem Evaluationsalgorithmus ist, dass dieser lediglich die besuchten Items und deren Beschreibung für den Vergleich benötigt. Es werden keine expliziten Bewertungen von den Webseitenbesuchern verwendet. In der Arbeit werden die Ergebnisse der unterschiedlichen Ansätze für ein Empfehlungssystem mit dem eigenen Evaluationsalgorithmus diskutiert und die Vor- bzw. Nachteile der jeweiligen Ansätze erläutert. Bei der Analyse stellt sich heraus, dass für den in dieser Arbeit verwendete Datensatz ein hybrides Empfehlungssystem, welches sowohl das Session-Profil als auch das Langzeit-Profil kombiniert, die besten Ergebnisse erzielt. Mit diesem System wird eine Übereinstimmungsgenauigkeit zwischen den vorgeschlagenen Rezepten und den tatsächlich besuchten Rezepten von knapp 36% erreicht. Die beiden Content Based Systeme, welche jeweils entweder das Session-Profil oder das Langzeit-Profil verwenden, erzielen eine Übereinstimmungsgenauigkeit von ca 30% bzw. 20%. Die Algorithmen mit dem Collaborative Filtering Ansatz erreichen bei dem verwendeten Datensatz nur eine Übereinstimmungsgenauigkeit von ca. 15% bzw. 13,5%. Als Referenzmodell wird ein Empfehlungssystem verwendet, das nach dem Zufallsprinzip Rezepte vorschlägt, wodurch eine Übereinstimmungsgenauigkeit von etwa 6% erreicht wird.
In dieser Arbeit wird eine Topologie-Erkennung beschrieben, welche durch rein passives Scannen ermöglicht wird. Dazu werden die verschiedenen Protokolle beschrieben, welche in dem Bereich Digital Substation verwendet werden, um mögliche Ansätze zu erarbeiten. Es werden die Redundanz-Protokolle STP (Spanning Tree Protocol), RSTP (Rapid Spanning Tree Protocol), PRP (Parallel Redundancy Protocol) und HSR (High-availability Seamless Redundancy) beschrieben. Es wird ein kurzer Überblick zum IEC-61850 Standard und dessen Protokolle SV (Sampled Values) und GOOSE (Generic Object Oriented Substation Event) gegeben. Auf dieser Grundlage wird eine Applikation entwickelt, welche die Data Link Layer Topologie erkennt. Die entwickelte Topologie-Erkennung wird als Proof-of-Concept für STP und RSTP Netzwerke verwendet und die entsprechenden Voraussetzungen werden beschrieben. Auf korrektes Verhalten wurde die in dieser Arbeit entwickelte Applikation mittels verschiedenen, simulierten Netzwerken und einem simplen Laboraufbau getestet. Die Applikation bietet auch die Möglichkeiten, solche Topologien zu visualisieren und zu vergleichen.
Die Digitalisierung von Unternehmen und deren Produktionsanlagen bringen neue Bedrohungsformen mit sich, die zielorientierter ausgerichtet sind und mehrere Computersysteme gleichzeitig betreffen. Klassische Schutzmechanismen wie Firewalls, Anti-Viren-Systeme und IDS sind zumeist signatur- oder muster-basiert und können diese komplexen Bedrohungsformen nicht effizient erkennen. Die verwendeten Signaturen und Muster können durch Angreifer einfach umgangen werden. Darüber hinaus sind gezielte und komplexe Angriffe nur durch die Verknüpfung von Informationen mehrerer Computersysteme identifizierbar.
In den letzten Jahren wurden daher verstärkt anomalie-basierte IDS entwickelt und eingesetzt, die anhand selbstlernender Algorithmen das normale Verhalten von mehreren miteinander vernetzten Computersystemen erlernen und Abweichungen zum normalen Verhalten identifizieren. Hierzu verwenden die Algorithmen Log- und Monitoringdaten der Anwendungsschicht von verschiedenen Computersystemen und Anwendungen. Der Zugriff auf die Logdaten zur weiteren Analyse ist jedoch kompliziert, weil sie nicht an einer zentralen Stelle zusammenlaufen und es keine allgemein anerkannten Standards für die Erzeugung und Übertragung von Logdaten existieren.
Infolgedessen wird in dieser Arbeit ein zentrales Log-Management-System in eine Produktionsumgebung eingeführt, die verschiedene IT-Komponenten und Komponenten einer realen Güterproduktion beinhaltet. Zudem werden Logdaten verschiedener heterogener Datenquellen auf diesem System zentral aggregiert. Neben der Einführung eines Standards für die Struktur und Übertragung der Logdaten von den einzelnen Datenquellen auf das Log-Management-System, werden Logdaten auf ihre Relevanz hinsichtlich der Erkennung von Anomalien und der Abbildung des Systemverhaltens analysiert. Diese Arbeit beinhaltet zudem fortgeschrittene Bedrohungsszenarien, die für die Evaluation der IDS verwendet werden können und stellt somit eine Grundlage für eine zukünftige Analyse der Logdaten durch IDS dar.
Moderne Darstellungen ermöglichen es, Daten nicht nur als statische Bilder, sondern auch als interaktive Visualisierungen darzustellen. Interaktive Darstellungen können im Kontext von Kundinnen- und Kundenanalysen eine einfache Weise sein, um Unterschiede in verschiedenen Kaufverhalten festzustellen und können so ein essenzielles Hilfsmittel für ein Unternehmen sein. Das Hauptziel dieser Arbeit ist es, anhand eines beispielhaften Verkaufsdatensatzes die Möglichkeiten der Datenexploration und Informationsbeschaffung durch interaktive Visualisierungen aufzuzeigen, sodass Rückschlüsse auf das Kaufverhalten verschiedener Gruppen gezogen werden können.
Auf der Grundlage einer umfassenden Literaturrecherche in den Bereichen der Daten- und Informationsvisualisierung wurde eine Problemdefinition und eine Anforderungsanalyse für die Verkaufsdaten ausgearbeitet. Anonymisierte Verkaufsdaten dienten als Ausgangspunkt für die Datenvorverarbeitung. Diese wurden bereinigt und die gewünschten Informationen aus der Anforderungsanalyse wurden zur weiteren Transformation selektiert. Aufgrund der hohen Dimensionalität der selektierten Daten, wurde bei der Transformation der Dimensionsreduktions Algorithmus “Uniform Manifold Approximation and Projection” (UMAP) verwendet, um die Dimensionen der Daten zur Visualisierung zu reduzieren. Aufbauend auf diesen Schritten wurde ein Prototyp als Webanwendung erstellt, der den Anforderungen der Datenexploration und Informationsgewinnung gerecht wird. Der resultierende Prototyp kombiniert die achsenbasierten Visualisierungsmethoden der Streudiagramme und Parallelen Koordinaten mit der pixelorientierten Visualisierungsmethode der Heatmap. Diese Darstellungen wurden zusätzlich mit Interaktionsmöglichkeiten erweitert, um eine kollaborative Filterung von ähnlichen Konsumentinnen und Konsumenten auf verschiedenen Warengruppenebenen zu ermöglichen.
Abgeschlossen wurde die Arbeit mit einer Evaluation des Prototypen und dessen Qualität zur Exploration. Die Auswertung wurde mit Benutzerinnen und Benutzern absolviert, die einen Versuchsablauf durcharbeiteten und dabei ihre Erkenntnisse in einem Fragebogen dokumentierten. Durch das Ausführen ließen sich Gruppierungen von Kundinnen und Kunden feststellen und diese konnten auf Richtigkeit in Bezug auf das Einkaufsverhalten validiert werden. Die hierarchische Verbindung der Warengruppenebenen und das Erkennen von Mustern in allen drei Warengruppenebenen konnte nicht als erfolgreich bewertet werden. Es wurde jedoch ein Potenzial zur weiteren visuellen Analyse von Konsumentinnen und Konsumenten anhand deren Einkaufsverhalten festgestellt und weitere Anforderungen zur Weiterentwicklung wurden festgehalten.
Für die Digitale Fabrik an der FH Vorarlberg sollen Intrusion-Detection-Systeme (IDS) zur Erkennung von Angriffen auf Hosts sowie im Netzwerk evaluiert werden. Außerdem sollen die aus den IDS erhaltenen Resultate so dargestellt werden, damit Systemadministratorinnen rapide Entscheidungen bezüglich der generierten Alarme treffen können. Um dies zu gewährleisten sollen neben den IDS zusätzlich entsprechende Visualisierungstools evaluiert werden. In dieser Arbeit werden dazu unterschiedliche signatur- sowie auch anomaliebasierte Netzwerk- und Host-IDS technisch beschrieben und anhand von Kriterien, welche aus den Anforderungen abgeleitet werden, bewertet. Zusätzlich wird die Genauigkeit der IDS durch Testen von spezifischen Angriffen ermittelt. Außerdem werden potenzielle Tools für die Darstellung von Alarmen aus den IDS vorgestellt und ebenfalls anhand den Anforderungen aufgezeigt, welches am geeignetsten ist. Abschließend werden alle Probleme sowie Erkenntnisse aufgezeigt, welche während der Evaluierung auftraten und erläutert, wie diese Arbeit fortgeführt werden kann.
Für die Verrechnung von Leistungen gegenüber dem Kunden sowie die Planung des weiteren Geschäftsjahres ist es wichtig, dass die Angestellten ihre Arbeitszeit so genau wie möglich dokumentieren. Da diesbezüglich bei der Firma IMA-Systems Information-Technology ZNL der NEXTCLINICS Austria GmbH (im Folgenden IMA-Systems) Verbesserungspotential besteht, gilt es Lösungen zu finden die Angestellten zu motivieren ihre Arbeits-Dokumentation möglichst genau anzufertigen. Gamification hat sich in vielen Bereichen als Hilfreich herausgestellt, wenn es um die Motivationssteigerung von Menschen geht. In dieser Arbeit wird der Fragestellung nachgegangen, inwiefern mittels Gamification die Motivation zur genaueren Zeitdokumentation der Arbeitnehmenden im Unternehmen IMA-Systems gesteigert werden kann. Um die Fragestellung zu beantworten wird eine Gamification-Anwendung entwickelt, welche die Angestellten zu einer genaueren Dokumentation ihrer Arbeitszeit motivieren soll.
Hierfür wird mittels des User Centered Design Prozesses ein VB.Net Programm implementiert, welches mit Hilfe der passenden Spielelemente zur Motivationssteigerung beitragen soll. Hierbei wird unterschieden ob es sich um ein Mitglied der Entwicklungs- oder EDV-Abteilung handelt, da die Dokumentation sich in den Abteilungen unterscheidet. Während die Entwicklungsabteilung zeitgleich und minutengenau dokumentiert, dokumentiert die EDV-Abteilung indem nachträglich Zeiteinheiten zugeordnet werden. Vor der Implementierung der Anwendung werden die Teilnehmenden interviewt, um ihre Antworten in die Entwicklung einfließen zu lassen. Nach Fertigstellung des Prototyps wird die Testphase eingeleitet. Hierfür wird der Prototyp in den Arbeitsalltag der Angestellten der Firma IMA-Systems integriert. Auf die Feldphase folgen eine erneute Befragung der Angestellten sowie der Vergleich der Daten vor und nach der Einführung von Gamification.
Die Auswertung der Ergebnisse ergab, dass die Anwendung auf die EDV-Abteilung mit einer Steigerung von 18,6% einen deutlichen, positiven Effekt hat, welcher sich in der Entwicklungsabteilung mit einem Rückgang von 5% nicht verzeichnen lässt. In der abschließenden Diskussion wird die Auswertung der Ergebnisse kritisch betrachtet, der Grund für die Verschlechterung in der Entwicklungsabteilung erläutert und ein Ausblick für mögliche Verbesserungen und Erweiterungen des Prototyps aufgezeigt.
This thesis aims to support the product development process. Therefore, an approach is developed, implemented as a prototype and evaluated, for automated solution space exploration of formally predefined design automation tasks holding the product knowledge of engineers. For this reason, a classification of product development tasks related to the representation of the mathematical model is evaluated based on the parameters defined in this thesis. In a second step, the mathematical model should be solved. A Solver is identified able to handle the given problem class.
Due to the context of this work, System Modelling Language (SysML) is chosen for the product knowledge formalisation. In the next step the given SysML model has to be translated into an object-oriented model. This translation is implemented by extracting information of a ".xml"-file using the XML Metadata Interchanging (XMI) standard. The information contained in the file is structured using the Unified Modelling Language (UML) profile for SysML. Afterwards a mathematical model in MiniZinc language is generated. MiniZinc is a mathematical modelling language interpretable by many different Solvers. The generated mathematical model is classified related to the Variable Type and Linearity of the Constraints and Objective of the generated mathematical model. The output is stored in a ".txt"-file.
To evaluate the functionality of the prototype, time consumption of the different performed procedures is measured. This data shows that models containing Continuous Variables need a longer time to be classified and optimised. Another observation shows that the transformation into an object-oriented model and the translation of this model into a mathematical representation are dependent on the number of SysML model elements. Using MiniZinc resulted in the restriction that models which use non-linear functions and Boolean Expressions cannot be solved. This is because the implementation of non-linear Solvers at MiniZinc is still in the development phase. An investigation of the optimally of the results, provided by the Solvers, was left for further work.
Zeros can cause many issues in data analysis and dealing with them requires specialized procedures. We differentiate between rounded zeros, structural zeros and missing values. Rounded zeros occur when the true value of a variable is hidden because of a detection limit in whatever mechanism was used to acquire the data. Structural zeros are values which are truly zero, often coming about due to a hidden mechanism separate from the one which generates values greater than 0. Missing values are values that are completely missing for unknown or known reasons. This thesis outlines various methods for dealing with different kinds of zeros in different contexts. Many of these methods are very specific in their ideal usecase. They are separated based on which kind of zero they are intended for and if they are better suited for compositional or for standard data.
For rounded zeros we impute the zeros with an estimated value below the detection limit. The author describes multiplicative replacement, a simple procedure that imputes values at a fixed fraction of the detection limit. As a more advanced technique, the author describes Kaplan Meier smoothing spline replacement, which interpolates a spline on a Kaplan Meier curve and uses the spline below the detection limit to impute values in a more natural distribution. Rounded zeros cannot be imputed with the same techniques that would be used for regular missing values, since there is more information available on the true value of a rounded zero than there would be for a regular missing value.
Structural zeros cannot be imputed since they are a true zero. Imputing them would falsify their values and produce a value where there should be none. Because of this, we apply modelling techniques that can work around structural zeros and incorporate them. For standard data, the zero inflated Poisson model is presented. This model utilizes a mixture of a logistic and a Poisson distribution to accurately model data with a large amount of structural zeros. While the Poisson distribution is only applicable to count data, the zero inflation concept can be applied to different kinds of distributions. For compositional data, the zero adjusted Dirichlet model is introduced. This model mixes Dirichlet distributions for every pattern of zeros found within the data. Non-algorithmic techniques to reduce the amount of structural zeros present are also shown. These techniques being amalgamation, which combines columns with structural zeros into more broad descriptors and classification, which changes columns into categorical values based on a structural zero being present or not.
Missing values are values that are completely missing for various known or unknown reasons. Different imputation techniques are introduced. For standard data, MissForest imputation is introduced, which utilizes a RandomForest regression to impute mixed type missing values. Another imputation technique shown utilizes both a genetic algorithm and a neural network to impute values based on the genetic algorithm minimizing the error of an autoencoder neural network. In the case of compositional data, knn imputation is presented, which utilizes the knn concept also found in knn clustering to impute the values based on the closest samples with a value available.
All of these methods are explained and demonstrated to give readers a guide to finding the suitable methods to use in different scenarios.
The thesis also provides a general guide on dealing with zeros in data, with decision flowcharts and more detailed descriptions for both compositional and standard data being presented. General tips on getting better results when zeros are involved are also given and explained. This general guide was then applied to a dataset to show it in action.
Business Intelligence (BI) beschreibt den Bereich, der für die Auswertung betrieblicher Geschäftsdaten verantwortlich ist und von Unternehmen jeder Größe verwendet wird. Die erhaltenen Informationen unterstützen die Entscheidungsfindung von Unternehmen und können sich positiv auf die Geschäftsentwicklung auswirken. Die Hexagon Geosystems hat seit mehreren Jahren Lösungen im Einsatz, mit welchen die systematische Analyse von Geschäftsdaten abgewickelt wird. Für Unternehmen dieser Größe sind leicht zugängliche und benutzerfreundliche BI-Lösungen unerlässlich - über die Jahre und der wachsenden Menge an Analysen und Berichten haben sich aber Probleme in der Verwendung und Verständlichkeit gebildet, welche im Rahmen dieser Masterarbeit untersucht werden.
Zum Beginn werden die theoretischen Inhalte der Arbeit erläutert und eine Wissensgrundlage geschaffen. Aus der in der Ist-Analyse gegebenen Beschaffenheit im Unternehmen werden die Probleme der aktuellen Lösung im Rahmen einer Problemerläuterung aufgewiesen. Die daraus resultierenden Erkenntnisse bilden die Grundlage für die Konzipierung eines Proof of Concepts in den darauf folgenden Kapiteln. In dem Proof of Concept wird ein Vorschlag für ein Baukastensystem zur Erstellung von Berichten und dessen Dokunentationen präsentiert. Eine mittels der System Usability Scale durchgeführten Evaluation zeigte, dass eine benutzungsfreundliche Applikation entstanden ist, welche neben Vorteilen für die Endanwender des Business Warehouses auch Vorteile für die Administratorinnen bei der Erstellung von Berichten mit sich bringt. Eine Zusammenfassung und ein abschließender Ausblick weist diverse Arbeitsschritte auf, welche zur Integration der Applikation in die produktive Landschaft des Unternehmens benötigt werden.
Die morphologische Beurteilung menschlicher Embryos ist ein zeitaufwändiger Prozess in der assistierten Reproduktionsmedizin. Etwa fünf Tage entwickeln sich die Embryos bei einer IVF-Behandlung außerhalb des menschlichen Körpers, bevor Embryologinnen und Embryologen die Entscheidung über die zu transferierenden – also die für die Einleitung einer künstlich herbeigeführten Schwangerschaft zu verwendenden – Embryos anhand unterschiedlicher Bewertungskriterien treffen. Im Anschluss an eine Einführung in die Embryologie werden in dieser Arbeit mögliche Methoden zur automatisierten Embryoselektion besprochen, implementiert, miteinander verknüpft und abschließend evaluiert. Die Arbeit beschränkt sich mit dem EmbryoScope auf einen Zeitrafferinkubator, welcher in den IVF Zentren Prof. Zech in Bregenz in den letzten Jahren viele Millionen Bilder tausender befruchteter Eizellen und den daraus entstehenden Embryos aufgenommen hat. Dieses Gerät diente als Datenquelle zur Unterstützung bei der Entwicklung des Analysetools. Das entstandene Softwareprodukt wurde so programmiert, dass gegebenen Daten vorverarbeitet und unter Anwendung von Bildmanipulationsverfahren und komplexer neuronaler Netze analysiert werden können. Das Ergebnis ist eine Software zur Erkennung und Bewertung unterschiedlicher Parameter der Embryoentwicklung, um daraus Vorschläge für die Selektion der zu transferierenden Embryos generieren und übersichtlich präsentieren zu können.
Zur Evaluierung des Systems konnten drei Embryologinnen und Embryologen aus drei IVF Kliniken unterschiedlicher europäischer Länder gewonnen werden, um anhand einer eigens entwickelten Annotationssoftware Vergleichsdaten zu generieren. Als Endergebnis der Arbeit wurde die Einheitlichkeit dieser erhaltenen Annotationsdaten mit den errechneten Vorschläge anhand unterschiedlicher Kriterien berechnet. Die Transferierbarkeit eines einzelnen Embryos konnte im Vergleich zur Entscheidung des Laborpersonals in 73 % der Fälle korrekt erkannt werden. Bezogen auf eine gesamte IVF Behandlung konnte bei den tatsächlich zu transferierenden Embryos eine vollumfängliche Einheitlichkeit von 26 % mit den Embryologinnen und Embryologen erreicht werden. Embryos, welche von dem entstandenen Analysetool als transferierbar erkannt und unter Beachtung weiterer vorhandener Embryos für die weitere Behandlung vorgeschlagen wurden, sind in 63 % der Fälle für einen Transfer geeignet.
Das entstandene Vorschlagsystem ist als Proof of Concept zu verstehen, welches in späteren Arbeiten durch tiefgreifendere Analysen erweitert werden kann. Ein Einsatz des Systems ist aufgrund der geringen Analysesicherheit, sowie technischen und rechtlichen Einschränkungen zum Abschluss der vorliegenden Arbeit nicht vorgesehen.
Das Teach Pendant wird dazu genutzt um Industrierobotern Zielposen beizubringen, damit diese die Zielposen daraufhin autonom anfahren können. Durch den auf dem Teach Pendant zur Eingabe verbauten Joystick oder die 3D-Maus ist es möglich mit geringem Rechenaufwand Bewegungen und somit Zielposen präzise vorzugeben.
Durch den rasanten Anstieg der Rechenkapazität und den stetigen Erfolgen bei der Erforschung von künstlichen neuronalen Netzwerken sind heutzutage Gestenerkennungssysteme in das Blickfeld der Forschung gelangt. Gestenerkennungssysteme versprechen intuitive und leicht zu erlernende Bedienungskonzepte. Durch den Einsatz von Gesten kann zudem auf ein zusätzliches Gerät in den Händen verzichtet werden, wodurch das Nutzererlebnis gesteigert werden kann. Dies kann bei schweren Eingabgeräten nicht nur die Arme sondern auch die Hände vor Ermüdungserscheinungen schonen.
Das Ziel dieser Arbeit soll es daher darstellen, ein Gestenerkennungssystem mit und ohne ROS-Anbindung zu erstellen, testen und analysieren. Die Gesteninformationen werden von einer Tiefenkamera vom Typ Azure Kinect bereitgestellt. Als Industrieroboter wird hierbei der "WidowX 200"-Lernroboter eingesetzt, da dieser aufgrund seiner kleinen Bauform einfach und effizient zum Testen von neuen Funktionalitäten eingesetzt werden kann. Die Tiefenkamera- und Roboter-Komponente sollen austauschbar bleiben. Die zu entwickelnden Gesten sollen vor allem hohe Ergonomie bereitstellen und vor unbeabsichtigter Durchführung gesichert sein. Die Genauigkeit der Gestenerkennung wird analysiert, um die Zuverlässigkeit der ausgewählten Gesten zu evaluieren. Die Genauigkeit der erreichten Zielposen des "WidowX 200"-Lernroboters wird analysiert und Latenztests werden durchgeführt um das Gestensystem als Gesamtes bewerten zu können.
Risikomanagement wird in einem sicheren Software-Entwicklungs-Lebenszyklus angewendet, um bei Produkten mögliche Risiken bereits in den frühen Entwicklungsphasen zu entdecken. Diese Arbeit ist aus Sicht eines Zulieferers für die elektrische Energiewirtschaft geschrieben.
Das Ziel dieser Forschung ist es, bestehende Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse zu untersuchen. Dazu wurde die folgende Forschungsfrage gestellt: Welche Methoden zur Bedrohungsidentifikation und Metriken zur Risikoanalyse sollen verwendet werden, um im Produktentwicklungsprozess den Anforderungen an Unternehmen, die als Zulieferer für die elektrische Energiewirtschaft fungieren, zu entsprechen und potentielle Bedrohungen im Anfangsstadium eines Projektes zu identifizieren? Um diese Forschungsfrage zu beantworten, wurden Methoden zur Bedrohungsidentifikation (STRIDE, Angriffsbäume und Angriffsbibliotheken) und Metriken (aus CVSS, OWASP und Literatur entnommen) zur Risikoanalyse in die theoretische Wissensgrundlage aufgenommen, in Bezug auf den Kontext und die Anforderungen analysiert und ein Ergebnis hergeleitet. Die Analyse basiert auf dem Kontext und der definierten Anforderungen aus Standards und Normen, wie IEC 62443-4-1 (Anforderungen an den Lebenszyklus für eine sichere Produktentwicklung), spezielle Publikationen von dem National Institute of Standards and Technology 800-30 (Guide for Conducting Risk Assessments) und 800-82 (Guide to Industrial Control Systems Security). Zusätzlich wurden noch Empfehlungen von der UP KRITIS (Öffentlich-Private Partnerschaft zum Schutz kritischer Infrastrukturen) aufgenommen.
Anhand der Analyse der Methoden zur Bedrohungsidentifikation wurde deduziert, dass aufgrund der Anforderungen keine konkreten Methoden empfohlen werden können. Basierend auf die Anforderungen an die Risikoanalyse konnten in dieser Arbeit die folgenden Schadensmetriken abgeleitet werden: Funktionale, lebensgefährliche oder -bedrohliche Auswirkungen, geschäftliche Auswirkungen, sowie Auswirkungen auf Daten und Informationsressourcen.
Die Forschungsfrage dieser Masterarbeit wird beantwortet, indem die Erfolgsfaktoren umsetzbarer Entscheidungen im Projekt herausgearbeitet und mittels Checkliste für die Projektleitung anwendbar werden. Die Checkliste unterstützt, dass das definierte Projektziel unter effizienter Ressourcennutzung erreicht wird, indem das Zustandekommen von Entscheidungen prozesshaft ausgestaltet wird. Die Checkliste baut auf einer managementorientierten Sicht der BWL auf und berücksichtigt die Erkenntnisse des aktuellen Sankt Galler Management-Modells mit seiner Aufgaben- und Praxisperspektive. Durch die Einsicht in die Rhomberg Bahntechnik GmbH soll dem/der Leser/in aufgezeigt werden, welche Rahmenbedingungen und Ziele ein Projekt hat und wie ein Projektmanagement in der Praxis gestaltet werden kann. Die wesentliche Erkenntnis ist, dass komplexe Entscheidungen nur von Menschen getroffen werden können. Die personale Existenzanalyse enthält anwendungsfähige Methoden, mit derer sich die Menschen zu umsetzbaren Entscheidungen führen können. Deshalb wird im Ausblick auf die personale Existenzanalyse kurz eingegangen.
Die Bedeutung der betrieblichen Gesundheitsförderung (BGF) ist in den letzten Jahren aufgrund des Wandels der Arbeitswelt durch Technologien, der Globalisierung sowie des demografischen Wandels stark gestiegen. Gesunde und motivierte Mitarbeitende sind essenziell für ein erfolgreiches Unternehmen. Deshalb rückt der Erhalt der Gesundheit der Mitarbeitenden und die Steigerung des Wohlbefindens am Arbeitsplatz für Firmen immer mehr in den Vordergrund. Zahlreiche Betriebe sind somit zunehmend gezwungen, sich mit verschiedenen gesundheitsfördernden Interventionen zu beschäftigen. Die vorliegende Studie beschäftigt sich mit der Frage, welche gesundheitsfördernden Maßnahmen in Vorarlberger Unternehmen und öffentlichen Einrichtungen genutzt werden. Daraus lässt sich ableiten, welche Maßnahmen vorrangig angeboten werden. Die theoretische Grundlage bildet eine Literaturrecherche. Insgesamt wurden 312 Vorarlberger Arbeitnehmende mit einem Durchschnittsalter von 33,79 Jahren mittels einem vollstandardisierten Fragebogen befragt. Als meist genutzte Interventionen stellten sich besonders die verhältnispräventiven Maßnahmen, wie flexible Arbeitszeitmodelle, ergonomische Bürostühle und regelmäßige Pausen, heraus. Der Wunsch nach zusätzlichen verhaltenspräventiven Maßnahmen (prägen den individuellen Lebensstil), wie bspw. gesunde Ernährungsangebote und Obstkörbe, spiegeln sich jedoch in den Ergebnissen wider. Generell lässt sich sagen, dass auch aufgrund der rechtlichen Vorgaben vermehrt Maßnahmen zur gesunden Gestaltung des Arbeitsverhältnisses, also verhältnispräventive Maßnahmen, angeboten und daher auch genutzt werden.
Die vier Tage Arbeitswoche
(2020)
Das Ziel der vorliegenden Masterarbeit war es, den Nutzen einer 4-Tage-Woche einerseits für Mitarbeiter, aber auch für Unternehmen herauszufinden. Dazu wurde als erstes herausgefunden, welche Auswirkungen die Arbeitszeit auf Mitarbeiter haben kann und inwiefern das immer wichtiger werdende Thema Work-Life-Balance davon betroffen ist.
Als nächster Schritt wurden Erfahrungsberichte von Unternehmen, sowie derer Mitarbeiter analysiert. Derzeit gibt es noch nicht viele Länder und Unternehmen, welche sich für eine 4-Tage-Woche einsetzen, weshalb diejenigen, die eine 4-Tage-Woche befürworten oder eingeführt haben, große mediale Aufmerksamkeit erhalten und regelmäßig interviewt werden.
Daraufhin wurden weitere Arbeitszeitmodelle analysiert, welche als Alternative für den Zweck einer besseren Work-Life-Balance und auch bessere Wettbewerbsfähigkeit für Unternehmen eingesetzt werden können.
Dann folgte die empirische Analyse, wobei Experteninterviews und auch eine quantitative Umfrage in Vorarlberg durchgeführt wurden. Dabei wurden einerseits Kenner der 4-Tage-Woche, aber auch Nicht-Kenner befragt und diese Umfrageergebnisse miteinander verglichen.
Als letzter Schritt wurde Kontakt mit einer bekannten Unternehmensberaterin aufgenommen, welche Spezialistin im Bereich Change-Management und Organisationsentwicklung ist. Somit wurde eine Handlungsempfehlung zur Implementierung einer 4-Tage-Woche ausgearbeitet.
Diese Masterarbeit ist sowohl für Entscheidungsträger im Personalbereich, als auch für all jene Dienstnehmer, welche ihre Work-Life-Balance für wichtig erachten.
Kultur und Werte sind allgegenwärtig in unseren Leben. Sie prägen uns Menschen nicht nur im persönlichen und privaten Umfeld, sondern sind auch Teil von Gesellschaftsstrukturen und Unternehmen. Das Ziel dieser Masterthesis ist es deshalb, herauszufinden, welchen Zusammenhang es zwischen den Themen Unternehmenskultur und Mitarbeiterbindung gibt und ob die Unternehmenskultur in Familienunternehmen dazu beitragen kann eine höhere Mitarbeiterbindung zu schaffen. Dabei werden eine Vielzahl an Motivationsfaktoren, sowie Werten berücksichtigt, welche in einer quantitativen Forschung Aufschluss darüber geben sollen, was den Mitarbeitenden in Vorarlberger Unternehmen wichtig ist und wie diese die Unternehmenskultur in ihren Betrieben wahrnehmen. Mit Hilfe eines standardisierten Fragebogens konnten 151 Personen mit einem Durchschnittsalter von 34,93 Jahren erreicht werden. Dabei wurde ersichtlich, dass die Faktoren angenehme Arbeitsatmosphäre, Jobsicherheit, Weiterbildung/Entwicklung, Führung und Work-Life-Balance die wichtigsten Motivationsfaktoren darstellen. Im Bereich Werte sind Verlässlichkeit, Ehrlichkeit, Verantwortungsbewusstsein, Respekt und Fairness am wichtigsten. Diese Erkenntnisse konnten unabhängig von der Unternehmensform erlangt werden.
Lohngerechtigkeit ist ein Thema, mit dem jede Person im Laufe des Lebens mehrmals konfrontiert wird. Sehr häufig wird dieses Thema auch in der Öffentlichkeit debattiert, vor allem wenn es um die „Gender Pay Gap“ geht, also die Lohnlücke zwischen Mann und Frau. Das Ziel dieser Masterthesis ist es deshalb herauszufinden, welche Faktoren für die Bestimmung eines fairen Entgelts laut unselbstständig erwerbstätiger Personen in Vorarlberg berücksichtigt werden sollen. Dabei wird nicht nur auf die gängigen Faktoren Berufserfahrung und Ausbildung eingegangen, sondern eine Vielzahl an Faktoren berücksichtigt. Mit Hilfe eines Fragebogens wurde dann hauptsächlich die Meinung von Angestellten mit einem Durchschnittsalter von 32,4 Jahren erhoben. Dabei hat sich gezeigt, dass die bedeutendsten vier Faktoren Leistung, Berufserfahrung, Position (inklusive der damit verbundenen Aufgaben und Verantwortung) und Ausbildung sind. Am unbedeutendsten werden Geschlecht, Unternehmensgröße und Familienstand erachtet. Außerdem konnte belegt werden, dass sich das Lohngerechtigkeitsempfinden stark an den eigenen Lebensumständen orientiert.
Alter und Recruiting
(2020)
Die vorliegende Arbeit beschäftigt sich mit der Problematik von Arbeitssuchenden 45 plus in Vorarlberg.
Zum Verständnis werden die Fachbegriffe Diversity, Generationen und Altersklassen, Altersdiskriminierung und Work Ability Index erläutert. Die Umfeld- und Einflussfaktoren beschäftigen sich mit den demografischen Grundlagen, den Potenzialen älterer Arbeitnehmender, dem alter(n)s-gerechten Arbeiten, möglicher Herausforderungen im Recruiting und Ideen anderer Länder.
Im Abschnitt Methodologie und Methodik werden Grundlagen der qualitativen Forschung behandelt. Die Datenerhebung erfolgte durch Experteninterviews. Die Details dazu finden sich in den Passagen Sampling, Auswahl der Interviewpartner, Interview-Leitfaden, Auswertungsmethode und Gütekriterien. Die Arbeit fokussiert sich auf Industrieunternehmen in Vorarlberg sowie das AMS, die AK und die Caritas.
Die Antworten aus den Leitfaden-Interviews führen schlussendlich zu potenziellen Reformansätzen, um die Situation für Arbeitnehmende 45 plus zu verbessern. Es ergeben sich mehrere Aspekte, welche wider das Einstellen von älteren Bewerbenden vorliegen.
Die Kompetenzentwicklung im Umgang mit Veränderungsprozessen für Mitarbeitende aller Hierarchieebenen ist essentiell, da diese zu einem festen Bestandteil des Alltags zählen. Durch speziell erstellte Planspiele für diesen Themenbereich werden Führungskräfte und Mitarbeitende für den Veränderungsprozess sensibilisiert. „SysTeamsChange“ stellt eines der marktführenden Planspiele in diesem Themenbereich dar. In diesem Tool werden die Teilnehmenden in die Lage versetzt, mit diversen Situationen richtig umzugehen. Die vorliegende Masterarbeit erörtert die Bedingungen, unter welchen das Planspiel „SysTeamsChange“ effektiv in Veränderungsprozessen eingesetzt werden kann. Zudem wird analysiert, ob es sich bei diesem Spiel um eine wirkungsvolle Methode für die Kompetenzentwicklung für Führungskräfte handelt und in welchen anderen Einsatzbereichen das Tool erfolgreich verwendet werden kann. Basierend auf den Ergebnissen der theoretischen Ausarbeitungen und durchgeführten Experteninterviews werden Handlungsempfehlungen zum verbesserten Einsatz von „SysTeamsChange“ abgeleitet. Dadurch soll den Unternehmen eine leichtere und effizientere Handhabung mit dem Einsatz dieses Tools ermöglicht werden.