Refine
Year of publication
- 2020 (168) (remove)
Document Type
- Master's Thesis (89)
- Article (48)
- Conference Proceeding (12)
- Part of a Book (6)
- Report (6)
- Other (4)
- Doctoral Thesis (2)
- Book (1)
Institute
- Soziales & Gesundheit (21)
- Wirtschaft (18)
- Forschungszentrum Mikrotechnik (15)
- Forschungszentrum Business Informatics (14)
- Technik | Engineering & Technology (8)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (6)
- Forschungszentrum Energie (4)
- Department of Engineering (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (2)
- Gestaltung (2)
- Forschung (1)
Keywords
- Ausscheidung (4)
- Controlling (3)
- Digitalisierung (3)
- Machine learning (3)
- Optical coherence tomography (3)
- Arrayed waveguide gratings (2)
- Change management (2)
- Demand Side Management (2)
- Digitale Transformation (2)
- Entscheidung (2)
- Erfolgsfaktor (2)
- Gestenerkennung (2)
- Human needs (2)
- International business (2)
- Klinische Soziale Arbeit (2)
- Leadership (2)
- Marketing (2)
- OCT (2)
- ROS (2)
- SME (2)
- Shaolin (2)
- Y-branch splitter (2)
- kritische Diskursanalyse (2)
- 4-Tage-Woche (1)
- A priori & a posteriori segmentation (1)
- AI on the Edge (1)
- AI use cases (1)
- ARM (1)
- AWG-Spectrometer (1)
- AWG-spectrometer (1)
- Accompanied child asylum seekers (1)
- Acculturation (1)
- Acquisitions (1)
- Agent-based simulation testing (1)
- Agilität (1)
- Air humidification (1)
- Altenheim (1)
- Alter (1)
- Alter(n)s-gerechtes Arbeiten (1)
- Altersdiskriminierung (1)
- Anaesthetics (1)
- Anreizgestaltung (1)
- Anwendungssteuerung (1)
- Arbeitszeitdokumentation (1)
- Arbeitszeitreduktion (1)
- Architektur (1)
- Artificial intelligence (1)
- Augmented Reality (1)
- Ausgleichsenergie (1)
- Aussscheidung (1)
- Austrian labour market (1)
- Autarkiegrad (1)
- Autoethnography (1)
- Automated Adjustment (1)
- Automated optimisation (1)
- Automatisierung (1)
- Automotive industry (1)
- B2C targeting (1)
- BWL (1)
- Bartlett & Ghoshal model (1)
- Bauindustrie (1)
- Bedeutungskonstruktion (1)
- Beobachter (1)
- Beziehungsgestaltung (1)
- Bilanzpolitik (1)
- Bisexuality (1)
- Blasensäule (1)
- Blended Learning (1)
- Boiler-Wärmepumpen (1)
- Brazilian (1)
- Bubble column humidifier (1)
- Buddhistische Heilkunst (1)
- Buddhistische Kampfkunst (1)
- Buddhistische Psychologie (1)
- Budo (1)
- Budopädagogik (1)
- Budotherapie (1)
- Business Partner (1)
- Business analytics (1)
- Business intelligence (1)
- Business-to-Business (1)
- Bürgerschaftliches Engagement (1)
- CNN for Embedded System (1)
- Calorimetry (1)
- Capability Approach (1)
- Carbothermal reduction (1)
- Case study analysis (1)
- Ceramic capacitor (1)
- Challenges (1)
- Children's rights (1)
- Children’s rights (1)
- Clathrate hydrates (1)
- Cloud-based research (1)
- Code testing (1)
- Collaborative filtering (1)
- Compositional data (1)
- Computational-intelligence (1)
- Computed tomography (1)
- Constraints (1)
- Content based filtering (1)
- Corona (1)
- Corporate culture (1)
- Coupling of Fiber Array (1)
- Covid (1)
- Covid-19 (1)
- Cross-Channel Management (1)
- Cross-border M&A (1)
- Cultural Due Diligence (1)
- Cultural competence (1)
- Culture (1)
- Culture and leadership (1)
- Customer experience (1)
- Customer relationship management (1)
- Cyber-Physical Systems (1)
- DSP (1)
- Daseinsmächtigkeit (1)
- Data Link Layer (1)
- Data analysis (1)
- Data analytics (1)
- Data science (1)
- Data warehouse (1)
- Datenexploration (1)
- Datenvisualisierung (1)
- Decision support software (1)
- Desalination (1)
- Design management (1)
- Diffuser (1)
- Digital Factory (1)
- Digital collaboration tools teams, slack, skype (1)
- Digital intervention (1)
- Digitalisation (1)
- Digitalisierung im Einkauf (1)
- Discrimination (1)
- Distribution (1)
- Diversity (1)
- EAM (1)
- EBIT (1)
- EBITDA (1)
- Echtzeit (1)
- Eigenverbrauchsoptimierung (1)
- Ein-Chip-System (1)
- Eindimensionales Siliziumkarbid (1)
- Einkauf 4.0 (1)
- Embryologie (1)
- Empfehlungssystem (1)
- Endothermy (1)
- Energieeffizienz (1)
- Energiemodelloptimierung (1)
- Energiemonitoring (1)
- Energieversorger (1)
- Enterprise architecture (1)
- Enterprise sales (1)
- Entrepreneurial setting (1)
- Ethik (1)
- Evolutionary algorithms (1)
- Expatriate (1)
- Fachkräfteentwicklung (1)
- Ferroelectric losses (1)
- Finanz- und Wirtschaftskrise (1)
- Finite-element-methods (1)
- Flipped classroom (1)
- Free cashflow (1)
- Fußgesten (1)
- Führung (1)
- Führungskraft (1)
- Gamification (1)
- Gaming (1)
- Gas hydrate (1)
- Gesellschaftliche Wirkungsanalyse (1)
- Global innovation management system (1)
- Grounded theory (1)
- HDH Prozesse (1)
- Halogenated ethers (1)
- Health industry (1)
- Heating industry (1)
- Heterogenes Rechnen (1)
- HoloLens 2 (1)
- Homosexuality (1)
- Humidification-dehumidification (1)
- IDS (1)
- IIoT (1)
- IP-Dip polymer (1)
- ISO 50001 (1)
- IT (1)
- IVF (1)
- Immigration (1)
- India (1)
- Industrie 4.0 (1)
- Industrieroboter (1)
- Industry 4.0 (1)
- Influencer (1)
- Influencer marketing (1)
- Infografik (1)
- Inklusion (1)
- Innovation management (1)
- Innovation management system (1)
- Instrumente der Unternehmenssteuerung (1)
- Internationalization of the firm (1)
- Interne Wissensvermittlung (1)
- Interventionen (1)
- Intrinsische Motivation (1)
- Intrusion detection system (1)
- Isoflurane (1)
- Jade (1)
- Justizanstalt (1)
- KI für Embedded System (1)
- KVP (1)
- Kalkül (1)
- Kampfkunst (1)
- Key performance indicators (KPIs) (1)
- Klimaneutralitätsbündnis (1)
- Klinische Sozialarbeit (1)
- Knowledge acquisition (1)
- Kombispeicher (1)
- Kompetenz (1)
- Kompetenzen (1)
- Kompetenzerwerb (1)
- Konstruktivismus (1)
- Kot (1)
- Kuka (1)
- Kultur (1)
- Künstliche Intelligenz (1)
- Leadership behaviour (1)
- Leadership digital communication tools (1)
- Learning Factory (1)
- Lebenszufriedenheit (1)
- Lernmethoden (1)
- Light emitting diodes (1)
- Lohn (1)
- Lohngerechtigkeit (1)
- Luftbefeuchtung (1)
- Machine-learning (1)
- Management-Kompetenzen (1)
- Mapping (1)
- Market attractiveness (1)
- Market segmentation analysis (1)
- Marketing analytics (1)
- Maschinelles Lernen (1)
- Mathematical modell generation (1)
- Maturity Modell (1)
- Maßnahmen (1)
- Mental health (1)
- Messie-Syndrom (1)
- Missing values (1)
- Mitarbeiterbindung (1)
- Model specification (1)
- Multichannel Management (1)
- Multicultural teams (1)
- Multiprozessor (1)
- NPD (1)
- Netzwerk (1)
- Omni-Channel Management (1)
- Open innovation (1)
- Optical splitter (1)
- Optimisation-algorithms (1)
- Optimization (1)
- Organisation (1)
- Organisational project management (1)
- PICs (1)
- PTR-ToF-MS (1)
- Pandemie (1)
- Partial-differential-equations (1)
- Partizipation (1)
- People Analytics (1)
- Peripheral arterial disease (1)
- Persuasive technology (1)
- Pflege (1)
- Pflegedokumentation (1)
- Pflegefamilie (1)
- Pharmacokinetics (1)
- Photodynamic therapy (1)
- Pilot projects (1)
- Planspiel (1)
- Polycrystalline (1)
- Praxisorientierung (1)
- Predictive maintenance (1)
- Problem (1)
- Problemlösung (1)
- Produktionscontrolling (1)
- Project management (1)
- Project management maturity model (1)
- Prosumer Haushalt (1)
- Proximity (1)
- Prädiktive Instandhaltung (1)
- Prädiktive Wartung (1)
- Psychoanalyse (1)
- Pulp industry (1)
- Pump-Probe-Elastographie (1)
- Pump-Probe-Elastography (1)
- Quadruple helix clusters (1)
- Rapid service prototyping (1)
- Recruiting (1)
- Recyclen mit Künstlicher Intelligenz (1)
- Reflexion (1)
- Region Bodensee (1)
- Reifegradmodelle (1)
- Resilienz (1)
- Risikomanagement (1)
- Risk measures (1)
- Robotic Mapping and Navigation (1)
- Robotik Kartierung und Navigation (1)
- Rounded zeros (1)
- Rückstellungen (1)
- SGMM (1)
- SaaS (1)
- Sales (1)
- Sales force (1)
- Sales processes (1)
- Scannen (1)
- Scenario analysis (1)
- Scheitern (1)
- Schreibbeiträge (1)
- Scientific realism (1)
- Self-Organisation (1)
- Sensing applications (1)
- Sensor (1)
- Servitization (1)
- Sicherungsschicht (1)
- Silicon carbide (1)
- Simulation (1)
- Smart cities (1)
- Smart service (1)
- Smart specialization (1)
- Smartphone usage (1)
- Social Impact-Orientierung (1)
- Social media (1)
- Social stigma (1)
- Social work (1)
- Social work education (1)
- Social work science (1)
- Soziale Arbeit (1)
- Sozialisation (1)
- Sozialtherapie (1)
- Splitter design (1)
- Startup (1)
- Stigma (1)
- Stigma-Loop (1)
- Strategy (1)
- Stress testing (1)
- Strommarkt Österreich (1)
- Structural zeros (1)
- Supervised exercise therapy (1)
- Sustainability (1)
- Sustainable distribution (1)
- Swiss-MEM (1)
- Switzerland (1)
- SysML (1)
- Systemic risk (1)
- Systemidentifikation (1)
- Systemtheorie (1)
- TOGAF (1)
- Teach-in (1)
- Technology acceptance in leadership and influence of culture (1)
- Telecommunications (1)
- Telekommunikation (1)
- Test driven development (1)
- Tiefenkamera (1)
- Tool Vergleich (1)
- Topologie (1)
- Trans-national project management (1)
- Triple mandate (1)
- Unternehmensarchitektur (1)
- Unternehmenskultur (1)
- Uppsala model (1)
- Urban innovation (1)
- Verbesserungsprozess (1)
- Vergewaltigungmythen (1)
- Verhaltensänderung (1)
- Verkaufsdatensätze (1)
- Visual studies (1)
- Visualisierungsmethoden (1)
- Visualization tool (1)
- Visueller Journalismus (1)
- Vorarlberg Austria (1)
- Vorausschauende Instandhaltung (1)
- Vorausschauende Wartung (1)
- Vuforia (1)
- Waste classification (1)
- Water treatment (1)
- Waveguide photonic building blocks s (1)
- Wertschöpfung (1)
- Wirkungsziele (1)
- Wirtschaftsordnung (1)
- Wissensmanagement (1)
- Wohnungssatellitensystem (1)
- Work ability index (1)
- Wärmepumpenboiler (1)
- alternative Performancekennzahlen (1)
- autonome Optimierung (1)
- desorganisierte Wohnformen (1)
- dezentrale Warmwasserbereitung (1)
- direct laser writing lithography (1)
- e5 (1)
- experimenteller Aufbau (1)
- fäkale Ausscheidung (1)
- gemischt-ganzzahlige lineare Optimierung (1)
- mHealth (1)
- sexualisierte Gewalt (1)
- stationäre Altenhilfe (1)
- switched mode power supply (1)
- transkulturelle Studie (1)
- Ökoprofit (1)
Diese Arbeit untersucht ARM und DSP Multiprozessor Ein-Chip-Systeme von Analog Devices hinsichtlich deren Programmierung, Fähigkeiten und Limitierungen. Durch die Integrierung von unterschiedlichen Hardware-Beschleunigern und Prozessoren in Ein-Chip-Systeme wird echte Nebenläufigkeit ermöglicht. Allerdings wird durch die Integrierung mehrerer Prozessoren die Komplexität der Programmierung von Ein-Chip-Systemen erhöht. Im Zuge dieser Arbeit wird untersucht, was bei der Programmierung von ARM und DSP Ein-Chip-Systemen hinsichtlich der heterogenen Prozessoren und Peripheriebausteinen beachtet werden muss. Dabei werden zuerst die Gründe für heterogenes Rechnen und die Trendwende zu Multiprozessorsystemen erläutert. Anschließend wird der aktuelle Stand der Technik erarbeitet und Programmiermodelle beschrieben, die das Programmieren von heterogenen Multiprozessorsystemen vereinfachen. Überdies werden zwei Fallbeispiele gewählt, mit denen bedeutsame Eigenheiten der Programmierung eines Ein-Chip-Systems erarbeitet werden. Im ersten Fallbeispiel werden anhand der UART-Peripherie Erkenntnisse des Ein-ChipSystems dargelegt, die praktische Auswirkungen auf die Verwendung des Systems haben. Im zweiten Fallbeispiel wird bei der Berechnung der schnellen Fourier Transformation das heterogene System auf dessen Rechenleistung untersucht. Dabei wird die Performanz des Hardware-Beschleunigers gegenüber unterschiedlichen Software-Bibliotheken verglichen und die verschiedenartigen Implementierungen analysiert. Zudem werden durch die Performanzanalyse die Einflüsse der Speicherhierachie des Ein-Chip-Systems ermittelt. Weiterhin wird gezeigt, dass sich die Bibliotheken von Analog Devices in deren Anwendung und Performanz voneinander unterscheiden. Außerdem wird veranschaulicht, dass je nach Anwendungsfall eine nicht für DSPs ausgelegte quelloffene Implementierung konkurrenzfähig zu den optimierten Bibliotheken von Analog Devices und dem Hardware-Beschleuniger ist. Zudem wird durch die Analyse der Mehraufwand ermittelt, der für die Konfiguration des Hardware-Beschleunigers aufgebracht werden muss. Dabei wird gezeigt, dass die Verwendung des Hardware-Beschleunigers erst ab einer bestimmten Anzahl an Abtastwerten rentabel ist. Abschließend werden die zwei Fallbeispiele für einen Konzeptnachweis verknüpft, der die Möglichkeiten des heterogenen Rechnens veranschaulicht.
Background: The development of mobile interventions for noncommunicable diseases has increased in recent years. However, there is a dearth of apps for patients with peripheral arterial disease (PAD), who frequently have an impaired ability to walk.
Objective: Using a patient-centered approach for the development of mobile interventions, we aim to describe the needs and requirements of patients with PAD regarding the overall care situation and the use of mobile interventions to perform supervised exercise therapy (SET).
Methods: A questionnaire survey was conducted in addition to a clinical examination at the vascular outpatient clinic of the West-German Heart and Vascular Center of the University Clinic Essen in Germany. Patients with diagnosed PAD were asked to answer questions on sociodemographic characteristics, PAD-related need for support, satisfaction with their health care situation, smartphone and app use, and requirements for the design of mobile interventions to support SET.
Results: Overall, a need for better support of patients with diagnosed PAD was identified. In total, 59.2% (n=180) expressed their desire for more support for their disease. Patients (n=304) had a mean age of 67 years and half of them (n=157, 51.6%) were smartphone users. We noted an interest in smartphone-supported SET, even for people who did not currently use a smartphone. “Information,” “feedback,” “choosing goals,” and “interaction with physicians and therapists” were rated the most relevant components of a potential app.
Conclusions: A need for the support of patients with PAD was determined. This was particularly evident with regard to disease literacy and the performance of SET. Based on a detailed description of patient characteristics, proposals for the design of mobile interventions adapted to the needs and requirements of patients can be derived.
In den Justizanstalten Österreichs arbeiten Menschen unterschiedlicher Berufsgruppen zusammen. Sie haben jeweils eigene Ausbildungen durchlaufen und gehören unterschiedlichen Berufen und Professionen an. Ihre gemeinsame Aufgabe besteht in der Resozialisierung der InsassInnen. Aufgrund ihres unterschiedlichen professionellen Werdegangs bestehen unterschiedliche Zugänge zur Arbeit mit den InsassInnen. Deshalb ist es von Bedeutung, welche Einstellungen die Vollzugsbediensteten zum Sinn der staatlichen Strafe vorweisen und welchen Theorien darüber, weshalb Menschen straffällig werden, sie anhängen. Ein weiterer wichtiger Gesichtspunkt ist ihre Haltung gegenüber GewalttäterInnen inklusive der Sexualstraftäter, da diese Personen durch ihre Delikte andere Menschen in ihrer körperlichen Integrität verletzt haben und somit in besonders verletzender Weise zu Opfern gemacht haben.
Das Forschungsziel dieser Masterarbeit besteht in der Erfassung der Theorien und Einstellungen von Vollzugsbediensteten bezüglich der oben genannten Thematik. Dabei soll herausgestellt werden, welche Auswirkungen die Ergebnisse auf die Soziale Arbeit im Justizvollzug haben und welche Konsequenzen die Soziale Arbeit hieraus ziehen könnte. Außerdem sollen die Ansichten zur Qualität der berufsübergreifenden Zusammenarbeit erfragt werden.
Im Rahmen der Arbeit wurden insgesamt 16 leitfadengestützte Experteninterviews mit Vollzugsbediensteten aus den folgenden Berufsgruppen durchgeführt: Anstaltsleitung, Justizwache, Sozialer Dienst, Psychologischer Dienst und Psychiatrischer Dienst. Allen Berufsgruppen ist gemeinsam, dass der Kontakt zu den InsassInnen in der Tätigkeitsbeschreibung beinhaltet ist.
Die Ergebnisse der Befragungen zeigen, dass die Einstellungen der verschiedenen Vollzugsbediensteten in vielen Aspekten harmonieren, dass es aber auch relevante Unterschiede gibt. Inwieweit diese Unterschiede für die Soziale Arbeit relevant sind und welche Schlüsse bzw. Handlungsempfehlungen daraus abzuleiten sind, soll diese Arbeit zeigen.
Dass die Zusammenarbeit der Vollzugsbediensteten noch überwiegend als gut bzw. harmonisch empfunden wird, haben die Befragungen erwiesen. Außerdem soll diese Arbeit aufzeigen, welche Anregungen anderer Berufsgruppen die Soziale Arbeit aufnehmen kann, um den Strafvollzug auch aus der Perspektive dieser Berufsgruppen besser nachvollziehen zu können.
The classification of waste with neural networks is already a topic in some scientific papers. An application in the embedded systems area with current AI processors to accelerate the inference has not yet been discussed. In this master work a prototype is created which classifies waste objects and automatically opens the appropriate container for the object. The area of application is in the public space.
For the classification a dataset with 25,681 images and 11 classes is created to re-train the Convolution Neuronal Networks EfficientNet-B0, MobileNet-v2 and NASNet-mobile. These Convolution Neuronal Networks run on the current Edge \acrshort{ai} processors from Google, Intel and Nvidia and are compared for performance, consumption and accuracy.
The master thesis evaluates the result of these comparisons and shows the advantages and disadvantages of the respective processors and the CNNs. For the prototype, the most suitable combination of hardware and AI architecture is used and exhibited at the university fair KasetFair2020. An opinion survey on the application of the machine is conducted.
Spielregeln und Spielzüge
(2020)
Die Gültigkeit einer Wirtschaftsordnung (Spielregeln) verlangt den Beteiligten einen allgemeinen Konsens, der sich auch auf die Durchsetzungsinstanzen (Schiedsrichter) bezieht. Es fragt sich, auf welcher Basis dieser Konsens über die Geltung von Spielregeln, Spielzügen und regelkonform sanktionierenden Schiedsrichtern beruht und gibt es dafür benötige Vorbedingungen?
Organisation als Form
(2020)
In Diskursen liegen viele Missverständnisse darin begründet, dass die Diskursteilnehmer bei der Versprachlichung ihrer Gedanken ineinander verschachtelte Bezeichnungen und Unterscheidungen benutzen. Jede Unterscheidung wird zu einer Kontextur im Kontext weiterer Kontexturen. Was das bedeutet, wird hier anhand des Phänomens mit Namen Organisation skizziert.
Ausgehandeltes Verständnis
(2020)
Entscheidungen über die optimierte organisatorische Wertschöpfung werden oft von mehreren Personen getroffen. Möchte die entscheidungsorientierte BWL anwendungsorientiert sein, legt sie den Fokus auf das Gewebe von aufeinander verweisenden (entscheidungsfördernden) Kommunikationen zu legen und auf der Erkenntnisfigur des Beobachters aufzubauen.
In der betriebswirtschaftlichen Fachliteratur ist die erkenntnistheoretische Denkfigur des Beobachters bis auf wenige Ausnahmen weitgehend ausgeblendet. Das muss nicht sein. Beispielsweise kann aus einer Beobachterperspektive notiert werden: Unternehmen ereignen sich, indem Beobachter auf eine Art und Weise tätig werden, die sie als Organisation von Gütern und Dienstleistungen, als Deckung fremder Bedarfe und als Verzinsung des eingesetzten Kapitals verstehen, voneinander unterscheiden und wechselseitig aufeinander beziehen.
Praxis versus Theorie
(2020)
Praktisches Tun ist auch ein Ausfluss vorherigen Denkens. Abstrahierende Reflexion bezieht sich auch auf das konkrete Umsetzen in der Praxis. Erfolgsversprechend ist also eine reflektierte Handlungsorientierung, die gegebene Rahmenbedingungen beachtet und zweckdienlich ist. Daher sind Praxis und Theorie siamesische Zwillinge, die stets zusammen zu Besuch kommen.
Kalkül der Form
(2020)
Der Kalkül von Spencer-Brown dokumentiert mit der Form der Unterscheidung in logisch-mathematischer Weise das Benennen eines Beobachtungsobjektes in Abhängigkeit von der zuvor getätigten Unterscheidung des Beobachters. Diese Unterscheidung ist weder Objekt noch Relation: Sie ist eine Operation, die zugleich Operand und Operator ist!
Praxisorientierte BWL
(2020)
Die Betriebswirtschaftslehre ist eine praxisorientierte Wissenschaft, der es um das nachvollziehbare Ableiten theoretischer Erkenntnisse und das Herleiten praxistauglicher Gestaltungsvorschläge für die betriebliche Praxis geht. Zu erarbeiten sind möglichst allgemein anwendbare Methoden, Instrumente oder Konzepte und nicht nur Lösungsvorschläge für eine einzelne Problematik. Theorie ist dabei keinesfalls das Gegenteil von Praxis, vielmehr sind Theorie und Praxis zwei sich gegenseitig bedingende Polare einer tragfähigen Berufsqualifizierung („Employability“).
Wirtschaftsethik
(2020)
Wirtschaftliche und ethische Handlungen sind zugleich realisierbar, wenn zwischen einer einrahmenden Wirtschaftsordnung (Spielregeln) und einzelnen Handlungen (Spielzügen) unterschieden wird. Das wirtschaftliche Tun und Unterlassen wird dann in den Spielzügen und die Ethik über die Spielregeln realisierbar. Die Gültigkeit einer Wirtschaftsordnung setzt einen allgemeinen Konsens über die Spielregeln und die Durchsetzungsinstanzen (z. B: Justiz oder Kartellamt) voraus. Dann regelt sie den Wettbewerb und nötigt Anbieter, sich an den Interessen der Nachfrager zu orientieren und dabei auf einen effizienten Ressourceneinsatz zu achten. So erfolgt das individuelle Handeln der Marktteilnehmer in der einrahmenden Wirtschaftsordnung mit den darin befindlichen Anreizen, daher spricht man von einer Anreizethik. Mit ihr werden wirtschaftliche und ethische Handlungen zugleich realisierbar.
Eine ergebnisoffene, konstruktiv-kritische Reflexion der zu verantwortenden Wertschöpfung durch verschiedene Beobachter mit den unterschiedlichsten Prägungen ist nicht voraussetzungslos zu haben. Die beteiligten Personen (Stelleninhaber in einer Position mit einer Funktion) sind gewohnt, mit der „Brille“ ihrer Fachdisziplin, ihrer Fachabteilung oder ihres Verantwortungsbereiches die jeweils zu verantwortende Wertschöpfung zu betrachten. Die zu bearbeitenden Problemstellungen hingegen beachten keinerlei Grenzen von Fachdisziplinen, Fachabteilungen oder Verantwortungsbereichen.
Die Realität ist keinesfalls einfach da. Sie wird vielmehr von den Beteiligten erst kommunikativ erzeugt. Einzeln und gemeinsam werden Beobachtungen und damit erzielte Ergebnisse, gedankliche Vorstellungen, argumentative Begründungen sowie grundlegende Annahmen und damit zusammenhängende Deutungen schriftlich und/oder mündlich kommuniziert und miteinander ausgetauscht.
Probemlösung
(2020)
Der Prozess der Problemlösung wird durch aufeinander verweisende, anschlussfähige Kommunikationen zusammengehalten. Mit Kommunikationen wird ein gemeinsames Verständnis über das Gegebene und über das Gewollte erarbeitet (Sensemaking). Das Resultat des Kommunizierens erlangt durch die Abgabe von Selbstverpflichtungen (Commitments) ihre kollektive Verbindlichkeit.
Sensemaking
(2020)
Maßnahmen zur Planung, zum Aufbau und zur Steuerung einer Wertschöpfungsarchitektur entfalten ihre Wirkung, wenn sie kontextsensitiv entwickelt und umgesetzt werden. Zu diesem Kontext gehören Strukturen und Prozesse der geplanren Vorgehensweise, ermittelbare Daten und Informationen über das eigene Tun sowie Erwartungen und Verhaltensweisen aller Beteiligten. Im Kern der Bemühungen sollte die Mitgestaltung kommunikativer Prozesse der gemeinsamen Verständigung sein, denn ihre Resonanzen sind die Bezugspunkte für das weitere Tun. Daher gilt: Der betriebswirtschaftliche Erfolg wird maßgeblich geprägt durch die Qualität der Verständigung.
Integration of an industrial robot manipulator in ROS to enhance its spatial perception capabilities
(2020)
Robots without any external sensors are not capable of sensing their environment, often leading to damaging collisions. These collisions could potentially be avoided if the robot had a way to sense its environment in the first place. This thesis attempts to tackle this problem by equipping such a robot with extra sensor hardware for perceiving environmental objects. The robot used within this thesis is a KUKA LBR iiwa 7 R800. The goal is a robot capable of moving in an unseen environment without colliding with obstacles nearby.
The research covers different sensor options, robots in cramped areas as well as algorithms and simulation topics. Software platforms and libraries used for the implementation are briefly introduced.
Multiple infrared sensors are directly installed onto the robot manipulator. The extra sensors and the robot are integrated into the ROS middleware to create an application capable of sensing the robots’ environment and plan collision-free paths accordingly.
The experiments show, that the low amount of available sensor data can not map the robots’ environment with enough detail. Additional problems, such as sensor noise corrupting parts of the generated map or the robot recognizing itself as an obstacle, lead to a negative result in total. In future work, the choice of sensors shall be reconsidered and tested upfront via simulation software.
Heutzutage gewinnen visuelle und akustische Eingabemethoden für die Interaktion mit Anwendungen oder Komponenten zunehmend an Bedeutung und sollen die klassische Maus oder Tastatur gegebenenfalls ersetzen. Abgesehen von der Sprachsteuerung benötigen jedoch auch die neuen Methoden für das Absetzen eines Befehls größtenteils die Hände. Es bleibt jedoch die Frage bestehen was passiert, wenn keine freie Hand zur Verfügung steht und ein Sprachbefehl aufgrund des Lärmpegels nicht erkannt wird. Diese Arbeit beschreibt das Konzept einer alternativen Anwendungssteuerung mit Fußgesten und verwendet dafür die Einlegesohlen ‚stapp one‘, die mit Druck- und Beschleunigungssensoren ausgestattet sind. Aufgrund der Durchführung einer Umfrage mit Mehrheitsvotum lassen sich verschiedene Fußgesten für entsprechende Aktionen der gesteuerten Komponenten definieren. Diese wirken auf die Anwender und Anwenderinnen intuitiv und weisen folglich eine hohe Akzeptanz bei der Benutzung auf. Mit einer Verbindungskombination aus Bluetooth und ‚User-Datagram-Protocol‘ (UDP) werden die Sensordaten von der Sohle, über ein Smartphone, zu einem Computer weitergeleitet, um eine Gestenerkennung mit Machine-Learning umzusetzen. Über ein Datenfluss-System werden die empfangenen Werte der Sensoren aufbereitet und eine Feature-Extraktion durchgeführt, sodass diese für eine Klassifizierung von Fußgesten dienen. Basierend auf ‚Deeplearning4j‘ wird ein Algorithmus mit ‚Long Short-Term Memory‘ implementiert und zusammen mit dem Datenfluss-System als ‚Java‘-Bibliothek zur Verfügung gestellt. Zusätzlich werden Datensätze von Fußgesten einer Person erstellt und zum Training sowie zur Evaluierung der Gestenerkennung verwendet. In einer letzten Umfrage wird die implementierte Bibliothek in zwei Applikationen integriert. Zudem wird die Funktion des definierten ‚Gesten-Aktionen-Mapping‘ in drei Anwendungsszenarien analysiert. Die Forschungsergebnisse zeigen eine zuverlässige Klassifizierung der Fußgesten mit einer Genauigkeit von 82 %, wobei unter realen Bedingungen auch Werte zwischen 85 % und 100 % erreicht werden.
An implementation approach of the gap navigation tree using the TurtleBot 3 Burger and ROS Kinetic
(2020)
The creation of a spatial model of the environment is an important task to allow the planning of routes through the environment. Depending on the number of sensor inputs different ways of creating a spatial environment model are possible. This thesis introduces an implementation approach of the Gap Navigation Tree which is aimed for usage with robots that have a limited amount of sensors. The Gap Navigation Tree is a tree structure based on depth discontinuities constructed from the data of a laser scanner. Using the simulated TurtleBot 3 Burger and ROS kinetic a framework is created that implements the theory of the Gap Navigation Tree. The framework is structured in a way that allows using different robots with different sensor types by separating the detection of depth discontinuities from the building and updating of the Gap Navigation Tree.
In dieser Arbeit werden verschiedene Augmented Reality Tools analysiert und getestet, um eine Brandmeldezentrale zu erkennen und auf dieser virtuelle Inhalte darzustellen. Die Erkennung der Zentrale wird mittels Bilderkennung und Objekterkennung von Vuforia, Wikitude und AR Foundation durchgeführt. Zusätzlich wird in dieser Arbeit eine AR Applikation implementiert, welche sowohl mit iOS und Android Geräten als auch für die Microsoft HoloLens 2 kompatibel ist. Die Anwendung soll zeigen, an welcher Stelle in der Brandmeldezentrale ein Fehler vorliegt und wie dieser behoben werden kann. Für die Fehlerbehandlung kommt eine “Schritt für Schritt Anleitung“ zum Einsatz, bei welcher Teile der Zentrale augmentiert hervorgehoben werden, wenn diese für die Behebung des Problems relevant sind. Es werden diverse Geräte bezüglich Interaktion und deren Stärken bzw. Schwächen evaluiert. Für die Analyse haben Testpersonen die Anwendung sowohl auf der HoloLens 2 als auch auf einem iPad Pro getestet. Die Ergebnisse zeigen, dass einige Personen Schwierigkeiten mit der Gestensteuerung auf der HoloLens 2 haben. Die Ausführung der Pinch Geste, welche durch das zusammendrücken von Daumen und Zeigefinger ausgeführt wird, wurde oft zu ungenau durchgeführt. Der Vergleich der beiden Geräte hat ergeben, dass Interaktionen auf dem iPad schneller ausgeführt werden können als auf der HoloLens. Außerdem wurde überprüft, wie sich unterschiedliche Lichtverhältnisse auf die Anwendung auswirken. Dabei stellte sich heraus, dass die Hologramme bei der HoloLens bei einer stark beleuchteten Umgebung nicht gut sichtbar sind. Die Objekterkennung der Brandmeldezentrale weist einige Fehler bei der Erkennung der Brandmeldezentrale auf. Diese sind darauf zurückzuführen, dass die Brandmeldezentrale für die verwendeten Augmented Reality Tools zu wenig Merkmale aufweist.
Musik im Alltag
(2020)
Musikschülerinnen und Musikschüler finden besonders im Alter von 9 bis 15 Jahren in ihrem Alltag oft keine Zeit, um sich mit ihrem Musikinstrument zu beschäftigen. Dadurch bleibt ihr Spielniveau auf der Stelle und sie verspüren keinen Lernfortschritt, wodurch ihnen langfristig auch die Freude am Musizieren vergeht. Durch den fehlenden Lernfortschritt wiederholt sich auch der wöchentliche Musikunterricht und wirkt auf Dauer eintönig und langweilig. Statistisch gesehen kommt es am häufigsten im Alter von entweder 11 oder 14 Jahren zu einer Abmeldung vom Musikschulunterricht aus Mangel an Zeit und Interesse.
Um den Kindern die Freude am Musizieren zurückzugeben, wurde eine Herangehensweise entwickelt, in der die Kinder ein eigenes Ziel definieren und dieses mithilfe eines Coachinggesprächs in kleinere Aufgaben unterteilen. Ein auditives Benachrichtigungssystem unterstützt die Kinder dabei, im Alltag den passenden Zeitpunkt für diese musikalischen Aufgaben zu finden, damit sie sowohl einen Lernerfolg verspüren als auch Spaß mit dem eigenen Instrument haben.
In dieser Arbeit werden die Anforderungen an ein auditives Benachrichtigungssystem analysiert und der unterschiedliche Einfluss von zeit und kontextbasierten Benachrichtigungen durch Nutzertests eruiert.
The humidification dehumidification (HDH) cycle is a process for thermal water treatment. Many studies were carried out investigating operation of an HDH cycle with water and seawater as working liquid. Currently research into other areas of application is limited. Exchanging the working liquid in the humidifier from seawater to a water oil emulsion and investigating its behavioural changes is the basis for the expansion into applications such as bilge water treatment. This master’s thesis covers analysis of the behaviour of an HDH cycle operated with a water oil emulsion. The main elements are (1) proof of concept for operation of the HDH cycle with a water oil emulsion, (2) comparison of measurements and thermodynamic calculations, (3) investigation of the impact of operating parameters and (4) optical analysis of the bubbly flow in water and oil.
Operation of the HDH cycle using water oil emulsion was shown to be feasible with a small change to the setup previously used for investigations with seawater as working liquid. To keep the emulsion from separating into its individual parts, constant movement of the working liquid needs to be ensured. For this a magnetic stirrer was introduced into the bubble column humidifier (BCH) used. In a batch process an oil concentration of >97 % was reached without visible traces of oil in the produced condensate.
Comparison of the measured and thermodynamically evaluated productivity shows that measured productivity is higher. The proposed explanation for this is supersaturation of air at the BCH exit. Further investigation into this phenomenon is needed to confirm this hypothesis.
Influential parameters investigated are (1) liquid temperature, (2) superficial air velocity and (3) sieve plate orifice diameter. Increase of liquid temperature results in an exponential increase in productivity. At superficial air velocities up to 3 cm/s productivity increases with superficial air velocity. For superficial air velocities higher than 3 cm/s productivity plateaus. At low superficial air velocity, an increase of sieve plate orifice diameter results in increasing productivity. Further increase of the sieve plate orifice diameter inverses this phenomenon.
Bubbly flow in water and oil is influenced by the different viscosities of the liquids. Water creates small bubbles of similar size at low superficial air velocities. At superficial air velocities >2 cm/s turbulences start to increase and finely dispersed bubbles are present in the water. Bubbly flow in oil creates larger bubbles at all superficial air velocities. The airflow transitions to plug flow at velocities of 3 cm/s and above.
Result from this master’s thesis can be used for as a basis to broaden the understanding of the HDH cycle and find new areas of applications.
Moving from one country to another, from one cultural context to a different one comes with many challenges and problems. The expatriate adjustment process, in general, has been evaluated extensively in the literature. Little is known if the knowledge in the literature is also valid for the situation of expatriates in rural Vorarlberg. In this paper was examined, which are the most common problems for highly skilled immigrants that are moving to Vorarlberg. In a mixed-method approach, information was gathered with an online questionnaire whose results served as a basis for a series of semi-structured interviews. In addition, an expert talk with a local relocation consultant was conducted. It was found that by far, the most severe difficulty is based on the domestic language situation. An expatriate needs to talk and understand German, but the local language is an Alemannic subsection of the German language that is not easy to understand. Additional difficulties that cause culture shock are limited opening hours, mobility troubles, and several others. The awareness about the composing of these problems might help to find the appropriate measures to support expatriates to come in the future.
Die Finanz- und Wirtschaftskrise 2008/09 ist Anlass für die Hinterfragung bestehender Anreizsysteme. Die vorliegende Arbeit untersucht die Beteiligung des Controllings bei der Anreizgestaltung ab diesem Zeitpunkt. Die Methodik ist eine systematische Literaturrecherche und Experteninterviews, die entlang der Gestaltungselemente des Anreizsystems ausgewertet werden. Seit dem Betrachtungszeitraum sind wesentliche Entwicklungen festzustellen von Individual- zu Gruppen-Incentivierung, vom Einsatz monetärer Anreize zu gemischten Anreizen (monetär und immateriell). Letzteres spiegelt sich in den Bemessungsgrundlagen wider, welche finanzielle und nicht-finanzielle Kennzahlen nutzen. Zur Generierung einer nachhaltigen Unternehmensentwicklung werden Long-Term-Incentives forciert. Das Controlling ist bei der Anreizgestaltung, beim Definieren von ‚Bemessungsgrundlagen‘ und ‚Anreizfunktionen‘, stark eingebunden. Die Aufgabenfelder des Controllings sind weit-gefächert: Reporting, Übersetzung von Geschäftszielen in Bemessungsgrundlagen, Wissensvermittlung, der Harmonisierung von Zielen bis zur Steuerungsfunktion bei Entscheidungen. Aus dieser Perspektive betrachtet übernimmt das Controlling zusätzliche Verantwortung und unterstützt das Management bei der Anreizgestaltung, was den Schluss nahelegt, dass eine Rollentransformation des Controllers zum Business Partner stattfindet.
Der mit dem Schlagwort Industrie 4.0 verbundene Begriff der Digitalisierung ist eine Herausforderung, der sich Unternehmen aktuell konfrontiert sehen. Allgemein betrachtet verschwimmt mit steigender Digitalisierung in Unternehmen die Abgrenzung zwischen wertschöpfenden und unterstützenden Prozessen. Die Industrie 4.0 verspricht dabei eine vernetzte Zukunft mit neuen Technologien und neuen Geschäftsmodellen. In der Forschung gibt es bisher nur sehr begrenzte Ansätze im Bereich der Industrie 4.0, welche direkt auf die Bauindustrie bzw. ein einzelnes Bauunternehmen ausgerichtet sind.
Die Masterarbeit soll dazu die Beantwortung folgender Fragestellung zum Thema haben: „Wie kann ein Referenzmodell zur reifegradbasierten Ermittlung des Digitalisierungsgrads in einem Unternehmen in der Bauindustrie aufgebaut sein?“
Zur Bearbeitung wird dabei der Ansatzpunkt gezählt, wie die Digitalisierung in der Industrie 4.0 im Kontext mit bisherigen Entwicklungen einzuordnen ist. Dabei wird den Fragestellungen nachgegangen, welche Reifegradmodelle bereits existieren und wie diese auf die Digitalisierung in der Industrie 4.0 adaptiert werden können. Daraus ergibt sich die nachgehende Fragestellung, wie ein Reifegradmodell zur Bewertung des Umsetzungsgrads in der Industrie 4.0 in einem Unternehmen der Bauindustrie aufgebaut sein kann.
Ziel dieser Masterarbeit ist es, ein kombiniertes Reifegradmodell zur entwickeln, welches auf ein Unternehmen in der Bauindustrie anwendbar ist. Damit soll eine Möglichkeit geschaffen werden, die Umsetzungsreife des Unternehmens im Bereich der Industrie 4.0 zu bewerten. Das entwickelte Modell soll dazu in der Lage sein, dem Unternehmen einen fundierten Überblick zu verschaffen, wie weit der Umsetzungsgrad fortgeschritten ist. Auch soll es dem Unternehmen aufzeigen, in welchen Bereichen es Entwicklungsmöglichkeiten gibt. Das Reifegradmodell soll außerdem in der Lage sein, sich auf Änderungen in der Unternehmensstrategie, Weiterentwicklung in der Technologie sowie veränderten Anforderungen in der Bauindustrie anpassen zu können.
Although pilot projects are an accepted means of entry into prospects, research on the object of startups selling SaaS and use pilots to enter and to further scale within their prospect’s organization is limited. The reader can expect a collection of key practices of SaaS startups in the field of Decision Support Software. These combine the main sales-oriented elements within pilot projects that are reflected on by Customer Success Management, Change Management as well as cultural dimensions. Explorative interviews, mainly with stakeholders in Decision Support Software startups, were conducted to further gain an understanding of the research object. Results indicate that pilots are strategically used in the sales of such startups to simultaneously deal with their customer’s uncertainties and as a means for the startups to get commitment and increase their value proposition through the additional service that they offer in order to acquire an internal support basis. Customer Success Management as well as Change Management are furthermore advantageous in quickly achieving measurable results that leverage buyers and seller’s justification for further sales.
The purpose of this work is to explore implicit schemes underlying the market segmentation analysis process. Boosting transparency for and in the new discipline of healthcare marketing, the work offers a toolbox of both primary and secondary methods to identify the accurate target market. This is crucial, since resource allocation in B2C segmentation and targeting is still often misleading. An Austrian, internationally present niche player serves as a research object to turn theoretical insights into practical verification. Data for the thesis are collected through company-internal data analysis and desk research, grounded in a multi-method approach with primary and secondary research. On the one hand, the work assesses the most effective segmentation and attractiveness/knock-out criteria according to scientific sources. Delving into the topic of a priori and a posteriori segmentation, an overview of suitable techniques is going to be offered. On the other hand, the thesis illustrates how the accurate target segment in the healthcare industry can be evaluated and determined through companyinternal consumer and market data.
Primary research on demographics (age, gender), psychographics (preferred channels), behavioral criteria (new/existing, CLC) and product categories is found to be particularly meaningful for the healthcare player. Results vary between countries, which is why an international-marketing strategy instead of a domestic-marketing approach is advisable.
Secondary research shows that socio-demographic and behavioral criteria are most used as a priori criteria, whereas a posteriori segmentation is promising to reveal psychographic clusters. One of the author’s recommendations is to niche down accurate market segments such as LOHAS or “best agers” by refining psychographics/socio-demographics with behavioral segmentation through “occasions” (e.g. back pain, depression, injuries). Novel approaches such as outcome-based segmentation or emphasizing “promoters” are discussed too.
The findings pave marketing managers the way for identifying the accurate target segments in the B2C health industry, selecting accurate methods grounded in profound scientific research and with concepts suitable for SMEs. The thesis proves that marketing segmentation is no longer a “nice-to-have” but a “must” in the health(care) industry.
Die Gewalt der Anderen
(2020)
In der Beratungstätigkeit als Sozialarbeiterin im Bereich der Opferhilfe sind Vergewaltigungsmythen sowie deren Verbreitung und Auswirkungen Teil der alltäglichen Praxis. Diese Masterarbeit zeigt auf wie problematisch deren Existenz in Bezug auf die Verarbeitung von Gewalterfahrung und den gesamtgesellschaftlichen Umgang mit sexualisierter Gewalt ist. Wie sich Vergewaltigungsmythen ausdrücken und inwiefern diese Teil des medialen Diskurses über sexualisierte Gewalt sind, wird anhand einer kritischen Diskursanalyse untersucht. Bereits die theoretische Auseinandersetzung zeigt auf, dass ein Teil der verbreiteten Vergewaltigungsmythen sich einem kulturrassistischen Stereotyp bedient, welcher gemäß unterschiedlichen wissenschaftlichen Untersuchungen maßgeblichen Einfluss auf die Strafverfolgung hat. Daher wird ein weiterer Fokus der Untersuchung auf die Verbreitung dieser Kulturalisierung der Gewalt gelegt. Als Ergebnis der theoretischen Auseinandersetzung und empirischen Untersuchung wird festgestellt, dass sich der Diskurs über sexualisierte Gewalt aus unterschiedlichen Diskurssträngen zusammensetzt, wobei die strafrechtliche und täter*innenorientierte Perspektive überwiegt und konstruktive Darstellungen und betroffene Personen wenig präsent sind. Dieser überlagernde Diskursstrang erschwert die Thematisierung von sexualisierter Gewalt als gesellschaftlichem Problem und schränkt den Begriff, aufgrund der juristischen Kategorisierung sexualisierter Gewalt in Delikte, in ihrer Repräsentation ein. Aus der Perspektive der Sozialen Arbeit benötigt der Diskurs mehr Fokus auf relevante Informationen für Betroffene, mehr Kontextinformationen sowie die Erfassung und Benennung von Gewalt als strukturellem, gesamtgesellschaftlichem Problem.
Die (Klinische) Soziale Arbeit begegnet dem Scheitern täglich. Soziale Arbeit arbeitet vermehrt mit Menschen, die in ihren Lebensverhältnissen vielfach als gescheitert wahrgenommen werden. Obwohl diese Allgegenwärtigkeit vorliegt, thematisiert die Soziale Arbeit das eigene Scheitern wenig. Scheitern ist sowohl in der Literatur als auch als Forschungsgegenstand in der deutschsprachigen Sozialarbeitswissenschaft unterbeleuchtet. Die vorliegende Arbeit befasst sich deshalb mit dem Diskurs des Scheiterns in der Sozialen Arbeit und ist anhand der Kritischen Diskursanalyse aufgebaut.
Im ersten Teil der Arbeit wird der diskursive Kontext des Scheiterns in der Sozialen Arbeit mit Literatur dargestellt. Die theoretische Rahmung bildet die Kritische Diskursanalyse nach Jäger, angelehnt an die Diskurstheorie nach Foucault, verbunden mit der Handlungstheorie nach Staub-Bernasconi, wobei dem Umgang mit Macht in der Sozialen Arbeit ein Fokus zukommt. Für die Kritische Diskursanalyse wurden Schreibbeiträge zum Scheitern, welche im Forschungsprozess von Sozialarbeiter*innen aus der Praxis der Sozialen Arbeit in Vorarlberg (Österreich) erhoben wurden, analysiert. Im letzten Teil der Arbeit kommt die Bedeutung und Wirkung von Scheitern sowie das Nutzen des Diskurses über Scheitern für die Klinische Soziale Arbeit nochmals zur Geltung.
Die Arbeit zeigt die Aspekte und die Bedeutung des Scheiterns in der Sozialen Arbeit auf und kann als Inspiration herangezogen werden, um sich vertieft mit dem Thema Scheitern reflexiv auseinanderzusetzen und somit dem sozialarbeiterischen Forschungsdesiderat zum Scheitern entgegenzutreten.
Die vorliegende Arbeit setzt sich mit der Beziehungsgestaltung im Kontext Klinischer Sozialer Arbeit auseinander. Der Fokus liegt dabei auf den Aspekten Nähe Und Distanz, Verletzlichkeit und Macht. Theoretische Grundlage ist ein psychodynamisch-sozialtherapeutischer Zugang. Als Grundlage für die durchgeführte Forschung dient das Tiefeninterview, dessen Ergebnisse anhand der Grounded Theory ausgewertet und interpretiert wurden. Als Resultat zeigt sich die Auswirkung der genannten Aspekte auf die Gestaltung der Helfenden Beziehung und die Wirksamkeit sozialarbeiterischer Intervention. Zudem hat sich das Setting als eine wesentliche Bedingung für die Beziehungsgestaltung herauskristallisiert. Bestätigt haben sich schließlich auch die aufgrund der theoretischen Bearbeitung aus psychoanalytischer/psychodynamischer Perspektive vermuteten Einflüsse von Übertragung und Gegenübertragung, die im Tiefeninterview deutlich zutage getreten sind.
Towards a strategic management framework for engineering of organizational robustness and resilience
(2020)
Menschen in desorganisierten Wohnformen erleben, aufgrund der Normvorstellung von Ordnung, Abwertung und Unverständnis. Dabei entsteht eine desorganisierte Wohnung nicht allein durch Passivität, sondern zeigt sich als innerpsychischen Konflikt nach außen. Die Komplexität des desorganisierten Wohnens umfasst sowohl die Wohnform selbst wie auch die Ursachen und Auswirkungen.
Um bedürfnisgerecht handeln zu können, benötigt es seitens des professionellen Unterstützungssystems eine umfassende Kenntnis des Phänomens. Die Erforschung der Auswirkungen aus der Perspektive der betroffenen Menschen soll Aufschluss darüber geben, wie adäquat interveniert werden kann.
Anhand einer Einzelfallstudie sollen die Diversität und Komplexität dargestellt werden, woraus sich die Flexibilität professioneller Helfer*innen ableiten lässt. Die Grounded Theory und der damit verbundene zirkuläre Prozess ermöglichen es, trotz geringer Erforschung des Phänomens, die erhobenen Daten zu erfassen und zu kategorisieren.
Die Integration von suchterkrankten Menschen in die soziale Gemeinschaft stellt für die Klinische Soziale Arbeit einer große Herausforderung dar. Sie agiert hier in einem Spannungsfeld zwischen individuellem Verhalten der Klienten_innen und den strukturellen Verhältnissen der Gesellschaft. Auf die Befähigung einer sinnstiftenden und ein daseinsmächtiges Leben ermöglichender Arbeit nachgehen zu können, wird von Martha Nussbaum in ihren Schriften zum Capability Approach sehr deutlich hingewiesen und sie sieht darin einen gewichtigen Faktor der gesellschaftlichen Teilhabe.
In der vorliegenden explorativen Studie wurden vor dem theoretischen Hintergrund des Capability Approach Teilnehmer_innen und Nichtteilnehmer_innen des niederschwelligen, von der Caritas in Vorarlberg betriebenen Arbeitsprojekts „Wald“, hinsichtlich ihrer Lebenszufriedenheit, ihrer Haltung zum Arbeitsprojekt als solchem und nach von ihnen bemerkten Veränderungen in den, den Big Five zuzuordnenden Persönlichkeitsmerkmalen, befragt. Die aus den quantitativen Befragungen gewonnenen Daten wurden in Hinblick auf die Fragestellungen empirisch ausgewertet.
In seiner Konzeption setzt das Arbeitsprojekt, ganz im Sinne der internationalen Definition der Sozialen Arbeit, auf Selbstbestimmung und Partizipation der Teilnehmer_innen. Die Klinische Soziale Arbeit erfüllt in diesem Kontext nicht nur ihren per Definition direkt behandelnden Ansatz in der Unterstützung von schwer erreichbaren Klienten_innen, sondern schafft zusätzlich die Bedingungen, um diesen die benötigten Befähigungsräume bereitzustellen. Die Studie legt nahe, dass sowohl das Schaffen von befähigenden Strukturen als auch der Einsatz von verhaltensorientierten Methoden passende Mittel für die Soziale Arbeit sind, Menschen in ihrer Entwicklung hin zu einem daseinsmächtige Leben zu unterstützen.
Bilder als Affektgeneratoren
(2020)
The Convention on the Rights of the Child (CRC) is a human rights framework in the context of multi-level governance child protection policies central to social work education and practice (United Nations, 1989). In line with this statement, children’s rights-based education introduces undergraduate social work students to the principles of the CRC, namely participation, protection, harm prevention and provision, to facilitate knowledge acquisition by building core competencies for critical practice (IFSW, 2002). It equips social workers with analytical and advocacy skills that foster critical thinking and creativity in the juxtaposition between child protection, autonomy and self-determination.
This chapter provides insights for social work education to locate and analyse the underlying casualties of social problems using a problem and resource framework, the w-questions (Geiser, 2015). The framework is used to develop theory driven social work interventions as illustrated against the backdrop the anonymised case study, Amira, an accompanied child asylum seeker in Austria (Fritsche, Glawischnig, & Wolfsegg, 2019). Correspondingly, CRC is addressed along a continuum between human needs fulfilment and human right entitlements (Obrecht, 2009; IFSW, 2002; Ife, 2012). The concept of need is understood as tension in our concrete biological and psychological bio-values and states (Obrecht, 2009, p. 27). The assertion is that when children lack support or are obstructed from achieving their equal right to education due to social, cultural or economic barriers, this exacerbates social marginalisation because it deprives them of membership in the school social system. Social marginalisation thwarts the fulfilment of needs and weakens social cohesion by causing alienation and anomie (Mayrhofer, 2015). The tentative conclusion is that knowledge and practice models that link human needs and children’s rights equip social workers with the expertise to reduce children’s vulnerability whilst strengthening their protection, autonomy and self-determination.
This chapter is about school suspension through a social work lens. Young people like Martin require the collective to belong, to be a member of a group, to realise their social needs. This is the basic requirement of human mental and social stability. Suspension stands in opposition because it legitimises social exclusion and disregards the linkage between the individual and collective (Bunge 2003). This chapter advocates for a whole systems approach to tackle social problems and develop sustainable interventions that facilitate young peoples’ needs realisation at school.
For a given set of banks, how big can losses in bad economic or financial scenarios possibly get, and what are these bad scenarios? These are the two central questions of stress tests for banks and the banking system. Current stress tests select stress scenarios in a way which might leave aside many dangerous scenarios and thus create an illusion of safety; and which might consider highly implausible scenarios and thus trigger a false alarm. We show how to select scenarios systematically for a banking system in a context of multiple credit exposures. We demonstrate the application of our method in an example on the Spanish and Italian residential real estate exposures of European banks. Compared to the EBA 2016 stress test our method produces scenarios which are equally plausible as the EBA stress scenario but yield considerably worse system wide losses.
Wir untersuchen Gemeinsamkeiten und Unterschiede partizipativer Projekte auf Gemeindeebene in der Bodenseeregion. Ziel dabei ist es, einerseits Chancen und Stolpersteine von partizipativen Projekten für Gemeinden zu identifizieren. Andererseits entwickeln wir den Resilienzbegriff aus Psychologie und BWL weiter für Gemeinden und fragen uns, wie Partizipation die Resilienz einer Gemeinde beeinflusst.
Die Checkliste „Pflegedokumentation“ basiert auf einer Literaturrecherche. Verschiedene Artikel bildeten die Grundlage für die Kriterien der Checkliste „Defäkation in der Pflegedokumentation“. Anhand dieser Checkliste wird untersucht, ob die genannten Items in der Pflegedokumentation enthalten sind und wenn ja, ob diese dann auch tatsächlich ausgefüllt und welche begründeten Rückschlüsse daraus gezogen werden und wie die Umsetzung überprüft wird und Maßnahmen ggfs angepasst werden. Z.B. Möglichkeiten der Erprobung bestimmter Interventionen gut dokumentieren.
Die Checkliste „Sanitäre Einrichtung“ (Toilette, Badezimmer) basiert auf einer aktuellen Literaturstudie. Anhand verschiedener Fachtermen wurden in unterschiedlichen Datenbanken nach relevanten Artikeln gesucht, diese in Bezug auf die Fragestellung „Kriterien, die eine sanitäre Einrichtung (Toilette / Badezimmer) für Menschen in einer stationären Altenpflegeeinrichtung erfüllen muss“ analysiert und die entsprechenden geforderten Kriterien in die Checkliste aufgenommen.
Zeigen, nicht erklären!
(2020)
Medien sind während der Covid-Pandemie in besonderem Maße gefordert, komplexe Sachverhalte, wie Inzidenzen und exponentielles Wachstum einfach zu erklären. Informationsgrafiken sind dazu bestens geeignet, erfordern allerdings hohe Kompetenz in der Erstellung. Dieser Artikel plädiert für die Einführung eines eigenen journalistischen Genres, nämlich des visuellen Journalismus.
Seit einigen Jahren beschäftigen sich immer mehr Autor*innen mit der Frage, welche Handreichungen Mitarbeitende im Gesundheitssystem brauchen, um adäquater auf die Bedürfnisse älterer LGBTQI* Personen einzugehen, deren (pflegerische) Anliegen nicht erkannt werden, von schwer zu überwindenden Barrieren im Gesundheitssystem berichten und die sich diskriminiert fühlen. Der Fokus der Publikationen liegt auf der sexuellen Orientierung und / oder der Genderidentität, einem Teilaspekt der Identität einer Person. Je nach Kontext und Personen sind andere Teilidentitäten, wie z.B. Familienstatus, Alter, Ethnizität, Teilhabe an sozialen Gruppen unterschiedlich stark berücksichtigt. In einer qualitativen Studie wurden, unter Integration der autoethnographischen Methode, acht Männer zwischen 53 und 75 Jahren aus den Niederlanden und Deutschland in autobiografischen-narrativen Interviews befragt, inwiefern die Coronapandemie ihre Vorstellungen vom gesunden Altern verändert hat. Alle Männer hatten komplexe Biografien, gekennzeichnet von Partnerverlust, Arbeitslosigkeit, Altersfragen, familiären und gesundheitlichen Herausforderungen neben anderen identitätsstiftenden Faktoren. Aber alle identifizierten sich seit ihrer Jugend mit ihrer sexuellen oder Genderidentität, hatten aus vielen Krisen gelernt und sorgten mit einem für sich klaren Management, dass sie auch im Alter gesund bleiben würden – Autonomie stand hoch im Kurs! Die Person nicht nur auf die Zugehörigkeit zur LGBTQI* Gruppe zu reduzieren, sondern in ihrer gesamten Identität in den Gesundheitseinrichtungen zu berücksichtigen kennzeichnet eine adäquate Pflege.
This is Intellectual Output 2 (IO2) of the project “Developing a culturally competent and compassionate LGBT+ curriculum in health and social care education“ IENE9. The aim of the project is to enable teacher/trainers of theory and practice to enhance their skills regarding LGBT+ issues and develop teaching tools to support the inclusion of LGBT+ issues within health and social care curricula. The newly culturally competent and compassionate LGBT+ curriculum will be delivered through a MOOC which is aimed at health and social care teachers/trainers, workers, professionals, and learners across Europe and worldwide. The IO2 of this project, Internet Mapping and Systematic documentation of educational policies and guidelines as well as legislation at European and national level for LGBT+ inclusive education, aims to create an easy to navigate resource with information about European and national legislation/guidance/policies. Visit www.iene-lgbt.com for more information.
Issues with professional conduct and discrimination against Lesbian, Gay, Bisexual, Transgender (LGBT+) people in health and social care, continue to exist in most EU countries and worldwide.
The project IENE9 titled: “Developing a culturally competent and compassionate LGBT+ curriculum in health and social care education” aims to enable teacher/trainers of theory and practice to enhance their skills regarding LGBT+ issues and develop teaching tools to support the inclusion of LGBT+ issues within health and social care curricula. The newly culturally competent and compassionate LGBT+ curriculum will be delivered though a Massive Open Online Course (MOOC) which is aimed at health and social care workers, professionals and learners across Europe and worldwide.
We have identified educational policies and guidelines at institutions teaching in health and social care, taken into account for developing the learning/teaching resources. The MOOC will be an innovative training model based on the Papadopoulos (2014) model for “Culturally Competent Compassion”. The module provides a logical and easy to follow structure based on its four constructs 'Culturally Aware and Compassionate Learning', 'Culturally Knowledgeable and Compassionate Learning', 'Culturally Sensitive and Compassionate Learning', 'Culturally Competent and Compassionate Learning'.
Specific training may result in better knowledge and skills of the health and social care workforce, which helps to reduce inequalities and communication with LGBT+ people, as well as diminishing the feelings of stigma or discrimination experienced.
Electric cell-substrate impedance spectroscopy (ECIS) enables non-invasive and continuous read-out of electrical parameters of living tissue. The aim of the current study was to investigate the performance of interdigitated sensors with 50 μm electrode width and 50 μm inter-electrode distance made of gold, aluminium, and titanium for monitoring the barrier properties of epithelial cells in tissue culture. At first, the measurement performance of the photolithographic fabricated sensors was characterized by defined reference electrolytes. The sensors were used to monitor the electrical properties of two adherent epithelial barrier tissue models: renal proximal tubular LLC-PK1 cells, representing a normal functional transporting epithelium, and human cervical cancer-derived HeLa cells, forming non-transporting cancerous epithelial tissue. Then, the impedance spectra obtained were analysed by numerically fitting the parameters of the two different models to the measured impedance spectrum. Aluminium sensors proved to be as sensitive and consistent in repeated online-recordings for continuous cell growth and differentiation monitoring assensors made of gold, the standard electrode material. Titanium electrodes exhibited an elevated intrinsic ohmic resistance incomparison to gold reflecting its lower electric conductivity. Analysis of impedance spectra through applying models and numerical data fitting enabled the detailed investigation of the development and properties of a functional transporting epithelial tissue using either gold or aluminium sensors. The result of the data obtained, supports the consideration of aluminium and titanium sensor materials as potential alternatives to gold sensors for advanced application of ECIS spectroscopy.
An electrochemical study with three redox substances on a carbon based nanogap electrode array
(2020)
Over the last years, polymers have gained great attention as substrate material, because of the possibility to produce low-cost sensors in a high-throughput manner or for rapid prototyping and the wide variety of polymeric materials available with different features (like transparency, flexibility, stretchability, etc.). For almost all biosensing applications, the interaction between biomolecules (for example, antibodies, proteins or enzymes) and the employed substrate surface is highly important. In order to realize an effective biomolecule immobilization on polymers, different surface activation techniques, including chemical and physical methods, exist. Among them, plasma treatment offers an easy, fast and effective activation of the surfaces by micro/nanotexturing and generating functional groups (including carboxylic acids, amines, esters, aldehydes or hydroxyl groups). Hence, here we present a systematic and comprehensive plasma activation study of various polymeric surfaces by optimizing different parameters, including power, time, substrate temperature and gas composition. Thereby, the highest immobilization efficiency along with a homogenous biomolecule distribution is achieved with a 5-min plasma treatment under a gas composition of 50% oxygen and nitrogen, at a power of 1000 W and a substrate temperature of 80 C. These results are also confirmed by different surface characterization methods, including SEM, XPS and contact angle measurements.
Blood flow and ventilatory flow strongly influence the concentrations of volatile organic compounds (VOCs) in exhaled breath. The physicochemical properties of a compound (e.g., water solubility) additionally determine if the concentration of the compound in breath reflects the alveolar concentration, the concentration in the upper airways, or a mixture of both. Mathematical modeling based on mass balance equations helps to understand how measured breath concentrations are related to their corresponding blood concentrations and physiological parameters, such as metabolic rates and endogenous production rates. In addition, the influence of inhaled compounds on their exhaled concentrations can be quantified and appropriate correction formulas can be derived. Isoprene and acetone, two endogenous VOCs with very different water solubility, have been modeled to explain the essential features of their behavior in breath. This chapter introduces the theory of physiological modeling of exhaled VOCs, with examples of isoprene and acetone.
Design and optimization of 1x2N Y-branch optical splitters for telecommunication applications
(2020)
This paper presents the design and optimization of 1x2N Y-branch optical splitters for telecom applications. A waveguide channel profile, used in the splitter design, is based on a standard silica-on-silicon material platform. Except for the lengths of the used Y-branches, design parameters such as port pitch between the waveguides and simulation parameters for all splitters were considered fixed. For every Y-branch splitter, insertion loss, non-uniformity, and background crosstalk are calculated. According to the minimum insertion loss and minimum non-uniformity, the optimum length for each Y-branch is determined. Finally, the individual Y-branches are cascade joined to design various Y-branch optical splitters, from 1x2 to 1x64.
Die vorliegende Arbeit befasst sich mit der Untersuchung von dezentralen Warmwasserbereitungssystemen, wobei der Fokus auf Energieeffizienz liegt. Als Vergleichs- und Referenzobjekt wird das Wohngebäude „KliNaWo“ mit 19 Wohneinheiten am Standort Feldkirch herangezogen, in welchem eine zentrale Warmwasserbereitung realisiert wurde. Als ersten Schritt werden die theoretischen Grundlagen hinsichtlich der zentralen und dezentralen Warmwasserbereitungs-systeme sowie der unterschiedlichen Wärmeerzeuger, Speichertechnologien und Verteilsysteme erarbeitet. Anschließend erfolgt eine Erläuterung der aktuellen Normensituation und den wichtigsten Fakten bezüglich Trinkwasserhygiene.
Des Weiteren wird das Referenzobjekt „KliNaWo“ sowie die verwendeten Messdaten zur Kalibrierung der Simulationsmodelle beschrieben. Im nachfolgenden Kapitel erfolgt eine detaillierte Darstellung der zu untersuchenden Systeme, wobei es sich um das Wohnungssatellitensystem sowohl mit kontinuierlicher Beladung als auch im Ladefensterbetrieb sowie um dezentrale Boiler-Wärmepumpen handelt. Anschließend wird die verwendete Simulationssoftware Polysun erläutert und erklärt wie die Systeme in der Software abgebildet und welche Ersatzmodelle angewendet werden.
Die Nutzenergie in Bezug auf das Warmwasser beträgt bei der zentralen Variante 20.584 kWh und ist bei allen dezentralen Systemen mit 20.142 kWh etwas geringer, da die Verteilverluste der Warmwasser-Einzelleitungen aufgrund des niedrigeren Temperaturniveaus geringer ausfallen. Da die rückgewinnbaren Wärmeverluste berücksichtigt werden, ergeben sich auch für den Heizwärmebedarf in Abhängigkeit der Variante unterschiedliche Werte im Bereich von 54.322 kWh bis 58.104 kWh. Als Vergleichsgröße wird der gesamte Stromverbrauch der Wärmepumpen inklusive der Förderpumpen herangezogen, welcher für die Deckung des Heizwärmebedarfs, der Verluste sowie des Energiebedarfs bezüglich Warmwasser notwendig ist.
Aus dem Vergleich der Varianten ergibt sich, dass der Stromverbrauch des zentralen Systems mit 14.109 kWh am geringsten ausfällt und das Wohnungssatellitensystem im Ladefensterbetrieb mit einem Strombedarf von 14.441 kWh nur wenig darüber liegt. Beim Wohnungssatellitensystem mit kontinuierlicher Beladung und bei den Boiler-Wärmepumpen-Systemen liegen die Stromverbräuche deutlich höher. Anhand der Simulationsergebnisse kann festgestellt werden, dass die dezentralen Anlagenkonfigurationen unter Berücksichtigung der ÖNROM B 2531 nicht effizienter sind als das zentrale System, wobei das Wohnungssatellitensystem im Ladefensterbetrieb in derselben Größenordnung wie das zentrale System liegt. Allerdings sind beim Wohnungssatellitensystem höhere Investitionskosten gegenüber der zentralen Variante zu erwarten, wodurch das System wirtschaftlich schlechter abschneidet.
Die Aktualität des Klimawandels fordert Maßnahmen in privaten und wirtschaftlichen Bereichen. Die Veränderungen des Klimas führen dazu, dass Regelungen und Gesetze für das Energiewesen der Unternehmen entwickelt werden. Die Gesetze verpflichten die Unternehmen für Energie- und Umweltaudits. Viele Unternehmen führen noch zusätzliche Maßnahmen für eine Verbesserung der Energieeffizienz und des Emissionsausstoßes ein. Die Maßnahmen werden immer relevanter.
Die Norm ISO 50001 unterstützt Unternehmen bei der Einführung und bei der Aufrechterhaltung eines Energiemanagementsystems. Das Energiemanagement hilft dabei, die energiebezogene Leistung zu verbessern und einen kontinuierlichen Verbesserungsprozess umzusetzen. Eine weitere freiwillige Möglichkeit ist das Klimaneutralitätsbündnis 2025. Das Bündnis soll den Mitgliedern helfen, den Emissionsausstoß zu verbessern. Die Mitglieder werden über einen definierten Zeitraum von 12 Jahren begleitet, um die Geschäftsprozesse anschließend klimaneutral zu gestalten.
Diese Arbeit beschäftigt sich mit den Anforderungen der Norm ISO 50001 und dem Klimaneutralitätsbündnis. Beides sind freiwillige Instrumente, welche Unternehmen verwenden können, um das eigene Energiewesen zu optimieren und etwas zum Klimaschutz beizutragen. Die Forschung dieser Arbeit beschäftigt sich mit dem Zusammenwirken der beiden Instrumente. Es wird untersucht, ob eine parallele Einführung und Bearbeitung in den Unternehmen möglich ist. Zusätzlich werden die Inhalte und die Anforderungen gegenübergestellt. Mögliche Überschneidungen werden zu Zwecken einer Erleichterung für die Unternehmen überprüft.
Im Zuge dieser Arbeit wird ein Energiemonitoring beim Logistikunternehmen Gebrüder Weiss GmbH eingeführt. Das Unternehmen mit Sitz in Lauterach (Vorarlberg) betreibt weltweit rund 165 Standorte. Die Niederlassung in Lauterach bildet den Versuchsstandort für das Energiemonitoring. Es werden geeignete Partnerunternehmen gesucht, welche ein Energiemonitoringsystem anbieten. Im Zuge der Partnersuche wird ein Pilotprojekt umgesetzt, welches dem Unternehmen erste Einblicke in die Materie bietet. Nach dem erfolgreichen Abschluss des Pilotprojektes folgt die Implementierung des Energiemonitorings. Die einzelnen Schritte und Herausforderungen des Projektes werden dargelegt und die abschließende Umsetzung wird beschrieben. Nach der Einführung in Lauterach folgt die weltweite Ausrollung des Energiemonitorings in allen Standorten.
Eindimensionales Siliziumkarbid-Faserwachstum ohne Katalysator über karbothermische Reduktion
(2020)
In dieser Arbeit werden eindimensionale Siliziumkarbid-Fasern über die karbothermische Reduktion von stickstoffdotiertem Siliziumoxykarbid-Glas, welches über einen Sol-Gel-Prozess synthetisiert wurde, hergestellt. Als Wachstumssubstrat für die Fasern werden drei Arten von Kohlenstofffasern verwendet, die entweder in Sol eingelegt sind oder erst bei der karbothermischen Reduktion mit dem Precursor im Graphittiegel eingelegt werden. Es werden vier Formen von eindimensionalem Siliziumkarbid produziert, bei denen Durchmesser und Länge von <100 nm bis zu mehreren µm variieren. Die Charakterisierung der synthetisierten Fasern erfolgt über optische Mikroskopie, Rasterelektronenmikroskopie und Raman-Spektroskopie. Der Einfluss der Druckentwicklung während der karbothermischen Reduktion auf das Faserwachstum wird anhand von Druck-Temperatur-Verläufen ermittelt.
Graphite substrates underwent two methods of creating doped silicon carbide films via carbothermal reduction; the first method being liquid-phase processing, or dip-coating, and the second gas-phase processing, otherwise referred to as the solid-vapour reaction. The dip-coating procedure resulted in flaky coatings, while the solid-vapour reaction resulted in polycrystalline films with columnar growth that displayed promising morphological and electrical properties. The films were tested on their performance as semiconductor diodes, and proved that carbothermal reduction in the gas phase is a promising technique for creating polycrystalline silicon carbide films for the application of light-emitting diodes.
Mit dem entwickelten, gemischt-ganzzahligen linearen Optimierungsmodell wird ein grosser Beitrag geleistet, das die wichtigen Betriebskennzahlen einer PV-Speicheranlage, wie der Eigenverbrauchsanteil um bis zu 89 % und der Autarkiegrad um bis zu 73 % durch eine variable Grenzkostenoptimierung bei zusätzlicher E-Auto Berücksichtigung gesteigert werden können. Der Eigenverbrauch der PV-Erzeugung wird durch den stationären Batteriespeicher auf 71 % mehr als verdoppelt. Das beispielhafte Szenario hat einen Haushaltsverbrauch von 5 MWh pro Jahr und besteht aus einer 5 kWp PV-Anlage, mit einem 5 kWh Batteriespeicher und dem Tesla Model 3 mit einer Jahresfahrleistung von 16778 km.
Das erstellte Softwareprogramm kann einfach auf weitere verschiedene Anlagenkonstellationen und mit eigenen Eingangszeitreihenprofile der Haushaltslast, der PV-Erzeugung und der E-Auto Nutzung parametriert werden. Neben der Kennzahlenberechnung des konkreten Szenarios wird der jeweilige Einfluss einer Anlagenkomponente, wie PV, Batterie und Last bei deren Variation, auf die Kennzahlen grafisch gut sichtbar dargestellt.
Die Ergebnisse bestätigen bisherige Arbeiten, dass die Dimensionierung der Anlagenkomponenten nach der einfachen Faust-Formel 1:1:1 erfolgen soll: Der stationäre Batteriespeicher und die PV-Anlage sollen gleich gross sein und ihre Grösse in kWh soll der Jahreslast in MWh entsprechen. Damit wird nahezu schon ein gutes Optimum von Eigenverbrauch, Eigenverbrauchsanteil und Autarkiegrad bei minimalen Energiekosten gefunden und die Netzbelastung durch Bezug und Einspeisung kann reduziert werden.
Die cloud-basierte Verarbeitung von Datenströmen von IoT-Geräten ist aufgrund hoher Latenzzeiten für zeitkritische Anwendungen nur beschränkt möglich. Fog Computing soll durch Nutzung der Rechen- und Speicherkapazitäten von lokal vorhandenen Geräten eine zeitnahe Datenverarbeitung und somit eine Verringerung der Latenzzeit ermöglichen. In dieser Arbeit werden Anforderungen an ein Fog Computing-Framework erhoben, das die dynamische Zuweisung und Ausführung von Services auf ressourcen-beschränkten Geräten in einem lokalen Netzwerk zur dezentralen Datenverarbeitung ermöglicht. Zudem wird dieses Framework prototypisch für mehrere Transportkanäle, unterschiedliche Betriebssysteme und Plattformen realisiert. Dazu werden die Möglichkeiten der Skriptsprache Lua und des Kommunikationsmechanismus Remote Procedure Call genutzt. Das Resultat ist ein positiver Machbarkeitsnachweis für Fog Computing-Funktionalitäten auf ressourcenbeschränkten Systemen. Zudem werden eine geringere Latenz und eine Reduktion der Netzwerklast ermöglicht.
Many test drives are carried out in the automotive environment. During these test drives many signals are recorded. The task of the test engineers is to find certain patterns (e.g. an emergency stop) in these long time series. Finding these interesting patterns is currently done with rule based processing. This procedure is very time consuming and requires a test engineer with expertise. In this thesis it is examined if the emerging field of machine learning can be used to support the engineers in this task. Active Learning, a subarea of machine learning, is used to train a classifier during the labeling process. Thereby it proposes similar windows to the already labeled ones. This saves the annotator time for searching or formulating rules for the problem. A data generator is worked out to replace the missing labeled data for tests. The custom performance measure “proportion of seen samples” is developed to make the success measurable. A modular software architecture is designed. With that, several combinations of Time Series Classification algorithms and query strategies are compared on artificial data. The results are verified on real datasets, which are open source available. The best performing, but computational intensive solution is an adapted RandOm Convolutional KErnel Transform (ROCKET). The custom query strategy “certainty sampling” shows the best results for highly imbalanced datasets.
This master thesis investigates a Computational Intelligence-based method for solving PDEs. The proposed strategy formulates the residual of a PDE as a fitness function. The solution is approximated by a finite sum of Gauss kernels. An appropriate optimisation technique, in this case JADE, is deployed that searches for the best fitting parameters for these kernels. This field is fairly young, a comprehensive literature research reveals several past papers that investigate similar techniques.
To evaluate the performance of the solver, a comprehensive testbed is defined. It consists of 11 different Poisson equations. The solving time, the memory consumption and the approximation quality are compared to the state of the art open-source Finite Element solver NGSolve. The first experiment tests a serial JADE. The results are not as good as comparable work in the literature. Further, a strange behaviour is observed, where the fitness and the quality do not match. The second experiment implements a parallel JADE, which allows to make use of parallel hardware. This significantly speeds up the solving time. The third experiment implements a parallel JADE with adaptive kernels. It starts with one kernel and introduce more kernels along the solving process. A significant improvement is observed on one PDE, that is purposely built to be solvable. On all other testbed PDEs the quality-difference is not conclusive. The last experiment investigates the discrepancy between the fitness and the quality. Therefore, a new kernel is defined. This kernel inherits all features of the Gauss kernel and extends it with a sine function. As a result, the observed inconsistency between fitness and quality is mitigated.
The thesis closes with a proposal for further investigations. The concepts here should be reconsidered by using better performing optimisation algorithms from the literature, like CMA-ES. Beyond that, an adaptive scheme for the collocation points could be tested. Finally, the fitness function should be further examined.
Pump-Probe-Elastographie
(2020)
Krebs ist die zweit häufigste Todesursache in Deutschland. Seine frühzeitige Detektion ist wichtig für eine erfolgreiche Behandlung. Die Detektion und Charakterisierung der Tumore kann unter anderem anhand ihrer mechanischen Eigenschaften erfolgen.
Die Pump-Probe-Elastographie (PPE) ist eine neue und vielversprechende Methode um die mechanischen Eigenschaften von Gewebe durch optische Anregung und Detektion der dadurch entstehenden akustischen Wellen zu charakterisieren.
In dieser Arbeit wurde ein PPE-Mikroskop aufgebaut und anschließend untersucht, wie die Wellenfronten möglichst deutlich sichtbar werden und welchen Einfluss die Pulsenergie auf die erzeugten Wellen hat. Dies geschah anhand zweier Proben – Wasser und Glas. Beide sind transparent und bieten daher auch die Möglichkeit der Messung im Volumen. Wasser unterscheidet sich zudem von Glas, da es kompressibel ist und somit die Entstehung von Stoßwellen erlaubt. In Glas wiederum können nicht nur Longitudinalwellen, sondern auch Transversalwellen und Rayleigh-Wellen entstehen.
Als Ergebnis dieser Arbeit wird gezeigt, dass die Messergebnisse in Wasser abhängig von der Pulsenergie sind, denn die entstehenden Stoßwellen breiten sich mit Überschallgeschwindigkeit aus, was bei zukünftigen Messungen mit Zellgewebe zu beachten ist. In Glas hat die Pulsenergie zwar keinen Einfluss auf die Wellengeschwindigkeit, jedoch werden die Messungen mit zunehmender Energie deutlicher. Auch ist bei Messungen im Volumen nur die Longitudinalwelle zu sehen. Misst man jedoch auf der Glasoberfläche, so entsteht auch eine Druckwelle in der Luft, welche wiederum abhängig von der Pulsenergie ist. Zusätzlich ist in einigen Messungen eine weitere Welle zu erkennen, welche unabhängig von der Pulsenergie ist und sich im Glas, oder auf dessen Oberfläche ausbreitet.
In recent years, much research has been done on medical laser applications inside the human body, as they are minimally invasive and therefore have fewer side effects and are less expensive than conventional therapies. In order to bring the laser light into the human body, a glass fibre with a diffuser is needed. The goal of this master thesis is the characterization and production of fibre optic diffusers that can be used for the three therapeutic applications: photodynamic therapy, laser-induced thermotherapy and endovenous laser therapy. For this purpose the following goals have to be achieved:
- Optimization of the efficiency and homogeneity of internally structured diffusers
- Examine damage thresholds of the diffusers in the tissue using a crash test
- Achieving a better understanding of the decouple mechanism with a simulation
Using an ultra-short pulse laser, modifications could be introduced into the fibre in this way that the radiation profile is homogeneous and the decoupling efficiency is 68.3 %. It was discovered that the radiation profile depends on the wavelength. Attempts have been made to improve the decoupling efficiency by mirroring the distal end of the fibre. The mirror reflects the remaining light back into the fibre, so that it is also decoupled lateral on the modifications. Vapor-deposited aluminum with physical vapor deposition is a promising approach. However, the adhesion of the coating must be improved or the coating must be protected by a mechanical cover, otherwise it will flake off too quickly.
In a crash test, it was shown that the glass fibre diffusers can withstand 20 W laser power for 300 s without visible change. In an ex vivo test, the coagulation zone in the tissue was examined and it was showed that the diffusers radiate radially homogeneously. Using a ray trace simulation, the course of the light rays in the fibre was examined and the correlation of modification width and length with the decoupling efficiency was investigated. It was discovered that there are helical light rays in the fibre, which cannot be decoupled by modifications in the fibre centre.
Clathrate hydrates, or hydrates for short, are inclusion compounds in which water molecules form a hydrogen-bonded host lattice that accommodates the guest molecules. While vast amounts of hydrates are known to exist in seafloor sediments and in the permafrost on Earth, these occurrences might be dwarfed by the amounts of hydrates occurring in space and on celestial bodies. Since methane is the primary guest molecule in most of the natural occurrences on Earth, hydrates are considered a promising source of energy. Moreover, the ability of one volume of hydrate to store about 170 volumes of gas, make hydrates a promising functional material for various industrial applications. While the static properties of hydrates are reasonably well known, the dynamics of hydrate formation and decomposition are insufficiently understood. For instance, the stochastic period of hydrate nucleation, the memory effect, and the self-preservation phenomenon complicate the development of predictive models of hydrate dynamics. Additionally, the influence of meso- and macroscopic defects as well as the roles of mass and heat transport on different length scales remain to be clarified.
Due to its non-invasive and non-destructive nature and the high spatial resolution of approx. 1µm or even less, micro-computed X-ray attenuation tomography ( µCT ) seems to be the perfect method for the study of the evolving structures of forming or decomposing hydrates on the meso- and macroscopic length scale. However, for the naturally occurring hydrates of low atomic number guests the contrast between hydrate, ice, and liquid water is typically very weak because of similar X-ray attenuation coefficients. So far, good contrast was only restricted to synchrotron beamline experiments which utilize the phase information of monochromatic X-rays.
In this thesis it is shown that with the help of a newly developed sample cell, a contrast between the hydrate and the ice phase sufficiently good for the reliable segmentation of the materials can also be achieved in conventional tube-based µCT. An accurate pressure and temperature management, i.e., the added functionality of the cell, further allows for cross-correlation of structural and thermodynamic data. The capability of this µCT setup is demonstrated in a series of studies on the formation and decomposition of hydrates which yield new insights for the development of a novel route to hydrate synthesis. At last, this thesis points towards possibilities how better models of hydrate formation and decomposition can be developed with the aid of µCT and computer simulations.
Post-operative isoflurane has been observed to be present in the end-tidal breath of patients who have undergone major surgery, for several weeks after the surgical procedures. A major new noncontrolled, non-randomized, and open-label approved study will recruit patients undergoing various surgeries under different inhalation anaesthetics, with two key objectives, namely to record the washout characteristics following surgery, and to investigate the influence of a patient’s health and the duration and type of surgery on elimination. In preparation for this breath study using proton transfer reaction time-of-flight mass spectrometry (PTR-TOF-MS), it is important to identify first the analytical product ions that need to be monitored and under what operating conditions. In this first paper of this new research programme, we present extensive PTR-TOF-MS studies of three major
anaesthetics used worldwide, desflurane (CF3CHFOCHF2), sevoflurane ((CF3)2CHOCH2F), and isoflurane (CF3CHClOCHF2) and a fourth one, which is used less extensively, enflurane (CHF2OCF2CHFCl), but is of interest because it is an isomer of isoflurane. Product ions are identified as a function of reduced electric field (E/N) over the range of approximately 80 Td to 210 Td, and the effects of operating the drift tube under ‘normal’ or ‘humid’ conditions on the intensities of the product ions are presented. To aid in the analyses, density functional theory (DFT) calculations of the proton affinities and the gas-phase basicities of the anaesthetics have been determined. Calculated energies for the ion-molecule reaction pathways leading to key product ions, identified as ideal for monitoring the inhalation anaesthetics in breath with a high sensitivity and selectivity, are also presented.
Wer wünscht ihn nicht: den intelligenten, effizienten und wirtschaftlichen Herstellungsprozess? Viele Firmen setzten aktuell auf die Digitalisierung und verbessern so die eigene sowie die mit externen Stellen vernetzte Produktion. Die Digitalisierung bringt einerseits Fortschritt, zeigt aber auch die zunehmende Komplexität der heutigen Produktionsnetzwerke auf. Zahlreiche Entscheidungen sind zu fällen, um einen effizienten und sicheren Austausch mit verschiedenen Betrieben zu gewährleisten.
Ein Blick auf vorhandene Modelle kann da weiterhelfen: Im Projekt i4Production des IBH-Labs KMUdigital haben Teams an drei Standorten in den drei Nachbarländern Deutschland (HTWG Konstanz), Österreich (FH Vorarlberg) und der Schweiz (NTB Buchs, RhySearch) an einer vernetzten Prozesslandschaft gearbeitet. In einem gemeinsamen, standardisierten Automatisierungskonzept wird in der international vernetzten Modellfabrik ein cyberphysisches System (CPS) in Form eines kundenindividualisierten Modellfahrzeuges produziert, das durch den Kunden in diversen Varianten zusammengestellt oder individuell konstruiert werden kann. Die dezentrale Produktion erlaubt eine Datenweitergabe über die Landesgrenzen in Echtzeit und bildet die Simulation eines länderübergreifenden Business-Eco-Systems ab.
Die Erkenntnisse des Projekts i4Production zeigen wie in kleineren und mittleren Unternehmen (KMU) eine verteilte Produktion, inklusive der Einbindung von Mitarbeitenden und Kunden in eine digitalisierte, hochautomatisierte und kundenindividuelle Produktion, organisiert werden kann.
Für Unternehmen wird diese Industrie 4.0-Prozesslandschaft als Modell für die eigene Fertigung in dem neu aufgebauten CNC Präzisionsfertigungslabor „Werkstatt4“ bei RhySearch öffentlich zur Verfügung gestellt. Die „Werkstatt4“ bietet KMU ein digitales Prozessumfeld, in dem getestet werden kann, mit welchen Maßnahmen der eingangs gestellte Wunsch zur optimierten Herstellung, seinen Weg in die Realität finden kann.
Im Folgenden stellen wir Ihnen das Konzept der internationalen Musterfabrik i4Production, die diversen Arbeitsschritte an den beteiligten Hochschulen sowie die wichtigsten Erkenntnisse für KMU der Bodenseeregion vor. Gerne unterstützen wir Sie bei der Gestaltung des Wandels hin zum Unternehmen 4.0: Sprechen Sie uns an.
With the emergence of the recent Industry 4.0 movement, data integration is now also being driven along the production line, made possible primarily by the use of established concepts of intelligent supply chains, such as the digital avatars. Digital avatars – sometimes also called Digital Twins or more broadly Cyber-Physical Systems (CPS) – are already successfully used in holistic systems for intelligent transport ecosystems, similar to the use of Big Data and artificial intelligence technologies interwoven with modern production and supply chains. The goal of this paper is to describe how data from interwoven, autonomous and intelligent supply chains can be integrated into the diverse data ecosystems of the Industry 4.0, influenced by a multitude of data exchange formats and varied data schemas. In this paper, we describe how a framework for supporting SMEs was established in the Lake Constance region and describe a demonstrator sprung from the framework. The demonstrator project’s goal is to exhibit and compare two different approaches towards optimisation of manufacturing lines. The first approach is based upon static optimisation of production demand, i.e. exact or heuristic algorithms are used to plan and optimise the assignment of orders to individual machines. In the second scenario, we use real-time situational awareness – implemented as digital avatar – to assign local intelligence to jobs and raw materials in order to compare the results to the traditional planning methods of scenario one. The results are generated using event-discrete simulation and are compared to common (heuristic) job scheduling algorithms.
Complementarities and synergies of quadruple helix innovation design in smart city development
(2020)
Increased urbanization trends are stimulating regional needs to support transitions from urban environments to smart cities, using its holistic perspective as a source to innovation. Strong relations between smart cities, urban and regional development, are getting increased attention both at policy and implementation level, providing fertile ground for execution of the new European policy frameworks that supports quadruple helix approaches to innovation. Smart specialization strategies (RIS3) encompass such initiatives, placing ICT and collaboration between academia, industry, government, and citizen at the center of urban innovation. However, there is still lack of research on effects of such approaches to innovation, involving both quadruple helix clusters and ICT in utilizing innovation potentials for developing smart cities. This study aims to increase the understanding on how quadruple helix urban innovation strengthens competitiveness of regions by improving its local smart areas – RIS3. We identified smart specialization patterns and applied comparative benchmark between nine smallmedium sized urban regions in Central Europe. Building on these results, the study provides an overview of the effects of RIS3 strategies implemented through quadruple helix innovation clusters on competitiveness of regions and Smart City development.
A modified matrix adaptation evolution strategy with restarts for constrained real-world problems
(2020)
In combination with successful constraint handling techniques, a Matrix Adaptation Evolution Strategy (MA-ES) variant (the εMAg-ES) turned out to be a competitive algorithm on the constrained optimization problems proposed for the CEC 2018 competition on constrained single objective real-parameter optimization. A subsequent analysis points to additional potential in terms of robustness and solution quality. The consideration of a restart scheme and adjustments in the constraint handling techniques put this into effect and simplify the configuration. The resulting BP-εMAg-ES algorithm is applied to the constrained problems proposed for the IEEE CEC 2020 competition on Real-World Single-Objective Constrained optimization. The novel MA-ES variant realizes improvements over the original εMAg-ES in terms of feasibility and effectiveness on many of the real-world benchmarks. The BP-εMAg-ES realizes a feasibility rate of 100% on 44 out of 57 real-world problems and improves the best-known solution in 5 cases.
Steigende Komplexität von Geschäftsmodellen und in der Niedrigzinsphase stets zulegende Renditeerwartungen an kapitalmarktorientierte Unternehmen führen dazu, dass sich deren Berichterstattung anpasst. Unter anderem ist eine verstärkte Verbreitung und Anwendung von Key Performance Indicators (alternative Führungsgrößen) in der Praxis zu beobachten. Wenigen, zwar prägnanten, aber eben nicht einheitlich definierten oder gar nach geltenden Rechnungslegungsnormen objektiv zu gewinnende Messgrößen kommt eine gesteigerte Bedeutung im externen Berichtswesen zu. Der Beitrag liefert eine Bestandesaufnahme der meist verwendeten Key Performance Indicators in der Praxis in Deutschland, in Österreich und in der Schweiz.
The importance of Agent-Based Simulation (ABS) as scientific method to generate data for scientific models in general and for informed policy decisions in particular has been widely recognised. However, the important technique of code testing of implementations like unit testing has not generated much research interested so far. As a possible solution, in previous work we have explored the conceptual use of property-based testing. In this code testing method, model specifications and invariants are expressed directly in code and tested through automated and randomised test data generation. This paper expands on our previous work and explores how to use property-based testing on a technical level to encode and test specifications of ABS. As use case the simple agent-based SIR model is used, where it is shown how to test agent behaviour, transition probabilities and model invariants. The outcome are specifications expressed directly in code, which relate whole classes of random input to expected classes of output. During test execution, random test data is generated automatically, potentially covering the equivalent of thousands of unit tests, run within seconds on modern hardware. This makes property-based testing in the context of ABS strictly more powerful than unit testing, as it is a much more natural fit due to its stochastic nature.
Real-time measurements of the differences in inhaled and exhaled, unlabeled and fully deuterated acetone concentration levels, at rest and during exercise, have been conducted using proton transfer reaction mass spectrometry. A novel approach to continuously differentiate between the inhaled and exhaled breath acetone concentration signals is used. This leads to unprecedented fine grained data of inhaled and exhaled concentrations. The experimental results obtained are compared with those predicted using a simple three compartment model that theoretically describes the influence of inhaled concentrations on exhaled breath concentrations for volatile organic compounds with high blood:air partition coefficients, and hence is appropriate for acetone. An agreement between the predicted and observed concentrations is obtained. Our results highlight that the influence of the upper airways cannot be neglected for volatiles with high blood:air partition coefficients, i.e. highly water soluble volatiles.
Business Analytics zählt zu den Zukunftsthemen im Controlling. In der Controllinglehre spielt Analytics bisher aber nur eine untergeordnete Rolle. Der Beitrag beschreibt ein innovatives Lehrprojekt, das Studierende im Masterstudium Accounting, Controlling & Finance an der FH Vorarlberg befähigt, controllingrelevante Fragestellungen im Kontext von Business Analytics eigenständig zu beantworten. Gleichzeitig erlernen die Studierenden den Umgang mit der Open-Source-Software R.
Die Digitalisierung verändert Geschäftsmodelle und betriebliche Prozesse. Zugleich beeinflussen auch eine verbesserte Datenverfügbarkeit und leistungsfähige analytische Methoden das Controlling und erfordern vermehrt das Einbringen statistischer und informationstechnologischer Fertigkeiten und Kenntnisse. An einem Fallbeispiel aus dem Marketing-Controlling zeigt der Beitrag den Einsatz von Methoden der Business Analytics und thematisiert die Aufgaben des Controllings im digitalen Zeitalter.
In dieser Arbeit sollen Möglichkeiten untersucht werden, um eine möglichst robuste und ressourcenschonende Methode für homogene autonome Roboterteams um eine gemeinsame Exploration und Kartierung einer unbekannten Umgebung durchzuführen. Zu diesem Zweck soll eine koordinierte Exploration durchgeführt werden, durch die die zeitliche Effizienz des Roboterteams gesteigert werden kann. Dadurch kann unter geringerem Aufwand und in weniger Zeit eine globale Karte einer unbekannten Umgebung erstellt werden, mit der alle beteiligten Roboter für zukünftige Aufträge arbeiten können. Um dies zu erreichen wurden verschiedene Map-Merging Methoden untersucht, von denen eine auf Feature Detection basierende Verfahren für eine verteilte, robuste und ressourcenschonende Vorgehensweise ausgewählt wurde. Nachdem zwei oder mehr Karten erfolgreich fusioniert werden, kann eine koordinierte Exploration mit den Robotern, die mit der geteilten Karte arbeiten können durchgeführt werden. Für die gemeinsame Exploration werden auf dem implementierten Kartenserver nach allen Frontiers gesucht, die in der Karte vorhanden sind. Diese werden gemeinsam mit den derzeitigen Explorationszielen der anderen Roboter kombiniert und dem Roboter, der gerade versucht ein neues Explorationsziel zu wählen mitgeteilt. Dadurch können alle Roboter selbständig und unabhängig voneinander mit den Informationen der anderen Roboter arbeiten. Durch den Umstand, dass die Roboter die Wahl des Explorationsziels und die Pfadplanung selbstständig durchführen können, funktioniert das Roboterteam auch weiter, falls die Kommunikation zu den anderen Robotern abgebrochen wird. Wenn ein Roboter, der die Kommunkationsmöglichkeit mit dem Kartenserver verloren hat die Kommunikation wiederherstellen kann, können die in der Zwischenzeit gesammelten Daten des Roboters normal für das gesamte System weiter verwendet werden und der Roboter kann die Exploration koordiniert mit den anderen Robotern fortsetzen. Zusätzlich können von dem Kartenserver zusätzliche Informationen angefordert werden, die bei der Entscheidung über das nächste Explorationsziel des Roboters hilfreich sein können. Sollte die Kommunikation nicht wiederhergestellt werden können, wird die Exploration von jedem Roboter individuell und ohne Koordinierung fortgesetzt. Eine Kommunikation mit dem Kartenserver findet nur dann statt, wenn ein Roboter ein neues Explorationsziel benötigt. Dadurch ist die Netzwerkbelastung für die Koordinierung und die Kartenfusionen minimal und alle Roboter können unabhängig von den aufwändigen Berechnungen, die auf dem Kartenserver durchgeführt werden müssen weiter ihrer Aufgabe nachgehen.
In dieser Arbeit wird eine Evaluation zwischen verschiedenen implementierten Ansätzen eines Empfehlungssystems auf der Basis eines realen Datensatzes durchgeführt. Der Datensatz beinhaltet das Navigationsverhalten von Besuchern einer Website über Kochrezepte. Während der Vorverarbeitung wird der Datensatz mit zusätzlichen Metainformationen für jedes besuchte Rezept aus dem Content Management System der Webseite angereichert. Die implementierten Empfehlungssysteme verwenden sowohl den Content Based Filtering als auch den Collaborative Filtering Ansatz. Zusätzlich werden beide Ansätze kombiniert und in einem hybriden Empfehlungssystem eingesetzt. Darüber hinaus werden für jede Person im Datensatz zwei individuelle Profile erstellt. Dabei handelt es sich um ein kurzlebiges Session-Profil und ein permanentes Langzeit-Profil. Mit jedem Besuch eines Rezeptes werden beide Profile dynamisch angepasst, so dass sich die individuellen Präferenzen der Personen jederzeit in den Profilen widerspiegeln. Für die Evaluation wird ein eigener Algorithmus angewendet, welcher es erlaubt einen Vergleich zwischen den implementierten Empfehlungssystemen vorzunehmen. Die Besonderheit an dem Evaluationsalgorithmus ist, dass dieser lediglich die besuchten Items und deren Beschreibung für den Vergleich benötigt. Es werden keine expliziten Bewertungen von den Webseitenbesuchern verwendet. In der Arbeit werden die Ergebnisse der unterschiedlichen Ansätze für ein Empfehlungssystem mit dem eigenen Evaluationsalgorithmus diskutiert und die Vor- bzw. Nachteile der jeweiligen Ansätze erläutert. Bei der Analyse stellt sich heraus, dass für den in dieser Arbeit verwendete Datensatz ein hybrides Empfehlungssystem, welches sowohl das Session-Profil als auch das Langzeit-Profil kombiniert, die besten Ergebnisse erzielt. Mit diesem System wird eine Übereinstimmungsgenauigkeit zwischen den vorgeschlagenen Rezepten und den tatsächlich besuchten Rezepten von knapp 36% erreicht. Die beiden Content Based Systeme, welche jeweils entweder das Session-Profil oder das Langzeit-Profil verwenden, erzielen eine Übereinstimmungsgenauigkeit von ca 30% bzw. 20%. Die Algorithmen mit dem Collaborative Filtering Ansatz erreichen bei dem verwendeten Datensatz nur eine Übereinstimmungsgenauigkeit von ca. 15% bzw. 13,5%. Als Referenzmodell wird ein Empfehlungssystem verwendet, das nach dem Zufallsprinzip Rezepte vorschlägt, wodurch eine Übereinstimmungsgenauigkeit von etwa 6% erreicht wird.
In dieser Arbeit wird eine Topologie-Erkennung beschrieben, welche durch rein passives Scannen ermöglicht wird. Dazu werden die verschiedenen Protokolle beschrieben, welche in dem Bereich Digital Substation verwendet werden, um mögliche Ansätze zu erarbeiten. Es werden die Redundanz-Protokolle STP (Spanning Tree Protocol), RSTP (Rapid Spanning Tree Protocol), PRP (Parallel Redundancy Protocol) und HSR (High-availability Seamless Redundancy) beschrieben. Es wird ein kurzer Überblick zum IEC-61850 Standard und dessen Protokolle SV (Sampled Values) und GOOSE (Generic Object Oriented Substation Event) gegeben. Auf dieser Grundlage wird eine Applikation entwickelt, welche die Data Link Layer Topologie erkennt. Die entwickelte Topologie-Erkennung wird als Proof-of-Concept für STP und RSTP Netzwerke verwendet und die entsprechenden Voraussetzungen werden beschrieben. Auf korrektes Verhalten wurde die in dieser Arbeit entwickelte Applikation mittels verschiedenen, simulierten Netzwerken und einem simplen Laboraufbau getestet. Die Applikation bietet auch die Möglichkeiten, solche Topologien zu visualisieren und zu vergleichen.
Die Digitalisierung von Unternehmen und deren Produktionsanlagen bringen neue Bedrohungsformen mit sich, die zielorientierter ausgerichtet sind und mehrere Computersysteme gleichzeitig betreffen. Klassische Schutzmechanismen wie Firewalls, Anti-Viren-Systeme und IDS sind zumeist signatur- oder muster-basiert und können diese komplexen Bedrohungsformen nicht effizient erkennen. Die verwendeten Signaturen und Muster können durch Angreifer einfach umgangen werden. Darüber hinaus sind gezielte und komplexe Angriffe nur durch die Verknüpfung von Informationen mehrerer Computersysteme identifizierbar.
In den letzten Jahren wurden daher verstärkt anomalie-basierte IDS entwickelt und eingesetzt, die anhand selbstlernender Algorithmen das normale Verhalten von mehreren miteinander vernetzten Computersystemen erlernen und Abweichungen zum normalen Verhalten identifizieren. Hierzu verwenden die Algorithmen Log- und Monitoringdaten der Anwendungsschicht von verschiedenen Computersystemen und Anwendungen. Der Zugriff auf die Logdaten zur weiteren Analyse ist jedoch kompliziert, weil sie nicht an einer zentralen Stelle zusammenlaufen und es keine allgemein anerkannten Standards für die Erzeugung und Übertragung von Logdaten existieren.
Infolgedessen wird in dieser Arbeit ein zentrales Log-Management-System in eine Produktionsumgebung eingeführt, die verschiedene IT-Komponenten und Komponenten einer realen Güterproduktion beinhaltet. Zudem werden Logdaten verschiedener heterogener Datenquellen auf diesem System zentral aggregiert. Neben der Einführung eines Standards für die Struktur und Übertragung der Logdaten von den einzelnen Datenquellen auf das Log-Management-System, werden Logdaten auf ihre Relevanz hinsichtlich der Erkennung von Anomalien und der Abbildung des Systemverhaltens analysiert. Diese Arbeit beinhaltet zudem fortgeschrittene Bedrohungsszenarien, die für die Evaluation der IDS verwendet werden können und stellt somit eine Grundlage für eine zukünftige Analyse der Logdaten durch IDS dar.
Moderne Darstellungen ermöglichen es, Daten nicht nur als statische Bilder, sondern auch als interaktive Visualisierungen darzustellen. Interaktive Darstellungen können im Kontext von Kundinnen- und Kundenanalysen eine einfache Weise sein, um Unterschiede in verschiedenen Kaufverhalten festzustellen und können so ein essenzielles Hilfsmittel für ein Unternehmen sein. Das Hauptziel dieser Arbeit ist es, anhand eines beispielhaften Verkaufsdatensatzes die Möglichkeiten der Datenexploration und Informationsbeschaffung durch interaktive Visualisierungen aufzuzeigen, sodass Rückschlüsse auf das Kaufverhalten verschiedener Gruppen gezogen werden können.
Auf der Grundlage einer umfassenden Literaturrecherche in den Bereichen der Daten- und Informationsvisualisierung wurde eine Problemdefinition und eine Anforderungsanalyse für die Verkaufsdaten ausgearbeitet. Anonymisierte Verkaufsdaten dienten als Ausgangspunkt für die Datenvorverarbeitung. Diese wurden bereinigt und die gewünschten Informationen aus der Anforderungsanalyse wurden zur weiteren Transformation selektiert. Aufgrund der hohen Dimensionalität der selektierten Daten, wurde bei der Transformation der Dimensionsreduktions Algorithmus “Uniform Manifold Approximation and Projection” (UMAP) verwendet, um die Dimensionen der Daten zur Visualisierung zu reduzieren. Aufbauend auf diesen Schritten wurde ein Prototyp als Webanwendung erstellt, der den Anforderungen der Datenexploration und Informationsgewinnung gerecht wird. Der resultierende Prototyp kombiniert die achsenbasierten Visualisierungsmethoden der Streudiagramme und Parallelen Koordinaten mit der pixelorientierten Visualisierungsmethode der Heatmap. Diese Darstellungen wurden zusätzlich mit Interaktionsmöglichkeiten erweitert, um eine kollaborative Filterung von ähnlichen Konsumentinnen und Konsumenten auf verschiedenen Warengruppenebenen zu ermöglichen.
Abgeschlossen wurde die Arbeit mit einer Evaluation des Prototypen und dessen Qualität zur Exploration. Die Auswertung wurde mit Benutzerinnen und Benutzern absolviert, die einen Versuchsablauf durcharbeiteten und dabei ihre Erkenntnisse in einem Fragebogen dokumentierten. Durch das Ausführen ließen sich Gruppierungen von Kundinnen und Kunden feststellen und diese konnten auf Richtigkeit in Bezug auf das Einkaufsverhalten validiert werden. Die hierarchische Verbindung der Warengruppenebenen und das Erkennen von Mustern in allen drei Warengruppenebenen konnte nicht als erfolgreich bewertet werden. Es wurde jedoch ein Potenzial zur weiteren visuellen Analyse von Konsumentinnen und Konsumenten anhand deren Einkaufsverhalten festgestellt und weitere Anforderungen zur Weiterentwicklung wurden festgehalten.
Für die Digitale Fabrik an der FH Vorarlberg sollen Intrusion-Detection-Systeme (IDS) zur Erkennung von Angriffen auf Hosts sowie im Netzwerk evaluiert werden. Außerdem sollen die aus den IDS erhaltenen Resultate so dargestellt werden, damit Systemadministratorinnen rapide Entscheidungen bezüglich der generierten Alarme treffen können. Um dies zu gewährleisten sollen neben den IDS zusätzlich entsprechende Visualisierungstools evaluiert werden. In dieser Arbeit werden dazu unterschiedliche signatur- sowie auch anomaliebasierte Netzwerk- und Host-IDS technisch beschrieben und anhand von Kriterien, welche aus den Anforderungen abgeleitet werden, bewertet. Zusätzlich wird die Genauigkeit der IDS durch Testen von spezifischen Angriffen ermittelt. Außerdem werden potenzielle Tools für die Darstellung von Alarmen aus den IDS vorgestellt und ebenfalls anhand den Anforderungen aufgezeigt, welches am geeignetsten ist. Abschließend werden alle Probleme sowie Erkenntnisse aufgezeigt, welche während der Evaluierung auftraten und erläutert, wie diese Arbeit fortgeführt werden kann.