Refine
Year of publication
Document Type
- Article (450)
- Master's Thesis (412)
- Conference Proceeding (396)
- Part of a Book (231)
- Book (107)
- Report (28)
- Other (18)
- Doctoral Thesis (14)
- Working Paper (9)
- Preprint (5)
Institute
- Wirtschaft (350)
- Forschungszentrum Mikrotechnik (253)
- Technik | Engineering & Technology (194)
- Forschungszentrum Business Informatics (168)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (164)
- Soziales & Gesundheit (145)
- Forschungsgruppe Empirische Sozialwissenschaften (117)
- Forschungszentrum Human Centred Technologies (102)
- Forschungszentrum Energie (88)
- Didaktik (mit 31.03.2021 aufgelöst; Integration ins TELL Center) (68)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Soziale Arbeit (15)
- Digitalisierung (14)
- Controlling (11)
- Laser ablation (11)
- Y-branch splitter (11)
- arrayed waveguide gratings (11)
- +KDC 122 (9)
In this thesis the effect of dc voltage bias on the equivalent series resistance (ESR) of capacitors and especially ferroelectric dielectric ceramic capacitors (FDCC) is analysed. Further the influence of the dc biased ESR on the losses of capacitors is investigated. Also piezoelectric resonances (PR) occurring in FDCCs with applied dc bias and their influence on the losses are analysed.
Therefore a measurement circuit to measure the impedance and thus the ESR of capacitors in combination with a vector network analyser (VNA) is developed. Using the developed circuit the ESR of capacitors of different technologies is measured and their behaviour with dc bias is evaluated. The losses of an FDCC are measured in a power electronic (PE) circuit with a developed calorimetric measurement system (CMS). The influence of the PR is investigated by tuning the switching frequency of the PE system and thus the frequency of the capacitor current exactly into the PR. The measured losses are then compared to a calculation based on the capacitor current harmonics and the respective ESR.
The measurements show an increase of the ESR with dc bias for all measured FDCCs. The loss measurements show a significant increase of the losses in an FDCC if the current frequency matches the PR frequency. Consequently a decrease of the PE system's efficiency is measured. The loss calculations do not exactly match the measurements but there is a systematic deviation of the same order for all measurements.
Die vorliegende Arbeit beschreibt eine Methode zur Prognose von Anomalien in einzelnen Sensordaten für die Anwendung in Expertensystemen im Bereich der Biomassekraftwerke. Die in fünf Schritten beschriebene Methode beinhaltet neben der Datenaufbereitung eine Anomalievorauswahl durch eine unüberwachte Ausreißererkennung, welche mittels des PYOD-Toolkit umgesetzt wurde. Bei der anschließenden Anomaliebestimmung wird der zuvor generierte binäre Zielvektor durch einen mit dem System vertrauten Experten validiert. Eine darauffolgende überwachte binäre Klassifikation mit unbekannten Betriebsdaten ergibt, dass mittel- bis langfristige Anomalien im Mehrstunden- bis Mehrtagesbereich in Form eines Trends reproduktiv vorhergesagt werden können. Kurzfristige Anomalien im Minutenbereich in Form von Extremfällen können hingegen nicht reproduktiv vorhergesagt werden. Eine zusätzliche Untersuchung zur Vorhersage einer Anomalie noch vor deren tatsächlichen Eintrittszeitpunkt brachte keine zufriedenstellenden Ergebnisse. Demnach lässt sich mit dieser Methode nur eine bestimmte Art von Anomalien in Expertensystemen für Biomassekraftwerke vorhersagen. Dazu sollte zudem darauf geachtet werden, dass es trotz positiv erzielter quantitativer Ergebnisse notwendig ist, für die qualitative Prüfung einen mit dem System vertrauten Experten hinzuzuziehen und dass für die zu prognostizierende Anomalie die geeignete Abtastzeit zu wählen ist. Abschließend bleibt zu erwähnen, dass Anomalien, welche nur durch Über- bzw. Unterschreitung eines definierten Grenzwertes gekennzeichnet werden, als zu trivial für diese Methode gelten. Diese können über eine einfache Grenzwertbetrachtung identifiziert werden.
In den letzten Jahrzehnten gewann Aluminium als vielseitig einsetzbarer Werkstoff immer mehr an Bedeutung. Das Vorarlberger Unternehmen Hydro Extrusion Nenzing ist Teil der Aluminiumverarbeitungsindustrie und stellt stranggepresste Aluminiumprofile her. Beim Strangpressen werden Aluminiumstangen in einem Durchlaufinduktionsofen auf bis zu 520 °C erhitzt und anschließend durch ein formgebendes Werkzeug gepresst. Nach dem induktivem Aufwärmen wird ein Teil der Stange aus dem Ofen gefahren und abgeschert. Die erzeugte Temperaturverteilung an diesem abgescherten Bolzen ist der sogenannte Taper. Das induktive Aufwärmen ist ein wichtiger Teil der Extrusion und steht im Fokus dieser Forschungsarbeit. Ziel dieser Arbeit ist es, den Aufwärmprozess der Aluminiumstangen, mithilfe einer Kombination aus explorativer Datenanalyse und Methoden des maschinellen Lernens, genauer zu verstehen und den resultierenden Taper vorherzusagen. Außerdem werden parallel die signifikanten Einflussparameter, ohne Berücksichtigung von Materialparametern, untersucht.
Nach der explorativen Datenanalyse wurden mithilfe eines k-means-Clusterverfahren zwei Klassifizierungsvarianten entwickelt. In der ersten Variante liegen die Taper nach ihrer Bolzenlänge und Form gegliedert vor. Es zeigte sich, dass die Taper der Bolzen mit ähnlicher Länge auch ähnliche Formen annehmen. Ein einfacher Entscheidungsbaum konnte die 13 Zielklassen zu etwa 85 % vorhersagen. Die Bolzenlänge spielt bei der Vorhersage eine wichtige Rolle. Die zweite Klassifizierungsvariante basiert hingegen ausschließlich auf der Taperform. Die angewendeten Modelle (k-Nearest-Neighbor, Decision Tree, Random Forest) waren jedoch kaum in der Lage, die 11 Klassen abzubilden. Grund für die unzureichende Vorhersageleistung können die vielen Unsicherheiten in der Datenstruktur sein. Die anschließende detaillierte, explorative Analyse der formabweichenden Taper deutet fehlende Merkmale im Datensatz an. Einige Bolzen setzen sich aus zwei Stangenenden zusammen. Diese geteilten Bolzen führen zu abweichenden Aufwärmverhalten, wodurch auffällige Taper entstehen. Die Information ob sich ein Bolzen aus zwei Stangen zusammensetzt fehlt jedoch im Datensatz. Der Aufwärmvorgang der Stangen wird demnach durch ein Wechselspiel der aktuellen Regelung und zwei maßgeblichen Faktoren beeinflusst: die Bolzenlänge und das Auftreten von geteilten Bolzen. Diese Faktoren bestimmen die Stangentemperatur im Ofen, den induzierten Strom und somit den resultierenden Taper. Aufgrund dieser Ergebnisse könnte die temperaturbasierte Regelung zukünftig durch eine Steuerung hinsichtlich des induzierten Stroms ersetzt, dadurch Energie eingespart und Schrott vermieden werden.
In Europa und den USA werden rund 39 % des Energieverbrauchs durch den Betrieb von Gebäuden verursacht. Sie bieten somit großes Potential, den Gesamtenergieverbrauch zu verringern. Eine sinnvolle Möglichkeit dieser Umsetzung, ohne auf Gebäudekomfort verzichten zu müssen, liegt in der Optimierung der Gebäudeeffizienz. Dahingehend werden physikalische und datenbasierte Modelle als Planungstool für die Gebäudemodellierung verwendet, um frühzeitig Erkenntnisse über deren Energieverbrauch zu gewinnen. Während physikalische Modelle thermodynamische Prinzipien zur Modellierung des Energieverbrauchs einsetzen, verwenden datenbasierte Modelle historische oder allgemein verfügbare Daten, um ein Vorhersagemodell zu entwickeln. Das Ziel dieser Arbeit ist die Erstellung eines datenbasierten Modells, zur Prognose des Energieverbrauchs der Beleuchtung von Bürogebäuden. Es wurden bereits zahlreiche Studien hinsichtlich Prognosen des Energieverbrauchs erstellt. Die meisten beziehen sich jedoch auf den Gesamtenergieverbrauch oder jenen, welcher für Heizung, Kühlung oder Klimatechnik aufgewendet wird. Die Recherche des Autors ergab, dass vergleichsweise wenig Forschung für Vorhersagemodelle zur Ermittlung des Energieverbrauchs für die Beleuchtung betrieben wurde. Zur Umsetzung der Analyse stehen dem Autor Daten aus der Beleuchtungsinfrastruktur sowie Wetter-, Zeit- und Gebäudedaten zur Verfügung. Anhand dieser Arbeit soll eruiert werden, ob diese Daten hinreichend aussagekräftig sind, um ein geeignetes Modell zu entwickeln.
Das Energieinstitut Vorarlberg hat zusammen mit mehreren Regionen in Vorarlberg das Sanierungslotsenprojekt gestartet, um die Beratungssituation bei der Gebäudesanierung zu verbessern. Durch wiederholten Kundenkontakt wurde festgestellt, dass es ein Beratungsdefizit für Besitzer älterer Einfamilienhäuser gibt. Zwischen der Erkenntnis, dass eine Sanierung des Gebäudes notwendig ist und dem Zeitpunkt, an dem die ersten Leistungen bestellt werden, gibt es keine sachkundige Betreuung in den Fragestellungen der zukünftigen Gebäudenutzung. In den bisher angebotenen Beratungen werden zwar auch unterschiedliche Sanierungsvarianten miteinander verglichen. Jedoch bezieht sich der Vergleich auf Variationen von Sanierungsmaßnahmen, wie beispielsweise Dämmstoff - und Fensterqualität oder die Auswahl eines Heizungssystems. Darüber hinaus gehende Fragen über altersgerechtes Wohnen, Generationenwohnen, Nachverdichtung und Vermietung werden in diesen Beratungen nicht behandelt. In allen Fragen der zukünftigen Nutzung und den zukünftigen Anforderungen an das Gebäude, den darauf abgestimmten Sanierungszielen und der zugehörigen Kostenschätzung mit Finanzierungsberechnung sind die Besitzer auf sich gestellt.
Deshalb ist der Bedarf nach einem einfachen Rechentool, welches in einer frühen Phase der Sanierungsberatung, eine schnelle Berechnung der in Betracht kommenden Sanierungsvarianten ermöglicht, entstanden. In dieser frühen Phase ist es bislang nicht üblich eine Kostenschätzung abzugeben. Für diese Berechnungen wird eine Datenbank mit Sanierungs - und Umbaukostenelementen benötigt, sodass mit einer abgesicherten Basisdaten kalkuliert werden kann.
In der vorliegenden Masterarbeit werden eine auf Microsoft Excel basierende Datenbank und das dazugehörige Rechentool vorgestellt, die die beschriebenen Anforderungen erfüllen. Mit Hilfe der Datenbank wird eine Grundlage geschaffen, an denen sich die Sanierungslotsen orientieren können. Zusätzlich zu den Netto- und Bruttokosten, die bei den einzelnen Sanierungsmaßnahmen anfallen, werden auch Einheitskosten angegeben, die in das Rechentool eingetragen werden können.
Das Rechentool ermöglicht den Vergleich von fünf unterschiedlichen Sanierungsvarianten. Durch die freie Eingabe der Flächen können auch Varianten mit unterschiedlichen Nutzungskonzepten und unterschiedlichen Grundrissen verglichen werden. Neben einer Grobkostenrechnung der Sanierungskosten erfolgt im Tool auch die Berechnung der Förderung laut der Wohnaussanierungsrichtlinie und Energieförderungsrichtlinie des Landes Vorarlberg. Weitere Förderungen können als Einmalzuschüsse eingetragen werden. Eine vereinfachte Wirtschaftlichkeitsbetrachtung erfolgt über die Berechnung der Finanzierung der Sanierung. Hierbei werden auch Einnahmen durch Vermietung berücksichtigt.
Minuten können in medizinischen Notfällen unmittelbar die Anwendbarkeit von Behandlungsmethoden, das Ausmaß von bleibenden Einschränkungen sowie die Überlebenschancen beeinflussen. Doch hat das präklinische Notfallmanagement heute mit steigenden Einsatzzahlen, zunehmenden Einsätzen ohne Dringlichkeit und dem demografischen Wandel bei gleichzeitigem Fachkräftemangel zu kämpfen. Entsprechend gewinnt das Prozessmanagement zur Gestaltung effizienter Rettungsketten an Bedeutung. Vor diesem Hintergrund ging die vorliegende Arbeit der Frage nach, welche Potentiale die Datenanalytik in vernetzten Rettungsketten für das Prozessmanagement hat, um wertvolle Zeit zu gewinnen. Zudem wurden die Herausforderungen der Datenanalytik in diesem Bereich betrachtet. Zur Beantwortung der Forschungsfrage wurde dabei eine theoretisch-konzeptionelle Vorgehensweise gewählt. Die Untersuchung zeigte, dass die Potentiale der Datenanalytik in diesem Kontext in der Entscheidungsunterstützung zur Standortwahl, zur Kapazitätsplanung und in der Abwicklung von Notfällen liegen. Zudem könnte diese bei der Prozessanalyse, sowie der Prävention und Vermeidung von Einsätzen unterstützen. Dahingegen liegen die Herausforderungen in der Notwendigkeit einer übergeordneten Strategie, der hinreichenden Datenqualität und Verfügbarkeit der Daten. Darüber hinaus bestehen Herausforderungen im Bereich der IT-Sicherheit und des Datenschutzes, sowie der oft fehlenden Vernetzung. Zusammenfassend wären die Potentiale der Datenanalytik zur Optimierung der Zeit in Rettungsketten vielversprechend, jedoch stehen dem Einsatz dieser aktuell noch eine Vielzahl an Herausforderungen gegenüber.
Im vorliegenden Paper wird ein Vergleich zwischen Produktions-und Simulationsdaten präsentiert welches im Rahmen einer größeren Initiative zur Verwendung von Shopfloor Daten bei einem Projektpartner in der Automobilindustrie umgesetzt wurde. In diesem Projekt wurden die Daten die während der Füllbildsimulation entstehen mit den Daten aus der finalen Werkzeugabnahme verglichen um zu analysieren, wie genau diese miteinander über einstimmen. Je besser die Simulation ist, desto schneller kann der gesamte Werkzeugentwicklungsprozess abgewickelt werden, welcher als Kernprozess massives Einsparungspotenzial und damit Wettbewerbsvorteil mit sich bringt.
Daten im B2B-Ökosystem teilen und nutzen: Wie KMU Voraussetzungen schaffen und Hürden überwinden
(2024)
«Big Data» haben ein großes Potenzial, um die Wertschöpfung effizienter zu gestalten oder um Innovationen hervorzubringen. Daten werden oft an der Schnittstelle zwischen mehreren Akteuren in Business-to-Business-Ökosystemen generiert und sie müssen zwischen den Akteuren geteilt werden. Unternehmen tun sich jedoch schwer damit, Daten in Werte zu transferieren und die Daten im Ökosystem zu teilen. Ursächlich sind weniger technische Gründe als organisationale Rahmenbedingungen. Der Beitrag identifiziert fünf Perspektiven, die Hürden und Voraussetzungen in diesem Prozess darstellen: (1) eine datengetriebene Organisationskultur, (2) Vertrauen zwischen den Akteuren, (3) die Konkretisierung des Wertes von Daten, (4) Datensicherheit und (5) rechtliche und Governance-Aspekte. Eine Fallstudie eines typischen Daten-Ökosystems um ein produzierendes KMU konkretisiert diese Voraussetzungen und Hürden. Es zeigt sich, dass sich Unternehmen, die Daten im Ökosystem teilen möchten, ganzheitlich verändern müssen.
The purpose of an energy model is to predict the energy consumption of a real system and to use this information to address challenges such as rising energy costs, emission reduction or variable energy availability. Industrial robots account for an important share of electrical energy consumption in production, which makes the creating of energy models for industrial robots desirable. Currently, energy modeling methods for industrial robots are often based on physical modeling methods. However, due to the increased availability of data and improved computing capabilities, data-driven modeling methods are also increasingly used in areas such as modeling and system identification of dynamic systems. This work investigates the use of current data-driven modeling methods for the creation of energy models focusing on the energy consumption of industrial robots.
For this purpose, a robotic system is excited with various trajectories to obtain meaningful data about the system behavior. This data is used to train different artificial neural network (ANN) structures, where the structures used can be categorized into (i) Long Short Term Memory Neural Network (LSTM) with manual feature engineering, where meaningful features are extracted using deeper insights into the system under consideration, and (ii) LSTM with Convolutional layers for automatic feature extraction. The results show that models with automatic feature extraction are competitive with those using manually extracted features. In addition to the performance comparison, the learned filter kernels were further investigated, whereby similarities between the manually and automatically extracted features could be observed. Finally, to determine the usefulness of the derived models, the best-performing model was selected for demonstrating its performance on a real use case.
Das Forschungsprojekt Data Sharing Framework untersuchte Data Sharing im Kontext von datenbasierten Services und Produkten in Ökosystemen aus fünf Perspektiven: Kultur, Vertrauen, Wert, Recht & Governance, Sicherheit. Die Forschungsergebnisse bestätigen die Relevanz dieser Perspektiven und es hat sich gezeigt, dass diese Aspekte sowohl Barrieren als auch Treiber für Datennutzung und -austausch zwi- schen Unternehmen darstellen.
Ausgangspunkt waren die folgenden forschungs- und praxisleitenden Annahmen:
• These 1: KMU können durch die Nutzung und das
Teilen von Daten Mehrwerte in Form neuer Produkte und Services generieren. Aus wissenschaftlicher Sicht liegt der Fokus des Themas Daten und Data Science bisher überwiegend auf der technischen Umsetzung datenintensiver Geschäftsmodelle und Kooperationen durch die Unternehmen.
• These 2: Die technische Umsetzung ist eine notwendige Bedingung für die datenbasierte Leistun- gen, sie reicht jedoch nicht aus, um eine Kooperations- und Teilbereitschaft bei KMU hinsichtlich ihrer Daten (Daten-Teilbereitschaft) auszulösen. Zahlreiche Stakeholder zögern, Daten zu teilen, vor allem in einem grenzüberschreitenden Kontext, wie z.B. in der Programmregion.
• These 3: KMU benötigen Data Access und Data Trust Strukturen, um mögliche Kooperationspotenziale tatsächlich zu heben. Dies erfordert u.a. gemeinsa- me Standards, ein annäherndes Verständnis vom Wert der Daten, Data-Governance in Kombination mit zu definierenden Trust-Standards, welche die erforderliche formelle und informelle Sicherheit bieten.
Nachfolgend wird ein Überblick über die hieraus hervorgegangenen Ergebnisse gegeben:
Kultur
Die Perspektive der Organisationskultur stellt das Denken und Handeln im Unternehmen und im Ökosystem in den Mittelpunkt. Eine Organisationskultur, welche die Arbeit mit Daten, Data Science Praktiken und vor allem das Teilen von Daten ermöglicht, stellt Daten in den Mittelpunkt des Wertschöpfungsprozesses. Dies erfordert eine generelle Sensibilisierung
für das Thema Daten, durchlässige Grenzen im und zwischen Unternehmen, ebenso wie ein neues Verständnis von Rollen, Strukturen und Prozessen im Unternehmen.
Vertrauen
Das Vertrauen ist im Ökosystem von großer Bedeutung. Das Einbeziehen von internen Stakeholdern und das Starten mit kleineren Pilotprojekten wird vorgeschlagen, um Vertrauen innerhalb der Organisation und mit externen Partnern zu schaffen.
Wert
Als notwendige Voraussetzung wird der Wert der Daten hervorgehoben. Unternehmen sollten den potenziellen Wert der Datenflüsse kennen, bevor sie sich entscheiden, ob sie diese Daten teilen und nutzen möchten. Es wird empfohlen, eine grobe Quanti- fizierung des Wertflusses vorzunehmen oder gegebe- nenfalls eine detailliertere Analyse durchzuführen.
Recht & Governance
Für die Berücksichtigung rechtlicher Rahmenbedingungen gemeinsamer Datennutzung sollten Organisationen zunächst eine interne Data Governance etablieren, um auf neue regulatorische Entwicklungen reagieren zu können. Die Einrichtung von Data-Asset-Management, Data-IP und -Compliance-Ma-nagement und Data-Contract-Management wird hier empfohlen.
Datensicherheit
Im Sicherheitskontext sind Methoden zur Gewährleistung der Datenintegrität, Privatsphäre und Sicherheit entscheidend. Es wird empfohlen, einen kollaborativen Ansatz zur Implementierung von Sicherheitsstandards zu verfolgen und dabei IKT-Experten einzubeziehen. Anfänglich können Best Practices ausreichen, aber längerfristig sollte eine kontinuierliche Sicherheitsrisikobewertung und Ge- schäftsprozessintegration angestrebt werden.
Daten werden heute oft auch als das «neue Gold» bezeichnet. Denn die letzten Jahre haben gezeigt, dass Daten die Grundlage erstaunlicher unter- nehmerischer Erfolgsgeschichten sein können. Dabei ist die Arbeit mit Daten nicht grundlegend neu. Vielmehr geht es heute im Vergleich zu früher um nahezu unendlich grossen Mengen an Daten, die im Rahmen nahezu aller denkbaren Prozesse oder Schnittstellen gesammelt, gespeichert und ausgewertet werden können. Unter anderem beinhaltet dies Maschinendaten, unternehmens- interne Prozesse oder Daten über Kunden und den Markt, welche die Grundlage für lernende Systeme (Künstliche Intelligenz) bilden. Wir können heute davon ausgehen, dass künftig nicht mehr die technische Machbarkeit, sondern die mensch- liche Vorstellungskraft die Grenzen des Möglichen definiert.
Bekannt sind vor allem etliche Erfolgsgeschichten von Grossunternehmen, die ihr Geschäft auf Daten aufbauen. Etablierte KMU sind hingegen noch zögerlicher, mit Daten zu arbeiten und diese wertschöpfend einzusetzen. Diese Broschüre geht auf die besondere Situation von KMU im Umgang mit Daten und Data Science ein. Denn auch für KMU kann es lohnend oder sogar zwingend notwendig sein, sich mit dem Thema «Data Science» zu beschäftigen. Daten und Data Science bieten grosse
Chancen, sie können aber auch zu einer Bedrohung im Wettbewerb werden. Und, zu lange warten sollten KMU nicht, die Zeit drängt. Denn Geschwindigkeit ist einer der zentralen Wettbewerbsfaktoren im digitalen Zeitalter. Das IBH-Lab KMUdigital unter- stützt KMU dabei, den herausfordernden Weg in eine digitale Zukunft schneller und einfacher zu gehen.
Diese Broschüre geht daher insbesondere auf die Rolle von Daten und Data Science für KMU in der Bodenseeregion ein. Sie stellt eine Zusammen- fassung ausgewählter Erkenntnisse und Handlungs- empfehlungen dar, die wir in einem zweijährigen Forschungsprojekt gemeinsam mit 16 Unternehmen aus der Bodenseeregion gewinnen konnten. Die Erkenntnisse sollen KMU bei der Nutzung von Daten anhand von Data Science unterstützen. Dabei ist es kein Ziel, dass KMU zu einem «kleinen Google» werden. Vielmehr braucht es KMU- spezifische Lösungen und Überlegungen, wie mit Daten sinnvoll, zielorientiert und ressourcen- schonend umgegangen werden kann. Wie kann das aussehen? Welche Chancen, Herausforderungen und Lösungen bieten sich KMU vor dem Hinter- grund ihrer besonderen Situation? Was muss dazu im Unternehmen verändert werden? Welche Unterschiede bestehen im Vergleich zu Gross- unternehmen auf diesem Weg?
Diese und weitere Fragen stehen im Mittelpunkt des vorliegenden Projektberichts zum Einzelprojekt «Data Science für KMU leicht gemacht» oder kurz «Data Science 4 KMU» bzw. «Data4KMU», welches unter dem Dach des IBH-Labs KMUdigital in den Jahren 2018 bis 2019 durchgeführt wurde. Dazu werden Daten und Data Science aus mehreren Perspektiven betrachtet, die nicht unabhängig voneinander sind: Strategie und Geschäftsmodell, Services und Prozesse, Leadership, HRM und
Organisation, Organisationskultur und Ganzheitichkeit, sowie Technologie. Diese Perspektiven greifen wir in den nachfolgenden Kapiteln auf.
Die vorliegende Broschüre wäre ohne die wertvolle Unterstützung der Praxispartner des Projektes, des Managements des IBH-Labs KMUdigital sowie ohne die finanzielle Projektförderung durch die Inter- nationale Bodenseehochschule (IBH) und Interreg nicht möglich gewesen. Ihnen allen gilt unser ganz besonderer Dank!
In den letzten Jahren wurde den technischen Aspekten der Datenanalyse viel Aufmerksamkeit gewidmet, den organisatorischen Implikationen jedoch nur wenig, was dazu geführt hat, dass eine Reihe von Unternehmen nicht in der Lage war, den vollen Nutzen aus ihren Data Analytics-Investitionen zu ziehen was u.a. dazu führte das die Potenziale von Data Analytics nicht vollständig ausgeschöpft wurden. Ziel dieser Arbeit ist es, die organisatorischen Herausforderungen aus der Sicht des Managements, der Kultur und der Organisation zu beleuchten und unter der theoretischen Orientierung des „Dynamic Capability View“ die Haupttreiber für die organisatorische Verankerung von Data Analytics zu beleuchten, um die Potenziale der evidenzbasierten Entscheidungsfindung in einer datengetriebenen Organisation voll auszuschöpfen. Die Literaturarbeit zu Data Analytics und ihren organisatorischen Auswirkungen, die auf der Grundlage einer theoretisch-konzeptionellen Forschungsarbeit durchgeführt wurde, zeigt, dass es in diesem Kontext eine Vielzahl von Parametern gibt, die sich gegenseitig beeinflussen. Diese Studie hat gezeigt, dass Unternehmen einen ganzheitlichen Ansatz verfolgen müssen, um die Vorteile der modernen Data-Analytics-Methoden voll ausschöpfen zu können. Die Ergebnisse deuten darauf hin, dass die Hauptantriebskräfte für Datenanalysefähigkeiten gut ausgebildete Manager mit einem ausgeprägten analytischen Verständnis sind, die von klar definierten evidenzbasierten Prozessen geleitet werden, welche in einer hoch kultivierten datengetriebenen Kultur eingebettet sind. Dies ist die Grundlage für Wettbewerbsvorteile in hochdynamischen Umgebungen und führt in weiterer Folge zu einem höheren Niveau der Wertschöpfung.
Um Data Analytics gezielt und effektiv einzusetzen, gilt es als wichtig, die organisationale Reife eines Unternehmens in Bezug auf die Umsetzung von Data Analytics zu messen und zu verstehen. Da viele Unternehmen allerdings noch nicht bereit für die Implementierung von Supply Chain Analytics sind, benötigen sie ein Tool mit dem die eigene organisationale Reife gemessen und verbessert werden kann. Dafür wird in dieser Arbeit ein Readiness-Assess- ment-Framework entwickelt, das die organisationale Reife eines Unternehmens bestimmt und mittels ergänzendem Leitfaden Möglichkeiten zur Optimierung der eigenen Reife aufzeigt. Die Besonderheit dieses Assessments liegt in der Aufteilung in einzelne organisationale und tech- nologische Kategorien sowie deren Erfolgsfaktoren. Der Aufbau dieser Arbeit folgt dem De- sign-Science-Ansatz von Peffers et al. (2006). Mittels eines Literature Reviews und Expert:in- neninterviews wurden die Kategorien und Erfolgsfaktoren für das Assessment identifiziert und verifiziert. Nach der Entwicklung des Assessments wurde in einem Workshop die Praxistaug- lichkeit des Frameworks überprüft. Abschließend werden Ansatzpunkte für künftige Weiter- entwicklungen des Frameworks dargestellt.
Interne Kontrollsysteme helfen Unternehmen bei der Steuerung und Überwachung risikobehafteter Prozesse und sind für Unternehmen bestimmter Größe und Rechtsform sogar verpflichtend. Der Gedanke eines spezifischen internen Kontrollsystems für Steuern ist dagegen recht neu. Da der Staat ein starkes Interesse an der korrekten und möglichst umfassenden Unternehmensbesteuerung hat, wurde das Prinzip des Horizontal Monitorings aufgegriffen und zur Begleitenden Kontrolle weiterentwickelt. Diese tritt anstelle der sonst üblichen Außenprüfung durch das zuständige Finanzamt. Zielgruppe für die begleitende Kontrolle sind besonders große, in Österreich ansässige Unternehmen und Unternehmensgruppen. Ein wesentliches Kriterium, um die begleitende Kontrolle beantragen zu können, ist das Vorhandensein eines funktionstüchtigen steuerlichen internen Kontrollsystems. Die Arbeit beschäftigt sich mit der Gestaltung und Funktionsweise eines steuerlichen internen Kontrollsystems, wie es für die begleitende Kontrolle erforderlich ist. Es thematisiert die für ein Unternehmen damit verbundenen Vor- und Nachteile, sowohl für das steuerliche interne Kontrollsystem selbst als auch die begleitende Kontrolle und vorhandenes Entwicklungspotenzial.
Das semantische Differential am Beispiel einer Untersuchung zu Food Design in der Werbefotografie.
(2015)
Das Nugget-Chart
(2022)
Das Modellprojekt „Caritas Care – Betreuung zuhause“ wurde 2012 in einer Kooperation der Caritas Schweiz und der Caritas Alba Iulia (Transsylvanien/Rumänien) ins Leben gerufen. Damit sollte ein Modell geschaffen werden, welches einerseits dem wachsenden Markt der „Betreuung zuhause“ in der Schweiz entgegenkommt, aber andererseits fairere Arbeitsbedingungen für die Betreuungspersonen vorsieht. Fairness sollte durch einen Versicherungsschutz der Arbeitskräfte, Weiterbildungsmöglichkeiten und ein Entgelt, das mit anderen Arbeitsverhältnissen vergleichbar ist, sowie dank klar abgegrenzter Arbeits-, Präsenz- und Freizeit erreicht werden. Die Umsetzung erfolgt folgendermaßen: Angestellte Betreuungs- und Pflegefachkräfte der Caritas Alba Iulia können für sechs Wochen bis zu drei Monaten in die Schweiz gehen, um dort in Privathaushalten hilfsbedürftige Menschen zu unterstützen (Live-in-Betreuungen). Sie werden während dieser Zeit von der Caritas Schweiz angestellt. Danach kehren die Betreuenden wieder in ihr Anstellungsverhältnis bei der Caritas Alba Iulia zurück. Es wird sozusagen Personal „verliehen“. Damit soll einem Verlust von qualifiziertem Betreuungs- und Pflegepersonal durch Abwanderung aus Rumänien entgegengewirkt werden. Im Rahmen des studiengangsübergreifenden, interdisziplinären Kontextstudiums der Masterstudiengänge der Fachhochschule Vorarlberg (Österreich) hat sich eine Gruppe Forschender zum Ziel gesetzt, dieses Modellprojekt forscherisch zu erkunden. Wir wollten wissen, wie dieses Live-in-Betreuungsangebot nach zehn Jahren Laufzeit funktioniert. Insbesondere interessierten uns die Erfahrungen der rumänischen Betreuer:innen und ihrer Angehörigen sowie der projektverantwortlichen Leitungspersonen in der Caritas Alba Iulia und der Caritas Schweiz. Im Rahmen einer Feldforschungswoche im Juli 2022 in Transsylvanien/Siebenbürgen wurden 28 formelle Interviews mit Projektverantwortlichen, Betreuern/Betreuerinnen und deren Angehörigen durchgeführt. Zusätzlich wurden Dokumente und Feldnotizen sowie Gedächtnisprotokolle von informellen Gesprächen mit Personen der extramuralen Einrichtungen in Rumänien in die Auswertung integriert. Die Auswertung erfolgte inhaltsanalytisch.
Das Kreisgespräch
(2023)
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
Die vorliegende Arbeit lässt sich im Bereich der Bonitätsbewertung einordnen. Es gibt bisweilen kein gängiges System, mit welchem eine Debt Capacity oder eine Bonitätsbewertung ermittelt wird. In der Praxis erfolgt oftmals die Vereinfachung dieser Bewertung anhand des EBITDA. Mit dieser Arbeit soll untersucht werden, ob diese Vereinfachung sinnvoll ist. Dazu werden neben dem EBITDA auch der Free Cashflow und die Debt Capacity von Unternehmen genauer untersucht. Für 69 Unternehmen werden die Jahresabschlussdaten und Credit Ratings der Big Three zusammengestellt. Anhand der Korrelations- und Regressionsanalyse werden die Werte verglichen. Das EBITDA unterliegt dem Free Cashflow sowohl bei der Abschätzung der Debt Capacity als auch bei der Ermittlung von Credit Ratings. Beide besitzen jedoch zu wenig Aussagekraft, um nur aufgrund dieser Daten Managemententscheidungen treffen zu können. Die Vereinfachung kann in dieser Form nicht unterstützt werden, und es sollte immer eine detailliertere Prüfung vorgezogen werden. Es gibt jedoch statistisch signifikante Zusammenhänge, weshalb das EBITDA und der Free Cashflow zumindest einen Anhaltspunkt für die Bewertung bieten können.
Das CIRCU-Modell
(2016)
Das Circu
(2016)
Das CIRCU
(2016)
D'Activism
(2021)
Durch die zunehmende Digitalisierung an deutschen Schulen hat auch die damit einhergehende Medienbildung an Relevanz gewonnen. Dabei soll die Schule als zentraler Ort der Bildung ihren Schüler:innen ermöglichen, die medial gemachten Erlebnisse im Unterricht zu thematisieren. Die damit eng verbundene Digital Literacy umfasst Kompetenzen, um die digitale Lebenswelt der Schüler:innen und Lehrkräfte zu reflektieren und sich als aktives Mitglied der Gesellschaft auf einer gesicherten Informationsbasis im digitalen Lebensraum bewegen zu können.
In dieser Arbeit wird der Frage nachgegangen, wie Digital Literacy fächerübergreifend für die Zielgruppe der Lehrkräfte und Schüler:innen der gymnasialen Mittel- und Oberstufe in Baden-Württemberg gefördert werden kann. Dabei wird folgenden Forschungsfragen nachgegangen: (1) Welche ‹Digital Literacies› sollen in Schulen von Lehrkräften und Schüler:innen erworben werden? (2) Wie kann ‹Digital Literacy› fächerübergreifend in den Unterricht integriert werden? (3) Wie kann ein Produkt konzipiert, umgesetzt und evaluiert werden, das die fächerübergreifende Förderung der ‹Digital Literacy› ermöglicht?
Für die Beantwortung wurden theoretische Erkenntnisse, darunter bildungspolitische Bestimmungen und Konzeptpapiere, Medienkompetenzmodelle und spieltheoretische Ansätze beleuchtet sowie leitfadengestützte Experteninterviews durchgeführt. Anhand dieser wurden spezifische Anforderungen für die fächerübergreifende Konzeption eines modularen Educational Games abgeleitet, welches umgesetzt und anhand des Anwendungsszenarios ‹Körperbilder auf Sozialen Medien› evaluiert wurde. Die Ergebnisse der Evaluation zeigten neben einem hohen Motivations- und Spaßfaktor durch die integrierten Spielelemente auch das Interesse der Schüler:innen und Lehrkräfte. Außerdem förderte das Educational Game die Reflexionskompetenz sowie die Übernahme und Auseinandersetzung mit unterschiedlichen Sichtweisen.
Diese Arbeit leistet damit einen Beitrag zur Schließung der Forschungslücke zu Digital Literacy im Schulbereich im deutschsprachigen Raum und stellt gleichzeitig ein Educational Game zur Verfügung, welches die Vermittlung von Digital Literacy ohne spezifische technische oder digitale Kompetenzen ermöglicht.
Czech and Slovak social work
(2015)
Czech and Slovak social work
(2019)
Cultural Due Diligence
(2020)
Much research has been conducted in recent years to discover the reasons for the high failure rate of M&As, whereas one frequently cited reason is the incompatibility of the corporate cultures. In order to minimize this risk and to be able to react to these differences already at an early stage, Cultural Due Diligence offers itself as part of the due diligence process. Unlike existing, more general research, I emphasize the cultural challenges companies face when investing transnationally with this thesis. Using the results of a single case study with inductive character, I answer the question how to conduct Cultural Due Diligence in cross-border M&As and propose an appropriate model. The findings reveal that especially in cross-border M&As, cultural incompatibility poses a risk for failure. I was able to find out that companies that seek to grow internationally with M&As deal with similar issues in terms of corporate culture as pointed out in existing Cultural Due Diligence methods. The present study, however, shows that national culture has a great influence on corporate culture, which is why it is essential to include it in the cultural assessment in cross-border acquisitions. This provides information about why there are differences, besides the fact that they exist. Only this understanding puts a company in the appropriate starting position to recognize differences, understand them, assess whether these differ-ences are acceptable, as well as to develop appropriate strategies to address them in the integration phase.
Recently the use of microRNAs (miRNAs) as biomarkers for a multitude of diseases has gained substantial significance for clinical as well as point-of-care diagnostics. Amongst other challenges, however, it holds the central requirement that the concentration of a given miRNA must be evaluated within the context of other factors in order to unambiguously diagnose one specific disease. In terms of the development of diagnostic methods and devices, this implies an inevitable demand for multiplexing in order to be able to gauge the abundance of several components of interest in a patient’s sample in parallel. In this study, we design and implement different multiplexed versions of our electrochemical microfluidic biosensor by dividing its channel into subsections, creating four novel chip designs for the amplification-free and simultaneous quantification of up to eight miRNAs on the CRISPR-Biosensor X (‘X’ highlighting the multiplexing aspect of the device). We then use a one-step model assay followed by amperometric readout in combination with a 2-minute-stop-flow-protocol to explore the fluidic and mechanical characteristics and limitations of the different versions of the device. The sensor showing the best performance, is subsequently used for the Cas13a-powered proof-of-concept measurement of two miRNAs (miRNA-19b and miRNA-20a) from the miRNA-17∼92 cluster, which is dysregulated in the blood of pediatric medulloblastoma patients. Quantification of the latter, alongside simultaneous negative control measurements are accomplished on the same device. We thereby confirm the applicability of our platform to the challenge of amplification-free, parallel detection of multiple nucleic acids.
This paper sought to identify and analyze what are the barriers towards women career’s development as business leaders in Brazil and Nicaragua when it comes to the country societal variables. In order to comprehend these barriers through women’s perception, qualitative data was chosen for this investigation, which was gathered through one-to-one interviews within businesswomen from Brazil and Nicaragua that have experience in leadership positions. The results of this research confirm that societal, economic, and political factors have great influence at gender equality and in how it affects women’s progress as business leaders. Thus, it can vary considerably between countries, even when they have similar culture backgrounds. Furthermore, it is imperative to comprehend these differences in order to close any gender gap in the field.
The rapidly evolving nature of Industry 4.0 has confronted corporates with the challenge of being able to react rapidly and nimbly (Van Solingen, 2020). Hence, many corporates need to embark on a journey of adaptation toward becoming agile organisations (Schmitz, 2018). However, this adaptation can only be achieved if employees fully commit to changing to an agile posture, and the required commitment is simply not forthcoming without proper corporate initiatives (Neves & Caetano, 2009). As there is no holistic summary of corporate initiatives required to boost employees' commitment to change when approaching an agile transformation, this study supplements the current research. The initiatives are derived from the existing literature and from unique insights given into a European automotive supplier that is currently managing a global agile transformation. Employees’ perceptions of the transformation in Austria and China were recorded and conclusions regarding what drives employees’ commitment to change and what led to job terminations were determined.
Controlling im Bauprojekt
(2022)
Berühmte Beispiele zeigen, dass Bauprojekte Schwierigkeiten haben, im geplanten Zeit- und Kostenrahmen realisiert zu werden. Diese spezielle Art der Projekte ist individuellen Heraus- forderungen und Risiken ausgesetzt. Dem Controlling kommt im Bauprojekt eine besondere Bedeutung zu, da es helfen kann, diesen Herausforderungen zu begegnen. Das Controlling kann das Projektmanagement dabei unterstützen, die gesetzten Ziele zu erreichen und die Transparenz im Bauprojekt zu erhöhen.
Mithilfe der vorliegenden Arbeit wird versucht, Erfolgsfaktoren für das Controlling in Baupro- jekten zu identifizieren. Um diese Forschungsfrage zu beantworten, wurden leitfadengestützte Interviews mit 15 Beschäftigten von im Bauprojekt beteiligten Berufsgruppen geführt (3 Archi- tekt/-innen, 3 Fachplaner/-innen, 3 Bauunternehmer/-innen sowie 6 Projektleiter/-innen). Die Interviews decken die folgenden Bereiche ab: Herausforderungen von Bauprojekten, Projekt- controlling, Risikomanagement und Erfolgsfaktoren.
Die Nutzung des Controllings als zentrales Instrument zur Unternehmenssteuerung in der landwirtschaftlichen Branche in Österreich zeigt eine uneinheitliche Ausprägung. Während größere Betriebe das Controlling zur effektiven Steuerung einsetzen und dabei die Planung, Umsetzung und Anpassung betonen, vernachlässigen kleinere und mittlere Betriebe häufig die Nutzung von Controlling oder generellen Aufzeichnungen. Die Verwendung von Werkzeugen und Führungsinstrumenten variiert entsprechend den spezifischen Bedürfnissen und Rahmenbedingungen der Betriebe. Im Ackerbau spielt die langfristige Planung eine zentrale Rolle, während Gemüseanbaubetriebe Instrumente wie Liquiditätsplanung und Marktbeobachtung einsetzen. Tierhaltungsbetriebe führen interne Kalkulationen und Kostenabschätzungen durch. Auch die Planungsebenen und die Auswahl finanzieller Leistungskennzahlen unterscheiden sich in den landwirtschaftlichen Betrieben. Die Messung der wirtschaftlichen Ergebnisse erfolgt mittels verschiedener Methoden wie Gewinn- und Verlustrechnung, doppelter Buchhaltung und Einnahmen-Ausgaben-Rechnung. Externe Faktoren wie Wetterbedingungen, Marktpreise und politische Veränderungen beeinflussen die Geschäftstätigkeit landwirtschaftlicher Unternehmen. Es bestehen sowohl verschiedene Herausforderungen für die zukünftige Unternehmensführung als auch Chancen in den Bereichen Effizienzsteigerung, Smart Farming, Direktvermarktung und Anpassung an den Klimawandel und regionale Märkte. Landwirte zeigen eine Bereitschaft zur Innovation und Offenheit für neue Lösungsansätze.
Statistische Methodenkompetenz wird im Controlling zunehmend bedeutender, so ist die evidenzbasierte Prognose durch algorithmische Analyse von Datenbeständen ein Schwerpunkt von Controlling Analytics. Die Fallstudie durchleuchtet daher anhand von Datenmaterial des Schweizer Bundesamts für Statistik das Vorgehen bei einer Datenanalyse, insbesondere beim Einsatz der Zeitregression für Prognosezwecke, und geht dabei auf methodische Besonderheiten, Caveats und Einsatzmöglichkeiten in Microsoft Excel ein. Die Fallbeschreibung und Aufgaben sind im WiSt-Heft Nr. 4/23 zu finden.
Controlling Analytics: Einsatz für Prognosen im Controlling - Teil 1: Fallbeschreibung und Aufgaben
(2023)
Statistische Methodenkompetenz wird im Controlling zunehmend bedeutender, so ist die evidenzbasierte Prognose durch algorithmische Analyse von Datenbeständen ein Schwerpunkt von Controlling Analytics. Die Fallstudie durchleuchtet daher anhand von Datenmaterial des Schweizer Bundesamts für Statistik das Vorgehen bei einer Datenanalyse, insbesondere beim Einsatz der Zeitregression für Prognosezwecke, und geht dabei auf methodische Besonderheiten, Caveats und Einsatzmöglichkeiten in Microsoft Excel ein.
Continuous monitoring of interactive exhibits in museums as part of a persuasive design approach
(2021)
conflicto
(2021)
Im Arbeits- und Organisationsleben sind Konflikte alltäglich und meist unumgänglich. Menschen unterscheiden sich voneinander hinsichtlich Kompetenzen, Überzeugungen, Temperament und vieles mehr. Die Arbeit setzt jedoch voraus, dass man miteinander kooperiert, sich abstimmt und gemeinsam Entscheidungen trifft. Wenn man die Ziele einer Gruppe oder Organisation erreichen will, ist es wichtig, dass Konflikte vermieden und/oder erfolgreich und nachhaltig gelöst werden. Auf diesem Wege können alle im Sinne der Organisation handeln. Dadurch werden nicht nur wirtschaftliche Erfolge erreicht, sondern auch die individuelle Gesundheit, das Wohlbefinden und die Kompetenzentwicklung gefördert und sichergestellt.
Mit ‚conflicto‘ wird eine Ressource zur Vermeidung, Umgang und Bewältigung von Konflikten in Organisationen, in Form einer Internetseite mit integriertem Netzwerk von Expert*innen vorgestellt.
In der Arbeit wird die theoretische Verortung des Projekts, anhand umfangreicher Recherchen in der Konfliktforschungsliteratur vorgenommen. Nach empirischer Überprüfung der Relevanz und Wichtigkeit der Konfliktbewältigung sowie der Machbarkeit von ‚conflicto‘ wird die theoriegeleitete Konzeptentwicklung vorgestellt. Mittels SWOT Analyse werden die potentiellen Stärken und Chancen von ‚conflicto‘, sowie eventuelle Schwächen und Risiken aufgezeigt und besprochen.
Das ‚conflicto‘-Konzept vereint die gestalterischen Grundsätze Einfachheit, Ästhetik und Dynamik. Im Anschluss werden das Naming, die Logoentwicklung und das Formulieren der Slogans für beide Zielgruppen, die Farbgestaltung, die Typografie, die Grundstruktur der Webseite, sowie die Illustrationen/Animationen, die eine Besonderheit der Gestaltung von ‚conflicto‘ ausmachen, dargestellt und analysiert. Vollständig ausgearbeitete Screendesigns der Startseite von ‚conflicto‘ und zwei Unterseiten werden nebst der Print und online Bewerbungskonzepte vorgestellt und mit Mockups illustriert.
Als Abschluss folgt die Evaluation der UX Experience. Die empirischen Ergebnisse zeigen eine eineindeutige Überlegenheit des ‚conflicto‘ Gestaltungskonzepts im Vergleich mit traditionelle Gestaltungsvarianten.
Many test drives are carried out in the automotive environment. During these test drives many signals are recorded. The task of the test engineers is to find certain patterns (e.g. an emergency stop) in these long time series. Finding these interesting patterns is currently done with rule based processing. This procedure is very time consuming and requires a test engineer with expertise. In this thesis it is examined if the emerging field of machine learning can be used to support the engineers in this task. Active Learning, a subarea of machine learning, is used to train a classifier during the labeling process. Thereby it proposes similar windows to the already labeled ones. This saves the annotator time for searching or formulating rules for the problem. A data generator is worked out to replace the missing labeled data for tests. The custom performance measure “proportion of seen samples” is developed to make the success measurable. A modular software architecture is designed. With that, several combinations of Time Series Classification algorithms and query strategies are compared on artificial data. The results are verified on real datasets, which are open source available. The best performing, but computational intensive solution is an adapted RandOm Convolutional KErnel Transform (ROCKET). The custom query strategy “certainty sampling” shows the best results for highly imbalanced datasets.
Concept of probabilistic modeling for real-time prediction of product quality and design automation
(2018)
Progress in integrated photonics enables development of integrated photonics circuits with new unique properties, circuits of the future, and overcomes current limits in information and communication technologies. The packaging of photonic integrated circuits is necessary for taking them out of research laboratories into real implementation in the information and communication technology applications.
Telecom optical fibers are still being the best transmission medium of digital data and analogue signals for long distance applications. The effective coupling of optical radiation between telecom optical fiber with ten microns core dimension and photonic integrated circuits optical waveguides with submicron dimensions are necessary. To address these challenges, we present our concept of photonics integrated circuit packaging with radio frequency, direct current and fiber array ports with automated active alignment system.
This master thesis investigates a Computational Intelligence-based method for solving PDEs. The proposed strategy formulates the residual of a PDE as a fitness function. The solution is approximated by a finite sum of Gauss kernels. An appropriate optimisation technique, in this case JADE, is deployed that searches for the best fitting parameters for these kernels. This field is fairly young, a comprehensive literature research reveals several past papers that investigate similar techniques.
To evaluate the performance of the solver, a comprehensive testbed is defined. It consists of 11 different Poisson equations. The solving time, the memory consumption and the approximation quality are compared to the state of the art open-source Finite Element solver NGSolve. The first experiment tests a serial JADE. The results are not as good as comparable work in the literature. Further, a strange behaviour is observed, where the fitness and the quality do not match. The second experiment implements a parallel JADE, which allows to make use of parallel hardware. This significantly speeds up the solving time. The third experiment implements a parallel JADE with adaptive kernels. It starts with one kernel and introduce more kernels along the solving process. A significant improvement is observed on one PDE, that is purposely built to be solvable. On all other testbed PDEs the quality-difference is not conclusive. The last experiment investigates the discrepancy between the fitness and the quality. Therefore, a new kernel is defined. This kernel inherits all features of the Gauss kernel and extends it with a sine function. As a result, the observed inconsistency between fitness and quality is mitigated.
The thesis closes with a proposal for further investigations. The concepts here should be reconsidered by using better performing optimisation algorithms from the literature, like CMA-ES. Beyond that, an adaptive scheme for the collocation points could be tested. Finally, the fitness function should be further examined.
Compression of ultrashort laser pulses via gated multiphoton intrapulse interference phase scans
(2014)
Complementarities and synergies of quadruple helix innovation design in smart city development
(2020)
Increased urbanization trends are stimulating regional needs to support transitions from urban environments to smart cities, using its holistic perspective as a source to innovation. Strong relations between smart cities, urban and regional development, are getting increased attention both at policy and implementation level, providing fertile ground for execution of the new European policy frameworks that supports quadruple helix approaches to innovation. Smart specialization strategies (RIS3) encompass such initiatives, placing ICT and collaboration between academia, industry, government, and citizen at the center of urban innovation. However, there is still lack of research on effects of such approaches to innovation, involving both quadruple helix clusters and ICT in utilizing innovation potentials for developing smart cities. This study aims to increase the understanding on how quadruple helix urban innovation strengthens competitiveness of regions by improving its local smart areas – RIS3. We identified smart specialization patterns and applied comparative benchmark between nine smallmedium sized urban regions in Central Europe. Building on these results, the study provides an overview of the effects of RIS3 strategies implemented through quadruple helix innovation clusters on competitiveness of regions and Smart City development.
A concept for a recommender system for the information portal swissmom is designed in this work. The challenges posed by the cold start problem and the pregnancy-related temporal interest changes need to be considered in the concept. A state-of-the-art research on recommender systems is conducted to evaluate suitable models for solving both challenges. The explorative data analysis shows that the article's month of pregnancy is an important indicator of how relevant an article is to a user. Neither collaborative filtering, content-based filtering, hybrid models, nor context-aware recommender systems are applicable because the user's pregnancy phase is unknown in the available data. Therefore, the proposed recommender system concept is a case-based model that recommends articles which belong to the same gestation phase as the currently viewed article.
This recommender system requires that the month of pregnancy, in which an article is relevant, is known for each article. However, this information is only available for 31% of all articles about pregnancy. Consequently, this work looks for an approach to predict the month of gestation based on the article text. The challenges with this are that only few training data are available, and the article texts of the various months of pregnancy often contain the same terms, considering all articles are about pregnancy. A keyword-based approach using the TF-IDF model is compared with a context-based approach using the BERT model. The results show that the context-based approach outperforms the keyword-based approach.
Comparison of silicon nitride based 8-channel 100-GHz AWGs applying different waveguide structures
(2019)
This paper presents design and simulation of 8-channel, 100-GHz AWGs based on Si/SiO2/SiN/SiOx material platform. For the designs, two different waveguide structures were used, i.e. ridge and rib waveguides. AWGs were designed for central wavelength of 850 nm applying AWG-Parameters tool. The simulations were performed applying FEM and BPM methods in RSoft and PHASAR photonic tools. The simulation results show considerably lower losses but slightly higher channel crosstalk when applying rib waveguides.
Comparison of silicon nitride based 1x8 Y-branch splitters applying different waveguide structures
(2019)
This paper presents design, simulation and optimization of 1x8 Y-branch power splitters based on Si/SiO2/SiN/SiOx material platform. For the designs, two different waveguide structures were used, i.e. ridge and rib waveguides. The splitters were designed for 850 nm spectral optical window and the simulations were performed applying FEM and BPM methods in RSoft photonic tool. The aim of this work was to find minimum physical dimensions of the designed splitters occupying minimal space on PIC chip. The optimization was done with regards to high symmetrical splitting ratio and low insertion loss. Finally, the optical properties of both splitters were studied and compared with each other.
This paper describes two different designs of 1×8 passive optical splitters. The first splitter consists of cascade arranged directional waveguide branches (Y-branch splitter) with (0.8×0.16) µm2 waveguide cross-section. The second splitter is based on multimode interference occurring in a large MMI coupler, which uses a self-imaging effect for beam propagation, exhibiting the same waveguide core size as a Y-branch splitter. The waveguide channel profile, used in both approaches, is based on a silicon nitride material platform, with a refractive index of core being nc = 1.925 and a refractive index of cladding ncl = 1.4575. The splitters are designed as a planar structure for a medical operating wavelength 850 nm. Design, simulation, and optimization of passive optical components are performed by a commercial photonic software tool BeamPROP simulation engine by RSoft Photonics Suite tool, employing beam propagation method. This work aims to find the minimum physical dimensions of the designed splitters with the satisfactory optical performance. According to the minimum insertion loss and minimum non-uniformity, the optimum length of the splitters is determined. Finally, the optical properties of splitters for both approaches are discussed and compared with each other.
Comparison of constraint-handling mechanisms for the (1,λ)-ES on a simple constrained problem
(2016)
In this paper, the design of three-dimensional configuration of Y-branch splitter is compared with Multimode Interference splitter. Both splitters use the IP-Dip polymer as a standard material for 3D laser lithography. The optical properties of the splitters for both approaches are discussed and compared.
In times of global climate change, it is increasingly important to investigate emissions and resource consumption of all machines and, if possible, to improve them. This includes within the transport sector car ferries.
In order to reduce the environmental impacts of car ferries, the electrification has penetrated into this sector, which has led to the world's first fully electric car ferry. One of the most important components to operate this ferry is the energy storage. Not only the battery storage of the ferry itself is needed, but also an onshore battery storage system is needed to support the electrical grid.
The present study examines how storage technologies and concepts can impact the environment considering the world's first all-electric car ferry, MF Ampere, which operates in Norway.
To examine this, the current onshore battery storage system is compared to a concrete sphere storage system. For this purpose, data from the first test run of this new storage technology, which was successfully carried out by the Fraunhofer Institute in 2016, is considered. Subsequently, a life cycle assessment of the two storage systems is carried out to compare the environmental impacts.
The concrete sphere storage system performs better for 15 of 17 impact categories compared to the existing onshore battery storage system. Depending on the impact category the impact reduction is about 2% to 8%.
Nevertheless, it is difficult to estimate how long the useful life and how good the efficiency of the concrete ball storage will be, since no system of this size has been tested yet. Also, the costs of the concrete sphere storage system have not been considered.
Compact and high-resolution 256-channel silicon nitride based AWG-spectrometer for OCT on a chip
(2019)
We present design, simulation and technological verification of a compact 256-channel, 42-GHz silicon nitride based AWG-spectrometer. The spectrometer was designed for TM-polarized light with a central wavelength of 850 nm, applying “AWG-Parameters” tool. This design is based on a previous study of various AWG designs (8-channel, 100-GHz; 20-channel, 50-GHz; 40-channel, 50-GHz, 80-channel, 50-GHz and 160-channel, 50-GHz AWGs), which were all technologically verified. The spectrometer features small size and high resolution. It is integrated on OCT chip using standard CMOS processes. The SD-OCT system is developed to operate in a wavelength range from 800 nm to 900 nm, having 0.1 nm resolution.
Combining parallel pattern generation of electrohydrodynamic lithography with serial addressing
(2018)
Codegenerierung - Was man damit (nicht) machen kann. Varianten, Möglichkeiten und Einschränkungen
(2015)
Das Ziel der vorliegenden Masterthesis ist es zu beantworten, wie die Zielwirksamkeit von Coaching im Rahmen der Personalentwicklung realitätsnah erfasst werden kann. Dazu wird zunächst eine Abgrenzung des Begriffs „Coaching“ vorgenommen, sowie verschiedene Formen des Coachings vorgestellt. Darauf basierend wird der aktuelle Forschungsstand im Bereich der Evaluation von Coaching dargestellt und hierbei genauer auf verschiedene theoretische Evaluationsmodelle eingegangen. Zusätzlich dazu wird eine Identifikation der Wirkfaktoren vorgenommen. Die Forschungsfragen werden mithilfe einer qualitativen empirischen Methodik unter Durchführung von Experteninterviews beantwortet. Die Masterthesis resultiert in der Darstellung eines möglichen Evaluationsprozesses.
Gas hydrates are usually synthesized by bringing together a pressurized gas and liquid or solid water. In both cases, the transport of gas or water to the hydrate growth site is hindered once an initial film of hydrate has grown at the water–gas interface. A seemingly forgotten gas-phase technique overcomes this problem by slowly depositing water vapor on a cold surface in the presence of the pressurized guest gas. Despite being used for the synthesis of low-formation-pressure hydrates, it has not yet been tested for hydrates of CO 2 and CH 4 . Moreover, the potential of the technique for the study of hydrate decomposition has not been recognized yet. We employ two advanced implementations of the condensation technique to form hydrates of CO 2 and CH 4 and demonstrate the applicability of the process for the study of hydrate decomposition and the phenomenon of self-preservation. Our results show that CO 2 and CH 4 hydrate samples deposited on graphite at 261–265 K are almost pure hydrates with an ice fraction of less than 8%. Rapid depressurization experiments with thin deposits (approx. 330 mm thickness) of CO 2 hydrate on an aluminum surface at 265 K yield identical dissociation curves when the deposition is done at identical pressure. However, hydrates deposited at 1 MPa almost completely withstand decomposition after rapid depressurization to 0.1 MPa, while samples deposited at 2 MPa decompose 7 times faster. Therefore, this synthesis technique is not only applicable for the study of hydrate decomposition but can also be used for the controlled deposition of a super-preserved hydrate.