Refine
Year of publication
Document Type
- Article (366)
- Conference Proceeding (341)
- Master's Thesis (223)
- Part of a Book (216)
- Book (98)
- Report (21)
- Other (14)
- Doctoral Thesis (12)
- Working Paper (7)
- Periodical (3)
Institute
- Wirtschaft (307)
- Forschungszentrum Mikrotechnik (208)
- Department of Computer Science (Ende 2021 aufgelöst) (164)
- Forschungszentrum Business Informatics (139)
- Soziales und Gesundheit (116)
- Forschungsgruppe Empirische Sozialwissenschaften (101)
- Forschungszentrum Nutzerzentrierte Technologien (90)
- Didaktik (71)
- Forschungszentrum Energie (69)
- Gestaltung (32)
Language
- German (658)
- English (641)
- Multiple languages (6)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Laser ablation (11)
- Y-branch splitter (10)
- +KDC 122 (9)
- Design : Theorie, Reflexion (9)
- Digitalisierung (7)
- Entscheidung (7)
- Machine learning (6)
Gestenbasierende grafische Benutzeroberflächen werden zunehmend beliebter. Diesbezüglich werden immer mehr Animation in Verbindung mit Nutzergesten eingesetzt.
Diese Arbeit setzt sich mit der Gestaltung von Animationen in gestenbasierten grafischen Benutzeroberflächen auseinander.
Dazu gehört auch, Animationen als Feedback auf eine hochfrequente Eingabemethode so zu gestalten, dass sie möglichst lange von Nutzern*innen als affektiv positiv wahrgenommen werden. Das Hauptaugenmerk der Arbeit liegt dabei auf der Interaktion von Nutzer*innen mit natürlichen Objektbewegungen.
Natürliche Objektbewegungen orientieren sich am Verhalten von Objekten in der physischen Welt. Sie verfügen beispielsweise über konzeptionelle Trägheit, Masse und reagieren auf unsichtbare Kräfte wie Schwerkraft.
Menschen verfügen über kausale Denkmuster, die in der physischen Welt die Interaktion mit Objekten prägen. So wissen Menschen, dass sie um ein träges Objekt wie eine Tasse zu bewegen, Energie benötigen, damit sich diese bewegt.
Untersucht wurde, ob das Verständnis von Nutzer*innen für natürliche Objektbewegungen auch in einer digitalen Umgebung existiert.
Im theoretischen Teil der Arbeit wurde die Rolle von Interfaceanimationen in modernen Benutzeroberflächen untersucht, Kriterien ausgearbeitet um eine reibungslose Nutzererfahrung zu ermöglichen und Parameter dargestellt, welche die Wahrnehmung der Charakteristik einer Animation positiv beeinflussen können. Ein zentraler Aspekt der Arbeit ist dabei die Gestaltung von natürlichen Objektbewegungen, um ein vertrautes, vorhersehbares und nachvollziehbares Nutzererlebnis schaffen können.
Anschließend wird das aus den Ergebnissen resultierende Konzept von prozeduralen Interfaceanimationen dargelegt. Eine prozedurale Interfaceanimation generiert aus den Vorgaben eines natürlichen Bewegungspfades generisch unterschiedliche Instanzen. Der Bewegungspfad kann über die Richtung und Geschwindigkeit einer Nutzergeste von dem*der Nutzer*in gesteuert werden.
In der abschließenden Evaluation wurde die elektrodermale Aktivität von 16 Probandinnen untersucht und bewertet, während diese sich mit drei unterschiedlichen Varianten der Animation auseinandersetzten. Es konnte nachgewiesen werden, dass ein unnatürlich starker Einfluss auf natürliche Objektbewegungen signifikante Unterschiede in den affektiv wahrgenommenen Reaktionen auslöst.
Globale Entwicklungen wie der Klimawandel, die Verknappung fossiler Ressourcen, die Coronapandemie oder die wachsende soziale Ungleichheit sind hochkomplexe Probleme, die das Gesellschaftssystem zunehmend destabilisieren und damit Raum für stark chaotische Entwicklungen ermöglichen. Kennzeichnend für Komplexität ist, dass rationales Überlegen oder kognitives Abwägen von Ursache-Wirkungsbeziehungen nicht mehr zielführend sind. Dabei steht im Hintergrund solcher komplexen Probleme, dass die Anzahl der (menschlichen und nicht-menschlichen) Akteure und den Verbindungen zwischen diesen nicht mehr überschau- oder analysierbar ist. In der vorliegenden Arbeit dient Forschung durch Design als Schlüssel zur Visualisierung des Chaos komplexer Systemdynamiken. So wird mittels eines detaillierten Systemmodells durch eine iterativ erstellte Visualisierung mit interaktiven Anwendungsmöglichkeiten das Fallbeispiel der Implementierung der Sustainable Development Goals in der österreichischen Politik dargestellt. Ziel dabei ist es, die zuständigen Kompetenzstellen und Antworten auf den Grad der Implementierung zu finden, wodurch einerseits daraus resultierende Handlungsempfehlungen zur Implementierung gegeben werden können, und andererseits auch Vorschläge zur Erreichung der SDGs. Als essenzielles Resultat konnte primär bestätigt werden, dass sich die Visualisierung von Systemprozessen als durchaus geeignet erwiesen hat. Zumal steht fest, dass eine sogenannte Implementierung der SDGs in Österreich nicht stattgefunden hat. Außerdem wird argumentiert, dass der Großteil der ökologischen SDGs über die Einhaltung bereits bestehender Bundes- und Landesgesetze im Rahmen des Umweltschutzes erreicht werden könnten.
GESCHICHTEN BEIM GEHEN
(2022)
Eine junge Frau geht ihre Wege durch Dornbirn, einer Stadt mit rund 50.000 Einwohnern. Sie wohnt im Zentrum der Kleinstadt, durchläuft diese meist zu Fuß, zu den unterschiedlichsten Zwecken und immer mit offenen Augen. Sie stellt fest, dass je öfter sie denselben Weg geht, sie umso mehr Neues entdeckt: Dinge abseits des Alltäglichen. Sie bemerkt, dass sie scheinbar Gleiches immer wieder anders wahrnimmt.
In diesem Buch hat sie die Geschichten, die sich während dem Vorgang des Gehens bilden, gesammelt. Diese lassen in ihrer Gesamtheit ein Bild ihrer Wege entstehen: durch Texte, Notizen, Illustrationen, Grafiken, Fotografien und Filme.
Sie (er)fasst somit den Raum, der sich bildet, wenn sie sich durch die Stadt bewegt – und macht diesen für uns sichtbar. Folgen Sie ihr auf ihrem Weg und begeben Sie sich mit den beiliegenden Karten selbst auf Entdeckungsreise. Sie werden staunen.
Geschichten beim Gehen ist ein Forschungsprojekt, das einerseits versucht eine Theorie zur Raumkonstitution (Kunst des Handelns von Michel de Certeau) in ein visuelles Erscheinungsbild zu übersetzen und gleichzeitig Methoden zur Wahrnehmbarmachung erarbeitet, die andere Karten oder Darstellungen jenseits von Karten liefern.
Die Arbeit soll als Beispiel für ein Forschen mittels gestalterischen Methoden dienen. Entstanden sind zwei Bücher: O, das Buch vom Ort und R, das Buch vom Raum. Ersteres bildet die wissenschaftliche Kontextualisierung und diskutiert die gewonnenen Erkenntnisse. Zweiteres funktioniert als visuelles Essay und zeigt angewendete gestalterische Methoden und verwendete Medien: ein Prozess im Wechselspiel von Theorie und Praxis.
Postdigitale Gaststube
(2022)
This paper sought to identify and analyze what are the barriers towards women career’s development as business leaders in Brazil and Nicaragua when it comes to the country societal variables. In order to comprehend these barriers through women’s perception, qualitative data was chosen for this investigation, which was gathered through one-to-one interviews within businesswomen from Brazil and Nicaragua that have experience in leadership positions. The results of this research confirm that societal, economic, and political factors have great influence at gender equality and in how it affects women’s progress as business leaders. Thus, it can vary considerably between countries, even when they have similar culture backgrounds. Furthermore, it is imperative to comprehend these differences in order to close any gender gap in the field.
Observing the ratios of the rail usage in terms of passenger travelled per km and per capita, we see that there are huge differences between countries, so some railway systems are performing better in catching passengers than others. By analysing the factors that make the railways attractive for users, and setting standard values for these factors, we can analyse how well a system is performing. This paper has investigated those factors and developed an assessment tool that will inform about the required improvements, so in a later stage specific strategies can be developed to increase the performance in order to attract more passengers. Spain will be used as case study, since the country has specially low passenger rail usage compared to other countries even though the large investments in high speed lines the country undertook in the last decades.
Einfluss von Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg im Banken- und Versicherungssektor
(2022)
Den Nachhaltigkeitsbegriff gibt es schon lange, doch die letzten Jahre erlebte er einen wahren Aufschwung. Die Unternehmen erkannten diese Chance und beschäftigten sich intensiver mit dem Thema der Nachhaltigkeitsberichterstattung. Mit der Global Reporting Initiative (GRI) gibt es zwar einen international anerkannten Standard, doch die meisten Unternehmen verwenden ein eigenes Format. Das erschwert die Vergleichbarkeit der Berichte. Um den Einfluss der Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg zu messen, wurden neun Banken aus der DACH-Region ausgewählt. Für sie wurde ein eigenes Scoring-Modell entwickelt. Es umfasst die Kategorien Ökonomie, Ökologie, Soziales, Kommunikation und Glaubwürdigkeit. Der Unternehmenserfolg wird durch die Rentabilitätskennzahlen Return on Sales (ROS) und Return on Equity (ROE) abgebildet. Mit dem Korrelationskoeffizienten nach Person ergab sich für den Beobachtungszeitraum 2018, 2019 und 2020 kein allgemeiner Zusammenhang. Beim Vergleich des Durchschnittswerts der drei Banken mit dem höchsten Nachhaltigkeitsscore, mit jenem der drei niedrigsten, hingegen schon (0,79). Zusätzlich war erkennbar, dass die Gruppe mit den höheren Scores auch die Ende 2019 beginnende Corona-Pandemie besser überstand. Während der ROE der Gruppe mit den niedrigsten Scores bis auf -0,74% fiel, blieb er bei der anderen Gruppe stabil bei 8%. Mittels t-Test konnte jedoch knapp keine statistische Signifikanz nachgewiesen werden (0,0627 > 0,05).
Die vorliegende Arbeit hatte zum Ziel einen Deckungsbeitragsrechnungs-Report zu erstellen. Neben einer Literaturrecherche zum Thema (mehrstufige) Deckungsbeitragsrechnungen wurde ebenfalls nach allgemeinen Design-Empfehlungen recherchiert. Hier wird insbesondere auf vier Autoren eingegangen: Eduard Tufte, Stephen Few, Eisl et al. und die International Business Communication Standards (IBCS) von Hichert und Faisst.
Der wesentliche Kern dieser Arbeit ist dann die Entwicklung eines Musterberichts. Hierfür wurde zuerst eine Vorstudie in Form von Experteninterviews durchgeführt. Im Zuge dieser ergabt sich, dass die mehrstufige Deckungsbeitragsrechnung in der Praxis nicht von so hoher Relevanz ist, wie die Literatur vermuten lässt. Deshalb wurde das Thema der vorliegenden Arbeit an dieser Stelle auch angepasst: statt der Darstellung mehrstufiger Deckungsbeitragsrechnungen werden nun einfache Deckungsbeitragsrechnungen behandelt.
Anschließend an die Vorstudie wurde ein Leitfaden zur Berichtserstellung ausgearbeitet. Nach diesem werden zuerst Ziel, Berichtsempfänger, Berichtsinhalte und Aktualisierungsintervall definiert. Im Anschluss kann ein geeignetes Tool für die Berichtserstellung gewählt werden. Die Umsetzung erfolgt dann zuerst mittels Skizzen, bevor der Bericht tatsächlich im gewählten Tool umgesetzt wird.
In weiterer Folge wurden vier Fragen ausformuliert, welche in Form eines Experiments beantwortet werden sollen. Verschiedene Grafiken wurden anhand von drei Qualitätsmerkmalen (Effektivität, Effizienz und Attraktivität) geprüft, um die Fragen zu beantworten. Die vier Fragen lauten:
1. Sind Verhältnisse (z.B. Doppel so hoch) bei Balkendiagrammen besser leserlich als in Kuchendiagrammen?
2. Ist eine räumliche Trennung von Kategorien besser als eine farbliche?
3. Sind drei Szenarien einer Kennzahl (z.B. AC, PY, BU) in einer Grafik besser im Hinblick auf die Qualitätsmerkmale als zwei Grafiken?
4. Gibt es Unterschiede bei der Abbildung von drei Szenarien zwischen IBCS konformen Darstellungen und Bullet Charts von Stephen Few?
Das Experiment hat ergeben, dass Balkendiagramme Kuchendiagrammen in allen Qualitätsmerkmalen vorzuziehen sind. Auch eine räumliche Trennung von Kategorien hat sich aufgrund der Effizienz als besser durchgesetzt. Bezüglich der zwei gegenüber drei Szenarien konnte die Grafik mit nur zwei Szenarien im Hinblick auf Effektivität und Effizienz besser abschneiden. Allerdings liegen die Werte sehr nahe beisammen und die Probanden konnten bereits in der kurzen Zeit erste Lerneffekte erzielen. Deshalb wird empfohlen, die geringen Effektivitäts- und Effizienzverluste in Kauf zu nehmen, da im Gegenzug dafür die Grafik um weitere wertvolle Informationen angereichert werden kann. Abschließend konnten sich die IBCS-konformen Darstellungen den Bullet Charts von Stephen Few gegenüber durchsetzen. Hierbei hat ein Balkendiagramm mit Abweichungs-Pins am besten abgeschnitten, gefolgt von einem Balkendiagramm mit drei Szenarien: AC, BU und PY. Mit diesen Erkenntnissen wurde dann das Musterdashboard ausgearbeitet.
Aufgrund des fortschreitenden wirtschaftlichen und gesellschaftlichen Strukturwandels und der zunehmenden Digitalisierung, hat die Bedeutung immaterieller Vermögenswerte erheblich zugenommen. Dabei steht die Goodwill-Bilanzierung und insbesondere die Folgebehandlung des bei einem Unternehmenszusammenschluss erworbenen Goodwills im besonderen Fokus der Standardsetter und Bilanzadressaten. Der bei der Folgebilanzierung des Goodwills gegebene Ermessensspielraum führt zu der Sorge, dass diese Ermessensspielräume seitens der Manager opportunistisch genutzt werden könnten. Die vorliegende Arbeit untersucht, ob bei österreichischen Unternehmen die Goodwill-Bilanzierung als Instrument für Earnings Management dient. Unter Anwendung multipler Regressionsmodelle wird ein Datensample österreichischer Unternehmen im Zeitraum von 2015 bis 2019 auf die Einflüsse möglicher Earnings Management-Motive auf die vorgenommenen Goodwill-Impairments überprüft. Die Ergebnisse zeigen, dass Manager österreichischer Unternehmen Big Bath Accounting betreiben und damit schlechte Unternehmensjahre nutzen, um Goodwill-Impairments vorzunehmen. Die Ergebnisse zeigen zudem eine Tendenz, dass Big Bath Accounting insbesondere dann zur Anwendung kommt, wenn es einen Wechsel im Finanzvorstand gibt. Weiters zeigen die Ergebnisse den hohen Einfluss der Aktionärsstruktur auf die Impairmententscheidungen. Bei Unternehmen mit großen institutionellen Aktionären liegt eine zusätzliche Kontrollinstanz vor, die Earnings Management-Verhalten reduziert. Die vorliegende Arbeit unterstützt die aktuellen Diskussionen der internationalen Rechnungslegung über die Beibehaltung des Impairment-Tests und liefert Hinweise darauf, dass bei österreichischen Unternehmen Earnings Management-Motive bei der Goodwill-Bilanzierung eine Rolle spielen.
Diese Forschungsarbeit beschäftigt sich mit der Behandlung von Klient*innen mit kognitiver Beeinträchtigung und komorbid psychischer Erkrankung im Feld der Klinischen Sozialen Arbeit. Um ein genaueres Verständnis für das Phänomen zu erlangen, wird auf die Entstehungsmechanismen und die Symptomatik von psychischen Erkrankungen bei Menschen mit kognitiver Beeinträchtigung eingegangen. Des Weiteren werden aktuelle Handlungsansätze u. a. der integrative Ansatz nach Anton Došen vorgestellt und in Verbindung mit der Klinischen Sozialen Arbeit gebracht. Die Grounded Theory von Anselm Strauss und Barney Glaser bietet den methodischen Rahmen, um durch Forschung, Theorie und Kreativität spezielle methodische Erfordernisse für die psychosoziale Behandlung dieser Zielgruppe aufzuzeigen. Die Sammlung von Daten erfolgt durch Interviewgespräche mit Professionellen und Personen die kognitiv beeinträchtigt und komorbid psychisch erkrankt sind. Zentraler Ausgangspunkt ist die These, dass es für diese Zielgruppe eine spezialisierte Behandlung benötigt und in Vorarlberg noch kein entsprechendes Angebot vorhanden ist.
Kommunikation ist Begegnung
(2022)
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.
The e-commerce market has been growing for years and this trend seems to be continuing. Online stores for clothing are very successful. It seems that hardly any company can afford not to have a digital presence. This goes hand in hand with the fact that the range of products on offer to customers is getting bigger and bigger. But it's not just the range that's getting bigger, it's also the effort customers have to make to find the right product. For this reason, many successful online stores are already relying on AI. In doing so, companies are creating opportunities for customers that an employee could hardly manage. Implemented on the website, AI can check inventory, update it in real time, predict trends and evaluate customer or user data and make suitable recommendations. This is important for the customer because with the huge choice available, for one thing, personalization is increasingly important and being presented with a relevant selection. A central question is whether the recommendations are trustworthy and whether they can be equated with a real salesperson advising the customer. After all, trust is relevant in longterm customer relationships in that it leads to loyalty and satisfaction, which in turn increases the intention to repurchase. The recommendation tools mentioned are also of particular interest for another reason. On the one hand, they help customers to get a relevant selection of the offer and thus to get faster to the desired one. On the other hand, they are relevant for companies not only because of customer satisfaction, but also because of the chance to reduce returns. The large online stores for clothing offer their customers very generous opportunities to return the goods free of charge. In doing so, the companies have responded to customer wishes, because hardly anything is more important to them when it comes to online shopping: free returns. In this way, customers have minimized the risk of having to keep goods that do not fit or please them. This thesis examines whether recommendation tools can help customers to better assess the sizes and properties of clothing, so that they receive more suitable clothing and do not even feel the need to order several sizes of the same item of clothing. It can therefore be assumed that trust in the recommendations of the AI tools reduces uncertainty, which in turn should reduce the intention to return goods. Another assumption to be tested is that of the perceived usefulness of the recommendation tools. As a prerequisite to get an assessment of these assumptions is the usage of the tools. Therefore, a survey was initiated in the DACH region to assess the extent to which usage influences the factors mentioned. It was found by means of a regression analysis that the frequency of online purchases, mediated by perceived usefulness, explains the influence on trust.
Mit Industrie 4.0 kündigte sich in Unternehmen ein großer Wandel. Dieser ist insbesondere im Bereich der Fertigung und Produktion spürbar. Von der vierten industriellen Revolution sollen Unternehmen profitieren, indem Prozesse digitalisiert und automatisiert, neue Technologien implementiert und die Wettbewerbsfähigkeit gesichert wird. Deswegen wird die Industrie 4.0 von vielen Unternehmen als Chance gesehen. Mit dem Einsatz von digitalen Technologien erhoffen sich Unternehmen, ihre Potenziale auszuschöpfen und sich Wettbewerbsvorteile zu sichern.
Im Hinblick auf die Industrie 4.0 sind jedoch kleine und mittlere Unternehmen vor Herausforderungen gestellt. Die Gründe hierfür sind vielfältig und werden in der vorliegenden Masterarbeit beleuchtet.
Dies führt dazu, dass KMU bei dem technischen, digitalen Fortschritt im Rahmen der Industrie 4.0 hinterherhinken. Es fällt ihnen schwer, den eigenen Status quo zu ermitteln und richtige Entscheidungen zu treffen, um die Hürden der Industrie 4.0 erfolgreich zu meistern. Damit dies gelingt, empfiehlt sich zu analysieren, wo das jeweilige Unternehmen aktuell steht und wie es sich abheben möchte, um seine Entscheidungen gezielt auf die Transformation von Industrie 4.0 ausrichten zu können.
Solche Orientierungshilfen, wie Referenz- oder Reifegradmodelle, die auf die Bedürfnisse der KMU eingehen und explizit auf ihre individuellen Anforderungen ausgerichtet sind, sind ein wichtiger Bestandteil der Masterarbeit.
In der vorliegenden Masterarbeit soll somit folgende Forschungsfrage beantwortet werden:
Warum sind die IT-Prozesse besonders kritisch für KMU in der Industrie 4.0 und lässt sich ein unterstützendes, reifegradbasiertes Referenzmodell zur Verbesserung der IT-Prozesse entwickeln?
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
Ein neuer Ansatz um Kohlendioxid aus einem Verbrennungsprozess abzuscheiden, auch Carbon Capture (CC) genannt, basiert auf der Gashydratsynthese. Dabei wird das Gas in Einschlussverbindungen aus Wassermolekülen, sogenannte Clathrate, eingefangen. Bei der Gashydratsynthese aus flüssigem Wasser, wie es bei bisherigen Methoden der Fall ist, treten selbsthemmende Effekte auf, die den Abscheideprozess verlangsamen.
In dieser Arbeit wird daher eine neue Methode entwickelt, um die Gashydratsynthese aus dampfförmigem Wasser zu untersuchen. Realisiert wird dies mit einem eigens entwickelten Versuchsreaktor, wobei ein Fallfilmverdampfer im Zentrum kontinuierlich Wasser verdampft. Der Abscheideversuch wird bei 20 - 40 bar und einem CO2-N2-Prüfgasgemisch betrieben. Das Herunterkühlen des Reaktors, mit einer Vorlauftemperatur von bis zu -65 °C, sorgt für stabile Wachstumsbedingungen an der Innenwand. Die Versuchsdurchführung zeigt, dass bei einer Ausgangskonzentration von 11,8 mol% CO2 am Ende des Abscheideprozesses im Minimum 10,7 mol% erreicht werden. Der im Gashydrat angereicherte CO2-Gehalt im liegt bei ca. 89 mol%.
Damit ist die Funktionsfähigkeit der neuartigen CC-Methode bewiesen und die Grundlage für die Weiterentwicklung des Prozesses geschaffen.
In recent years, numerous studies around the world have examined the environmental potential of biochar to determine whether it can help address climate challenges. Several of these studies have used the Life Cycle Assessment (LCA) method to evaluate the environmental impacts of biochar systems. However, studies focus mainly on biochar obtained from pyrolysis, while the number of studies on biochar from gasification is small.
To contribute to the current state of LCA research on biochar from gasification, LCA was performed for biochar, electricity, and heat from a wood gasification plant in Vorarlberg, Austria. Woodchips from local woods are used as biomass feedstock to produce energy, i.e., electricity and heat. Thereby, biochar is obtained as a side product from gasification. The production of syngas and biochar takes place in a floating fixed-bed gasifier. Eventually, the syngas is converted to electricity in a gas engine and fed to the power grid. Throughout different stages within the gasification process, heat is obtained and fed into local heat grid to be delivered to customers. The biochar produced complies with the European Biochar Industry (EBI) guidelines and is used on a nearby farm for manure treatment and eventually for soil application. Thereby, the effect of biochar used for manure treatment is considered to reduce emissions occurring from manure, i.e., nitrogen monoxide (N2O). Further, the CO2 sequestration potential of biochar, i.e., removal of CO2 from the atmosphere and long-term storage, is considered. Several constructions, such as the construction of the gasification system and the heating grid, are included in the evaluation.
As input related reference flow, 1 kg of woodchips with water content of 40 % is used. Three functionals units are eventually obtained, i.e., 0.17 kg of biochar applied to soil, 4.47 MJ of heat and 2.82 MJ of electricity, each per reference flow. The results for Global Warming Potential (GWP) for biochar is – 274.7*10 - 3 kg CO2eq per functional unit, which corresponds to – 1.6 kg CO2eq per 1 kg biochar applied to soil. The GWP for heat results in 17.1*10 - 3 CO2eq per functional unit, which corresponds to 3.6*10 - 3 kg CO2eq per 1 MJ. For electricity, a GWP of 38.1*10 - 3 kg CO2eq per functional unit is obtained, which is equivalent to 13.5*10 - 3 kg CO2eq per 1 MJ.
The calculation was performed using SimaPro Version 9.1 and the ReCiPe method with hierarchist perspective.
Bubble columns are recently used for the humidification of air in water treatment systems and fuel cells. They are well applicable due to their excellent heat and mass transfer and their low technical complexity. To design and operate such devices with high efficiency, the humidification process and the impact of the operating parameters need to be understood to a sufficient degree. To extend this knowledge, we use a refined and novel method to determine the volumetric air–liquid heat and mass transfer coefficients and the humidifier efficiency for various parametric settings. The volumetric transfer coefficients increase with both of the superficial air velocity and the liquid temperature. It is further shown that the decrease of vapor pressure with an increase of the salinity results in a corresponding decrease in the outlet humidity ratio. In contrast to previous studies, liquid heights smaller than 0.1 m are investigated and significant changes in the humidifier efficiency are seen in this range. We present the expected humidifier efficiency with respect to the superficial air velocity and the liquid height in an efficiency chart, such that optimal operating conditions can be determined. Based on this efficiency chart, recommendations for industrial applications as well as future scientific challenges are drawn.
Anhand von empirischem Material aus zwei Forschungsprojekten gibt die Broschüre Einblick in zentrale Harausforderungen, die sich in der pädagogischen Praxis beim Umgang mit (Kinder-)Armut stellen. Die Broschüre vermittelt relevantes Wissen über Armut als gesamtgesellschaftliches Problem. Zudem setzt sie Impulse für die Entwicklung einer kritsch-reflexiven Perspektive auf die Arbeit mit armutserfahrenen Kindern, Eltern und Familien.
The electricity demand due to the increasing number of EVs presents new challenges for the operation of the electricity network, especially for the distribution grids. The existing grid infrastructure may not be sufficient to meet the new demands imposed by the integration of EVs. Thus, EV charging may possibly lead to reliability and stability issues, especially during the peak demand periods. Demand side management (DSM) is a potential and promising approach for mitigation of the resulting impacts. In this work, we developed an autonomous DSM strategy for optimal charging of EVs to minimize the charging cost and we conducted a simulation study to evaluate the impacts to the grid operation. The proposed approach only requires a one way communicated incentive. Real profiles from an Austrian study on mobility behavior are used to simulate the usage of the EVs. Furthermore, real smart meter data are used to simulate the household base load profiles and a real low voltage grid topology is considered in the load flow simulation. Day-ahead electricity stock market prices are used as the incentive to drive the optimization. The results for the optimum charging strategy is determined and compared to uncontrolled EV charging. The results for the optimum charging strategy show a potential cost saving of about 30.8% compared to uncontrolled EV charging. Although autonomous DSM of EVs achieves a shift of load as pursued, distribution grid operation may be substantially affected by it. We show that in the case of real time price driven operation, voltage drops and elevated peak to average powers result from the coincident charging of vehicles during favourable time slots.
If left uncontrolled, electric vehicle charging poses severe challenges to distribution grid operation. Resulting issues are expected to be mitigated by charging control. In particular, voltage-based charging control, by relying only on the local measurements of voltage at the point of connection, provides an autonomous communication-free solution. The controller, attached to the charging equipment, compares the measured voltage to a reference voltage and adapts the charging power using a droop control characteristic. We present a systematic study of the voltage-based droop control method for electric vehicles to establish the usability of the method for all the currently available residential electric vehicle charging possibilities considering a wide range of electric vehicle penetrations. Voltage limits are evaluated according to the international standard EN50160, using long-term load flow simulations based on a real distribution grid topology and real load profiles. The results achieved show that the voltage-based droop controller is able to mitigate the under voltage problems completely in distribution grids in cases either deploying low charging power levels or exhibiting low penetration rates. For high charging rates and high penetrations, the control mechanism improves the overall voltage profile, but it does not remedy the under voltage problems completely. The evaluation also shows the controller’s ability to reduce the peak power at the transformer and indicates the impact it has on users due to the reduction in the average charging rates. The outcomes of the paper provide the distribution grid operators an insight on the voltage-based droop control mechanism for the future grid planning and investments.
Sie werden beobachtet
(2022)
In recent years, ultrashort pulsed lasers have increased their applicability for industrial requirements, as reliable femtosecond and picosecond laser sources with high output power are available on the market. Compared to conventional laser sources, high quality processing of a large number of material classes with different mechanical and optical properties is possible. In the field of laser cutting, these properties enable the cutting of multilayer substrates with changing material properties. In this work, the femtosecond laser cutting of phosphor sheets is demonstrated. The substrate contains a 230 micrometer thick silicone layer filled with phosphor, which is embedded between two glass plates. Due to the softness and thermal sensitivity of the silicone layer in combination with the hard and brittle dielectric material, the separation of such a material combination is challenging for both mechanical separation processes and cutting with conventional laser sources. In our work, we show that the femtosecond laser is suitable to cut the substrate with a high cutting edge quality. In addition to the experimental results of the laser dicing process, we present a universal model that allows predicting the final cutting edge geometry of a multilayer substrate.
Mit der Aufforderung «Eidgenossen helft euren Brüdern in Not!» machte 1919 ein Pro Vorarlberg Komitee in der Schweiz Werbung für einen Beitritt des bei Ende des Ersten Weltkrieges neu gegründeten österreichischen Bundeslandes Vorarlberg zur Eidgenossenschaft. Am 11. Mai 1919 hatte ein Plebiszit eine Zustimmung von 80% für die Aufnahme von Verhandlungen mit Blick auf einen möglichen Beitritt zur Schweiz ergeben. Die in diesem Band versammelten Dokumente aus den nationalen Archiven in Bern, London und Wien sowie aus Regionalarchiven links und rechts des Rheins ermöglichen die Rekonstruktion der sog. Vorarlberger Frage der Jahre 1918–1922 und geben zudem Antwort auf die Frage, wie es den «Schwestern in Not» im alemannischen österreichischen Landesteil erging.
Entangled photon generation at 1550 nm in the telecom C-band is of critical importance as it enables the realization of quantum communication protocols over long distance using deployed telecommunication infrastructure. InAs epitaxial quantum dots have recently enabled on-demand generation of entangled photons in this wavelength range. However, time-dependent state evolution, caused by the fine-structure splitting, currently limits the fidelity to a specific entangled state. Here, we show fine-structure suppression for InAs quantum dots using micromachined piezoelectric actuators and demonstrate generation of highly entangled photons at 1550 nm. At the lowest fine-structure setting, we obtain a maximum fidelity of 90.0 ± 2.7% (concurrence of 87.5 ± 3.1%). The concurrence remains high also for moderate (weak) temporal filtering, with values close to 80% (50%), corresponding to 30% (80%) of collected photons, respectively. The presented fine-structure control opens the way for exploiting entangled photons from quantum dots in fiber-based quantum communication protocols.
IBH Living Lab AAL
(2021)
Arrayed Waveguide Grating (AWG) is a passive optical component, which have found applications in a wide range of photonic applications including telecommunications and medicine. Silica-on-Silicon (SoS) based AWGs use a low refractive-index contrast between the core (waveguide) and the cladding which leads to some significant advantages such as low propagation losses and low fiber coupling losses between the AWG waveguides and the fibres. Therefore, they are an attractive DWDM solution offering higher channel count technology and good performance characteristics compared to other methods. However, the very low refractive-index contrast means the bending radius of the waveguides needs to be very large (on the order of several millimeters) and may not fall below a particular critical value to suppress bending losses. As a result, silica-based waveguide devices usually have a very large size that limits the integration density of SiO2-based photonic integrated devices. High-index contrast AWGs (such as silicon, silicon nitride or polymer-based waveguide devices) feature much smaller waveguide size compared to low index contrast AWGs. Such compact devices can easily be implemented on a chip and have already found applications in emerging applications such as optical sensors, devices for DNA diagnostics and optical spectrometers for infrared spectroscopy.In this work, we present the design, simulation, technological verification and applications of both, the low-index contrast and high-index contrast AWGs. For telecommunication applications AWG-MUX/Demux with up to 128-channels will be presented. For medical applications the AWG-spectrometer with up to 512-channels will be presented.This work was carried out in the framework of the projects: ADOPT No. SK-AT-20-0012, NOVASiN No. SK-AT-20-0017 and AUTOPIC No. APVV-17-0662 from Slovak research and development agency of Ministry of Education, Science, Research and Sport of the Slovak Republic and No. SK 07/2021 and SK 08/2021 from Austrian Agency for International Cooperation in Education and Research (OeAD-GmbH); and project PASTEL, no. 2020-10-15-001, funded by SAIA.
A Telecom optical fibers are still being the best transmission medium of digital data and analogue signals for long distance applications. Progress in integrated photonics enables development of photonic chips with new unique properties, circuits of the future, and overcomes current limits in information and communication technologies. The packaging of photonic chips is necessary for taking them out of research laboratories into real implementation in the information and communication technology applications. One important step of packaging is effective coupling of optical radiation between telecom optical fiber with ten microns core dimension and photonic chip optical waveguide with submicron dimensions. For complex photonic chips, it is necessary to couple not one optical fiber but several optical fibers, which are arranged in fiber arrays. In this case, it is necessary to use a 6D positioning system, which allows to optimally adjust the relative position of the photonic chip and the fiber arrays. After setting the optimal relative position of the photonic chip and the fiber array, the process of their fixation follows. One possibility of fixation is gluing with an adhesive in the optical path between the photonic chip and an array of optical fibers with a refractive index close to the refractive index of the optical fiber core. This paper is focused on the experimental test set-up for the temperature characterization of fiber array to photonics chip butt coupling at 1310 nm and 1550 nm wavelengths fixed themselves by UV adhesive in the optical path. The main aims of this works are selection of better adhesive from two types for gluing of photonic chip and fiber array in packaging process of photonics chips and validation of gluing process developing. The coupling and alignment of fiber arrays to photonics chip were done by automated active alignments system and they were fixed themselves by curable epoxy adhesive. Temperature changes of coupling insertion losses are measured and investigated for two different UV adhesives during three temperature cycles from -40 °C to 80 °C in climatic chamber according to Telcordia. Spectral dependence of insertion losses were measured and compared before and after three temperature cycles for 1530 nm to 1570 nm spectral range at room temperature.
This work was supported by the Slovak Research and Development Agency under the contracts APVV-17-0662 and SK-AT-20-0017 and by the COST Action “European Network for High Performance Integrated Microwave Photonics” (EUIMWP) CA16220.
In this paper, design of 1×8 multimode interference passive optical splitter is proposed. The structure of the splitter is designed based on a silicon nitride material platform. This work aims to find the minimum physical dimensions of the designed splitters with the satisfactory optical performance. According to the minimum insertion loss and minimum non-uniformity, the optimum length of the splitters is determined.
Femtosecond laser ablation on Si generates 2D ripple structures, known as laser induced periodic surface structures (LIPSS) and pinholes. We fabricated membranes with 20 to 50 μm thickness perforated by an array of tapered pinholes up to 5 μm in diameter and 10 to 20 μm spacing. Within several micrometer the pinholes transform into hollow photonic waveguides with constant diameter from 1μm to 2μm. Such structures offer a 3D photonic coupling device for polymer Y-branch- and MMI-splitter. We measured a considerable change of electrical resistivity for 500 ppm H2 in air using Si/SiO2/TiO2 substrates with 2D LIPSS. We propose to investigate 3D waveguide arrays also for photonic-chemical sensors.
In this paper we report on the experimental test set-up for the temperature characterization of fiber array to photonics chip butt coupling at 1310 nm and 1550 nm wavelengths. The alignment and gluing of fiber arrays to photonics chip were done by automated active alignments system and they were fixed themselves by UV curable epoxy adhesive. Temperature changes of coupling insertion losses are measured and investigated for two different UV adhesives during three temperature cycles from -40 °C to 80 °C in climatic chamber. Spectral dependence of insertion losses was measured and compared before and after three temperature cycles for 1530 nm to 1570 nm spectral range at room temperature.
We present design, simulation and optimization of polymer based 16-channel, 100-GHz AWG designed for central wavelength of 1550 nm. The input design parameters were calculated applying AWG-Parameters tool. The simulations were performed applying a commercial photonic tool PHASAR from Optiwave. The achieved transmission characteristics were evaluated by AWG-Analyzer tool and show a satisfying agreement between designed and simulated AWG optical properties. Finally, the influence of the number of phased array (PA) waveguides on the AWG performance was studied. The results show that there is a certain minimum number of PA waveguides necessary to reach sufficient AWG performance.
This paper presents the design, simulation, and optimization of a 1×128 multimode interference (MMI) splitter with a silica-on-silicon channel profile. This work aims to study the influence of the different S-Bend output waveguide shapes at the end of the MMI coupler on the final optical properties. The 1×128 MMI splitters have been simulated using beam propagation method in OptiBPM software. The optical properties of all considered splitters with different shapes of outputs waveguides are discussed and compared with each other. Based on the minimum insertion loss and non-uniformity, the final shape of output waveguides, ensuring the lowest losses, is determined.
Today, optics and photonics is widely regarded as one of the most important key technologies for this century. Many experts even anticipate that the 21st century will be century of photon much as the 20th century was the century of electron. Optics and photonics technologies affect almost all areas of our life and cover a wide range of applications in science and industry, e.g. in information and communication technology, in medicine, life science engineering as well as in energy and environmental technology. However even so attractive, the photonics is not well known by most people. To motivate especially young generation for optics and photonics we worked out a lecture related to the “light” for children aged eight to twelve years. We have prepared many experiments to explain the nature of light and its applications in our everyday life. Finally, we focused on the optical data transmission, i.e. how modern communication over optical networks works. To reach many children at home we recorded this lecture and offered it as a video online in the frame of children’s university at Vorarlberg University of Applied Sciences. By combining the hands-on teaching with having a fun while learning about the basic optics concepts we aroused interest of many children with a very positive feedback.
The increasing digitalisation of daily routines confronts people with frequent privacy decisions. However, obscure data processing often leads to tedious decision-making and results in unreflective choices that unduly compromise privacy. Serious Games could be applied to encourage teenagers and young adults to make more thoughtful privacy decisions. Creating a Serious Game (SG) that promotes privacy awareness while maintaining an engaging gameplay requires, however, a carefully balanced game concept. This study explores the benefits of an online role-playing boardgame as a co-designing activity for creating SGs about privacy. In a between-subjects trial, student groups and educator/researcher groups were taking the roles of player, teacher, researcher and designer to co-design a balanced privacy SG concept. Using predefined design proposal cards or creating their own, students and educators played the online boardgame during a video conference session to generate game ideas, resolve potential conflicts and balance the different SG aspects. The comparative results of the present study indicate that students and educators alike perceive support from role-playing when ideating and balancing SG concepts and are happy with their playfully co-designed game concepts. Implications for supporting SG design with role-playing in remote collaboration scenarios are conclusively synthesised.
Mentoring wird traditionell als unterstützende Beziehung zwischen einer (zumindest in einem Teilbereich) weniger erfahrenen und erfahreneren Person gesehen, wobei sich die Inhalte und Zielsetzungen je nach Kontext und beteiligter Personen unterscheiden. Es wird im englischsprachigen Umfeld schon seit vielen Jahren praktiziert und gewinnt im europäischen und auch deutschsprachigen Bereich zunehmend an Popularität.
Ausgehend von meiner eigenen Tätigkeit und Erfahrung als Mentorin für zwei Teams von jungen ostafrikanischen Sozialunternehmern, bin ich der Frage nachgegangen, wie sich interkulturelle Mentoring-Beziehungen durch Design unterstützen und wie sich eine gestaltete Intervention drei weitere Ziele auf dem Weg erreichen lassen – die beidseitige Lernerfahrung reichhaltig gestalten; das Soziale Kapital (Social Capital) beider, des Mentees und Mentors, erhöhen und diversifizieren; und die Wertschätzung für Vielfalt, über die Beziehung hinaus, steigern.
Durch die verstärkte Migration, z.B. bedingt durch den Fachkräftemangel und berufliche Mobilität ganz allgemein, sowie die Internationalisierung von Unternehmen, sehe ich Bedarf für eine Lösung. Forschungsergebnisse von Voigt (2013) denen nach Mentoring in deutschen Tech-Unternehmen eher als „Anpassungsinstrument“ eingesetzt wird, und damit Potentiale, die durch Zusammentreffen von Menschen unterschiedlicher Hintergründe entstehen, vernachlässigt werden, haben mich zusätzlich in meiner Annahme bestätigt.
Neben extensiver Literaturrecherche, Expert:innen-Interviews, diversen Erhebungen zur Einschätzung von Mentoring und Diversität bzw. der Zusammenarbeit von Menschen diverser kultureller Hintergründe, habe ich außerdem eigene Erfahrungen per Selbstethnografie erfasst. Die resultierenden Erkenntnisse, sind in Übungen bzw. Werkzeuge und ein Spiral-Model für Interkulturelle Mentoring-Beziehungen eingeflossen.
Zusammen mit Information zu den Themen Mentoring, Kultur und Lernen, wurden diese in einem Mentoring Playbook zusammengestellt. Diversität und die daraus entstehenden Potentiale wurden konsequent auch in die Gestaltung einbezogen, u.a. durch die Zusammenarbeit mit Gestalter:innen aus vier verschiedenen Ländern.
Das „Gestalterische Pflanzenwissen“ bietet dem Design eine systematische Vorgehensweise im Umgang mit Pflanzen. Die Methode beinhaltet eine konkrete Handlungsanleitung und führt zu innovativen Designlösungen. Die gestalterische Auseinandersetzung mit der Natur wirkt der Entfremdung entgegen, denn die allumfassende disruptive Technologie der Gegenwart vergrößert zusehends den Abstand zwischen Natur und Mensch. Außerdem ist es von Bedeutung, hierfür adäquate Designlösungen bereitzustellen, um die Sehnsucht nach Natur zu stillen. Um ein Problembewusstsein für die „Naturentfremdung“ in der Gesellschaft zu verankern, bieten sich intermediale Interventionen in Form von kurzen Videoclips an.
Diese Arbeit beschäftigt sich mit der Analyse von Blasenindikatoren speziell des Immobilienbereichs, aber auch von Aktienmärkten. Im ersten Teil der Arbeit wird versucht, vergangene Blasenbildungen aufzuzeigen und zu erläutern, weshalb sich diese bilden konnten und schlussendlich geplatzt sind. Dies soll einem besseren Verständnis der restlichen Arbeit dienen. Weiters werden Indikatoren, die üblicherweise genutzt werden, um einen Markt einzuschätzen aufgezeigt und erläutert. Ebenfalls werden diese teilweise zueinander in Relation gestellt, um Zusammenhänge der einzelnen Indikatoren zu erkennen. Im Anschluss dieser Aufstellung werden bekannte, vom internationalen Markt anerkannte, Indikatoren aufgezeigt und erläutert und mit Beispielen unterlegt. Den Abschluss der Arbeit bildet das Einsetzen von ausgewählten Indikatoren für die Märkte Schweiz und Österreich und ein daraus abgeleitetes Fazit, ob eine Blase in diesen Ländern als Wahrscheinlich gilt oder nicht. Auch wird erläutert, dass ein einzelner Indikator wenig bis keine Aussagekraft zur Einschätzung einer Blasensituation hat, sondern Indikatorensets dazu benötigt werden.
Beim Online-Lernen ist es wichtig, angemessenes Feedback zu geben, damit der Schüler aus seinen Fehlern lernen und sich weiterbilden kann. Oft besteht Feedback nur aus ungenügenden Informationen, wie etwa nur aus den Worten „Richtig“ oder „Falsch“, mit denen der Schüler nicht viel anfangen kann und somit nicht aus seinen Fehlern lernen kann. Ein gutes Feedback bei inkorrekten Antworten enthält wichtige Informationen, warum eine Antwort oder Aktion falsch ist und wie sie verbessert werden kann. Bei korrekten Antworten ist ein Lob oder eine Anerkennung der richtigen Antwort ebenfalls fördernd.
In dieser Arbeit wird das Feedback des Systems XData, welches für das Erlernen von SQL (Structured Query Language) genutzt wird, verbessert. Dazu wird das aktuelle System beschrieben, um das aktuelle Feedback bei SQL-Queries beurteilen zu können. Um das aktuelle Feedback angemessen verbessern zu können, wird ein Einblick in die Themen Lernen und Feedback gegeben. Die aus den beiden Themen gewonnen Eindrücke und Erkenntnisse werden bestmöglich für das zu verbessernde Feedback genutzt. Um das System und sein Feedback beurteilen zu können, sowie das verbesserte Feedback bewerten zu können, werden verschiedene SQL-Queries (Abfragen) verwendet. Es wird die Implementierung des Feedbacks durch ein Textbausteinsystem beschrieben und die verschiedenen Feedback-Fälle vorgestellt. Abschließend werden die Resultate beschrieben und beurteilt, sowie über die Ausblicke des Systems diskutiert.
Debugging errors in software applications can be a major challenge. It is not enough to know that a specific error exists, but the cause of it must be found in order to be able to fix it. Finding the source of an error can be time and cost intensive. The general approach is to analyse and debug the presumably erroneous part of the software. The analysis can be accompanied by instrumentation to gather additional information during the program execution. The analysis is made more difficult by the existence of different errors categories. Each category may need to be handled individually. Especially in embedded software applications, which commonly lack features like process or memory isolation, error detection and prevention can be even more challenging. This is the kind of problem this thesis tackles. This thesis tries to support developers during debugging and troubleshooting. The main focus is on errors related to memory management and concurrency. Specific features and properties of Arm Cortex-M processors are used to try to detect errors as well as their causes. For example, the memory protection unit is used to isolate the stack memories of different tasks running in a RTOS. The thesis tries to provide as much information as possible to the developer when reporting errors of any kind. The solution developed in this thesis also contains a custom memory allocator, which can be used to track down errors related to dynamic memory management. Furthermore, a Eclipse plugin has been developed which provides assertions for array accesses to detect and prevent out-of-bound accesses. The resulting solution has been implemented in commercial embedded software applications. This ensures that the developed solution is not only suitable for newly developed applications, but also for the integration into already existing products.
A concept for a recommender system for the information portal swissmom is designed in this work. The challenges posed by the cold start problem and the pregnancy-related temporal interest changes need to be considered in the concept. A state-of-the-art research on recommender systems is conducted to evaluate suitable models for solving both challenges. The explorative data analysis shows that the article's month of pregnancy is an important indicator of how relevant an article is to a user. Neither collaborative filtering, content-based filtering, hybrid models, nor context-aware recommender systems are applicable because the user's pregnancy phase is unknown in the available data. Therefore, the proposed recommender system concept is a case-based model that recommends articles which belong to the same gestation phase as the currently viewed article.
This recommender system requires that the month of pregnancy, in which an article is relevant, is known for each article. However, this information is only available for 31% of all articles about pregnancy. Consequently, this work looks for an approach to predict the month of gestation based on the article text. The challenges with this are that only few training data are available, and the article texts of the various months of pregnancy often contain the same terms, considering all articles are about pregnancy. A keyword-based approach using the TF-IDF model is compared with a context-based approach using the BERT model. The results show that the context-based approach outperforms the keyword-based approach.
Die Wissenschaft der Sozialen Arbeit verfügt über einen reichen Schatz an Theorien und Methoden, welche für den Interreligiösen Dialog erforscht und analysiert werden können. Somit liefert die Sozialen Arbeit unterschiedliche praktischen Handlungsmöglichkeiten, um Räume zu schaffen, in denen Begegnungen auf Augenhöhe ermöglicht werden. In diesen Räumen lernen sich Vertreter*innen der verschiedenen Religionsbekenntnisse kennen, um sich auszutauschen und einen Beitrag zur Friedensarbeit zu leisten. Dabei spielt die persönliche Identität jedes einzelnen eine bedeutende Rolle. Denn Voraussetzung für diesen Dialog ist laut Stuart Hall, Kulturwissenschaftler, dass „jede Form von Identität durch das Nadelöhr des anderen hindurchmüsse“. (Terkessidis 2001, Online Zugriff am 4. Mai 2021)
Homi K. Bhabha, Postkolonialtheoretiker erforscht in seinen Arbeiten dieses „Nadelöhr“, um den Begriff der Identität neu beschreiben zu können. Er sieht in der Identitätsbildung einen Prozess, der sich aufgrund der kulturellen Differenz ergibt. Dadurch ist es für ihn undenkbar, die ursprüngliche Identität oder übernommene Traditionen aufrecht zu erhalten. In den Zwischen-Räumen findet die Begegnung an den identitätsbedingten Grenzen statt, um „Unverträgliches, Verschwiegenes, Unbewusstes“ (Hàrs 2001, S. 2) darlegen zu können. Die Begegnung in diesen Räumen ermöglicht neue Erkenntnisse, denn jede/r begegnet dem Fremden in sich und im Anderen entdeckt man das Eigene. Dabei wird die Identität für Bhabha ein Stückwerk, zu einer Teil-Ganzheit, somit kann die partielle interkulturelle Andersartigkeit dargestellt werden. (Vgl. Hàrs 2001, S. 2)
Diese interkulturellen bzw. interreligiösen Zusammentreffen brauchen einen wohltuenden Rahmen, der das Kennenlernen und den Austausch fördert. Abgesehen von einem Moderatorenteam, welches die interkulturellen Kompetenzen verinnerlicht hat, können auch unterschiedliche Methoden aus der Sozialen Arbeit zum Einsatz kommen. Diese Methoden sollen Zwischenräume entstehen lassen, in denen eine wertschätzende Kommunikation gepflegt wird. Des Weiteren sollen sie erlauben, die eigenen Identitäten zu stärken und die Neugier auf das Noch-Unbekannte fördern. Auf jeden Fall müssen diese Methoden Machtasymmetrien in Blick haben und ein Gefühl von Sicherheit vermitteln.
In the context of this master thesis, general tensions within the relationship between headquarters and their subsidiaries are examined using the practical example of a Swiss company with its subsid-iary in Kenya. Thereby, the influence of cultural aspects and the associated different expectations on management and leadership are emphasized. In doing so, two countries are compared which have not yet been considered in the same context. The objective of this master thesis is to develop a framework that enables the headquarter in the German speaking area of Switzerland and the sub-sidiary in the Bantu speaking area of Kenya to overcome cultural barriers and to increase mutual understanding in the business context. This will facilitate the identification of potentially dysfunc-tional aspects in the working relationship and provide a basis for optimizing the existing business relationship between the Swiss headquarter and the Kenyan subsidiary.
This thesis addresses the overarching question of what the two business entities need to know about each other in terms of cultural characteristics and emerging differences in business practices (in terms of management/leadership) in order to improve the overall cooperation and working rela-tionship between the headquarter and its subsidiary. Thus, the following topics are emphasized with-in this thesis: tensions within the headquarter/subsidiary relationship, concise country profiles of Switzerland and Kenya including a cultural overview of both countries, cultural concepts including organizational culture, common leadership theories related to the situational leadership approach, and finally, an evaluation of the current status quo in the working relationship between the Swiss headquarter and the Kenyan subsidiary based on interviews.
The term start-up has become indispensable when new ideas are to be turned into business ventures. The number of start-ups is continuously increasing, but at the same time, many new start-ups are marked by failure. The successful path from start-up to a stable business model is to be explored in more detail in this thesis. The focus here is on the various success factors and how decisive they are.
At present, start-ups are mainly focusing on the area of digitalisation, not only triggered by the Covid19 pandemic but also by the high demand for digital products and services. In the past, start-ups founded in Silicon Valley/USA have been incredibly successful. Nevertheless, currently many other countries offer decisive advantages for start-ups and are therefore more attractive than the Silicon Valley. In Europe, Spain stands out with a rapidly growing start-up scene, primarily in the metropolises of Madrid and Barcelona.
This Master's thesis aims to empirically investigate the interrelationships of the necessary success factors in the start-up scene for the country of Spain. The focus of the study here is on the digitalisation industry. Qualitative content analysis is used for closer examination and is carried out through expert interviews. Qualitative research allows a much deeper insight into the interviewees' personal experiences and examines non-measurable factors. The subsequent evaluation is intended to present correlations and provide new insights. In summary, a list of recommendations is generated to provide future founders with suitable suggestions and advice right from the start.
This master thesis investigates leadership traits and how they can drive success within international organizations in the digital era. The basic principles of what defines a leader have undergone significant scrutiny throughout the past one hundred years, however, the digital revolution has created the most upset when considering the requirements for efficient leadership.
This paper utilizes a literature review to first determine how modern leadership theory developed and the implications of current research, followed by an empirical study designed to collect real-world data which represents how current leaders active in various industries understand their role as a leader and what skills they use to promote success within their organization.
Cross-examination of these sources indicates that the most effective leaders employ a combination of Transformational Leadership Theory and Emotional Intelligence-based leadership. The extent to which a leader must individualize their style is strongly contingent on the organizational culture, the individual employees, and the external environment. While traits such as communication, charisma, and trustworthiness are certainly strong indications of an efficient leader, agility and adaptability clearly stand out as the traits which are most required for highly effective leaders in the digital era.
This paper gives an insight into how cybersecurity is built inside and outside banks in Austria. The research was conducted based on information received from bank representatives in Austria as well as on literature, participation in various kinds of online conferences, and so on. The main objective of this paper was to investigate the cybersecurity execution scheme and to consider the possible impact of the cultural factor on cybersecurity execution. Due to a force majeure situation like coronavirus, the author was able to obtain little information from participants, but even this helped to draw satisfactory conclusions and make recommendations to banks. Thanks to the vast amount of literature and research, confirmation of the factor under study was found, confirming the relevance of the work and the potential for further research.
Companies worldwide and, therefore, companies from Vorarlberg face a common problem: the lack of skilled workers that led to the so-called “war for talents” in the last decades. This problem encouraged scientists to investigate the importance of many different monetary incentives and non-cash benefits to win this war for talents. This master’s thesis aims to examine if and how companies in Vorarlberg already use non-cash benefits. Furthermore, the most important benefits and their influence on the attractiveness of job advertisements are identified.
For this purpose, interviews with three HR managers from companies in Vorarlberg are carried out. Subsequently, in a quantitative survey, 21 different monetary incentives and non-cash benefits, intangible non-cash benefits, and corporate culture are evaluated by 316 participants. Furthermore, the participants ranked five different job advertisements to conceive results on the research questions.
The results clearly show that non-cash benefits are far more critical for future employees than classical monetary incentives. Although the number of international participants was lower than the number of Austrian and German participants (41 to 81 to 194), it is still obvious that independent of nationality, non-cash benefits can lead to a competitive advantage for companies in Vorarlberg. The interviews show that companies already work with such benefits in their daily business but do not strategically communicate on the topic.
To summarize, it can be concluded that a variety of non-cash benefits should be implemented within a company and also should be mentioned in job advertisements as they can help to attract more applicants not only from Austria but also from abroad and, therefore, help to win the war for talents.
Leadership, leader-follower relationship, and
subordinates’ behaviors during the Covid-19
pandemic
(2021)
.Certeau
(2021)
In today’s world, companies feel the urge to disguise from competitors and to connect emotionally with consumers in order to foster a meaningful and long-lasting relationship. Simultaneously, stakeholders demand an increase of companies’ social responsibility. Cause-related marketing (CRM) is a marketing tool that addresses the change in societal values and the rising expectations from stakeholder groups. The increasing number of companies that choose to partner with a non-profit organization highlights that linking a charitable cause to the company's brand is an effective marketing tool. Authors illustrate that CRM, as a form of showing corporate social responsibility, will become even more important in the future. This master thesis examines the relationship between CRM, emotions, and culture. The research goal is to identify if CRM programs are effective in evoking emotions in consumers and if the cultural background of a consumer influences the evocation of certain emotions. The empirical findings outline that CRM programs are effective in evoking emotions. Other-focused emotions evoked by CRM programs are stronger expe-rienced by members of collectivistic countries than by members of individualistic countries. Likewise other-focused emotions evoked by CRM programs are stronger experienced by high interdependent selves than by low interdependent selves.
HRM Practices and Innovative Work Behavior: Employee Involvement and Job Auton-omy as influencing factors of Innovative Work Behavior
An organization´s capacity to innovate often resides within its employee´s innovative work behavior. Previous research suggested positive effects of employee involvement and job autonomy on innovative behavior. This research aims to analyze the impact of involvement- and autonomy-focused HRM practices (participation, information-sharing, work-scheduling autonomy, decision-making autonomy, and work-methods autonomy) on innovative work behavior. It is hypothesized that all five HRM practices mentioned above positively influence employees´ innovative work behavior. Therefore, a cross-sectional quantitative research design was chosen. Online questionnaire data from 376 employees in Austria was analyzed. Although all five HRM practices correlated with innovative work behavior, only work-methods autonomy had a statistically significant influence on the innovative work behavior of all employees. Thus, practitioners should include work-methods autonomy as critical HRM practice in a “high-innovation” HRM system to facilitate employees´ innovative work behavior.
In der vorliegenden Masterarbeit wird das Verbesserungspotential von Gebäudeleitsystemen am Beispiel der Errichtergemeinschaft Frühlingstraße untersucht. Der Fokus bei der Analyse liegt auf der Ermittlung von Verbesserungen im Bereich der Regel- und Steuerstrategien. Beim Referenzobjekt handelt es sich um sieben Einfamilienhäuser, die durch einen zentralen Pelletkessel mit Wärmeenergie versorgt werden, welche über das miteinander verbundene Kellergeschoss verteilt wird.
Im Kapitel Stand der Technik werden die Gebäudeleitsysteme von Mehrfamilien-Wohnanlagen in den 2000er Jahren und in den 2020er Jahren mit dem ausgeführten Gebäudeleitsystem des Referenzobjektes der Errichtergemeinschaft Frühlingstraße, bei dem es sich ebenfalls um eine Mehrfamilien-Wohnanlage handelt, miteinander verglichen. Nach dem Kapitel Forschungsstand wird die verwendete Methode kurz umrissen. Ein wichtiger Schritt zur fertigen Simulation ist das Verstehen der bestehenden Steuer- und Regelstrategien. Dabei wird sehr genau auf die Regelung der Häuser und des Pelletkessels eingegangen. Ebenfalls werden die zu simulierenden Komponenten, die zur Verfügung gestellten Messdaten und die verwendete Simulationssoftware Polysun beschrieben. Bei der Simulation des Referenzobjektes wird speziell auf die verwendeten Komponenten, aber auch auf die umgesetzten Regel- und Steuerstrategien eingegangen. Die Beschreibung der einzelnen Varianten beschränkt sich auf den Unterschied zur Simulation des Referenzobjektes.
Die einzelnen Varianten unterscheiden sich im Bereich des solaren Deckungsanteils nur sehr geringfügig. Die solare Ausbeute in den Monaten Mai bis August ist bei den Varianten 3 und 4 jedoch deutlich höher als bei den anderen Varianten. Ein deutlicher Unterschied ist auch im Bereich des Pellet-Verbrauchs auszumachen. Bei der Variante 4 werden im Vergleich zum Referenzobjekt jährlich gut 800 kg Pellets eingespart. Dies bedeutet eine Reduktion des CO2-Ausstoßes um 167,8 kg. Dieser Trend der Reduktion kann auch bei den Betriebsdauern des Pelletkessels fortgesetzt werden. Der größte Unterschied der einzelnen Varianten ist bei den Anforderungen des Pelletkessels auszumachen. Somit wird der Pelletkessel bei der Variante 2 14536-mal angefordert und bei der Variante 4 lediglich 3353-mal.
Diese Verbesserungen können durch kleine Anpassungen der Regel- und Steuerstrategien erzielt werden. Gerade weil die Low-Tech Gebäude des Referenzobjekts sehr energieeffizient umgesetzt und nicht mit technischer Ausstattung überladen wurden, können die ermittelten Verbesserungspotentiale bei anderen Gebäuden umgesetzt werden. Bei Gebäuden, die nicht als Low-Tech Gebäude errichtet wurden, ist durch die Anpassung des Gebäudeleitsystems ein größeres Verbesserungspotential zu erwarten.
In dieser Arbeit werden die Emissionsvermeidungspotenziale verschiedener Maßnahmen für einen Milchviehbetrieb in Vorarlberg analysiert. Es werden verschiedene Möglichkeiten beleuchtet, wie diese Treibhausgaseinsparungen auf dem freiwilligen Emissionsmarkt handelbar gemacht und dadurch finanziert werden können. Hintergrund ist, dass der Milchviehbetrieb eine Biogasanlage besitzt, für welche die Förderperiode ausgelaufen ist. Da die Biogasanlage ohne geförderten Einspeisetarif nicht mehr wirtschaftlich ist, wurde, um den Einspeisetarif anzuheben, das Pilotprojekt einer Erneuerbare-Energie-Gemeinschaft gestartet. Aus diesem Grund wird auch die Möglichkeit der Integration des Treibhausgasemissionshandels in die Erneuerbare-Energie-Gemeinschaft geprüft. Dies soll in Form einer Umlegung der Mehrkosten für die Emissionsminderungsmaßnahmen auf den Strompreis innerhalb der Erneuerbare-Energie-Gemeinschaft geschehen. Ergebnis ist, dass die Höhe des Aufschlags stark vom Umsetzungserfolg (Menge der Emissionseinsparungen), den Umsetzungskosten (Gestehungskosten der Klimaschutzmaßnahmen) und von den Transaktionskosten (Verwaltung) abhängt. Der Aufschlag steht für eine Ökologisierung des erneuerbaren Stroms. In dieser Weise wird regional erzeugter erneuerbarer Strom zum lokal klimawirksamen „Ökostrom“. Die Erneuerbare-Energie-Gemeinschaft ist somit mehr als Stromhandel unter Nachbarn, nämlich eine Synergie zwischen Land- und Energiewirtschaft und steht für eine Sektorenkopplung auf dem Weg zur klimaneutralen Wirtschaft.
Die Ökosysteme dienen uns Menschen bereits seit hunderttausenden von Jahren als Lebensraum und sorgen durch ihre Ressourcen für unser Wohlbefinden und Überleben. Doch heute stehen wir vor gravierenden Umweltproblemen, die durch den Menschen verursacht wurden und die eine große Bedrohung für unseren Planeten darstellen. Die Ursache dafür ist unter anderem die Entfremdung des Menschen von der Natur. Immer häufiger kommt es schon während der Kindheit zu einer Entfremdung von den naturnahen Ökosystemen, dabei ist Empathie für die Ökosysteme sowie systemisches Ökologiebewusstsein unumgänglich, um unseren Planeten zu retten.
Diese Arbeit beschäftigt sich daher mit der Forschungsfrage: Wie kann ökologisches Wissen für Kinder so aufbereitet werden, dass ein Lerneffekt eintritt und dabei auch die Empathie für die naturnahen Ökosysteme gefördert wird?
Für die Beantwortung dieser Frage wurden theoretische Erkenntnisse, Best Practice Analysen und Personas herangezogen sowie explorative Experteninterviews durchgeführt. Anhand der Ergebnisse wurde ein Anforderungskatalog und eine Konzeption für eine Anwendung entwickelt, die Familien mit Kindern, in Form von unterschiedlichen digitalen Educational Games mit interaktiven Aufgaben, naturnahe Ökosysteme näherbringen soll. Als Anwendungsszenario wurde ein Protoyp für das Fohramoos am Bödele erstellt und evaluiert. Die Ergebnisse der Evaluation zeigten sowohl Motivation und Spielspaß, als auch einen Lerneffekt bei den Kindern. Außerdem wurde die Beziehung der Kinder zum Ökosystem positiv beeinflusst.
Die digitalen Vermittlungsformate sowie Educational Games sind im Bereich Bildung für nachhaltige Entwicklungen bisher nur sehr wenig erforscht. Deshalb trägt diese Arbeit dazu bei diese Forschungslücke zu schließen.
Die Nachfrage nach Brettspielen ist in den letzten Jahren merklich angestiegen, was die jährlichen Umsatzzahlen (2005: 400 Mio. Euro, 2019: 594 Mio. Euro) belegen. Jedes Jahr gibt es mehr als 1.000 Neuerscheinungen, dennoch ist der Bekanntheitsgrad neuer Brettspiele in der Gesellschaft sehr gering.
Der Großteil der Menschen spielt sehr gerne Brettspiele. Hier unterscheidet man nach der Häufigkeit des Spielens. Die Vielspieler kennen sich gut in der Branche aus und probieren sich gerne an neuen Spielen. Im Vergleich dazu spielen Gelegenheitsspieler überwiegend die gleichen Spiele. Zu der großen Varianz an Spielen haben vermutlich viele noch nicht den Zugang gefunden.
Aufgrund dessen bin ich der Frage nachgegangen, weshalb Menschen ihnen bekannte oder unbekannte Spiele spielen. Um einen Zugang zu einem unbekannten Spiel erlangen zu können, muss man mehrere Einstiegshürden bewältigen. Die Spielanleitung stellt dabei eine entscheidende Einstiegs- und Verständnishürde dar. Um ein neues Spiel zu erlernen, gibt es mehrere Methoden, die ich in meiner Arbeit thematisiert habe. In dem Lernprozess kommen unterschiedliche Probleme auf. Aufgrund dessen sollte man, zumindest nach meiner Meinung, diesen Prozess optimieren.
Das Ziel meiner Arbeit ist es, die Einstiegshürde in ein unbekanntes Spiel zu senken und damit einen einfacheren und schnelleren Zugang zum Erlernen des Spiels zu ermöglichen.
Ich konnte belegen, dass die Spielanleitung ein wichtiger Bestandteil im Lernprozess darstellt und nicht ersetzt werden kann. Um den Lernprozess zu optimieren, habe ich eine ergänzende Umsetzung einer Spielanleitung konzipiert, die den praktischen Teil der Arbeit bildet.
Dadurch entstand ein multimodales Konzept, dass den Spieler*innen eine Hilfestellung während des Erlernens eines Spiels gibt. Das Medium soll eine App sein, in der Spiele anhand Animationen erklärt werden. Die Animationen sind modular aufgebaut und sind auf der Basis des Forschungsprojektes EMPAMOS entstanden. Zusätzlich kann man mithilfe eines Chat Bots individuelle Fragen per Texteingabe oder Sprachsteuerung zum erlernenden Spiel stellen.
Ritualgestaltung
(2021)
Bei dem Begriff ‚Ritualgestaltung‘ handelt es sich um eine vergleichsweise junge Wortkombination, die einerseits in einem wissenschaftlichen Rahmen diskutiert wird und andererseits in der gegenwärtigen Praxis der Ritualgestaltung aufzufinden ist.
Die vorliegende Arbeit thematisiert das Ritualverständnis und verschafft einen Überblick über die verschiedenen Aspekte der Ritualgestaltung. Hierbei steht die praktische Arbeit am Beispiel eines Übergangsrituals für Jugendliche zum Erwachsenwerden im Fokus. Die Diskussion der Ritualgestaltung umfasst einen wissenschaftlichen Diskurs sowie die Darstellung der gegenwärtigen Praxis der Ritualgestaltung. Dabei wird Ritualgestaltung aus der Perspektive des Fachbereichs Design analysiert. Mit der Betrachtung aus der Designperspektive soll zum einen die Theorie über die gegenwärtige Ritualgestaltung erweitert und zum anderen eine Grundlage für eine Praxisanwendung der Ritualgestaltung gegeben werden. Ziel der vorliegenden Arbeit ist es, einen Beitrag zur Verortung von Ritualgestaltung zu leisten.
Für die Theorieerweiterung wird das Feld Ritualgestaltung mithilfe der Bildung von Kategorien und Tätigkeiten aus dem Fachbereich Design wie beispielsweise Re-Design, Adaption und Formatierung interpretiert. Diese Interpretation findet anhand von vier Modalitäten der Ritualgestaltung statt, welche auf Grundlagen von Theorie und mithilfe von Beispielen kritisch diskutiert werden.
Die Praxisanwendung der Ritualgestaltung erfolgt am Beispiel eines Übergangsrituals für Jugendliche zum Erwachsenwerden. Es wird ein Überblick über bestehende Übergangsrituale gegeben sowie die Relevanz für ein solches Übergangsritual dargelegt. Anhand eines klassischen Entwurfsprozesses wird ein fiktives Ritual gestaltet, diskutiert und evaluiert.
Traktorbedienerinnen und Traktorbediener haben das Problem, dass multimodale Mensch-Maschine-Schnittstellen von Traktoren unzureichend bedienbar sind. Dies macht sich vor allem durch lange Einlernzeiten, kognitiver Überforderung aufgrund des Funktionsumfangs und ineffizientem Bedienverhalten bemerkbar.
Traktoren werden längst nicht mehr nur durch mechanische Schalter, Hebel und Tasten gesteuert. Die Bedienung einer modernen landwirtschaftlichen Zugmaschine ist multimodal: primäre Funktionen, wie das Fahren und die grundlegende Steuerung von Anbaugeräten, werden von den Nutzerinnen und Nutzern über haptische Bedien- und Stellelemente ausgeführt, doch Justierungen und Automationen während und vor der Arbeit mit dem Traktor finden vollständig über die Software statt. Über einen Bildschirm werden z. B. Einstellungen an angehängten Anbaugeräten vorgenommen, teilautonome Prozesse zur Austragung justiert, automatische Lenkung und Dokumentation initiiert, Traktor-bedingte Einstellungen, wie z. B. Hydraulikanpassungen ausgeübt, Komfortfunktionen wie das Radio bedient und umfassende Informationen zur Maschine und der Peripherie aufgerufen.
Eine Software muss in diesem Umfeld eine Vielzahl an Informationen verarbeiten und das komplexe System Traktor mit seinen Anbaugeräten funktional darstellen können. Die Traktorenbedienung wird also von enorm vielen Kontexten beeinflusst, die wechselwirken.
Diese Kontexte, wie z. B. Eigenheiten der Bedienerinnen und Bediener, Maschinenkonditionen oder die Art der Tätigkeit, um nur einige wenige zu nennen, muss die Software adressieren können – doch das macht sie in den aktuellen Systemen nicht ausreichend. Dies zeigt sich aus wissenschaftlichen Veröffentlichungen zur Software-Ergonomie in Traktoren und empirischen Untersuchungen im Rahmen dieser Masterarbeit. So ist es für die Bedienerinnen und Bediener ineffizient, wenn sie Prozesse für eine Aufgabe auf dem Feld ausführen müssen, die repetitiv sind. Diese Masterarbeit konzipiert daher anhand des Adaptive User Interface Ansatzes einen Vorschlag für eine Software, die diesem kontextreichen Umfeld gerecht werden kann und zu einer kognitiven Entlastung führen soll. Ein Adaptive User Interface ist ein intelligentes Schnittstellenkonzept, das anhand von Sensorik und Machine Learning Inhalte, Darstellung und Funktionen adaptieren kann. Durch umfassende Analysen des Ist-Stands von Traktor-Softwares und der Befragung und Beobachtung von Bedienerinnen und Bedienern in ihrem alltäglichen Arbeitsumfeld konnten Anforderungen spezifiziert, und darauf basierend iterativ Lösungen entwickelt werden. Das Ergebnis ist ein evaluiertes GUI-Konzept, das auf zwei übereinander angeordneten Bildschirmen basiert und mittels Touch-Eingabe und einer 4-Wege-Taste bedient wird. Auf den Bildschirmen werden Funktionen für Traktor und Schnittstellen, mit denen die Anbaugeräte betrieben werden, getrennt dargestellt. Dies soll für eine Entlastung des Funktionsüberschusses sorgen. Kern dieses Konzepts ist jedoch die Implementierung des adaptiven Ansatzes: Basierend auf dem Kontext werden Adaptionsvorschläge in Form von Dialogen unterbreitet, die minutenlange Arbeitsschritte durch die Software um ein Vielfaches verkürzen können – so steigt die Effizienz enorm. Weiter soll das Konzept durch einen umfassenden Onboarding Prozess und intelligente Hilfsfunktionen auf die optimale Nutzung durch sowohl Anfängerinnen und Anfänger als auch Expertinnen und Experten vorbereiten.
In this work, the simulation possibilities of transient magnetic fields are investigated. For this purpose, an experimental setup is established to compare the simulation results with actual measurement data.
The experimental set-up consists of two coils, which are placed on two U-shaped iron cores. These cores are then brought together to form two air-gaps. These two gaps are used for measurement and the optional insertion of samples. The simulations are carried out with the finite element method (FEM) program ANSYS Maxwell 19R3.
In the first experiments, static simulations and measurements are compared to verify the validity of the available material data and the simulation techniques, especially the symmetry considerations, excitations of the coils, and boundary conditions. The static simulations show two main sources of uncertainty. The B-H curve of the core material used in the simulations and the air-gap distance uncertainty.
After validating the simulations with the static measurements, transient experiments are performed. In these experiments, the qualitative agreement of the simulation and measurement, as well as the characteristic rise times are compared. The experiments show a decisive influence of the considered loss mechanisms on the agreement of the simulation results with the measurements. Therefore, several simulations with different loss mechanisms are performed.
Finally, also the simulation capability including a material sample in the upper gap is investigated. Therefore, the conformity of the relative change of the measurement and the simulation is compared.
In the experiments a good simulation capability within a 5% error bar is seen. The main difficulty of this work represents the uncertainty due to the available material data. It is assumed, that with more accurate material data the error can be reduced significantly.
Die bösen Zehn
(2010)
This paper analyses an electrical test tower of the OMCIRON electronics GmbH and evaluates whether a Predictive Maintenance (PdM) strategy can be implemented for the test towers. The company OMICRON electronics GmbH performs unit tests for its devices on test towers. Those tests consist of a multitude of subtests which all return a measurement value. Those results are tracked and stored in a database. The goal is to analyze the data of the test towers subtests and evaluate the possibility of implementing a predictive maintenance system in order to be able to predict the RUL and quantify the degradation of the test tower.
By assuming that the main degradation source are the relays of the test tower, a reliability modelling is performed which is the model-driven approach. The data-driven modelling process of the test tower consists of multiple steps. Firstly, the data is cleaned and compromised by removing redundances and optimizing for the best subtests where a subtest is rated as good if the trendability and monotonicity metric values are above a specific threshold. In a second step, the trend behaviours of the subtests are analyzed and ranked which illustrates that none of the subtests contained usable trend behaviour thus making an implementation of a PdM system impossible.
By using the ranking, the data-driven model is compared with the reliability model which shows that the assumption of the relays being the main error source is inaccurate.
An analysis of a possible anomaly detection model for a PdM is evaluated which shows that an anomaly detection is not possible for the test towers as well. The implementability of PdM for test towers and other OMICRON devices is discussed and followed up with proposals for future PdM implementations as well as additional analytical analyses that can be performed for the test towers.
Im Rahmen dieser Masterthesis wurde beispielhaft gezeigt, mit welchen Maßnahmen die Handhabung (Gewicht, Größe) von Nasskühlern verbessert werden kann. Dabei wurde berücksichtigt, dass Kühlleistung und Durchsatz dem aktuellen Stand der Technik entsprechen.
Die zu Beginn durchgeführten Messungen an einem, in der Praxis eingesetzten, Referenzgerät und die darauffolgenden Berechnungen lieferten die thermodynamischen Größen (Temperatur, Druck). Diese physikalischen Größen lieferten die Randbedingungen der darauffolgenden Computational Fluid Dynamics (kurz CFD) Simulationen. Aus technischen Gründen wurde der Druck nicht direkt über Sensoren gemessen, sondern mit Hilfe der gemessenen Temperaturen berechnet. Da die Druckmessung einen zu starken Eingriff ins System dargestellt hätte. Um die Korrektheit der berechneten Drücke sicherzustellen, wurden in weiterer Folge die Temperaturen nachgerechnet und mit den Messwerten verglichen.
Um die Messwerte beziehungsweise die Berechnungen weiter zu bestätigen, ist zuerst ein CAD-Modell des vorhanden Referenzgerätes erstellt worden. Dieses CAD-Modell wurde dann hergenommen, um die ersten CFD Simulationen durchzuführen. Die Schwierigkeit hierbei lag bei der realistischen Abbildung der physikalischen Vorgänge, wie beispielsweise bei dem Verdampfen und Kondensieren des Kältemittels (Arbeitsmedium). Es wurden die einzelnen Komponenten des Kältekreislaufes simuliert (Wärmetauscher des Nutzmediums, Verdampfer und Kondensator des Arbeitsmediums).
Abschließend wurde ein Entwurf zur Optimierung von Schankanlagen erarbeitet. Von diesen wurden (teilweise) CAD Modelle erstellt. Die Modelle der optimierten Komponenten wurden dann, bezogen auf ihr Volumen und Gewicht, mit denen des Referenzgerätes, gegenübergestellt.
Den Abschluss der Arbeit bildet ein Fazit über die durchgeführten Berechnungen, Messungen und Simulationen. Des Weiteren wurden hier Aspekte, die nicht in der Arbeit berücksichtigt wurden, kurz aufgegriffen und erläutert.
SysML Modellierung komplexer Systeme und automatische Erzeugung domänenspezifischer Ressourcen
(2021)
Moderne Technische Systeme und ihre Entwicklung werden zunehmend komplexer. Durch eine Vielzahl bei der Entwicklung beteiligter Modelle/Dokumente wird eine konsistente und rückverfolgbare Modellierung erschwert. Model-Based Systems Engineering (MBSE) ist ein Ansatz, welcher diese Problemstellung adressiert und bei der Systementwicklung formale Modelle anstelle von Dokumenten einsetzt/verwendet. Im Gegensatz zu Dokumenten sind Modelle formal definiert, können automatisiert überprüft werden und ermöglichen eine leichte maschinelle Verarbeitung der Informationen. Im Zentrum der Entwicklung steht ein Systemmodell, welches mit einer formalen Modellierungssprache erstellt wurde. Während der Entwicklung entstehende Informationen werden in das Systemmodell integriert, sodass eine konsistente Single Source of Truth entsteht. Aus dem Systemmodell können über automatisierte Modelltransformationen domänenspezifische Ressourcen, wie beispielsweise Digital Twins, generiert werden. Digital Twins und die damit verbundenen Simulationen können einen deutlichen Mehrwert in Bereichen, wie Optimierung, Wartung und Anomalieerkennung liefern. Allerdings ist die manuelle Erzeugung Aufwändig und Fehleranfällig sein, weshalb eine automatische Erzeugung aus den Informationen des Systemmodells eine Erleichterung darstellt.
Diese Arbeit beschäftigt sich mit dieser Problemstellung und der Modellierung komplexer Systeme. Es wird ein Systemmodell mit der Modellierungssprache Systems Modeling Language (SysML) erstellt, welches durch domänenspezifische Profile erweitert wird um Modellierung/Integration der Domänen zu ermöglichen. Mittels einer Modelltransformation in Acceleo werden Informationen aus dem Systemmodell in ein Simulationsmodell der Simulationssoftware twin, welche zur Simulation von Digital Twins geeignet ist, transformiert. Der in der Arbeit präsentierte Ansatz wird anhand er Modellfabrik des Forschungszentrums Digital Factory Vorarlberg veranschaulicht.
Die Arbeit beschreibt die Entwicklung eines Open-Source Plugins für die 3D-Modellierungssoftware FreeCAD, mit welchem es möglich ist, Roboterpfade anhand von 3D-Modellen zu erstellen. Die Pfade sind in einem geeigneten Format exportierbar und können beispielsweise zur Steuerung eines Roboters durch eine speicherprogrammierbare Steuerung verwendet werden. Im ersten Teil der Arbeit wird der geplante Arbeitsablauf der Pfadgenerierung beschrieben und genauer erläutert, welche Vorteile und Pflichten die Erstellung von Open-Source-Software nach sich zieht. Anschließend wird anhand der Systeme „Robot Studio“ von ABB und „MotoSim EG VRC“ von Yaskawa analysiert, wie proprietäre Systeme die Programmierung von Roboterpfaden realisieren. Nach einem Überblick über den aktuellen Stand der Technik in der Roboterprogrammierung, wird die Implementierung des Plugins für FreeCAD beschrieben. Dazu wird anhand des Sourcecodes erläutert, wie neue Arbeitsbereiche erstellt werden können. Es werden verschiedene Funktionen implementiert, welche essenziell für die Erstellung von Roboterpfaden sind. Dazu zählen die Möglichkeit zur Definition von Koordinatensystemen, Roboterposen und das Beschreiben des Roboterpfades durch Pfadsegmente mit verschiedenen Parametern, wie Bewegungsart, Geschwindigkeit und Wegpunkte. Das Plugin wurde getestet indem eine einfache Pick & Place Anwendung erstellt wurde. Anschließend sind mögliche Erweiterungen des Plugins, wie zum Beispiel die Möglichkeit des Duplizierens von Pfadsegmenten am Ende der Arbeit beschrieben.
The purpose of an energy model is to predict the energy consumption of a real system and to use this information to address challenges such as rising energy costs, emission reduction or variable energy availability. Industrial robots account for an important share of electrical energy consumption in production, which makes the creating of energy models for industrial robots desirable. Currently, energy modeling methods for industrial robots are often based on physical modeling methods. However, due to the increased availability of data and improved computing capabilities, data-driven modeling methods are also increasingly used in areas such as modeling and system identification of dynamic systems. This work investigates the use of current data-driven modeling methods for the creation of energy models focusing on the energy consumption of industrial robots.
For this purpose, a robotic system is excited with various trajectories to obtain meaningful data about the system behavior. This data is used to train different artificial neural network (ANN) structures, where the structures used can be categorized into (i) Long Short Term Memory Neural Network (LSTM) with manual feature engineering, where meaningful features are extracted using deeper insights into the system under consideration, and (ii) LSTM with Convolutional layers for automatic feature extraction. The results show that models with automatic feature extraction are competitive with those using manually extracted features. In addition to the performance comparison, the learned filter kernels were further investigated, whereby similarities between the manually and automatically extracted features could be observed. Finally, to determine the usefulness of the derived models, the best-performing model was selected for demonstrating its performance on a real use case.
Nicht zuletzt seit der Pandemie sind sich Wissenschaftler einig, dass Homeoffice ein fester Bestandteil der Arbeitswelt bleiben wird. Die Coronakrise hat dabei gezeigt, wie wichtig Kompetenzen, wie digitales Know-how und Selbstorganisation, sowie eine offene Unternehmens- und partizipative Führungskultur, für den Erfolg von Homeoffice sind. So soll in der Masterarbeit am Beispiel von Vorarlberg die Forschungsfrage geklärt werden, welche Voraussetzungen für Homeoffice vorliegen müssen und wie sich Homeoffice unter Berücksichtigung soziodemografischer Moderatoren auf Angestellte mit und ohne Führungsverantwortung im Arbeits- und Privatalltag auswirkt. Zur Beantwortung der Forschungsfrage wurden die Erkenntnisse aus Literatur und Forschung mittels einer quantitativen Erhebung in Vorarlberg untersucht. Anhand dieser wird ersichtlich, dass die Rahmenbedingungen in Vorarlberg überwiegend erfüllt werden, aber einzelne, wie die Ergonomie des Heimarbeitsplatzes oder Schulungen im Umgang mit dezentraler Arbeit, noch ausbaufähig sind und Homeoffice selten einzelvertraglich vereinbart wird. Dennoch sind die Angestellten Vorarlbergs insgesamt zufrieden mit Homeoffice und sehen vor allem die Produktivität und Vereinbarkeit von Privat- und Berufsleben positiver als bei der Präsenzarbeit.