Refine
Year of publication
Document Type
- Article (366)
- Conference Proceeding (341)
- Master's Thesis (223)
- Part of a Book (216)
- Book (98)
- Report (21)
- Other (14)
- Doctoral Thesis (12)
- Working Paper (7)
- Periodical (3)
Institute
- Wirtschaft (307)
- Forschungszentrum Mikrotechnik (208)
- Department of Computer Science (Ende 2021 aufgelöst) (164)
- Forschungszentrum Business Informatics (139)
- Soziales und Gesundheit (116)
- Forschungsgruppe Empirische Sozialwissenschaften (101)
- Forschungszentrum Nutzerzentrierte Technologien (90)
- Didaktik (71)
- Forschungszentrum Energie (69)
- Gestaltung (32)
Language
- German (658)
- English (641)
- Multiple languages (6)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Laser ablation (11)
- Y-branch splitter (10)
- +KDC 122 (9)
- Design : Theorie, Reflexion (9)
- Digitalisierung (7)
- Entscheidung (7)
- Machine learning (6)
Gestenbasierende grafische Benutzeroberflächen werden zunehmend beliebter. Diesbezüglich werden immer mehr Animation in Verbindung mit Nutzergesten eingesetzt.
Diese Arbeit setzt sich mit der Gestaltung von Animationen in gestenbasierten grafischen Benutzeroberflächen auseinander.
Dazu gehört auch, Animationen als Feedback auf eine hochfrequente Eingabemethode so zu gestalten, dass sie möglichst lange von Nutzern*innen als affektiv positiv wahrgenommen werden. Das Hauptaugenmerk der Arbeit liegt dabei auf der Interaktion von Nutzer*innen mit natürlichen Objektbewegungen.
Natürliche Objektbewegungen orientieren sich am Verhalten von Objekten in der physischen Welt. Sie verfügen beispielsweise über konzeptionelle Trägheit, Masse und reagieren auf unsichtbare Kräfte wie Schwerkraft.
Menschen verfügen über kausale Denkmuster, die in der physischen Welt die Interaktion mit Objekten prägen. So wissen Menschen, dass sie um ein träges Objekt wie eine Tasse zu bewegen, Energie benötigen, damit sich diese bewegt.
Untersucht wurde, ob das Verständnis von Nutzer*innen für natürliche Objektbewegungen auch in einer digitalen Umgebung existiert.
Im theoretischen Teil der Arbeit wurde die Rolle von Interfaceanimationen in modernen Benutzeroberflächen untersucht, Kriterien ausgearbeitet um eine reibungslose Nutzererfahrung zu ermöglichen und Parameter dargestellt, welche die Wahrnehmung der Charakteristik einer Animation positiv beeinflussen können. Ein zentraler Aspekt der Arbeit ist dabei die Gestaltung von natürlichen Objektbewegungen, um ein vertrautes, vorhersehbares und nachvollziehbares Nutzererlebnis schaffen können.
Anschließend wird das aus den Ergebnissen resultierende Konzept von prozeduralen Interfaceanimationen dargelegt. Eine prozedurale Interfaceanimation generiert aus den Vorgaben eines natürlichen Bewegungspfades generisch unterschiedliche Instanzen. Der Bewegungspfad kann über die Richtung und Geschwindigkeit einer Nutzergeste von dem*der Nutzer*in gesteuert werden.
In der abschließenden Evaluation wurde die elektrodermale Aktivität von 16 Probandinnen untersucht und bewertet, während diese sich mit drei unterschiedlichen Varianten der Animation auseinandersetzten. Es konnte nachgewiesen werden, dass ein unnatürlich starker Einfluss auf natürliche Objektbewegungen signifikante Unterschiede in den affektiv wahrgenommenen Reaktionen auslöst.
Globale Entwicklungen wie der Klimawandel, die Verknappung fossiler Ressourcen, die Coronapandemie oder die wachsende soziale Ungleichheit sind hochkomplexe Probleme, die das Gesellschaftssystem zunehmend destabilisieren und damit Raum für stark chaotische Entwicklungen ermöglichen. Kennzeichnend für Komplexität ist, dass rationales Überlegen oder kognitives Abwägen von Ursache-Wirkungsbeziehungen nicht mehr zielführend sind. Dabei steht im Hintergrund solcher komplexen Probleme, dass die Anzahl der (menschlichen und nicht-menschlichen) Akteure und den Verbindungen zwischen diesen nicht mehr überschau- oder analysierbar ist. In der vorliegenden Arbeit dient Forschung durch Design als Schlüssel zur Visualisierung des Chaos komplexer Systemdynamiken. So wird mittels eines detaillierten Systemmodells durch eine iterativ erstellte Visualisierung mit interaktiven Anwendungsmöglichkeiten das Fallbeispiel der Implementierung der Sustainable Development Goals in der österreichischen Politik dargestellt. Ziel dabei ist es, die zuständigen Kompetenzstellen und Antworten auf den Grad der Implementierung zu finden, wodurch einerseits daraus resultierende Handlungsempfehlungen zur Implementierung gegeben werden können, und andererseits auch Vorschläge zur Erreichung der SDGs. Als essenzielles Resultat konnte primär bestätigt werden, dass sich die Visualisierung von Systemprozessen als durchaus geeignet erwiesen hat. Zumal steht fest, dass eine sogenannte Implementierung der SDGs in Österreich nicht stattgefunden hat. Außerdem wird argumentiert, dass der Großteil der ökologischen SDGs über die Einhaltung bereits bestehender Bundes- und Landesgesetze im Rahmen des Umweltschutzes erreicht werden könnten.
GESCHICHTEN BEIM GEHEN
(2022)
Eine junge Frau geht ihre Wege durch Dornbirn, einer Stadt mit rund 50.000 Einwohnern. Sie wohnt im Zentrum der Kleinstadt, durchläuft diese meist zu Fuß, zu den unterschiedlichsten Zwecken und immer mit offenen Augen. Sie stellt fest, dass je öfter sie denselben Weg geht, sie umso mehr Neues entdeckt: Dinge abseits des Alltäglichen. Sie bemerkt, dass sie scheinbar Gleiches immer wieder anders wahrnimmt.
In diesem Buch hat sie die Geschichten, die sich während dem Vorgang des Gehens bilden, gesammelt. Diese lassen in ihrer Gesamtheit ein Bild ihrer Wege entstehen: durch Texte, Notizen, Illustrationen, Grafiken, Fotografien und Filme.
Sie (er)fasst somit den Raum, der sich bildet, wenn sie sich durch die Stadt bewegt – und macht diesen für uns sichtbar. Folgen Sie ihr auf ihrem Weg und begeben Sie sich mit den beiliegenden Karten selbst auf Entdeckungsreise. Sie werden staunen.
Geschichten beim Gehen ist ein Forschungsprojekt, das einerseits versucht eine Theorie zur Raumkonstitution (Kunst des Handelns von Michel de Certeau) in ein visuelles Erscheinungsbild zu übersetzen und gleichzeitig Methoden zur Wahrnehmbarmachung erarbeitet, die andere Karten oder Darstellungen jenseits von Karten liefern.
Die Arbeit soll als Beispiel für ein Forschen mittels gestalterischen Methoden dienen. Entstanden sind zwei Bücher: O, das Buch vom Ort und R, das Buch vom Raum. Ersteres bildet die wissenschaftliche Kontextualisierung und diskutiert die gewonnenen Erkenntnisse. Zweiteres funktioniert als visuelles Essay und zeigt angewendete gestalterische Methoden und verwendete Medien: ein Prozess im Wechselspiel von Theorie und Praxis.
Postdigitale Gaststube
(2022)
This paper sought to identify and analyze what are the barriers towards women career’s development as business leaders in Brazil and Nicaragua when it comes to the country societal variables. In order to comprehend these barriers through women’s perception, qualitative data was chosen for this investigation, which was gathered through one-to-one interviews within businesswomen from Brazil and Nicaragua that have experience in leadership positions. The results of this research confirm that societal, economic, and political factors have great influence at gender equality and in how it affects women’s progress as business leaders. Thus, it can vary considerably between countries, even when they have similar culture backgrounds. Furthermore, it is imperative to comprehend these differences in order to close any gender gap in the field.
Observing the ratios of the rail usage in terms of passenger travelled per km and per capita, we see that there are huge differences between countries, so some railway systems are performing better in catching passengers than others. By analysing the factors that make the railways attractive for users, and setting standard values for these factors, we can analyse how well a system is performing. This paper has investigated those factors and developed an assessment tool that will inform about the required improvements, so in a later stage specific strategies can be developed to increase the performance in order to attract more passengers. Spain will be used as case study, since the country has specially low passenger rail usage compared to other countries even though the large investments in high speed lines the country undertook in the last decades.
Einfluss von Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg im Banken- und Versicherungssektor
(2022)
Den Nachhaltigkeitsbegriff gibt es schon lange, doch die letzten Jahre erlebte er einen wahren Aufschwung. Die Unternehmen erkannten diese Chance und beschäftigten sich intensiver mit dem Thema der Nachhaltigkeitsberichterstattung. Mit der Global Reporting Initiative (GRI) gibt es zwar einen international anerkannten Standard, doch die meisten Unternehmen verwenden ein eigenes Format. Das erschwert die Vergleichbarkeit der Berichte. Um den Einfluss der Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg zu messen, wurden neun Banken aus der DACH-Region ausgewählt. Für sie wurde ein eigenes Scoring-Modell entwickelt. Es umfasst die Kategorien Ökonomie, Ökologie, Soziales, Kommunikation und Glaubwürdigkeit. Der Unternehmenserfolg wird durch die Rentabilitätskennzahlen Return on Sales (ROS) und Return on Equity (ROE) abgebildet. Mit dem Korrelationskoeffizienten nach Person ergab sich für den Beobachtungszeitraum 2018, 2019 und 2020 kein allgemeiner Zusammenhang. Beim Vergleich des Durchschnittswerts der drei Banken mit dem höchsten Nachhaltigkeitsscore, mit jenem der drei niedrigsten, hingegen schon (0,79). Zusätzlich war erkennbar, dass die Gruppe mit den höheren Scores auch die Ende 2019 beginnende Corona-Pandemie besser überstand. Während der ROE der Gruppe mit den niedrigsten Scores bis auf -0,74% fiel, blieb er bei der anderen Gruppe stabil bei 8%. Mittels t-Test konnte jedoch knapp keine statistische Signifikanz nachgewiesen werden (0,0627 > 0,05).
Die vorliegende Arbeit hatte zum Ziel einen Deckungsbeitragsrechnungs-Report zu erstellen. Neben einer Literaturrecherche zum Thema (mehrstufige) Deckungsbeitragsrechnungen wurde ebenfalls nach allgemeinen Design-Empfehlungen recherchiert. Hier wird insbesondere auf vier Autoren eingegangen: Eduard Tufte, Stephen Few, Eisl et al. und die International Business Communication Standards (IBCS) von Hichert und Faisst.
Der wesentliche Kern dieser Arbeit ist dann die Entwicklung eines Musterberichts. Hierfür wurde zuerst eine Vorstudie in Form von Experteninterviews durchgeführt. Im Zuge dieser ergabt sich, dass die mehrstufige Deckungsbeitragsrechnung in der Praxis nicht von so hoher Relevanz ist, wie die Literatur vermuten lässt. Deshalb wurde das Thema der vorliegenden Arbeit an dieser Stelle auch angepasst: statt der Darstellung mehrstufiger Deckungsbeitragsrechnungen werden nun einfache Deckungsbeitragsrechnungen behandelt.
Anschließend an die Vorstudie wurde ein Leitfaden zur Berichtserstellung ausgearbeitet. Nach diesem werden zuerst Ziel, Berichtsempfänger, Berichtsinhalte und Aktualisierungsintervall definiert. Im Anschluss kann ein geeignetes Tool für die Berichtserstellung gewählt werden. Die Umsetzung erfolgt dann zuerst mittels Skizzen, bevor der Bericht tatsächlich im gewählten Tool umgesetzt wird.
In weiterer Folge wurden vier Fragen ausformuliert, welche in Form eines Experiments beantwortet werden sollen. Verschiedene Grafiken wurden anhand von drei Qualitätsmerkmalen (Effektivität, Effizienz und Attraktivität) geprüft, um die Fragen zu beantworten. Die vier Fragen lauten:
1. Sind Verhältnisse (z.B. Doppel so hoch) bei Balkendiagrammen besser leserlich als in Kuchendiagrammen?
2. Ist eine räumliche Trennung von Kategorien besser als eine farbliche?
3. Sind drei Szenarien einer Kennzahl (z.B. AC, PY, BU) in einer Grafik besser im Hinblick auf die Qualitätsmerkmale als zwei Grafiken?
4. Gibt es Unterschiede bei der Abbildung von drei Szenarien zwischen IBCS konformen Darstellungen und Bullet Charts von Stephen Few?
Das Experiment hat ergeben, dass Balkendiagramme Kuchendiagrammen in allen Qualitätsmerkmalen vorzuziehen sind. Auch eine räumliche Trennung von Kategorien hat sich aufgrund der Effizienz als besser durchgesetzt. Bezüglich der zwei gegenüber drei Szenarien konnte die Grafik mit nur zwei Szenarien im Hinblick auf Effektivität und Effizienz besser abschneiden. Allerdings liegen die Werte sehr nahe beisammen und die Probanden konnten bereits in der kurzen Zeit erste Lerneffekte erzielen. Deshalb wird empfohlen, die geringen Effektivitäts- und Effizienzverluste in Kauf zu nehmen, da im Gegenzug dafür die Grafik um weitere wertvolle Informationen angereichert werden kann. Abschließend konnten sich die IBCS-konformen Darstellungen den Bullet Charts von Stephen Few gegenüber durchsetzen. Hierbei hat ein Balkendiagramm mit Abweichungs-Pins am besten abgeschnitten, gefolgt von einem Balkendiagramm mit drei Szenarien: AC, BU und PY. Mit diesen Erkenntnissen wurde dann das Musterdashboard ausgearbeitet.
Aufgrund des fortschreitenden wirtschaftlichen und gesellschaftlichen Strukturwandels und der zunehmenden Digitalisierung, hat die Bedeutung immaterieller Vermögenswerte erheblich zugenommen. Dabei steht die Goodwill-Bilanzierung und insbesondere die Folgebehandlung des bei einem Unternehmenszusammenschluss erworbenen Goodwills im besonderen Fokus der Standardsetter und Bilanzadressaten. Der bei der Folgebilanzierung des Goodwills gegebene Ermessensspielraum führt zu der Sorge, dass diese Ermessensspielräume seitens der Manager opportunistisch genutzt werden könnten. Die vorliegende Arbeit untersucht, ob bei österreichischen Unternehmen die Goodwill-Bilanzierung als Instrument für Earnings Management dient. Unter Anwendung multipler Regressionsmodelle wird ein Datensample österreichischer Unternehmen im Zeitraum von 2015 bis 2019 auf die Einflüsse möglicher Earnings Management-Motive auf die vorgenommenen Goodwill-Impairments überprüft. Die Ergebnisse zeigen, dass Manager österreichischer Unternehmen Big Bath Accounting betreiben und damit schlechte Unternehmensjahre nutzen, um Goodwill-Impairments vorzunehmen. Die Ergebnisse zeigen zudem eine Tendenz, dass Big Bath Accounting insbesondere dann zur Anwendung kommt, wenn es einen Wechsel im Finanzvorstand gibt. Weiters zeigen die Ergebnisse den hohen Einfluss der Aktionärsstruktur auf die Impairmententscheidungen. Bei Unternehmen mit großen institutionellen Aktionären liegt eine zusätzliche Kontrollinstanz vor, die Earnings Management-Verhalten reduziert. Die vorliegende Arbeit unterstützt die aktuellen Diskussionen der internationalen Rechnungslegung über die Beibehaltung des Impairment-Tests und liefert Hinweise darauf, dass bei österreichischen Unternehmen Earnings Management-Motive bei der Goodwill-Bilanzierung eine Rolle spielen.
Diese Forschungsarbeit beschäftigt sich mit der Behandlung von Klient*innen mit kognitiver Beeinträchtigung und komorbid psychischer Erkrankung im Feld der Klinischen Sozialen Arbeit. Um ein genaueres Verständnis für das Phänomen zu erlangen, wird auf die Entstehungsmechanismen und die Symptomatik von psychischen Erkrankungen bei Menschen mit kognitiver Beeinträchtigung eingegangen. Des Weiteren werden aktuelle Handlungsansätze u. a. der integrative Ansatz nach Anton Došen vorgestellt und in Verbindung mit der Klinischen Sozialen Arbeit gebracht. Die Grounded Theory von Anselm Strauss und Barney Glaser bietet den methodischen Rahmen, um durch Forschung, Theorie und Kreativität spezielle methodische Erfordernisse für die psychosoziale Behandlung dieser Zielgruppe aufzuzeigen. Die Sammlung von Daten erfolgt durch Interviewgespräche mit Professionellen und Personen die kognitiv beeinträchtigt und komorbid psychisch erkrankt sind. Zentraler Ausgangspunkt ist die These, dass es für diese Zielgruppe eine spezialisierte Behandlung benötigt und in Vorarlberg noch kein entsprechendes Angebot vorhanden ist.
Kommunikation ist Begegnung
(2022)
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.
The e-commerce market has been growing for years and this trend seems to be continuing. Online stores for clothing are very successful. It seems that hardly any company can afford not to have a digital presence. This goes hand in hand with the fact that the range of products on offer to customers is getting bigger and bigger. But it's not just the range that's getting bigger, it's also the effort customers have to make to find the right product. For this reason, many successful online stores are already relying on AI. In doing so, companies are creating opportunities for customers that an employee could hardly manage. Implemented on the website, AI can check inventory, update it in real time, predict trends and evaluate customer or user data and make suitable recommendations. This is important for the customer because with the huge choice available, for one thing, personalization is increasingly important and being presented with a relevant selection. A central question is whether the recommendations are trustworthy and whether they can be equated with a real salesperson advising the customer. After all, trust is relevant in longterm customer relationships in that it leads to loyalty and satisfaction, which in turn increases the intention to repurchase. The recommendation tools mentioned are also of particular interest for another reason. On the one hand, they help customers to get a relevant selection of the offer and thus to get faster to the desired one. On the other hand, they are relevant for companies not only because of customer satisfaction, but also because of the chance to reduce returns. The large online stores for clothing offer their customers very generous opportunities to return the goods free of charge. In doing so, the companies have responded to customer wishes, because hardly anything is more important to them when it comes to online shopping: free returns. In this way, customers have minimized the risk of having to keep goods that do not fit or please them. This thesis examines whether recommendation tools can help customers to better assess the sizes and properties of clothing, so that they receive more suitable clothing and do not even feel the need to order several sizes of the same item of clothing. It can therefore be assumed that trust in the recommendations of the AI tools reduces uncertainty, which in turn should reduce the intention to return goods. Another assumption to be tested is that of the perceived usefulness of the recommendation tools. As a prerequisite to get an assessment of these assumptions is the usage of the tools. Therefore, a survey was initiated in the DACH region to assess the extent to which usage influences the factors mentioned. It was found by means of a regression analysis that the frequency of online purchases, mediated by perceived usefulness, explains the influence on trust.
Mit Industrie 4.0 kündigte sich in Unternehmen ein großer Wandel. Dieser ist insbesondere im Bereich der Fertigung und Produktion spürbar. Von der vierten industriellen Revolution sollen Unternehmen profitieren, indem Prozesse digitalisiert und automatisiert, neue Technologien implementiert und die Wettbewerbsfähigkeit gesichert wird. Deswegen wird die Industrie 4.0 von vielen Unternehmen als Chance gesehen. Mit dem Einsatz von digitalen Technologien erhoffen sich Unternehmen, ihre Potenziale auszuschöpfen und sich Wettbewerbsvorteile zu sichern.
Im Hinblick auf die Industrie 4.0 sind jedoch kleine und mittlere Unternehmen vor Herausforderungen gestellt. Die Gründe hierfür sind vielfältig und werden in der vorliegenden Masterarbeit beleuchtet.
Dies führt dazu, dass KMU bei dem technischen, digitalen Fortschritt im Rahmen der Industrie 4.0 hinterherhinken. Es fällt ihnen schwer, den eigenen Status quo zu ermitteln und richtige Entscheidungen zu treffen, um die Hürden der Industrie 4.0 erfolgreich zu meistern. Damit dies gelingt, empfiehlt sich zu analysieren, wo das jeweilige Unternehmen aktuell steht und wie es sich abheben möchte, um seine Entscheidungen gezielt auf die Transformation von Industrie 4.0 ausrichten zu können.
Solche Orientierungshilfen, wie Referenz- oder Reifegradmodelle, die auf die Bedürfnisse der KMU eingehen und explizit auf ihre individuellen Anforderungen ausgerichtet sind, sind ein wichtiger Bestandteil der Masterarbeit.
In der vorliegenden Masterarbeit soll somit folgende Forschungsfrage beantwortet werden:
Warum sind die IT-Prozesse besonders kritisch für KMU in der Industrie 4.0 und lässt sich ein unterstützendes, reifegradbasiertes Referenzmodell zur Verbesserung der IT-Prozesse entwickeln?
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
Ein neuer Ansatz um Kohlendioxid aus einem Verbrennungsprozess abzuscheiden, auch Carbon Capture (CC) genannt, basiert auf der Gashydratsynthese. Dabei wird das Gas in Einschlussverbindungen aus Wassermolekülen, sogenannte Clathrate, eingefangen. Bei der Gashydratsynthese aus flüssigem Wasser, wie es bei bisherigen Methoden der Fall ist, treten selbsthemmende Effekte auf, die den Abscheideprozess verlangsamen.
In dieser Arbeit wird daher eine neue Methode entwickelt, um die Gashydratsynthese aus dampfförmigem Wasser zu untersuchen. Realisiert wird dies mit einem eigens entwickelten Versuchsreaktor, wobei ein Fallfilmverdampfer im Zentrum kontinuierlich Wasser verdampft. Der Abscheideversuch wird bei 20 - 40 bar und einem CO2-N2-Prüfgasgemisch betrieben. Das Herunterkühlen des Reaktors, mit einer Vorlauftemperatur von bis zu -65 °C, sorgt für stabile Wachstumsbedingungen an der Innenwand. Die Versuchsdurchführung zeigt, dass bei einer Ausgangskonzentration von 11,8 mol% CO2 am Ende des Abscheideprozesses im Minimum 10,7 mol% erreicht werden. Der im Gashydrat angereicherte CO2-Gehalt im liegt bei ca. 89 mol%.
Damit ist die Funktionsfähigkeit der neuartigen CC-Methode bewiesen und die Grundlage für die Weiterentwicklung des Prozesses geschaffen.
In recent years, numerous studies around the world have examined the environmental potential of biochar to determine whether it can help address climate challenges. Several of these studies have used the Life Cycle Assessment (LCA) method to evaluate the environmental impacts of biochar systems. However, studies focus mainly on biochar obtained from pyrolysis, while the number of studies on biochar from gasification is small.
To contribute to the current state of LCA research on biochar from gasification, LCA was performed for biochar, electricity, and heat from a wood gasification plant in Vorarlberg, Austria. Woodchips from local woods are used as biomass feedstock to produce energy, i.e., electricity and heat. Thereby, biochar is obtained as a side product from gasification. The production of syngas and biochar takes place in a floating fixed-bed gasifier. Eventually, the syngas is converted to electricity in a gas engine and fed to the power grid. Throughout different stages within the gasification process, heat is obtained and fed into local heat grid to be delivered to customers. The biochar produced complies with the European Biochar Industry (EBI) guidelines and is used on a nearby farm for manure treatment and eventually for soil application. Thereby, the effect of biochar used for manure treatment is considered to reduce emissions occurring from manure, i.e., nitrogen monoxide (N2O). Further, the CO2 sequestration potential of biochar, i.e., removal of CO2 from the atmosphere and long-term storage, is considered. Several constructions, such as the construction of the gasification system and the heating grid, are included in the evaluation.
As input related reference flow, 1 kg of woodchips with water content of 40 % is used. Three functionals units are eventually obtained, i.e., 0.17 kg of biochar applied to soil, 4.47 MJ of heat and 2.82 MJ of electricity, each per reference flow. The results for Global Warming Potential (GWP) for biochar is – 274.7*10 - 3 kg CO2eq per functional unit, which corresponds to – 1.6 kg CO2eq per 1 kg biochar applied to soil. The GWP for heat results in 17.1*10 - 3 CO2eq per functional unit, which corresponds to 3.6*10 - 3 kg CO2eq per 1 MJ. For electricity, a GWP of 38.1*10 - 3 kg CO2eq per functional unit is obtained, which is equivalent to 13.5*10 - 3 kg CO2eq per 1 MJ.
The calculation was performed using SimaPro Version 9.1 and the ReCiPe method with hierarchist perspective.
Bubble columns are recently used for the humidification of air in water treatment systems and fuel cells. They are well applicable due to their excellent heat and mass transfer and their low technical complexity. To design and operate such devices with high efficiency, the humidification process and the impact of the operating parameters need to be understood to a sufficient degree. To extend this knowledge, we use a refined and novel method to determine the volumetric air–liquid heat and mass transfer coefficients and the humidifier efficiency for various parametric settings. The volumetric transfer coefficients increase with both of the superficial air velocity and the liquid temperature. It is further shown that the decrease of vapor pressure with an increase of the salinity results in a corresponding decrease in the outlet humidity ratio. In contrast to previous studies, liquid heights smaller than 0.1 m are investigated and significant changes in the humidifier efficiency are seen in this range. We present the expected humidifier efficiency with respect to the superficial air velocity and the liquid height in an efficiency chart, such that optimal operating conditions can be determined. Based on this efficiency chart, recommendations for industrial applications as well as future scientific challenges are drawn.