Refine
Year of publication
- 2020 (110) (remove)
Document Type
- Master's Thesis (89)
- Article (13)
- Report (5)
- Part of a Book (1)
- Conference Proceeding (1)
- Doctoral Thesis (1)
Institute
- Forschungszentrum Business Informatics (7)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (4)
- Forschungszentrum Energie (4)
- Forschungszentrum Mikrotechnik (4)
- Technik | Engineering & Technology (4)
- Soziales & Gesundheit (2)
- Forschungsgruppe Empirische Sozialwissenschaften (1)
- Forschungszentrum Digital Factory Vorarlberg (1)
- Forschungszentrum Human Centred Technologies (1)
- Wirtschaft (1)
Has Fulltext
- yes (110) (remove)
Keywords
- Machine learning (3)
- Change management (2)
- Controlling (2)
- Demand Side Management (2)
- Digitale Transformation (2)
- Digitalisierung (2)
- Erfolgsfaktor (2)
- Gestenerkennung (2)
- International business (2)
- Klinische Soziale Arbeit (2)
A novel calorimetric technique for the analysis of gas-releasing endothermic dissociation reactions
(2020)
Die EU-Ziele umfassen die Steigerung des Anteils an erneuerbaren Energien an der Energieerzeugung um 32 % bis 2030. Doch erneuerbare Energien bringen neben den Vorteilen für den Umweltschutz auch Probleme mit sich. Ihre Schwankungen und Unkontrollierbarkeit stellen große Herausforderungen für das Stromnetz dar. Um die Netz- und damit die Versorgungssicherheit weiterhin gewährleisten zu können, braucht es Lösungen, die weder das Stromnetz, die Verbraucher noch die Energieversorger benachteiligen. Eine Möglichkeit wäre es, zusätzliche Kraftwerke und Infrastruktur (Redundanzen) aufzubauen, welche potenzielle Schwankungen ausgleichen können. Dieser Lösungsansatz gilt als traditioneller Weg, der hohe Kosten und negative Umweltauswirkungen mit sich bringt. Demand Side Management hat das Potenzial, effiziente Lösungen diesbezüglich anzubieten. Welche Vorteile der Einsatz von DSM auf Ebene der Haushaltsverbraucher für die Energieversorger in Bezug auf den Abruf von Ausgleichsenergie bringt, wird in dieser Arbeit behandelt. Dafür wurde ein agentenbasiertes Modell entwickelt, welches darauf abzielt, die Abweichung zwischen dem von dem Energieversorger prognostizierten Verbrauch und dem realen Verbrauch seiner Haushaltskunden zu verringern. Jeder Haushalt in dem vorgestellten Modell ist mit einer Flexibilität in Form eines Batteriespeichers ausgestattet. Die Speicherbewirtschaftung wird basierend auf einem Signal, welches der Energieversorger übermittelt, automatisch vom Haushalt für jeden Tag im Betrachtungszeitraum optimiert. Jede Abweichung zwischen der vom Energieversorger erstellten Prognose und der tatsächlich bezogenen Strommenge stellt dabei einen Bezug von Ausgleichsenergie dar. Untersucht werden die Auswirkungen der Anzahl an Haushalten sowie ein unterschiedlicher Wissensstand auf die Prognose. Weiters werden zwei unterschiedliche Arten von Demand Side Management analysiert. Einmal die Einflussnahme auf die Last der Haushalte durch ein Preissignal, einmal durch das Vorgeben eines Lastgangs. Um die Effektivität der beiden Varianten bestimmen zu können, wird auch die Menge an Ausgleichsenergie erhoben, welche ohne das Vorhandensein eines Batteriespeichers (also ohne Steuerung) anfallen würde. Das Modell wurde entwickelt, um einen Trend aufzuzeigen und keine spezifische Einsparungsmenge zu ermitteln, da dies von der jeweiligen Situation des Energieversorgers abhängt. Die Erstellung der unterschiedlichen Wissensstände basiert auf den österreichischen rechtlichen Vorgaben bezüglich der Datenübertragung bei intelligenten Messgeräten. Dabei ist einmal der Jahresverbrauch, einmal der Tagesverbrauch und einmal die stündlichen Verbrauchswerte bekannt. Das Preissignal ist negativ korreliert zu den am Day-Ahead-Markt gehandelten Mengen und das Lastsignal basiert auf einer der Prognosen des Energieversorgers, je nach Variante, die untersucht wird. Es zeigte sich, dass ein besserer Wissensstand nur teilweise eine Verbesserung der Prognose erzielte. Wobei die unterschiedlichen Wissensstände auf den realen Werten der nicht verwendeten Haushalte aus dem gleichen Datensatz aufbauen und so beispielsweise Wettereinflüsse in der Prognose schon bekannt waren, was die Prognose basierend auf Jahreswerten sehr genau machte. Der Aggregationseffekt von mehreren Haushalten beeinflusst die Prognose positiv. Auf einzelner Haushaltsebene schneiden die Vorhersagen deutlich schlechter ab als bei Prognosen des Gesamtverbrauchs aller Haushalte. Die Optimierung basierend auf dem Lastsignal generiert eine geringere Menge an Ausgleichsenergie als das Preissignal. Das liegt unter anderem daran, dass die Prognose nur die Verbräuche der Haushaltskunden berücksichtigt und nicht die Mengen, die am Markt gehandelt werden. In den untersuchten Varianten stellte sich heraus, dass am wenigsten Ausgleichsenergie über alle Haushalte erzeugt wird, wenn kein Demand Side Management betrieben wird, also keine Batteriespeicher vorhanden sind und die Prognose des Energieversorgers auf Stundenwerten basiert. Auf einzelner Haushaltsebene fällt bei der Optimierung mittels Lastsignal am wenigsten Ausgleichsenergie an.
Das Ziel dieser Masterarbeit war die Untersuchung der Einflussgrößen Wassertemperatur, Füllstand, Gasleerrohrgeschwindigkeit und Blasengröße auf die Befeuchtung von Luft in einer mit Salzwasser befüllten Blasensäule. Dazu wurde eine umfangreiche Versuchsreihe durchgeführt, um die Auswirkungen zu untersuchen. Großer Wert wurde dabei auf die Reproduzierbarkeit der Ergebnisse gelegt. Es wurde eine große Anzahl Datensätze während den Versuchszeiten geloggt und analysiert. Die Auswertung hat ergeben, dass die Wassertemperatur ein wesentlicher Einflussfaktor auf die Befeuchtung von Luft ist. Die Wassertemperatur zeigt gemäß des Antoine-Gesetzes exponentielle Auswirkungen auf die Kondensatproduktion auf. Hohe Füllstände in der Blasensäule wiesen im Vergleich zu niedrigeren Füllständen eine erhöhte Kondensatproduktion auf. Eine Steigerung der Gasleerrohrgeschwindigkeit in den Versuchen führte zu einer Zunahme der produzierten Kondensatströme. Die in dieser Arbeit untersuchten Spargerplatten der Variation des Lochdurchmessers konnten keine klaren Erkenntnisse auf die Befeuchtung von Luft liefern. Insgesamt sind die Forschungen an der Versuchsanlage noch nicht abgeschlossen und weitere Erkenntnisse zu dieser Thematik sollen in Zukunft gewonnen werden.
ÖKOPROFIT ist ein Kooperationsprojekt zwischen den örtlichen Gemeindenund der lokalenWirtschaft.Die Teilnahme ist für die Betriebe freiwillig. Ziel ist die Betriebskostensenkung bei gleichzeitiger Schonung der Ressourcen. In Vorarlberg sind derzeit circa170 Betriebe zertifiziert. Im Rahmen der Rezertifizierung, die jedes Jahr stattfindet, wird von den Betrieben ein Umweltbericht erstellt. Die Berichte werden derzeit in Word verfasst, in eine Cloud geladen und dort von den Auditoren geprüft. Dies ist jedoch nicht mehr zeitgemäß. Im Rahmen des CESBA-AlpsInterreg Alpine Projektes (2016-2019) wurde ein Tool entwickelt, mit dem Ziel Nachhaltigkeit und Energieeffizienz im Alpenraum zu verbessern. In dieser Arbeit wird nun geprüft, inwiefern das bestehende CESBA-Alps-Tool in Wert gesetzt und somit in den Rezertifizierungsprozess von ÖKOPROFIT integriert werden kann. Das Tool wird zunächst so eingerichtet, dass die Betriebe mit ihren dazugehörigenIndikatoren sowie passende Indikatoren-Sets angelegt werden können. Für den Test werden historische Daten bis zum Jahr 2013von zwei Pilot-Clustern (Landeskrankenhäuser und Landesregierungsgebäude) mit unterschiedlichen Indikatoren-Sets eingepflegt. Es wird untersucht, inwiefern die Auswertungen und Exporte für den Rezertifizierungsprozess bereits tauglich sind. Jegliche Auffälligkeiten, Fehler oder Verbesserungsvorschläge werden gesammelt. Es wird klar, dass die Export-Dateien verschlankt und optimiert werden müssen, damit sie ohne Mehraufwand verwertet werdenkönnen. Die wichtigste Handlungsempfehlung ist die automatisierte Berichtlegungsfunktion. Es sollte ein Texteditor in das Tool eingearbeitet werden, in den Unternehmen einzelne Textbausteine einpflegen können, sodass mithilfe des Tools nicht nur das Kennzahlenkapitel des Umweltberichts, sondern alle Kapitel standardisiert erarbeitet werden können. Nur so kann sichergestellt werden, dass das Tool für die Betriebe eine Arbeitserleichterung und somit Zeitersparnis generiert. In einem weiteren Arbeitspaketwurden ähnliche Online-Tools anhand von im Vorhinein ausgewählten und priorisierten Kriterien, die ein optimales Tool erfüllen sollte, mithilfe einer gewichteten Entscheidungsmatrix semiquantitativ verglichen. Hierbei schnitt das in dieser Arbeit getestete Tool selbst ohne die Verbesserungen am besten ab. Es stellt sich heraus, dass es bereits die Hälfte der ausgewählten Kriterien in einer sehr guten Weise erfüllt. Die Kriterien wurden von der ÖKOPROFIT-Programmleitung definiert. Werden die Handlungsempfehlungen in der Zukunft noch umgesetzt, könnte mit dem Tool tatsächlich eine Verbesserung des derzeitigen ÖKOPROFIT-Rezertifizierungsprozesses erwirkt werden.
Autonome Steuerung für das Demand Side Management von Wärmepumpenboilern mit linearer Optimierung
(2020)
Wärmepumpen, im Speziellen Wärmepumpenboiler, stellen mit ihrer thermischen Speicherkapazität eine gute Möglichkeit für autonome verbraucherseitige Laststeuerung (Autonomes Demand Side Management ADSM) dar. Zudem gewinnt diese Art der Brauchwarmwassererzeugung durch ihren dezentralen Ansatz und das Auskommen ohne fossile Energieträger im privaten Wohnbau immer mehr an Bedeutung. In Kombination mit staatlichen Fördergeldern ist die Anzahl verkaufter Einheiten in den letzten 5 Jahren am deutschen Markt um circa 25 % gestiegen. Obwohl das Lastverschiebungspotenzial von Wärmepumpenboilern unter Anwendung von Optimierungsalgorithmen in der Literatur theoretisch nachgewiesen ist, fehlen Verifikationen unter realen Bedingungen. Diese Arbeit will einerseits das theoretische Potential aufzeigen und andererseits mit dem vorgestellten Laborversuch einen Beitrag dazu liefern, die Verifikationslücke zu schließen. Für die Untersuchung im Labor wird ein handelsüblicher Wärmepumpenboiler bestehend aus einer Luft-Wärmepumpe und einem 300 Liter Warmwasserspeicher mit Sensoren und Aktoren ausgestattet. Insgesamt vier Temperatursensoren befinden sich am Speicherzulauf und -ablauf, sowie nahe der Speichermitte. Für die Aufzeichnung des Volumenstroms wird ein magnetisch-induktiver Messsensor am Speichereingang installiert. Zusätzlich wird mithilfe eines Proportionalventils am Speicherausgang das gewünschte Zapfprofil realisiert. Die Datenakquisition wird durch einen Datenlogger durchgeführt und die Optimierungsroutine auf dem PC implementiert. Die autonome Steuerung basiert auf einer von Day-Ahead-Marktpreisen der Energy Exchange Austria (EXAA) getriebenen linearen Optimierung mit dem Ziel, die Kosten der elektrischen Energie zu minimieren. Das Warmwasserverbrauchsprofil bildet den Verbrauch eines 4- Personen-Haushalts ab. Alle Mess- und Simulationsreihen basieren auf den gleichen Day-Ahead Preisfunktionen und Nutzerprofilen. Zur Verifikation des Lastverschiebungspotentials werden die Kosten pro MWh elektrischer Energie und die Kosten pro MWh thermischer Nutzenergie im Hysteresebetrieb (Normalbetrieb) denen des optimierten Betriebs gegenübergestellt. Durch eine Jahressimulation konnte das theoretische Potential nachgewiesen werden. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von rund 18 %. Die Kosten pro MWh thermischer Nutzenergie konnten durch die Optimierung um rund 19 % gesenkt werden. Die thermische Effizienz konnte somit um rund 1 % gesteigert werden. Der Wärmepumpenboiler wurde insgesamt zwei Wochen betrieben; eine Messreihe davon fand dabei im Normalbetrieb statt. In einer weiteren Messreihe wurde die Wärmepumpe mit der Optimierungsroutine betrieben. Die Auswertungen der Kosten pro MWh elektrischer Energie zeigen Kosteneinsparungen am Day-Ahead-Markt von circa 23 %. Ebenso konnten die Kosten pro MWh thermischer Nutzenergie um 19 % gesenkt werden. Gleichzeitig sank die thermische Effizienz um 6 %.
The humidification-dehumidification process (HDH) for desalination is a promising technology to address water scarcity issues in rural regions. However, a low humidifier efficiency is a weakness of the process. Bubble column humidifiers (BCH) are promising for HDH, as they provide enhanced heat and mass transfer and have low maintenance requirements. Previous studies of HDH-systems with BCHs draw different conclusions regarding the impact of superficial air velocity and liquid height on the humidification. Furthermore, the impact of flow characteristics has never been investigated systematically at all. In this study, an optimized BCH test setup that allows for optical analysis of the humidifier is used and evaluated. Our test setup is validated, since the influence of water temperature on the humidification, which is exponential, is reproduced. Measurements with seawater show that the normalised system productivity is increased by about 56 % with an increase in superficial air velocity from 0.5 to 5 cm/s. Furthermore, the system productivity is increased by around 29 % with an increase in liquid height from 60 to 378 mm. While the impact of superficial air velocity can be traced back to temperature changes at the humidifier and dehumidifier outlets, the impact of liquid height is shown to be caused by a smaller heat loss surface in the humidifier with an increase in liquid height. For the impact of sieve plate orifice diameter, a clear influence on the humidification is not apparent, this parameter needs to be investigated further. Finally, our new test setup allows for analysing the humidification of air (1) in a systematic way, (2) in relevant measurement ranges and (3) in comparison with optical analyses of the flow characteristics.
Investigation of non-uniformly emitting optical fiber diffusers on the light distribution in tissue
(2020)
Daten werden heute oft auch als das «neue Gold» bezeichnet. Denn die letzten Jahre haben gezeigt, dass Daten die Grundlage erstaunlicher unter- nehmerischer Erfolgsgeschichten sein können. Dabei ist die Arbeit mit Daten nicht grundlegend neu. Vielmehr geht es heute im Vergleich zu früher um nahezu unendlich grossen Mengen an Daten, die im Rahmen nahezu aller denkbaren Prozesse oder Schnittstellen gesammelt, gespeichert und ausgewertet werden können. Unter anderem beinhaltet dies Maschinendaten, unternehmens- interne Prozesse oder Daten über Kunden und den Markt, welche die Grundlage für lernende Systeme (Künstliche Intelligenz) bilden. Wir können heute davon ausgehen, dass künftig nicht mehr die technische Machbarkeit, sondern die mensch- liche Vorstellungskraft die Grenzen des Möglichen definiert.
Bekannt sind vor allem etliche Erfolgsgeschichten von Grossunternehmen, die ihr Geschäft auf Daten aufbauen. Etablierte KMU sind hingegen noch zögerlicher, mit Daten zu arbeiten und diese wertschöpfend einzusetzen. Diese Broschüre geht auf die besondere Situation von KMU im Umgang mit Daten und Data Science ein. Denn auch für KMU kann es lohnend oder sogar zwingend notwendig sein, sich mit dem Thema «Data Science» zu beschäftigen. Daten und Data Science bieten grosse
Chancen, sie können aber auch zu einer Bedrohung im Wettbewerb werden. Und, zu lange warten sollten KMU nicht, die Zeit drängt. Denn Geschwindigkeit ist einer der zentralen Wettbewerbsfaktoren im digitalen Zeitalter. Das IBH-Lab KMUdigital unter- stützt KMU dabei, den herausfordernden Weg in eine digitale Zukunft schneller und einfacher zu gehen.
Diese Broschüre geht daher insbesondere auf die Rolle von Daten und Data Science für KMU in der Bodenseeregion ein. Sie stellt eine Zusammen- fassung ausgewählter Erkenntnisse und Handlungs- empfehlungen dar, die wir in einem zweijährigen Forschungsprojekt gemeinsam mit 16 Unternehmen aus der Bodenseeregion gewinnen konnten. Die Erkenntnisse sollen KMU bei der Nutzung von Daten anhand von Data Science unterstützen. Dabei ist es kein Ziel, dass KMU zu einem «kleinen Google» werden. Vielmehr braucht es KMU- spezifische Lösungen und Überlegungen, wie mit Daten sinnvoll, zielorientiert und ressourcen- schonend umgegangen werden kann. Wie kann das aussehen? Welche Chancen, Herausforderungen und Lösungen bieten sich KMU vor dem Hinter- grund ihrer besonderen Situation? Was muss dazu im Unternehmen verändert werden? Welche Unterschiede bestehen im Vergleich zu Gross- unternehmen auf diesem Weg?
Diese und weitere Fragen stehen im Mittelpunkt des vorliegenden Projektberichts zum Einzelprojekt «Data Science für KMU leicht gemacht» oder kurz «Data Science 4 KMU» bzw. «Data4KMU», welches unter dem Dach des IBH-Labs KMUdigital in den Jahren 2018 bis 2019 durchgeführt wurde. Dazu werden Daten und Data Science aus mehreren Perspektiven betrachtet, die nicht unabhängig voneinander sind: Strategie und Geschäftsmodell, Services und Prozesse, Leadership, HRM und
Organisation, Organisationskultur und Ganzheitichkeit, sowie Technologie. Diese Perspektiven greifen wir in den nachfolgenden Kapiteln auf.
Die vorliegende Broschüre wäre ohne die wertvolle Unterstützung der Praxispartner des Projektes, des Managements des IBH-Labs KMUdigital sowie ohne die finanzielle Projektförderung durch die Inter- nationale Bodenseehochschule (IBH) und Interreg nicht möglich gewesen. Ihnen allen gilt unser ganz besonderer Dank!
The Digital Factory Vorarlberg is the youngest Research Center of Vorarlberg University of Applied Sciences. In the lab of the research center a research and learning factory has been established for educating students and employees of industrial partners. Showcases and best practice scenarios for various topics of digitalization in the manufacturing industry are demonstrated. In addition, novel methods and technologies for digital production, cloud-based manufacturing, data analytics, IT- and OT-security or digital twins are being developed. The factory comprises only a minimum core of logistics and fabrication processes to guarantee manageability within an academic setup. As a product, fidget spinners are being fabricated. A webshop allows customers to individually design their products and directly place orders in the factory. A centralized SCADA-System is the core data hub for the factory. Various data analytic tools and methods and a novel database for IoT-applications are connected to the SCADA-System. As an alternative to on premise manufacturing, orders can be pushed into a cloud-based manufacturing platform, which has been developed at the Digital Factory. A broker system allows fabrication in distributed facilities and offers various optimization services. Concepts, such as outsourcing product configuration to customers or new types of engineering services in cloud-based manufacturing can be explored and demonstrated. In this paper, we present the basic concept of the Digital Factory Vorarlberg, as well as some of the newly developed topics.