Refine
Year of publication
- 2022 (196) (remove)
Document Type
- Master's Thesis (113)
- Conference Proceeding (32)
- Article (30)
- Part of a Book (9)
- Book (4)
- Report (3)
- Other (2)
- Preprint (2)
- Working Paper (1)
Institute
- Forschungszentrum Mikrotechnik (24)
- Soziales & Gesundheit (17)
- Wirtschaft (16)
- Forschungszentrum Energie (12)
- Forschungszentrum Business Informatics (10)
- Forschungsgruppe Empirische Sozialwissenschaften (9)
- Forschungszentrum Digital Factory Vorarlberg (9)
- Forschung (4)
- Forschungszentrum Human Centred Technologies (4)
- Josef Ressel Zentrum für Robuste Entscheidungen (4)
Keywords
- Soziale Arbeit (5)
- photonics (4)
- arrayed waveguide gratings (3)
- 3D MMI splitter (2)
- AWG (2)
- Agilität (2)
- Corona (2)
- Digitale Transformation (2)
- Digitalisierung (2)
- Effizienz (2)
Traditional power grids are mainly based on centralized power generation and subsequent distribution. The increasing penetration of distributed renewable energy sources and the growing number of electrical loads is creating difficulties in balancing supply and demand and threatens the secure and efficient operation of power grids. At the same time, households hold an increasing amount of flexibility, which can be exploited by demand-side management to decrease customer cost and support grid operation. Compared to the collection of individual flexibilities, aggregation reduces optimization complexity, protects households’ privacy, and lowers the communication effort. In mathematical terms, each flexibility is modeled by a set of power profiles, and the aggregated flexibility is modeled by the Minkowski sum of individual flexibilities. As the exact Minkowski sum calculation is generally computationally prohibitive, various approximations can be found in the literature. The main contribution of this paper is a comparative evaluation of several approximation algorithms in terms of novel quality criteria, computational complexity, and communication effort using realistic data. Furthermore, we investigate the dependence of selected comparison criteria on the time horizon length and on the number of households. Our results indicate that none of the algorithms perform satisfactorily in all categories. Hence, we provide guidelines on the application-dependent algorithm choice. Moreover, we demonstrate a major drawback of some inner approximations, namely that they may lead to situations in which not using the flexibility is impossible, which may be suboptimal in certain situations.
The properties of diamond make it an attractive material for MEMS and sensor devices. We present the feasibility to fabricate membranes and cantilevers made of nano-(micro-) crystalline diamond films grown on Si/SiO2 substrates using microwave chemical vapour deposition (MWCVD). The patterning of micromechanical structures was performed by a combined process of femtosecond laser ablation and wet etching. We designed cantilever structures with varying lengths and widths (25, 50, 100, 200 and 300 μm). The cantilevers were made in a symmetric left- and right-hand configuration. An additional laser treatment was used to modify the mechanical properties of the left-hand cantilever. The deflection of the laser-treated, and non-treated sections was measured. The global mechanical system properties were simulated and corresponded with high accuracy to the measured results of deflection.
The properties of SiC and diamond make them attractive materials for MEMS and sensor devices. We innovated specific laser ablation techniques to fabricate membranes and cantilevers made of SiC or nano-(micro-) crystalline diamond films grown on Si/SiO2 substrates by microwave chemical vapour deposition (MWCVD). We started research to generate surface moulds to grow corrugated diamond films for membranes and cantilevers. A software tool was developed to support the design of micromechanical cantilevers. We can measure deformation and resonant frequency of diamond cantilevers and identify the global mechanical properties. A benchmark against finite element simulations enables an inverse identification of the specific system parameters and simplifies the characterization procedure.
Semiconducting metal oxides are widely used for solar cells, poto-catalysis, bio-active materials and gas sensors. Besides the material properties of the used semiconductor,the specific surface topology of the sensor determines the device performance. We investigate the preparation and transfer suitable metals onto LIPPS structures on glass for gas sensing applications.
In Anbetracht der zahlreichen Herausforderungen und Entwicklungen, denen mittlere und große Unternehmen ausgesetzt sind, besteht heute oft die Situation, dass zwischen der Geschäftsprozessarchitektur und IT-Architektur ein architektonisches Misalignment herrscht. Dieses architektonische Misalignment macht sich heute vor allem bei den voneinander getrennt verwalteten Prozesslandkarten und IT-Landkarten bemerkbar. Um jedoch bessere Erkenntnisse für erfolgsrelevante Managemententscheidungen bereitstellen zu können, bedarf es einer sogenannten Alignment-Architektur, die beide Teilarchitekturen zu einer Sichtweise und Informationsbasis integriert. Das übergeordnete Ziel der vorliegenden Masterarbeit liegt darin, Antworten auf die Forschungsfrage zu geben, wie die Geschäftsprozessarchitektur mit der IT-Architektur integriert bzw. beide Welten miteinander harmonisiert werden können, um insbesondere daraus bessere Erkenntnisse für Managemententscheidungen im Rahmen der durch das ökonomische Umfeld angetriebenen Unternehmensentwicklung zu gewinnen. Um dieses Ziel erreichen und die Forschungsfrage beantworten zu können, wurde eine theoretisch-konzeptionelle Forschungsarbeit im Rahmen eines erweiterten Literaturstudiums betrieben, indem mit Hilfe von bestehender Literatur theoretische Erklärungsmuster zum vorliegenden Thema gesammelt, analysiert und in ein eigenes sowie neues Erklärungsmuster eingeordnet wurden. Durch diese neue Einordung und die grundsätzliche Theoriearbeit charakterisiert sich die durchgeführte Forschungsarbeit zudem als eine gestaltungsorientierte und qualitative Forschung. Die Ergebnisse dieser Forschungsarbeit sind fünf meta-kognitive Ansätze zur Integration der Geschäftsprozessarchitektur und der IT-Architektur. Diese sind der ursachenbasierte, der erfolgsbasierte, der denkbasierte, der granular-iterative und der interarchitektonische Integrationsansatz. Die vorliegende Masterarbeit demonstriert anhand von fundierten theoretischen Erkenntnissen, wie eine Integration zu einer Alignment-Architektur zwischen der Geschäftsprozessarchitektur und IT-Architektur erfolgen und inwiefern daraus bessere Erkenntnisse für Managemententscheidungen gewonnen werden können. Schließlich zeigen diese Erkenntnisse auf, wie ein Architekturmanagement aus einer anderen Gesamtperspektive betrachtet werden kann, um eine erfolgreiche Architekturintegration zu ermöglichen.
In unserer digitalen Welt haben es einige Technologie-Marken bis ganz nach oben geschafft. Große Tech-Unternehmen wie Apple, Amazon, Microsoft und Google belegen die ersten Plätze der Best Global Brands im Jahr 2021 (Interbrand, 2021). Aber auch Automobilhersteller wie Toyota, Mercedes-Benz und BMW spielen ganz oben mit.
Wir möchten zunehmend mit unserer Außenwelt vernetzt sein, auch während dem Autofahren (Ulrich, 2015). So haben wir die Möglichkeit, unser Smartphone über eine Integrations-Schnittstelle, wie z.B. Apple CarPlay, in das vorhandene Infotainment-System des Autos zu integrieren. Durch die Integration werden zwei Systeme von unterschiedlichen Marken, basierend auf verschiedenen Styleguides, auf einem Bildschirm abwechselnd genutzt und dargestellt. Man kann zwischen den beiden Systemen hin und her wechseln, je nachdem, welche Funktionen man gerade nutzen möchte. Dabei entsteht einerseits ein heterogenes Benutzererlebnis für die Nutzerinnen und Nutzer, und auch für Designerinnen und Designer entstehen gewisse Herausforderungen. Lassen sich die Systeme unterschiedlicher Marken bis zu einem gewissen Punkt visuell aneinander annähern, und kann dadurch die Usability für die Nutzerinnen und Nutzer erhöht werden? Mit diesen Herausforderungen im Design beschäftigt sich diese Arbeit.
Ergebnis ist die Konzeption eines Gestaltungssystems, welches einen Vorschlag für die Annäherung zwei heterogener grafischer Benutzeroberflächen von zwei unterschiedlichen Marken bietet, wenn diese zusammen auf einem Bildschirm dargestellt und von den Nutzerinnen und Nutzern genutzt werden können. Anhand des Systems können die Interfaces aneinander angenähert werden, und sich dennoch über identifizierte Gestaltungselemente differenzieren.
Industrial demand side management has shown significant potential to increase the efficiency of industrial energy systems via flexibility management by model-driven optimization methods. We propose a grey-box model of an industrial food processing plant. The model relies on physical and process knowledge and mass and energy balances. The model parameters are estimated using a predictive error method. Optimization methods are applied to separately reduce the total energy consumption, total energy costs and the peak electricity demand of the plant. A viable potential for demand side management in the plant is identified by increasing the energy efficiency, shifting cooling power to low price periods or by peak load reduction.
Thank god it's friday
(2022)
Das Ziel der vorliegenden Masterarbeit ist es zu untersuchen, welche Rolle Design im Kontext gesellschaftspolitischer Bewegungen spielt und in welchen Zeichen sich der Protest der Klimabewegung Fridays for Future äußert. Ebenfalls untersucht wird, inwiefern sich diese einst subversiven Elemente der Klimabewegung wiederum in den Mainstream der Werbeindustrie eingliedern.
Dazu wird die folgende Forschungsfrage gestellt: In welchen Zeichen manifestiert sich der aktuelle Klimaprotest und welche Zeichen finden sich in der Werbung wieder? Lässt sich für den Betrachtenden noch dechiffrieren wo der Protest aufhört und der Konsum beginnt?
Das Erkenntnisinteresse besteht darin, Bilder aus dem Aktionsrepertoire der Fridays for Future Bewegung über den Zeitraum 2019-2021 zu sammeln, die Ausbildung ihrer visuellen und sprachlichen Ausdrucksformen zu analysieren und zu dechiffrieren.
Zur Untersuchung des Bildmaterials werden Methoden aus unterschiedlichen Disziplinen eingesetzt. Protestäußerungen, die über Plakate, Fotografien und andere Medien zum Ausdruck kommen, werden gesammelt und mit bildwissenschaftlichen und rhetorischen Methoden untersucht. Die Argumentation erfolgt anhand der Untersuchung dreier konkreter Beispiele aus der Werbung mittels der dokumentarischen Methode der Bildinterpretation nach Bohnsack. In der Analyse der Kampagnen geht es um das Wechselverhältnis zwischen der ästhetischen Selbstdarstellung der Bewegung und ihrer Rezeption bzw. Re-Inszenierung in der Werbung.
Die Ergebnisse der Analyse zeigen, wie sich Werbung durch die Aneignung der Klimasymbolik vom klassischen Kommunikationsinstrument der Wirtschaft zunehmend zu einer Kommunikation auf nicht-ökonomischer und gesamtgesellschaftlicher Ebene entwickelt.
Bezugnehmend auf die Re-Inszenierung der Protestcodes in der Werbung werden diese in der praktischen Ausarbeitung durch die Antiwerbung-Aktionsform des Culture Jammings selbst noch einmal zitiert und ironisiert. Dabei werden die Medien und Mittel der Werbung verwendet, wodurch sich ein Dreisatz aus Aneignung, Manipulation und Wiedereinspeisung ergibt.
Sie werden beobachtet
(2022)
Wahrheit braucht Vertrauen
(2022)
Die Arbeitswelt von morgen
(2022)
Das Nugget-Chart
(2022)
Kommunikation ist Begegnung
(2022)
Unbegreiflich? Begreif mich!
(2022)
Fehlendes Wissen führt zu fehlendem Verständnis und beeinträchtigt die Empathie gegenüber Menschen mit Behinderungen und deren Lebensumständen.
Diese Arbeit untersucht bisherige Methoden zur medialen Verständnisvermittlung chronischer Krankheiten mittels Seznografie. Der Fokus liegt dabei auf rheumatischen Erkrankungen. Die Analyse beinhaltet Aspekte der Wahrnemungsvermittlung, welche bislang noch nicht oder ungenügend erforscht wurden. Es werden Beispiele zu verschiedenen Inszenierungen von Krankheit und deren Auswirkungen auf die Betroffenen gesammelt und analysiert. Dabei wird beurteilt, welche Methoden zur Vermittlung eingesetzt werden können, um durch das Erlebnis von Objekten die Empathie gegenüber körperbehinderten Menschen zu steigern und in weiterer Folge deren Inklusion in die Gesellschaft zu verbessern. Die Kombination aus faktischem Wissen gekoppelt mit einer Selbsterfahrung verstärkt den Lerneffekt und kann das Verhalten nachhaltig beeinflussen. Durch das immersive verstehen einer Situation besteht die Möglichkeit Empathie aufzubauen und zu stärken. Diese Faktoren werden bei der Konzipierung mit einbezogen und sind maßgeblich für die Struktur der Ausstellung.
Das erarbeitete Austellungskonzept baut auf bisherigen best practice Beispielen, sowie recherchierten Methoden auf, wobei die Besucher:innen immersiv mit dem Thema Behinderung und chronische Krankheiten konfrontiert werden. Dieses Konzept ist in Form einer Partitur dieser Arbeit beigelegt, um den Erlebnispfad durch die erarbeiteten Inhalte und Darstellungen übersichtlich zu präsentieren. Die entwickelten Objekte wurden durch Recherche und anhand von Interviews auf ihre Eignung geprüft und in ihrer Wirkung und Relevanz bestätigt.
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
Offline speech to text engine for delimited context in combination with an offline speech assistant
(2022)
The inatura museum in Dornbirn had planned an interactive speech assistant-like exhibit. The concept was that visitors could ask the exhibit several questions that they would like to ask a flower. Solution requirements regarding the functionalities were formulated, such as the capacity to run offline because of privacy reasons. Due to the similarity of the exhibit, open-source offline Speech To Text (STT) engines and speech assistants were examined. Proprietary cloud-based STT engines associated with the corresponding speech assistants were also researched. The aim behind this was to evaluate the hypothesis of whether an open-source offline STT engine can compete with a proprietary cloud-based STT engine. Additionally, a suitable STT engine or speech assistant would need to be evaluated. Furthermore, analysis regarding the adaption possibilities of the STT models took place. After the technical analysis, the decision in favour of the STT engines called "Vosk" was made. This analysis was followed by attempts to adapt the model of Vosk. Vosk was compared to proprietary cloud-based Google Cloud Speech to Text to evaluate the hypothesis. The comparison resulted in not much of a significant difference between Vosk and Google Cloud Speech to Text. Due to this result, a recommendation to use Vosk for the exhibit was given. Due to the lack of intent parsing functionality, two algorithms called "text matching algorithm" and "text and keyword matching algorithm" were implemented and tested. This test proved that the text and keyword matching algorithm performed better, with an average success rate of 83.93 %. Consequently, this algorithm was recommended for the intent parsing of the exhibit. In the end, potential adaption possibilities for the algorithms were given, such as using a different string matching library. Some improvements regarding the exhibit were also presented.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Wärmepumpen werden als vielversprechende Lösung zur Dekarbonisierung des Gebäudesektors angesehen. Konventionelle Kältemittel, die als direkte Emissionen aus Wärmepumpensystemen austreten, stellen insbesondere vor dem Hintergrund steigender Installationszahlen ein relevantes Treibhauspotenzial dar. Natürliche Kältemittel verfügen über ein geringes Treibhauspotenzial und können daher zur Substitution konventioneller Kältemittel verwendet werden. Dennoch werden sie bislang nicht im großen Maßstab eingesetzt. Es bedarf weiterer Studien und Anreize, um den Einsatz natürlicher Kältemittel voranzubringen. In dieser Fallstudie erfolgt anhand eines Referenzprojektes ein simulativer Vergleich zweier reversibler Luft-Wasser-Wärmepumpen. Im Referenzfall wird das konventionelle Kältemittel R32 verwendet, als Alternative dient das natürliche Kältemittel R290. Die beiden Systeme werden hinsichtlich ihrer Effizienz, Klimawirksamkeit und Wirtschaftlichkeit verglichen. Die notwendigen Berechnungen basieren auf einem kalibrierten Simulationsmodell des Gebäudes und der Anlage. Die Ergebnisse zeigen einen energetischen und ökologischen Vorteil für R290. Im Heizbetrieb, der den Hauptteil des thermischen Energiebedarfs im Referenzprojekt ausmacht, erreicht die Wärmepumpe mit R290 eine um 9% höhere Jahresarbeitszahl. Im Gegensatz dazu erzielt die R32-Wärmepumpe eine um 12% höhere Jahresarbeitszahl im Kühlbetrieb. Durch die höhere Effizienz im Heizbetrieb und das niedrigere Treibhauspotenzial des Kältemittels liegen die Emissionen durch den Betrieb der R290-Wärmepumpe um 17% unter denen der R32-Wärmepumpe. Der wirtschaftliche Vergleich der beiden Systeme fällt aufgrund höherer Investitionskosten zum Nachteil der R290-Wärmepumpe aus.
Die Digitalisierung in Unternehmen und somit der Vormarsch von Industrie 4.0 zählen zu den am häufigsten besprochenen Themenfeldern der letzten Jahre. Mit Industrie 4.0 fallen auch Schlagwörter wie ‚Internet of Things‘ oder ‚Big Data‘. Diese Technologien sind dafür zuständig, die Produktion zu vernetzen, Daten aufzubereiten und somit einen Wettbewerbsvorteil zu erlangen. Dem gegenüber steht die altbewährte ‚Lean Six Sigma‘-Methode, die große Beliebtheit in Unternehmen genießt und weltweit angewandt wird.
Das Ziel der vorliegenden Arbeit ist, die Auswirkungen des digitalen Wandels auf die Methode Lean Six Sigma zu untersuchen. Daraus resultiert auch die Forschungsfrage: Welche Chancen und Risiken birgt der digitale Wandel durch Industrie 4.0 für die Nutzung von Lean Six Sigma in Unternehmen?.
Um die Forschungsfrage beantworten zu können, wird in dieser Masterarbeit auf mehrere Fachquellen Bezug genommen, in denen der Zusammenhang zwischen Industrie 4.0 und Lean Six Sigma sowohl theoretisch als auch praktisch untersucht wird. Damit bewegt sich die Arbeit im theoretisch-konzeptionellen Bereich. Insgesamt 47 relevante Beiträge wurden dabei identifiziert.
Aus den Beiträgen ergeben sich vier Technologien, die den größten Einfluss auf Lean Six Sigma und den DMAIC-Zyklus (Define, Measure, Analyze, Improve, Control) haben. Diese Technologien sind Big Data, Data-Mining, Process-Mining und Simulation. Durch eine genaue Analyse der Literatur wird gezeigt, dass sich ein Zusammenspiel der beiden Methoden lohnt; es wird aber auch darauf hingewiesen, dass Risiken zu beachten sind.
Keywords: Lean Six Sigma, Industrie 4.0, Big Data, Data-Mining, Process-Mining, Simulation
Die vorliegende Arbeit beschäftigt sich mit der Positionsbestimmung in Innenräumen mittels der Ultra Breitband Technologie, deren Genauigkeit sowie der Positionierung solcher Systeme in relevanten Beleuchtungsmodulen. Im ersten Teil der Arbeit wird die Ultrabreitband Technologie beschrieben, die sich für Ortbarkeit in Innenräumen durch die große Bandbreite, relativ gut eignet. Hierbei wird auf das UWB-Signal, die Regulierung bezüglich Frequenznutzung für Europa und USA sowie auf die UWB-Standards eingegangen. Im weiteren Verlauf der Arbeit werden die gegenwärtigen Positionsbestimmungs Verfahren beschrieben. Beispiele hierfür sind das Time of Flight (ToF), das Time of Arrival sowie nicht funkbasierte Methoden wie z. B. die Inertial Measurement Unit (IMU). Die Positionsbestimmung in der UWB-Technologie wird häufig mittels ToF und ToA bewerkstelligt. Im darauffolgenden Kapitel werden die gegenwärtigen Lokalisierungssysteme erklärt. Real Time Locating Systems (RTLS) kommen in vielen Lebensbereichen zum Einsatz, von Krankenhäusern bis zum Sport. Der zweite Teil der Arbeit besteht aus der Ausarbeitung von verschiedenen Konzepten zur Realisierung eines Demonstrators sowie der Ausarbeitung eines Simulationsmodells für die Positionsbestimmung, mit dem eine Ortungsgenauigkeit von 30 bis 50 cm erreicht werden kann.
In den 13 Jahren seit Einführung der IFRS für KMU in Deutschland belegen mehrere Studien, dass dieser Standard, entgegen der Erwartungen, keine Erfolge im Bereich der Anwenderzahlen erzielen konnte. Trotz der Entwicklung eines international angepassten und auf die Bedürfnisse der KMU fokussierten Rechnungslegungsstandards, blieb eine Etablierung innerhalb der KMU aus.
Ziel dieser Arbeit ist die Analyse, inwiefern eine doppelte Rechnungslegung nach IFRS und HGB wirtschaftliche und geschäftsanalytische Vorteile für die Anteilseigner deutscher KMU generiert. Aufbauend auf der beschriebenen Zielsetzung gilt es zu überprüfen, welche Anteilseigner deutscher KMU von dem doppelten Rechnungslegungsstandard adressiert werden und ferner, in welchem Ausmaß eine höhere Bedürfnisbefriedigung resultiert. Zunächst erfolgt im Rahmen einer umfassenden Literaturrecherche eine Untersuchung der Anteilseigner deutscher KMU und deren Anforderungen an ein Rechnungslegungssystem. Anschließend findet eine Überprüfung möglicher Vorteile statt, welche die Anwendung der IFRS für KMU befürworten würden. Darüber hinaus wurden zehn Experteninterviews durchgeführt mit der Intention, erworbene Erkenntnisse zu revidieren und überdies neue zu generieren. In einer abschließenden Inhaltsextraktion werden die gewonnen Annahmen artikuliert und anschließend interpretiert, um die zugrundeliegende Forschungsfrage zu beantworten.
The research focused on the wood pellet market for private consumers in Germany and has the objective to understand the factors affecting the purchase decisions of wood pellets buy-ers. The aims of the research were achieved by applying the Engel, Kollat, Blackwell model of consumer behaviour, by conducting in-depth interviews and deriving the grounded theory. The application of EKB model revealed that the following groups of factors may influence the con-sumers: cultural (culture and social class), social (family influence), personal (age and lifecycle stage), psychological (believes, motives, attitudes) and unexpected circumstances. In-depth interviews with the buyers of wood pellets helped specify the influencing factors to finally an-swer the research question. The analysis showed that the buyers of wood pellets are influ-enced by family, personal believes and attitudes, and the unexpected circumstances. The most important factors for the buyers are the quality of the pellets and reliability of the supplier. If they are satisfied with the quality of product and service, they will be reluctant to look for an alternative. And on the opposite side, in case the quality of the product or the service is unsat-isfactory this is a limiting factor and will stop the buyer from purchasing this product. Price is an important factor for the buyers of pellets in bags. However, in the situation of volatile mar-ket and exploding prices, the price factor will play a bigger role. Thus, the strategic factors for marketing of pellets is to concentrate on quality and price communication, and to focus on the quality of pellet delivery service.
Mit der VRV 2015 wurde die österreichische Voranschlags- und Rechnungsabschlussverordnung reformiert. Die vorangegangene VRV 1997 wurde dadurch großteils abgelöst. Grundstruktur bildet dabei der Drei-Komponenten-Haushalt bzw. das Drei-Komponenten-Rechnungssystem bestehend aus Vermögens-, Finanzierungs- und Ergebnishaushalt. In diesen Haushalten werden die Finanzdaten der einzelnen österreichischen Gemeinden gesammelt.
Ziel der vorliegenden Arbeit ist es, unter Verwendung dieser Finanzdaten relevante Finanzkennzahlen zu identifizieren, welche Rückschlüsse auf die Finanzlage einer Gemeinde ermöglichen. Somit wurden die öffentlich auf der Onlineplattform www.offenerhaushalt.at zur Verfügung stehenden Daten von 1.327 der insgesamt 2.095 österreichischen Gemeinden verwendet. Da der Fokus in dieser Arbeit ausschließlich auf Gemeinden liegt, wurden nur Marktgemeinden und Gemeinden ohne Status berücksichtigt, um die Forschungsfrage beantworten zu können. Dafür wurden in einem ersten Schritt sorgfältig ausgewählte Kennzahlen berechnet und für jede Kennzahl wurde ein Bewertungsschema erstellt. Anschließend wurden die Gemeinden in verschiedene Gruppen eingeteilt und mittels verschiedener Methoden der deskriptiven und multivariaten Statistik analysiert. Die Gemeinden wurden anhand ihrer Einwohnerzahl, ihrer Kennzahlbewertung und ihrer Ähnlichkeit in jeweils drei Gruppen eingeteilt. Die Analysen anhand dieser Einteilungen führten zum Ergebnis, dass vor allem größere Gemeinden eine bessere Finanzlage aufweisen als kleine und mittelgroße Gemeinden. Zudem konnten einzelne Kennzahlen (Eigenertragsquote, Quote freie Finanzspitze und Nettovermögensquote) als relevante Einflussfaktoren für die Beschreibung der Finanzlage einer Gemeinde identifiziert werden. Ein Zusammenhang zwischen Bundesland und Finanzlage konnte nicht hergestellt werden. Zusammenfassend lässt sich sagen, dass die VRV 2015 die Transparenz und Vergleichbarkeit der Finanzdaten der Gemeinden erhöht. Auch die Berechnung aussagekräftiger Kennzahlen bietet zusätzliche Möglichkeiten die Gemeinden zu vergleichen. Auch wenn der zur Verfügung stehende Datensatz (noch) nicht vollständig ist, birgt die VRV 2015 und die damit verbundene verbesserte Übersicht großes Potenzial zur Vereinfachung der Bewertung und Vergleichbarkeit von Gemeinden.
The number of electric vehicles will increase rapidly in the coming years. Studies suggest that most owners prefer to charge their electric vehicle at home, which will fuel the need for charging stations in residential complexes where vehicles can be charged overnight. Currently, there already are over 100 such residential complexes, with another 70 added every year in Vorarlberg alone. In most existing residential complexes, however, the grid connections are not sufficient to charge all vehicles at the same time with maximum power. In addition, it is also desirable for grid operators and electricity producers that the power demand be as smooth and predictable as possible. To achieve this, ways to manage flexible loads need to be found, which can operate within the technical constraints. Therefore, the most common scenarios how the load can be made grid-friendly with the help of optional battery storage and/or photovoltaics using optimization methods of linear and stochastic programming were examined. At the same time, the needs of the vehicle owners for charging comfort - namely to find their vehicles reliably charged at the time of their respective departure - were addressed by combining both objectives using suitable weights. The algorithms determined were verified in practice on an existing Vlotte prototype installation. For this purpose, the necessary programs were implemented in Python, so that the data obtained during the test operation, which lasted one month, could be subjected to a well-founded analysis. In addition, simulation studies helped to further reveal the influence of PV and BESS sizing on the achievable optimums and confirm that advanced optimization algorithms such as the ones discussed are a vital contribution in reducing the charging stations’ peak load while at the same time maintaining high satisfaction levels.
Um die Nachhaltigkeitsziele der Vereinten Nationen in Österreich zu erreichen, wird ab Juli 2022 die CO2-Steuer erhoben. In diesem Kontext fehlen für den Standort Vorarlberg jedoch Aussagen über das Nachhaltigkeitscontrolling im Allgemeinen und die Auswirkungen der CO2-Steuer im Speziellen.
Zur Beantwortung der Forschungsfragen wurde eine Online-Umfrage konzipiert, durchgeführt und statistisch quantitativ ausgewertet. Das entwickelte Nachhaltigkeits-Scoring-System soll klären, inwieweit die teilnehmenden Unternehmen, ein Nachhaltigkeitscontrolling implementiert haben. Zudem wurde geprüft, ob die CO2-Steuer einen Zusammenhang mit dem ermittelten Nachhaltigkeitsscore hat.
Der Mittelwert des Nachhaltigkeitsscore betrug 56,23 %, wobei die Ergebnisse eine hohe Variabilität (10 % bis 100 %) aufwiesen. In einigen Unternehmen wird nur ein rudimentäres Nachhaltigkeitscontrolling durchgeführt, während andere bereits sehr aktiv sind. Die Wirkung der CO2-Steuer ist sehr unterschiedlich. Der Korrelationskoeffizient nach Pearson ergibt zwar 0,053 und ist damit positiv (r > 0), dieser ist aber sehr schwach. Die Signifikanz (1-seitig) liegt bei p = 0,352. Somit wurde nachgewiesen, dass kein eindeutiger Zusammenhang zwischen der CO2-Bepreisung und dem Nachhaltigkeitsscore in Vorarlberg besteht.
Projects, in which software products, services, systems and solutions are developed, all rely on the right requirements to be established. Software requirements are the expression of user wants or needs that have to be addressed, business objectives that have to be met, as well as capabilities and functionality that has to be developed. Meanwhile, practice shows that very often incorrect, unclear or incomplete requirements are established, which causes major problems for such projects. It could lead to budget overruns, missed deadlines and overall failure in worst-case scenarios.
The field of requirements engineering emerged as an answer to these shortcomings, aiming to systematize and streamline the process that
establishes requirements. Requirements elicitation is a key component of this process, and one of its starting points. The current thesis attempts to outline best practices in requirements elicitation, as well as what issues, obstacles and challenges are currently faced, and then present this through the lens of national culture. In this way its effects on the practice, if any, could be highlighted and studied further. The way this was achieved was by interviewing practitioners from two nations, which are shown to be
culturally different, and then comparing and contrasting the findings.
Meanwhile, the validity of those findings was enhanced by comparisons with existing literature.
Even though the findings were not compelling enough to form generalizations or concrete conclusions about the effects of national culture on requirements elicitation, these findings revealed patterns that could be worth exploring further. When it comes to requirements elicitation itself, it was observed to benefit from a structured and systematic approach, and be
most effective with one-on-one, instead of group interactions. The main pain points of the process stem from the complexity of communication, but are not always obvious. Practitioners are also advised to carefully plan the gathering of requirements, as the source may not have them readily available, and could even be unclear about what exactly is needed. Overall, this thesis research could be considered successful in its goal to shed a modicum of light on the issue at hand from a different, underexplored angle. By following a systematic and methodical approach, this research has also been made easier to expand or replicate.
Smart services disrupt business models and have the potential to stimulate the circular economy transition of regions, enabling an environmentally friendly atmosphere for sustainable and innovation-driven growth of regions. Although smart services are powerful means for deploying circular economy goals in industrial practices, there is little systematic guidance on how the adoption of smart services could improve resource efficiency and stimulate smart regional innovation-driven growth, enabled through circular design. Implemented in the scope of Vorarlberg’s smart specialization strategy, this paper contributes to the literature on the circular economy and regional innovation-driven growth by assessing critical factors of the value creation and value capture implemented within the scope of the quadruple helix system. By identifying the main challenges and opportunities of collaborative value creation and value capture in setting-up smart circular economy strategies and by assessing the role of innovation actors within the quadruple helix innovation system, the study provides recommendations and set of guidelines for managers and public authorities in managing circular transition. Finally, based on the analysis of the role of actors in creating shared value and scaling-up smart circular economy practices in the quadruple helix innovation systems, the paper investigates the role of banks as enablers of circular economy innovation-driven regional growth and smart value creation.
Mit Kunst und Kultur in Kontakt zu kommen, weckt idealerweise die Lust daran, mehr wissen zu wollen. Interesse an kulturell relevanten Themen hervorzurufen und Rezipient:innen anzuregen, sich mit gesellschaftlich dringlichen Fragestellungen auseinanderzusetzen, um auch an aktuellen Diskursen teilzuhaben, ist die Aufgabe der Kulturarbeiter:innen, Künstler:innen, Kurator:innen, Kunst- und Kulturvermittler:innen von heute. Die von ihnen entwickelten Konzepte und angebotenen Formate fungieren als Schnittstellen aller möglichen gesellschaftsrelevanten Themenbereiche, können Dialoge des Wissenstransfers eröffnen, und einem fruchtbaren interdisziplinären Austausch den Weg ebnen.
Die bislang entwickelten Vermittlungstools hatten nicht immer den gewünschten Erfolg. Der Grund liegt vermutlich auch zum Teil an zu vielen diskursiven und exklusiven Formaten, in denen u. a. zu viel Vorwissen vorausgesetzt wird. Sofern Rezipient:innen Interesse an zeitgenössischer Kunst verspüren, die Zeit und den Mut aufbringen, einem angebotenen Vermittlungsprogramm auch tatsächlich beizuwohnen, wird nicht selten jeglicher Wiederholungswunsch im Keim erstickt, wenn es den Veranstalter:innen nicht gelingt, mit ihren Inhalten direkte Bezüge zum Besucher bzw. zur Besucherin herzustellen. Um diese Menschen nicht „alleine zu lassen“ oder vor den Kopf zu stoßen, und ihnen kulturelle Teilhabe zu ermöglichen, braucht es dringend ein größeres Repertoire an qualitativ hochwertigen sowie niederschwelligen Vermittlungsangeboten.
In meinen Forschungsbemühungen widme ich mich daher der Suche nach neuen Wegen in der Vermittlungsarbeit für zeitgenössische bildende Kunst, mittels derer Kunstrezeption geübt werden kann, in der Annahme, dadurch könne im Laufe der Zeit eine bewusstere Wahrnehmung unserer bilderdominierten Welt entwickelt werden. Eine versierte Kunstrezeption kann – so meine Hypothese – maßgeblich zur visuellen Kompetenz (sowie zu einem unabhängigeren Denken) und folglich zu allgemein geringerer Manipulierbarkeit beitragen. Konkret gehe ich der Frage nach, ob visuelle Kompetenz durch eine achtsame Kunstrezeption unterstützt werden kann.
Insbesondere (Vermittlungs-)Projekte, die Kunst oder Kultur gleichermaßen emotional wie intellektuell erfahrbar machen, können bleibende Eindrücke entfalten. Der bewusste Einsatz nonverbaler Techniken in der (traditionellerweise) sprachlich verankerten Praxis der Kunstvermittlung ermöglicht den Rezipient:innen ein Erlebnis, das innere Zustände, Gefühle mit äußeren Eindrücken und einer umfassenden ästhetischen Erfahrung in Verbindung bringt. Erfahrungen solcher Vielfalt prägen sich bei Personen jeden Alters in einer Art und Weise im Netzwerk der Erinnerungen ein, wie es der Sprache allein nur in sehr seltenen Fällen zu gelingen vermag. In Hinblick auf den Bildungsauftrag kultureller Einrichtungen ermöglichen Vermittlungsprogramme mit Erfahrungs- und Erlebnischarakter demnach ein nachhaltiges Lernen sowie ein bleibendes Verständnis und regen darüber hinaus transformatorische Selbst-Bildungsprozesse an.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
We present 256-channel, 25-GHz AWG designed for ultra-dense wavelength division multiplexing. For the design two in-house developed tools were used: AWG-Parameters tool for the calculation of input design parameters and AWGAnalyser tool, used to evaluate the simulated transmission characteristics. The AWG structure was designed for AWG central wavelength of 1550 nm and simulated with PHASAR tool from Optiwave. To keep the size of AWG structure as small as possible the number of waveguides in the phased array was tested. The simulations show that there is a certain minimum number of phased array waveguides necessary to reach sufficient AWG performance. After optimization, the AWG structure reached 10 cm x 11 cm in size and satisfying optical properties.
In this work, we investigated the influence of different etch depths of the rib waveguides on the performance of SiN-based AWGs. For this purpose, an 8-channel 100 GHz AWG was designed for a center wavelength of 850 nm. The design parameters entered were calculated using the AWG-Parameters tool. The simulations were performed with a commercial photonic tool PHASAR from Optiwave. The simulated performance was evaluated using the AWG-Analyzer tool. For the AWG design, we used three identical rib waveguides with different etch depths to simulate possible etch imperfection. The simulations show the wavelength shift and degradation of the AWG performance.
In this paper we present various educational activities with Photonics Explorer, an educational kit developed by the photonics research team B - PHOT at VUB (Vrije Universiteit Brussel) for students at secondary schools. The concept is a ‘lab-in-a-box’ that enables students of the 2 nd and 3 rd grade to do photonics experiments themselves at school with lasers, LEDs, lenses, optical fibers, and other high-tech components. Even though, the kit was developed for the secondary schools, we use experiments from the kit also for some other teaching activities such as lectures at the university, photonics workshops for teachers and children at primary/secondary schools or for events such as children's/youth's university or the night of sciences. In the frame of Austrian based project Phorsch! we have organized most of these activities which will be presented here.
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
This paper aims to study the design, simulation, and optimization of low-loss Y-branch passive optical splitters up to 64 output ports for telecommunication applications. For a waveguide channel profile, the standard material silica-on-silicon is used. The Y-splitters are designed and simulated at telecommunication operating wavelength, λ = 1550 nm. Except for the lengths of the used Y-branches, and a core size of the waveguides, design parameters such as port pitch between the waveguides and simulation parameters for all splitters are considered fixed. The simulation results are analyzed to determine the optimum length of the splitters and the optimum core size. Based on this optimization the total length of the highest designed 1×64 Y-branch splitter was reduced by 41.14 % for a waveguide core (5×5) μm2 compared to the length of splitter with a standard (6×6) μm2 core size.
This paper describes two different designs of 1×8 passive optical splitters. The first splitter consists of cascade arranged directional waveguide branches (Y-branch splitter) with (0.8×0.16) µm2 waveguide cross-section. The second splitter is based on multimode interference occurring in a large MMI coupler, which uses a self-imaging effect for beam propagation, exhibiting the same waveguide core size as a Y-branch splitter. The waveguide channel profile, used in both approaches, is based on a silicon nitride material platform, with a refractive index of core being nc = 1.925 and a refractive index of cladding ncl = 1.4575. The splitters are designed as a planar structure for a medical operating wavelength 850 nm. Design, simulation, and optimization of passive optical components are performed by a commercial photonic software tool BeamPROP simulation engine by RSoft Photonics Suite tool, employing beam propagation method. This work aims to find the minimum physical dimensions of the designed splitters with the satisfactory optical performance. According to the minimum insertion loss and minimum non-uniformity, the optimum length of the splitters is determined. Finally, the optical properties of splitters for both approaches are discussed and compared with each other.
Design, simulation, and optimization of the 1×4 optical three-dimensional multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding is demonstrated. The splitter was simulated by using beam propagation method in BeamPROP simulation module of RSoft photonic tool and optimized for an operating wavelength of 1.55 μm . According to the minimum insertion loss, the dimensions of the splitter were optimized for a waveguide with a core size of 4×4 μm2 . The objective of the study is to create the design for fabrication by three-dimensional direct laser writing optical lithography.
In this paper, the design of three-dimensional configuration of Y-branch splitter is compared with Multimode Interference splitter. Both splitters use the IP-Dip polymer as a standard material for 3D laser lithography. The optical properties of the splitters for both approaches are discussed and compared.
Grey-Box-Modellierung einer Lüftungsanlage mit realen Betriebsdaten für die Optimierung des Reglers
(2022)
Oszillationen in Heizungs-, Lüftungs- und Klimaanlagen können die Lebensdauer
von Ventilen und Aktuatoren deutlich reduzieren und die Effizienz solcher
Anlagen negativ beeinflussen. Die hier betrachtete Lüftungsanlage eines Verkaufsraums zeigt deutlich schwingendes Verhalten, das höchst wahrscheinlich auf die Regelung zurückzuführen ist. Um dieses Verhalten zu untersuchen und ein
Testfeld für die Auslegung und Optimierung von alternativen Regelkonzepten
zu erstellen, wird ein Grey-Box-Modell der Anlage erstellt. Grey-Box-Modelle
sind physikalische Modelle, deren Parameter mit Messdaten identifiziert werden.
Die Ermittlung der Parameter (Systemidentifikation) des Grey-Box-Modells
wird hier mittels nichtlinearer Optimierung an dem realen Betriebsdatensatz
durchgeführt. Dieser Betriebsdatensatz hat im Vergleich zu anderen Arbeiten
aufgrund geringer Ausstattung der Anlage mit Sensorik und geringer Auflösung
der Messdaten eine niedrige Qualität. Aus diesem Grund können die einzelnen
Komponenten der Anlage (eine Wärmerückgewinnung, ein Heizregister und ein
Kühlregister) nicht separat identifiziert werden, sondern nur im Gesamtsystem.
Hieraus ergibt sich die Frage, welche physikalische Formulierung der Komponenten
der Anlage am besten geeignet ist. Konkret stellt sich die Frage, welche
Komplexität, welche Anzahl der zu identifizierenden Parameter und welche Annahmen, die für die Formulierung getroffen werden sinnvoll sind. Dazu werden
für die einzelnen Komponenten der Anlage jeweils verschiedene Modelle aus der
Literatur implementiert und verglichen. Untersucht wird, ob ein Zusammenhang
zwischen der Anzahl an Parametern, die sich durch eine bestimmte Formulierung
des Modells ergibt und der erreichten Güte des Modells zu beobachten ist.
Die Güte des Modells wir dabei mittels der Wurzel des mittleren quadratischen
Fehlers zwischen Modellausgang und Datensatz bewertet.
Die Ergebnisse dieser Fallstudie zeigen, dass ein möglicher Zusammenhang
zwischen der Anzahl an Parametern des Grey-Box-Modells und der Güte des
Modells besteht. Insbesondere zeigt sich mit diesem Datensatz ein deutlicher
Abfall der Modellgüte bei mehr als zehn Parametern. Es kann des Weiteren
bestätigt werden, dass bei der vorliegenden niedrigen Datenqualität die getroffenen
Annahmen für die Modellierung von erheblicher Bedeutung sind. Durch
bestimmte Formulierungen kann zwar die Güte des Modells erhöht werden, jedoch
wir dadurch die Generalisationsfähigkeit des Modells höchst wahrscheinlich
reduziert.
The presented master thesis of the study subject International Marketing and Sales at the Fachhochschule Vorarlberg in Dornbirn deals with the influence of emotions on the attitude toward hydrogen cars and their purchase intention. For this purpose, an empirical analysis with a correlation analysis was conducted in order to be able to determine the correlations of the individual parameters.
At the beginning of the thesis the hydrogen technology was presented in more detail and by means of suitable criteria it was shown that the hydrogen car represents a certain potential, however, in comparison to the combustion cars and electric cars, the hydrogen car is currently in third place. The relatively long range, the fast-refueling and the sustainability were identified as advantages, while the current high price and the poorly developed refueling station network are currently the biggest ob-stacles to a hydrogen car. It can be seen that research and development of hydrogen cars is being driven forward in many countries around the world, including by the gov-ernment side through the provision of various subsidies. For this reason, the future development of the driving technology remains exciting and simultaneously uncertain.
In the second step of the work, emotions were examined in more detail. The aim was to find out which emotions exist and which of them are predominant when buying a car, and then to find out what influence emotions have on the cognitive process, the attitude, and the purchase intention. It turned out that the majority of the population is highly involved in the purchase of a car and therefore tries to make rational decisions, which makes the influence of emotions more difficult, but not impossible.
By presenting suitable marketing tools for measuring emotions, it was shown that measuring emotions is a difficult undertaking. Measurement is often difficult or expen-sive and involves a great deal of effort. For this reason, beside the presentation of marketing tools, the strategic approach for a marketing campaign was also presented.
Based on the conducted empirical analysis, the influence of emotions on attitude and purchase intention could not be significantly confirmed but it could be proven that the knowledge about hydrogen cars is currently low. One inside is that an increase in awareness increases the purchase intention of hydrogen cars. Furthermore, a signifi-cant correlation between the sustainable attitude and the purchase intention could be proven. In addition, people who like to follow new trends are more likely to buy a hy-drogen car than others. This paper concludes with a brief summary of the findings and an outlook on the potential for improvement of the hydrogen car market.
Keywords: Hydrogen Cars, Sustainability, Emotions in Marketing, Purchase Inten-tion, Attitude, Marketing Tool
Meine Masterarbeit beschreibt im Grunde einen Diskussionsprozess eines Begriffs. Es geht um den Versuch einer Kategorisierung und Bestimmung der Illustrationen, also darum, inwiefern Illustrationen kategorisiert werden können und anhand von welchen Merkmalen bestimmt werden kann, ob es sich um eine Illustration handelt. Diese Untersuchung findet in der Designforschung nämlich nur marginal statt. Julius Wiedemann und der Illustrator Raban Ruddigkeit erklären in ihren Büchern zwar, was eine Illustration ausmacht, jedoch wird weder eine Taxonomie bzw. Definition explizit angeführt oder darauf verwiesen, es kann aus dem Text aber ein Verständnis und damit eine implizite Definition explizit gemacht werden.
Laut Ruddigkeit sind Illustrationen mehr als bloß ein „Abbild der Wirklichkeit“ (Ruddigkeit 2021, Klappentext), denn eine Illustration „erhellt […] übertreibt […] mischt sich ein […] stößt […] Veränderung an […] interpretiert “ (Ruddigkeit 2021, Klappentext) Wiedemann verfolgt einen anderen Ansatz, denn laut ihm muss eine Illustration im Kontext funktionieren. (Vgl. Wiedemann 2007, 7f.)
Die Masterarbeit verfolgt die Methode der relationalen Bestimmung nach Wiesing. (Vgl. Wiesing 2015, Einleitung) Es erfolgt zusätzliche eine Analyse von Literatur, insbesondere liegt der Fokus auf den Theorien unter anderem von Sybille Krämer, Steffen-Peter Ballstaedt, Nelson Goodman, Hartmut Stöckl, Vilem Flusser, Ludwig Wittgenstein und Roland Barthes. Verorten lässt sich die Arbeit in den Bereichen der Bildwissenschaften bzw. der Kategoriensysteme. Ein Begriff wird diskutiert, es wird kein Versuch angestrebt, eine endgültige Lösung zu finden. Die Diskussion wird in einem passenden und übersichtlichen Layout in der Arbeit präsentiert und theoretisch weiter ausgearbeitet, sowie durchdiskutiert. Im besten Fall ergeben sich Vorschläge für eine Definition, eine Möglichkeit zur Kategorisierung bzw. Erhellungen zur Illustration, ohne sie endgültig definieren zu müssen.
Wir können von einem Theater der Begriffsbestimmung sprechen, welches am Fallbeispiel der Illustration inszeniert wird. Die Absicht der Masterarbeit ist somit nicht, eine endgültige Taxonomie aufzustellen, sondern die Diskussion zu eröffnen und Einsichten zu liefern. Mittels Überlegungen, Erkenntnissen aus Experimenten bzw. Analysen, Recherche und Forschung durch Design möchte ich versuchen, diesem komplexen Feld näher zu kommen. Diese Erkenntnisse sollen als Basis für weiterführende Forschung betrachtet werden. Fragen werden gestellt, diese müssen jedoch nicht im Zuge dieser Arbeit beantwortet werden.
Meine Forschungsfrage lautet somit folgendermaßen: Wie kann der Bestimmungsprozess zu einem Begriff offengelegt werden und zu einem fruchtbaren Ergebnis bzw. einer Einsicht führen, am Beispiel des Begriffs Illustration, ohne eine endgültige Lösung anzupeilen?
Lingerie
(2022)
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
Der Begriff der Nachhaltigkeit und der damit einhergehende Druck der Gesellschaft auf Unternehmen nimmt stetig zu. Unternehmen haben in den letzten Jahren damit begonnen, nachhaltige Ansätze im Rahmen ihrer wirtschaftlichen Tätigkeit zu integrieren und nach außen hin zu vertreten.
Das Ziel dieser Arbeit ist die Entwicklung eines sogenannten ESG-Leitfadens, welcher als zusätzliches Analysewerkzeug im Rahmen einer Unternehmensprüfung von Private-Equity-Gesellschaften eingesetzt werden kann. Der Leitfaden gilt als Leitlinie für die Einhaltung von ESG-Kriterien sowie den Bestimmungen der EU-Offenlegungsverordnung für nachhaltige Finanzprodukte.
Im Rahmen einer umfassenden Recherche wurden in einem ersten Schritt bestehende Due-Diligence-Prüfungen auf nachhaltige Aspekte untersucht. Anschließend wurden weitere Kriterien zur Erfüllung der ESG-Aspekte auf Basis einer entwickelten Methodik extrahiert und in den vorgesehenen Leitfaden implementiert. Weiters wurde sichergestellt, dass mit der Anwendung des Leitfadens die Grundzüge der EU-Offenlegungsverordnung eingehalten werden können.
In einem abschließend durchgeführten Anwendungstest wurde die Einsatzfähigkeit des Leitfadens bestätigt. Der Erfolg des ESG-Leitfadens, im Hinblick auf einen später darauf zurückzuführenden wirtschaftlichen Erfolg, kann lediglich in Kombination mit weiteren Prüfmethoden sichergestellt werden.
Um auf die Anforderungen der VUCA-Welt reagieren zu können, müssen Unternehmen sich zu anpassungsfähigeren Organismen entwickeln. Die agile Organisation bietet hier Lö-sungen, wobei HR in der agilen Transformation eine Schlüsselrolle einnimmt. Diese Arbeit beleuchtet Wirkungsfelder bzw. Rahmenbedingungen, die in Dienstleistungsunternehmen zur Befähigung der Agilität geschaffen werden müssen. Zudem werden die HR-Prozesse und -Instrumente auf notwendige Anpassungen analysiert, um Agilität zu fördern. Dabei wird ein Fokus auf die jeweiligen Wirkungen sowie Nebenwirkungen dieser Anpassungen gelegt. Basierend auf den Ergebnissen der theoretischen Ausarbeitungen sowie den durchgeführten Interviews mit Expertinnen und Experten werden Handlungsempfehlungen für HR-Verantwortliche zusammengetragen.
Es wird aufgezeigt, dass große Interdependenzen zwischen den einzelnen Wirkungsfeldern bestehen, die berücksichtigt und gezielt eingesetzt werden sollten. Zudem wird deutlich, dass die Anpassung der Prozesse Personalgewinnung, Personalentwicklung sowie insbesondere der Steuerungs- und Anreizsysteme wirkmächtige Hebel zur Förderung der Agilität darstellen.
Durch künstliche Intelligenz gesteuerte Prozesse haben einen großen Einfluss auf unsere Wahrnehmung und auch umgekehrt beeinflussen sozio-kulturelle Vorstellungen digitale Prozesse. Technologien, die von einer durch geschlechtsspezifische Datenlücken geprägten Gesellschaft entwickelt werden, reproduzieren stereotype Narrative und Gender Biases. Die Arbeit mit der Forschungsfrage Wie tragen Suchmaschinen zu einer Fortschreitung von Gender Biases durch geschlechtsspezifische Datenlücken bei?, wird mit aus diversen Bereichen herangezogener Literatur, sowie eigenen experimentellen Ansätzen zur Erkenntnisgewinnung verfasst. Die Problemstellung wird in die folgenden Bereiche unterteilt und diskutiert: die Gender Data Gap, welche fehlende Daten über nicht-männliche Personen beschreibt, die Gender Gap, die das Fehlen nicht-männlicher Personen in Entwicklungsprozessen thematisiert und Algorithmische Biases, welche mit unterschiedlich starkem menschlichen Einfluss dargelegt werden. Die durchgeführten Untersuchungen befassen sich mit Darstellungen von Geschlecht durch die Suchmaschine Google. Es konnte bestätigt werden, dass stereotype Identitätsdarstellungen vorkommen und Google eine generisch-maskuline Sichtweise vertritt, wodurch geschlechtsspezifische Datenlücken verstärkt werden. Mit dem Ziel, Biases in digitalen Prozessen sichtbar zu machen, werden in dieser Arbeit gestalterische Lösungsansätze präsentiert, die an verschiedenen Punkten der Problemstellung anknüpfen.