Refine
Year of publication
- 2022 (108) (remove)
Document Type
- Master's Thesis (82)
- Article (13)
- Part of a Book (4)
- Report (3)
- Book (2)
- Conference Proceeding (2)
- Other (2)
Institute
- Soziales & Gesundheit (13)
- Wirtschaft (10)
- Forschungsgruppe Empirische Sozialwissenschaften (8)
- Forschungszentrum Human Centred Technologies (3)
- Forschungszentrum Business Informatics (1)
- Forschungszentrum Digital Factory Vorarlberg (1)
- Gestaltung (1)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (1)
- Technik | Engineering & Technology (1)
Language
- German (108) (remove)
Keywords
- Soziale Arbeit (5)
- Agilität (2)
- Corona (2)
- Digitale Transformation (2)
- Digitalisierung (2)
- Effizienz (2)
- Elternschaft (2)
- Fachkräftemangel (2)
- Forschung durch Design (2)
- Gashydrat (2)
In Anbetracht der zahlreichen Herausforderungen und Entwicklungen, denen mittlere und große Unternehmen ausgesetzt sind, besteht heute oft die Situation, dass zwischen der Geschäftsprozessarchitektur und IT-Architektur ein architektonisches Misalignment herrscht. Dieses architektonische Misalignment macht sich heute vor allem bei den voneinander getrennt verwalteten Prozesslandkarten und IT-Landkarten bemerkbar. Um jedoch bessere Erkenntnisse für erfolgsrelevante Managemententscheidungen bereitstellen zu können, bedarf es einer sogenannten Alignment-Architektur, die beide Teilarchitekturen zu einer Sichtweise und Informationsbasis integriert. Das übergeordnete Ziel der vorliegenden Masterarbeit liegt darin, Antworten auf die Forschungsfrage zu geben, wie die Geschäftsprozessarchitektur mit der IT-Architektur integriert bzw. beide Welten miteinander harmonisiert werden können, um insbesondere daraus bessere Erkenntnisse für Managemententscheidungen im Rahmen der durch das ökonomische Umfeld angetriebenen Unternehmensentwicklung zu gewinnen. Um dieses Ziel erreichen und die Forschungsfrage beantworten zu können, wurde eine theoretisch-konzeptionelle Forschungsarbeit im Rahmen eines erweiterten Literaturstudiums betrieben, indem mit Hilfe von bestehender Literatur theoretische Erklärungsmuster zum vorliegenden Thema gesammelt, analysiert und in ein eigenes sowie neues Erklärungsmuster eingeordnet wurden. Durch diese neue Einordung und die grundsätzliche Theoriearbeit charakterisiert sich die durchgeführte Forschungsarbeit zudem als eine gestaltungsorientierte und qualitative Forschung. Die Ergebnisse dieser Forschungsarbeit sind fünf meta-kognitive Ansätze zur Integration der Geschäftsprozessarchitektur und der IT-Architektur. Diese sind der ursachenbasierte, der erfolgsbasierte, der denkbasierte, der granular-iterative und der interarchitektonische Integrationsansatz. Die vorliegende Masterarbeit demonstriert anhand von fundierten theoretischen Erkenntnissen, wie eine Integration zu einer Alignment-Architektur zwischen der Geschäftsprozessarchitektur und IT-Architektur erfolgen und inwiefern daraus bessere Erkenntnisse für Managemententscheidungen gewonnen werden können. Schließlich zeigen diese Erkenntnisse auf, wie ein Architekturmanagement aus einer anderen Gesamtperspektive betrachtet werden kann, um eine erfolgreiche Architekturintegration zu ermöglichen.
In unserer digitalen Welt haben es einige Technologie-Marken bis ganz nach oben geschafft. Große Tech-Unternehmen wie Apple, Amazon, Microsoft und Google belegen die ersten Plätze der Best Global Brands im Jahr 2021 (Interbrand, 2021). Aber auch Automobilhersteller wie Toyota, Mercedes-Benz und BMW spielen ganz oben mit.
Wir möchten zunehmend mit unserer Außenwelt vernetzt sein, auch während dem Autofahren (Ulrich, 2015). So haben wir die Möglichkeit, unser Smartphone über eine Integrations-Schnittstelle, wie z.B. Apple CarPlay, in das vorhandene Infotainment-System des Autos zu integrieren. Durch die Integration werden zwei Systeme von unterschiedlichen Marken, basierend auf verschiedenen Styleguides, auf einem Bildschirm abwechselnd genutzt und dargestellt. Man kann zwischen den beiden Systemen hin und her wechseln, je nachdem, welche Funktionen man gerade nutzen möchte. Dabei entsteht einerseits ein heterogenes Benutzererlebnis für die Nutzerinnen und Nutzer, und auch für Designerinnen und Designer entstehen gewisse Herausforderungen. Lassen sich die Systeme unterschiedlicher Marken bis zu einem gewissen Punkt visuell aneinander annähern, und kann dadurch die Usability für die Nutzerinnen und Nutzer erhöht werden? Mit diesen Herausforderungen im Design beschäftigt sich diese Arbeit.
Ergebnis ist die Konzeption eines Gestaltungssystems, welches einen Vorschlag für die Annäherung zwei heterogener grafischer Benutzeroberflächen von zwei unterschiedlichen Marken bietet, wenn diese zusammen auf einem Bildschirm dargestellt und von den Nutzerinnen und Nutzern genutzt werden können. Anhand des Systems können die Interfaces aneinander angenähert werden, und sich dennoch über identifizierte Gestaltungselemente differenzieren.
Thank god it's friday
(2022)
Das Ziel der vorliegenden Masterarbeit ist es zu untersuchen, welche Rolle Design im Kontext gesellschaftspolitischer Bewegungen spielt und in welchen Zeichen sich der Protest der Klimabewegung Fridays for Future äußert. Ebenfalls untersucht wird, inwiefern sich diese einst subversiven Elemente der Klimabewegung wiederum in den Mainstream der Werbeindustrie eingliedern.
Dazu wird die folgende Forschungsfrage gestellt: In welchen Zeichen manifestiert sich der aktuelle Klimaprotest und welche Zeichen finden sich in der Werbung wieder? Lässt sich für den Betrachtenden noch dechiffrieren wo der Protest aufhört und der Konsum beginnt?
Das Erkenntnisinteresse besteht darin, Bilder aus dem Aktionsrepertoire der Fridays for Future Bewegung über den Zeitraum 2019-2021 zu sammeln, die Ausbildung ihrer visuellen und sprachlichen Ausdrucksformen zu analysieren und zu dechiffrieren.
Zur Untersuchung des Bildmaterials werden Methoden aus unterschiedlichen Disziplinen eingesetzt. Protestäußerungen, die über Plakate, Fotografien und andere Medien zum Ausdruck kommen, werden gesammelt und mit bildwissenschaftlichen und rhetorischen Methoden untersucht. Die Argumentation erfolgt anhand der Untersuchung dreier konkreter Beispiele aus der Werbung mittels der dokumentarischen Methode der Bildinterpretation nach Bohnsack. In der Analyse der Kampagnen geht es um das Wechselverhältnis zwischen der ästhetischen Selbstdarstellung der Bewegung und ihrer Rezeption bzw. Re-Inszenierung in der Werbung.
Die Ergebnisse der Analyse zeigen, wie sich Werbung durch die Aneignung der Klimasymbolik vom klassischen Kommunikationsinstrument der Wirtschaft zunehmend zu einer Kommunikation auf nicht-ökonomischer und gesamtgesellschaftlicher Ebene entwickelt.
Bezugnehmend auf die Re-Inszenierung der Protestcodes in der Werbung werden diese in der praktischen Ausarbeitung durch die Antiwerbung-Aktionsform des Culture Jammings selbst noch einmal zitiert und ironisiert. Dabei werden die Medien und Mittel der Werbung verwendet, wodurch sich ein Dreisatz aus Aneignung, Manipulation und Wiedereinspeisung ergibt.
Sie werden beobachtet
(2022)
Wahrheit braucht Vertrauen
(2022)
Die Arbeitswelt von morgen
(2022)
Das Nugget-Chart
(2022)
Kommunikation ist Begegnung
(2022)
Unbegreiflich? Begreif mich!
(2022)
Fehlendes Wissen führt zu fehlendem Verständnis und beeinträchtigt die Empathie gegenüber Menschen mit Behinderungen und deren Lebensumständen.
Diese Arbeit untersucht bisherige Methoden zur medialen Verständnisvermittlung chronischer Krankheiten mittels Seznografie. Der Fokus liegt dabei auf rheumatischen Erkrankungen. Die Analyse beinhaltet Aspekte der Wahrnemungsvermittlung, welche bislang noch nicht oder ungenügend erforscht wurden. Es werden Beispiele zu verschiedenen Inszenierungen von Krankheit und deren Auswirkungen auf die Betroffenen gesammelt und analysiert. Dabei wird beurteilt, welche Methoden zur Vermittlung eingesetzt werden können, um durch das Erlebnis von Objekten die Empathie gegenüber körperbehinderten Menschen zu steigern und in weiterer Folge deren Inklusion in die Gesellschaft zu verbessern. Die Kombination aus faktischem Wissen gekoppelt mit einer Selbsterfahrung verstärkt den Lerneffekt und kann das Verhalten nachhaltig beeinflussen. Durch das immersive verstehen einer Situation besteht die Möglichkeit Empathie aufzubauen und zu stärken. Diese Faktoren werden bei der Konzipierung mit einbezogen und sind maßgeblich für die Struktur der Ausstellung.
Das erarbeitete Austellungskonzept baut auf bisherigen best practice Beispielen, sowie recherchierten Methoden auf, wobei die Besucher:innen immersiv mit dem Thema Behinderung und chronische Krankheiten konfrontiert werden. Dieses Konzept ist in Form einer Partitur dieser Arbeit beigelegt, um den Erlebnispfad durch die erarbeiteten Inhalte und Darstellungen übersichtlich zu präsentieren. Die entwickelten Objekte wurden durch Recherche und anhand von Interviews auf ihre Eignung geprüft und in ihrer Wirkung und Relevanz bestätigt.
Mit dem geplanten EU Ecolabel für Finanzprodukte möchte die EU ein auf EU-Ebene etabliertes Label zur Zertifizierung nachhaltiger Geldanlagen schaffen. Ziel der Masterarbeit war es herauszufinden, welchen Stellenwert ein solches Siegel für junge Privatanlegende hätte und ob es für sie für die nachhaltige Geldanlage relevant wäre. Zur Beantwortung der Fragestellung wurde eine quantitative Studie unter Studierenden in Österreich und Deutschland im Alter von 18 bis 29 Jahren durchgeführt, welche für diese Arbeit als junge Privatanlegende definiert wurden. Zur Definition und Messung der Akzeptanz wurde ein Einstellungsmodell gewählt.
Die Ergebnisse zeigen, dass das geplante EU Ecolabel für Finanzprodukte für die Zielgruppe für die Nutzung zur nachhaltigen Geldanlage relevant wäre und entsprechend der in der Studie verzeichneten Einstellungshaltung eine Chance auf Akzeptanz bei ihnen hätte. Letztere könnte sich jedoch bei Veränderung der Meinungshaltung von Gesellschaft oder Umfeld verändern. Eine Nutzung des Siegels hätte mehrheitlich den Stellenwert der Unterstützung von Nachhaltigkeit im Allgemeinen sowie der Leistung eines persönlichen Beitrags zur Nachhaltigkeit.
In einem nächsten Schritt könnte sich weiterführende Forschung mit der Resonanz der Finanzinstitutionen und Unternehmen zum geplanten EU Ecolabel für Finanzprodukte beschäftigen.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Wärmepumpen werden als vielversprechende Lösung zur Dekarbonisierung des Gebäudesektors angesehen. Konventionelle Kältemittel, die als direkte Emissionen aus Wärmepumpensystemen austreten, stellen insbesondere vor dem Hintergrund steigender Installationszahlen ein relevantes Treibhauspotenzial dar. Natürliche Kältemittel verfügen über ein geringes Treibhauspotenzial und können daher zur Substitution konventioneller Kältemittel verwendet werden. Dennoch werden sie bislang nicht im großen Maßstab eingesetzt. Es bedarf weiterer Studien und Anreize, um den Einsatz natürlicher Kältemittel voranzubringen. In dieser Fallstudie erfolgt anhand eines Referenzprojektes ein simulativer Vergleich zweier reversibler Luft-Wasser-Wärmepumpen. Im Referenzfall wird das konventionelle Kältemittel R32 verwendet, als Alternative dient das natürliche Kältemittel R290. Die beiden Systeme werden hinsichtlich ihrer Effizienz, Klimawirksamkeit und Wirtschaftlichkeit verglichen. Die notwendigen Berechnungen basieren auf einem kalibrierten Simulationsmodell des Gebäudes und der Anlage. Die Ergebnisse zeigen einen energetischen und ökologischen Vorteil für R290. Im Heizbetrieb, der den Hauptteil des thermischen Energiebedarfs im Referenzprojekt ausmacht, erreicht die Wärmepumpe mit R290 eine um 9% höhere Jahresarbeitszahl. Im Gegensatz dazu erzielt die R32-Wärmepumpe eine um 12% höhere Jahresarbeitszahl im Kühlbetrieb. Durch die höhere Effizienz im Heizbetrieb und das niedrigere Treibhauspotenzial des Kältemittels liegen die Emissionen durch den Betrieb der R290-Wärmepumpe um 17% unter denen der R32-Wärmepumpe. Der wirtschaftliche Vergleich der beiden Systeme fällt aufgrund höherer Investitionskosten zum Nachteil der R290-Wärmepumpe aus.
Die Digitalisierung in Unternehmen und somit der Vormarsch von Industrie 4.0 zählen zu den am häufigsten besprochenen Themenfeldern der letzten Jahre. Mit Industrie 4.0 fallen auch Schlagwörter wie ‚Internet of Things‘ oder ‚Big Data‘. Diese Technologien sind dafür zuständig, die Produktion zu vernetzen, Daten aufzubereiten und somit einen Wettbewerbsvorteil zu erlangen. Dem gegenüber steht die altbewährte ‚Lean Six Sigma‘-Methode, die große Beliebtheit in Unternehmen genießt und weltweit angewandt wird.
Das Ziel der vorliegenden Arbeit ist, die Auswirkungen des digitalen Wandels auf die Methode Lean Six Sigma zu untersuchen. Daraus resultiert auch die Forschungsfrage: Welche Chancen und Risiken birgt der digitale Wandel durch Industrie 4.0 für die Nutzung von Lean Six Sigma in Unternehmen?.
Um die Forschungsfrage beantworten zu können, wird in dieser Masterarbeit auf mehrere Fachquellen Bezug genommen, in denen der Zusammenhang zwischen Industrie 4.0 und Lean Six Sigma sowohl theoretisch als auch praktisch untersucht wird. Damit bewegt sich die Arbeit im theoretisch-konzeptionellen Bereich. Insgesamt 47 relevante Beiträge wurden dabei identifiziert.
Aus den Beiträgen ergeben sich vier Technologien, die den größten Einfluss auf Lean Six Sigma und den DMAIC-Zyklus (Define, Measure, Analyze, Improve, Control) haben. Diese Technologien sind Big Data, Data-Mining, Process-Mining und Simulation. Durch eine genaue Analyse der Literatur wird gezeigt, dass sich ein Zusammenspiel der beiden Methoden lohnt; es wird aber auch darauf hingewiesen, dass Risiken zu beachten sind.
Keywords: Lean Six Sigma, Industrie 4.0, Big Data, Data-Mining, Process-Mining, Simulation
Die vorliegende Arbeit beschäftigt sich mit der Positionsbestimmung in Innenräumen mittels der Ultra Breitband Technologie, deren Genauigkeit sowie der Positionierung solcher Systeme in relevanten Beleuchtungsmodulen. Im ersten Teil der Arbeit wird die Ultrabreitband Technologie beschrieben, die sich für Ortbarkeit in Innenräumen durch die große Bandbreite, relativ gut eignet. Hierbei wird auf das UWB-Signal, die Regulierung bezüglich Frequenznutzung für Europa und USA sowie auf die UWB-Standards eingegangen. Im weiteren Verlauf der Arbeit werden die gegenwärtigen Positionsbestimmungs Verfahren beschrieben. Beispiele hierfür sind das Time of Flight (ToF), das Time of Arrival sowie nicht funkbasierte Methoden wie z. B. die Inertial Measurement Unit (IMU). Die Positionsbestimmung in der UWB-Technologie wird häufig mittels ToF und ToA bewerkstelligt. Im darauffolgenden Kapitel werden die gegenwärtigen Lokalisierungssysteme erklärt. Real Time Locating Systems (RTLS) kommen in vielen Lebensbereichen zum Einsatz, von Krankenhäusern bis zum Sport. Der zweite Teil der Arbeit besteht aus der Ausarbeitung von verschiedenen Konzepten zur Realisierung eines Demonstrators sowie der Ausarbeitung eines Simulationsmodells für die Positionsbestimmung, mit dem eine Ortungsgenauigkeit von 30 bis 50 cm erreicht werden kann.
In den 13 Jahren seit Einführung der IFRS für KMU in Deutschland belegen mehrere Studien, dass dieser Standard, entgegen der Erwartungen, keine Erfolge im Bereich der Anwenderzahlen erzielen konnte. Trotz der Entwicklung eines international angepassten und auf die Bedürfnisse der KMU fokussierten Rechnungslegungsstandards, blieb eine Etablierung innerhalb der KMU aus.
Ziel dieser Arbeit ist die Analyse, inwiefern eine doppelte Rechnungslegung nach IFRS und HGB wirtschaftliche und geschäftsanalytische Vorteile für die Anteilseigner deutscher KMU generiert. Aufbauend auf der beschriebenen Zielsetzung gilt es zu überprüfen, welche Anteilseigner deutscher KMU von dem doppelten Rechnungslegungsstandard adressiert werden und ferner, in welchem Ausmaß eine höhere Bedürfnisbefriedigung resultiert. Zunächst erfolgt im Rahmen einer umfassenden Literaturrecherche eine Untersuchung der Anteilseigner deutscher KMU und deren Anforderungen an ein Rechnungslegungssystem. Anschließend findet eine Überprüfung möglicher Vorteile statt, welche die Anwendung der IFRS für KMU befürworten würden. Darüber hinaus wurden zehn Experteninterviews durchgeführt mit der Intention, erworbene Erkenntnisse zu revidieren und überdies neue zu generieren. In einer abschließenden Inhaltsextraktion werden die gewonnen Annahmen artikuliert und anschließend interpretiert, um die zugrundeliegende Forschungsfrage zu beantworten.
Mit der VRV 2015 wurde die österreichische Voranschlags- und Rechnungsabschlussverordnung reformiert. Die vorangegangene VRV 1997 wurde dadurch großteils abgelöst. Grundstruktur bildet dabei der Drei-Komponenten-Haushalt bzw. das Drei-Komponenten-Rechnungssystem bestehend aus Vermögens-, Finanzierungs- und Ergebnishaushalt. In diesen Haushalten werden die Finanzdaten der einzelnen österreichischen Gemeinden gesammelt.
Ziel der vorliegenden Arbeit ist es, unter Verwendung dieser Finanzdaten relevante Finanzkennzahlen zu identifizieren, welche Rückschlüsse auf die Finanzlage einer Gemeinde ermöglichen. Somit wurden die öffentlich auf der Onlineplattform www.offenerhaushalt.at zur Verfügung stehenden Daten von 1.327 der insgesamt 2.095 österreichischen Gemeinden verwendet. Da der Fokus in dieser Arbeit ausschließlich auf Gemeinden liegt, wurden nur Marktgemeinden und Gemeinden ohne Status berücksichtigt, um die Forschungsfrage beantworten zu können. Dafür wurden in einem ersten Schritt sorgfältig ausgewählte Kennzahlen berechnet und für jede Kennzahl wurde ein Bewertungsschema erstellt. Anschließend wurden die Gemeinden in verschiedene Gruppen eingeteilt und mittels verschiedener Methoden der deskriptiven und multivariaten Statistik analysiert. Die Gemeinden wurden anhand ihrer Einwohnerzahl, ihrer Kennzahlbewertung und ihrer Ähnlichkeit in jeweils drei Gruppen eingeteilt. Die Analysen anhand dieser Einteilungen führten zum Ergebnis, dass vor allem größere Gemeinden eine bessere Finanzlage aufweisen als kleine und mittelgroße Gemeinden. Zudem konnten einzelne Kennzahlen (Eigenertragsquote, Quote freie Finanzspitze und Nettovermögensquote) als relevante Einflussfaktoren für die Beschreibung der Finanzlage einer Gemeinde identifiziert werden. Ein Zusammenhang zwischen Bundesland und Finanzlage konnte nicht hergestellt werden. Zusammenfassend lässt sich sagen, dass die VRV 2015 die Transparenz und Vergleichbarkeit der Finanzdaten der Gemeinden erhöht. Auch die Berechnung aussagekräftiger Kennzahlen bietet zusätzliche Möglichkeiten die Gemeinden zu vergleichen. Auch wenn der zur Verfügung stehende Datensatz (noch) nicht vollständig ist, birgt die VRV 2015 und die damit verbundene verbesserte Übersicht großes Potenzial zur Vereinfachung der Bewertung und Vergleichbarkeit von Gemeinden.
Um die Nachhaltigkeitsziele der Vereinten Nationen in Österreich zu erreichen, wird ab Juli 2022 die CO2-Steuer erhoben. In diesem Kontext fehlen für den Standort Vorarlberg jedoch Aussagen über das Nachhaltigkeitscontrolling im Allgemeinen und die Auswirkungen der CO2-Steuer im Speziellen.
Zur Beantwortung der Forschungsfragen wurde eine Online-Umfrage konzipiert, durchgeführt und statistisch quantitativ ausgewertet. Das entwickelte Nachhaltigkeits-Scoring-System soll klären, inwieweit die teilnehmenden Unternehmen, ein Nachhaltigkeitscontrolling implementiert haben. Zudem wurde geprüft, ob die CO2-Steuer einen Zusammenhang mit dem ermittelten Nachhaltigkeitsscore hat.
Der Mittelwert des Nachhaltigkeitsscore betrug 56,23 %, wobei die Ergebnisse eine hohe Variabilität (10 % bis 100 %) aufwiesen. In einigen Unternehmen wird nur ein rudimentäres Nachhaltigkeitscontrolling durchgeführt, während andere bereits sehr aktiv sind. Die Wirkung der CO2-Steuer ist sehr unterschiedlich. Der Korrelationskoeffizient nach Pearson ergibt zwar 0,053 und ist damit positiv (r > 0), dieser ist aber sehr schwach. Die Signifikanz (1-seitig) liegt bei p = 0,352. Somit wurde nachgewiesen, dass kein eindeutiger Zusammenhang zwischen der CO2-Bepreisung und dem Nachhaltigkeitsscore in Vorarlberg besteht.
Mit Kunst und Kultur in Kontakt zu kommen, weckt idealerweise die Lust daran, mehr wissen zu wollen. Interesse an kulturell relevanten Themen hervorzurufen und Rezipient:innen anzuregen, sich mit gesellschaftlich dringlichen Fragestellungen auseinanderzusetzen, um auch an aktuellen Diskursen teilzuhaben, ist die Aufgabe der Kulturarbeiter:innen, Künstler:innen, Kurator:innen, Kunst- und Kulturvermittler:innen von heute. Die von ihnen entwickelten Konzepte und angebotenen Formate fungieren als Schnittstellen aller möglichen gesellschaftsrelevanten Themenbereiche, können Dialoge des Wissenstransfers eröffnen, und einem fruchtbaren interdisziplinären Austausch den Weg ebnen.
Die bislang entwickelten Vermittlungstools hatten nicht immer den gewünschten Erfolg. Der Grund liegt vermutlich auch zum Teil an zu vielen diskursiven und exklusiven Formaten, in denen u. a. zu viel Vorwissen vorausgesetzt wird. Sofern Rezipient:innen Interesse an zeitgenössischer Kunst verspüren, die Zeit und den Mut aufbringen, einem angebotenen Vermittlungsprogramm auch tatsächlich beizuwohnen, wird nicht selten jeglicher Wiederholungswunsch im Keim erstickt, wenn es den Veranstalter:innen nicht gelingt, mit ihren Inhalten direkte Bezüge zum Besucher bzw. zur Besucherin herzustellen. Um diese Menschen nicht „alleine zu lassen“ oder vor den Kopf zu stoßen, und ihnen kulturelle Teilhabe zu ermöglichen, braucht es dringend ein größeres Repertoire an qualitativ hochwertigen sowie niederschwelligen Vermittlungsangeboten.
In meinen Forschungsbemühungen widme ich mich daher der Suche nach neuen Wegen in der Vermittlungsarbeit für zeitgenössische bildende Kunst, mittels derer Kunstrezeption geübt werden kann, in der Annahme, dadurch könne im Laufe der Zeit eine bewusstere Wahrnehmung unserer bilderdominierten Welt entwickelt werden. Eine versierte Kunstrezeption kann – so meine Hypothese – maßgeblich zur visuellen Kompetenz (sowie zu einem unabhängigeren Denken) und folglich zu allgemein geringerer Manipulierbarkeit beitragen. Konkret gehe ich der Frage nach, ob visuelle Kompetenz durch eine achtsame Kunstrezeption unterstützt werden kann.
Insbesondere (Vermittlungs-)Projekte, die Kunst oder Kultur gleichermaßen emotional wie intellektuell erfahrbar machen, können bleibende Eindrücke entfalten. Der bewusste Einsatz nonverbaler Techniken in der (traditionellerweise) sprachlich verankerten Praxis der Kunstvermittlung ermöglicht den Rezipient:innen ein Erlebnis, das innere Zustände, Gefühle mit äußeren Eindrücken und einer umfassenden ästhetischen Erfahrung in Verbindung bringt. Erfahrungen solcher Vielfalt prägen sich bei Personen jeden Alters in einer Art und Weise im Netzwerk der Erinnerungen ein, wie es der Sprache allein nur in sehr seltenen Fällen zu gelingen vermag. In Hinblick auf den Bildungsauftrag kultureller Einrichtungen ermöglichen Vermittlungsprogramme mit Erfahrungs- und Erlebnischarakter demnach ein nachhaltiges Lernen sowie ein bleibendes Verständnis und regen darüber hinaus transformatorische Selbst-Bildungsprozesse an.
Aufgrund des weltweit hohen Wasserverbrauches und des steigenden Rückganges des Grundwassers, wird die Aufbereitung von Abwasser in Zukunft eine immer größere Rolle spielen. Neben großen industriellen Anlagen werden auch dezentrale und mobile Techniken benötigt, um in ländlichen Regionen oder der Schiffahrt Abwässer aufbereiten zu können. In der Schiffahrt treten vor allem ölverschmutzte Abwässer auf. Diese Masterarbeit befasst sich mit dem Betrieb eines Befeuchtungs-Entfeuchtungsprozesses mit Öl-Wasser-Emulsionen. Es wird der Einffluss der Ölkonzentration auf die Prozessparameter sowie die Reinheit des Kondensates und die Effizienz des Prozesses untersucht. Dabei werden mit einem Versuchsstand an der Fachhochschule Vorarlberg Messungen durchgeführt. Anhand der Ergebnisse wird auf das Verhalten des Befeuchtungs-Entfeuchtungsprozesses geschlossen.
Als Öl-Wasser-Emulsion wird eine Mischung aus Paraffinöl und Wasser verwendet, wobei die Mischung auf Volumenprozent basiert. Die Öl-Wasser-Gemische werden in verschiedenen Versuchsreihen in einer Versuchsanlage an der Fachhochschule Vorarlberg betrieben, welche als Befeuchtungs- und Entfeuchtungsanlage konzipiert ist. Dabei wird die Betriebsweise (Batch und kontinuierlich), die Ölkonzentration in der Emulsion und die Prozessparameter wie z. B. Beheizungsleistung variiert. Batch-Versuche werden auf die Konzentration, den Füllstand, die Kondensatproduktion und die Temperaturen über die Zeit betrachtet. Im kontinuierlichen Betrieb wird bei stationärer Betriebsführung die Wärmeübertragung im Befeuchter, Ölrückstände im Kondensat, den Einfluss der Ölkonzentration auf den Dampfdruck der Emulsion, den Einfluss der Ölkonzentration auf die einzubringende Wärmeleistung und die Gained Output Ratio (GOR) der Anlage untersucht. Zudem wird über verschiedene Integrationsansätze die ausgetragene Kondensatmenge ermittelt und mit den gewogenen Werten verglichen. Die Messungen zeigen, dass sich der Befeuchtungs-Entfeuchtungsprozess für die Reinigung von Ölwassern eignet. Eine Aufkonzentrierung der Öl-Wasser-Emulsion ist bis zu ca. 95% möglich. Die steigende Ölkonzentration senkt den Wärmeübergang im Blasensäulenbefeuchter. Bei allen produzierten Kondensatmengen werden Ölrückstände festgestellt, wobei die Ölkonzentration im Kondensat unabhängig von der Ölkonzentration der Emulsion ist. Durch die schlechtere Wärmeübertragung mit steigender Ölkonzentration wird auch der Wärmeeinsatz erhöht. Die GOR wird ab einer Ölkonzentration von 50% in der Emulsion beeinflusst. Eine mathematische Berechnung der Kondensatmenge ist möglich. Dadurch kann auf die Wasserverluste in der Anlage geschlossen werden. Es ist möglich Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess aufzubereiten. Bei höheren Ölkonzentrationen der Emulsion können lokale Probleme mit Wärmestauungen auftreten. Somit ist eine gut geplante Prozessführung anhand der gezeigten Ergebnisse vorteilhaft.
Die in dieser Arbeit ermittelten Ergebnisse sind für die weitere Forschung mit Öl-Wasser-Emulsionen im Befeuchtungs-Entfeuchtungsprozess hilfreich. Die Messungen zeigen, welche Einflüsse die Ölkonzentration auf den Anlagenbetrieb und die Eigenschaften der Emulsion haben. Die auftretenden Messschwierigkeiten können in weiterführenden Messungen gezielt vermieden oder adjustiert werden.
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
Grey-Box-Modellierung einer Lüftungsanlage mit realen Betriebsdaten für die Optimierung des Reglers
(2022)
Oszillationen in Heizungs-, Lüftungs- und Klimaanlagen können die Lebensdauer
von Ventilen und Aktuatoren deutlich reduzieren und die Effizienz solcher
Anlagen negativ beeinflussen. Die hier betrachtete Lüftungsanlage eines Verkaufsraums zeigt deutlich schwingendes Verhalten, das höchst wahrscheinlich auf die Regelung zurückzuführen ist. Um dieses Verhalten zu untersuchen und ein
Testfeld für die Auslegung und Optimierung von alternativen Regelkonzepten
zu erstellen, wird ein Grey-Box-Modell der Anlage erstellt. Grey-Box-Modelle
sind physikalische Modelle, deren Parameter mit Messdaten identifiziert werden.
Die Ermittlung der Parameter (Systemidentifikation) des Grey-Box-Modells
wird hier mittels nichtlinearer Optimierung an dem realen Betriebsdatensatz
durchgeführt. Dieser Betriebsdatensatz hat im Vergleich zu anderen Arbeiten
aufgrund geringer Ausstattung der Anlage mit Sensorik und geringer Auflösung
der Messdaten eine niedrige Qualität. Aus diesem Grund können die einzelnen
Komponenten der Anlage (eine Wärmerückgewinnung, ein Heizregister und ein
Kühlregister) nicht separat identifiziert werden, sondern nur im Gesamtsystem.
Hieraus ergibt sich die Frage, welche physikalische Formulierung der Komponenten
der Anlage am besten geeignet ist. Konkret stellt sich die Frage, welche
Komplexität, welche Anzahl der zu identifizierenden Parameter und welche Annahmen, die für die Formulierung getroffen werden sinnvoll sind. Dazu werden
für die einzelnen Komponenten der Anlage jeweils verschiedene Modelle aus der
Literatur implementiert und verglichen. Untersucht wird, ob ein Zusammenhang
zwischen der Anzahl an Parametern, die sich durch eine bestimmte Formulierung
des Modells ergibt und der erreichten Güte des Modells zu beobachten ist.
Die Güte des Modells wir dabei mittels der Wurzel des mittleren quadratischen
Fehlers zwischen Modellausgang und Datensatz bewertet.
Die Ergebnisse dieser Fallstudie zeigen, dass ein möglicher Zusammenhang
zwischen der Anzahl an Parametern des Grey-Box-Modells und der Güte des
Modells besteht. Insbesondere zeigt sich mit diesem Datensatz ein deutlicher
Abfall der Modellgüte bei mehr als zehn Parametern. Es kann des Weiteren
bestätigt werden, dass bei der vorliegenden niedrigen Datenqualität die getroffenen
Annahmen für die Modellierung von erheblicher Bedeutung sind. Durch
bestimmte Formulierungen kann zwar die Güte des Modells erhöht werden, jedoch
wir dadurch die Generalisationsfähigkeit des Modells höchst wahrscheinlich
reduziert.
Meine Masterarbeit beschreibt im Grunde einen Diskussionsprozess eines Begriffs. Es geht um den Versuch einer Kategorisierung und Bestimmung der Illustrationen, also darum, inwiefern Illustrationen kategorisiert werden können und anhand von welchen Merkmalen bestimmt werden kann, ob es sich um eine Illustration handelt. Diese Untersuchung findet in der Designforschung nämlich nur marginal statt. Julius Wiedemann und der Illustrator Raban Ruddigkeit erklären in ihren Büchern zwar, was eine Illustration ausmacht, jedoch wird weder eine Taxonomie bzw. Definition explizit angeführt oder darauf verwiesen, es kann aus dem Text aber ein Verständnis und damit eine implizite Definition explizit gemacht werden.
Laut Ruddigkeit sind Illustrationen mehr als bloß ein „Abbild der Wirklichkeit“ (Ruddigkeit 2021, Klappentext), denn eine Illustration „erhellt […] übertreibt […] mischt sich ein […] stößt […] Veränderung an […] interpretiert “ (Ruddigkeit 2021, Klappentext) Wiedemann verfolgt einen anderen Ansatz, denn laut ihm muss eine Illustration im Kontext funktionieren. (Vgl. Wiedemann 2007, 7f.)
Die Masterarbeit verfolgt die Methode der relationalen Bestimmung nach Wiesing. (Vgl. Wiesing 2015, Einleitung) Es erfolgt zusätzliche eine Analyse von Literatur, insbesondere liegt der Fokus auf den Theorien unter anderem von Sybille Krämer, Steffen-Peter Ballstaedt, Nelson Goodman, Hartmut Stöckl, Vilem Flusser, Ludwig Wittgenstein und Roland Barthes. Verorten lässt sich die Arbeit in den Bereichen der Bildwissenschaften bzw. der Kategoriensysteme. Ein Begriff wird diskutiert, es wird kein Versuch angestrebt, eine endgültige Lösung zu finden. Die Diskussion wird in einem passenden und übersichtlichen Layout in der Arbeit präsentiert und theoretisch weiter ausgearbeitet, sowie durchdiskutiert. Im besten Fall ergeben sich Vorschläge für eine Definition, eine Möglichkeit zur Kategorisierung bzw. Erhellungen zur Illustration, ohne sie endgültig definieren zu müssen.
Wir können von einem Theater der Begriffsbestimmung sprechen, welches am Fallbeispiel der Illustration inszeniert wird. Die Absicht der Masterarbeit ist somit nicht, eine endgültige Taxonomie aufzustellen, sondern die Diskussion zu eröffnen und Einsichten zu liefern. Mittels Überlegungen, Erkenntnissen aus Experimenten bzw. Analysen, Recherche und Forschung durch Design möchte ich versuchen, diesem komplexen Feld näher zu kommen. Diese Erkenntnisse sollen als Basis für weiterführende Forschung betrachtet werden. Fragen werden gestellt, diese müssen jedoch nicht im Zuge dieser Arbeit beantwortet werden.
Meine Forschungsfrage lautet somit folgendermaßen: Wie kann der Bestimmungsprozess zu einem Begriff offengelegt werden und zu einem fruchtbaren Ergebnis bzw. einer Einsicht führen, am Beispiel des Begriffs Illustration, ohne eine endgültige Lösung anzupeilen?
Lingerie
(2022)
Diese Arbeit analysiert mithilfe von Umfragen allgemeine Themen über Erneuerbare-Energie-Gemeinschaft (EEG) und deren Verrechnungs-Visualisierung. Sie befasst sich im speziellen mit der Verrechnungs-Visualisierungsplattform der Firma Exnaton. Diese wird von den Teilnehmenden der Pilot-EEG-Schnifis für die Proformarechnung verwendet.
Die Umfrageergebnisse werden grafisch und in Textform dargestellt und präsentiert. Auf Basis einer eigenen Interpretation und einer SWOT-Analyse wurde die Bewertung durchgeführt. Es soll eine strategische Entscheidungsmöglichkeit, für die Anwendung einer Verrechnungs-Visualisierungsplattform, geschaffen werden.
Die meistgewählten Erwartungen bzw. Wünsche an eine EEG (Klimaschutz, Umweltschutz und Stärkung der regionalen Gemeinschaft) werden als großes Potential der Energiewende gesehen. Mit knapp 78 % kann sich die Mehrheit der Befragten „Gut“ bis „Sehr gut“ vorstellen, sich an einer EEG zu beteiligen. Die nutzerfreundliche Gestaltung der relevanten Daten und die einfache Anwendung werden als Stärke der Exnaton-Verrechnungs-Visualisierungsplattform angesehen. Von den Teilnehmenden der Pilot-EEG-Schnifis bestehen schon 50 % der Befragten im Jahr 2021 auf eine 15-minütige Visualisierung ihrer EEG-Daten. Dies lässt auf ein großes Potential an EEGs und den damit benötigten Verrechnungs-Visualisierungsplattformen schließen.
Der Begriff der Nachhaltigkeit und der damit einhergehende Druck der Gesellschaft auf Unternehmen nimmt stetig zu. Unternehmen haben in den letzten Jahren damit begonnen, nachhaltige Ansätze im Rahmen ihrer wirtschaftlichen Tätigkeit zu integrieren und nach außen hin zu vertreten.
Das Ziel dieser Arbeit ist die Entwicklung eines sogenannten ESG-Leitfadens, welcher als zusätzliches Analysewerkzeug im Rahmen einer Unternehmensprüfung von Private-Equity-Gesellschaften eingesetzt werden kann. Der Leitfaden gilt als Leitlinie für die Einhaltung von ESG-Kriterien sowie den Bestimmungen der EU-Offenlegungsverordnung für nachhaltige Finanzprodukte.
Im Rahmen einer umfassenden Recherche wurden in einem ersten Schritt bestehende Due-Diligence-Prüfungen auf nachhaltige Aspekte untersucht. Anschließend wurden weitere Kriterien zur Erfüllung der ESG-Aspekte auf Basis einer entwickelten Methodik extrahiert und in den vorgesehenen Leitfaden implementiert. Weiters wurde sichergestellt, dass mit der Anwendung des Leitfadens die Grundzüge der EU-Offenlegungsverordnung eingehalten werden können.
In einem abschließend durchgeführten Anwendungstest wurde die Einsatzfähigkeit des Leitfadens bestätigt. Der Erfolg des ESG-Leitfadens, im Hinblick auf einen später darauf zurückzuführenden wirtschaftlichen Erfolg, kann lediglich in Kombination mit weiteren Prüfmethoden sichergestellt werden.
Um auf die Anforderungen der VUCA-Welt reagieren zu können, müssen Unternehmen sich zu anpassungsfähigeren Organismen entwickeln. Die agile Organisation bietet hier Lö-sungen, wobei HR in der agilen Transformation eine Schlüsselrolle einnimmt. Diese Arbeit beleuchtet Wirkungsfelder bzw. Rahmenbedingungen, die in Dienstleistungsunternehmen zur Befähigung der Agilität geschaffen werden müssen. Zudem werden die HR-Prozesse und -Instrumente auf notwendige Anpassungen analysiert, um Agilität zu fördern. Dabei wird ein Fokus auf die jeweiligen Wirkungen sowie Nebenwirkungen dieser Anpassungen gelegt. Basierend auf den Ergebnissen der theoretischen Ausarbeitungen sowie den durchgeführten Interviews mit Expertinnen und Experten werden Handlungsempfehlungen für HR-Verantwortliche zusammengetragen.
Es wird aufgezeigt, dass große Interdependenzen zwischen den einzelnen Wirkungsfeldern bestehen, die berücksichtigt und gezielt eingesetzt werden sollten. Zudem wird deutlich, dass die Anpassung der Prozesse Personalgewinnung, Personalentwicklung sowie insbesondere der Steuerungs- und Anreizsysteme wirkmächtige Hebel zur Förderung der Agilität darstellen.
Durch künstliche Intelligenz gesteuerte Prozesse haben einen großen Einfluss auf unsere Wahrnehmung und auch umgekehrt beeinflussen sozio-kulturelle Vorstellungen digitale Prozesse. Technologien, die von einer durch geschlechtsspezifische Datenlücken geprägten Gesellschaft entwickelt werden, reproduzieren stereotype Narrative und Gender Biases. Die Arbeit mit der Forschungsfrage Wie tragen Suchmaschinen zu einer Fortschreitung von Gender Biases durch geschlechtsspezifische Datenlücken bei?, wird mit aus diversen Bereichen herangezogener Literatur, sowie eigenen experimentellen Ansätzen zur Erkenntnisgewinnung verfasst. Die Problemstellung wird in die folgenden Bereiche unterteilt und diskutiert: die Gender Data Gap, welche fehlende Daten über nicht-männliche Personen beschreibt, die Gender Gap, die das Fehlen nicht-männlicher Personen in Entwicklungsprozessen thematisiert und Algorithmische Biases, welche mit unterschiedlich starkem menschlichen Einfluss dargelegt werden. Die durchgeführten Untersuchungen befassen sich mit Darstellungen von Geschlecht durch die Suchmaschine Google. Es konnte bestätigt werden, dass stereotype Identitätsdarstellungen vorkommen und Google eine generisch-maskuline Sichtweise vertritt, wodurch geschlechtsspezifische Datenlücken verstärkt werden. Mit dem Ziel, Biases in digitalen Prozessen sichtbar zu machen, werden in dieser Arbeit gestalterische Lösungsansätze präsentiert, die an verschiedenen Punkten der Problemstellung anknüpfen.
Herausforderungen im Umgang mit Präventionsmaßnahmen von sexueller Gewalt an Frauen mit Fokus auf die Clubbingszene am Beispiel Vorarlberg. Theoretischer Hintergrund: Sexuelle Gewalt in der Clubbingszene ist bisher nur wenig erforscht und es existiert eine hohe Dunkelziffer an sexuellen Übergriffen. Die körperlichen, psychischen und sozialen Auswirkungen für Betroffene können massiv sein. Um geeignete Präventionsmaßnahmen für sexuelle Gewalt zu entwickeln, müssen die unterschiedlichen Faktoren, die zur Ausübung von sexueller Gewalt führen, beleuchtet und auf gesamtgesellschaftlicher Ebene behandelt werden. Ziel der Arbeit: Ziel dieser Arbeit ist es, herauszufinden welche Herausforderungen sich bei der Umsetzung von Präventionsmaßnahmen für Institutionen und Clubbetreiber:innen ergeben und wie diese behoben werden können. Zudem soll die Zusammenarbeit und die Umsetzung dieser zwischen sozialen Institutionen und den Clubbetreiber:innen erforscht werden. Dazu wird folgende Forschungsfrage entwickelt: Welche Herausforderungen stellen sich in der Implementierung der vorhandenen Präventionsmaßnahmen von sexueller Gewalt an Frauen seitens der klinischen Sozialen Arbeit in Zusammenarbeit mit der Clubbingszene in Vorarlberg? Methode: Zur Beantwortung der Forschungsfrage wurden insgesamt zehn problemzentrierte Interviews durchgeführt. Zum einen wurden fünf Expert:innen aus unterschiedlichen Berufssparten befragt, zum anderen fünf Clubnutzer:innen, die in der Clubbingszene Vorarlberg aktiv sind. Ergebnisse: Die Ergebnisse zeigen, dass beim Großteil der befragten Personen ein hohes Bewusstsein für das Thema haben. Trotzdem wird sexuelle Gewalt in der Clubbingszene sehr häufig bagatellisiert und nicht als solche wahrgenommen. Die gesellschaftlich verankerten Geschlechterrollen sind dabei nicht förderlich. Schlussfolgerung: Es besteht Handlungsbedarf in Bezug auf Präventionsmaßnahmen von sexueller Gewalt in der Clubbingszene. Dies kann nur geschehen, wenn eine zunehmende Sensibilisierung und Bewusstseinsschaffung für sexuelle Gewalt in der Gesellschaft stattfinden.
Personalkennzahlen und der praktische Nutzen für das Human Ressource Management in Großbetrieben
(2022)
Qualitativ hochwertige und erfolgreiche Personalarbeit zeichnet sich dadurch aus, dass Mitar-beitende nicht als Kostenfaktor betrachtet werden, sondern als die wichtigste Ressource, die ein Unternehmen besitzt. Personalcontrolling mit Hilfe von Kennzahlen stellt dabei nicht wie oft vermutet eine Kontrolle dar, vielmehr ist es ein Gestalten und Steuern der Personalarbeit bezogen auf die Mitarbeitenden und der Prozesse des Human Ressource Management. Durch fundierte, begründet ausgewählte Personalkennzahlen wird das Bauchgefühl der Füh-rungskräfte mit Fakten belegt und bildet eine Unterstützung in der Entscheidungsfindung der Personalverantwortlichen. Dies gewinnt besonders in einer volatilen Marktsituation immer mehr an Bedeutung. Es scheint nach wie vor der Fall zu sein, dass diese Fachdisziplin des Unternehmenscontrollings bei den Vorarlberger Großbetrieben jedoch in den Kinderschuhen steckt. Ziel dieser Masterarbeit ist es daher, den Stellenwert von Personalkennzahlen und deren Nutzen für die Vorarlberger Großbetriebe aufzuzeigen. Dafür werden die theoretischen Grundlagen von Personalkennzahlen und deren Einteilung auf Basis der Kernprozesse des Personalressorts aufbereitet. Es werden auch Grenzen und weiterführende Möglichkeiten von Personalkennzahlen hinterfragt. Im Rahmen von neun Experteninterviews mit Personalver-antwortlichen konnte die Wichtigkeit einer aktiven Personalarbeit mit Hilfe von Kennzahlen, wie sie in der Literatur beschrieben wird, bestätigt werden. Als zentraler Nutzen von Perso-nalkennzahlen wird angesehen, dass sie Transparenz schaffen und den Blickwinkel der Ver-antwortlichen objektivieren und erweitern. Personalkennzahlen bieten somit eine Chance, die Mitarbeitenden möglichst zielgerichtet zu führen und Veränderungen rechtzeitig zu erkennen und falls möglich zu steuern.
Die Unternehmensplanung ist ein Pfeiler der Unternehmenssteuerung und dient zur Prognose der zukünftigen Geschäftsentwicklung sowie als Grundlage für Entscheidungen und Maßnahmen. Es wird auf diverse Charakteristiken der Unternehmensplanung eingegangen, wie die strategische und operative Planung. Die Planungsarten fokussieren sich auf Budget und Forecast. Zu diesen werden verschiedene bisherige Studien vorgestellt.
Die Forschungsfrage untersucht, wie sich in den vergangen zwei Jahren der Planungsprozess in der Bodenseeregion verändert hat und welche Treiber es für die Veränderungen gab. Die quantitative Untersuchung mittels einer Online-Umfrage erfolgt vor dem Hintergrund einer nicht nachlassenden Unsicherheit bedingt durch die Corona-Pandemie. Ein neuer Blickwinkel auf die Unternehmensplanung ist die Analyse von Unterschieden aufgrund der gewählten Unternehmensausrichtung Massenproduktion oder Auftragsfertigung. In den Ergebnissen zeigen sich keine signifikanten Unterschiede zwischen den beiden Geschäftsmodellen. Die Hälfte der befragten Unternehmen hat die Planung angepasst und z.B. die Planungsdauer verkürzt oder Szenarien verwendet.
Im April 2000 wurde das Erneuerbare-Energien-Gesetz (EEG) in Deutschland beschlossen, mit dem ein Rechtsrahmen für die Förderung von regenerativen Stromerzeugungstechnologien geschaffen wurde. Zum 31.12.2020 sind erstmalig ca. 19.000 Anlagen aus dem zwanzigjährigen Förderzeitraum gefallen. Mit jedem Jahreswechsel folgt ein weiterer Jahrgang. Mit der EEG-Novelle 2021 wurden die Voraussetzungen für einen möglichen Weiterbetrieb der ausgeförderten Anlagen geschaffen.
In dieser Masterarbeit wird untersucht, welche Optionen betroffene Anlagenbetreiber von Photovoltaikanlagen mit maximal zehn Kilowattpeak haben und aufgezeigt, welche rechtlichen und technischen Vorgaben bestehen. Zu Beginn wird in die Grundlagen der Photovoltaikinstallation und die Regulatorik des EEG eingeführt. Der Anlagenbestand mit Inbetriebnahme im Zeitraum 2000 bis 2008 wird quantifiziert, die Regionalverteilung sowie bisherige Stilllegungen analysiert. Mit einer Systemsimulation wird ein Weiterbetriebsjahr einer Photovoltaikanlage zur Bewertung der Erlöse bei Umstellung auf Überschusseinspeisung mit teilweisem Eigenverbrauch des Solarstroms berechnet. Abschließend werden die Erlöse für die Weiterbetriebsvarianten unter der Preissituation des Jahres 2021 verglichen.
Es zeigt sich, dass der Großteil der Photovoltaikanlagen maximal zehn Kilowattpeak aufweist und sich in Bayern und Baden-Württemberg befindet. Die Mehrheit der bereits betroffenen Anlagen wird aktuell weiterbetrieben. Die höchsten finanziellen Überschüsse lassen sich mit der Umstellung auf Eigenverbrauch erzielen. Am einfachsten umzusetzen ist dahingegen der Weiterbetrieb in Volleinspeisung. Die sonstige Direktvermarktung kann eine Alternative zur Volleinspeisung darstellen. Mit einem Neubau ist eine deutliche Leistungssteigerung auf gleicher Dachfläche möglich, ohne einer Weiterbetriebsperspektive verbleibt die Demontage der Anlage.
Der Implementierungsprozess einer Unternehmensstrategie im Kontext der digitalen Transformation
(2022)
Diese Studie zielt darauf ab, Unterschiede in der User Experience von 3D-Karten Anwendungen im Nutzungskontext Skitourenplanung festzustellen, um Erkenntnisse über die Vor- und Nachteile zu gewinnen. Es findet ein Vergleich zwischen der Touchscreen Applikation „Fatmap“1 (FATMAP | Discover a world of adventure..., o. J.) und einem auf der Basis mobiler Augmented Reality entwickelten Prototypen statt.
Um die Usability zu untersuchen, wurden Evaluationen zur Messung der Faktoren Effektivität, Effizienz und Zufriedenheit durchgeführt. Auf Grundlage der Ergebnisse wurde zudem ein Vorbereitungstool für eine alpine Skitour entwickelt. Für den Versuchsaufbau wurde zu Beginn die prototypische mobile AR-Applikation dem UX-Design Prozess folgend aufgesetzt. In dieser Phase fand eine tiefgreifende Recherche zu den Themen Orientierung, Interaktion und Skitouren statt, woraus die Anforderungen und das Konzept für den Prototyp abgeleitet wurden. Dieser wurde mit Hilfe einer Online-Plattform umgesetzt und auf einem iPad evaluiert. Das Testdesign beinhaltet Fragebögen zur wahrgenommenen User Experience, einen Usability Test zur Messung der Effizienz und einen Usability Test zur Messung der Effektivität. Insgesamt wurden 17 Proband: innen mit beiden Applikationen evaluiert, die gemessenen Faktoren ausgewertet und interpretiert. Die Ergebnisse zeigen, dass es Unterschiede bei der Effizienz und der Zufriedenheit der Anwendungen gibt, aber auch die Effektivität wird kontrovers diskutiert. Die Erkenntnisse bestätigen Vorteile bei der Interaktion mit dem AR-Prototypen, lassen jedoch offen, ob sich Nachteile der Effektivität durch technische Verbesserungen eliminieren lassen. In jedem Fall wurde die AR-Anwendung als spannender und origineller wahrgenommen, was zu einer höheren Motivation führt.
Im Zuge der beschleunigten, technologischen und organisatorischen Entwicklung, die den digitalen Wandel kennzeichnen, kommt dem Kompetenzmanagement eine besondere Be-deutung zu. Diese Masterarbeit widmet sich den Fragestellungen, welche Kompetenzen Mitarbeitende in Zeiten der Digitalen Transformation benötigen und wie diese gemessen werden können.
Anhand einer Literaturrecherche sowie der Durchführung von zwölf Einzelbefragungen von Expert:innen mit anschließender qualitativer Inhaltsanalyse, konnten im Verlauf der Diskussion die Forschungsfragen beantwortet werden. Die Ergebnisse zeigen, dass es bisher keine standardisierte Definierung der Kompetenzen für die Digitale Transformation gibt. Aber die Kompetenzen können gemessen werden, dies stellt jedoch ein schwieriges Vorhaben dar. Außerdem sollte bei der Kompetenzmessung der Mitarbeitenden auf wis-senschaftlich fundierte Messinstrumente zurückgegriffen werden. Die Kompetenzmessung ist eine Voraussetzung der Digitalen Transformation, um Kompetenzlücken frühzeitig zu erkennen und zu schließen. Ziel ist es, die Kompetenzentwicklung zu stärken.
Diese Arbeit richtet sich an Interessierte, die die Beweggründe der Kompetenzmessung der Mitarbeitenden als Voraussetzung für die Digitale Transformation verstehen möchten.
Schlagwörter: Kompetenzen, Digitale Transformation, Kompetenzmessung
Seit der Einführung von modernen Smartphones steigt die Bildschirmdiagonale der mobilen Endgeräte Jahr für Jahr. Dies ist sowohl ein Fluch als auch ein Segen zugleich. Einerseits kann auf einer größeren Bildschirmfläche eine größere Anzahl von Inhalten grafisch dargestellt werden. Andererseits bedeutet dies aber auch, dass Interaktionen mit der gesamten verfügbaren Bildschirmfläche sich als immer schwieriger gestalten. Insbesondere bei der einhändigen Bedienung des Smartphones mit dem Daumen erfordern ungünstig platzierte klickbare Bedienelemente eine erhebliche Streckung des betreffenden Fingers oder sogar die Unterstützung durch die andere Hand. Dadurch kann die Präzision von Berührungsinteraktionen beeinträchtigt werden. Es stellt sich deshalb folgende Forschungsfrage: „Inwiefern hängt die Berührungspräzision von unvorteilhaft positionierten Bedienelementen in Smartphones ab und wie unterscheiden sich die verschiedenen Altersgruppen hinsichtlich Smartphone Interaktionen?“ Zur Beantwortung der Forschungsfrage wurde eine quantitative Studie im Design einer interaktiven Umfrage für Smartphones programmiert und an potentielle Teilnehmer:innen versandt. Dabei wurden die Teilnehmenden aufgefordert vordefinierte Haltegriffe einzuhalten. Es wurden die Berührungsinteraktionen und die Antworten der Teilnehmenden protokolliert und anschließend analysiert. Bei der Datenanalyse wurden die erhobenen Daten der Teilnehmenden in vier Altersklassen unterteilt und anschließend auf Differenzen bezüglich der Bedienpräzision untersucht. Die Darstellung und der Vergleich der Benutzer:inneninteraktionen durch OffsetVektoren ergab, dass die Versuchsgruppe der Senioren bei allen vordefinierten Haltegriffen eine signifikant geringere Präzision in Bezug auf die Berührungsgenauigkeit aufwies als die anderen Testgruppen. Darüber hinaus wurde festgestellt, dass Objekte, die weiter von der natürlichen Fingerposition entfernt sind, mit einer geringeren Präzision selektiert werden als Objekte, die in unmittelbarer Nähe zum bedienenden Finger positioniert sind. Dies zeigte sich sowohl bei der Bedienung mit dem Daumen als auch mit dem Zeigefinger und ist abhängig vom Winkel des bedienenden Fingers zum Smartphone.
ROS 2 in Embedded Systemen
(2022)
Das Robot Operating System in seiner zweiten Version (ROS 2) findet zunehmend Verwendung und das nicht nur in Robotern. Dieser Beitrag gibt einen Überblick über den Aufbau und die Funktion von ROS 2. Die wesentlichen Elemente werden vorgestellt, das Publish-Subscribe-Konzept, das der Kommunikation zugrunde liegt, wird erläutert. Die Anforderungen von ROS 2 an Hardware und Betriebssystem werden beleuchtet und es werden Betrachtungen zu dessen Echtzeitverhalten gemacht.
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.
Der Einsatz von Robotik im Pflegekontext wird kontrovers diskutiert und löst unterschiedliche Assoziationen aus. In diesem Beitrag stellen wir Ergebnisse aus einer schriftlichen Befragung bei Pflegekräften aus Deutschland vor. Es wird aufgezeigt, für welche Funktionen und Aufgaben sich Pflegekräfte den Einsatz von Roboter vorstellen können und wo gegensätzliche Einstellungen gegenüber Robotern bestehen. Ein Fallbeispiel illustriert ein mögliches Anwendungsfeld. Mit den reflexiven Fragen laden wir die:den Lesenden ein, sich selbst mit der Idee Roboter als Alltagshelfer für ältere Menschen auseinanderzusetzen.
Hallo. Ich bin Lio.
(2022)
Von Assistenzrobotern im Pflegebereich erhofft man sich Unterstützung in vielfacher Weise: Sie sollen zur Erleichterung für das Pflegepersonal führen (z.B. durch Handreichung von Gegenständen), mehr Sicherheit bringen (z.B. indem sie Nachschauen, sobald Auffälliges registriert wird) und zu einem gesunden Altern (z.B. körperliche Aktivierung) und zu mehr Teilhabe (z.B. psychosoziale Aktivierung) beitragen. Ihre Funktionen versprechen daher einerseits Assistenz für Pflege- und Betreuungspersonal (z.B. Transport- und Serviceaufgaben) und andererseits soziale Assistenz für Senior:innen in Pflegesituationen (z.B. Unterhaltung, Aktivierung).
In dem Projekt PUR (Pflegeunterstützende Robotik) wurde der Roboter Lio der Firma F&P Robotics AG über einen Zeitraum von 22 Monaten in Wohnbereichen in zwei Pflegeeinrichtungen in Konstanz und Schaffhausen getestet und situationsangepasst weiterentwickelt. Mit Unterstützung des Personals und der Bewohner:innen vor Ort wurde Lio anhand der Kriterien Usability, User Experience, Akzeptanz sowie seinen Nutzen für die Organisation evaluiert. Neben den Befragungen der Akteur:innen in den beiden Einrichtungen erfolgte eine systematische Erfassung und Analyse von Informationen und Daten anhand von Logfiles und Dokumenten in welchen Nutzungsdauer und -häufigkeit sowie Fehlerraten erfasst wurden.
Es wurde deutlich, dass Lio sich noch hinsichtlich aller Kriterien verbessern muss um die hohen Erwartungen bezüglich einer wahrnehmbaren Entlastung des Pflegepersonals bei gleichzeitiger Aufrechterhaltung oder Verbesserung der Lebensqualität der Bewohner:innen erfüllen zu können. Als Schlüsselfunktion für eine optimierte Usability und User Experience wird die Bedienbarkeit über Sprache betrachtet. Zum einen aus Sicht der Pflege- und Betreuungskräfte die Lio z.B. in hektischen Situationen in der Nachtschicht schnell und einfach in seinem Autonomiemodus (z.B. Desinfizieren von Türen) unterbrechen müssen. Zum anderen aus Sicht der Bewohner:innen die ihn ansprechen, aber nicht verstanden werden, womit das aktivierende Potential, das in Lio steckt, nicht ausgeschöpft wird.
Eine routinemäßige Einbindung von Assistenzrobotern wie Lio in die Pflege- und Betreuungspraxis erfordert neben der Lösung von technischen Problemen (wie zuverlässige Navigation, Sprachinteraktion) auch geeignete Beteiligungsansätze der Akteuer:innen. Diese sind so zu gestalten, dass nicht nur die technikaffinen Personen abgeholt werden, sondern allen ein entsprechendes Angebot gemacht wird, den Umgang mit dem technischen System zu erproben und in der Kontrolle und Bedienung Sicherheit zu erlangen.
Die befragten Akteur:innen sehen eine Zukunft für Assistenzroboter sofern sie autonom, zuverlässig und jederzeit gut kontrollierbar funktionieren und stehen dem digitalen Transformationsprozess in der Pflege größtenteils sehr offen gegenüber.
Einfluss von Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg im Banken- und Versicherungssektor
(2022)
Den Nachhaltigkeitsbegriff gibt es schon lange, doch die letzten Jahre erlebte er einen wahren Aufschwung. Die Unternehmen erkannten diese Chance und beschäftigten sich intensiver mit dem Thema der Nachhaltigkeitsberichterstattung. Mit der Global Reporting Initiative (GRI) gibt es zwar einen international anerkannten Standard, doch die meisten Unternehmen verwenden ein eigenes Format. Das erschwert die Vergleichbarkeit der Berichte. Um den Einfluss der Nachhaltigkeitsmaßnahmen auf den Unternehmenserfolg zu messen, wurden neun Banken aus der DACH-Region ausgewählt. Für sie wurde ein eigenes Scoring-Modell entwickelt. Es umfasst die Kategorien Ökonomie, Ökologie, Soziales, Kommunikation und Glaubwürdigkeit. Der Unternehmenserfolg wird durch die Rentabilitätskennzahlen Return on Sales (ROS) und Return on Equity (ROE) abgebildet. Mit dem Korrelationskoeffizienten nach Person ergab sich für den Beobachtungszeitraum 2018, 2019 und 2020 kein allgemeiner Zusammenhang. Beim Vergleich des Durchschnittswerts der drei Banken mit dem höchsten Nachhaltigkeitsscore, mit jenem der drei niedrigsten, hingegen schon (0,79). Zusätzlich war erkennbar, dass die Gruppe mit den höheren Scores auch die Ende 2019 beginnende Corona-Pandemie besser überstand. Während der ROE der Gruppe mit den niedrigsten Scores bis auf -0,74% fiel, blieb er bei der anderen Gruppe stabil bei 8%. Mittels t-Test konnte jedoch knapp keine statistische Signifikanz nachgewiesen werden (0,0627 > 0,05).
Der Beitrag untersucht die Unterstützungsbedarfe von Schüler_innen während der Schultransition in Österreich und fragt nach Möglichkeiten zum Aufbau von inklusiven Unterstützungsangeboten. Um diesbezüglich Erkenntnisse zu gewinnen, wurden zwei qualitative Datensätze analysiert: Einerseits ein Datensatz aus 2018, in welchem die Transition von der Volks- in die Sekundarschule und damit verbundene Herausforderungen mittels Interviews mit Schüler_innen und involvierten Erwachsenen untersucht wurden. Andererseits ein Datensatz aus 2020, in dem Praktiker_innen über Veränderungen der psychosozialen Unterstützungsangebote für Kinder und Familien während der Covid-19-Pandemie befragt wurden. Die Daten von 2018 zeigen, dass der Aufbau von positiven sozialen Beziehungen zu Gleichaltrigen eine wichtige Ressource für eine gelungene Schultransition darstellt, jedoch nicht immer gelingt, weshalb Unterstützungsbedarf benannt wird. Zugleich werden Zugangsbarrieren zu vorhandenen Unterstützungsangeboten deutlich, die in Zusammenhang mit drei soziodemografischen Charakteristika stehen: (1) Lebenssituation und geografischer Standort, (2) finanzielle Ressourcen und (3) Migrationshintergrund. Die Daten aus dem Jahr 2020 zeigen, dass es durch den Einsatz digitaler Angebote zu einer Überwindung von Zugangsbarrieren und hemmenden Strukturen kommen kann. Die Betrachtung beider Studienergebnisse lässt somit Implikationen für eine verbesserte, inklusive und innovative Versorgungsstruktur für Adressat_innen der Sozialen Arbeit zu.
Die tägliche Arbeit von Büroangestellten besteht oft aus Aufgaben, die sich in verschiedenen Zeitabständen wiederholen. Die Art unterscheidet sich abhängig vom Berufsfeld. Jedoch kostet deren Ausführung Zeit und den stört Arbeitsfluss. Könnten diese Aufgaben automatisiert werden, hätte dies den Vorteil, dass zeitliche Ressourcen freigesetzt würden und es dadurch zu einer Steigerung der Produktivität käme, da diese zusätzlichen Ressourcen anderweitig genutzt werden könnten. Daher ist es notwendig geeignete Aufgaben ausfindig zu machen und anhand der entsprechenden Technologien zu automatisieren.
Das Ziel der vorliegenden Arbeit ist es, die repetitiven Aufgaben in der definierten Zielgruppe zu eruieren und diese in weiterer Folge zu automatisieren. Dazu wird folgende Forschungs-frage gestellt: „Implementierung eines Chatbots anhand von der SAP zur Verfügung gestellter Technologien, um repetitive Aufgaben zu automatisieren.“
Die Umsetzung der Arbeit erfolgte im Rahmen der Tätigkeit bei einem SAP Beratungshaus. Dadurch beschränkt sich die Zielgruppe auf hausinterne SAP Berater*innen und SAP Tech-nologien. Ziel dieser Arbeit war es, einen Prototypen zu implementieren der es ermöglicht, dass die Berater*innen sich täglich wiederholende Aufgaben anhand eines Chatbots automa-tisiert ausführen können. Als Ergebnis dieses Greenfield Projektes sollte ein Proof-of-concept zur Verfügung gestellt werden, der die ausgewählten Anwendungsfälle abdeckt und eine Grundlage für die Erweiterung bildet. Die Hauptaufgabe liegt zum einen in der Erfassung der Anwendungsfälle und zum anderen im Aufbau von entsprechendem Know-How für die Um-setzung mit den ausgewählten Technologien.
Als Technologie, zur Interaktion mit dem Benutzer, wird für den Chatbot die SAP Conversati-onal AI verwendet. Zur Ausführung der Aufgaben erfolgt die Umsetzung anhand der SAP In-telligent Robot Process Automation im Zusammenspiel mit dem SAP GUI Scripting und an-wendungsfallspezifischen ABAP Programmen.
Die Evaluation der User Expirience erfolgt in Form des SUMI Fragebogens. Dieser untersucht die Dimensionen der Effizienz, Beinflussbarkeit, Hilfsbereitschaft, Kontrollierbarkeit und Er-lernbarkeit. Für die Durchführung der Untersuchung wurden den Anwender*innen Szenarien vorgelegt, welche alltägliche Situationen widerspiegeln. Basierend auf diesen Szenarien soll-ten die Aufgaben mit Hilfe des Chatbots gelöst werden. Das Ergebnis der Untersuchung zeigt, dass der Prototyp vor allem in den Bereichen der Effizienz und der Kontrollierbarkeit einiges an Verbesserungspotenzial offenbart hat. Jedoch wird der Nutzen der Anwendung von acht der zehn Testpersonen als wichtig bis sehr wichtig eingestuft.
Die Umsetzung legt die Möglichkeiten und das Potenzial der Technologien offen und stellt mit dem Prototypen eine solide Grundlage für zukünftige Entwicklungen zur Verfügung. Weiters werden durch die Evaluation die Schwächen und Stärken offengelegt und ein Konzept ver-wendet, welches auch für zukünftige Erweiterungen verwendet werden kann.
Aufgrund des fortschreitenden wirtschaftlichen und gesellschaftlichen Strukturwandels und der zunehmenden Digitalisierung, hat die Bedeutung immaterieller Vermögenswerte erheblich zugenommen. Dabei steht die Goodwill-Bilanzierung und insbesondere die Folgebehandlung des bei einem Unternehmenszusammenschluss erworbenen Goodwills im besonderen Fokus der Standardsetter und Bilanzadressaten. Der bei der Folgebilanzierung des Goodwills gegebene Ermessensspielraum führt zu der Sorge, dass diese Ermessensspielräume seitens der Manager opportunistisch genutzt werden könnten. Die vorliegende Arbeit untersucht, ob bei österreichischen Unternehmen die Goodwill-Bilanzierung als Instrument für Earnings Management dient. Unter Anwendung multipler Regressionsmodelle wird ein Datensample österreichischer Unternehmen im Zeitraum von 2015 bis 2019 auf die Einflüsse möglicher Earnings Management-Motive auf die vorgenommenen Goodwill-Impairments überprüft. Die Ergebnisse zeigen, dass Manager österreichischer Unternehmen Big Bath Accounting betreiben und damit schlechte Unternehmensjahre nutzen, um Goodwill-Impairments vorzunehmen. Die Ergebnisse zeigen zudem eine Tendenz, dass Big Bath Accounting insbesondere dann zur Anwendung kommt, wenn es einen Wechsel im Finanzvorstand gibt. Weiters zeigen die Ergebnisse den hohen Einfluss der Aktionärsstruktur auf die Impairmententscheidungen. Bei Unternehmen mit großen institutionellen Aktionären liegt eine zusätzliche Kontrollinstanz vor, die Earnings Management-Verhalten reduziert. Die vorliegende Arbeit unterstützt die aktuellen Diskussionen der internationalen Rechnungslegung über die Beibehaltung des Impairment-Tests und liefert Hinweise darauf, dass bei österreichischen Unternehmen Earnings Management-Motive bei der Goodwill-Bilanzierung eine Rolle spielen.
Der Begriff Digital Rights Management (DRM) umfasst Richtlinien, Techniken und digitale Werkzeuge, mit denen die Nutzung digitaler Inhalte eingeschränkt, gesteuert und kontrolliert werden kann. Im Wesentlichen werden dabei Technologien von Rechteinhaber:innen zur Zugangs- und Nutzungssteuerung sowie Verfolgung von Rechtsverstößen und gegebenenfalls sogar zur differenzierten Abrechnung digitaler Inhalte angewendet. Herkömmliche DRM-Systeme bestehen hauptsächlich aus Software und stützen sich auf softwarebasierte IT-Sicherheit. Um die IT-Sicherheit von DRM-Systeme auszuweiten, können Hardwarekomponenten eingesetzt werden. Die Kombination aus software- und hardwarebasierter IT-Sicherheit wird als Trusted Computing (TC) bezeichnet und ermöglicht Rechteinhaber:innen völlig neue Szenarien.
Um die Möglichkeiten von DRM mit TC zu erforschen bzw. diese zu demonstrieren, wurde im praktischen Teil dieser Arbeit eine technische und organisatorische Maßnahme prototypisch umgesetzt, mit der es einem Auftraggeber-System möglich ist, mit einer definierten Lizenz (bzw. DRM-Policy) sensible proprietäre Daten an ein Auftragnehmer-System zu senden, sodass dieses die sensiblen Daten nur auf eine Art und Weise verwenden kann, wie die Lizenz es vorgibt. Zur Umsetzung der Systeme wurde ein kryptografischer Coprozessor - genannt Trusted Platform Module (TPM) - verwendet. Das TPM verfügt über weitreichende kryptografische Funktionalitäten und bietet eine hardwarebasierte IT-Sicherheit. Das Gesamtsystem wurde somit als zweiteiliges System, ein Auftraggeber-System und ein Auftragnehmer-System, umgesetzt.
Im theoretischen Teil der Arbeit wird zuerst auf DRM und anschließend auf TC eingegangen. Besonders einige wichtige Funktionalitäten des TPM, welche in das System integriert wurden, werden erläutert. Des Weiteren wird auch das abhörsichere Kommunikationsprotokoll Hypertext Transfer Protocol Secure (HTTPS) vorgestellt und erklärt. HTTPS wird verwendet für den geschützten Datenaustausch zwischen den beiden Teilsystemen. Wie das Gesamtsystem inklusive der beiden Teilsystemen umgesetzt wurde, sowie welche Features es bietet und wie es funktioniert wird auch in einem Kapitel präsentiert und erläutert. Abschließend werden die positiven und negativen Aspekte des Systems sowie eine auf eigener Meinung beruhende Schlussfolgerung präsentiert.
Ein neuer Ansatz um Kohlendioxid aus einem Verbrennungsprozess abzuscheiden, auch Carbon Capture (CC) genannt, basiert auf der Gashydratsynthese. Dabei wird das Gas in Einschlussverbindungen aus Wassermolekülen, sogenannte Clathrate, eingefangen. Bei der Gashydratsynthese aus flüssigem Wasser, wie es bei bisherigen Methoden der Fall ist, treten selbsthemmende Effekte auf, die den Abscheideprozess verlangsamen.
In dieser Arbeit wird daher eine neue Methode entwickelt, um die Gashydratsynthese aus dampfförmigem Wasser zu untersuchen. Realisiert wird dies mit einem eigens entwickelten Versuchsreaktor, wobei ein Fallfilmverdampfer im Zentrum kontinuierlich Wasser verdampft. Der Abscheideversuch wird bei 20 - 40 bar und einem CO2-N2-Prüfgasgemisch betrieben. Das Herunterkühlen des Reaktors, mit einer Vorlauftemperatur von bis zu -65 °C, sorgt für stabile Wachstumsbedingungen an der Innenwand. Die Versuchsdurchführung zeigt, dass bei einer Ausgangskonzentration von 11,8 mol% CO2 am Ende des Abscheideprozesses im Minimum 10,7 mol% erreicht werden. Der im Gashydrat angereicherte CO2-Gehalt im liegt bei ca. 89 mol%.
Damit ist die Funktionsfähigkeit der neuartigen CC-Methode bewiesen und die Grundlage für die Weiterentwicklung des Prozesses geschaffen.
Krypto-Assets im Treasury
(2022)