Refine
Year of publication
- 2021 (169) (remove)
Document Type
- Master's Thesis (93)
- Article (32)
- Conference Proceeding (27)
- Book (6)
- Report (4)
- Part of a Book (3)
- Other (3)
- Part of Periodical (1)
Institute
- Forschungszentrum Mikrotechnik (19)
- Soziales & Gesundheit (17)
- Forschungszentrum Human Centred Technologies (12)
- Wirtschaft (12)
- Forschungsgruppe Empirische Sozialwissenschaften (11)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (9)
- Forschungszentrum Business Informatics (9)
- Technik | Engineering & Technology (9)
- Forschungszentrum Digital Factory Vorarlberg (3)
- Forschungszentrum Energie (2)
Language
- German (100)
- English (66)
- Multiple languages (3)
Keywords
- Entscheidung (5)
- Digitalisierung (4)
- MMI splitters (4)
- Soziale Arbeit (4)
- Y-branch splitter (4)
- Machine learning (3)
- Pandemie (3)
- Arrayed waveguide gratings (2)
- Assistenztechnologien (2)
- Cloud manufacturing (2)
Unternehmen der Logistikbranche sehen sich zunehmend mit geschäftsgefährdenden Herausforderungen konfrontiert. Veränderte gesellschaftliche Ansprüche, neue Technologien und Konkurrenz, sowie diverse Makrorisiken setzen die Branche unter Druck. Um frühzeitig adäquate Lösungsansätze auf zukünftige Entwicklungen finden zu können, bedarf es einer langfristig ausgerichteten unternehmerischen Sichtweise. Diese Weitsicht ist bei einer Mehrzahl von Logistikunternehmen jedoch bisher nicht vorhanden. Daher beschäftigt sich die Masterarbeit mit der Beantwortung folgender Fragestellung: „Welche Methoden der strategischen Langfristprognostik sind in der Logistik und dem Supply-Chain-Management besonders geeignet und ist die Corporate Foresight eine praktikable Option?“ Für die Beantwortung der Fragestellung wird ein theoretisch-konzeptioneller Ansatz verfolgt. Der Schwerpunkt der Arbeit liegt in der Analyse der Logistikbranche, sowie in der Aufarbeitung bestehender Literatur hinsichtlich existierenden Prognosemethoden, Gründe deren Scheiterns in der betrieblichen Praxis und dem Corporate Foresight. Die daraus erlangten Erkenntnisse werden auf die Logistikbranche transferiert, um Logistikunternehmen mögliche Ansatzpunkte und Denkanstöße für die Einführung bzw. Einnahme einer strategischen Weitsicht zu liefern.
Unternehmen stehen aufgrund der digitalen Transformation vermehrt vor der Entscheidung, in Dateninitiativen zu investieren. In diesen Entscheidungssituationen werden verhaltensökonomische Faktoren kaum berücksichtigt. Zwar wird der Mensch in der Theorie als rationaler Entscheider dargestellt, doch zeigen die Erkenntnisse aus der Verhaltensökonomie, wie anfällig menschliche Entscheidungen für kognitive Verzerrungen sind. Ziel dieser Masterarbeit ist es zu beantworten, wie die Erkenntnisse aus der Verhaltensökonomie dazu beitragen können, die strategische Managemententscheidung in Bezug auf die Einführung einer Datenanalytik beherrschbarer zu machen. Hierfür wurde ein theoretisch-konzeptionelles Vorgehen gewählt. Die Ergebnisse zeigen, dass bei der Entscheidungssituation zur Einführung einer Datenanalytik die Komplexität, die Unsicherheit, der Zeitdruck und die kognitive Anstrengung sowie der soziale Einfluss große Herausforderungen für das Management darstellen. Durch die Verknüpfung dieser Faktoren mit den Erkenntnissen aus der Verhaltensökonomie wurden sieben relevante kognitive Verzerrungen identifiziert. Diese Masterarbeit zeigt, dass der Overconfidence Bias, die Planning Fallacy, der Sunk Cost Bias, das Escalation of Commitment, die Decision Fatigue, der Status Quo Bias und der Authority Bias kognitive Verzerrungen sind, welche bei der strategischen Managemententscheidung zur Einführung einer Datenanalytik häufig auftreten können. Weiters wurden für jede kognitive Verzerrung Gegenmaßnahmen ausgearbeitet. Die Ergebnisse dieser Arbeit zeigen auf, welche kognitiven Verzerrungen bei der Entscheidung zur Einführung einer Datenanalytik auftreten können und was das Management dagegen tun kann.
Im Zusammenhang mit Industrie 4.0 wurde der Digital Twin in den letzten Jahren zu einem der Schlagwörter für die Forscher und Forscherinnen wie auch für einige Unternehmen. Wie oft vermutet, ist der Digital Twin aber nicht nur eine digitale Abbildung eines realen Objektes. Im Zusammenhang mit Digital Twins ist auch die Rede von der Sicherstellung der Datenintegration über den kompletten Produkt- sowie Anlagenlebenszyklus oder der Simulation verschiedenster Szenarien. Die Zielsetzung des Digital Twin Konzepts ist die bessere Prognose des Verhaltens von Produkten und Fertigungsanlagen und die damit verbundene Senkung von Qualitätsproblemen und -kosten. Dies birgt potenziell auch Konsequenzen für das Qualitätsmanagement in den produzierenden Unternehmen. Der Digital Twin als neuer Trend trifft somit auf eine etablierte Domäne, denn Qualitätsmanagement ist seit Jahrzehnten ein fester Bestandteil in der Praxis. Nebst der gesonderten Betrachtung beider Themengebiete gilt es die Potenziale und die Herausforderungen für die Implementierung und Anwendung der Digital Twins im Qualitätsmanagement anhand der Literaturrecherche und -synthese zu ermitteln. Die Potenziale und Herausforderungen sind an den Beispielen der echtzeitnahen Qualitätsregelkreise und der auf Prognosen gestützten und verkürzten Produkt- und Prozessplanung aufzuzeigen.
Unternehmen müssen ihre Prozesse stetig weiterentwickeln und verbessern, damit sie trotz des stärkeren Wettbewerbsdrucks am globalen Markt bestehen können. Process Mining verknüpft hochinnovative Technologie mit der Evaluation und Entwicklung von Geschäftsprozessen. Process Mining ist ein Verfahren, das dazu dient, bestehende Geschäftsprozesse aus gesammelten Daten von Informationssystemen zu identifizieren, mit bestehenden Soll-Prozessen zu vergleichen und die Geschäftsprozesse anhand der gewonnenen Erkenntnis zu verbessern. Dadurch werden Prozesse optimiert und die Wettbewerbsfähigkeit von Unternehmen wird nachhaltig gesteigert. Dennoch zeigen Erfahrungsberichte und Untersuchungen aus der Marktforschung, dass viele Process Mining Projekte scheitern, weil gewisse Faktoren der Unternehmenskultur nicht berücksichtigt werden. Es besteht eine Wissenslücke, inwiefern die Faktoren den zielführenden Einsatz von Process Mining beeinflussen. Deshalb war es das Ziel dieser Masterarbeit, herauszufinden, welche Faktoren der Unternehmenskultur den zielführenden Einsatz von Process Mining beeinflussen. Hierfür wurden in einer Literaturrecherche N= 1,491 Titel und N= 97 Abstrakte gescannt, bis N=28 wissenschaftliche Artikel und Erfahrungsberichte übrig waren, die von Relevanz und wissenschaftlichen Wert für diese Arbeit waren. Um diese N=28 wissenschaftlichen Artikel und Erfahrungsberichte zu analysieren, wurde eine Kombination aus der Vorgehensweise der Hermeneutik nach Gadamer sowie einer induktiven qualitativen Analyse nach Mayring angewendet. Die Ergebnisse aus der qualitativen Analyse aus dieser Masterarbeit haben gezeigt, dass neben der technologischen Infrastruktur die Faktoren der Unternehmenskultur wie Potenziale der Mitarbeitenden, Vision und Mission, Kommunikation mit den Mitarbeitenden, Partizipation der Mitarbeitenden und Kundenorientierung eine zentrale Rolle für den zielführenden Einsatz von Process Mining spielen. Zusammenfassend wird in dieser Masterarbeit gezeigt, dass es vor dem Beginn eines Projektes wesentlich ist, das Process Mining in die Unternehmensstrategie zu integrieren und gleichzeitig Vertrauen aufzubauen. Die Kompetenzen der Mitarbeitenden und deren Kooperation haben während der Umsetzung nicht nur einen Einfluss auf das Process Mining, sondern werden dadurch auch gestärkt. Zukünftige qualitative Studien könnten dazu beitragen, weitere Faktoren zu identifizieren, die aus Sicht der Mitarbeitenden, des Managements, der Kunden und anderer Stakeholder den zielführenden Einsatz von Process Mining in Unternehmen behindern oder ermöglichen. Außerdem könnte ein Fragebogen entwickelt und validiert werden, um die Bereitschaft von Unternehmen für ein Process Mining Projekt zu evaluieren.
Der technologische Wandel, der in den letzten Jahren stattgefunden hat, führte zu einer neuen industriellen Revolution. Die vierte industrielle Revolution baut auf cyber-physischen Systemen auf, die mechanische Komponenten durch die Internetkommunikation miteinander vernetzt und dadurch die Steuerung von komplexen Systemen, wie Fertigungsanlagen, ermöglicht. Dies hat zu einem Fortschritt in der Industrie geführt und den Möglichkeiten in der Produktion.
Dem gegenüber steht der altbewährte Lean Production Ansatz, der bereits seit 1970 in den produzierenden Unternehmen dieser Welt, ein fester Bestandteil ist. Darin enthalten sind Methoden, die zum Beispiel zur Verschwendungsminimierung, Prozessverschlankung sowie Produktionssteuerung beitragen.
Obwohl die beiden Produktionsphilosophien auf den ersten Blick nicht in Korrelation zueinanderstehen, sind sie in der realen Produktionswelt kaum voneinander trennbar. Sie queren sich nicht nur in ihren Prinzipien und Leitgedanken, sondern auch in den Methoden selbst. Dabei können sie in vielen Punkten als ergänzend angesehen werden und teilweise auch als aufeinander aufbauend.
Der Hauptteil der vorliegenden Arbeit beschäftigt sich damit, inwiefern Industrie 4.0 einen Einfluss auf die altbewährten Lean Methoden hat und wie diese zwei Themen im Verhältnis zueinanderstehen. Dabei werden die Grundprinzipien, die hinter diesen beiden Begriffen stehen erläutert und zueinander in Relation gestellt. Ebenfalls findet ein direkter Methodenvergleich statt, bei dem ausgewählte Lean Methoden mit Industrie 4.0 verglichen werden. In den Kapiteln werden nicht nur die Gemeinsamkeiten behandelt, sondern natürlich auch die Gegensätze, die diese zwei Prinzipien innehaben. Im anschließenden Kapitel wird weiters definiert, ob Lean Management die Voraussetzung für Investitionen in Industrie 4.0 darstellt, oder ob Industrie 4.0 diverse Lean Methoden sogar obsolet macht.
Den Abschluss der Arbeit bildet eine Analyse des neuen Begriffes Lean 4.0, der bereits in diversen Publikationen vorgestellt wurde. Ebenfalls werden noch drei Modelle vorgestellt, die einen Leitfaden für die Einführung von Industrie 4.0 darstellen und eine eindeutige Stellungnahme dazu nehmen, ob Lean die Voraussetzung für eine erfolgreiche Einführung von Industrie 4.0 im Unternehmen ist.
Risikomanagement im Wandel
(2021)
Das unternehmerische Risikomanagement hat sich in der Vergangenheit und aktuell insbesondere durch die Coronapandemie stetig weiterentwickelt. In der DACH-Region bestehen neben den jeweiligen lokalen Gesellschaftsrechtsgesetzgebungen, welche sich in Umfang und Inhalt unterscheiden, auch internationale Standards, welche zusammen die Rahmenbedingungen für das Risikomanagement bilden. Teilweise wurden diese Gesetzlichen und sonstigen Anforderungen durch bestimmte Ereignisse eingeführt bzw. überarbeitet. Dies spiegelt sich auch im Umsetzungsstands des unternehmerischen Risikomanagements und dessen System in Organisationen wider. Insbesondere auf den Bilanzskandal des Enron-Konzerns 2002 sowie die Finanzkrise 2008 können Änderungen in der Gesetzgebung zum Risikomanagement zurückgeführt werden, welche von den Unternehmen ebenfalls umgesetzt werden. Aktuell werden die gesetzlichen Anforderungen von allen Unternehmen umgesetzt. In der jüngeren Vergangenheit zeigt sich ein positiver Trend von einem compliance-orientierten zu einem performance-orientierten Risikomanagement. Dies bedeutet, dass immer mehr Unternehmen Risikomanagement auch über die gesetzlichen Anforderungen hinaus betreiben und dies so aktiv zur Unternehmenssteuerung beiträgt.
Interne Kontrollsysteme helfen Unternehmen bei der Steuerung und Überwachung risikobehafteter Prozesse und sind für Unternehmen bestimmter Größe und Rechtsform sogar verpflichtend. Der Gedanke eines spezifischen internen Kontrollsystems für Steuern ist dagegen recht neu. Da der Staat ein starkes Interesse an der korrekten und möglichst umfassenden Unternehmensbesteuerung hat, wurde das Prinzip des Horizontal Monitorings aufgegriffen und zur Begleitenden Kontrolle weiterentwickelt. Diese tritt anstelle der sonst üblichen Außenprüfung durch das zuständige Finanzamt. Zielgruppe für die begleitende Kontrolle sind besonders große, in Österreich ansässige Unternehmen und Unternehmensgruppen. Ein wesentliches Kriterium, um die begleitende Kontrolle beantragen zu können, ist das Vorhandensein eines funktionstüchtigen steuerlichen internen Kontrollsystems. Die Arbeit beschäftigt sich mit der Gestaltung und Funktionsweise eines steuerlichen internen Kontrollsystems, wie es für die begleitende Kontrolle erforderlich ist. Es thematisiert die für ein Unternehmen damit verbundenen Vor- und Nachteile, sowohl für das steuerliche interne Kontrollsystem selbst als auch die begleitende Kontrolle und vorhandenes Entwicklungspotenzial.
Das Ziel der vorliegenden Masterarbeit ist der Nachweis einer signifikanten Korrelation zwischen der ausgewiesenen Position des derivativen Firmenwertes und der Marktkapitalisierung kurz nach Veröffentlichung der Finanzberichte von börsennotierten Unternehmen in der Dachregion. Darauf basierend ist das zweite Ziel die Hervorhebung von Problemen und Risiken für Investoren, die basierend auf den momentan geltenden IFRS-Richtlinien durch den derivativen Firmenwert entstehen. Außerdem veranschaulicht die Masterarbeit für Investoren relevante Informationen und Indikatoren zur Risikoabschätzung von derivativen Firmenwert Positionen. Die Masterarbeit basiert auf einem Datensatz von 1631 IFRS-basierten Jahresabschlüssen innerhalb der Jahre 2016 bis 2021, erhalten durch die reputable Osiris-Datenbank. Des Weiteren wurde facheinschlägige Literatur zur Identifikation von Problemen und Risiken basierend auf den momentan gültigen IFRS-Richtlinien analysiert. Die Studie zeigte einen hoch signifikanten Zusammenhang zwischen der Position des derivativen Firmenwertes und der Marktkapitalisierung drei Monate nach dem Jahresabschluss. Des Weiteren hat die Literaturrecherche gezeigt, dass erhebliche Risiken basierend auf der Intransparenz, Möglichkeiten zur Gewinnmanipulation und der Überbewertung des derivativen Firmenwertes sowie des übernommenen Vermögens im Rahmen von Unternehmenszusammenschlüssen existieren. Basierend auf dem limitierten Zeitfenster und der regionalen Einschränkung der Studie, kann diese nur beschränkt Einsichten für Märkte außerhalb der „DACH“-Region bieten. Zusätzlich sind die Schlussfolgerungen durch die Anwendbarkeit eines multiplen linearen Regressionsmodells auf das Problem limitiert. Diese Masterarbeit leistet durch die Bereitstellung tiefergehender Einsichten in die Ausmaße und Einflüsse des derivativen Firmenwertes, innerhalb von IFRS-basierten Finanzberichten börsennotierter Unternehmen, einen Beitrag zur existierenden Literatur. Des Weiteren untersucht und konsolidiert sie fachspezifische Literatur hinsichtlich Risiken und Probleme des derivativen Firmenwertes, entstehend aus den Ansatz-, Bewertungs- und Informationsoffenlegungsrichtlinien in den IFRS.
Digital Controlling
(2021)
Die Digitalisierung verändert das klassische Controlling radikal. Das Controlling ist jedoch noch nicht genügend auf den Wandel vorbereitet, da es den Mitarbeitenden an Wissen, Akzeptanz und Kompetenzen fehlt. Durch die Entwicklung von Handlungsempfehlungen können einerseits die Defizite der Mitarbeitenden reduziert und andererseits die Möglichkeiten der digitalen Transformation bestmöglich genutzt werden.
Ziel der Arbeit ist es, konkrete Handlungsempfehlungen für drei regionale Unternehmen zur Optimierung der digitalen Reife im Controlling auszuarbeiten und den Entwicklungsprozess kritisch zu reflektieren. Dazu werden folgende Forschungsfragen gestellt: „Mit welchen konkreten Handlungsempfehlungen kann die digitale Reife im Controlling von drei Beispielunternehmen vorangetrieben werden?“ und „Welche Herausforderungen ergeben sich aus der kritischen Prozessreflexion im Entwicklungsprozess?“.
Um die erste Forschungsfrage beantworten zu können, wird die digitale Reife der Unternehmen mithilfe des DigiCon Reifegradmodells ermittelt. Dies erfolgt im Rahmen von Experteninterviews. Basierend auf dem Ist-Reifegrad werden ein Soll-Profil erstellt und Handlungsempfehlungen abgeleitet. Für Unternehmen A wird die Implementierung von Robotic Process Automation empfohlen. Unternehmen B sollte sich mit Data Governance und Business Analytics auseinandersetzen. Der Einsatz von Business Analytics wird auch Unternehmen C empfohlen, jedoch mit dem Schwerpunkt Predictive Analytics. Zudem sollten in allen drei Unternehmen die Kompetenzen an die digitalen Anforderungen angepasst werden.
Für die Beantwortung der zweiten Forschungsfrage wird der Entwicklungsprozess kritisch reflektiert. Dabei werden die Auswahl des Reifegradmodells, dessen Vollständigkeit und Anwendung für die Ermittlung des Ist- und des Soll-Profils sowie der Entwicklung der Handlungsempfehlungen analysiert. Die Herausforderungen, die dadurch entstehen, können in weiteren Forschungsdesideraten behandelt werden.
Durch die steigende Internationalisierung der Wirtschaft steigt auch die Notwendigkeit einer einheitlichen Berichterstattung, die über die Landesgrenzen hinweg verständlich ist. Die IFRS sind die weltweit am häufigsten angewendeten Rechnungslegungsvorschriften und innerhalb der EU verpflichtend von kapitalmarktorientierten Konzernen anzuwenden. Da ein Abschluss nach IFRS einen hohen Zusatzaufwand zur Folge hat, gibt es nur wenige Unternehmen, die diesen auf freiwilliger Basis erstellen. Von den nicht verpflichteten Konzernen in Deutschland bilanziert dennoch ein kleiner Teil von etwa 5% nach IFRS. Es ist daraus zu schließen, dass es Umstände gibt, in denen eine Rechnungslegung nach IFRS Vorteile mit sich bringt, die den zusätzlichen Aufwand übersteigen und eine Anwendung rechtfertigen. Um herauszufinden, um welche Vorteile es sich handeln kann, werden zuerst die Regelungen und Grundsätze der IFRS mit dem nationalen UGB verglichen. Anschließend werden die Vor- und Nachteile mittels bestehender Literatur und in Bezug auf mittelständische Unternehmen ausgearbeitet. Anhand der Auswertung von acht empirisch durchgeführten Experteninterviews wird die ausgearbeitete Literatur schließlich überprüft, wobei auch neu gewonnene Erkenntnisse dargelegt werden.
Für die Messung der Zielerreichung werden eine Vielzahl an unterschiedlichen Beschaffungskennzahlen verwendet. Die unterschiedlichen Messmethoden sowie die dazugehörigen Instrumente passen sich dabei an die jeweilige Beschaffungspolitik an. Jedoch unterliegt die Beschaffungspolitik einem stetigen Wandel. Mit steigendem Reifegrad der Beschaffungspolitik ändert sich auch der Fokus von Messmethoden und Instrumenten. Stehen im ersten Reifegrad der Beschaffungspolitik noch die Kosten von einzelnen Beschaffungsobjekten im Mittelpunkt der Betrachtung, erweitert sich der Fokus beim zweiten Reifegrad bereits auf die Gesamtkosten. Die nächste Evolutionsstufe bildet der dritte Reifegrad, also die wertorientierte Beschaffungspolitik. Dabei werden nicht mehr nur die Kosten betrachtet, sondern auch der Nutzen, der dabei entsteht. Die Differenz zwischen Kosten und Nutzen ist vereinfacht ausgedrückt der Wertbeitrag, der durch die Beschaffung generiert wird. Um diesen Wertbeitrag zu messen, gibt es sowohl in der Literatur als auch in der Praxis zahlreiche Einzelkennzahlen, aber keine Spitzenkennzahl, die auch einen Vergleich mit den Mitbewerbern zulässt. Der Procurement-Value-Added (PVA) bietet dabei einen Lösungsansatz und versucht durch öffentlich zugängliche Daten einerseits den wertorientierten Beschaffungserfolg objektiv darzustellen und andererseits ein einfaches Benchmarking zu ermöglichen. In dieser Arbeit wird der PVA-Ansatz systematisch analysiert und mit anderen wertorientierten Beschaffungskennzahlen verglichen. Dadurch soll festgestellt werden, ob der PVA-Ansatz das Potenzial hat in der Praxis angewendet werden zu können.
Robotic Process Automation (RPA) ist eine relativ neue Technologie, die die Automatisierung von regelbasierten Aufgaben ermöglicht. Obwohl bestehende Literatur darauf hinweist, dass zusätzlich zur RPA-Implementierung eine Prozessoptimierung vorzunehmen ist, wurde bislang nicht beschrieben, wie dieses Vorgehen aussehen kann. Deshalb zeigt die vorliegende Arbeit, wie bei der Automatisierung von Abläufen die damit verbundene Optimierung durchzuführen ist und wie im Fall des Order-to-Cash-Prozesses von Industrieunternehmen automatisierbare Prozesse ausgewählt werden können. Zudem wird beleuchtet, wie bereits bestehende IT-Systeme für die Prozessautomatisierung eingesetzt werden können. Dazu werden mithilfe einer Literaturrecherche neue Erkenntnisse gewonnen, die zeigen, zu welchem Zeitpunkt eine Prozessoptimierung in Verbindung mit einer Automatisierung durchzuführen ist. Zudem wird die Verwendung der RPA-Technologie kritisch beleuchtet und festgestellt, dass unabhängig von der Art der Automatisierung eine Prozessoptimierung vorzunehmen ist. Die Arbeit liefert somit einen wertvollen Beitrag zum aktuellen Stand der Wissenschaft und gibt Hinweise für die Anwendung in der Praxis.
Ethikorientiert entscheiden
(2021)
Die Bedeutung von Nachhaltigkeit steigt stetig und Investoren berücksichtigen immer häufiger ESG-Risiken in deren Investments. Dabei stellt sich die Frage, wie ESG-Kriterien auch in KMU implementiert werden können und welche Auswirkungen wiederum auf deren Finanzierung zu erwarten sind. Es wurde im Zuge der Arbeit sowohl eine quantitative (Umfrage) als auch eine qualitative (Experteninterviews) Untersuchung durchgeführt.
Die Berücksichtigung von ESG-Risiken ist ein langfristiger Prozess. Dabei spielen die Schaffung eines Bewusstseins, Generierung von Know-how sowie Bereitstellung einer validen Datengrundlage für die Identifizierung und Bewertung der Risiken eine entscheidende Rolle. Es können für KMU sowohl unmittelbare als auch mittelbare Auswirkungen auf deren Finanzierung erwartet werden. Unmittelbare Auswirkungen sind in KMU bisher selten zu finden, äußern sich aber teilweise durch geringere Finanzierungskosten, die signifikant abhängig von der Ausprägung des Risikomanagements sind. Als mittelbare Effekte konnten Auswirkungen auf die Reputation und finanzielle Performance identifiziert werden, die sich in der Ausfallwahrscheinlichkeit von Unternehmen und damit der Kreditgewährung und Konditionsgestaltung niederschlagen können.
Die Bedeutung des Goodwills in den Bilanzen der kapitalmarktorientierten Unternehmen hat in den letzten Jahren aufgrund der überteuerten Unternehmensübernahmen deutlich zugenommen. Aufgrund der zahlreichen Ermessenspielräume und den vergleichsweise geringen Abschreibungen wird der Impairment Only Approach häufig kritisiert. Das IASB hat eine Rückkehr zur planmäßigen Abschreibung offen zur Diskussion gestellt. Aus diesem Grund ist es notwendig zu verstehen, welche Auswirkungen die Wiedereinführung der planmäßigen Abschreibung auf die Unternehmen hat.
Das Ziel der vorliegenden Arbeit ist die Beantwortung folgender Forschungsfrage: Welchen Einfluss hat die mögliche Wiedereinführung einer planmäßigen Goodwill-Abschreibung auf die Erfolgsgrößen von Unternehmen der DACH-Regionen? Um die Forschungsfrage zu beantworten, wurde eine empirisch-theoretische Analyse durchgeführt. Hierzu wurde zunächst die Goodwill-Bilanzierungspraxis von 48 im DAX, ATX und SMI gelisteten Unternehmen im Zeitraum von 2015 bis 2019 analysiert und anschließend eine lineare Goodwill-Abschreibung für diesen Untersuchungszeitraum simuliert.
Die Ergebnisse der Studie zeigen, dass vor allem die im DAX gelisteten Unternehmen vom Impairment Only Approach profitiert haben. Die Wiedereinführung der planmäßigen Goodwill-Abschreibung würde die Vermögens- und Ertragslage der untersuchten Unternehmen deutlich verschlechtern. Insbesondere für ertragsschwache Unternehmen kann die Abkehr des Impairment Only Approachs kritische Folgen für die wirtschaftliche Lage haben.
Zum Abschluss werden alternative Abschreibungsmethoden und Ansätze diskutiert sowie Implikationen für die Diskussion des IASB abgeleitet.
Neben klassischen Kennzahlen, welche nach einem anerkannten Rechnungslegungsstandard (z.B. IFRS) berechnet werden, sind häufig auch sogenannte alternative Leistungskennzahlen in Geschäftsberichten oder Investor-Relations Unterlagen mit ausgewiesen. Diese erfreuen sich zunehmender Beliebtheit bei börsennotierten Unternehmen, da unternehmensspezifische Anpassungen vorgenommen werden können. Folglich wird eine unternehmensübergreifende Vergleichbarkeit erschwert, wodurch zunehmend Regulierungen durch entsprechende Institutionen erfolgen. In dieser Arbeit kann aufgezeigt werden, dass die gewünschte Transparenz länderübergreifend sehr stark abweicht und diese Regelungen noch nicht vollumfänglich durch die Unternehmen umgesetzt wurden.
Neben der tatsächlichen Verwendung von alternativen Leistungskennzahlen ist es von Interesse ob diese Kennzahlen zusätzlichen Erklärungsgehalt für den Unternehmenswert beinhalten. Dabei kann innerhalb der Arbeit aufgezeigt werden, dass das EBITDA, der Free Cash-Flow oder die Nettoverschuldung einen Mehrwert in der Analyse bieten können. Je nach länder-, regionalen-, branchen- oder währungsspezifischen Charakteristika haben unterschiedliche Kennzahlen einen signifikanten Einfluss auf den Unternehmenswert und können somit einen Mehrwert in der Analyse bieten.
Der IAS 39 steht nach der Finanzkrise 2008 / 2009 in der Kritik: Wertberichtigungen seien „too little, and too late“ gebildet worden. Die Einführung des IFRS 9 soll die frühzeitige Bildung von Wertberichtigungen ermöglichen und Prozyklizität und Komplexität verringern. Die Bankenaufsicht begrüßt die Einführung des IFRS 9, ist sich aber einig mit der Wissenschaft: Die frühzeitige Erkennung von makroökonomischen Umschwüngen ist schwierig. Am Beginn der Covid-19 Pandemie fordern IASB und die Aufsichtsbehörden die Banken auf, Ermessensspielräume zu nützen, um übermäßige Prozyklizität zu vermeiden. Die Arbeit stellt zu Beginn den theoretischen Rahmen dar. Darauf aufbauend wird anhand von Abschlüssen von österreichischen Banken untersucht, ob die Erwartungen an den IFRS 9 in der Covid-19 Pandemie erfüllt worden sind. Eine wichtige Datenquelle ist das Transparency Exercise der EBA. Die Untersuchung lässt auf keine frühzeitige Erkennung der Krise schließen. Die überwiegend vergleichbaren Modelle und die Auswertung der Kennzahlen bestätigen die Gefahr von Prozyklizität. Die Offenlegungen sind in Teilen wenig transparent, außerdem schwankt ihre Qualität stark.
In this paper, we propose and simulate a new type of three-dimensional (3D) optical splitter based on multimode interference (MMI) for the wavelength of 1550 nm. The splitter was proposed on the square basis with the width of 20 x 20 µm2 using the IP-Dip polymer as a standard material for 3D laser lithography. We present the optical field distribution in the proposed MMI splitter and its integration possibility on optical fiber. The design is aimed to the possible fabrication process using the 3D laser lithography for forthcoming experiments.
In this paper, low-loss Y-branch splitters up to 128 splitting ratio are designed, simulated, and optimized by using 2D beam propagation method in OptiBPM tool by Optiwave. For an optical waveguide, a silica-on-silicon material platform is used. The splitters were designed as a planar structure for a telecommunication operating wavelength of 1.55 m. According to the minimum insertion loss and minimum non-uniformity, the optimum length for each Y-branch is determined. The influence of the pre-defined S-Bend waveguide shapes (Arc, Cosine, Sine) and of the waveguide core size reduction on the splitter performance has been also studied. The obtained simulation results of all designed splitters with different S-Bend shape waveguides together with the different waveguide core sizes are discussed and compared with each other.
Mit Eintritt in den ersten Covid-19-Lockdown im März 2020 und den darauffolgenden Semestern im überwiegenden Distance-Betrieb, wurde ein nie dagewesenes didaktisches Experiment gestartet. Eine seit 2017 abgehaltenen Lehrveranstaltung im Bachelorstudiengang Internationale Betriebswirtschaft an der Fachhochschule Vorarlberg simulierte bereits in "Vor-Pandemie-Semestern" das Arbeiten und Interagieren in virtuellen Teams. Die hieraus vorliegenden Reflexionsberichte ergeben zusammen mit den Hausarbeiten, welche die Studierenden der Lehrveranstaltung in 2020 im Lichte eines kompletten Online Semesters in virtuellen Teams erstellt haben die Basis für sieben Thesen zur Auswirkung einer digitalen und virtuellen Zusammenarbeit für Ausbildung und Berufstätigkeit.
Brainstorming ist ein Mythos
(2021)
Die Einsatzmöglichkeiten des interaktiven Films sind vielfältig. Von Unterhaltung, über Werbung bis hin zum E-Learning Bereich findet das noch junge Format Anwendung. Der Begriff interaktiver Film beschreibt gamifizierte Filme mit welchen Nutzer*Innen interagieren können. Dies bezieht sich auf Interaktionsmöglichkeiten innerhalb der Geschichte sowie auf Interaktionen mit dem Bildmaterial, durch welche dieses gegebenenfalls manipuliert werden kann. Die Filmsequenzen können dabei aus Realbild oder auch aus animiertem Bildmaterial bestehen. Es wird ein Überblick über die Teilbereiche des interaktiven Films vermittelt, sowie ein Einblick gegeben, wie ein solcher konzeptionell produziert wird. Zu diesen Teilbereichen gehören unter anderem Storytelling Varianten, Branching Systeme, Gamification Elemente und Interaktionsmöglichkeiten.
Die Forschungsfrage lautet: In welchen Bereichen ist interaktiver Film relevant und in welchen Feldern kann in Zukunft ein Nutzen durch diesen generiert werden? Um dies zu beantworten, werden mittels selbst Ethnographie, interaktive Filmbeispiele analysiert und subjektiv bewertet. Es wird ein Überblick über das Medienangebot und die Verbreitung der technischen Geräte gegeben, welche notwendig sind, um einen interaktiven Film zu rezipieren. Des Weiteren wird ein Ausblick auf weitere Anwendungsfelder gegeben.
Im praktischen Teil der Arbeit wird ein neuer Anwendungsfall für den interaktiven Film erarbeitet. Die Umsetzung erfolgt dabei konzeptionell und wird im Anschluss mittels Evaluationsbögen von den potenziellen Auftraggeber*Innen evaluiert und somit bewertet. Konkret erfolgt die Umsetzung an dem Beispiel des InterMedia Bachelor Aufnahmeverfahrens. Dabei wird der interaktive Film als Assessment Tool eingesetzt, welcher als Unterstützung für die Auswahl der Bewerber*innen dienen soll und die Basis des persönlichen Vorstellungsgesprächs verbessern soll.
Smartphones und Bindung
(2021)
Rückblicke zur 5. ogsaTAGUNG
(2021)
Sozialarbeiter*innen aus Österreich gewähren entlang den Dimensionen Wissen, Kompetenzen und Reflexion einen fundierten Einblick in die Komplexität professioneller Fallarbeit in diversen Handlungsfeldern der Praxis. Der Fokus der Beiträge richtet sich insbesondere auf die Thematisierung von Verhalten und Verhältnissen, methodischer Gestaltung von Beratungs- und Betreuungsprozessen, persönlichen Herausforderungen sowie der subjektive Haltung der einzelnen Autor*innen. Im Kontext struktureller und sozialpolitischer Rahmenbedingungen zeigt sich das Spannungsfeld von professioneller Sozialer Arbeit.
Continuous monitoring of interactive exhibits in museums as part of a persuasive design approach
(2021)
Ausscheidungsmanagement
(2021)
Purpose: The purpose of this qualitative phenomenological study is to explore the of self-initiated expatriates prior to and during acculturation to life in a smaller periphery region such as Vorarlberg, Austria. By providing insights into their lived experience this research aims to fill in the gaps of missing information on motivators, success factors to adjustment, issues, and stressors, and more that SIEs experience when adjusting. Specifically, what items promote adjustment and what items hinder adjustment.
Findings: Developed a better understanding of how and what motivational factors lead to expatriation. Furthermore, that opportunities arise by chance. During acculturation, language factors (dialect), cultural differences act as stressors. While social support, and organizational support, learning of the language act as promoters of acculturation.
Further Research could be done including ethnicities, SIEs moving from developed to developing countries, adjustment in regions with dialect vs no dialect.
Key words: self-initiated expatriates, expatriation, acculturation, adjustment, promoting acculturation, hindering acculturation.
Gender und sexuelle Orientierung im Alter - authentisches Verhalten förderlich für die Gesundheit?
(2021)
Sonnenhaus 2.0
(2021)
Die vorliegende Arbeit befasst sich im Rahmen einer Fallstudie hauptsächlich mit der Steigerung des Anteils an PV-Batteriebeladungsenergie von Elektrofahrzeugen. Zentral ist die Frage einer möglichen Beeinflussung dieses PV-Ladeanteils durch Re-konfiguration des thermischen Systems (Speicherkapazitäten, Betriebsstrategie der WP).
Dazu wurde das Mehrfamilienhaus anhand der dynamischen Gebäude- und Anlagensimulation nachgebildet. Im ersten Schritt erfolgte die Ermittlung der für die Gebäudekonditionierung notwendigen Nutzenergie anhand eines Gebäudemodells. Anschließend erfolgte eine Bedarfsoptimierung, um die Grundlast des Wärmeerzeugers möglichst weit zu senken. Dabei wurde zum einen der thermische Komfortbereich ausgenutzt, zum anderen wurde eine Steuerungslogik für die Verschattungs- und Nachtlüftungsautomatik erstellt. Hierdurch konnte der Heizwärmebedarf um 24% und der Kühlwärmebedarf um 70% gesenkt werden. Die Performance des Systems wurde außerdem in Simulationen mittels zukünftigen Klimaszenarien überprüft, in welchen sich die Reduzierung KWB als besonders vorteilhaft herausstellte. Im zweiten Schritt wurde die fassadenintegrierte PV-Anlage nachsimuliert und hinsichtlich ihrer standortspezifischen Ertragssituation mit konventioneller Dachbelegung verglichen. Es zeigte sich, dass die Fassadenbelegung in Südausrichtung über die Wintermonate ertragreicher ist als die, in der Jahresbilanz superiore Dachaufständerung. Im dritten Schritt wurde das technische Gebäudesystem des realen Objektes in der Software Polysun nachgebildet und mittels eigens entworfener Regelungslogik betrieben. Es wurden Variantenstudien der zentralen Parameter Speicherkapazität, Speichertemperatur und Betriebsstrategie durchgeführt.
Die Ergebnisse zeigen, dass die Variation von Speichergröße und maximaler Speichertemperatur keinen relevanten Einfluss auf die PV-Beladeenergie der Elektrofahrzeuge hat. Jedoch zeigte die erhöhte Betriebsweise der Wärmepumpe bei PV-Überschuss (PVready) eine Steigerung der PV-Batteriebeladung von jährlich ca. 2 % sowie in einzelnen Monaten bis zu 6%. Außerdem konnte eine Steigerung der Autarkie des Gesamtsystems von 13,6% sowie eine Halbierung des Netzbezuges beobachtet werden.
Whenever foreign activities turn out to be essential to ensure the company's goals and competitiveness, companies become international. New markets, new lucrative resources promise profitable growth. The new step beyond the national borders requires careful consideration based on the political conditions of the target market (e.g. stability of the political system, social peace, legal certainty, institutional barriers to market entry, attitude to direct investment). The legal framework, such as state funding, environmental protection laws, tax legislation, state requirements or bureaucratic regulations, appear to be at least as relevant too. However, SMEs often lack the capacity and/or courage to take this step. Political authorities at the European level and below are aware of this problem. Numerous studies show that internationalisation is not only necessary to improve competitiveness, but greatly promote innovation, e.g. within international collaborations, it is important to get the authorities to treat these issues with special attention. Governmental promotion is supposed to work in terms of establishing regional balance and supporting socially relevant topics and research. Nevertheless, despite the willingness to support SMEs in their cross-border projects, billions of released Euros are lying around and have not been used. It seems reasonable to assume money is not easy to come by. Enormous bureaucratic hurdles are on everyone's lips. But is that the only reason? Are the people sufficiently informed to be able to take advantage of the numerous financing opportunities? Or is there even more behind the invisible hurdle at first glance? To ascertain this circumstance more precisely, an in-depth analysis to answer the research question ‘what can the institutions do better to make it easier for SMEs to access funding?’ is required.
The research activity described in this master thesis focus on global leadership in team sport. Football head coaches working or who have worked in the globalised Big Five leagues of England, France, Germany, Spain and Italy are investigated. These leagues are host to players, staff, executives, fandoms and head coaches from around the globe. Sport in general is posed as a valid platform to investigate global leadership. Elite and globalised clubs in association football are further posed the archetype of global sport. Head coaches at the helm of the on-field and off-field teams are hypothesised as global leaders, due to their squad, staff and networks of global nature and the span of their influence on individuals around the globe.
It is proposed that investigations of the leadership in this setting can usefully contribute to insights on global leadership. The research activity follow an exploratory purpose resulting from a gap found in the literature review. The research design framework is a first sequential loop of Ground Theory methodology with the aim to identify useful hypotheses for future theoretical sampling. Secondary data was gathered and analysed qualitatively. The data stems from the public domain and statements from interviews, commentaries, biographies, and conferences on or by the head coaches. The theoretical framework of the presented re-search covers the personal traits and attributes of the investigated individuals.
Findings both overlap and contrast with findings from other global leadership research activities. The differences were identified in properties of the global sport business such as constant public attention. Based on the findings from the purposive sampling and acknowledging applicable limitations on the findings, hypotheses for theoretical sampling are proposed. Theoretical sampling is the next step in the workflow of the Grounded Theory methodology used for this study.
In the regime of incentive-based autonomous demand response, time dependent prices are typically used to serve as signals from a system operator to consumers. However, this approach has been shown to be problematic from various perspectives. We clarify these shortcomings in a geometric way and thereby motivate the use of power signals instead of price signals. The main contribution of this paper consists of demonstrating in a standard setting that power tracking signals can control flexibilities more efficiently than real-time price signals. For comparison by simulation, German renewable energy production and German standard load profiles are used for daily production and demand profiles, respectively. As for flexibility, an energy storage system with realistic efficiencies is considered. Most critically, the new approach is able to induce consumptions on the demand side that real-time pricing is unable to induce. Moreover, the pricing approach is outperformed with regards to imbalance energy, peak consumption, storage variation, and storage losses without the need for additional communication or computation efforts. It is further shown that the advantages of the optimal power tracking approach compared to the pricing approach increase with the extent of the flexibility. The results indicate that autonomous flexibility control by optimal power tracking is able to integrate renewable energy production efficiently, has additional benefits, and the potential for enhancements. The latter include data uncertainties, systems of flexibilities, and economic implementation.
Besser entscheiden
(2021)
Unüberschaubar viele Vorschläge des systematischen Entscheidens führen bei bestimmten Rahmenbedingungen zum Erfolg. Die berufliche Praxis weicht aber zumeist stark davon ab, daher sind viele Methoden unbrauchbar. Wie kann man dennoch seine Fähigkeit zu Entscheiden verbessern? Man orientiert sich an grundlegenden Handlungsmaximen.
Was Kennzahlen aussagen
(2021)
Was ist als Ergebnis der Operation 1 : 2 als „korrekt“ anzuerkennen? In der Menge der natürlichen Zahlen N ist 0 korrekt, in der Menge der rationalen Zahlen Q ist 0,5 richtig. Was „wahr“ ist, hängt also von den Ermittlungs- und Berechnungsgrundlagen ab. Das übersehen viele Führungskräfte beim Umgang mit Kennzahlen genau so, wie die Bedeutung ihrer kommunikativen Kompetenzen.
Entscheidungen herbeiführen
(2021)
Ein Entscheidungsprozess wird zusammengehalten von aufeinander Bezug nehmenden Kommunikationen, deren Geltungsanspruch die Kommunikationspartner voraussetzen. Möchte man eine Entscheidung herbeiführen, ist eine fachinhaltliche Expertise keinesfalls ausreichend. Notwendig ist eine Einbindung in das Netzwerk kommunikativer Entscheidungen, dann damit werden die Resonanzen generiert, die sich im Netzwerk entfalten und so die zu tätigende Entscheidungen beeinflussen.
Organisationsdesign
(2021)
Organisationsdesign bezeichnet die zielorientierte, kontextsensitive Gestaltung der Rahmenbedingungen einer Organisation(seinheit). Im Fokus stehen das Ermöglichen und Begrenzen von Formen von (bereichsübergreifenden) Kommunikationen und Entscheidungen, ohne diese letztendlich zu determinieren. Deshalb soll es ausdrücklich der jeweiligen konkreten Entscheidung vorbehalten bleiben, wie sie sich auf vorherige Entscheidungen bezieht.
Form einer Entscheidung
(2021)
Eine gute Entscheidungsfähigkeit braucht mehr als eine tiefe fachinhaltliche Expertise. Nötig ist eine kommunikative Anschlussfähigkeit an die internen Netzwerke, die durch Kommunikationen zusammengehalten werden. Warum? Weil eine Entscheidungsfindung geprägt ist von habitualisierten Verhaltensweisen der Repräsentanten dieser Netzwerke.
One goal of the project described in this paper is to create learning algorithms for machines and robots that lack a precise virtual controller for correct simulations. Using a digital twin approach, the developed mixed reality application aims for an overlay of a virtual robot model with the real world counterpart using Microsoft HoloLens 2 smart glasses. The application should help users to have an inside look into the results of the learning algorithm and therefore supervise and improve those results. The main focus of this paper is the visual representation of the digital twin on the smart glasses. One of the challenges is the level of abstraction and specific use of shaders (program code defining material attributes) to help the user differentiating between virtual and real objects. Therefore different presentation methods are described and evaluated. Study results with 48 persons show that the most abstract representation (wireframe) scores lowest, whereas a half-transparent model works best.
Ordnung aus der Mitte
(2021)
D'Activism
(2021)
Durch die zunehmende Digitalisierung an deutschen Schulen hat auch die damit einhergehende Medienbildung an Relevanz gewonnen. Dabei soll die Schule als zentraler Ort der Bildung ihren Schüler:innen ermöglichen, die medial gemachten Erlebnisse im Unterricht zu thematisieren. Die damit eng verbundene Digital Literacy umfasst Kompetenzen, um die digitale Lebenswelt der Schüler:innen und Lehrkräfte zu reflektieren und sich als aktives Mitglied der Gesellschaft auf einer gesicherten Informationsbasis im digitalen Lebensraum bewegen zu können.
In dieser Arbeit wird der Frage nachgegangen, wie Digital Literacy fächerübergreifend für die Zielgruppe der Lehrkräfte und Schüler:innen der gymnasialen Mittel- und Oberstufe in Baden-Württemberg gefördert werden kann. Dabei wird folgenden Forschungsfragen nachgegangen: (1) Welche ‹Digital Literacies› sollen in Schulen von Lehrkräften und Schüler:innen erworben werden? (2) Wie kann ‹Digital Literacy› fächerübergreifend in den Unterricht integriert werden? (3) Wie kann ein Produkt konzipiert, umgesetzt und evaluiert werden, das die fächerübergreifende Förderung der ‹Digital Literacy› ermöglicht?
Für die Beantwortung wurden theoretische Erkenntnisse, darunter bildungspolitische Bestimmungen und Konzeptpapiere, Medienkompetenzmodelle und spieltheoretische Ansätze beleuchtet sowie leitfadengestützte Experteninterviews durchgeführt. Anhand dieser wurden spezifische Anforderungen für die fächerübergreifende Konzeption eines modularen Educational Games abgeleitet, welches umgesetzt und anhand des Anwendungsszenarios ‹Körperbilder auf Sozialen Medien› evaluiert wurde. Die Ergebnisse der Evaluation zeigten neben einem hohen Motivations- und Spaßfaktor durch die integrierten Spielelemente auch das Interesse der Schüler:innen und Lehrkräfte. Außerdem förderte das Educational Game die Reflexionskompetenz sowie die Übernahme und Auseinandersetzung mit unterschiedlichen Sichtweisen.
Diese Arbeit leistet damit einen Beitrag zur Schließung der Forschungslücke zu Digital Literacy im Schulbereich im deutschsprachigen Raum und stellt gleichzeitig ein Educational Game zur Verfügung, welches die Vermittlung von Digital Literacy ohne spezifische technische oder digitale Kompetenzen ermöglicht.
Die Masterarbeit befasst sich mit der Thematik von Jugend und Adoleszenz im Zusammenhang mit möglichen Schwierigkeiten innerhalb der Identitätsentwicklung und wie diese gelöst werden können. Die Identitätsbildungsprozesse im Jugendalter sollen im Theorieteil dieser Arbeit in Bezug auf Bildungsinstitutionen aufgezeigt und kritisch reflektiert werden. Anschließend wird im Praxisteil ein Toolkit zur Unterstützung der Identitätsentwicklung ausgearbeitet werden, welches Jugendlichen zur Reflexion anregen und bei der Erreichung von Zielen Unterstützung bieten soll.
Ziel der Arbeit ist es, bestehende Praktiken der Audiokartografie zu beschreiben, zu ordnen und auf dieser Basis neue Karten zu gestalten. Dazu wurden in Recherchen Schallkarten ausfindig gemacht und systematisch beschrieben. Es wird ein Überblick der gängigen Praktiken nach grafischen Methoden, den visualisierten Daten und den Anwendungsfeldern der Darstellungen gezeichnet. Um ein möglichst umfassendes Bild des Feldes zu gewinnen, werden theoretische Fragen diskutiert und die gesellschaftliche Verortung von Schallkarten erörtert. Fragen der grafischen Bezeichnung von Schalleigenschaften werden mit den Mitteln der Semiotik betrachtet. Auf Basis dieser theoretischen und analytischen Auseinandersetzung werden im praktischen Teil neue Ansätze der Audiokartografie experimentell erarbeitet. Die Analyse bestehender Schallkarten zeigt, dass für die Darstellung von Schalleigenschaften auf grafische Elemente aus der Kartografie zurückgegriffen wird. Sound hat jedoch eigene Darstellungsformen. Ziel der Experimente ist es, Schallkarten auf Basis von Methoden der Signaldarstellung und Audiovisualisierung zu gestalten, und damit die Kartografie mit der Audiovisualisierung zu verbinden.
Gütesiegel sind bereits auf vielfältigen Produkten zu finden und sollen beim Einkauf den Konsumierenden Orientierung bieten. Angesichts der Gegebenheit Konsum nachhaltig zu gestalten, soll der Marktanteil von zertifizierten Produkten weiter erhöht werden. Gütesiegel werden in diesem Zusammenhang gerne mit einem guten Gewissen hinsichtlich der konsumierten Produkte assoziiert. Aber was zeichnet ein zertifiziertes Produkt aus und welche Bedeutung hat ein Gütesiegel? Die vorliegende Arbeit nimmt darauf Bezug und führt weiter an, wie die Wertigkeit eines zertifizierten Produktes gegenüber den Konsumierenden kommuniziert werden kann. Um Orientierung bieten zu können, braucht das Gütesiegel eine transparente und verständliche Beschreibung, welche die einheitlichen Standards einer Zertifizierung sowie deren Überprüfung sichtbar macht. Eine solche Beschreibung wird im Rahmen des Konzepts für den Forest Stewardship Council (FSC) gestaltet. Ergebnis ist ein Kommunikationskonzept, welches aufzeigt, wie die Wirkung einer Zertifizierung kommuniziert werden kann. Das Konzept kann an diverse Anforderungen angepasst und auf andere Zertifizierungen übertragen werden. Eine transmediale Erzählwelt erweitert die Beschreibung in Form einer Geschichte und veranschaulicht die Wertigkeit eines zertifizierten Produktes. Eine Zertifizierung bedingt die Bewirtschaftung einer Ressource. Ein Gütesiegel kann insofern nicht für den vollumfänglichen Schutz einer Ressource stehen, aber es kann Einfluss auf die Art und Weise der Bewirtschaftung ausüben und dadurch ein Bewusstsein für Konsumprodukte schaffen.
Athena
(2021)
Im postdigitalen Zeitalter, in dem wir uns befinden, ist ein gesellschaftlicher Wandel erkennbar. Die Arbeitswelt verlangt zunehmend nach Flexibilität und dynamischen Prozessen. Es herrscht ein allgemeines Selbstverständnis bezüglich der Einschätzung, dass digitale Technologien in unserem Alltag als fester Bestandteil integriert sind.
Als Gegenpol zu den digitalen Netzwerken herrscht ein starkes Bedürfnis nach analogen Erlebnissen. Öffentliche Arenen eignen sich seit jeher als Orte der Begegnung. Verantwortliche in Städten und Betreiber von Gewerbeparks beschäftigen sich mit der Frage, wie sie Areale aufwerten und den Nutzern ein attraktives Angebot schaffen können.
Die vorliegende Arbeit beschäftigt sich mit den Bedürfnissen der Nutzer (Stadtbewohner/-besucher) in Bezug auf städtische Möbelkonzepte. Leitmotiv ist, durch unterschiedliche Methoden einen besseren Einblick in urbane Räume und das Spannungsfeld zwischen Mensch, Ort und Möbel zu bekommen. Ein besonderer Schwerpunkt liegt auf der fotodokumentarischen Studie von vorhandenen Möbelkonzepten. Ziel ist es, Arealverantwortlichen sowie Gestaltern Möglichkeiten für zukünftige urbane Möbelkonzepte aufzuzeigen.
Der erste Band der ogsa-Reihe greift aktuelle Themen der Sozialen Arbeit in der Postmigrationsgesellschaft auf. Dazu werden mit Migration verbundene Phänomene in ihren theoretischen Grundannahmen, institutionellen Strukturen und in Praxisfeldern reflektiert sowie kritische Perspektiven auf einen professionellen Umgang damit entwickelt. In Tandems aus Theorie und Praxis werden jeweils Themen wie Differenz und Macht, Rassismus, Postkolonialität, Intersektionalität, Empowerment, Social Justice, Border Struggles, Critical Citizenship u. v. m. diskutiert.
Mit dem Voranschreiten und der Weiterentwicklung der Informationstechnologie und Industrie 4.0 stehen Industrieunternehmen, speziell im Bereich der Fertigung und Produktion, vor der Herausforderung, ihre Prozesse zu digitalisieren und automatisieren. Durch die Digitalisierung werden Daten gesammelt, die zur Regelung der Prozesse und Unterstützung von Entscheidungen eingesetzt werden. Um die digitale Transformation erfolgreich umzusetzen und vor allem die Veränderung der Arbeitsabläufe im Unternehmen zu etablieren, braucht es gewissenhafte Vorbereitung. Es bietet sich im Vorfeld eines Projektes an, mittels Reifegradmodellen zur Digitalisierung, den aktuellen Status des Unternehmens zu erheben.
Diese Masterarbeit setzt sich zum Ziel zu evaluieren, ob Reifegradmodelle geeignete Tools sind, um Hindernisse und Chancen von Digitalisierungsprojekten im Vorfeld zu erkennen und abzufangen. Um vorhandene Ressourcen zielgerichtet und verschwendungsfrei einzusetzen, müssen kritische Bereiche identifiziert werden, auf die der Fokus gelegt werden sollte. Zur Bearbeitung des Themas wurde folgende Forschungsfrage gestellt: Sind Reifegradmodelle geeignete Werkzeuge, um aktiv und präventiv Barrieren für digitale Transformationsprojekte zu identifizieren und vermeiden?
Um die Forschungsfrage zu beantworten wurde eine systematische Literaturrecherche und -analyse durchgeführt. Dabei wurden bestehende Reifegradmodelle zur Digitalisierung untersucht, indem ihre Bewertungskriterien in einem Schema kategorisiert wurden. Durch die Kategorisierung wurde ersichtlich, welche Modelle für welchen Zweck einsetzbar sind, bzw. ob die wichtigen Bereiche abgedeckt werden. Ergebnis der Recherche sind sieben Reifegradmodelle, mit unterschiedlichen Herangehensweisen, die exemplarisch vorgestellt und analysiert werden.
Durch die voranschreitende Digitalisierung der Produktion ergeben sich zunehmend neue Möglichkeiten. Eine dieser Möglichkeiten ist der Einsatz von Process Mining. Mit Process Mining können Daten einem Prozess zugeordnet werden, um diesen zu visualisieren und zu untersuchen. Dadurch ist es möglich, Prozesse real zu entdecken, zu überwachen und zu verbessern. Die vorliegende Masterarbeit untersucht, unter welchen Rahmenbedingungen Process-Mining bei modular aufgebauten Montagesystemen in der Massenfertigung einen Mehrwert bieten kann. Durch eine ausführliche Literaturanalyse und dem praktischen Versuch mittels eines Experiments wird darauf eine Antwort gegeben.
Im Zuge der Digitalisierung und der stetigen Entwicklung neuer Technologien hat sich die Möglichkeit neuer Geschäftsmodelle eröffnet. Durch den Einsatz dieser Technologien und ihrer Nutzungspotentiale können auch bereits bestehende Geschäftsmodelle revolutioniert werden. Auch die wissensbasierte Dienstleistungsbranche ist diesem Trend ausgesetzt. Da bei der Dienstleistungserstellung keine materiellen Güter erstellt werden, eignet sich diese Branche für eine Transformation hin zu einem digitalen Geschäftsmodell. Fraglich ist, was bei der Konzeption von digitalen Geschäftsmodellen auf Basis wissensbasierter Dienstleistungen zu beachten ist und welche Erfolgsfaktoren diese prägen.
Um diese Frage beantworten zu können, ist eine Literaturrecherche erforderlich. Als Ergänzung wird ein beispielhaftes Forschungsdesign zur Erhebung von Erfolgsfaktoren für digitale Geschäftsmodelle aufgezeigt. Auf den daraus resultierenden Ergebnissen bauen die Übertragung und die kritische Betrachtung auf den zu untersuchenden Gegenstandsbereich der Arbeit auf. Da die Komplexität des Themenbereichs ein Basisfachwissen voraussetzt, ist die Zielgruppe durch dieses Faktum definiert.
Zu Beginn werden die Begrifflichkeiten sowie die zugehörigen Theorien diskutiert. Basierend auf der Diskussion der Begrifflichkeiten und zugehörigen Theorien werden die Konzeptionsmöglichkeiten digitaler Geschäftsmodelle sowie Besonderheiten bei der Konzeption von wissensbasierten Dienstleistungen untersucht. Zusätzlich wird die Herangehensweise in Bezug auf das Change-Management, die Methoden und die Werkzeuge genauer betrachtet. Ersichtlich wird, dass die aktive Mitarbeiterbeteiligung sowie die Zeit kritische Themen sind. Ebenfalls von besonderer Bedeutung ist der Fokus auf die Kundenakzeptanz und Kundenintegration, um weitere Funktionen in eine passende Richtung aufzubauen.
Die von Krebs, Hepp und Hadwich (2017) identifizierten 30 Erfolgsfaktoren für die Integration wissensintensiver Unternehmensdienstleistungen im Rahmen des so genannten dienstleistungsorientierten Geschäftsmodells der Servicetransformation werden diskutiert und in Bezug zu digitalen Geschäftsmodellen auf Basis wissensbasierter Dienstleistungen genauer betrachtet und angepasst.
Das Ergebnis sind 26 Erfolgsfaktoren, denn die Faktoren „Erfahrene Führungskraft von extern“, „Überprüfung und Anpassung der bestehenden Prozesse und Sicherstellung einer prozessbezogenen Verbindung zwischen dem neuen Geschäftsbereich und den ursprünglichen Bereichen“, „Produktbezug der Dienstleistung“ und „Neue Vertriebsstruktur und Abstimmung der Kundenansprache“ sind nicht relevant für den zu untersuchenden Gegenstandsbereich. Sie beziehen sich stark auf die Integration eines weiteren Geschäftsbereichs in ein produzierendes Unternehmen.
Die folgenden fünf Erfolgsfaktoren wurden passend für den Gegenstandsbereich abgeändert: „Änderung des Führungsstils“ zu „Führungsstil mit toleranter Fehlerkultur“, „Aktive Kommunikation“ zu „Aktive Kommunikation des Servicegedankens“, „Verwendung der Kundendaten aus dem Vertrieb und der Verwendung von Produkten“ zu „Verwendung der Kundendaten aus dem Vertrieb von Dienstleistungen“, „Nutzung des Ansehens des Produktgeschäfts für das Dienstleistungsgeschäft und Steigerung des Bekanntheitsgrades durch Marketingaktivitäten“ zu „Ansehen und Bekanntheitsgrad des Dienstleistungsgeschäfts“, „Strukturen für den Austausch zwischen Produkt- und Dienstleitungsbereich“ zu „Strukturen für den Austausch zwischen den Dienstleistungsteams“
Der Fokus wird mit Hilfe der Anpassungen von der Integration eines weiteren Geschäftsbereichs auf ein eigenständiges digitales Geschäftsmodell auf Basis wissensbasierter Dienstleistungen gelenkt. Die restlichen 21 Erfolgsfaktoren wurden ohne Änderung übernommen.
Die Ergebnisse dieser Arbeit bilden ein gutes Fundament zur weiteren Betrachtung des Untersuchungsgegenstands. Darauf aufbauend ist eine qualitative Studie in Form von weiteren Experteninterviews denkbar. Aus der Kombination der Ergebnisse aus den Interviews und dieser Arbeit wird die Erstellung eines Fragebogens für eine quantitative Umfrage möglich.
Mobility choices - an instrument for precise automatized travel behavior detection & analysis
(2021)
In dieser Arbeit wird ein Luft-Clathrat Energiespeicher entworfen, der die Speicherung von elektrischer Energie bei einer Speicherdauer von etwa einem Tag ermöglichen soll. Als Speichermedium dient Luft. Die Luft wird zuerst komprimiert (Einspeichern der elektrischen Energie) und anschließend bei Temperaturen oberhalb des Wasser-Gefrierpunkts (mindestens 274 K, Drücke ab etwa 170 bar) zu Luft-Clathrat synthetisiert. Gespeichert wird das Luft-Clathrat in einem offenen Tank, der aufgrund des Selbstkonservierungseffekts bei moderaten Bedingungen von 1 bar und bei einer Temperatur von 271 K gehalten werden kann. Durch das Hinzufügen von Promotern zum Luft-Clathrat, lässt sich das Luft-Clathrat bei niedrigeren Drücken (< 50 bar) und bei leicht höheren Temperaturen (ca. 280 K) synthetisieren.
Bei den Druck- und Flüssigluftspeichern handelt es sich um ähnliche Speicher, da bei diesen Luft ebenfalls als Speichermedium dient. Vorteile des Luft-Clathrat Energiespeichers gegenüber den Druck- und Flüssigluftspeichern liegen darin, dass dieser bei milderen Bedingungen (Druck, Temperatur) die Luft speichert und für die Speicherung der Luft keine Kaverne benötigt, wie es bei den Druckluftspeichern der Fall ist.
In der folgenden Masterarbeit werden drei Systeme des Luft-Clathrat Energiespeichers thermodynamisch modelliert. Das isotherme und isentrope System dienen als ideale Systeme, während das reale System an die Wirklichkeit angenähert wird. Für das reale System wird bei reinem Luft-Clathrat ein Zykluswirkungsgrad von ca. 17 %, eine gravimetrische Energiedichte von ca. 22 Wh/kg und eine volumetrische Energiedichte von ca. 21 kWh/m3 erreicht. Mit Promotern konnte der Zykluswirkungsgrad auf ca. 47 % bei einer gravimetrischen Energiedichte von ca. 11 Wh/kg und einer volumetrischen Energiedichte von ca. 10 kWh/m3 erhöht werden.
This study deals with the energy situation in Ny-Ålesund, an Arctic research station on the archipelago Svalbard, and aims at analysing the technical feasability of a transition to renewable energies by taking into consideration both the environmental and climatic impediments.
The analysis is based on a 27 year long collection of authentic meteorological data with all its strong fluctuations, seasonal as well as yearly. Great emphasis was put on the discussion of tried-and-tested renewable technologies that were compared to a new wind-based energy device that has yet to be tested for its reliability in the harsh environment of notably the Arctic winter. Meticulous calculations lead to the result that bifacial solar modules are an efficient means even in months when the sun stands low and their combination with wind-based devices prove to generate a maximum output. Geothermal energy seems to be promising in the region, but could not be evaluated due to a crucial lack of relevant data.
The study comes to the conclusion that the research station of Ny-Ålesund could well rely on a combination of renewable energy devices to cover its energy load, but needs to keep a back-up system of diesel run generators to bridge short periods of possible dysfunctions or standstills due to meteorological circumstances. Battery storage could only contribute to solve the problem of an unfortunate interruption of the energy supply, but it cannot serve as the entire back-up system since, at present, the need would go beyond all possible dimensions.
Seit jeher versuchen Energieversorgungsunternehmen den Einsatz ihrer Kraftwerke zu optimieren. Grund für die Optimierung ist die Sicherstellung der Stromversorgung bzw. das wirtschaftliche Handeln eines Unternehmens. Bisher gibt es am Markt kaum intelligente Lösungen für sehr komplexe, hydraulisch zusammenhängende Kraftwerksgruppen. Obwohl die deterministische Optimierung der illwerke vkw sehr ausgereift ist, wird hier ein Schritt weitergegangen. Als Methode dient eine detaillierte Bewertung des Kraftwerkseinsatzes bei gleichzeitiger Reduzierung von Risiken. Es wird nach Strategien und Regeln gesucht, welche den Einsatz zusätzlich optimieren. Für das Ziel dieser Forschung stellt sich in der vorliegenden Masterarbeit folgende Frage: „Wie können Kraftwerkseinsatzstrategien mithilfe eines Trainingssimulators bewertet und verallgemeinert werden?“
Zur Beantwortung der Forschungsfrage wurden Simulationsfahrten von mehreren Dispatchern durchgeführt. Die Bewertungsmethodik basiert auf der Analyse der unterschiedlichen Strategien und gewichteten Kennzahlen. Zusätzlich wurde ein Fragebogen erstellt. Dieser beinhaltet Aspekte zu bereits bekannten Regeln im Dispatching, zur Gewichtung der Kennzahlen, zur Erfahrung der Dispatcher und zum Verhalten in verschiedenen Einsatzsituationen. Die Antworten der Dispatcher zeigen, dass bereits verschiedene Regeln im Kraftwerkseinsatz zur Anwendung kommen.
Die Ergebnisse belegen, dass ein größeres rotierendes Regelband trotz geringfügiger Wirkungsgradeinbußen, optimal ist. Dadurch können spontane Regelenergieabrufe ohne Fehlarbeit beantwortet werden. Ebenso werden die Umstellungen und somit die Maschinenbelastung deutlich geringer gehalten. In allen Strategien der Dispatcher wurden die Endpegelstände so gewählt, dass min. 1,5 h mit Vollabrufen weitergefahren werden konnte. Außerdem zeigt die Arbeit, dass es nicht möglich ist, Pegelreserven während des Einsatzes zu bewerten.
Die vorliegende Arbeit beschreibt eine Methode zur Prognose von Anomalien in einzelnen Sensordaten für die Anwendung in Expertensystemen im Bereich der Biomassekraftwerke. Die in fünf Schritten beschriebene Methode beinhaltet neben der Datenaufbereitung eine Anomalievorauswahl durch eine unüberwachte Ausreißererkennung, welche mittels des PYOD-Toolkit umgesetzt wurde. Bei der anschließenden Anomaliebestimmung wird der zuvor generierte binäre Zielvektor durch einen mit dem System vertrauten Experten validiert. Eine darauffolgende überwachte binäre Klassifikation mit unbekannten Betriebsdaten ergibt, dass mittel- bis langfristige Anomalien im Mehrstunden- bis Mehrtagesbereich in Form eines Trends reproduktiv vorhergesagt werden können. Kurzfristige Anomalien im Minutenbereich in Form von Extremfällen können hingegen nicht reproduktiv vorhergesagt werden. Eine zusätzliche Untersuchung zur Vorhersage einer Anomalie noch vor deren tatsächlichen Eintrittszeitpunkt brachte keine zufriedenstellenden Ergebnisse. Demnach lässt sich mit dieser Methode nur eine bestimmte Art von Anomalien in Expertensystemen für Biomassekraftwerke vorhersagen. Dazu sollte zudem darauf geachtet werden, dass es trotz positiv erzielter quantitativer Ergebnisse notwendig ist, für die qualitative Prüfung einen mit dem System vertrauten Experten hinzuzuziehen und dass für die zu prognostizierende Anomalie die geeignete Abtastzeit zu wählen ist. Abschließend bleibt zu erwähnen, dass Anomalien, welche nur durch Über- bzw. Unterschreitung eines definierten Grenzwertes gekennzeichnet werden, als zu trivial für diese Methode gelten. Diese können über eine einfache Grenzwertbetrachtung identifiziert werden.
Im Rahmen eines Forschungsprojektes gingen die Autorinnen folgender Frage nach: Welche identitätsstiftenden Werte der Siebenbürger Sachsen/Sächsinnen sind heute in Oberösterreich noch wahrnehmbar? Es wurde dazu ein qualitatives Forschungsdesign gewählt. Die Ergebnisse zeigen, dass die Auswanderung, Fluchterfahrung und die Ankunft in Österreich wesentlich die Identitäten dieser Personengruppe bestimmte und noch immer beeinflusst. Es wird aufgezeigt, wie sich die Identitäten über drei Generationen verändert haben und was noch als identitätsstiftend erfahrbar ist. Die Ergebnisse leisten einen Beitrag zur Identitätsforschung und bieten eine gute Möglichkeit Erkenntnisse über die beforschte Zielgruppe hinaus zu generieren.
Recently the use of microRNAs (miRNAs) as biomarkers for a multitude of diseases has gained substantial significance for clinical as well as point-of-care diagnostics. Amongst other challenges, however, it holds the central requirement that the concentration of a given miRNA must be evaluated within the context of other factors in order to unambiguously diagnose one specific disease. In terms of the development of diagnostic methods and devices, this implies an inevitable demand for multiplexing in order to be able to gauge the abundance of several components of interest in a patient’s sample in parallel. In this study, we design and implement different multiplexed versions of our electrochemical microfluidic biosensor by dividing its channel into subsections, creating four novel chip designs for the amplification-free and simultaneous quantification of up to eight miRNAs on the CRISPR-Biosensor X (‘X’ highlighting the multiplexing aspect of the device). We then use a one-step model assay followed by amperometric readout in combination with a 2-minute-stop-flow-protocol to explore the fluidic and mechanical characteristics and limitations of the different versions of the device. The sensor showing the best performance, is subsequently used for the Cas13a-powered proof-of-concept measurement of two miRNAs (miRNA-19b and miRNA-20a) from the miRNA-17∼92 cluster, which is dysregulated in the blood of pediatric medulloblastoma patients. Quantification of the latter, alongside simultaneous negative control measurements are accomplished on the same device. We thereby confirm the applicability of our platform to the challenge of amplification-free, parallel detection of multiple nucleic acids.
In this work, we present a significant step toward in vivo ophthalmic optical coherence tomography and angiography on a photonic integrated chip. The diffraction gratings used in spectral-domain optical coherence tomography can be replaced by photonic integrated circuits comprising an arrayed waveguide grating. Two arrayed waveguide grating designs with 256 channels were tested, which enabled the first chip-based optical coherence tomography and angiography in vivo three-dimensional human retinal measurements. Design 1 supports a bandwidth of 22 nm, with which a sensitivity of up to 91 dB (830 µW) and an axial resolution of 10.7 µm was measured. Design 2 supports a bandwidth of 48 nm, with which a sensitivity of 90 dB (480 µW) and an axial resolution of 6.5 µm was measured. The silicon nitride-based integrated optical waveguides were fabricated with a fully CMOS-compatible process, which allows their monolithic co-integration on top of an optoelectronic silicon chip. As a benchmark for chip-based optical coherence tomography, tomograms generated by a commercially available clinical spectral-domain optical coherence tomography system were compared to those acquired with on-chip gratings. The similarities in the tomograms demonstrate the significant clinical potential for further integration of optical coherence tomography on a chip system.
With Cloud Computing and multi-core CPUs parallel computing resources are becoming more and more affordable and commonly available. Parallel programming should as well be easily accessible for everyone. Unfortunately, existing frameworks and systems are powerful but often very complex to use for anyone who lacks the knowledge about underlying concepts. This paper introduces a software framework and execution environment whose objective is to provide a system which should be easily usable for everyone who could benefit from parallel computing. Some real-world examples are presented with an explanation of all the steps that are necessary for computing in a parallel and distributed manner.
We present a new concept of 3D polymer-based 1 × 4 beam splitter for wavelength splitting around 1550 nm. The beam splitter consists of IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding. The splitter was designed and simulated with two different photonics tools and the results show high splitting ratio for single-mode and multi-mode operation with low losses. Based on the simulations, a 3D beam splitter was designed and realized using direct laser writing (DLW) process with adaptation to coupling to standard single-mode fiber. With respect to the technological limits, the multi-mode splitter having core of (4 × 4) μm 2 was designed and fabricated together with supporting stable mechanical construction. Splitting properties were investigated by intensity monitoring of splitter outputs using optical microscopy and near-field scanning optical microscopy. In the development phase, the optical performance of fabricated beam splitter was examined by splitting of short visible wavelengths using red light emitting diode. Finally, the splitting of 1550 nm laser light was studied in detail by near-field measurements and compared with the simulated results. The nearly single-mode operation was observed and the shape of propagating mode and mode field diameter was well recognized.