Refine
Year of publication
- 2021 (169) (remove)
Document Type
- Master's Thesis (93)
- Article (32)
- Conference Proceeding (27)
- Book (6)
- Report (4)
- Part of a Book (3)
- Other (3)
- Part of Periodical (1)
Institute
- Forschungszentrum Mikrotechnik (19)
- Soziales & Gesundheit (17)
- Forschungszentrum Human Centred Technologies (12)
- Wirtschaft (12)
- Forschungsgruppe Empirische Sozialwissenschaften (11)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (9)
- Forschungszentrum Business Informatics (9)
- Technik | Engineering & Technology (9)
- Forschungszentrum Digital Factory Vorarlberg (3)
- Forschungszentrum Energie (2)
Language
- German (100)
- English (66)
- Multiple languages (3)
Keywords
- Entscheidung (5)
- Digitalisierung (4)
- MMI splitters (4)
- Soziale Arbeit (4)
- Y-branch splitter (4)
- Machine learning (3)
- Pandemie (3)
- Arrayed waveguide gratings (2)
- Assistenztechnologien (2)
- Cloud manufacturing (2)
Welcher Kompetenzbedarf besteht bei HR-MitarbeiterInnen, um die digitale Transformation in Unternehmen mitbegleiten zu können und welche Methoden zur Kompetenzentwicklung von HR-MitarbeiterInnen finden in einer zukunftsorientierten Personalentwicklung Anwendung? Mit einer Antwort auf diese Fragen beschäftigt sich die vorliegende Arbeit. Nach der Erklärung der theoretischen Begriffe und Grundlagen zeigt das Kapitel drei den Kompetenzbedarf von HR-MitarbeiterInnen für die digitale Transformation auf und liefert spezifische Methoden zur Kompetenzentwicklung digitaler Transformation. Dabei spielen die Kompetenzen im Bereich der Führungs- und Motivationsstrategie sowie die Gestaltung des Wissensmanagements eine bedeutende Rolle. Den MitarbeiterInnen im HRM kommt angesichts des Fachkräftemangels aufgrund der demografischen Entwicklung eine zunehmend strategische Bedeutung zu. Sie werden zu engen Partnern in der strategischen Ausrichtung des Unternehmens. Auf der einen Seite steht die Ressource Humankapital, auf der anderen Seite aber auch die Zukunftssicherung, denn im Zeitalter der Digitalisierung und des globalen Wandels ist die nachhaltige Sicherung des Know-how für ein Unternehmen überlebenswichtig. In diesem Kontext müssen die verantwortlichen HR-MitarbeiterInnen andere und zum Teil vielfältigere Kompetenzen mitbringen als noch vor einigen Jahrzehnten. Die Arbeit schließt nach den Handlungsempfehlungen, einem Praxisbeispiel, einem Fazit und einem Ausblick.
In der vorliegenden Masterarbeit wird das Verbesserungspotential von Gebäudeleitsystemen am Beispiel der Errichtergemeinschaft Frühlingstraße untersucht. Der Fokus bei der Analyse liegt auf der Ermittlung von Verbesserungen im Bereich der Regel- und Steuerstrategien. Beim Referenzobjekt handelt es sich um sieben Einfamilienhäuser, die durch einen zentralen Pelletkessel mit Wärmeenergie versorgt werden, welche über das miteinander verbundene Kellergeschoss verteilt wird.
Im Kapitel Stand der Technik werden die Gebäudeleitsysteme von Mehrfamilien-Wohnanlagen in den 2000er Jahren und in den 2020er Jahren mit dem ausgeführten Gebäudeleitsystem des Referenzobjektes der Errichtergemeinschaft Frühlingstraße, bei dem es sich ebenfalls um eine Mehrfamilien-Wohnanlage handelt, miteinander verglichen. Nach dem Kapitel Forschungsstand wird die verwendete Methode kurz umrissen. Ein wichtiger Schritt zur fertigen Simulation ist das Verstehen der bestehenden Steuer- und Regelstrategien. Dabei wird sehr genau auf die Regelung der Häuser und des Pelletkessels eingegangen. Ebenfalls werden die zu simulierenden Komponenten, die zur Verfügung gestellten Messdaten und die verwendete Simulationssoftware Polysun beschrieben. Bei der Simulation des Referenzobjektes wird speziell auf die verwendeten Komponenten, aber auch auf die umgesetzten Regel- und Steuerstrategien eingegangen. Die Beschreibung der einzelnen Varianten beschränkt sich auf den Unterschied zur Simulation des Referenzobjektes.
Die einzelnen Varianten unterscheiden sich im Bereich des solaren Deckungsanteils nur sehr geringfügig. Die solare Ausbeute in den Monaten Mai bis August ist bei den Varianten 3 und 4 jedoch deutlich höher als bei den anderen Varianten. Ein deutlicher Unterschied ist auch im Bereich des Pellet-Verbrauchs auszumachen. Bei der Variante 4 werden im Vergleich zum Referenzobjekt jährlich gut 800 kg Pellets eingespart. Dies bedeutet eine Reduktion des CO2-Ausstoßes um 167,8 kg. Dieser Trend der Reduktion kann auch bei den Betriebsdauern des Pelletkessels fortgesetzt werden. Der größte Unterschied der einzelnen Varianten ist bei den Anforderungen des Pelletkessels auszumachen. Somit wird der Pelletkessel bei der Variante 2 14536-mal angefordert und bei der Variante 4 lediglich 3353-mal.
Diese Verbesserungen können durch kleine Anpassungen der Regel- und Steuerstrategien erzielt werden. Gerade weil die Low-Tech Gebäude des Referenzobjekts sehr energieeffizient umgesetzt und nicht mit technischer Ausstattung überladen wurden, können die ermittelten Verbesserungspotentiale bei anderen Gebäuden umgesetzt werden. Bei Gebäuden, die nicht als Low-Tech Gebäude errichtet wurden, ist durch die Anpassung des Gebäudeleitsystems ein größeres Verbesserungspotential zu erwarten.
Eingebettete Systeme – wie zum Beispiel eine Multifunktions-Küchenmaschine, ein intelligenter Saugroboter oder Lautsprecher mit sprachgesteuerten Assistenten – sind für einige Menschen in der heutigen Zeit nicht mehr wegzudenken. Sie sind mittlerweile Bestandteil unseres täglichen Lebens. Doch hinter jedem System stehen auch eine Vielzahl von Anforderungen, die für die Kundinnen und Kunden, sowie Nutzerinnen und Nutzer relevant sind. Ob diese Anforderungen immer einen Mehrwert für die Kundinnen und Kunden bringen, ist dabei irrelevant. Doch wie kann gewährleistet werden, dass die zu Beginn definierten Anforderungen schlussendlich das gewünschte Ergebnis für die Kundinnen und Kunden oder Nutzerinnen und Nutzer bringt? Durch die Durchführung einer Validierung in verschiedenen Phasen der Systementwicklung können wichtige Erkenntnisse über das Produkt und dessen Funktionen vor der eigentlichen Marktfreigabe gewonnen und noch in den verschiedenen Entwicklungsphasen für Änderungen oder Verbesserungen eingeplant werden. Oft werden diese essentiellen Validierungsprozesse zu spät oder gar nicht durchgeführt, was zu unausgereiften Produktfreigaben führt, was wiederum unzufriedene Kundinnen und Kunden zur Folge haben kann.
Diese Masterarbeit bietet einen Einblick, wie eine solche Validierung in Systementwicklungen integriert werden kann. Unter anderem wird eine klassische Vorgehensweise, das V-Modell, und die agile Methode Scrum betrachtet und auf mögliche Validierungskonzepte hin untersucht. Anhand eines Praxisbeispiels einer bereits durchgeführten Systementwicklung im Elektronikbereich wird gezeigt, wie die Methoden des V-Modells und Scrum in Verbindung mit der Validierung umgesetzt wurden. Die Erkenntnisse aus diesen beiden Teilen, Theorie und Praxis, werden durch Handlungsempfehlungen für Entwicklungsprojekte abgerundet.
Im Rahmen dieser Masterthesis wurde beispielhaft gezeigt, mit welchen Maßnahmen die Handhabung (Gewicht, Größe) von Nasskühlern verbessert werden kann. Dabei wurde berücksichtigt, dass Kühlleistung und Durchsatz dem aktuellen Stand der Technik entsprechen.
Die zu Beginn durchgeführten Messungen an einem, in der Praxis eingesetzten, Referenzgerät und die darauffolgenden Berechnungen lieferten die thermodynamischen Größen (Temperatur, Druck). Diese physikalischen Größen lieferten die Randbedingungen der darauffolgenden Computational Fluid Dynamics (kurz CFD) Simulationen. Aus technischen Gründen wurde der Druck nicht direkt über Sensoren gemessen, sondern mit Hilfe der gemessenen Temperaturen berechnet. Da die Druckmessung einen zu starken Eingriff ins System dargestellt hätte. Um die Korrektheit der berechneten Drücke sicherzustellen, wurden in weiterer Folge die Temperaturen nachgerechnet und mit den Messwerten verglichen.
Um die Messwerte beziehungsweise die Berechnungen weiter zu bestätigen, ist zuerst ein CAD-Modell des vorhanden Referenzgerätes erstellt worden. Dieses CAD-Modell wurde dann hergenommen, um die ersten CFD Simulationen durchzuführen. Die Schwierigkeit hierbei lag bei der realistischen Abbildung der physikalischen Vorgänge, wie beispielsweise bei dem Verdampfen und Kondensieren des Kältemittels (Arbeitsmedium). Es wurden die einzelnen Komponenten des Kältekreislaufes simuliert (Wärmetauscher des Nutzmediums, Verdampfer und Kondensator des Arbeitsmediums).
Abschließend wurde ein Entwurf zur Optimierung von Schankanlagen erarbeitet. Von diesen wurden (teilweise) CAD Modelle erstellt. Die Modelle der optimierten Komponenten wurden dann, bezogen auf ihr Volumen und Gewicht, mit denen des Referenzgerätes, gegenübergestellt.
Den Abschluss der Arbeit bildet ein Fazit über die durchgeführten Berechnungen, Messungen und Simulationen. Des Weiteren wurden hier Aspekte, die nicht in der Arbeit berücksichtigt wurden, kurz aufgegriffen und erläutert.
Unternehmen müssen ihre Prozesse stetig weiterentwickeln und verbessern, damit sie trotz des stärkeren Wettbewerbsdrucks am globalen Markt bestehen können. Process Mining verknüpft hochinnovative Technologie mit der Evaluation und Entwicklung von Geschäftsprozessen. Process Mining ist ein Verfahren, das dazu dient, bestehende Geschäftsprozesse aus gesammelten Daten von Informationssystemen zu identifizieren, mit bestehenden Soll-Prozessen zu vergleichen und die Geschäftsprozesse anhand der gewonnenen Erkenntnis zu verbessern. Dadurch werden Prozesse optimiert und die Wettbewerbsfähigkeit von Unternehmen wird nachhaltig gesteigert. Dennoch zeigen Erfahrungsberichte und Untersuchungen aus der Marktforschung, dass viele Process Mining Projekte scheitern, weil gewisse Faktoren der Unternehmenskultur nicht berücksichtigt werden. Es besteht eine Wissenslücke, inwiefern die Faktoren den zielführenden Einsatz von Process Mining beeinflussen. Deshalb war es das Ziel dieser Masterarbeit, herauszufinden, welche Faktoren der Unternehmenskultur den zielführenden Einsatz von Process Mining beeinflussen. Hierfür wurden in einer Literaturrecherche N= 1,491 Titel und N= 97 Abstrakte gescannt, bis N=28 wissenschaftliche Artikel und Erfahrungsberichte übrig waren, die von Relevanz und wissenschaftlichen Wert für diese Arbeit waren. Um diese N=28 wissenschaftlichen Artikel und Erfahrungsberichte zu analysieren, wurde eine Kombination aus der Vorgehensweise der Hermeneutik nach Gadamer sowie einer induktiven qualitativen Analyse nach Mayring angewendet. Die Ergebnisse aus der qualitativen Analyse aus dieser Masterarbeit haben gezeigt, dass neben der technologischen Infrastruktur die Faktoren der Unternehmenskultur wie Potenziale der Mitarbeitenden, Vision und Mission, Kommunikation mit den Mitarbeitenden, Partizipation der Mitarbeitenden und Kundenorientierung eine zentrale Rolle für den zielführenden Einsatz von Process Mining spielen. Zusammenfassend wird in dieser Masterarbeit gezeigt, dass es vor dem Beginn eines Projektes wesentlich ist, das Process Mining in die Unternehmensstrategie zu integrieren und gleichzeitig Vertrauen aufzubauen. Die Kompetenzen der Mitarbeitenden und deren Kooperation haben während der Umsetzung nicht nur einen Einfluss auf das Process Mining, sondern werden dadurch auch gestärkt. Zukünftige qualitative Studien könnten dazu beitragen, weitere Faktoren zu identifizieren, die aus Sicht der Mitarbeitenden, des Managements, der Kunden und anderer Stakeholder den zielführenden Einsatz von Process Mining in Unternehmen behindern oder ermöglichen. Außerdem könnte ein Fragebogen entwickelt und validiert werden, um die Bereitschaft von Unternehmen für ein Process Mining Projekt zu evaluieren.
In recent years, ultrashort pulsed lasers have increased their applicability for industrial requirements, as reliable femtosecond and picosecond laser sources with high output power are available on the market. Compared to conventional laser sources, high quality processing of a large number of material classes with different mechanical and optical properties is possible. In the field of laser cutting, these properties enable the cutting of multilayer substrates with changing material properties. In this work, the femtosecond laser cutting of phosphor sheets is demonstrated. The substrate contains a 230 micrometer thick silicone layer filled with phosphor, which is embedded between two glass plates. Due to the softness and thermal sensitivity of the silicone layer in combination with the hard and brittle dielectric material, the separation of such a material combination is challenging for both mechanical separation processes and cutting with conventional laser sources. In our work, we show that the femtosecond laser is suitable to cut the substrate with a high cutting edge quality. In addition to the experimental results of the laser dicing process, we present a universal model that allows predicting the final cutting edge geometry of a multilayer substrate.
In this work, we present a significant step toward in vivo ophthalmic optical coherence tomography and angiography on a photonic integrated chip. The diffraction gratings used in spectral-domain optical coherence tomography can be replaced by photonic integrated circuits comprising an arrayed waveguide grating. Two arrayed waveguide grating designs with 256 channels were tested, which enabled the first chip-based optical coherence tomography and angiography in vivo three-dimensional human retinal measurements. Design 1 supports a bandwidth of 22 nm, with which a sensitivity of up to 91 dB (830 µW) and an axial resolution of 10.7 µm was measured. Design 2 supports a bandwidth of 48 nm, with which a sensitivity of 90 dB (480 µW) and an axial resolution of 6.5 µm was measured. The silicon nitride-based integrated optical waveguides were fabricated with a fully CMOS-compatible process, which allows their monolithic co-integration on top of an optoelectronic silicon chip. As a benchmark for chip-based optical coherence tomography, tomograms generated by a commercially available clinical spectral-domain optical coherence tomography system were compared to those acquired with on-chip gratings. The similarities in the tomograms demonstrate the significant clinical potential for further integration of optical coherence tomography on a chip system.