Refine
Year of publication
Document Type
- Article (450)
- Master's Thesis (412)
- Conference Proceeding (396)
- Part of a Book (231)
- Book (107)
- Report (28)
- Other (18)
- Doctoral Thesis (14)
- Working Paper (9)
- Preprint (5)
Institute
- Wirtschaft (350)
- Forschungszentrum Mikrotechnik (253)
- Technik | Engineering & Technology (194)
- Forschungszentrum Business Informatics (168)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (164)
- Soziales & Gesundheit (145)
- Forschungsgruppe Empirische Sozialwissenschaften (117)
- Forschungszentrum Human Centred Technologies (102)
- Forschungszentrum Energie (88)
- Didaktik (mit 31.03.2021 aufgelöst; Integration ins TELL Center) (68)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Soziale Arbeit (15)
- Digitalisierung (14)
- Controlling (11)
- Laser ablation (11)
- Y-branch splitter (11)
- arrayed waveguide gratings (11)
- +KDC 122 (9)
Debugging errors in software applications can be a major challenge. It is not enough to know that a specific error exists, but the cause of it must be found in order to be able to fix it. Finding the source of an error can be time and cost intensive. The general approach is to analyse and debug the presumably erroneous part of the software. The analysis can be accompanied by instrumentation to gather additional information during the program execution. The analysis is made more difficult by the existence of different errors categories. Each category may need to be handled individually. Especially in embedded software applications, which commonly lack features like process or memory isolation, error detection and prevention can be even more challenging. This is the kind of problem this thesis tackles. This thesis tries to support developers during debugging and troubleshooting. The main focus is on errors related to memory management and concurrency. Specific features and properties of Arm Cortex-M processors are used to try to detect errors as well as their causes. For example, the memory protection unit is used to isolate the stack memories of different tasks running in a RTOS. The thesis tries to provide as much information as possible to the developer when reporting errors of any kind. The solution developed in this thesis also contains a custom memory allocator, which can be used to track down errors related to dynamic memory management. Furthermore, a Eclipse plugin has been developed which provides assertions for array accesses to detect and prevent out-of-bound accesses. The resulting solution has been implemented in commercial embedded software applications. This ensures that the developed solution is not only suitable for newly developed applications, but also for the integration into already existing products.
This is Intellectual Output 2 (IO2) of the project “Developing a culturally competent and compassionate LGBT+ curriculum in health and social care education“ IENE9. The aim of the project is to enable teacher/trainers of theory and practice to enhance their skills regarding LGBT+ issues and develop teaching tools to support the inclusion of LGBT+ issues within health and social care curricula. The newly culturally competent and compassionate LGBT+ curriculum will be delivered through a MOOC which is aimed at health and social care teachers/trainers, workers, professionals, and learners across Europe and worldwide. The IO2 of this project, Internet Mapping and Systematic documentation of educational policies and guidelines as well as legislation at European and national level for LGBT+ inclusive education, aims to create an easy to navigate resource with information about European and national legislation/guidance/policies. Visit www.iene-lgbt.com for more information.
Designkritik ist zumeist einfach die Geste der Verweigerung oder Ignoranz. Eine erste Annäherung
(2018)
Having autonomy in the workplace can have a positive impact on employees’ performance, which in turn can benefit the organization’s competitive advantages. While previous researches have primarily focused on the psychological effects of job autonomy on employee performance and has been limited to certain domains, the relationship between job autonomy and organizational design is an important area of study for organizations seeking to improve their competitiveness. This thesis proposes a conceptual model for designing an organization structure that promotes employee performance in manufacturing companies by removing obstacles towards obtaining job autonomy. The focus is on ambitious employees who seek growth and development opportunities within their organization. The model is based on a review of existing literature on job autonomy and organizational design. Exploratory qualitative research was conducted with selected ambitious employees from different industries by means of one-on-one semi-structured interviews. Overall, the proposed model has practical implications for manufacturing companies looking to motivate their employees, as well as for researchers seeking to advance their understanding of organizational design in our times.
Design of low loss 1x64 y-branch splitter having symmetric splitting ratio and small footprint
(2014)
We present 256-channel, 25-GHz AWG designed for ultra-dense wavelength division multiplexing. For the design two in-house developed tools were used: AWG-Parameters tool for the calculation of input design parameters and AWGAnalyser tool, used to evaluate the simulated transmission characteristics. The AWG structure was designed for AWG central wavelength of 1550 nm and simulated with PHASAR tool from Optiwave. To keep the size of AWG structure as small as possible the number of waveguides in the phased array was tested. The simulations show that there is a certain minimum number of phased array waveguides necessary to reach sufficient AWG performance. After optimization, the AWG structure reached 10 cm x 11 cm in size and satisfying optical properties.
In this paper, design of 1×8 multimode interference passive optical splitter is proposed. The structure of the splitter is designed based on a silicon nitride material platform. This work aims to find the minimum physical dimensions of the designed splitters with the satisfactory optical performance. According to the minimum insertion loss and minimum non-uniformity, the optimum length of the splitters is determined.
We present design, simulation and optimization of polymer based 16-channel, 100-GHz AWG designed for central wavelength of 1550 nm. The input design parameters were calculated applying AWG-Parameters tool. The simulations were performed applying a commercial photonic tool PHASAR from Optiwave. The achieved transmission characteristics were evaluated by AWG-Analyzer tool and show a satisfying agreement between designed and simulated AWG optical properties. Finally, the influence of the number of phased array (PA) waveguides on the AWG performance was studied. The results show that there is a certain minimum number of PA waveguides necessary to reach sufficient AWG performance.
We present design of planar 16-channel, 100-GHz multi-mode polymer-based AWG. This AWG was designed for central wavelength of 1550 nm applying AWG-Parameters tool. The AWG structure was created and simulated in the commercial photonic tool PHASAR from Optiwave. Achieved transmission characteristics were evaluated by AWG-Analyzer tool. For the design, multi-mode waveguides having a cross-section of (4x4) µm2 were used. The simulated results show strong worsening of the transmission characteristics in comparison when using single-mode waveguides. Nevertheless, the transmitting channels are clearly separated. The reason for using thicker multi-mode waveguides in the design is possibility to fabricate the AWG structure on polymer basis using direct laser writing lithography.
We present design and simulation of 16-channel, 100-GHz silicon nitride based AWG using BeamPROP simulation engine of RSoft photonic tool. The AWG was designed for TM-polarized light with central wavelength of 850 nm. The input design parameters were calculated applying AWG-Parameters tool. For this purpose, we created a ridge waveguide structure, used in the design of the AWG layout, and performed FEM simulation. The output of the BPM simulation of AWG structure are the transmission characteristics, which was used to calculate transmission parameters defining optical properties of simulated AWG. The achieved simulation results are in a good agreement with the design.
Introducing 3D sub-micrometer technologies based on polymers opened new possibilities of design and fabrication of photonic devices and components in 3D arrangement. 3D laser lithography is direct writing process based on two photon polymerization exhibiting high accuracy and versatility, where numerous resists and even polymer ceramic mixtures can be used. We present design and simulation of polymer based photonic components with a focus on arrayed waveguide gratings (AWG) based on optical multiplexers/demultiplexers and optical splitters. All optical components were designed for 1550 nm operating wavelength, applying two commercial photonics tools. This study creates a basis for the design of optical components in 3D arrangement, which will be fabricated by 3D laser lithography.
SiN is a suitable material for fabricating of photonic integrated circuits with middle refractive index contrast for the visible and near infrared spectral region with ultra-low propagation losses. The paper deals with the design and simulation of fiber to SiN chip butt coupler with single step fabrication process without thickness tapering. Coupler is designed for 850 nm band for coupling between strip 0.25 μm × 1.00 μm waveguide and Nufern's 780-OCT single mode optical fiber with core diameter 4.4 μm. The coupling losses simulation results of the two simulation methods finite-difference beam propagation techniques and eigenmode expansion method are compared.
Design, simulation, and optimization of the 1×4 optical three-dimensional multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding is demonstrated. The splitter was simulated by using beam propagation method in BeamPROP simulation module of RSoft photonic tool and optimized for an operating wavelength of 1.55 μm . According to the minimum insertion loss, the dimensions of the splitter were optimized for a waveguide with a core size of 4×4 μm2 . The objective of the study is to create the design for fabrication by three-dimensional direct laser writing optical lithography.
Design, simulation, and optimization of the 1×4 optical three-dimensional multimode interference splitter using IP-Dip polymer as a core and polydimethylsiloxane (PDMS) Sylgard 184 as a cladding is demonstrated. The splitter was simulated by using beam propagation method in BeamPROP simulation module of RSoft photonic tool and optimized for an operating wavelength of 1.55 μm . According to the minimum insertion loss, the dimensions of the splitter were optimized for a waveguide with a core size of 4×4 μm2 . The objective of the study is to create the design for fabrication by three-dimensional direct laser writing optical lithography.
Design and simulation of 128-channel 10 GHz AWG for ultra-dense wavelength division multiplexing
(2012)
This paper aims to study the design, simulation, and optimization of low-loss Y-branch passive optical splitters up to 64 output ports for telecommunication applications. For a waveguide channel profile, the standard material silica-on-silicon is used. The Y-splitters are designed and simulated at telecommunication operating wavelength, λ = 1550 nm. Except for the lengths of the used Y-branches, and a core size of the waveguides, design parameters such as port pitch between the waveguides and simulation parameters for all splitters are considered fixed. The simulation results are analyzed to determine the optimum length of the splitters and the optimum core size. Based on this optimization the total length of the highest designed 1×64 Y-branch splitter was reduced by 41.14 % for a waveguide core (5×5) μm2 compared to the length of splitter with a standard (6×6) μm2 core size.
Design and optimization of 1x2N Y-branch optical splitters for telecommunication applications
(2020)
This paper presents the design and optimization of 1x2N Y-branch optical splitters for telecom applications. A waveguide channel profile, used in the splitter design, is based on a standard silica-on-silicon material platform. Except for the lengths of the used Y-branches, design parameters such as port pitch between the waveguides and simulation parameters for all splitters were considered fixed. For every Y-branch splitter, insertion loss, non-uniformity, and background crosstalk are calculated. According to the minimum insertion loss and minimum non-uniformity, the optimum length for each Y-branch is determined. Finally, the individual Y-branches are cascade joined to design various Y-branch optical splitters, from 1x2 to 1x64.
The paper deals with designing and numerical modelling a 2 x 2 optical switch for photonic integrated circuits based on 2 x 2 MMI elements and phase modulators. The 2 x 2 optical switch was modelled in the RsoftCAD with the simulation tool BeamPROP. The 2 x 2 optical switch is a common element for creating more complex 1 x N or N x N optical switches in all-optical signal processing.
This paper presents a project developed at the K.S.Rangasamy College of Technology (Tamilnadu,India) aimed at designing, implementing, and testing an autonomous multipurpose vehicle with safe, efficient, and economic operation. This autonomous vehicle moves through the crop lines of a Agricultural land and performs tasks that are tedious and/or hazardous to the farmers. First, it has been equipped for spraying, but other configurations have also been designed, such as: a seeding ,plug platform to reach the top part of the plants to perform different tasks (pruning, harvesting, etc.), and a trailer to transport the fruits, plants, and crop waste.
Der Schlüssel zur Zukunft
(2023)
Der S&OP Prozess als Erfolgsfaktor im Supply Chain Management und die Rolle der Datenanalytik
(2022)
In einer Zeit, in der durch die Globalisierung und Internationalisierung die Märkte volatiler werden und Daten eine immer wichtigere Rolle spielen, werden Konzepte wie Big Data, Data Analytics oder Data Mining immer wichtiger. Unternehmen können durch die Verarbeitung und Nutzung der Daten mit den diversen Methoden der Datenanalytik wichtige Erkenntnisse gewinnen. Auch im Sales & Operations Planning Prozess sind Daten von großer Bedeutung. Dieser Prozess erzeugt und verwendet sehr viele interne und externe Daten.
Die vorliegende Masterarbeit beschäftigt sich mit den Themen S&OP Prozess als zentraler Erfolgsfaktor im SCM und mit der Kernaufgabe „Prognoseerstellung“. Die Arbeit zeigt auf, dass die Ermittlung der Prognose eine der wichtigsten Aufgaben im SCM ist und als Start-punkt des S&OP Prozesses mit den unterschiedlichen Methoden aus der Datenanalytik unterstützt und optimiert werden kann. Die aktuellen Geschehnisse auf der Welt mit Covid-19, Lockdowns, Lieferkettenproblemen und internationalen Konflikten zeigen, dass wir in einem Zeitalter mit großen Unsicherheiten leben. Aus diesem Grund ist es mit all den neuen Entwicklungen und Vorhersagemethoden in der Praxis eine spannende Zeit für Prognosen. Die vielen Möglichkeiten, die Künstliche Intelligenz, Machine Learning und Data Mining bieten, welche unter dem Dachbegriff „Datenanalytik“ gesammelt wurden, liefern für die Prognose im Supply Chain Management im Vergleich zu traditionellen Methoden wesentlich bessere Ergebnisse. Nichtsdestotrotz müssen Menschen und Algorithmen Hand in Hand arbeiten, um die Prognosequalität zu steigern.
Der Presse kam zu Beginn des 20. Jahrhunderts eine außerordentlich wichtige Rolle in der Auseinandersetzung zwischen den politischen Lagern, Sozialdemokratie, Deutschnationalismus und Christlich-Soziale Bewegung zu. Jedes der drei Lager hatte ihm mal mehr mal weniger zugeordnete Zeitungen, die reichsweit erschienen oder kleinere Lokal- und Provinzblätter waren. Der Pius-Verein zur Unterstützung der katholischen Presse engagierte sich in dieser Auseinandersetzung für die Sache des politischen Katholizismus. Seine Methoden bestanden in der politischen Agitation und im Sammeln von Spenden für katholische Zeitungen. Im Kronland Tirol war einer der aktivsten Ableger des Pius-Vereins tätig, mit Ortsgruppen in fast jeder Gemeinde.
Der Implementierungsprozess einer Unternehmensstrategie im Kontext der digitalen Transformation
(2022)
Die Wertschöpfung eines Unternehmens wird durch die Mitarbeitenden beeinflusst. Die quantitative, wie auch die qualitative Verfügbarkeit von Personen am Arbeitsmarkt hat für Unternehmen einen hohen Stellenwert. Der Fachkräftemangel am Arbeitsmarkt führt zum sog. War for Talents. Daher ist es notwendig, sich mit den verfügbaren Personen auseinanderzusetzen und Strategien, aber auch Perspektiven zu erarbeiten, um die Kandidat:innen auf dem Arbeitsmarkt für sich zu gewinnen (vgl. Ullah & Witt, 2015, S. 8). Um den besten und zugleich passendsten Mitarbeiter bzw. die entsprechende Mitarbeiterin zu finden und langfristig ans Unternehmen zu binden, möchte es als attraktiver Arbeitgeber auf dem Arbeitsmarkt wahrgenommen werden (vgl. Bruhn et al., 2013, S. 63).
Das Ziel der Masterarbeit besteht darin, mit Hilfe von Interviews die Forschungsfrage zu beantworten und aus den Ergebnissen sowie im Abgleich mit weiteren bisherigen theoreti-schen und empirischen Erkenntnissen konkrete Handlungsempfehlungen für das Dienstleistungsunternehmen zu erstellen bzw. aufzuzeigen. Aufbauend auf einer theoretischen Analyse wird anhand von Experteninterviews ermittelt, welche Social-Media-Kanäle in der Praxis eingesetzt werden und welche Wirkungen diese mit sich bringen. Durch Handlungs-empfehlungen sollen Unternehmen entscheiden können, worauf beim Social-Media-Einsatz geachtet werden soll. Die Handlungsempfehlungen basieren auf durch die empirische Forschung gewonnenen Erkenntnissen von Expert:innen. Hierbei wurde darauf geachtet, dass die Betreffenden für das Unternehmen HR-Social-Media-Media betreuen und planen. In Zeiten der Digitalisierung und eines im Vollzug befindlichen Generationswechsels ist die Betreuung von Social-Media-Kanälen strategisch anzugehen.
Die Finanz- und Wirtschaftskrise 2008/09 ist Anlass für die Hinterfragung bestehender Anreizsysteme. Die vorliegende Arbeit untersucht die Beteiligung des Controllings bei der Anreizgestaltung ab diesem Zeitpunkt. Die Methodik ist eine systematische Literaturrecherche und Experteninterviews, die entlang der Gestaltungselemente des Anreizsystems ausgewertet werden. Seit dem Betrachtungszeitraum sind wesentliche Entwicklungen festzustellen von Individual- zu Gruppen-Incentivierung, vom Einsatz monetärer Anreize zu gemischten Anreizen (monetär und immateriell). Letzteres spiegelt sich in den Bemessungsgrundlagen wider, welche finanzielle und nicht-finanzielle Kennzahlen nutzen. Zur Generierung einer nachhaltigen Unternehmensentwicklung werden Long-Term-Incentives forciert. Das Controlling ist bei der Anreizgestaltung, beim Definieren von ‚Bemessungsgrundlagen‘ und ‚Anreizfunktionen‘, stark eingebunden. Die Aufgabenfelder des Controllings sind weit-gefächert: Reporting, Übersetzung von Geschäftszielen in Bemessungsgrundlagen, Wissensvermittlung, der Harmonisierung von Zielen bis zur Steuerungsfunktion bei Entscheidungen. Aus dieser Perspektive betrachtet übernimmt das Controlling zusätzliche Verantwortung und unterstützt das Management bei der Anreizgestaltung, was den Schluss nahelegt, dass eine Rollentransformation des Controllers zum Business Partner stattfindet.
Die gemeinsame Betrachtung der zwei Megatrends „Nachhaltigkeit“ und „Digitalisierung“ findet derzeit bedingt in Großunternehmen statt, wenngleich Tomorrow’s Leaders Vorreiterunternehmen in beiden Bereichen sein werden. Die Zielsetzung dieser Masterarbeit besteht darin, den Einfluss der Digitalisierung auf die nachhaltige Entwicklung bei ATX-, DAX- und SMI-Unternehmen zu untersuchen. Auf Basis eines Mixed-Methods-Ansatzes wird quantitativ der lineare Zusammenhang zwischen offengelegten Informationen im Bereich Digitalisierung und dem ESG-Rating bzw. dem Rating der einzelnen ESG-Dimensionen empirisch erforscht. Diese Resultate wurden mithilfe von Experteninterviews vertiefend validiert sowie mit Handlungsempfehlungen für die erfolgreiche Berücksichtigung von Digitainability in Großunternehmen erweitert. Anhand der Regressionsanalyse wurde jedoch kein signifikanter Zusammenhang zwischen offengelegten Digitalisierungsinformationen und dem ESG-Rating sowie E-, S- und G-Rating bzw. eine Scheinkorrelation aufgrund der Marktkapitalisierung als Indikator für die Unternehmensgröße festgestellt. Laut den Experteneinschätzungen sind diese Forschungsergebnisse nachvollziehbar, da Digitalisierung bei Großunternehmen lediglich als Hilfsmittel zur Umsetzung der Nachhaltigkeit wahrgenommen wird. Das aktive Zusammendenken beider Megatrends ist aber aufgrund des regulatorischen Drucks sowie der Wahrung der Wettbewerbsfähigkeit anzutreiben und zu pflegen, womit die formulierten Handlungsempfehlungen als Unterstützung für Großunternehmen dienen.
Nicht zuletzt seit der Pandemie sind sich Wissenschaftler einig, dass Homeoffice ein fester Bestandteil der Arbeitswelt bleiben wird. Die Coronakrise hat dabei gezeigt, wie wichtig Kompetenzen, wie digitales Know-how und Selbstorganisation, sowie eine offene Unternehmens- und partizipative Führungskultur, für den Erfolg von Homeoffice sind. So soll in der Masterarbeit am Beispiel von Vorarlberg die Forschungsfrage geklärt werden, welche Voraussetzungen für Homeoffice vorliegen müssen und wie sich Homeoffice unter Berücksichtigung soziodemografischer Moderatoren auf Angestellte mit und ohne Führungsverantwortung im Arbeits- und Privatalltag auswirkt. Zur Beantwortung der Forschungsfrage wurden die Erkenntnisse aus Literatur und Forschung mittels einer quantitativen Erhebung in Vorarlberg untersucht. Anhand dieser wird ersichtlich, dass die Rahmenbedingungen in Vorarlberg überwiegend erfüllt werden, aber einzelne, wie die Ergonomie des Heimarbeitsplatzes oder Schulungen im Umgang mit dezentraler Arbeit, noch ausbaufähig sind und Homeoffice selten einzelvertraglich vereinbart wird. Dennoch sind die Angestellten Vorarlbergs insgesamt zufrieden mit Homeoffice und sehen vor allem die Produktivität und Vereinbarkeit von Privat- und Berufsleben positiver als bei der Präsenzarbeit.
In this thesis the effect of dc voltage bias on the equivalent series resistance (ESR) of capacitors and especially ferroelectric dielectric ceramic capacitors (FDCC) is analysed. Further the influence of the dc biased ESR on the losses of capacitors is investigated. Also piezoelectric resonances (PR) occurring in FDCCs with applied dc bias and their influence on the losses are analysed.
Therefore a measurement circuit to measure the impedance and thus the ESR of capacitors in combination with a vector network analyser (VNA) is developed. Using the developed circuit the ESR of capacitors of different technologies is measured and their behaviour with dc bias is evaluated. The losses of an FDCC are measured in a power electronic (PE) circuit with a developed calorimetric measurement system (CMS). The influence of the PR is investigated by tuning the switching frequency of the PE system and thus the frequency of the capacitor current exactly into the PR. The measured losses are then compared to a calculation based on the capacitor current harmonics and the respective ESR.
The measurements show an increase of the ESR with dc bias for all measured FDCCs. The loss measurements show a significant increase of the losses in an FDCC if the current frequency matches the PR frequency. Consequently a decrease of the PE system's efficiency is measured. The loss calculations do not exactly match the measurements but there is a systematic deviation of the same order for all measurements.
Die vorliegende Arbeit beschreibt eine Methode zur Prognose von Anomalien in einzelnen Sensordaten für die Anwendung in Expertensystemen im Bereich der Biomassekraftwerke. Die in fünf Schritten beschriebene Methode beinhaltet neben der Datenaufbereitung eine Anomalievorauswahl durch eine unüberwachte Ausreißererkennung, welche mittels des PYOD-Toolkit umgesetzt wurde. Bei der anschließenden Anomaliebestimmung wird der zuvor generierte binäre Zielvektor durch einen mit dem System vertrauten Experten validiert. Eine darauffolgende überwachte binäre Klassifikation mit unbekannten Betriebsdaten ergibt, dass mittel- bis langfristige Anomalien im Mehrstunden- bis Mehrtagesbereich in Form eines Trends reproduktiv vorhergesagt werden können. Kurzfristige Anomalien im Minutenbereich in Form von Extremfällen können hingegen nicht reproduktiv vorhergesagt werden. Eine zusätzliche Untersuchung zur Vorhersage einer Anomalie noch vor deren tatsächlichen Eintrittszeitpunkt brachte keine zufriedenstellenden Ergebnisse. Demnach lässt sich mit dieser Methode nur eine bestimmte Art von Anomalien in Expertensystemen für Biomassekraftwerke vorhersagen. Dazu sollte zudem darauf geachtet werden, dass es trotz positiv erzielter quantitativer Ergebnisse notwendig ist, für die qualitative Prüfung einen mit dem System vertrauten Experten hinzuzuziehen und dass für die zu prognostizierende Anomalie die geeignete Abtastzeit zu wählen ist. Abschließend bleibt zu erwähnen, dass Anomalien, welche nur durch Über- bzw. Unterschreitung eines definierten Grenzwertes gekennzeichnet werden, als zu trivial für diese Methode gelten. Diese können über eine einfache Grenzwertbetrachtung identifiziert werden.
In den letzten Jahrzehnten gewann Aluminium als vielseitig einsetzbarer Werkstoff immer mehr an Bedeutung. Das Vorarlberger Unternehmen Hydro Extrusion Nenzing ist Teil der Aluminiumverarbeitungsindustrie und stellt stranggepresste Aluminiumprofile her. Beim Strangpressen werden Aluminiumstangen in einem Durchlaufinduktionsofen auf bis zu 520 °C erhitzt und anschließend durch ein formgebendes Werkzeug gepresst. Nach dem induktivem Aufwärmen wird ein Teil der Stange aus dem Ofen gefahren und abgeschert. Die erzeugte Temperaturverteilung an diesem abgescherten Bolzen ist der sogenannte Taper. Das induktive Aufwärmen ist ein wichtiger Teil der Extrusion und steht im Fokus dieser Forschungsarbeit. Ziel dieser Arbeit ist es, den Aufwärmprozess der Aluminiumstangen, mithilfe einer Kombination aus explorativer Datenanalyse und Methoden des maschinellen Lernens, genauer zu verstehen und den resultierenden Taper vorherzusagen. Außerdem werden parallel die signifikanten Einflussparameter, ohne Berücksichtigung von Materialparametern, untersucht.
Nach der explorativen Datenanalyse wurden mithilfe eines k-means-Clusterverfahren zwei Klassifizierungsvarianten entwickelt. In der ersten Variante liegen die Taper nach ihrer Bolzenlänge und Form gegliedert vor. Es zeigte sich, dass die Taper der Bolzen mit ähnlicher Länge auch ähnliche Formen annehmen. Ein einfacher Entscheidungsbaum konnte die 13 Zielklassen zu etwa 85 % vorhersagen. Die Bolzenlänge spielt bei der Vorhersage eine wichtige Rolle. Die zweite Klassifizierungsvariante basiert hingegen ausschließlich auf der Taperform. Die angewendeten Modelle (k-Nearest-Neighbor, Decision Tree, Random Forest) waren jedoch kaum in der Lage, die 11 Klassen abzubilden. Grund für die unzureichende Vorhersageleistung können die vielen Unsicherheiten in der Datenstruktur sein. Die anschließende detaillierte, explorative Analyse der formabweichenden Taper deutet fehlende Merkmale im Datensatz an. Einige Bolzen setzen sich aus zwei Stangenenden zusammen. Diese geteilten Bolzen führen zu abweichenden Aufwärmverhalten, wodurch auffällige Taper entstehen. Die Information ob sich ein Bolzen aus zwei Stangen zusammensetzt fehlt jedoch im Datensatz. Der Aufwärmvorgang der Stangen wird demnach durch ein Wechselspiel der aktuellen Regelung und zwei maßgeblichen Faktoren beeinflusst: die Bolzenlänge und das Auftreten von geteilten Bolzen. Diese Faktoren bestimmen die Stangentemperatur im Ofen, den induzierten Strom und somit den resultierenden Taper. Aufgrund dieser Ergebnisse könnte die temperaturbasierte Regelung zukünftig durch eine Steuerung hinsichtlich des induzierten Stroms ersetzt, dadurch Energie eingespart und Schrott vermieden werden.
In Europa und den USA werden rund 39 % des Energieverbrauchs durch den Betrieb von Gebäuden verursacht. Sie bieten somit großes Potential, den Gesamtenergieverbrauch zu verringern. Eine sinnvolle Möglichkeit dieser Umsetzung, ohne auf Gebäudekomfort verzichten zu müssen, liegt in der Optimierung der Gebäudeeffizienz. Dahingehend werden physikalische und datenbasierte Modelle als Planungstool für die Gebäudemodellierung verwendet, um frühzeitig Erkenntnisse über deren Energieverbrauch zu gewinnen. Während physikalische Modelle thermodynamische Prinzipien zur Modellierung des Energieverbrauchs einsetzen, verwenden datenbasierte Modelle historische oder allgemein verfügbare Daten, um ein Vorhersagemodell zu entwickeln. Das Ziel dieser Arbeit ist die Erstellung eines datenbasierten Modells, zur Prognose des Energieverbrauchs der Beleuchtung von Bürogebäuden. Es wurden bereits zahlreiche Studien hinsichtlich Prognosen des Energieverbrauchs erstellt. Die meisten beziehen sich jedoch auf den Gesamtenergieverbrauch oder jenen, welcher für Heizung, Kühlung oder Klimatechnik aufgewendet wird. Die Recherche des Autors ergab, dass vergleichsweise wenig Forschung für Vorhersagemodelle zur Ermittlung des Energieverbrauchs für die Beleuchtung betrieben wurde. Zur Umsetzung der Analyse stehen dem Autor Daten aus der Beleuchtungsinfrastruktur sowie Wetter-, Zeit- und Gebäudedaten zur Verfügung. Anhand dieser Arbeit soll eruiert werden, ob diese Daten hinreichend aussagekräftig sind, um ein geeignetes Modell zu entwickeln.
Das Energieinstitut Vorarlberg hat zusammen mit mehreren Regionen in Vorarlberg das Sanierungslotsenprojekt gestartet, um die Beratungssituation bei der Gebäudesanierung zu verbessern. Durch wiederholten Kundenkontakt wurde festgestellt, dass es ein Beratungsdefizit für Besitzer älterer Einfamilienhäuser gibt. Zwischen der Erkenntnis, dass eine Sanierung des Gebäudes notwendig ist und dem Zeitpunkt, an dem die ersten Leistungen bestellt werden, gibt es keine sachkundige Betreuung in den Fragestellungen der zukünftigen Gebäudenutzung. In den bisher angebotenen Beratungen werden zwar auch unterschiedliche Sanierungsvarianten miteinander verglichen. Jedoch bezieht sich der Vergleich auf Variationen von Sanierungsmaßnahmen, wie beispielsweise Dämmstoff - und Fensterqualität oder die Auswahl eines Heizungssystems. Darüber hinaus gehende Fragen über altersgerechtes Wohnen, Generationenwohnen, Nachverdichtung und Vermietung werden in diesen Beratungen nicht behandelt. In allen Fragen der zukünftigen Nutzung und den zukünftigen Anforderungen an das Gebäude, den darauf abgestimmten Sanierungszielen und der zugehörigen Kostenschätzung mit Finanzierungsberechnung sind die Besitzer auf sich gestellt.
Deshalb ist der Bedarf nach einem einfachen Rechentool, welches in einer frühen Phase der Sanierungsberatung, eine schnelle Berechnung der in Betracht kommenden Sanierungsvarianten ermöglicht, entstanden. In dieser frühen Phase ist es bislang nicht üblich eine Kostenschätzung abzugeben. Für diese Berechnungen wird eine Datenbank mit Sanierungs - und Umbaukostenelementen benötigt, sodass mit einer abgesicherten Basisdaten kalkuliert werden kann.
In der vorliegenden Masterarbeit werden eine auf Microsoft Excel basierende Datenbank und das dazugehörige Rechentool vorgestellt, die die beschriebenen Anforderungen erfüllen. Mit Hilfe der Datenbank wird eine Grundlage geschaffen, an denen sich die Sanierungslotsen orientieren können. Zusätzlich zu den Netto- und Bruttokosten, die bei den einzelnen Sanierungsmaßnahmen anfallen, werden auch Einheitskosten angegeben, die in das Rechentool eingetragen werden können.
Das Rechentool ermöglicht den Vergleich von fünf unterschiedlichen Sanierungsvarianten. Durch die freie Eingabe der Flächen können auch Varianten mit unterschiedlichen Nutzungskonzepten und unterschiedlichen Grundrissen verglichen werden. Neben einer Grobkostenrechnung der Sanierungskosten erfolgt im Tool auch die Berechnung der Förderung laut der Wohnaussanierungsrichtlinie und Energieförderungsrichtlinie des Landes Vorarlberg. Weitere Förderungen können als Einmalzuschüsse eingetragen werden. Eine vereinfachte Wirtschaftlichkeitsbetrachtung erfolgt über die Berechnung der Finanzierung der Sanierung. Hierbei werden auch Einnahmen durch Vermietung berücksichtigt.
Minuten können in medizinischen Notfällen unmittelbar die Anwendbarkeit von Behandlungsmethoden, das Ausmaß von bleibenden Einschränkungen sowie die Überlebenschancen beeinflussen. Doch hat das präklinische Notfallmanagement heute mit steigenden Einsatzzahlen, zunehmenden Einsätzen ohne Dringlichkeit und dem demografischen Wandel bei gleichzeitigem Fachkräftemangel zu kämpfen. Entsprechend gewinnt das Prozessmanagement zur Gestaltung effizienter Rettungsketten an Bedeutung. Vor diesem Hintergrund ging die vorliegende Arbeit der Frage nach, welche Potentiale die Datenanalytik in vernetzten Rettungsketten für das Prozessmanagement hat, um wertvolle Zeit zu gewinnen. Zudem wurden die Herausforderungen der Datenanalytik in diesem Bereich betrachtet. Zur Beantwortung der Forschungsfrage wurde dabei eine theoretisch-konzeptionelle Vorgehensweise gewählt. Die Untersuchung zeigte, dass die Potentiale der Datenanalytik in diesem Kontext in der Entscheidungsunterstützung zur Standortwahl, zur Kapazitätsplanung und in der Abwicklung von Notfällen liegen. Zudem könnte diese bei der Prozessanalyse, sowie der Prävention und Vermeidung von Einsätzen unterstützen. Dahingegen liegen die Herausforderungen in der Notwendigkeit einer übergeordneten Strategie, der hinreichenden Datenqualität und Verfügbarkeit der Daten. Darüber hinaus bestehen Herausforderungen im Bereich der IT-Sicherheit und des Datenschutzes, sowie der oft fehlenden Vernetzung. Zusammenfassend wären die Potentiale der Datenanalytik zur Optimierung der Zeit in Rettungsketten vielversprechend, jedoch stehen dem Einsatz dieser aktuell noch eine Vielzahl an Herausforderungen gegenüber.
Im vorliegenden Paper wird ein Vergleich zwischen Produktions-und Simulationsdaten präsentiert welches im Rahmen einer größeren Initiative zur Verwendung von Shopfloor Daten bei einem Projektpartner in der Automobilindustrie umgesetzt wurde. In diesem Projekt wurden die Daten die während der Füllbildsimulation entstehen mit den Daten aus der finalen Werkzeugabnahme verglichen um zu analysieren, wie genau diese miteinander über einstimmen. Je besser die Simulation ist, desto schneller kann der gesamte Werkzeugentwicklungsprozess abgewickelt werden, welcher als Kernprozess massives Einsparungspotenzial und damit Wettbewerbsvorteil mit sich bringt.
Daten im B2B-Ökosystem teilen und nutzen: Wie KMU Voraussetzungen schaffen und Hürden überwinden
(2024)
«Big Data» haben ein großes Potenzial, um die Wertschöpfung effizienter zu gestalten oder um Innovationen hervorzubringen. Daten werden oft an der Schnittstelle zwischen mehreren Akteuren in Business-to-Business-Ökosystemen generiert und sie müssen zwischen den Akteuren geteilt werden. Unternehmen tun sich jedoch schwer damit, Daten in Werte zu transferieren und die Daten im Ökosystem zu teilen. Ursächlich sind weniger technische Gründe als organisationale Rahmenbedingungen. Der Beitrag identifiziert fünf Perspektiven, die Hürden und Voraussetzungen in diesem Prozess darstellen: (1) eine datengetriebene Organisationskultur, (2) Vertrauen zwischen den Akteuren, (3) die Konkretisierung des Wertes von Daten, (4) Datensicherheit und (5) rechtliche und Governance-Aspekte. Eine Fallstudie eines typischen Daten-Ökosystems um ein produzierendes KMU konkretisiert diese Voraussetzungen und Hürden. Es zeigt sich, dass sich Unternehmen, die Daten im Ökosystem teilen möchten, ganzheitlich verändern müssen.
The purpose of an energy model is to predict the energy consumption of a real system and to use this information to address challenges such as rising energy costs, emission reduction or variable energy availability. Industrial robots account for an important share of electrical energy consumption in production, which makes the creating of energy models for industrial robots desirable. Currently, energy modeling methods for industrial robots are often based on physical modeling methods. However, due to the increased availability of data and improved computing capabilities, data-driven modeling methods are also increasingly used in areas such as modeling and system identification of dynamic systems. This work investigates the use of current data-driven modeling methods for the creation of energy models focusing on the energy consumption of industrial robots.
For this purpose, a robotic system is excited with various trajectories to obtain meaningful data about the system behavior. This data is used to train different artificial neural network (ANN) structures, where the structures used can be categorized into (i) Long Short Term Memory Neural Network (LSTM) with manual feature engineering, where meaningful features are extracted using deeper insights into the system under consideration, and (ii) LSTM with Convolutional layers for automatic feature extraction. The results show that models with automatic feature extraction are competitive with those using manually extracted features. In addition to the performance comparison, the learned filter kernels were further investigated, whereby similarities between the manually and automatically extracted features could be observed. Finally, to determine the usefulness of the derived models, the best-performing model was selected for demonstrating its performance on a real use case.
Das Forschungsprojekt Data Sharing Framework untersuchte Data Sharing im Kontext von datenbasierten Services und Produkten in Ökosystemen aus fünf Perspektiven: Kultur, Vertrauen, Wert, Recht & Governance, Sicherheit. Die Forschungsergebnisse bestätigen die Relevanz dieser Perspektiven und es hat sich gezeigt, dass diese Aspekte sowohl Barrieren als auch Treiber für Datennutzung und -austausch zwi- schen Unternehmen darstellen.
Ausgangspunkt waren die folgenden forschungs- und praxisleitenden Annahmen:
• These 1: KMU können durch die Nutzung und das
Teilen von Daten Mehrwerte in Form neuer Produkte und Services generieren. Aus wissenschaftlicher Sicht liegt der Fokus des Themas Daten und Data Science bisher überwiegend auf der technischen Umsetzung datenintensiver Geschäftsmodelle und Kooperationen durch die Unternehmen.
• These 2: Die technische Umsetzung ist eine notwendige Bedingung für die datenbasierte Leistun- gen, sie reicht jedoch nicht aus, um eine Kooperations- und Teilbereitschaft bei KMU hinsichtlich ihrer Daten (Daten-Teilbereitschaft) auszulösen. Zahlreiche Stakeholder zögern, Daten zu teilen, vor allem in einem grenzüberschreitenden Kontext, wie z.B. in der Programmregion.
• These 3: KMU benötigen Data Access und Data Trust Strukturen, um mögliche Kooperationspotenziale tatsächlich zu heben. Dies erfordert u.a. gemeinsa- me Standards, ein annäherndes Verständnis vom Wert der Daten, Data-Governance in Kombination mit zu definierenden Trust-Standards, welche die erforderliche formelle und informelle Sicherheit bieten.
Nachfolgend wird ein Überblick über die hieraus hervorgegangenen Ergebnisse gegeben:
Kultur
Die Perspektive der Organisationskultur stellt das Denken und Handeln im Unternehmen und im Ökosystem in den Mittelpunkt. Eine Organisationskultur, welche die Arbeit mit Daten, Data Science Praktiken und vor allem das Teilen von Daten ermöglicht, stellt Daten in den Mittelpunkt des Wertschöpfungsprozesses. Dies erfordert eine generelle Sensibilisierung
für das Thema Daten, durchlässige Grenzen im und zwischen Unternehmen, ebenso wie ein neues Verständnis von Rollen, Strukturen und Prozessen im Unternehmen.
Vertrauen
Das Vertrauen ist im Ökosystem von großer Bedeutung. Das Einbeziehen von internen Stakeholdern und das Starten mit kleineren Pilotprojekten wird vorgeschlagen, um Vertrauen innerhalb der Organisation und mit externen Partnern zu schaffen.
Wert
Als notwendige Voraussetzung wird der Wert der Daten hervorgehoben. Unternehmen sollten den potenziellen Wert der Datenflüsse kennen, bevor sie sich entscheiden, ob sie diese Daten teilen und nutzen möchten. Es wird empfohlen, eine grobe Quanti- fizierung des Wertflusses vorzunehmen oder gegebe- nenfalls eine detailliertere Analyse durchzuführen.
Recht & Governance
Für die Berücksichtigung rechtlicher Rahmenbedingungen gemeinsamer Datennutzung sollten Organisationen zunächst eine interne Data Governance etablieren, um auf neue regulatorische Entwicklungen reagieren zu können. Die Einrichtung von Data-Asset-Management, Data-IP und -Compliance-Ma-nagement und Data-Contract-Management wird hier empfohlen.
Datensicherheit
Im Sicherheitskontext sind Methoden zur Gewährleistung der Datenintegrität, Privatsphäre und Sicherheit entscheidend. Es wird empfohlen, einen kollaborativen Ansatz zur Implementierung von Sicherheitsstandards zu verfolgen und dabei IKT-Experten einzubeziehen. Anfänglich können Best Practices ausreichen, aber längerfristig sollte eine kontinuierliche Sicherheitsrisikobewertung und Ge- schäftsprozessintegration angestrebt werden.
Daten werden heute oft auch als das «neue Gold» bezeichnet. Denn die letzten Jahre haben gezeigt, dass Daten die Grundlage erstaunlicher unter- nehmerischer Erfolgsgeschichten sein können. Dabei ist die Arbeit mit Daten nicht grundlegend neu. Vielmehr geht es heute im Vergleich zu früher um nahezu unendlich grossen Mengen an Daten, die im Rahmen nahezu aller denkbaren Prozesse oder Schnittstellen gesammelt, gespeichert und ausgewertet werden können. Unter anderem beinhaltet dies Maschinendaten, unternehmens- interne Prozesse oder Daten über Kunden und den Markt, welche die Grundlage für lernende Systeme (Künstliche Intelligenz) bilden. Wir können heute davon ausgehen, dass künftig nicht mehr die technische Machbarkeit, sondern die mensch- liche Vorstellungskraft die Grenzen des Möglichen definiert.
Bekannt sind vor allem etliche Erfolgsgeschichten von Grossunternehmen, die ihr Geschäft auf Daten aufbauen. Etablierte KMU sind hingegen noch zögerlicher, mit Daten zu arbeiten und diese wertschöpfend einzusetzen. Diese Broschüre geht auf die besondere Situation von KMU im Umgang mit Daten und Data Science ein. Denn auch für KMU kann es lohnend oder sogar zwingend notwendig sein, sich mit dem Thema «Data Science» zu beschäftigen. Daten und Data Science bieten grosse
Chancen, sie können aber auch zu einer Bedrohung im Wettbewerb werden. Und, zu lange warten sollten KMU nicht, die Zeit drängt. Denn Geschwindigkeit ist einer der zentralen Wettbewerbsfaktoren im digitalen Zeitalter. Das IBH-Lab KMUdigital unter- stützt KMU dabei, den herausfordernden Weg in eine digitale Zukunft schneller und einfacher zu gehen.
Diese Broschüre geht daher insbesondere auf die Rolle von Daten und Data Science für KMU in der Bodenseeregion ein. Sie stellt eine Zusammen- fassung ausgewählter Erkenntnisse und Handlungs- empfehlungen dar, die wir in einem zweijährigen Forschungsprojekt gemeinsam mit 16 Unternehmen aus der Bodenseeregion gewinnen konnten. Die Erkenntnisse sollen KMU bei der Nutzung von Daten anhand von Data Science unterstützen. Dabei ist es kein Ziel, dass KMU zu einem «kleinen Google» werden. Vielmehr braucht es KMU- spezifische Lösungen und Überlegungen, wie mit Daten sinnvoll, zielorientiert und ressourcen- schonend umgegangen werden kann. Wie kann das aussehen? Welche Chancen, Herausforderungen und Lösungen bieten sich KMU vor dem Hinter- grund ihrer besonderen Situation? Was muss dazu im Unternehmen verändert werden? Welche Unterschiede bestehen im Vergleich zu Gross- unternehmen auf diesem Weg?
Diese und weitere Fragen stehen im Mittelpunkt des vorliegenden Projektberichts zum Einzelprojekt «Data Science für KMU leicht gemacht» oder kurz «Data Science 4 KMU» bzw. «Data4KMU», welches unter dem Dach des IBH-Labs KMUdigital in den Jahren 2018 bis 2019 durchgeführt wurde. Dazu werden Daten und Data Science aus mehreren Perspektiven betrachtet, die nicht unabhängig voneinander sind: Strategie und Geschäftsmodell, Services und Prozesse, Leadership, HRM und
Organisation, Organisationskultur und Ganzheitichkeit, sowie Technologie. Diese Perspektiven greifen wir in den nachfolgenden Kapiteln auf.
Die vorliegende Broschüre wäre ohne die wertvolle Unterstützung der Praxispartner des Projektes, des Managements des IBH-Labs KMUdigital sowie ohne die finanzielle Projektförderung durch die Inter- nationale Bodenseehochschule (IBH) und Interreg nicht möglich gewesen. Ihnen allen gilt unser ganz besonderer Dank!
In den letzten Jahren wurde den technischen Aspekten der Datenanalyse viel Aufmerksamkeit gewidmet, den organisatorischen Implikationen jedoch nur wenig, was dazu geführt hat, dass eine Reihe von Unternehmen nicht in der Lage war, den vollen Nutzen aus ihren Data Analytics-Investitionen zu ziehen was u.a. dazu führte das die Potenziale von Data Analytics nicht vollständig ausgeschöpft wurden. Ziel dieser Arbeit ist es, die organisatorischen Herausforderungen aus der Sicht des Managements, der Kultur und der Organisation zu beleuchten und unter der theoretischen Orientierung des „Dynamic Capability View“ die Haupttreiber für die organisatorische Verankerung von Data Analytics zu beleuchten, um die Potenziale der evidenzbasierten Entscheidungsfindung in einer datengetriebenen Organisation voll auszuschöpfen. Die Literaturarbeit zu Data Analytics und ihren organisatorischen Auswirkungen, die auf der Grundlage einer theoretisch-konzeptionellen Forschungsarbeit durchgeführt wurde, zeigt, dass es in diesem Kontext eine Vielzahl von Parametern gibt, die sich gegenseitig beeinflussen. Diese Studie hat gezeigt, dass Unternehmen einen ganzheitlichen Ansatz verfolgen müssen, um die Vorteile der modernen Data-Analytics-Methoden voll ausschöpfen zu können. Die Ergebnisse deuten darauf hin, dass die Hauptantriebskräfte für Datenanalysefähigkeiten gut ausgebildete Manager mit einem ausgeprägten analytischen Verständnis sind, die von klar definierten evidenzbasierten Prozessen geleitet werden, welche in einer hoch kultivierten datengetriebenen Kultur eingebettet sind. Dies ist die Grundlage für Wettbewerbsvorteile in hochdynamischen Umgebungen und führt in weiterer Folge zu einem höheren Niveau der Wertschöpfung.
Um Data Analytics gezielt und effektiv einzusetzen, gilt es als wichtig, die organisationale Reife eines Unternehmens in Bezug auf die Umsetzung von Data Analytics zu messen und zu verstehen. Da viele Unternehmen allerdings noch nicht bereit für die Implementierung von Supply Chain Analytics sind, benötigen sie ein Tool mit dem die eigene organisationale Reife gemessen und verbessert werden kann. Dafür wird in dieser Arbeit ein Readiness-Assess- ment-Framework entwickelt, das die organisationale Reife eines Unternehmens bestimmt und mittels ergänzendem Leitfaden Möglichkeiten zur Optimierung der eigenen Reife aufzeigt. Die Besonderheit dieses Assessments liegt in der Aufteilung in einzelne organisationale und tech- nologische Kategorien sowie deren Erfolgsfaktoren. Der Aufbau dieser Arbeit folgt dem De- sign-Science-Ansatz von Peffers et al. (2006). Mittels eines Literature Reviews und Expert:in- neninterviews wurden die Kategorien und Erfolgsfaktoren für das Assessment identifiziert und verifiziert. Nach der Entwicklung des Assessments wurde in einem Workshop die Praxistaug- lichkeit des Frameworks überprüft. Abschließend werden Ansatzpunkte für künftige Weiter- entwicklungen des Frameworks dargestellt.