Refine
Year of publication
Document Type
- Article (450)
- Master's Thesis (412)
- Conference Proceeding (396)
- Part of a Book (231)
- Book (107)
- Report (28)
- Other (18)
- Doctoral Thesis (14)
- Working Paper (9)
- Preprint (5)
Institute
- Wirtschaft (350)
- Forschungszentrum Mikrotechnik (253)
- Technik | Engineering & Technology (194)
- Forschungszentrum Business Informatics (168)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (164)
- Soziales & Gesundheit (145)
- Forschungsgruppe Empirische Sozialwissenschaften (117)
- Forschungszentrum Human Centred Technologies (102)
- Forschungszentrum Energie (88)
- Didaktik (mit 31.03.2021 aufgelöst; Integration ins TELL Center) (68)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Soziale Arbeit (15)
- Digitalisierung (14)
- Controlling (11)
- Laser ablation (11)
- Y-branch splitter (11)
- arrayed waveguide gratings (11)
- +KDC 122 (9)
Digitalization is changing business models and operational processes. At the same time, improved data availability and powerful analytical methods are influencing controlling and increasingly require the use of statistical and information technology skills and knowledge. Using a case study from marketing controlling, the article shows the use of business analytics methods and addresses the tasks of controlling in the digital age.
Statistische Methodenkompetenz wird im Controlling zunehmend bedeutender, so ist die evidenzbasierte Prognose durch algorithmische Analyse von Datenbeständen ein Schwerpunkt von Controlling Analytics. Die Fallstudie durchleuchtet daher anhand von Datenmaterial des Schweizer Bundesamts für Statistik das Vorgehen bei einer Datenanalyse, insbesondere beim Einsatz der Zeitregression für Prognosezwecke, und geht dabei auf methodische Besonderheiten, Caveats und Einsatzmöglichkeiten in Microsoft Excel ein. Die Fallbeschreibung und Aufgaben sind im WiSt-Heft Nr. 4/23 zu finden.
Controlling Analytics: Einsatz für Prognosen im Controlling - Teil 1: Fallbeschreibung und Aufgaben
(2023)
Statistische Methodenkompetenz wird im Controlling zunehmend bedeutender, so ist die evidenzbasierte Prognose durch algorithmische Analyse von Datenbeständen ein Schwerpunkt von Controlling Analytics. Die Fallstudie durchleuchtet daher anhand von Datenmaterial des Schweizer Bundesamts für Statistik das Vorgehen bei einer Datenanalyse, insbesondere beim Einsatz der Zeitregression für Prognosezwecke, und geht dabei auf methodische Besonderheiten, Caveats und Einsatzmöglichkeiten in Microsoft Excel ein.
By a simple femtosecond laser process, we fabricated metal-oxide/gold composite films for electrical and optical gas sensors. We designed a dripple wavelength AWG-spectrometer, matched to the plasma absorption wavelength region of the composite films. H2/CO absorptions fit well with the AWG design for multi gas detection sensor arrays
Pooled data from published reports on infants with clinically diagnosed vitamin B12 (B12) deficiency were analyzed with the purpose of describing the presentation, diagnostic approaches, and risk factors for the condition to inform prevention strategies. An electronic (PubMed database) and manual literature search following the PRISMA approach was conducted (preregistration with the Open Science Framework, accessed on 15 February 2023). Data were described and analyzed using correlation analyses, Chi-square tests, ANOVAs, and regression analyses, and 102 publications (292 cases) were analyzed. The mean age at first symptoms (anemia, various neurological symptoms) was four months; the mean time to diagnosis was 2.6 months. Maternal B12 at diagnosis, exclusive breastfeeding, and a maternal diet low in B12 predicted infant B12, methylmalonic acid, and total homocysteine. Infant B12 deficiency is still not easily diagnosed. Methylmalonic acid and total homocysteine are useful diagnostic parameters in addition to B12 levels. Since maternal B12 status predicts infant B12 status, it would probably be advantageous to target women in early pregnancy or even preconceptionally to prevent infant B12 deficiency, rather than to rely on newborn screening that often does not reliably identify high-risk children.
Grey Box models provide an important approach for control analysis in the Heating, Ventilation and Air Conditioning (HVAC) sector. Grey Box models consist of physical models where parameters are estimated from data. Due to the vast amount of component models that can be found in literature, the question arises, which component models perform best on a given system or dataset? This question is investigated systematically using a test case system with real operational data. The test case system consists of a HVAC system containing an energy recovery unit (ER), a heating coil (HC) and a cooling coil (CC). For each component, several suitable model variants from the literature are adapted appropriately and implemented. Four model variants are implemented for the ER and five model variants each for the HC and CC. Further, three global optimization algorithms and four local optimization algorithms to solve the nonlinear least squares system identification are implemented, leading to a total of 700 combinations. The comparison of all variants shows that the global optimization algorithms do not provide significantly better solutions. Their runtimes are significantly higher. Analysis of the models shows a dependency of the model accuracy on the number of total parameters.
Purpose – The purpose of this study is to explore the exogenous and endogenous drivers of the high-growth of Unicorn start-ups along their life cycle, with a particular focus on Unicorns in the fintech industry.
Design/methodology/approach – The study employs an explorative longitudinal analysis with a matched pair of two cases of Unicorns start-ups with similar antecedent features to understand holistically drivers over the longer term.
Findings – High-growth patterns over the longer term are the result of a combined industry- and company-life cycle perspective. Drivers and growth patterns vary significantly according to the time of entry in the industry and
its development status. The findings are systematised within a set of propositions to be tested in future research.
Research limitations/implications – The limitations lie in empirical evidence, as the analysis is limited to one matched-pair. The revealed Unicorns’ drivers for long-term growth might encourage future research to further investigate these drivers on a larger scale.
Practical implications – The study offers practical recommendations for start-ups with high-growth ambitions and advice to policy makers regarding the development of tailor-made support programs.
Originality/value – The study significantly extends extant work on growth and high-growth by examining endogenous and exogenous triggers over time and by linking the Unicorn-life cycle to the industry life cycle, an approach which has, to the best of the authors’ knowledge, not yet been applied.
International Entrepreneurship explains the opportunities and challenges facing internationalizing entrepreneurial ventures. The book inlcudes a thorough discussion of fundamentals as well as contemporary research findings. Numerous cases, featuring diverse contexts, illustrate theory and help classroom use.
Akademisierung der Pflege
(2023)
Akademisierung der Pflege
Überführungsprozess der sekundären Pflegeausbildung in den tertiären Bildungssektor
Hintergrund:
In der Entwicklung von tertiären Bildungsangeboten in der Pflege gelten angloamerikanische und
nordeuropäische Länder als Vorreiter. Im Vergleich dazu setzte die Tertiärisierung der Pflegeausbildung im deutschsprachigen Raum erst verzögert ein. In Österreich waren, ähnlich der Schweiz und Deutschland, berufsqualifizierende Abschlüsse der Pflegeausbildung traditionell nicht im Hochschulbereich verankert, sondern Gesundheits- und Krankenpflege-Schulen übernahmen die berufsqualifizierende Pflegeausbildung auf sekundärem Bildungsniveau. Mit der Novellierung des Gesundheits- und Krankenpflegegesetztes im Jahr 2016 dekretierte Österreich im Rahmen einer umfassenden Ausbildungsreform und mit einer Übergangsfrist bis 2024 die vollständige Ausbildungsüberführung der sekundären Pflegeausbildung (gehobener Dienst) in den tertiären Hochschulsektor. Bei diesem Transformationsprozess treffen nicht nur unterschiedliche Institutionen, Organisationen und Ausbildungskulturen aufeinander, sondern auch verschiedene Systempartner*innen mit divergierenden Interessen, Motiven und Erwartungshaltungen, die zur Dynamik und Komplexität der Ausbildungsüberführung beitragen.
Ziel:
Vor dem theoretischen Hintergrund der Professionssoziologie konzentriert sich diese Dissertation auf das empirische Phänomen des Überführungsprozesses der sekundären Pflegeausbildung (gehobener Dienst) in den tertiären Bildungssektor am Beispiel der Entwicklung in Vorarlberg (Österreich). Für die theoretische Einbettung bzw. Interpretation des empirischen Praxisbeispiels dient der professionstheoretische Ansatz von Andrew Abbott, um die Ausbildungstransformation als komplexen und dynamischen Prozess mit unterschiedlichen Perspektiven, Interessen und Ansprüchen jener Systempartner*innen zu verstehen, die den Transformationsprozess verantworten und intensiv in die Umsetzung der Ausbildungsüberführung involviert sind. Durch die Anwendung von Abbotts Theorieansatz auf den Fall der Akademisierung der Pflegeausbildung leistet diese Studie einen Beitrag zur Fachliteratur der Professionalisierung der Pflege.
Methodik:
Zur Exploration dient eine qualitative Einzelfallstudie, die sich über fünf Jahre erstreckt und multiple Datenquellen (Datentriangulation) nutzt, um unterschiedliche Daten, Informationen und Perspektiven aus Einzel- und Gruppeninterviews, Dokumenten und Forschungstagebuch zusammenzuführen. Die Verwendung unterschiedlicher Datenquellen dient der Strategie, ein tiefes und fundiertes Verständnis des untersuchten Forschungsphänomens zu erlangen.
Ergebnis:
Als Beitrag zur bestehenden Fachliteratur erläutert diese Studie nicht nur den Prozessverlauf mit seinen Meilensteinen, Merkmalen und Ereignissen, sondern zeigt, dass unterschiedliche Interessen, Ansprüche und Hintergründe der verantwortlichen Systempartner*innen den Transformationsprozess und dessen Ausrichtung wesentlich beeinflussen. Divergierende Erwartungshaltungen, Motive und Ansprüche prägen nicht nur Verlauf und Ausrichtung der Überführung, sondern dienen auch als Erklärungsansatz, wie die beteiligten Systempartner*innen agieren, ihre Entscheidungen bzw. Handlungen im Transformationsprozess verantworten und somit zur Dynamik und Komplexität der Ausbildungsüberführung beitragen. Des Weiteren zeigt diese Studie in Anbetracht des österreichischen Bildungskontextes, dass sich der Transformationsprozess der Bachelor-Einführung nicht nur isoliert, sondern eingebettet als Teil einer übergreifenden Ausbildungsreform analysieren lässt, da die Tertiärisierung der Pflegeausbildung weitere Mechanismen und Reaktionen auslöst, die den Ausbildungs- und Berufssektor der Pflege gesamthaft und langfristig betreffen.
Schlussfolgerung:
Die Tertiärisierung der Pflegeausbildung stellt einen langfristigen Transformationsprozess dar, der nicht mit dem Berufseinstieg der Bachelor-Absolvent*innen oder mit einer gesetzlich definierten Überführungsfrist abgeschlossen ist. Die Ausbildungsüberführung sollte im Sinne Abbotts als komplexen und dynamischen Transformationsprozess verstanden werden, der auf verschiedenen Handlungsebenen und mit unterschiedlichen Interessen, Motiven und Ansprüchen stattfindet. Die Akademisierung der Pflegeausbildung erfordert daher einen langfristigen Zeithorizont in der Umsetzung und Prozessbegleitung, um den Systemwechsel auf mehreren Ebenen im Bildungs- und Berufssektor umzusetzen und einen Bewusstseinswandel bei den involvierten Stakeholdergruppen zu erreichen. Dadurch zeichnen sich weiterführende Forschungspotenziale ab.
Schlagwörter:
Akademisierung, Akademisierungsprozess, Transformation, Überführung, Prozess Pflege, Pflegeausbildung, Pflegestudium, Professionalisierung, Professionssoziologie, Professionstheorien, Andrew Abbott,
Einzelfallstudie, Datentriangulation
The main aims of this work are the validation of the developed process of gluing a single-mode optical fiber array with a photonic chip and the selection of a more suitable adhesive from the two adhesives being compared. An active alignment system was used for adjusting the two optical fiber arrays to a photonics chip. The gluing was done by two compared UV curable adhesives applied in the optical path. The insertion losses of glued coupling were measured and investigated at two discrete wavelengths 1310 nm and 1550 nm during temperature testing in the climatic chamber according to Telcordia GR_1209_Corei04 [3]. The measurement, investigation, and comparison of insertion losses of the glued coupling at the spectral band from 1530 nm to 1570 nm were done immediately after gluing process and after three temperature cycles in the climatic chamber with one month delay.
In 2021, a prominent Austria dairy producer suffered from an IT attack and was completely paralysed. Without clearly defined mitigation measures in place, major disruptions were caused alongside the whole supply chain, including logistics service providers, governmental food safety bodies, as well as retailers (i.e., supermarkets and convenience stores). In this paper, we ask the question how digitisation and digital transformation impact IT security, especially when considering the complex company ecosystems of food production and food supply chains in Austria. The problem statement stems from a gap in knowledge of key differences in approaches towards IT security, resilience, risk management and especially business interfaces between food suppliers, supermarkets, distributors, logistics and other service providers. In order to answer related research questions, firstly, the authors conduct literature research, and highlight common guidelines and standardisation as well as look at state-based recommendations for critical infrastructure. In a second step, the paper describes a quantitative and qualitative survey with Austrian food companies (producers and retailers) which is described in detail in the paper. A description of recommended measures for the industry, further steps, as well as an outlook conclude the paper.
Background: Cardiovascular disease is the major cause of death worldwide. Although knowledge regarding diagnosing and treating cardiovascular disease has increased dramatically, secondary prevention remains insufficiently implemented due to failure among affected individuals to adhere to guideline recommendations. This has continued to lead to high morbidity and mortality rates. Involving patients in their healthcare and facilitating their active roles in their chronic disease management is an opportunity to meet the needs of the increasing number of cardio-vascular patients. However, simple recall of advice regarding a more preventive lifestyle does not affect sustainable behavioral lifestyle changes. We investigate the effect of plaque visualization combined with low-threshold daily lifestyle tasks using the smartphone app PreventiPlaque to evaluate change in cardiovascular risk profile. Methods: and study design: This randomized, controlled clinical trial includes 240 participants with ultrasound evidence of atherosclerotic plaque in one or both carotid arteries, defined as focal thickening of the vessel wall measuring 50% more than the regular vessel wall. A criterion for participation is access to a smartphone suitable for app usage. The participants are randomly assigned to an intervention or a control group. While both groups receive the standard of care, the intervention group has additional access to the PreventiPlaque app during the 12-month follow-up. The app includes daily tasks that promote a healthier lifestyle in the areas of smoking cessation, medication adherence, physical activity, and diet. The impact of plaque visualization and app use on the change in cardiovascular risk profile is assessed by SCORE2. Feasibility and effectiveness of the PreventiPlaque app are evaluated using standardized and validated measures for patient feedback.
The production of liquid-gas mixtures with desired properties still places high demands on process technology and is usually realized in bubble columns. The physical calculation models used have individual dimensionless factors which, depending on the application, are only valid for small ranges consisting of flow velocity, nozzle geometry and test setup. An iterative but time-consuming design of such dispersion processes is used in industry for producing a liquid-gas mixture according to desired requirements. In the present investigation, we accelerate the necessary design loops by setting up a physical model, which consists of several subsystems that are enriched by dedicated experiments to realize liquid-gas dispersions with low volume fraction and small air bubble diameters in oil. Our approach allows the extraction of individual dimensionless factors from maps of the introduced subsystems. These maps allow for targeted corrective measures of a production process for keeping the quality. The calculation-based approach avoids the need for performing iterative design loops. Overall, this approach supports the controlled generation of liquid-gas mixtures.
Creating a schedule to perform certain actions in a realworld environment typically involves multiple types of uncertainties. To create a plan which is robust towards uncertainties, it must stay flexible while attempting to be reliable and as close to optimal as possible. A plan is reliable if an adjustment to accommodate for a new requirement causes only a few disruptions. The system needs to be able to adapt to the schedule if unforeseen circumstances make planned actions impossible, or if an unlikely event would enable the system to follow a better path. To handle uncertainties, the used methods need to be dynamic and adaptive. The planning algorithms must be able to re-schedule planned actions and need to adapt the previously created plan to accommodate new requirements without causing critical disruptions to other required actions.
Das Forschungsprojekt Data Sharing Framework untersuchte Data Sharing im Kontext von datenbasierten Services und Produkten in Ökosystemen aus fünf Perspektiven: Kultur, Vertrauen, Wert, Recht & Governance, Sicherheit. Die Forschungsergebnisse bestätigen die Relevanz dieser Perspektiven und es hat sich gezeigt, dass diese Aspekte sowohl Barrieren als auch Treiber für Datennutzung und -austausch zwi- schen Unternehmen darstellen.
Ausgangspunkt waren die folgenden forschungs- und praxisleitenden Annahmen:
• These 1: KMU können durch die Nutzung und das
Teilen von Daten Mehrwerte in Form neuer Produkte und Services generieren. Aus wissenschaftlicher Sicht liegt der Fokus des Themas Daten und Data Science bisher überwiegend auf der technischen Umsetzung datenintensiver Geschäftsmodelle und Kooperationen durch die Unternehmen.
• These 2: Die technische Umsetzung ist eine notwendige Bedingung für die datenbasierte Leistun- gen, sie reicht jedoch nicht aus, um eine Kooperations- und Teilbereitschaft bei KMU hinsichtlich ihrer Daten (Daten-Teilbereitschaft) auszulösen. Zahlreiche Stakeholder zögern, Daten zu teilen, vor allem in einem grenzüberschreitenden Kontext, wie z.B. in der Programmregion.
• These 3: KMU benötigen Data Access und Data Trust Strukturen, um mögliche Kooperationspotenziale tatsächlich zu heben. Dies erfordert u.a. gemeinsa- me Standards, ein annäherndes Verständnis vom Wert der Daten, Data-Governance in Kombination mit zu definierenden Trust-Standards, welche die erforderliche formelle und informelle Sicherheit bieten.
Nachfolgend wird ein Überblick über die hieraus hervorgegangenen Ergebnisse gegeben:
Kultur
Die Perspektive der Organisationskultur stellt das Denken und Handeln im Unternehmen und im Ökosystem in den Mittelpunkt. Eine Organisationskultur, welche die Arbeit mit Daten, Data Science Praktiken und vor allem das Teilen von Daten ermöglicht, stellt Daten in den Mittelpunkt des Wertschöpfungsprozesses. Dies erfordert eine generelle Sensibilisierung
für das Thema Daten, durchlässige Grenzen im und zwischen Unternehmen, ebenso wie ein neues Verständnis von Rollen, Strukturen und Prozessen im Unternehmen.
Vertrauen
Das Vertrauen ist im Ökosystem von großer Bedeutung. Das Einbeziehen von internen Stakeholdern und das Starten mit kleineren Pilotprojekten wird vorgeschlagen, um Vertrauen innerhalb der Organisation und mit externen Partnern zu schaffen.
Wert
Als notwendige Voraussetzung wird der Wert der Daten hervorgehoben. Unternehmen sollten den potenziellen Wert der Datenflüsse kennen, bevor sie sich entscheiden, ob sie diese Daten teilen und nutzen möchten. Es wird empfohlen, eine grobe Quanti- fizierung des Wertflusses vorzunehmen oder gegebe- nenfalls eine detailliertere Analyse durchzuführen.
Recht & Governance
Für die Berücksichtigung rechtlicher Rahmenbedingungen gemeinsamer Datennutzung sollten Organisationen zunächst eine interne Data Governance etablieren, um auf neue regulatorische Entwicklungen reagieren zu können. Die Einrichtung von Data-Asset-Management, Data-IP und -Compliance-Ma-nagement und Data-Contract-Management wird hier empfohlen.
Datensicherheit
Im Sicherheitskontext sind Methoden zur Gewährleistung der Datenintegrität, Privatsphäre und Sicherheit entscheidend. Es wird empfohlen, einen kollaborativen Ansatz zur Implementierung von Sicherheitsstandards zu verfolgen und dabei IKT-Experten einzubeziehen. Anfänglich können Best Practices ausreichen, aber längerfristig sollte eine kontinuierliche Sicherheitsrisikobewertung und Ge- schäftsprozessintegration angestrebt werden.
Im vorliegenden Paper wird ein Vergleich zwischen Produktions-und Simulationsdaten präsentiert welches im Rahmen einer größeren Initiative zur Verwendung von Shopfloor Daten bei einem Projektpartner in der Automobilindustrie umgesetzt wurde. In diesem Projekt wurden die Daten die während der Füllbildsimulation entstehen mit den Daten aus der finalen Werkzeugabnahme verglichen um zu analysieren, wie genau diese miteinander über einstimmen. Je besser die Simulation ist, desto schneller kann der gesamte Werkzeugentwicklungsprozess abgewickelt werden, welcher als Kernprozess massives Einsparungspotenzial und damit Wettbewerbsvorteil mit sich bringt.
The usage of data gathered for Industry 4.0 and smart factory scenarios continues to be a problem for companies of all sizes. This is often the case because they aim to start with complicated and time-intensive Machine Learning scenarios. This work evaluates the Process Capability Analysis (PCA) as a pragmatic, easy and quick way of leveraging the gathered machine data from the production process. The area of application considered is injection molding. After describing all the required domain knowledge, the paper presents an approach for a continuous analysis of all parts produced. Applying PCA results in multiple key performance indicators that allow for fast and comprehensible process monitoring. The corresponding visualizations provide the quality department with a tool to efficiently choose where and when quality checks need to be performed. The presented case study indicates the benefit of analyzing whole process data instead of considering only selected production samples. The use of machine data enables additional insights to be drawn about process stability and the associated product quality.