Refine
Year of publication
Document Type
- Article (67)
- Conference Proceeding (22)
- Report (14)
- Part of a Book (4)
- Master's Thesis (3)
- Book (2)
- Doctoral Thesis (2)
- Other (2)
- Working Paper (2)
Institute
- Forschungszentrum Business Informatics (27)
- Forschungszentrum Mikrotechnik (25)
- Forschungszentrum Energie (19)
- Soziales & Gesundheit (15)
- Technik | Engineering & Technology (13)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (12)
- Forschungszentrum Human Centred Technologies (11)
- Forschungsgruppe Empirische Sozialwissenschaften (9)
- Forschungszentrum Digital Factory Vorarlberg (5)
- Wirtschaft (5)
Language
- English (84)
- German (33)
- Multiple languages (1)
Has Fulltext
- yes (118) (remove)
Is part of the Bibliography
- yes (118) (remove)
Keywords
- Global optimization (3)
- Kultur (3)
- Partizipation (3)
- Peripheral arterial disease (3)
- Pflege (3)
- Rastrigin function (3)
- Y-branch splitter (3)
- Bubble column humidifier (2)
- Cloud manufacturing (2)
- Demand response (2)
In this paper, we propose and simulate a new type of three-dimensional (3D) optical splitter based on multimode interference (MMI) for the wavelength of 1550 nm. The splitter was proposed on the square basis with the width of 20 x 20 µm2 using the IP-Dip polymer as a standard material for 3D laser lithography. We present the optical field distribution in the proposed MMI splitter and its integration possibility on optical fiber. The design is aimed to the possible fabrication process using the 3D laser lithography for forthcoming experiments.
Power plant operators increasingly rely on predictive models to diagnose and monitor their systems. Data-driven prediction models are generally simple and can have high precision, making them superior to physics-based or knowledge-based models, especially for complex systems like thermal power plants. However, the accuracy of data-driven predictions depends on (1) the quality of the dataset, (2) a suitable selection of sensor signals, and (3) an appropriate selection of the training period. In some instances, redundancies and irrelevant sensors may even reduce the prediction quality.
We investigate ideal configurations for predicting the live steam production of a solid fuel-burning thermal power plant in the pulp and paper industry for different modes of operation. To this end, we benchmark four machine learning algorithms on two feature sets and two training sets to predict steam production. Our results indicate that with the best possible configuration, a coefficient of determination of R^2 = 0.95 and a mean absolute error of MAE=1.2 t/h with an average steam production of 35.1 t/h is reached. On average, using a dynamic dataset for training lowers MAE by 32% compared to a static dataset for training. A feature set based on expert knowledge lowers MAE by an additional 32 %, compared to a simple feature set representing the fuel inputs. We can conclude that based on the static training set and the basic feature set, machine learning algorithms can identify long-term changes. When using a dynamic dataset the performance parameters of thermal power plants are predicted with high accuracy and allow for detecting short-term problems.
The Digital Factory Vorarlberg is the youngest Research Center of Vorarlberg University of Applied Sciences. In the lab of the research center a research and learning factory has been established for educating students and employees of industrial partners. Showcases and best practice scenarios for various topics of digitalization in the manufacturing industry are demonstrated. In addition, novel methods and technologies for digital production, cloud-based manufacturing, data analytics, IT- and OT-security or digital twins are being developed. The factory comprises only a minimum core of logistics and fabrication processes to guarantee manageability within an academic setup. As a product, fidget spinners are being fabricated. A webshop allows customers to individually design their products and directly place orders in the factory. A centralized SCADA-System is the core data hub for the factory. Various data analytic tools and methods and a novel database for IoT-applications are connected to the SCADA-System. As an alternative to on premise manufacturing, orders can be pushed into a cloud-based manufacturing platform, which has been developed at the Digital Factory. A broker system allows fabrication in distributed facilities and offers various optimization services. Concepts, such as outsourcing product configuration to customers or new types of engineering services in cloud-based manufacturing can be explored and demonstrated. In this paper, we present the basic concept of the Digital Factory Vorarlberg, as well as some of the newly developed topics.
In engineering design, optimization methods are frequently used to improve the initial design of a product. However, the selection of an appropriate method is challenging since many
methods exist, especially for the case of simulation-based optimization. This paper proposes a systematic procedure to support this selection process. Building upon quality function deployment, end-user and design use case requirements can be systematically taken into account via a decision
matrix. The design and construction of the decision matrix are explained in detail. The proposed
procedure is validated by two engineering optimization problems arising within the design of box-type boom cranes. For each problem, the problem statement and the respectively applied optimization methods are explained in detail. The results obtained by optimization validate the use
of optimization approaches within the design process. The application of the decision matrix shows the successful incorporation of customer requirements to the algorithm selection.
Creating a schedule to perform certain actions in a realworld environment typically involves multiple types of uncertainties. To create a plan which is robust towards uncertainties, it must stay flexible while attempting to be reliable and as close to optimal as possible. A plan is reliable if an adjustment to accommodate for a new requirement causes only a few disruptions. The system needs to be able to adapt to the schedule if unforeseen circumstances make planned actions impossible, or if an unlikely event would enable the system to follow a better path. To handle uncertainties, the used methods need to be dynamic and adaptive. The planning algorithms must be able to re-schedule planned actions and need to adapt the previously created plan to accommodate new requirements without causing critical disruptions to other required actions.
Traditional power grids are mainly based on centralized power generation and subsequent distribution. The increasing penetration of distributed renewable energy sources and the growing number of electrical loads is creating difficulties in balancing supply and demand and threatens the secure and efficient operation of power grids. At the same time, households hold an increasing amount of flexibility, which can be exploited by demand-side management to decrease customer cost and support grid operation. Compared to the collection of individual flexibilities, aggregation reduces optimization complexity, protects households’ privacy, and lowers the communication effort. In mathematical terms, each flexibility is modeled by a set of power profiles, and the aggregated flexibility is modeled by the Minkowski sum of individual flexibilities. As the exact Minkowski sum calculation is generally computationally prohibitive, various approximations can be found in the literature. The main contribution of this paper is a comparative evaluation of several approximation algorithms in terms of novel quality criteria, computational complexity, and communication effort using realistic data. Furthermore, we investigate the dependence of selected comparison criteria on the time horizon length and on the number of households. Our results indicate that none of the algorithms perform satisfactorily in all categories. Hence, we provide guidelines on the application-dependent algorithm choice. Moreover, we demonstrate a major drawback of some inner approximations, namely that they may lead to situations in which not using the flexibility is impossible, which may be suboptimal in certain situations.
Akademisierung der Pflege
(2023)
Akademisierung der Pflege
Überführungsprozess der sekundären Pflegeausbildung in den tertiären Bildungssektor
Hintergrund:
In der Entwicklung von tertiären Bildungsangeboten in der Pflege gelten angloamerikanische und
nordeuropäische Länder als Vorreiter. Im Vergleich dazu setzte die Tertiärisierung der Pflegeausbildung im deutschsprachigen Raum erst verzögert ein. In Österreich waren, ähnlich der Schweiz und Deutschland, berufsqualifizierende Abschlüsse der Pflegeausbildung traditionell nicht im Hochschulbereich verankert, sondern Gesundheits- und Krankenpflege-Schulen übernahmen die berufsqualifizierende Pflegeausbildung auf sekundärem Bildungsniveau. Mit der Novellierung des Gesundheits- und Krankenpflegegesetztes im Jahr 2016 dekretierte Österreich im Rahmen einer umfassenden Ausbildungsreform und mit einer Übergangsfrist bis 2024 die vollständige Ausbildungsüberführung der sekundären Pflegeausbildung (gehobener Dienst) in den tertiären Hochschulsektor. Bei diesem Transformationsprozess treffen nicht nur unterschiedliche Institutionen, Organisationen und Ausbildungskulturen aufeinander, sondern auch verschiedene Systempartner*innen mit divergierenden Interessen, Motiven und Erwartungshaltungen, die zur Dynamik und Komplexität der Ausbildungsüberführung beitragen.
Ziel:
Vor dem theoretischen Hintergrund der Professionssoziologie konzentriert sich diese Dissertation auf das empirische Phänomen des Überführungsprozesses der sekundären Pflegeausbildung (gehobener Dienst) in den tertiären Bildungssektor am Beispiel der Entwicklung in Vorarlberg (Österreich). Für die theoretische Einbettung bzw. Interpretation des empirischen Praxisbeispiels dient der professionstheoretische Ansatz von Andrew Abbott, um die Ausbildungstransformation als komplexen und dynamischen Prozess mit unterschiedlichen Perspektiven, Interessen und Ansprüchen jener Systempartner*innen zu verstehen, die den Transformationsprozess verantworten und intensiv in die Umsetzung der Ausbildungsüberführung involviert sind. Durch die Anwendung von Abbotts Theorieansatz auf den Fall der Akademisierung der Pflegeausbildung leistet diese Studie einen Beitrag zur Fachliteratur der Professionalisierung der Pflege.
Methodik:
Zur Exploration dient eine qualitative Einzelfallstudie, die sich über fünf Jahre erstreckt und multiple Datenquellen (Datentriangulation) nutzt, um unterschiedliche Daten, Informationen und Perspektiven aus Einzel- und Gruppeninterviews, Dokumenten und Forschungstagebuch zusammenzuführen. Die Verwendung unterschiedlicher Datenquellen dient der Strategie, ein tiefes und fundiertes Verständnis des untersuchten Forschungsphänomens zu erlangen.
Ergebnis:
Als Beitrag zur bestehenden Fachliteratur erläutert diese Studie nicht nur den Prozessverlauf mit seinen Meilensteinen, Merkmalen und Ereignissen, sondern zeigt, dass unterschiedliche Interessen, Ansprüche und Hintergründe der verantwortlichen Systempartner*innen den Transformationsprozess und dessen Ausrichtung wesentlich beeinflussen. Divergierende Erwartungshaltungen, Motive und Ansprüche prägen nicht nur Verlauf und Ausrichtung der Überführung, sondern dienen auch als Erklärungsansatz, wie die beteiligten Systempartner*innen agieren, ihre Entscheidungen bzw. Handlungen im Transformationsprozess verantworten und somit zur Dynamik und Komplexität der Ausbildungsüberführung beitragen. Des Weiteren zeigt diese Studie in Anbetracht des österreichischen Bildungskontextes, dass sich der Transformationsprozess der Bachelor-Einführung nicht nur isoliert, sondern eingebettet als Teil einer übergreifenden Ausbildungsreform analysieren lässt, da die Tertiärisierung der Pflegeausbildung weitere Mechanismen und Reaktionen auslöst, die den Ausbildungs- und Berufssektor der Pflege gesamthaft und langfristig betreffen.
Schlussfolgerung:
Die Tertiärisierung der Pflegeausbildung stellt einen langfristigen Transformationsprozess dar, der nicht mit dem Berufseinstieg der Bachelor-Absolvent*innen oder mit einer gesetzlich definierten Überführungsfrist abgeschlossen ist. Die Ausbildungsüberführung sollte im Sinne Abbotts als komplexen und dynamischen Transformationsprozess verstanden werden, der auf verschiedenen Handlungsebenen und mit unterschiedlichen Interessen, Motiven und Ansprüchen stattfindet. Die Akademisierung der Pflegeausbildung erfordert daher einen langfristigen Zeithorizont in der Umsetzung und Prozessbegleitung, um den Systemwechsel auf mehreren Ebenen im Bildungs- und Berufssektor umzusetzen und einen Bewusstseinswandel bei den involvierten Stakeholdergruppen zu erreichen. Dadurch zeichnen sich weiterführende Forschungspotenziale ab.
Schlagwörter:
Akademisierung, Akademisierungsprozess, Transformation, Überführung, Prozess Pflege, Pflegeausbildung, Pflegestudium, Professionalisierung, Professionssoziologie, Professionstheorien, Andrew Abbott,
Einzelfallstudie, Datentriangulation
Bubble column humidifiers (BCHs) are frequently used for the humidification of air in various water treatment applications. A potential but not yet profoundly investigated application of such devices is the treatment of oily wastewater. To evaluate this application, the accumulation of an oil-water emulsion using a BCH is experimentally analyzed. The amount of evaporating water vapor can be evaluated by measuring the humidity ratio of the outlet air. However, humidity measurements are difficult in close to saturated conditions, as the formation of liquid droplets on the sensor impacts the measurement accuracy. We use a heating section after the humidifier, such that no liquid droplets are formed on the sensor. This enables us a more accurate humidity measurement. Two batch measurement runs are conducted with (1) tap water and (2) an oil-water emulsion as the respective liquid phase. The humidity measurement in high humidity conditions is highly accurate with an error margin of below 3 % and can be used to predict the oil concentration of the remaining liquid during operation. The measured humidity ratio corresponds with the removed amount of water vapor for both tap water and the accumulation of an oil-water emulsion. Our measurements show that the residual water content
in the oil-water emulsion is below 4 %.
Vast amounts of oily wastewater are byproducts of the petrochemical and the shipping industry and to this day frequently discharged into water bodies either without or after insufficient treatment. To alleviate the resulting pollution, water treatment processes are in great demand. Bubble column humidifiers (BCHs) as part of humidification–dehumidification systems are predestined for such a task, since they are insensitive to different feed liquids, simple in design and have low maintenance requirements. While humidification in a bubble column has been investigated plentiful for desalination, a systematic investigation of oily wastewater treatment is missing in literature. We filled this gap by analyzing the treatment of an oil–water emulsion experimentally to derive recommendations for future design and operation of BCHs. Our humidity measurements indicate that the air stream is always saturated after humidification for a liquid height of only 10 cm. A residual water mass fraction of 3.5 wt% is measured after a batch run of six hours. Furthermore, continuous measurements show that an increase in oil mass fraction leads to a decrease in system productivity especially for high oil mass fractions. This decrease is caused by the heterogeneity of the liquid temperature profile. A lower liquid height mitigates this heterogeneity, therefore decreasing the heat demand and improving the overall efficiency. The oil content of the produced condensate is below 15 ppm, allowing discharge into various water bodies. The results of our systematic investigation prove suitability and indicate a strong future potential for the use of BCHs in oily wastewater treatment.
Activation of heat pump flexibilities is a viable solution to support balancing the grid via Demand Side Management measures and fulfill the need for flexibility options. Aggregators as interface between prosumers, distribution system operators and balance responsible parties face the challenge due to data privacy and technical restrictions to transform prosumer information into aggregated available flexibility to enable trading thereof. Thereby, literature lacks a generic, applicable and widely accepted flexibility estimation method for heat pumps,which incorporates reduced sensor and system information, system- and demand-dependent behaviour. In this paper, we adapt and extend a method from literature, by incorporating domain knowledge to overcome reduced sensor and system information. We apply data of five real-world heat pump systems, distinguish operation modes, estimate power and energy flexibility of each single heat pump system, proof transferability of the method, and aggregate the flexibilities available to showcase a small HP pool as a proof of concept.
Arbeitspaket 3: Ausschöpfung des Innovationspotentials von smarten Technologien - FH Vorarlberg
(2022)
With the digitalisation, and the increased connectivity between manufacturing systems emerging in this context, manufacturing is shifting towards decentralised, distributed concepts. Still, for manufacturing scenarios manual input or augmentation of data is required at system boundaries. Especially in distributed manufacturing environments, like Cloud Manufacturing (CMfg) systems, constant changes to the available manufacturing resources and products pose challenges for establishing connections between them. We propose a feature-oriented representation of concepts, especially from the manufacturing domain, which serves as the basis for (semi-) automatically linking, e.g., manufacturing resources and products. This linking methodologies, as well as knowledge inferred using it, is then used to support distributed manufacturing, especially in CMfg environments, and enhance product development. The concepts and methodologies are to be evaluated in a real world learning factory.
Verbraucherseitige Laststeuerung (Demand Side Management – DSM) wird als ein möglicher Ansatz betrachtet, um die Auswirkungen des Ausbaus von fluktuierenden Erneuerbaren im Stromnetz auszugleichen. Sollen viele verteilte Energiesysteme damit angesprochen werden, stellen zentralistische Ansätze dabei hohe Anforderungen an die Kommunikationsinfrastruktur. Als Alternative wird vielfach eine autonome Laststeuerung (ADSM) mit anreizbasierter Optimierung direkt auf dem Verbrauchergerät betrachtet. Dabei kann die Anreizfunktion mittels unidirektionaler Kommunikation übertragen werden.
Am Forschungszentrum Energie der Fachhochschule Vorarlberg wurden in den letzten Jahren Algorithmen und Prototypen für den Einsatz von ADSM auf verschiedensten verteilten Energiespeichern im elektrischen Stromnetz entwickelt. Dabei werden sowohl thermische Energiespeicher (z. B. Haushalts-Warmwasserspeicher) als auch elektrochemische Speicher (z. B. Batteriespeichersysteme oder Elektroautos) betrachtet. Außerdem werden die Auswirkungen solcher Systeme auf das elektrische Verteilnetz untersucht. Dieser Artikel gibt einen Überblick über die entwickelten Methoden und Ergebnisse aus diesem Forschungsfeld mit dem Ziel, ein weitreichendes Verständnis für die Chancen und Grenzen des ADSM zu schaffen.
Pooled data from published reports on infants with clinically diagnosed vitamin B12 (B12) deficiency were analyzed with the purpose of describing the presentation, diagnostic approaches, and risk factors for the condition to inform prevention strategies. An electronic (PubMed database) and manual literature search following the PRISMA approach was conducted (preregistration with the Open Science Framework, accessed on 15 February 2023). Data were described and analyzed using correlation analyses, Chi-square tests, ANOVAs, and regression analyses, and 102 publications (292 cases) were analyzed. The mean age at first symptoms (anemia, various neurological symptoms) was four months; the mean time to diagnosis was 2.6 months. Maternal B12 at diagnosis, exclusive breastfeeding, and a maternal diet low in B12 predicted infant B12, methylmalonic acid, and total homocysteine. Infant B12 deficiency is still not easily diagnosed. Methylmalonic acid and total homocysteine are useful diagnostic parameters in addition to B12 levels. Since maternal B12 status predicts infant B12 status, it would probably be advantageous to target women in early pregnancy or even preconceptionally to prevent infant B12 deficiency, rather than to rely on newborn screening that often does not reliably identify high-risk children.
The production of liquid-gas dispersions places high demands on the process technology, which requires knowledge of the bubble formation mechanisms, as well as the phase parameters of the media combinations used. To obtain the bubble sizes introduced to a flow not knowing the phase parameters, different process parameters are investigated. Their quality and applicability are evaluated. The results obtained make it possible to simplify long design processes of dispersion processes in manufacturing plants and to ensure the product quality of the products manufactured, by reducing waste.
Business Analytics zählt zu den Zukunftsthemen im Controlling. In der Controllinglehre spielt Analytics bisher aber nur eine untergeordnete Rolle. Der Beitrag beschreibt ein innovatives Lehrprojekt, das Studierende im Masterstudium Accounting, Controlling & Finance an der FH Vorarlberg befähigt, controllingrelevante Fragestellungen im Kontext von Business Analytics eigenständig zu beantworten. Gleichzeitig erlernen die Studierenden den Umgang mit der Open-Source-Software R.
The increasing digitalisation of daily routines confronts people with frequent privacy decisions. However, obscure data processing often leads to tedious decision-making and results in unreflective choices that unduly compromise privacy. Serious Games could be applied to encourage teenagers and young adults to make more thoughtful privacy decisions. Creating a Serious Game (SG) that promotes privacy awareness while maintaining an engaging gameplay requires, however, a carefully balanced game concept. This study explores the benefits of an online role-playing boardgame as a co-designing activity for creating SGs about privacy. In a between-subjects trial, student groups and educator/researcher groups were taking the roles of player, teacher, researcher and designer to co-design a balanced privacy SG concept. Using predefined design proposal cards or creating their own, students and educators played the online boardgame during a video conference session to generate game ideas, resolve potential conflicts and balance the different SG aspects. The comparative results of the present study indicate that students and educators alike perceive support from role-playing when ideating and balancing SG concepts and are happy with their playfully co-designed game concepts. Implications for supporting SG design with role-playing in remote collaboration scenarios are conclusively synthesised.
Bubble columns are recently used for the humidification of air in water treatment systems and fuel cells. They are well applicable due to their excellent heat and mass transfer and their low technical complexity. To design and operate such devices with high efficiency, the humidification process and the impact of the operating parameters need to be understood to a sufficient degree. To extend this knowledge, we use a refined and novel method to determine the volumetric air–liquid heat and mass transfer coefficients and the humidifier efficiency for various parametric settings. The volumetric transfer coefficients increase with both of the superficial air velocity and the liquid temperature. It is further shown that the decrease of vapor pressure with an increase of the salinity results in a corresponding decrease in the outlet humidity ratio. In contrast to previous studies, liquid heights smaller than 0.1 m are investigated and significant changes in the humidifier efficiency are seen in this range. We present the expected humidifier efficiency with respect to the superficial air velocity and the liquid height in an efficiency chart, such that optimal operating conditions can be determined. Based on this efficiency chart, recommendations for industrial applications as well as future scientific challenges are drawn.
Gas hydrates are usually synthesized by bringing together a pressurized gas and liquid or solid water. In both cases, the transport of gas or water to the hydrate growth site is hindered once an initial film of hydrate has grown at the water–gas interface. A seemingly forgotten gas-phase technique overcomes this problem by slowly depositing water vapor on a cold surface in the presence of the pressurized guest gas. Despite being used for the synthesis of low-formation-pressure hydrates, it has not yet been tested for hydrates of CO 2 and CH 4 . Moreover, the potential of the technique for the study of hydrate decomposition has not been recognized yet. We employ two advanced implementations of the condensation technique to form hydrates of CO 2 and CH 4 and demonstrate the applicability of the process for the study of hydrate decomposition and the phenomenon of self-preservation. Our results show that CO 2 and CH 4 hydrate samples deposited on graphite at 261–265 K are almost pure hydrates with an ice fraction of less than 8%. Rapid depressurization experiments with thin deposits (approx. 330 mm thickness) of CO 2 hydrate on an aluminum surface at 265 K yield identical dissociation curves when the deposition is done at identical pressure. However, hydrates deposited at 1 MPa almost completely withstand decomposition after rapid depressurization to 0.1 MPa, while samples deposited at 2 MPa decompose 7 times faster. Therefore, this synthesis technique is not only applicable for the study of hydrate decomposition but can also be used for the controlled deposition of a super-preserved hydrate.
Recently the use of microRNAs (miRNAs) as biomarkers for a multitude of diseases has gained substantial significance for clinical as well as point-of-care diagnostics. Amongst other challenges, however, it holds the central requirement that the concentration of a given miRNA must be evaluated within the context of other factors in order to unambiguously diagnose one specific disease. In terms of the development of diagnostic methods and devices, this implies an inevitable demand for multiplexing in order to be able to gauge the abundance of several components of interest in a patient’s sample in parallel. In this study, we design and implement different multiplexed versions of our electrochemical microfluidic biosensor by dividing its channel into subsections, creating four novel chip designs for the amplification-free and simultaneous quantification of up to eight miRNAs on the CRISPR-Biosensor X (‘X’ highlighting the multiplexing aspect of the device). We then use a one-step model assay followed by amperometric readout in combination with a 2-minute-stop-flow-protocol to explore the fluidic and mechanical characteristics and limitations of the different versions of the device. The sensor showing the best performance, is subsequently used for the Cas13a-powered proof-of-concept measurement of two miRNAs (miRNA-19b and miRNA-20a) from the miRNA-17∼92 cluster, which is dysregulated in the blood of pediatric medulloblastoma patients. Quantification of the latter, alongside simultaneous negative control measurements are accomplished on the same device. We thereby confirm the applicability of our platform to the challenge of amplification-free, parallel detection of multiple nucleic acids.
Das Modellprojekt „Caritas Care – Betreuung zuhause“ wurde 2012 in einer Kooperation der Caritas Schweiz und der Caritas Alba Iulia (Transsylvanien/Rumänien) ins Leben gerufen. Damit sollte ein Modell geschaffen werden, welches einerseits dem wachsenden Markt der „Betreuung zuhause“ in der Schweiz entgegenkommt, aber andererseits fairere Arbeitsbedingungen für die Betreuungspersonen vorsieht. Fairness sollte durch einen Versicherungsschutz der Arbeitskräfte, Weiterbildungsmöglichkeiten und ein Entgelt, das mit anderen Arbeitsverhältnissen vergleichbar ist, sowie dank klar abgegrenzter Arbeits-, Präsenz- und Freizeit erreicht werden. Die Umsetzung erfolgt folgendermaßen: Angestellte Betreuungs- und Pflegefachkräfte der Caritas Alba Iulia können für sechs Wochen bis zu drei Monaten in die Schweiz gehen, um dort in Privathaushalten hilfsbedürftige Menschen zu unterstützen (Live-in-Betreuungen). Sie werden während dieser Zeit von der Caritas Schweiz angestellt. Danach kehren die Betreuenden wieder in ihr Anstellungsverhältnis bei der Caritas Alba Iulia zurück. Es wird sozusagen Personal „verliehen“. Damit soll einem Verlust von qualifiziertem Betreuungs- und Pflegepersonal durch Abwanderung aus Rumänien entgegengewirkt werden. Im Rahmen des studiengangsübergreifenden, interdisziplinären Kontextstudiums der Masterstudiengänge der Fachhochschule Vorarlberg (Österreich) hat sich eine Gruppe Forschender zum Ziel gesetzt, dieses Modellprojekt forscherisch zu erkunden. Wir wollten wissen, wie dieses Live-in-Betreuungsangebot nach zehn Jahren Laufzeit funktioniert. Insbesondere interessierten uns die Erfahrungen der rumänischen Betreuer:innen und ihrer Angehörigen sowie der projektverantwortlichen Leitungspersonen in der Caritas Alba Iulia und der Caritas Schweiz. Im Rahmen einer Feldforschungswoche im Juli 2022 in Transsylvanien/Siebenbürgen wurden 28 formelle Interviews mit Projektverantwortlichen, Betreuern/Betreuerinnen und deren Angehörigen durchgeführt. Zusätzlich wurden Dokumente und Feldnotizen sowie Gedächtnisprotokolle von informellen Gesprächen mit Personen der extramuralen Einrichtungen in Rumänien in die Auswertung integriert. Die Auswertung erfolgte inhaltsanalytisch.
Daten werden heute oft auch als das «neue Gold» bezeichnet. Denn die letzten Jahre haben gezeigt, dass Daten die Grundlage erstaunlicher unter- nehmerischer Erfolgsgeschichten sein können. Dabei ist die Arbeit mit Daten nicht grundlegend neu. Vielmehr geht es heute im Vergleich zu früher um nahezu unendlich grossen Mengen an Daten, die im Rahmen nahezu aller denkbaren Prozesse oder Schnittstellen gesammelt, gespeichert und ausgewertet werden können. Unter anderem beinhaltet dies Maschinendaten, unternehmens- interne Prozesse oder Daten über Kunden und den Markt, welche die Grundlage für lernende Systeme (Künstliche Intelligenz) bilden. Wir können heute davon ausgehen, dass künftig nicht mehr die technische Machbarkeit, sondern die mensch- liche Vorstellungskraft die Grenzen des Möglichen definiert.
Bekannt sind vor allem etliche Erfolgsgeschichten von Grossunternehmen, die ihr Geschäft auf Daten aufbauen. Etablierte KMU sind hingegen noch zögerlicher, mit Daten zu arbeiten und diese wertschöpfend einzusetzen. Diese Broschüre geht auf die besondere Situation von KMU im Umgang mit Daten und Data Science ein. Denn auch für KMU kann es lohnend oder sogar zwingend notwendig sein, sich mit dem Thema «Data Science» zu beschäftigen. Daten und Data Science bieten grosse
Chancen, sie können aber auch zu einer Bedrohung im Wettbewerb werden. Und, zu lange warten sollten KMU nicht, die Zeit drängt. Denn Geschwindigkeit ist einer der zentralen Wettbewerbsfaktoren im digitalen Zeitalter. Das IBH-Lab KMUdigital unter- stützt KMU dabei, den herausfordernden Weg in eine digitale Zukunft schneller und einfacher zu gehen.
Diese Broschüre geht daher insbesondere auf die Rolle von Daten und Data Science für KMU in der Bodenseeregion ein. Sie stellt eine Zusammen- fassung ausgewählter Erkenntnisse und Handlungs- empfehlungen dar, die wir in einem zweijährigen Forschungsprojekt gemeinsam mit 16 Unternehmen aus der Bodenseeregion gewinnen konnten. Die Erkenntnisse sollen KMU bei der Nutzung von Daten anhand von Data Science unterstützen. Dabei ist es kein Ziel, dass KMU zu einem «kleinen Google» werden. Vielmehr braucht es KMU- spezifische Lösungen und Überlegungen, wie mit Daten sinnvoll, zielorientiert und ressourcen- schonend umgegangen werden kann. Wie kann das aussehen? Welche Chancen, Herausforderungen und Lösungen bieten sich KMU vor dem Hinter- grund ihrer besonderen Situation? Was muss dazu im Unternehmen verändert werden? Welche Unterschiede bestehen im Vergleich zu Gross- unternehmen auf diesem Weg?
Diese und weitere Fragen stehen im Mittelpunkt des vorliegenden Projektberichts zum Einzelprojekt «Data Science für KMU leicht gemacht» oder kurz «Data Science 4 KMU» bzw. «Data4KMU», welches unter dem Dach des IBH-Labs KMUdigital in den Jahren 2018 bis 2019 durchgeführt wurde. Dazu werden Daten und Data Science aus mehreren Perspektiven betrachtet, die nicht unabhängig voneinander sind: Strategie und Geschäftsmodell, Services und Prozesse, Leadership, HRM und
Organisation, Organisationskultur und Ganzheitichkeit, sowie Technologie. Diese Perspektiven greifen wir in den nachfolgenden Kapiteln auf.
Die vorliegende Broschüre wäre ohne die wertvolle Unterstützung der Praxispartner des Projektes, des Managements des IBH-Labs KMUdigital sowie ohne die finanzielle Projektförderung durch die Inter- nationale Bodenseehochschule (IBH) und Interreg nicht möglich gewesen. Ihnen allen gilt unser ganz besonderer Dank!
Das Forschungsprojekt Data Sharing Framework untersuchte Data Sharing im Kontext von datenbasierten Services und Produkten in Ökosystemen aus fünf Perspektiven: Kultur, Vertrauen, Wert, Recht & Governance, Sicherheit. Die Forschungsergebnisse bestätigen die Relevanz dieser Perspektiven und es hat sich gezeigt, dass diese Aspekte sowohl Barrieren als auch Treiber für Datennutzung und -austausch zwi- schen Unternehmen darstellen.
Ausgangspunkt waren die folgenden forschungs- und praxisleitenden Annahmen:
• These 1: KMU können durch die Nutzung und das
Teilen von Daten Mehrwerte in Form neuer Produkte und Services generieren. Aus wissenschaftlicher Sicht liegt der Fokus des Themas Daten und Data Science bisher überwiegend auf der technischen Umsetzung datenintensiver Geschäftsmodelle und Kooperationen durch die Unternehmen.
• These 2: Die technische Umsetzung ist eine notwendige Bedingung für die datenbasierte Leistun- gen, sie reicht jedoch nicht aus, um eine Kooperations- und Teilbereitschaft bei KMU hinsichtlich ihrer Daten (Daten-Teilbereitschaft) auszulösen. Zahlreiche Stakeholder zögern, Daten zu teilen, vor allem in einem grenzüberschreitenden Kontext, wie z.B. in der Programmregion.
• These 3: KMU benötigen Data Access und Data Trust Strukturen, um mögliche Kooperationspotenziale tatsächlich zu heben. Dies erfordert u.a. gemeinsa- me Standards, ein annäherndes Verständnis vom Wert der Daten, Data-Governance in Kombination mit zu definierenden Trust-Standards, welche die erforderliche formelle und informelle Sicherheit bieten.
Nachfolgend wird ein Überblick über die hieraus hervorgegangenen Ergebnisse gegeben:
Kultur
Die Perspektive der Organisationskultur stellt das Denken und Handeln im Unternehmen und im Ökosystem in den Mittelpunkt. Eine Organisationskultur, welche die Arbeit mit Daten, Data Science Praktiken und vor allem das Teilen von Daten ermöglicht, stellt Daten in den Mittelpunkt des Wertschöpfungsprozesses. Dies erfordert eine generelle Sensibilisierung
für das Thema Daten, durchlässige Grenzen im und zwischen Unternehmen, ebenso wie ein neues Verständnis von Rollen, Strukturen und Prozessen im Unternehmen.
Vertrauen
Das Vertrauen ist im Ökosystem von großer Bedeutung. Das Einbeziehen von internen Stakeholdern und das Starten mit kleineren Pilotprojekten wird vorgeschlagen, um Vertrauen innerhalb der Organisation und mit externen Partnern zu schaffen.
Wert
Als notwendige Voraussetzung wird der Wert der Daten hervorgehoben. Unternehmen sollten den potenziellen Wert der Datenflüsse kennen, bevor sie sich entscheiden, ob sie diese Daten teilen und nutzen möchten. Es wird empfohlen, eine grobe Quanti- fizierung des Wertflusses vorzunehmen oder gegebe- nenfalls eine detailliertere Analyse durchzuführen.
Recht & Governance
Für die Berücksichtigung rechtlicher Rahmenbedingungen gemeinsamer Datennutzung sollten Organisationen zunächst eine interne Data Governance etablieren, um auf neue regulatorische Entwicklungen reagieren zu können. Die Einrichtung von Data-Asset-Management, Data-IP und -Compliance-Ma-nagement und Data-Contract-Management wird hier empfohlen.
Datensicherheit
Im Sicherheitskontext sind Methoden zur Gewährleistung der Datenintegrität, Privatsphäre und Sicherheit entscheidend. Es wird empfohlen, einen kollaborativen Ansatz zur Implementierung von Sicherheitsstandards zu verfolgen und dabei IKT-Experten einzubeziehen. Anfänglich können Best Practices ausreichen, aber längerfristig sollte eine kontinuierliche Sicherheitsrisikobewertung und Ge- schäftsprozessintegration angestrebt werden.
Design and optimization of 1x2N Y-branch optical splitters for telecommunication applications
(2020)
This paper presents the design and optimization of 1x2N Y-branch optical splitters for telecom applications. A waveguide channel profile, used in the splitter design, is based on a standard silica-on-silicon material platform. Except for the lengths of the used Y-branches, design parameters such as port pitch between the waveguides and simulation parameters for all splitters were considered fixed. For every Y-branch splitter, insertion loss, non-uniformity, and background crosstalk are calculated. According to the minimum insertion loss and minimum non-uniformity, the optimum length for each Y-branch is determined. Finally, the individual Y-branches are cascade joined to design various Y-branch optical splitters, from 1x2 to 1x64.
Introducing 3D sub-micrometer technologies based on polymers opened new possibilities of design and fabrication of photonic devices and components in 3D arrangement. 3D laser lithography is direct writing process based on two photon polymerization exhibiting high accuracy and versatility, where numerous resists and even polymer ceramic mixtures can be used. We present design and simulation of polymer based photonic components with a focus on arrayed waveguide gratings (AWG) based on optical multiplexers/demultiplexers and optical splitters. All optical components were designed for 1550 nm operating wavelength, applying two commercial photonics tools. This study creates a basis for the design of optical components in 3D arrangement, which will be fabricated by 3D laser lithography.
Der Forschungsbericht gibt Antworten auf folgende Forschungsfrage: "Wie gestalten sich die interkulturellen Lebenswelten im Jahre 2021 im Orden der Steyler Missionare in St. Gabriel?" Das Erkenntnisinteresse dieser Studie ist, wie eine Ordensgemeinschaft in der heutigen Zeit funktioniert. Wie die veränderten gesellschaftlichen Werte, Normen und Regeln sich auswirken und wie sich ein normaler Alltag für ein Ordensmitglied gestaltet. Was es heißt zu missionieren und welche Erfahrungen Steyler Missionare hinsichtlich eines gelingenden interkulturellen Zusammenlebens haben, werden in dieser Studie beleuchtet. Die Recherchen zum Forschungsstand ergaben, dass es kaum Studien zum Ordensleben aus sozialwissenschaftlicher Sicht gibt. Die Lebenswelten der Ordensmitglieder werden mit Hilfe des lebensweltorientierten Ansatzes nach Thiersch und der Bedürfnistheorie nach Obrecht theoretisch fundiert. Das Sampling erfolgte mittels eines qualitativen Stichprobenplans. Die Datenerhebung erfolgte im Juli 2021. Die Auswertung erfolgte inhaltsanalytisch nach Mayring. Die Steyler Missionare können als weltoffene Ordensgemeinschaft betrachtet werden, deren Handeln wesentlich von den unterschiedlichen Missionserfahrungen geprägt ist. Ordensstrukturen unterscheiden sich deutlich von Strukturen der übrigen Gesellschaft. Diese Strukturen haben eine positive Wirkung auf die Ordensmitglieder. Diese, als auch eine sinnstiftende und erfüllende Tätigkeit sowie ein gewisses Maß an Freizeit ist anscheinend das Rezept für ein zufriedenes Leben. Die Mission hat für den Orden einen zentralen Stellenwert. Integration, Rassismus und Kolonialismus sind permanente Herausforderungen auch im Zusammenleben und werden aus verschiedenen Perspektiven diskutiert. In der Ordensgemeinschaft hat es viele Veränderungen gegeben, die Auswirkungen von diesen und der Umgang hiermit werden beschrieben sowie ein Blick in die Zukunft gewagt.
Praxisanleiter:innen nehmen eine entscheidende Rolle in der Ausbildung von Pflegepersonen wahr. Die Tätigkeit fordert eine Vielzahl von Kompetenzen. Die Weiterbildung Praxisanleitung bietet eine wichtige Grundlage für die Entwicklung dieser Kompetenzen – deren Rahmenbedingungen, Methoden und Inhalte in Österreich werden in dieser Studie untersucht.
Real-time measurements of the differences in inhaled and exhaled, unlabeled and fully deuterated acetone concentration levels, at rest and during exercise, have been conducted using proton transfer reaction mass spectrometry. A novel approach to continuously differentiate between the inhaled and exhaled breath acetone concentration signals is used. This leads to unprecedented fine grained data of inhaled and exhaled concentrations. The experimental results obtained are compared with those predicted using a simple three compartment model that theoretically describes the influence of inhaled concentrations on exhaled breath concentrations for volatile organic compounds with high blood:air partition coefficients, and hence is appropriate for acetone. An agreement between the predicted and observed concentrations is obtained. Our results highlight that the influence of the upper airways cannot be neglected for volatiles with high blood:air partition coefficients, i.e. highly water soluble volatiles.
Zu Beginn wurde im eigenen beruflichen Umfeld beobachtet, dass Informationen und Wissen, die heutzutage im Arbeitsalltag in Fülle ausgetauscht werden, häufig nicht die gewünschte Aufmerksamkeit und Offenheit erhalten. Diese Masterarbeit untersucht, wie bei dieser Art von Beobachtungen, deren komplexe Natur die Identifizierung von Lösungsansätzen erschwert, das eigentliche Problem erkannt werden kann. Frederic Vester zufolge ermöglicht ein vernetztes Denken dabei, Erkenntnisse vor allem aus den miteinander verknüpften Faktoren zu gewinnen. Diese Denkweise lässt sich in einer systemischen wie auch einer transdisziplinären Betrachtungsweise finden, wobei diese der Herausforderung gegenüberstehen vielfältige Perspektiven auf das Problem miteinander in Einklang zu bringen. Dies wirft die Frage auf, inwiefern eine gestalterische Zwischeninstanz dazu beitragen kann, einen gemeinsamen Denkraum zu eröffnen. Das Ziel dieser Arbeit ist, einen Entwurfsvorschlag für die Gestaltung eines Erkenntnisprozesses zu erarbeiten. Der Forschungsansatz dieser Arbeit – (FÜR+ÜBER)DURCH – leitet sich aus Christopher Fraylings Kategorien zur Designforschung ab. Die ‚Recherche FÜR‘ führt dazu, ein Problem als ein System zu betrachten, für das Wolfgang Jonas ein Problem-Design vorschlägt. In der ‚Recherche ÜBER‘ zeigt sich, dass es explizites wie auch implizites Wissen für eine umfassende Problembetrachtung braucht. Dafür wurde die Spuren-sicherung der Kunst auf das Design übertragen, um vorhandenes Wissen visuell zu dokumentieren. Mit Charles S. Peirce visuelles Entwurfs- und Erkenntnisverfahren lässt sich zudem ein anschauliches Denken durch diagrammatisches Schlussfolgern fördern. Die theoretischen Erkenntnisse münden in der ‚Transformation DURCH‘ in einen Vorschlag für ein diagrammatisches Problem-Design. Diesen gilt es in Bezug zu dem praxisbasierten Gestaltungsentwurf aus dem Masterprojekt zu reflektieren. In einer Werkshalle wurden Prototypische Beobachtungen zum ‚Zusammenspiel von Aufmerksamkeit und Offenheit‘ physisch in Beziehung gesetzt und anschließend mit zwei Testgruppen daraufhin untersucht, ob sich daraus neue Erkenntnisse ergeben. Es zeigte sich, das Design auf diese Weise einen gemeinsamen Austausch fördern kann. Gleichzeitig wurde deutlich, dass der Gestaltungsprozess die Vernetztheit eines Problems darstellen kann, jedoch ein vernetztes Denken aktiv initiiert werden muss, wofür im Entwurfsvorschlag dieser Arbeit ein visuelles Verfahren vorgestellt wird.
Over the last years, polymers have gained great attention as substrate material, because of the possibility to produce low-cost sensors in a high-throughput manner or for rapid prototyping and the wide variety of polymeric materials available with different features (like transparency, flexibility, stretchability, etc.). For almost all biosensing applications, the interaction between biomolecules (for example, antibodies, proteins or enzymes) and the employed substrate surface is highly important. In order to realize an effective biomolecule immobilization on polymers, different surface activation techniques, including chemical and physical methods, exist. Among them, plasma treatment offers an easy, fast and effective activation of the surfaces by micro/nanotexturing and generating functional groups (including carboxylic acids, amines, esters, aldehydes or hydroxyl groups). Hence, here we present a systematic and comprehensive plasma activation study of various polymeric surfaces by optimizing different parameters, including power, time, substrate temperature and gas composition. Thereby, the highest immobilization efficiency along with a homogenous biomolecule distribution is achieved with a 5-min plasma treatment under a gas composition of 50% oxygen and nitrogen, at a power of 1000 W and a substrate temperature of 80 C. These results are also confirmed by different surface characterization methods, including SEM, XPS and contact angle measurements.
In previous studies of linear rotary systems with active magnetic bearings, parametric excitation was introduced as an open-loop control strategy. The parametric excitation was realized by a periodic, in-phase variation of the bearing stiffness. At the difference between two of the eigenfrequencies of the system, a stabilizing effect, called anti-resonance, was found numerically and validated in experiments. In this work, preliminary results of further exploration of the parametric excitation are shared. A Jeffcott rotor with two active magnetic bearings and a disk is investigated. Using Floquet theory, a deeper insight into the dynamic behavior of the system is obtained. Aiming at a further increase of stability, a phase difference between excitation terms is introduced.
The humidification-dehumidification process (HDH) for desalination is a promising technology to address water scarcity issues in rural regions. However, a low humidifier efficiency is a weakness of the process. Bubble column humidifiers (BCH) are promising for HDH, as they provide enhanced heat and mass transfer and have low maintenance requirements. Previous studies of HDH-systems with BCHs draw different conclusions regarding the impact of superficial air velocity and liquid height on the humidification. Furthermore, the impact of flow characteristics has never been investigated systematically at all. In this study, an optimized BCH test setup that allows for optical analysis of the humidifier is used and evaluated. Our test setup is validated, since the influence of water temperature on the humidification, which is exponential, is reproduced. Measurements with seawater show that the normalised system productivity is increased by about 56 % with an increase in superficial air velocity from 0.5 to 5 cm/s. Furthermore, the system productivity is increased by around 29 % with an increase in liquid height from 60 to 378 mm. While the impact of superficial air velocity can be traced back to temperature changes at the humidifier and dehumidifier outlets, the impact of liquid height is shown to be caused by a smaller heat loss surface in the humidifier with an increase in liquid height. For the impact of sieve plate orifice diameter, a clear influence on the humidification is not apparent, this parameter needs to be investigated further. Finally, our new test setup allows for analysing the humidification of air (1) in a systematic way, (2) in relevant measurement ranges and (3) in comparison with optical analyses of the flow characteristics.
Background: Peripheral arterial disease (PAD) is a common and severe disease with a highly increased cardiovascular morbidity and mortality. Through the circulatory disorder and the linked undersupply of oxygen carriers in the lower limbs, the ongoing decrease of the pain-free walking distance occurs with a significant reduction in patients’ quality of life. Studies including activity monitoring for patients with PAD are rare and digital support to increase activity via mobile health technologies is mainly targeted at patients with cardiovascular disease in general. The special requirement of patients with PAD is the need to reach a certain pain level to improve the pain-free walking distance. Unfortunately, both poor adherence and availability of institutional resources are major problems in patient-centered care.
Objective: The objective of this trackPAD pilot study is to evaluate the feasibility of a mobile phone–based self tracking app to promote physical activity and supervised exercise therapy (SET) in particular. We also aim for a subsequent patient centered adjustment of the app prototype based on the results of the app evaluation and process evaluation.
Methods: This study was designed as a closed user group trial, with assessors blinded, and parallel group study with face-to-face components for assessment with a follow-up of 3 months. Patients with symptomatic PAD (Fontaine stage IIa or IIb) and possession of a mobile phone were eligible. Eligible participants were randomly assigned into study and control group, stratified by their distance covered in the 6-min walk test, using the software TENALEA. Participants randomized to the study group received usual care and the mobile intervention (trackPAD) for the follow-up period of 3 months, whereas participants randomized to the control group received only usual care. TrackPAD records the frequency and duration of training sessions and pain level using manual user input. Clinical outcome data were collected at the baseline and after 3 months via validated tools (6-min walk test, ankle-brachial index, and duplex ultrasound at the lower arteries) and self-reported quality of life. Usability and quality of the app was determined using the user version of the Mobile Application Rating Scale.
Results: The study enrolled 45 participants with symptomatic PAD (44% male). Of these participants, 21 (47%) were randomized to the study group and 24 (53%) were randomized to the control group. The distance walked in the 6-min walk test was comparable in both groups at baseline (study group: mean 368.1m [SD 77.6] vs control group: mean 394.6m [SD 100.6]).
Conclusions: This is the first trial to test a mobile intervention called trackPAD that was designed especially for patients with PAD. Its results will provide important insights in terms of feasibility, effectiveness, and patient preferences of an app-based mobile intervention supporting SET for the conservative treatment of PAD.
In the regime of incentive-based autonomous demand response, time dependent prices are typically used to serve as signals from a system operator to consumers. However, this approach has been shown to be problematic from various perspectives. We clarify these shortcomings in a geometric way and thereby motivate the use of power signals instead of price signals. The main contribution of this paper consists of demonstrating in a standard setting that power tracking signals can control flexibilities more efficiently than real-time price signals. For comparison by simulation, German renewable energy production and German standard load profiles are used for daily production and demand profiles, respectively. As for flexibility, an energy storage system with realistic efficiencies is considered. Most critically, the new approach is able to induce consumptions on the demand side that real-time pricing is unable to induce. Moreover, the pricing approach is outperformed with regards to imbalance energy, peak consumption, storage variation, and storage losses without the need for additional communication or computation efforts. It is further shown that the advantages of the optimal power tracking approach compared to the pricing approach increase with the extent of the flexibility. The results indicate that autonomous flexibility control by optimal power tracking is able to integrate renewable energy production efficiently, has additional benefits, and the potential for enhancements. The latter include data uncertainties, systems of flexibilities, and economic implementation.
Gewalt in der Pflege
(2021)
Studien zeigen, dass das medizinisch/pflegerische Personal nach Polizei und Sicherheitsleuten unter allen Berufen am zweithäufigsten am Arbeitsplatz von Aggressions- und Gewaltereignissen betroffen sind und dies hat einen negativen Einfluss auf die Berufszufriedenheit und die Gesundheit der betroffenen Mitarbeiter:innen.
Die Studie „Gewalt in der Pflege“ begründet auf repräsentativer Basis ein Monitoring über das Ausmaß von Gewalt gegenüber Pflegenden in Vorarlberger Pflege- und Betreuungseinrichtungen. Für die Analyse wurde in Anlehnung an bestehende Erhebungsinstrumente in verbale Gewalt (inkl. Drohungen), körperliche Gewalt und sexuelle Gewalt unterschieden.
80 % der Befragten gaben an bereits mindestens einmal in ihrem Berufsleben mit Gewalt konfrontiert gewesen zu sein. 44,1 % von ihnen waren Opfer körperlicher Gewalt in verschiedenen Schweregraden. Auch die Prävalenz von sexueller Gewalt ist in den Pflegeheimen als hoch einzustufen, wobei der Großteil der betroffenen Mitarbeiter:innen Frauen sind. Die Hauptquelle der Gewalt sind die Bewohner:innen, gefolgt von den Angehörigen. Es können verschiedene Gründe und Ursachen für die Gewalt ausgemacht werden. Da sind zunächst gesellschaftliche Entwicklungen, wie ein gesteigerter Erwartungsdruck an die Pflegequalität bei gleichbleibenden Rahmenbedingungen, das zunehmende schwerere Krankheitsbild Bewohner:innen von Alters- und Pflegeheimen, sowie eine hohe Belegungszahl zu nennen. Gewalterfahrungen egal welcher Art sind eine Belastung für das Pflegepersonal.
Hallo. Ich bin Lio.
(2022)
Von Assistenzrobotern im Pflegebereich erhofft man sich Unterstützung in vielfacher Weise: Sie sollen zur Erleichterung für das Pflegepersonal führen (z.B. durch Handreichung von Gegenständen), mehr Sicherheit bringen (z.B. indem sie Nachschauen, sobald Auffälliges registriert wird) und zu einem gesunden Altern (z.B. körperliche Aktivierung) und zu mehr Teilhabe (z.B. psychosoziale Aktivierung) beitragen. Ihre Funktionen versprechen daher einerseits Assistenz für Pflege- und Betreuungspersonal (z.B. Transport- und Serviceaufgaben) und andererseits soziale Assistenz für Senior:innen in Pflegesituationen (z.B. Unterhaltung, Aktivierung).
In dem Projekt PUR (Pflegeunterstützende Robotik) wurde der Roboter Lio der Firma F&P Robotics AG über einen Zeitraum von 22 Monaten in Wohnbereichen in zwei Pflegeeinrichtungen in Konstanz und Schaffhausen getestet und situationsangepasst weiterentwickelt. Mit Unterstützung des Personals und der Bewohner:innen vor Ort wurde Lio anhand der Kriterien Usability, User Experience, Akzeptanz sowie seinen Nutzen für die Organisation evaluiert. Neben den Befragungen der Akteur:innen in den beiden Einrichtungen erfolgte eine systematische Erfassung und Analyse von Informationen und Daten anhand von Logfiles und Dokumenten in welchen Nutzungsdauer und -häufigkeit sowie Fehlerraten erfasst wurden.
Es wurde deutlich, dass Lio sich noch hinsichtlich aller Kriterien verbessern muss um die hohen Erwartungen bezüglich einer wahrnehmbaren Entlastung des Pflegepersonals bei gleichzeitiger Aufrechterhaltung oder Verbesserung der Lebensqualität der Bewohner:innen erfüllen zu können. Als Schlüsselfunktion für eine optimierte Usability und User Experience wird die Bedienbarkeit über Sprache betrachtet. Zum einen aus Sicht der Pflege- und Betreuungskräfte die Lio z.B. in hektischen Situationen in der Nachtschicht schnell und einfach in seinem Autonomiemodus (z.B. Desinfizieren von Türen) unterbrechen müssen. Zum anderen aus Sicht der Bewohner:innen die ihn ansprechen, aber nicht verstanden werden, womit das aktivierende Potential, das in Lio steckt, nicht ausgeschöpft wird.
Eine routinemäßige Einbindung von Assistenzrobotern wie Lio in die Pflege- und Betreuungspraxis erfordert neben der Lösung von technischen Problemen (wie zuverlässige Navigation, Sprachinteraktion) auch geeignete Beteiligungsansätze der Akteuer:innen. Diese sind so zu gestalten, dass nicht nur die technikaffinen Personen abgeholt werden, sondern allen ein entsprechendes Angebot gemacht wird, den Umgang mit dem technischen System zu erproben und in der Kontrolle und Bedienung Sicherheit zu erlangen.
Die befragten Akteur:innen sehen eine Zukunft für Assistenzroboter sofern sie autonom, zuverlässig und jederzeit gut kontrollierbar funktionieren und stehen dem digitalen Transformationsprozess in der Pflege größtenteils sehr offen gegenüber.
Highly-sensitive single-step sensing of levodopa by swellable microneedle-mounted nanogap sensors
(2023)
Microneedle (MN) sensing of biomarkers in interstitial fluid (ISF) can overcome the challenges of self-diagnosis of diseases by a patient, such as blood sampling, handling, and measurement analysis. However, the MN sensing technologies still suffer from poor measurement accuracy due to the small amount of target molecules present in ISF, and require multiple steps of ISF extraction, ISF isolation from MN, and measurement with additional equipment. Here, we present a swellable MN-mounted nanogap sensor that can be inserted into the skin tissue, absorb ISF rapidly, and measure biomarkers in situ by amplifying the measurement signals by redox cycling in nanogap electrodes. We demonstrate that the MN-nanogap sensor measures levodopa (LDA), medication for Parkinson disease, down to 100 nM in an aqueous solution, and 1 μM in both the skin-mimicked gelatin phantom and porcine skin.
The impact of global warming and climate change has forced countries to introduce strict policies and decarbonization goals toward sustainable development. To achieve the decarbonization of the economy, a substantial increase of renewable energy sources is required to meed energy demand and to transition away from fossil fuels. However, renewables are sensitive to environmental conditions, which may lead to imbalances between energy supply and demand. Battery energy storage systems are gaining more attention for balancing energy systems in existing grid networks at various levels such as bulk power management, transmission and distribution, and for end-users. Integrating battery energy storage systems with renewables can also solve reliability issues related to transient energy production and be used as a buffer source for electrical vehicle fast charging. Despite these advantages, batteries are still expensive and typically built for a single application – either for an energy- or power-dense application – which limits economic feasibility and flexibility. This paper presents a theoretical approach of a hybrid energy storage system that utilizes both energy- and power-dense batteries serving multiple grid applications. The proposed system will employ second use electrical vehicle batteries in order to maximise the potential of battery waste. The approach is based on a survey of battery modelling techniques and control methods. It was found that equivalent circuit models as well as unified control methods are best suited for modelling hybrid energy storages for grid applications. This approach for hybrid modelling is intended to help accelerate the renewable energy transition by providing reliable energy storage.
Immersive educational spaces
(2023)
"If only we had had such opportunities to grasp history like this when I was young" – words by an almost 80-year-old woman holding an iPad on which both, the buildings in the background and a tower in the form of a virtual 3D object, appear within reach. To "grasp" history - what an apt use of this action-oriented word for an augmented reality application built on considerations of thinking and acting in history. This telling image emerged during the first test run of the app i.appear which will be the focus of this article's considerations on the use of immersive learning environments. The application i.appear has been used in the city of Dornbirn (Austria) for a year now to teach historical content through location-based augmented reality and other interactive and multimedia technologies. After a brief description of the potential of such applications, the epistemological structure of the hosting app i.appear and its functionality will be outlined. This article will focus on the “Baroque Master Builders” tour of the hosting app that was created and tested as part of the current research.
One goal of the project described in this paper is to create learning algorithms for machines and robots that lack a precise virtual controller for correct simulations. Using a digital twin approach, the developed mixed reality application aims for an overlay of a virtual robot model with the real world counterpart using Microsoft HoloLens 2 smart glasses. The application should help users to have an inside look into the results of the learning algorithm and therefore supervise and improve those results. The main focus of this paper is the visual representation of the digital twin on the smart glasses. One of the challenges is the level of abstraction and specific use of shaders (program code defining material attributes) to help the user differentiating between virtual and real objects. Therefore different presentation methods are described and evaluated. Study results with 48 persons show that the most abstract representation (wireframe) scores lowest, whereas a half-transparent model works best.
Breath analysis offers a non-invasive and rapid diagnostic method for detecting various volatile organic compounds that could be indicators for different diseases, particularly metabolic disorders including type 2 diabetes mellitus. The development of type 2 diabetes mellitus is closely linked to metabolic dysfunction of adipose tissue and adipocytes. However, the VOC profile of human adipocytes has not yet been investigated. Gas chromatography with mass spectrometric detection and head-space needle trap extraction (two-bed Carbopack X/Carboxen 1000 needle traps) were applied to profile VOCs produced and metabolised by human Simpson Golabi Behmel Syndrome adipocytes. In total, sixteen compounds were identified to be related to the metabolism of the cells. Four sulphur compounds (carbon disulphide, dimethyl sulphide, ethyl methyl sulphide and dimethyl disulphide), three heterocyclic compounds (2-ethylfuran, 2-methyl-5-(methyl-thio)-furan, and 2-pentylfuran), two ketones (acetone and 2-pentanone), two hydrocarbons (isoprene and n-heptane) and one ester (ethyl acetate) were produced, and four aldehydes (2-methyl-propanal, butanal, pentanal and hexanal) were found to be consumed by the cells of interest. This study presents the first profile of VOCs formed by human adipocytes, which may reflect the activity of the adipose tissue enzymes and provide evidence of their active role in metabolic regulation. Our data also suggest that a previously reported increase of isoprene and sulphur compounds in diabetic patients may be explained by their production by adipocytes. Moreover, the unique features of this profile, including a high emission of dimethyl sulphide and the production of furan-containing VOCs, increase our knowledge about metabolism in adipose tissue and provide diagnostic potential for future applications.