Refine
Document Type
- Article (11)
- Report (7)
- Conference Proceeding (4)
- Working Paper (2)
- Book (1)
- Part of a Book (1)
- Other (1)
Institute
- Forschungszentrum Business Informatics (27) (remove)
Has Fulltext
- yes (27) (remove)
Is part of the Bibliography
- yes (27)
Keywords
- Global optimization (3)
- Rastrigin function (3)
- Evolution Strategies (2)
- Evolution strategy (2)
- Progress rate (2)
- Alternative routing (1)
- Anaesthetics (1)
- Anonymizing recorded tracks (1)
- D/H isotopic exchange (1)
- Data Sharing (1)
Breath analysis offers a non-invasive and rapid diagnostic method for detecting various volatile organic compounds that could be indicators for different diseases, particularly metabolic disorders including type 2 diabetes mellitus. The development of type 2 diabetes mellitus is closely linked to metabolic dysfunction of adipose tissue and adipocytes. However, the VOC profile of human adipocytes has not yet been investigated. Gas chromatography with mass spectrometric detection and head-space needle trap extraction (two-bed Carbopack X/Carboxen 1000 needle traps) were applied to profile VOCs produced and metabolised by human Simpson Golabi Behmel Syndrome adipocytes. In total, sixteen compounds were identified to be related to the metabolism of the cells. Four sulphur compounds (carbon disulphide, dimethyl sulphide, ethyl methyl sulphide and dimethyl disulphide), three heterocyclic compounds (2-ethylfuran, 2-methyl-5-(methyl-thio)-furan, and 2-pentylfuran), two ketones (acetone and 2-pentanone), two hydrocarbons (isoprene and n-heptane) and one ester (ethyl acetate) were produced, and four aldehydes (2-methyl-propanal, butanal, pentanal and hexanal) were found to be consumed by the cells of interest. This study presents the first profile of VOCs formed by human adipocytes, which may reflect the activity of the adipose tissue enzymes and provide evidence of their active role in metabolic regulation. Our data also suggest that a previously reported increase of isoprene and sulphur compounds in diabetic patients may be explained by their production by adipocytes. Moreover, the unique features of this profile, including a high emission of dimethyl sulphide and the production of furan-containing VOCs, increase our knowledge about metabolism in adipose tissue and provide diagnostic potential for future applications.
Post-operative isoflurane has been observed to be present in the end-tidal breath of patients who have undergone major surgery, for several weeks after the surgical procedures. A major new noncontrolled, non-randomized, and open-label approved study will recruit patients undergoing various surgeries under different inhalation anaesthetics, with two key objectives, namely to record the washout characteristics following surgery, and to investigate the influence of a patient’s health and the duration and type of surgery on elimination. In preparation for this breath study using proton transfer reaction time-of-flight mass spectrometry (PTR-TOF-MS), it is important to identify first the analytical product ions that need to be monitored and under what operating conditions. In this first paper of this new research programme, we present extensive PTR-TOF-MS studies of three major
anaesthetics used worldwide, desflurane (CF3CHFOCHF2), sevoflurane ((CF3)2CHOCH2F), and isoflurane (CF3CHClOCHF2) and a fourth one, which is used less extensively, enflurane (CHF2OCF2CHFCl), but is of interest because it is an isomer of isoflurane. Product ions are identified as a function of reduced electric field (E/N) over the range of approximately 80 Td to 210 Td, and the effects of operating the drift tube under ‘normal’ or ‘humid’ conditions on the intensities of the product ions are presented. To aid in the analyses, density functional theory (DFT) calculations of the proton affinities and the gas-phase basicities of the anaesthetics have been determined. Calculated energies for the ion-molecule reaction pathways leading to key product ions, identified as ideal for monitoring the inhalation anaesthetics in breath with a high sensitivity and selectivity, are also presented.
Creating a schedule to perform certain actions in a realworld environment typically involves multiple types of uncertainties. To create a plan which is robust towards uncertainties, it must stay flexible while attempting to be reliable and as close to optimal as possible. A plan is reliable if an adjustment to accommodate for a new requirement causes only a few disruptions. The system needs to be able to adapt to the schedule if unforeseen circumstances make planned actions impossible, or if an unlikely event would enable the system to follow a better path. To handle uncertainties, the used methods need to be dynamic and adaptive. The planning algorithms must be able to re-schedule planned actions and need to adapt the previously created plan to accommodate new requirements without causing critical disruptions to other required actions.
Stress testing is part of today’s bank risk management and often required by the governing regulatory authority. Performing such a stress test with stress scenarios derived from a distribution, instead of pre-defined expert scenarios, results in a systematic approach in which new severe scenarios can be discovered. The required scenario distribution is obtained from historical time series via a Vector-Autoregressive time series model. The worst-case search, i.e. finding the scenario yielding the most severe situation for the bank, can be stated as an optimization problem. The problem itself is a constrained optimization problem in a high-dimensional search space. The constraints are the box constraints on the scenario variables and the plausibility of a scenario.
The latter is expressed by an elliptic constraint. As the evaluation of the stress scenarios is performed with a simulation tool, the optimization problem can be seen as black-box optimization problem. Evolution Strategy, a well-known optimizer for black-box problems, is applied here. The necessary adaptations to the algorithm are explained and a set of different algorithm design choices are investigated. It is shown that a simple box constraint handling method, i.e. setting variables which violate a box constraint to the respective boundary of the feasible domain, in combination with a repair of implausible scenarios provides good results.
Mobility choices - an instrument for precise automatized travel behavior detection & analysis
(2021)
In engineering design, optimization methods are frequently used to improve the initial design of a product. However, the selection of an appropriate method is challenging since many
methods exist, especially for the case of simulation-based optimization. This paper proposes a systematic procedure to support this selection process. Building upon quality function deployment, end-user and design use case requirements can be systematically taken into account via a decision
matrix. The design and construction of the decision matrix are explained in detail. The proposed
procedure is validated by two engineering optimization problems arising within the design of box-type boom cranes. For each problem, the problem statement and the respectively applied optimization methods are explained in detail. The results obtained by optimization validate the use
of optimization approaches within the design process. The application of the decision matrix shows the successful incorporation of customer requirements to the algorithm selection.
Das Forschungsprojekt Data Sharing Framework untersuchte Data Sharing im Kontext von datenbasierten Services und Produkten in Ökosystemen aus fünf Perspektiven: Kultur, Vertrauen, Wert, Recht & Governance, Sicherheit. Die Forschungsergebnisse bestätigen die Relevanz dieser Perspektiven und es hat sich gezeigt, dass diese Aspekte sowohl Barrieren als auch Treiber für Datennutzung und -austausch zwi- schen Unternehmen darstellen.
Ausgangspunkt waren die folgenden forschungs- und praxisleitenden Annahmen:
• These 1: KMU können durch die Nutzung und das
Teilen von Daten Mehrwerte in Form neuer Produkte und Services generieren. Aus wissenschaftlicher Sicht liegt der Fokus des Themas Daten und Data Science bisher überwiegend auf der technischen Umsetzung datenintensiver Geschäftsmodelle und Kooperationen durch die Unternehmen.
• These 2: Die technische Umsetzung ist eine notwendige Bedingung für die datenbasierte Leistun- gen, sie reicht jedoch nicht aus, um eine Kooperations- und Teilbereitschaft bei KMU hinsichtlich ihrer Daten (Daten-Teilbereitschaft) auszulösen. Zahlreiche Stakeholder zögern, Daten zu teilen, vor allem in einem grenzüberschreitenden Kontext, wie z.B. in der Programmregion.
• These 3: KMU benötigen Data Access und Data Trust Strukturen, um mögliche Kooperationspotenziale tatsächlich zu heben. Dies erfordert u.a. gemeinsa- me Standards, ein annäherndes Verständnis vom Wert der Daten, Data-Governance in Kombination mit zu definierenden Trust-Standards, welche die erforderliche formelle und informelle Sicherheit bieten.
Nachfolgend wird ein Überblick über die hieraus hervorgegangenen Ergebnisse gegeben:
Kultur
Die Perspektive der Organisationskultur stellt das Denken und Handeln im Unternehmen und im Ökosystem in den Mittelpunkt. Eine Organisationskultur, welche die Arbeit mit Daten, Data Science Praktiken und vor allem das Teilen von Daten ermöglicht, stellt Daten in den Mittelpunkt des Wertschöpfungsprozesses. Dies erfordert eine generelle Sensibilisierung
für das Thema Daten, durchlässige Grenzen im und zwischen Unternehmen, ebenso wie ein neues Verständnis von Rollen, Strukturen und Prozessen im Unternehmen.
Vertrauen
Das Vertrauen ist im Ökosystem von großer Bedeutung. Das Einbeziehen von internen Stakeholdern und das Starten mit kleineren Pilotprojekten wird vorgeschlagen, um Vertrauen innerhalb der Organisation und mit externen Partnern zu schaffen.
Wert
Als notwendige Voraussetzung wird der Wert der Daten hervorgehoben. Unternehmen sollten den potenziellen Wert der Datenflüsse kennen, bevor sie sich entscheiden, ob sie diese Daten teilen und nutzen möchten. Es wird empfohlen, eine grobe Quanti- fizierung des Wertflusses vorzunehmen oder gegebe- nenfalls eine detailliertere Analyse durchzuführen.
Recht & Governance
Für die Berücksichtigung rechtlicher Rahmenbedingungen gemeinsamer Datennutzung sollten Organisationen zunächst eine interne Data Governance etablieren, um auf neue regulatorische Entwicklungen reagieren zu können. Die Einrichtung von Data-Asset-Management, Data-IP und -Compliance-Ma-nagement und Data-Contract-Management wird hier empfohlen.
Datensicherheit
Im Sicherheitskontext sind Methoden zur Gewährleistung der Datenintegrität, Privatsphäre und Sicherheit entscheidend. Es wird empfohlen, einen kollaborativen Ansatz zur Implementierung von Sicherheitsstandards zu verfolgen und dabei IKT-Experten einzubeziehen. Anfänglich können Best Practices ausreichen, aber längerfristig sollte eine kontinuierliche Sicherheitsrisikobewertung und Ge- schäftsprozessintegration angestrebt werden.
Wer wünscht ihn nicht: den intelligenten, effizienten und wirtschaftlichen Herstellungsprozess? Viele Firmen setzten aktuell auf die Digitalisierung und verbessern so die eigene sowie die mit externen Stellen vernetzte Produktion. Die Digitalisierung bringt einerseits Fortschritt, zeigt aber auch die zunehmende Komplexität der heutigen Produktionsnetzwerke auf. Zahlreiche Entscheidungen sind zu fällen, um einen effizienten und sicheren Austausch mit verschiedenen Betrieben zu gewährleisten.
Ein Blick auf vorhandene Modelle kann da weiterhelfen: Im Projekt i4Production des IBH-Labs KMUdigital haben Teams an drei Standorten in den drei Nachbarländern Deutschland (HTWG Konstanz), Österreich (FH Vorarlberg) und der Schweiz (NTB Buchs, RhySearch) an einer vernetzten Prozesslandschaft gearbeitet. In einem gemeinsamen, standardisierten Automatisierungskonzept wird in der international vernetzten Modellfabrik ein cyberphysisches System (CPS) in Form eines kundenindividualisierten Modellfahrzeuges produziert, das durch den Kunden in diversen Varianten zusammengestellt oder individuell konstruiert werden kann. Die dezentrale Produktion erlaubt eine Datenweitergabe über die Landesgrenzen in Echtzeit und bildet die Simulation eines länderübergreifenden Business-Eco-Systems ab.
Die Erkenntnisse des Projekts i4Production zeigen wie in kleineren und mittleren Unternehmen (KMU) eine verteilte Produktion, inklusive der Einbindung von Mitarbeitenden und Kunden in eine digitalisierte, hochautomatisierte und kundenindividuelle Produktion, organisiert werden kann.
Für Unternehmen wird diese Industrie 4.0-Prozesslandschaft als Modell für die eigene Fertigung in dem neu aufgebauten CNC Präzisionsfertigungslabor „Werkstatt4“ bei RhySearch öffentlich zur Verfügung gestellt. Die „Werkstatt4“ bietet KMU ein digitales Prozessumfeld, in dem getestet werden kann, mit welchen Maßnahmen der eingangs gestellte Wunsch zur optimierten Herstellung, seinen Weg in die Realität finden kann.
Im Folgenden stellen wir Ihnen das Konzept der internationalen Musterfabrik i4Production, die diversen Arbeitsschritte an den beteiligten Hochschulen sowie die wichtigsten Erkenntnisse für KMU der Bodenseeregion vor. Gerne unterstützen wir Sie bei der Gestaltung des Wandels hin zum Unternehmen 4.0: Sprechen Sie uns an.