Mechatronics
Refine
Document Type
- Master's Thesis (25)
Has Fulltext
- yes (25)
Is part of the Bibliography
- no (25)
Keywords
- Machine learning (2)
- Robotik (2)
- 5G (1)
- 6DoF pose estimation (1)
- AI on the Edge (1)
- AWG (1)
- Acceleo (1)
- Blockheizkraftwerk (BHKW) (1)
- Bounding Box (1)
- CFD (1)
This thesis focuses on implementing and testing communication over a private 5G standalone network in an industrial environment, with a specific emphasis on communication between two articulated robots. The main objective is to examine machine-to-machine communication behavior in various test scenarios. Initially, the 5G core and radio access network components are described, along with their associated interfaces, to establish foundational knowledge. Subsequently, a use case involving two articulated robots is implemented, and essential metrics are defined for testing, including round-trip time, packet and inter-packet delay, and packet error rate. The tests investigate the impact of 5G quality of service, packet size, and transmission interval on communication between the robots, focusing on the effects of network traffic. The results highlight the significance of prioritizing network resources based on the assigned quality of service identifier (5QI), demonstrate the influence of packet sizes on communication performance, and underscore the importance of transmission intervals for automation purposes. Additionally, the study examines how network disturbances influence the movements of a robot controlled via 5G, establishing a direct relationship between network metrics and the resulting deviations in the robot’s trajectory. The work concludes that while machine-to-machine communication can be successfully implemented with 5G SA, tradeoffs must be carefully considered, especially concerning packet error rate, and emphasizes the importance of understanding the required resources before implementation to ensure feasibility. Future research directions include investigating network slicing, secure remote control of robots, and exploring the use of higher frequency bands. The study highlights the significance of aligning theoretical standards with practical implementation options in the evolving landscape of 5G Networks.
Medizinische Verpackungen werden in der Industrie häufig mittels thermischen Siegelns verschlossen. Um eine kontinuierliche Qualitätsprüfung zu ermöglichen, soll in dieser Arbeit untersucht werden, ob es möglich ist, mittels Infrarotkamera, anhand der sich ausbildenden Wärmesignatur, fehlerhafte Teile zu erkennen. Dabei teilt sich die Forschungsfrage in zwei Teile. Im ersten Teil wird analysiert was zu beachten ist, um eine ideale Auswertung zu ermöglichen. Der zweite Teil der Forschungsfrage untersucht, welche Wärmesignatur sich bei fehlerhaften Teilen ausbildet. Im ersten Teil der Forschungsfrage wird mittels Modellierung des Siegelprozesses und der nachfolgenden Abkühlung, sowie eines späteren Versuchs analysiert, wie die Kamera am besten positioniert werden muss, um das beste Eingangssignal zu erhalten. Im zweiten Teil werden in verschiedenen Versuchsreihen Fehler provoziert und anschließend die Unter-schiede der Wärmesignatur ausgewertet. Anhand der Modellierung und der Durchführung von Versuchen zeigt sich, dass eine Siegelung am besten 1-2s nach dem Siegelende ausgewertet werden kann. Die weitere Untersuchung zeigt, dass große Fehler zwar gut erkannt, kleinere aber eher nicht mehr zuverlässig erkannt werden können.
The Fast Average Current Mode control methodology is a novel method for the implementation of a current compensator in a switched-mode power supply. It does not require compensation against sub-harmonic instability and is inductor independent. In this work, the digital implementation of this topology is compared against an analog implementation using simulation. Additionally, a hardware prototype is created to validate the digital simulation's results. In a Simulink environment, parameters of the digital implementation, such as the digital-to-analog converter resolutions and the delay counter frequency are varied to research their impact on system performance. The simulations show that a digital current compensator has similar performance as an analog implementation when designed tailored to the application. When evaluating the whole control loop the digital system is inferior due to added delays caused by digital to analog conversion. By operating the Buck converter hardware implementation as a current source, the functionality of the current mode control implementation in a FPGA was proven. Voltage control cannot be validated due to hardware issues. Due to the successful simulation of the source code with a mixed signal model of the converter, it can be assumed that it is functional. Apart from performance, a digital implementation shows many benefits compared to an analog solution, such as configurability of control parameters and easy compensation of component variations and aging.
The advent of autonomous and self-driving cranes represents a significant advancement in industrial automation. One critical prerequisites for achieving this long-term goal is the accurate and reliable detection of tools guided by ropes in real-world environments. Since the tool is suspended by ropes, the tool pose cannot be controlled directly. This master’s thesis addresses the challenges of pose estimation for rope-guided tools using point cloud measurements. The proposed algorithm utilizes constraints imposed by the crane kinematics and information extracted during the segmentation process to efficiently infer the pose of the hook, therefore enabling the use of the pose for decision making in real-time critical applications. RANSAC (Random Sample and Consensus) is deployed in the segmentation process to extract geometric primitives from the point cloud which represent the ropes and distinctive parts of the tool. Since the point cloud is often to sparse for feature matching a bounding box is used to estimate the initial position of the tool. Two different methods are presented to improve the initial pose. A computationally expensive method with a high level of confidence, integrating the ICP (Iterative Closest Point) algorithm is used as a benchmark. A linear Kalman filter is used in the second method which is real-time capable. The benchmark is then used to evaluate the real-time capable approach. The core contributions of this research lie in the innovative utilization of bounding boxes for pose estimation. The findings and methodologies presented herein constitute an advancement towards the realization of autonomous and self-driving cranes.
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.
The detection of glucose is an essential part of diabetes management and can help to prevent secondary diseases, that can occur as a result of diabetes. For this reason, it is important to improve the current glucose monitoring by developing novel sensors with high efficiency, low cost and compact design. The use of microelectrodes with interdigitated array (IDA) structures reduces the total detector size while providing benefits such as large currents, high sensitivity, and fast response. The aim of this thesis is to develop a novel sensor based on platinum interdigitated array (IDA) electrodes and to investigate which method is most effective for the detection of glucose. This work is divided into two parts. The first part is focused on the design and the fabrication of the sensor chips. The second part is concerned with the electrochemical characterisation of the sensors. Two distinct sensor designs are created, each consisting of a four-electrode system arranged as an interdigitated array. For the fabrication of the sensors, two different manufacturing processes are used. A lift-off process is used to fabricate the 2 μm-Gap sensor chips, whereas a lift-off free process is applied to produce the nanogap sensor chips. The electrochemical characterisation of both sensor chips is achieved by the immobilisation of the enzyme glucose oxidase (GOx) on the electrode surface. This thesis investigates the immobilisation of GOx by reduction of diazonium salts and the direct immobilisation of GOx by cyclic voltammetry. As a result of this work, it has been demonstrated that glucose detection by reduction of diazonium salts is error-prone due to modification with a multi-step procedure and is not suitable for our sensors based on platinum IDA electrodes. The direct immobilisation of GOx by cyclic voltammetry, by contrast, demonstrates the successful detection of glucose. In glucose solutions ranging from 5 mM to 20 mM, a direct correlation between the glucose concentration and the measured current is obtained. The reproducibility of direct immobilization is demonstrated by repeated performance with various sensors.
Power cables play an important role in power grids. Insulation faults in cables can have adverse effects on the operating behaviour. These effects can be assessed through an AC withstand test by using a very-low frequency high voltage generator. This generator produces a sinusoidal voltage waveform at 0.1Hz with high voltage levels up to 65kV peak. During the quality assessment, the power cable is repeatedly charged and discharged. The discharging process is done by a discharging circuit where the energy is dissipated thermally. But to reuse the dissipated energy a novel extension in form of an energy storage system is presented. This thesis, therefore, describes the design process of an energy storage system that allows the temporary storage of the discharge energy. The developed system is composed of a bidirectional DC/DC converter and an aluminium electrolytic capacitor as storage type. Based on the maximum VLF system ratings the energy storage unit is dimensioned and sized. The effective power flow control between the storage system and the available discharge energy is done by a synchronous buck-boost converter. This bidirectional converter works in continuous conduction mode over the complete charging phase. Together with a theoretical analysis of the underlying problem and the use of converter analysis methods the selected synchronous buck-boost converter is dimensioned and sized. In addition, a state space AC modeling of the converter with its electrical uncertainties is conducted. With the converters AC model, the controller is designed. A closed-loop input converter current control scheme based on a proportional-integral controller is implemented. The system assessment is done by a model-based hardware implementation in Matlab Simulink and Plecs Blockset. The system is rated to store discharge energies up to 4.3kJ in a short charging period of 2.5s. The maximum peak power during the charging phase is 2.7kW. The digital proportional-integral controller is implemented through an emulation process of the designed analog controller. Based on a C-code implementation of the digital controller the gap between the real hardware is reduced. During the design process theoretical calculations are made and reveal that designing a capacitor storage unit has a direct impact on the peak system currents and also impose also limitations on permissible DC voltage ranges on electrical components. The developed energy storage system and its power flow control strategy were investigated through simulation studies. The results show proper charging of the energy storage medium. In addition, also a statement of the final technical feasibility is made. In total, this work summarizes a detailed design process of the energy storage system. This proof of concept is intended to further advance the system integration.
Development of a low pressure syringe pump for detecting cannabinoids through liquid chromatography
(2022)
The following thesis covers the miniaturization and characterization of a pneumatic syringe pump, which is used for applications in low-pressure liquid chromatography. For this purpose, the components of the prototype are dealt with in the first section. These include the membrane pump and the cylinder for pressure and force generation, the syringe used for sample preparation and the construction of the test column. Furthermore, the pressure preparation on the cylinder, the friction losses of the syringe and then the behavior of the syringe in various application scenarios are considered. In the second section, the focus is on the different behaviors when using water and ethanol as a solvent. Tests in normal applications, as well as with air pockets or leaking seals, show the different behavior and the resulting deviations in the test pressure of the column. In addition, the maximum forces that can be applied to the syringe are worked out in several tests and the different maximum pressures, which depend on the solvent contained, are evaluated. These different maximum pressures, which are due to the different sealing behavior in connection with the surface tension of the liquid, will be discussed in conclusion. An outlook follows, up to which test pressures the system can be used and how these can be achieved.
Die vorliegende Arbeit beschäftigt sich mit der Positionsbestimmung in Innenräumen mittels der Ultra Breitband Technologie, deren Genauigkeit sowie der Positionierung solcher Systeme in relevanten Beleuchtungsmodulen. Im ersten Teil der Arbeit wird die Ultrabreitband Technologie beschrieben, die sich für Ortbarkeit in Innenräumen durch die große Bandbreite, relativ gut eignet. Hierbei wird auf das UWB-Signal, die Regulierung bezüglich Frequenznutzung für Europa und USA sowie auf die UWB-Standards eingegangen. Im weiteren Verlauf der Arbeit werden die gegenwärtigen Positionsbestimmungs Verfahren beschrieben. Beispiele hierfür sind das Time of Flight (ToF), das Time of Arrival sowie nicht funkbasierte Methoden wie z. B. die Inertial Measurement Unit (IMU). Die Positionsbestimmung in der UWB-Technologie wird häufig mittels ToF und ToA bewerkstelligt. Im darauffolgenden Kapitel werden die gegenwärtigen Lokalisierungssysteme erklärt. Real Time Locating Systems (RTLS) kommen in vielen Lebensbereichen zum Einsatz, von Krankenhäusern bis zum Sport. Der zweite Teil der Arbeit besteht aus der Ausarbeitung von verschiedenen Konzepten zur Realisierung eines Demonstrators sowie der Ausarbeitung eines Simulationsmodells für die Positionsbestimmung, mit dem eine Ortungsgenauigkeit von 30 bis 50 cm erreicht werden kann.
Die Mensch-Roboter-Kollaboration verspricht, die Leistungsfähigkeit eines Roboters und die Stärken eines Menschen zu kombinieren. Das junge Thema bringt nicht nur Vorteile, sondern auch neue Sicherheitsbestimmungen und aufwändige Validierungsverfahren mit sich, was den Zeitbedarf für die Entwicklung neuer MRK-Applikationen erhöht. Oft ergibt sich erst bei der Validierung, dass die Sicherheitsbestimmungen (meist die biomechanischen Grenzwerte) nicht eingehalten werden können und dadurch Änderungen an der Applikation durchgeführt werden müssen. So bildet sich ein Kreislauf aus „Validieren“ und „Änderungen vornehmen“, der erst nach mehreren Zyklen beendet werden kann. Ziel der vorliegenden Masterarbeit ist es, Empfehlungen zu konzipieren, mit welchen dieser Kreislauf frühzeitig durchbrochen werden kann. Die Arbeit beschränkt sich dabei auf das Leistungs- und Kraftbegrenzungsschutzprinzip. Um den Einfluss unterschiedlicher Parameter, wie beispielsweise die maximale TCP-Geschwindigkeit oder die Greifergeometrie, auf die Kollisionskräfte und Drücke zu erforschen, wurde ein biofideles Messsystem und ein Roboter vom Typ ABB GoFa™ verwendet. Diese Untersuchungen dienen zusammen mit den Sicherheitsbestimmungen als Grundlage der Gestaltungsempfehlungen. Um eine Anwendung der Empfehlungen vorzuzeigen, wird in der vorliegenden Arbeit exemplarisch eine MRK-Applikation gestaltet und validiert
This master’s thesis provides an overview of a more efficient, future-oriented living concept in Dornbirn, Austria. The use of a combined heat and power unit (CHP), in combination with a thermal storage, as a heating system is specifically investigated. In order to make this heating system more attractive for the consumer, the sale of the generated electricity from the CHP is considered. The more efficient use of energy for heating increases the attractiveness by a minimisation of the living space. This master’s thesis aims to draw attention to the issue and to achieve a rethinking in the planning of future living space. For the research and elaboration of this thesis, statistics and trustworthy literature were used, and physical modelling was applied. This Master’s thesis can be assigned to the fields of energy technology, mechatronics, architecture and civil engineering. It contributes for students, researchers, and other interested person in these sectors.
In today’s world, fiber optic networks for data transmission are an essential technology. This technology provides multiple advantages compared to conventional electrical data transmission. The simultaneous transmission of multiple optical signals in a single fiber is one of the main benefits of fiber optic cable. This is accomplished by directing the different optical signals into a single fibre and splitting them up after the transmission in order to obtain the individual signals. Arrayed Waveguide Gratings (AWGs) are used for this purpose in modern optical networks. Design and evaluation process are two components of AWG development. During the evaluation of several simulated and already manufactured AWGs for telecommunication applications, it was discovered that the channel spacing parameter does not conform telecommunication standards. The correct shift of the geometric parameter ”separation of the output waveguides” leads to the standard-conform channel spacing.
According to the current state of the art, no commercial tool is available which calculates the shift of this parameter correctly. The aim of this thesis is the development of a software tool to calculate the accurate shifting of the geometric parameter ”separation of the output waveguides” of an AWG. This tool operates as an interface between the design and evaluation processes and must be able to import the data format of the evaluation process and returns the data in a suitable data format for the design process. The Vorarlberg University of Applied Sciences uses three different methods for the shifting of the geometric parameter ”separation of the output waveguides”. These methods are evaluated and optimised as part of this thesis. Additionally, it has been determined that the shift of the geometric parameter ”separation of the output waveguides” has no significant impact on the performance of the AWG.
Die vorliegende Masterarbeit befasst sich mit der Analyse von Unterstützungsverfahren, um mithilfe eines Roboters einen Fügeprozess kombiniert mit einer Fügeachse durchführen zu können. Durch das Führen der Bauteile durch den Roboter während des Fügevorgangs entsteht eine Überbestimmung zwischen Fügeachse und Roboter. Die auftretenden Kräfte und Momente, die dadurch auf den Roboter wirken, sind zu untersuchen. Mithilfe der Analysen soll ermittelt werden, ob der Roboter während der Fügeprozesse innerhalb seiner Leistungsgrenzen betrieben wird und ob eine ausreichend genaue Kompensation der Kräfte möglich ist. Ein dazu erstellter Versuchsaufbau soll diese Analysen ermöglichen. Nach dem Erarbeiten von Grundlagen der Roboterregelung wird speziell auf die, bei diesem Versuchsaufbau zu Verfügung stehenden, Unterstützungsverfahren des Roboters eingegangen. Die Eigenschaften und Anwendung des jeweiligen Verfahrens werden beleuchtet und dargestellt. Dem folgt eine Übersicht der geplanten Fügeversuche, um das Verhalten des Roboters während der Fügeprozesse zu analysieren. Die Auswertung einer durchgeführten Messsystemanalyse und der Fügeversuche stellt die Verwendbarkeit und die erreichbaren Toleranzen sowie die Stärken und Schwächen der Unterstützungsverfahren dar.
The purpose of an energy model is to predict the energy consumption of a real system and to use this information to address challenges such as rising energy costs, emission reduction or variable energy availability. Industrial robots account for an important share of electrical energy consumption in production, which makes the creating of energy models for industrial robots desirable. Currently, energy modeling methods for industrial robots are often based on physical modeling methods. However, due to the increased availability of data and improved computing capabilities, data-driven modeling methods are also increasingly used in areas such as modeling and system identification of dynamic systems. This work investigates the use of current data-driven modeling methods for the creation of energy models focusing on the energy consumption of industrial robots.
For this purpose, a robotic system is excited with various trajectories to obtain meaningful data about the system behavior. This data is used to train different artificial neural network (ANN) structures, where the structures used can be categorized into (i) Long Short Term Memory Neural Network (LSTM) with manual feature engineering, where meaningful features are extracted using deeper insights into the system under consideration, and (ii) LSTM with Convolutional layers for automatic feature extraction. The results show that models with automatic feature extraction are competitive with those using manually extracted features. In addition to the performance comparison, the learned filter kernels were further investigated, whereby similarities between the manually and automatically extracted features could be observed. Finally, to determine the usefulness of the derived models, the best-performing model was selected for demonstrating its performance on a real use case.
Die Arbeit beschreibt die Entwicklung eines Open-Source Plugins für die 3D-Modellierungssoftware FreeCAD, mit welchem es möglich ist, Roboterpfade anhand von 3D-Modellen zu erstellen. Die Pfade sind in einem geeigneten Format exportierbar und können beispielsweise zur Steuerung eines Roboters durch eine speicherprogrammierbare Steuerung verwendet werden. Im ersten Teil der Arbeit wird der geplante Arbeitsablauf der Pfadgenerierung beschrieben und genauer erläutert, welche Vorteile und Pflichten die Erstellung von Open-Source-Software nach sich zieht. Anschließend wird anhand der Systeme „Robot Studio“ von ABB und „MotoSim EG VRC“ von Yaskawa analysiert, wie proprietäre Systeme die Programmierung von Roboterpfaden realisieren. Nach einem Überblick über den aktuellen Stand der Technik in der Roboterprogrammierung, wird die Implementierung des Plugins für FreeCAD beschrieben. Dazu wird anhand des Sourcecodes erläutert, wie neue Arbeitsbereiche erstellt werden können. Es werden verschiedene Funktionen implementiert, welche essenziell für die Erstellung von Roboterpfaden sind. Dazu zählen die Möglichkeit zur Definition von Koordinatensystemen, Roboterposen und das Beschreiben des Roboterpfades durch Pfadsegmente mit verschiedenen Parametern, wie Bewegungsart, Geschwindigkeit und Wegpunkte. Das Plugin wurde getestet indem eine einfache Pick & Place Anwendung erstellt wurde. Anschließend sind mögliche Erweiterungen des Plugins, wie zum Beispiel die Möglichkeit des Duplizierens von Pfadsegmenten am Ende der Arbeit beschrieben.
SysML Modellierung komplexer Systeme und automatische Erzeugung domänenspezifischer Ressourcen
(2021)
Moderne Technische Systeme und ihre Entwicklung werden zunehmend komplexer. Durch eine Vielzahl bei der Entwicklung beteiligter Modelle/Dokumente wird eine konsistente und rückverfolgbare Modellierung erschwert. Model-Based Systems Engineering (MBSE) ist ein Ansatz, welcher diese Problemstellung adressiert und bei der Systementwicklung formale Modelle anstelle von Dokumenten einsetzt/verwendet. Im Gegensatz zu Dokumenten sind Modelle formal definiert, können automatisiert überprüft werden und ermöglichen eine leichte maschinelle Verarbeitung der Informationen. Im Zentrum der Entwicklung steht ein Systemmodell, welches mit einer formalen Modellierungssprache erstellt wurde. Während der Entwicklung entstehende Informationen werden in das Systemmodell integriert, sodass eine konsistente Single Source of Truth entsteht. Aus dem Systemmodell können über automatisierte Modelltransformationen domänenspezifische Ressourcen, wie beispielsweise Digital Twins, generiert werden. Digital Twins und die damit verbundenen Simulationen können einen deutlichen Mehrwert in Bereichen, wie Optimierung, Wartung und Anomalieerkennung liefern. Allerdings ist die manuelle Erzeugung Aufwändig und Fehleranfällig sein, weshalb eine automatische Erzeugung aus den Informationen des Systemmodells eine Erleichterung darstellt.
Diese Arbeit beschäftigt sich mit dieser Problemstellung und der Modellierung komplexer Systeme. Es wird ein Systemmodell mit der Modellierungssprache Systems Modeling Language (SysML) erstellt, welches durch domänenspezifische Profile erweitert wird um Modellierung/Integration der Domänen zu ermöglichen. Mittels einer Modelltransformation in Acceleo werden Informationen aus dem Systemmodell in ein Simulationsmodell der Simulationssoftware twin, welche zur Simulation von Digital Twins geeignet ist, transformiert. Der in der Arbeit präsentierte Ansatz wird anhand er Modellfabrik des Forschungszentrums Digital Factory Vorarlberg veranschaulicht.
Im Rahmen dieser Masterthesis wurde beispielhaft gezeigt, mit welchen Maßnahmen die Handhabung (Gewicht, Größe) von Nasskühlern verbessert werden kann. Dabei wurde berücksichtigt, dass Kühlleistung und Durchsatz dem aktuellen Stand der Technik entsprechen.
Die zu Beginn durchgeführten Messungen an einem, in der Praxis eingesetzten, Referenzgerät und die darauffolgenden Berechnungen lieferten die thermodynamischen Größen (Temperatur, Druck). Diese physikalischen Größen lieferten die Randbedingungen der darauffolgenden Computational Fluid Dynamics (kurz CFD) Simulationen. Aus technischen Gründen wurde der Druck nicht direkt über Sensoren gemessen, sondern mit Hilfe der gemessenen Temperaturen berechnet. Da die Druckmessung einen zu starken Eingriff ins System dargestellt hätte. Um die Korrektheit der berechneten Drücke sicherzustellen, wurden in weiterer Folge die Temperaturen nachgerechnet und mit den Messwerten verglichen.
Um die Messwerte beziehungsweise die Berechnungen weiter zu bestätigen, ist zuerst ein CAD-Modell des vorhanden Referenzgerätes erstellt worden. Dieses CAD-Modell wurde dann hergenommen, um die ersten CFD Simulationen durchzuführen. Die Schwierigkeit hierbei lag bei der realistischen Abbildung der physikalischen Vorgänge, wie beispielsweise bei dem Verdampfen und Kondensieren des Kältemittels (Arbeitsmedium). Es wurden die einzelnen Komponenten des Kältekreislaufes simuliert (Wärmetauscher des Nutzmediums, Verdampfer und Kondensator des Arbeitsmediums).
Abschließend wurde ein Entwurf zur Optimierung von Schankanlagen erarbeitet. Von diesen wurden (teilweise) CAD Modelle erstellt. Die Modelle der optimierten Komponenten wurden dann, bezogen auf ihr Volumen und Gewicht, mit denen des Referenzgerätes, gegenübergestellt.
Den Abschluss der Arbeit bildet ein Fazit über die durchgeführten Berechnungen, Messungen und Simulationen. Des Weiteren wurden hier Aspekte, die nicht in der Arbeit berücksichtigt wurden, kurz aufgegriffen und erläutert.
In this work, the simulation possibilities of transient magnetic fields are investigated. For this purpose, an experimental setup is established to compare the simulation results with actual measurement data.
The experimental set-up consists of two coils, which are placed on two U-shaped iron cores. These cores are then brought together to form two air-gaps. These two gaps are used for measurement and the optional insertion of samples. The simulations are carried out with the finite element method (FEM) program ANSYS Maxwell 19R3.
In the first experiments, static simulations and measurements are compared to verify the validity of the available material data and the simulation techniques, especially the symmetry considerations, excitations of the coils, and boundary conditions. The static simulations show two main sources of uncertainty. The B-H curve of the core material used in the simulations and the air-gap distance uncertainty.
After validating the simulations with the static measurements, transient experiments are performed. In these experiments, the qualitative agreement of the simulation and measurement, as well as the characteristic rise times are compared. The experiments show a decisive influence of the considered loss mechanisms on the agreement of the simulation results with the measurements. Therefore, several simulations with different loss mechanisms are performed.
Finally, also the simulation capability including a material sample in the upper gap is investigated. Therefore, the conformity of the relative change of the measurement and the simulation is compared.
In the experiments a good simulation capability within a 5% error bar is seen. The main difficulty of this work represents the uncertainty due to the available material data. It is assumed, that with more accurate material data the error can be reduced significantly.
This paper analyses an electrical test tower of the OMCIRON electronics GmbH and evaluates whether a Predictive Maintenance (PdM) strategy can be implemented for the test towers. The company OMICRON electronics GmbH performs unit tests for its devices on test towers. Those tests consist of a multitude of subtests which all return a measurement value. Those results are tracked and stored in a database. The goal is to analyze the data of the test towers subtests and evaluate the possibility of implementing a predictive maintenance system in order to be able to predict the RUL and quantify the degradation of the test tower.
By assuming that the main degradation source are the relays of the test tower, a reliability modelling is performed which is the model-driven approach. The data-driven modelling process of the test tower consists of multiple steps. Firstly, the data is cleaned and compromised by removing redundances and optimizing for the best subtests where a subtest is rated as good if the trendability and monotonicity metric values are above a specific threshold. In a second step, the trend behaviours of the subtests are analyzed and ranked which illustrates that none of the subtests contained usable trend behaviour thus making an implementation of a PdM system impossible.
By using the ranking, the data-driven model is compared with the reliability model which shows that the assumption of the relays being the main error source is inaccurate.
An analysis of a possible anomaly detection model for a PdM is evaluated which shows that an anomaly detection is not possible for the test towers as well. The implementability of PdM for test towers and other OMICRON devices is discussed and followed up with proposals for future PdM implementations as well as additional analytical analyses that can be performed for the test towers.
This master thesis investigates a Computational Intelligence-based method for solving PDEs. The proposed strategy formulates the residual of a PDE as a fitness function. The solution is approximated by a finite sum of Gauss kernels. An appropriate optimisation technique, in this case JADE, is deployed that searches for the best fitting parameters for these kernels. This field is fairly young, a comprehensive literature research reveals several past papers that investigate similar techniques.
To evaluate the performance of the solver, a comprehensive testbed is defined. It consists of 11 different Poisson equations. The solving time, the memory consumption and the approximation quality are compared to the state of the art open-source Finite Element solver NGSolve. The first experiment tests a serial JADE. The results are not as good as comparable work in the literature. Further, a strange behaviour is observed, where the fitness and the quality do not match. The second experiment implements a parallel JADE, which allows to make use of parallel hardware. This significantly speeds up the solving time. The third experiment implements a parallel JADE with adaptive kernels. It starts with one kernel and introduce more kernels along the solving process. A significant improvement is observed on one PDE, that is purposely built to be solvable. On all other testbed PDEs the quality-difference is not conclusive. The last experiment investigates the discrepancy between the fitness and the quality. Therefore, a new kernel is defined. This kernel inherits all features of the Gauss kernel and extends it with a sine function. As a result, the observed inconsistency between fitness and quality is mitigated.
The thesis closes with a proposal for further investigations. The concepts here should be reconsidered by using better performing optimisation algorithms from the literature, like CMA-ES. Beyond that, an adaptive scheme for the collocation points could be tested. Finally, the fitness function should be further examined.
Many test drives are carried out in the automotive environment. During these test drives many signals are recorded. The task of the test engineers is to find certain patterns (e.g. an emergency stop) in these long time series. Finding these interesting patterns is currently done with rule based processing. This procedure is very time consuming and requires a test engineer with expertise. In this thesis it is examined if the emerging field of machine learning can be used to support the engineers in this task. Active Learning, a subarea of machine learning, is used to train a classifier during the labeling process. Thereby it proposes similar windows to the already labeled ones. This saves the annotator time for searching or formulating rules for the problem. A data generator is worked out to replace the missing labeled data for tests. The custom performance measure “proportion of seen samples” is developed to make the success measurable. A modular software architecture is designed. With that, several combinations of Time Series Classification algorithms and query strategies are compared on artificial data. The results are verified on real datasets, which are open source available. The best performing, but computational intensive solution is an adapted RandOm Convolutional KErnel Transform (ROCKET). The custom query strategy “certainty sampling” shows the best results for highly imbalanced datasets.
In recent years, much research has been done on medical laser applications inside the human body, as they are minimally invasive and therefore have fewer side effects and are less expensive than conventional therapies. In order to bring the laser light into the human body, a glass fibre with a diffuser is needed. The goal of this master thesis is the characterization and production of fibre optic diffusers that can be used for the three therapeutic applications: photodynamic therapy, laser-induced thermotherapy and endovenous laser therapy. For this purpose the following goals have to be achieved:
- Optimization of the efficiency and homogeneity of internally structured diffusers
- Examine damage thresholds of the diffusers in the tissue using a crash test
- Achieving a better understanding of the decouple mechanism with a simulation
Using an ultra-short pulse laser, modifications could be introduced into the fibre in this way that the radiation profile is homogeneous and the decoupling efficiency is 68.3 %. It was discovered that the radiation profile depends on the wavelength. Attempts have been made to improve the decoupling efficiency by mirroring the distal end of the fibre. The mirror reflects the remaining light back into the fibre, so that it is also decoupled lateral on the modifications. Vapor-deposited aluminum with physical vapor deposition is a promising approach. However, the adhesion of the coating must be improved or the coating must be protected by a mechanical cover, otherwise it will flake off too quickly.
In a crash test, it was shown that the glass fibre diffusers can withstand 20 W laser power for 300 s without visible change. In an ex vivo test, the coagulation zone in the tissue was examined and it was showed that the diffusers radiate radially homogeneously. Using a ray trace simulation, the course of the light rays in the fibre was examined and the correlation of modification width and length with the decoupling efficiency was investigated. It was discovered that there are helical light rays in the fibre, which cannot be decoupled by modifications in the fibre centre.
Die cloud-basierte Verarbeitung von Datenströmen von IoT-Geräten ist aufgrund hoher Latenzzeiten für zeitkritische Anwendungen nur beschränkt möglich. Fog Computing soll durch Nutzung der Rechen- und Speicherkapazitäten von lokal vorhandenen Geräten eine zeitnahe Datenverarbeitung und somit eine Verringerung der Latenzzeit ermöglichen. In dieser Arbeit werden Anforderungen an ein Fog Computing-Framework erhoben, das die dynamische Zuweisung und Ausführung von Services auf ressourcen-beschränkten Geräten in einem lokalen Netzwerk zur dezentralen Datenverarbeitung ermöglicht. Zudem wird dieses Framework prototypisch für mehrere Transportkanäle, unterschiedliche Betriebssysteme und Plattformen realisiert. Dazu werden die Möglichkeiten der Skriptsprache Lua und des Kommunikationsmechanismus Remote Procedure Call genutzt. Das Resultat ist ein positiver Machbarkeitsnachweis für Fog Computing-Funktionalitäten auf ressourcenbeschränkten Systemen. Zudem werden eine geringere Latenz und eine Reduktion der Netzwerklast ermöglicht.
Pump-Probe-Elastographie
(2020)
Krebs ist die zweit häufigste Todesursache in Deutschland. Seine frühzeitige Detektion ist wichtig für eine erfolgreiche Behandlung. Die Detektion und Charakterisierung der Tumore kann unter anderem anhand ihrer mechanischen Eigenschaften erfolgen.
Die Pump-Probe-Elastographie (PPE) ist eine neue und vielversprechende Methode um die mechanischen Eigenschaften von Gewebe durch optische Anregung und Detektion der dadurch entstehenden akustischen Wellen zu charakterisieren.
In dieser Arbeit wurde ein PPE-Mikroskop aufgebaut und anschließend untersucht, wie die Wellenfronten möglichst deutlich sichtbar werden und welchen Einfluss die Pulsenergie auf die erzeugten Wellen hat. Dies geschah anhand zweier Proben – Wasser und Glas. Beide sind transparent und bieten daher auch die Möglichkeit der Messung im Volumen. Wasser unterscheidet sich zudem von Glas, da es kompressibel ist und somit die Entstehung von Stoßwellen erlaubt. In Glas wiederum können nicht nur Longitudinalwellen, sondern auch Transversalwellen und Rayleigh-Wellen entstehen.
Als Ergebnis dieser Arbeit wird gezeigt, dass die Messergebnisse in Wasser abhängig von der Pulsenergie sind, denn die entstehenden Stoßwellen breiten sich mit Überschallgeschwindigkeit aus, was bei zukünftigen Messungen mit Zellgewebe zu beachten ist. In Glas hat die Pulsenergie zwar keinen Einfluss auf die Wellengeschwindigkeit, jedoch werden die Messungen mit zunehmender Energie deutlicher. Auch ist bei Messungen im Volumen nur die Longitudinalwelle zu sehen. Misst man jedoch auf der Glasoberfläche, so entsteht auch eine Druckwelle in der Luft, welche wiederum abhängig von der Pulsenergie ist. Zusätzlich ist in einigen Messungen eine weitere Welle zu erkennen, welche unabhängig von der Pulsenergie ist und sich im Glas, oder auf dessen Oberfläche ausbreitet.
The classification of waste with neural networks is already a topic in some scientific papers. An application in the embedded systems area with current AI processors to accelerate the inference has not yet been discussed. In this master work a prototype is created which classifies waste objects and automatically opens the appropriate container for the object. The area of application is in the public space.
For the classification a dataset with 25,681 images and 11 classes is created to re-train the Convolution Neuronal Networks EfficientNet-B0, MobileNet-v2 and NASNet-mobile. These Convolution Neuronal Networks run on the current Edge \acrshort{ai} processors from Google, Intel and Nvidia and are compared for performance, consumption and accuracy.
The master thesis evaluates the result of these comparisons and shows the advantages and disadvantages of the respective processors and the CNNs. For the prototype, the most suitable combination of hardware and AI architecture is used and exhibited at the university fair KasetFair2020. An opinion survey on the application of the machine is conducted.