Refine
Year of publication
Document Type
- Master's Thesis (409)
- Article (70)
- Conference Proceeding (23)
- Report (14)
- Part of a Book (4)
- Book (3)
- Other (3)
- Doctoral Thesis (2)
- Working Paper (2)
- Bachelor Thesis (1)
Institute
- Forschungszentrum Business Informatics (27)
- Forschungszentrum Mikrotechnik (27)
- Forschungszentrum Energie (22)
- Soziales & Gesundheit (18)
- Technik | Engineering & Technology (13)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (12)
- Forschungszentrum Human Centred Technologies (11)
- Forschungsgruppe Empirische Sozialwissenschaften (10)
- Josef Ressel Zentrum für Intelligente Thermische Energiesysteme (7)
- Wirtschaft (7)
Language
- German (329)
- English (201)
- Multiple languages (2)
Has Fulltext
- yes (532) (remove)
Keywords
- Digitalisierung (11)
- Controlling (7)
- Digitale Transformation (7)
- Machine learning (6)
- Demand Side Management (5)
- Industrie 4.0 (5)
- Soziale Arbeit (5)
- Effizienz (4)
- Klinische Soziale Arbeit (4)
- Kultur (4)
Aufgrund des anhaltenden Klimawandels wird eine Reduzierung des Ausstoßes von Kohlendioxid (CO2) immer wichtiger. Dabei könnte die Verwendung und Weiterentwicklung von CO2-Gashydraten als „Carbon Capture“-Methode (CC) einen großen Beitrag leisten. Bei der Bildung von Gashydraten wird Gas in den Hohlräumen eines Hydratgitters, welches sich unter hohen Drücken und niedrigen Temperaturen bildet, eingeschlossen. In dieser Arbeit wurden verfahrenstechnische Methoden getestet, um die Dynamik der Gashydratbildung zu verbessern. Dies wird vor allem durch eine Verbesserung von Massen- und Wärmetransport erreicht. Das Hauptproblem für die langen Bildungszeiten ist unter anderem eine sehr geringe Kontaktfläche. Diese kann durch den Einsatz eines Rührers, eines permanenten Gasdurchflusses und durch die Verwendung von Dry Water erhöht werden. Dry Water besteht aus vielen winzigen Wassertröpfchen, die von hydrophobiertem Siliziumdioxid (SiO2) umschlossen sind. Dadurch kann die Dauer der Induktions- und Wachstumsphase der Gashydratbildung verkürzt werden.
In dieser Arbeit wird ein Reaktor mit 30 ml Volumen und ein Schrägblattrührer mit einem Durchmesser von 17 mm verwendet. Der Rührer wurde bei einer maximalen Drehzahl von 15 000 rpm ca. alle 10 min für max. 30 s betrieben, bis die Wachstumsphase der Gashydratbildung beginnt. Der Gasdurchfluss hatte einen Volumenstrom von ca. 4 slm. Das verwendete Dry Water wurde in einem Haushaltsmixer bei 25 000 rpm aus Kieselsäure und Wasser hergestellt und besitzt einen Wasseranteil von 95 %. Es wurden unterschiedliche Kombinationen getestet. Die kürzeste Induktionszeit wurde mit durchschnittlich 6,9 min durch den Einsatz eines Rührers in Kombination mit einem Gasdurchfluss und Wasser erreicht, bei einem Volumenverhältnis zwischen Gas und Wasser von 8,8 v/v nach 60 min. Die größte Menge an Gashydrat konnte durch den Einsatz von Dry Water in Kombination mit einem Gasdurchfluss erreicht werden. Das führte nach 60 min zu einem Volumenverhältnis zwischen Gas und Wasser von 14,9 v/v. Die Induktionszeit betrug dabei 120 min.
In unserer digitalen Welt haben es einige Technologie-Marken bis ganz nach oben geschafft. Große Tech-Unternehmen wie Apple, Amazon, Microsoft und Google belegen die ersten Plätze der Best Global Brands im Jahr 2021 (Interbrand, 2021). Aber auch Automobilhersteller wie Toyota, Mercedes-Benz und BMW spielen ganz oben mit.
Wir möchten zunehmend mit unserer Außenwelt vernetzt sein, auch während dem Autofahren (Ulrich, 2015). So haben wir die Möglichkeit, unser Smartphone über eine Integrations-Schnittstelle, wie z.B. Apple CarPlay, in das vorhandene Infotainment-System des Autos zu integrieren. Durch die Integration werden zwei Systeme von unterschiedlichen Marken, basierend auf verschiedenen Styleguides, auf einem Bildschirm abwechselnd genutzt und dargestellt. Man kann zwischen den beiden Systemen hin und her wechseln, je nachdem, welche Funktionen man gerade nutzen möchte. Dabei entsteht einerseits ein heterogenes Benutzererlebnis für die Nutzerinnen und Nutzer, und auch für Designerinnen und Designer entstehen gewisse Herausforderungen. Lassen sich die Systeme unterschiedlicher Marken bis zu einem gewissen Punkt visuell aneinander annähern, und kann dadurch die Usability für die Nutzerinnen und Nutzer erhöht werden? Mit diesen Herausforderungen im Design beschäftigt sich diese Arbeit.
Ergebnis ist die Konzeption eines Gestaltungssystems, welches einen Vorschlag für die Annäherung zwei heterogener grafischer Benutzeroberflächen von zwei unterschiedlichen Marken bietet, wenn diese zusammen auf einem Bildschirm dargestellt und von den Nutzerinnen und Nutzern genutzt werden können. Anhand des Systems können die Interfaces aneinander angenähert werden, und sich dennoch über identifizierte Gestaltungselemente differenzieren.
Durch künstliche Intelligenz gesteuerte Prozesse haben einen großen Einfluss auf unsere Wahrnehmung und auch umgekehrt beeinflussen sozio-kulturelle Vorstellungen digitale Prozesse. Technologien, die von einer durch geschlechtsspezifische Datenlücken geprägten Gesellschaft entwickelt werden, reproduzieren stereotype Narrative und Gender Biases. Die Arbeit mit der Forschungsfrage Wie tragen Suchmaschinen zu einer Fortschreitung von Gender Biases durch geschlechtsspezifische Datenlücken bei?, wird mit aus diversen Bereichen herangezogener Literatur, sowie eigenen experimentellen Ansätzen zur Erkenntnisgewinnung verfasst. Die Problemstellung wird in die folgenden Bereiche unterteilt und diskutiert: die Gender Data Gap, welche fehlende Daten über nicht-männliche Personen beschreibt, die Gender Gap, die das Fehlen nicht-männlicher Personen in Entwicklungsprozessen thematisiert und Algorithmische Biases, welche mit unterschiedlich starkem menschlichen Einfluss dargelegt werden. Die durchgeführten Untersuchungen befassen sich mit Darstellungen von Geschlecht durch die Suchmaschine Google. Es konnte bestätigt werden, dass stereotype Identitätsdarstellungen vorkommen und Google eine generisch-maskuline Sichtweise vertritt, wodurch geschlechtsspezifische Datenlücken verstärkt werden. Mit dem Ziel, Biases in digitalen Prozessen sichtbar zu machen, werden in dieser Arbeit gestalterische Lösungsansätze präsentiert, die an verschiedenen Punkten der Problemstellung anknüpfen.
Kooperation setzt einen Informationsaustausch voraus. Die Veränderung der Kooperation durch die Globalisierung und Dezentralisierung von zusammenarbeitenden Personen und Organisationen ließen neue Kommunikationswege entstehen. Innerhalb der Jahre 1980 – 2022 wurden Technologien entwickelt, die den Informationsaustausch und die soziale Interaktion im digitalen Raum beeinflussen. Ein wesentliches Werkzeug dafür sind sogenannte Groupwares. Sie sind „[...] computer-based systems that support groups of people engaged in a common task (or goal) and that provide an interface to a shared environment.“ (Ellis; Gibbs; Rein 1991)
Das Ziel dieser Arbeit ist die Gestaltung einer solchen Groupware bzw. eines Kollaborationstools als Unterstützung für Meetings auf Basis gesellschaftlicher Einflüsse. Beginnend mit der aktuellen Beschaffenheit und Klärung der Begriffswelt, folgt darauf die Auseinandersetzung mit theoretischen Hintergründen, die eine Bearbeitung dieses Themas erst erlauben. Im nächsten Schritt wird die technische Realisierung mit all ihren Projektschritten, vom Grundgedanken bis hin zum Einsatz in unterschiedlichen Bereichen, erläutert. Die durchgeführte Evaluation in simulierten Umgebungen gibt Rückschlüsse auf eine Adaption.
Anschließend werden Empfehlungen für eine weitere Entwicklung und Untersuchungen abgegeben und zukünftige Möglichkeiten behandelt.
Mit der VRV 2015 wurde die österreichische Voranschlags- und Rechnungsabschlussverordnung reformiert. Die vorangegangene VRV 1997 wurde dadurch großteils abgelöst. Grundstruktur bildet dabei der Drei-Komponenten-Haushalt bzw. das Drei-Komponenten-Rechnungssystem bestehend aus Vermögens-, Finanzierungs- und Ergebnishaushalt. In diesen Haushalten werden die Finanzdaten der einzelnen österreichischen Gemeinden gesammelt.
Ziel der vorliegenden Arbeit ist es, unter Verwendung dieser Finanzdaten relevante Finanzkennzahlen zu identifizieren, welche Rückschlüsse auf die Finanzlage einer Gemeinde ermöglichen. Somit wurden die öffentlich auf der Onlineplattform www.offenerhaushalt.at zur Verfügung stehenden Daten von 1.327 der insgesamt 2.095 österreichischen Gemeinden verwendet. Da der Fokus in dieser Arbeit ausschließlich auf Gemeinden liegt, wurden nur Marktgemeinden und Gemeinden ohne Status berücksichtigt, um die Forschungsfrage beantworten zu können. Dafür wurden in einem ersten Schritt sorgfältig ausgewählte Kennzahlen berechnet und für jede Kennzahl wurde ein Bewertungsschema erstellt. Anschließend wurden die Gemeinden in verschiedene Gruppen eingeteilt und mittels verschiedener Methoden der deskriptiven und multivariaten Statistik analysiert. Die Gemeinden wurden anhand ihrer Einwohnerzahl, ihrer Kennzahlbewertung und ihrer Ähnlichkeit in jeweils drei Gruppen eingeteilt. Die Analysen anhand dieser Einteilungen führten zum Ergebnis, dass vor allem größere Gemeinden eine bessere Finanzlage aufweisen als kleine und mittelgroße Gemeinden. Zudem konnten einzelne Kennzahlen (Eigenertragsquote, Quote freie Finanzspitze und Nettovermögensquote) als relevante Einflussfaktoren für die Beschreibung der Finanzlage einer Gemeinde identifiziert werden. Ein Zusammenhang zwischen Bundesland und Finanzlage konnte nicht hergestellt werden. Zusammenfassend lässt sich sagen, dass die VRV 2015 die Transparenz und Vergleichbarkeit der Finanzdaten der Gemeinden erhöht. Auch die Berechnung aussagekräftiger Kennzahlen bietet zusätzliche Möglichkeiten die Gemeinden zu vergleichen. Auch wenn der zur Verfügung stehende Datensatz (noch) nicht vollständig ist, birgt die VRV 2015 und die damit verbundene verbesserte Übersicht großes Potenzial zur Vereinfachung der Bewertung und Vergleichbarkeit von Gemeinden.
Wohnzukünfte
(2022)
Die Thematik Wohnen ist in ihren Abhängigkeiten vielschichtig und damit komplex. Wird der Fokus jedoch nicht auf die einzelnen Aktanten, sondern auf die Beziehungen gelegt, kristallisiert sich die Nachbarschaft mit ihren Bewohner:innen an der Schnittstelle zu allen anderen Akteur:innen heraus. Vorstellungen von Gesellschaften in Form von Ideologien und die Gestaltung von Räumen sind direkt miteinander verknüpft. Doch die zeitgenössische Architektur basiert noch immer auf dem Wohnverständnis des 19. Jahrhunderts, der patriarchalen Kleinfamilie. Zeitgenössisch verändern sich Lebensformen aber zunehmend und werden immer vielfältiger. Welche Wünsche, Bedürfnisse und Anforderungen haben also Menschen heute an ihren Wohnraum? Wie stellen sie sich ihre Zukunft des Wohnens vor und was bedeutet für sie, sich zuhause fühlen? Was möchten Menschen mit anderen teilen und wie sieht für sie eine gute Nachbarschaft aus?Es gibt viele Studien und Erhebungen im Bereich der ‚Hard Facts‘, also Haushaltsgröße, Wohnfläche, Nutzungsfläche oder Preis, doch bis dato kaum relevantes, öffentlich zur Verfügung stehendes Wissen im Bereich der ‚Soft Facts‘, die die eben aufgeworfenen Fragen beinhalten. Diese Wünsche und Bedürfnisse lassen sich nur schwer mit klassisch standardisierten Erhebungs- und Beteiligungsformaten erfassen, wie sie in herkömmlichen Beteiligungsprozessen der Quartiers- und Immobilienentwicklung, aber auch von Statistikunternehmen eingesetzt werden.
Die Materialität jedoch, die Methode, mit der Wünsche und Bedürfnisse erfasst werden sollen, hat einen maßgeblichen Einfluss darauf, welche Handlungsabläufe bzw. welche unterschiedlichen Gesellschaftsstrukturen hervorgerufen werden. ‚Körperliches‘ Wissen, das über das Ausüben sozialer Praktiken entsteht, entspricht oftmals nicht dem Explizierten, weshalb das wirkliche Tun, statt nur das Darüber-Sprechen, in der Erforschung von komplexen, sozialen Phänomenen so wichtig ist. Praxisintegrierende Designforschung kombiniert mit einem Mixed-Methods-Ansatz ermöglicht genau das. Im Forschungsprozess dieser Masterarbeit wurden auf diese Weise vier Formate zur Erforschung von Wünschen und Bedürfnissen der Vorarlberger:innen an den (erweiterten) Wohnraum entwickelt, getestet, evaluiert und zur Datenerhebung eingesetzt. Die daraus entstandenen Daten wurden multiperspektivisch interpretiert, diskutiert und zu zwölf Thesen, zwölf möglichen ‚Wohnzukünften‘ synthetisiert.
Erosion due to cavitation is a common problem for any kind of water turbine. Most of the currently used techniques to detect cavitation are using an Acoustic Emission (AE) sensor and highspeed cameras during operation. For the pelton wheel which is subject of this thesis it is impossible to take pictures during operation, because of the splashing water and the mist. Therefore this thesis aims to explore possibilities in detecting erosion on the buckets of the pelton wheel on images taken during manual inspections. Since the provided images are snapshots taken with a mobile phone camera without a tripod, a lot of effort was invested in the preprocessing of the images. For the main task, the classification of the erosion, two methods were evaluated: Local Binary Patterns (LBP) + kN-earest neighbor classification and the classification with a Convolutional Neural Network (CNN). The given 2405 images, contained 4810 buckets on which the erosion was graded from zero to four. This means the baseline for the classification accuracy is 20%. LBP + kNearest neighbor classification scored 32.03%. The chosen CNN model, a light version of the Xception architecture outperformed the LBP + kNearest classification with 58,29%. The biggest issue found during research is the variance of the erosion grading by the maintainance personnel. Reasons for this are: no objective grading critera like the area of erosion in mm2, classification by different employees, a shift in grading from overall bucket condition to erosion from cavitation and too many classes for grading. The mentioned reasons were confirmed by the manual classification experiment were an IllwerkeVKW employee had to perform the grading on images of the dataset. The contestants accuracy score was 36% for this task. The result of 58,29% classification accuracy indicates that an automated grading of erosion by cavitation is feasible.
Unbegreiflich? Begreif mich!
(2022)
Fehlendes Wissen führt zu fehlendem Verständnis und beeinträchtigt die Empathie gegenüber Menschen mit Behinderungen und deren Lebensumständen.
Diese Arbeit untersucht bisherige Methoden zur medialen Verständnisvermittlung chronischer Krankheiten mittels Seznografie. Der Fokus liegt dabei auf rheumatischen Erkrankungen. Die Analyse beinhaltet Aspekte der Wahrnemungsvermittlung, welche bislang noch nicht oder ungenügend erforscht wurden. Es werden Beispiele zu verschiedenen Inszenierungen von Krankheit und deren Auswirkungen auf die Betroffenen gesammelt und analysiert. Dabei wird beurteilt, welche Methoden zur Vermittlung eingesetzt werden können, um durch das Erlebnis von Objekten die Empathie gegenüber körperbehinderten Menschen zu steigern und in weiterer Folge deren Inklusion in die Gesellschaft zu verbessern. Die Kombination aus faktischem Wissen gekoppelt mit einer Selbsterfahrung verstärkt den Lerneffekt und kann das Verhalten nachhaltig beeinflussen. Durch das immersive verstehen einer Situation besteht die Möglichkeit Empathie aufzubauen und zu stärken. Diese Faktoren werden bei der Konzipierung mit einbezogen und sind maßgeblich für die Struktur der Ausstellung.
Das erarbeitete Austellungskonzept baut auf bisherigen best practice Beispielen, sowie recherchierten Methoden auf, wobei die Besucher:innen immersiv mit dem Thema Behinderung und chronische Krankheiten konfrontiert werden. Dieses Konzept ist in Form einer Partitur dieser Arbeit beigelegt, um den Erlebnispfad durch die erarbeiteten Inhalte und Darstellungen übersichtlich zu präsentieren. Die entwickelten Objekte wurden durch Recherche und anhand von Interviews auf ihre Eignung geprüft und in ihrer Wirkung und Relevanz bestätigt.
Skiing is one of the most popular winter sports in the world and especially in the alps. As the skiers enjoy their time on the slopes the most annoying thing that could happen is long waiting times at a lift. Unfortunately, because of climate changes, this happens more regularly because smaller skiing areas at lower altitudes have to close and the number of good skiing days decreases as well. This leads to a increase in the number of skiers in the skiing areas which inevitably leads to longer waiting times and dissatisfied skiers. To prevent this from happening, the carriers of the skiing areas have to manage the skiers flow and distribution and what better way to analyse the current situation and possible changes then by simulating the whole area. A simulation has the advantage of being flexible with regards to time as well as configuration. Be it simulating a skiing day and look into detail of the behaviour of a single skier and how it moves in the area by simulating in real time or setting the focus to the whole area and find out when and where queues are forming throughout the whole day by speeding up the time and simulate the day in only seconds, everything is possible. Even simulating a scenario where some part of the area is closed and the skiers cannot take specific lifts due to some technical error or some slopes because of to less snow. By simulating and analysing all these scenarios not only does the experts of the skiing area gain valuable statistical information about the area but can also simulate changes to the system like a crowd fl ow control or an increase or decrease in capacity of a lift. The simulation built in context with this work for the skiing area of Mellau shows all those applications but can also be used as a basis for further improvements of the skiing area or be expanded to other areas like Damüls. The simulation was implemented using the Anylogic simulation environment and the statistical evaluation was also performed in this program.
Lingerie
(2022)
Insignien der Macht
(2022)
Die Coronavirus Pandemie hatte einen tiefgreifenden Einfluss auf die Art und Weise wie Staats- und Regierungschefs weltweit digitale Netzwerke für politische Kommunikation nutzen. Während PolitikerInnen über soziale Netzwerke vermehrt versuchten ihre WählerInnen zu erreichen, suchten auch NutzerInnen vermehrt auf Kanälen politischer AkteurInnen nach aktuellen Informationen zum Coronavirus. Die Pandemie hat gezeigt, dass die visuelle Kommunikation führender politischer AkteurInnen auf Social Media an Bedeutung gewinnt und als zunehmend zentrale Ressource politischen Handelns kritisch hinterfragt werden sollte. In digitalen Öffentlichkeiten ändern sich zunehmend Rahmenbedingungen visueller politischer Kommunikation. Durch Soziale Netzwerke erhalten PolitikerInnen die Möglichkeit einer ungefilterten Kommunikation mit ihren Wählergruppen. Aus Überlegungen über den Prozesswandel der politischen Kommunikation, stellt sich die Frage wie visuelle politische Kommunikation auf Social Media durch empirische Forschung und visuelle Analysen in ihren Inszenierungsstrategien dekodiert werden kann. Im Rahmen des Forschungs- und Designprojektes Insignien der Macht: Die Entschlüsselung visueller politischer Kommunikation im Zeitalter Visueller Politik soll auf Basis von Visual Literacy und der Bildpädagogik nach Otto Neurath eine visuelle Sammlung erstellt werden, die als Hilfsmittel zur Entschlüsselung inszenierter Bildmaterialien auf Social Media einen Beitrag zur kritischen Betrachtung von Bildern im Zeitalter Visueller Politik durch eine designpraktische Übersetzungsleistung der Forschungserkenntnisse leisten soll.
Untersuchung zur Lösbarkeit der Rückwärtskinematik eines 6-DOF Roboter mit einem neuronalen Netz
(2022)
Das Berechnen der inversen Kinematik ist komplex und muss für jeden Robotertyp individuell gelöst werden. Da ein Manipulator ohne die Rückwärtskinematik, die die erforderlichen Achsvariablen für eine Ziellage ermittelt, in der Praxis nicht verwendet werden kann, ist dieses Problem elementar in der Robotik. In dieser Arbeit wird der Ansatz zur Lösung der inversen Kinematik mit einem neuronalen Netz für einen Roboter mit sechs Freiheitsgarden untersucht. Dabei ist besonders darauf zu achten alle Mehrdeutigkeiten der inversen Kinematik beim Training zu berücksichtigen, da sonst das Kriterium des Determinismus zwischen Inputs und Outputs verletzt wird, was verhindert, dass ein Netz für das Problem trainiert werden kann. Es hat sich gezeigt, dass der Optimierungsalgorithmus Adams ebenso gute Ergebnisse wie der Scaled Conjugated Gradient erzielt. Die in Tensorflow verwendete typischen Aktivierungsfunktion Tangens hyperbolicus, weist im Vergleich zu anderen untersuchten Aktivierungsfunktionen, die in Tensorflow implementiert sind, die beste Performance auf. In MATLAB hingegen weist die Log sigmoid Aktivierungsfunktion die beste Performance von den implementierten Aktivierungsfunktionen auf. Zusätzlich verringert das Einschränken der Achsvariablen auf die tatsächlichen Achsbeschränkungen beim Trainieren des Netzes, sowohl den Netzwerkfehler als auch die Datenmenge, die benötigt wird, damit das Netz gut generalisiert. Abschließend stellt sich heraus, dass die trainierten Netze keine Praxistauglichkeit aufweisen, da der erzielte Netzwerkfehler zu groß ist. Da alle Mehrdeutigkeiten durch geometrische Analyse ausgeschlossen sind und ein ausreichend großer Datensatz verwendet wurde, kann mit den hier vorgestellten Ansätzen das Ergebnis nur durch komplexere Netze und damit mehr Daten verbessert werden. Andere Ansätze die zusätzliche Informationen zur Berechnung der Achswinkel zur Verfügung stellen könnten zudem auch bessere Ergebnisse erzielen. Darüber hinaus könnte es sinnvoll sein, Ansätze zu untersuchen, die sich die Achsbeschränkungen zunutze machen.
Der Begriff Digital Rights Management (DRM) umfasst Richtlinien, Techniken und digitale Werkzeuge, mit denen die Nutzung digitaler Inhalte eingeschränkt, gesteuert und kontrolliert werden kann. Im Wesentlichen werden dabei Technologien von Rechteinhaber:innen zur Zugangs- und Nutzungssteuerung sowie Verfolgung von Rechtsverstößen und gegebenenfalls sogar zur differenzierten Abrechnung digitaler Inhalte angewendet. Herkömmliche DRM-Systeme bestehen hauptsächlich aus Software und stützen sich auf softwarebasierte IT-Sicherheit. Um die IT-Sicherheit von DRM-Systeme auszuweiten, können Hardwarekomponenten eingesetzt werden. Die Kombination aus software- und hardwarebasierter IT-Sicherheit wird als Trusted Computing (TC) bezeichnet und ermöglicht Rechteinhaber:innen völlig neue Szenarien.
Um die Möglichkeiten von DRM mit TC zu erforschen bzw. diese zu demonstrieren, wurde im praktischen Teil dieser Arbeit eine technische und organisatorische Maßnahme prototypisch umgesetzt, mit der es einem Auftraggeber-System möglich ist, mit einer definierten Lizenz (bzw. DRM-Policy) sensible proprietäre Daten an ein Auftragnehmer-System zu senden, sodass dieses die sensiblen Daten nur auf eine Art und Weise verwenden kann, wie die Lizenz es vorgibt. Zur Umsetzung der Systeme wurde ein kryptografischer Coprozessor - genannt Trusted Platform Module (TPM) - verwendet. Das TPM verfügt über weitreichende kryptografische Funktionalitäten und bietet eine hardwarebasierte IT-Sicherheit. Das Gesamtsystem wurde somit als zweiteiliges System, ein Auftraggeber-System und ein Auftragnehmer-System, umgesetzt.
Im theoretischen Teil der Arbeit wird zuerst auf DRM und anschließend auf TC eingegangen. Besonders einige wichtige Funktionalitäten des TPM, welche in das System integriert wurden, werden erläutert. Des Weiteren wird auch das abhörsichere Kommunikationsprotokoll Hypertext Transfer Protocol Secure (HTTPS) vorgestellt und erklärt. HTTPS wird verwendet für den geschützten Datenaustausch zwischen den beiden Teilsystemen. Wie das Gesamtsystem inklusive der beiden Teilsystemen umgesetzt wurde, sowie welche Features es bietet und wie es funktioniert wird auch in einem Kapitel präsentiert und erläutert. Abschließend werden die positiven und negativen Aspekte des Systems sowie eine auf eigener Meinung beruhende Schlussfolgerung präsentiert.
Systems are constantly increasing in complexity. This poses challenges to managing and using system knowledge. The Systems Modeling Language (SysML) is a modeling language specifically for systems, while Machine Learning (ML) is a tool to tackle complex problems. Currently, no bridge between systems modelled in SysML and ML regarding said systems has been proposed in literature. This thesis presents an approach that uses Model-driven Software Engineering (MDSE) and Template-based Code Generation (TBCG) to generate a ML IPython Notebook (IPYNB) from a SysML model. A mapping configuration using JavaScript Object Notation (JSON) allows the definition of mappings between SysML elements and template variables, enabling configuration and user-supplied templates. To test the approach, a SysML model describing ML to predict the weather based on data is created. Python ML templates are supplied and template variables mapped with the JSON mapping configuration are proposed in the thesis. The outcome is an executable IPYNB that contains all information from the SysML model and follows the modelled workflow. The findings of the work show that model-driven ML using SysML as a modeling language is beneficial due to the representation of ML knowledge in a general-purpose modeling language and the reusability of SysML model elements. It further shows that TBCG and a mapping configuration allow for more flexible code generation without changing the source implementation.
Offline speech to text engine for delimited context in combination with an offline speech assistant
(2022)
The inatura museum in Dornbirn had planned an interactive speech assistant-like exhibit. The concept was that visitors could ask the exhibit several questions that they would like to ask a flower. Solution requirements regarding the functionalities were formulated, such as the capacity to run offline because of privacy reasons. Due to the similarity of the exhibit, open-source offline Speech To Text (STT) engines and speech assistants were examined. Proprietary cloud-based STT engines associated with the corresponding speech assistants were also researched. The aim behind this was to evaluate the hypothesis of whether an open-source offline STT engine can compete with a proprietary cloud-based STT engine. Additionally, a suitable STT engine or speech assistant would need to be evaluated. Furthermore, analysis regarding the adaption possibilities of the STT models took place. After the technical analysis, the decision in favour of the STT engines called "Vosk" was made. This analysis was followed by attempts to adapt the model of Vosk. Vosk was compared to proprietary cloud-based Google Cloud Speech to Text to evaluate the hypothesis. The comparison resulted in not much of a significant difference between Vosk and Google Cloud Speech to Text. Due to this result, a recommendation to use Vosk for the exhibit was given. Due to the lack of intent parsing functionality, two algorithms called "text matching algorithm" and "text and keyword matching algorithm" were implemented and tested. This test proved that the text and keyword matching algorithm performed better, with an average success rate of 83.93 %. Consequently, this algorithm was recommended for the intent parsing of the exhibit. In the end, potential adaption possibilities for the algorithms were given, such as using a different string matching library. Some improvements regarding the exhibit were also presented.
Seit der Einführung von modernen Smartphones steigt die Bildschirmdiagonale der mobilen Endgeräte Jahr für Jahr. Dies ist sowohl ein Fluch als auch ein Segen zugleich. Einerseits kann auf einer größeren Bildschirmfläche eine größere Anzahl von Inhalten grafisch dargestellt werden. Andererseits bedeutet dies aber auch, dass Interaktionen mit der gesamten verfügbaren Bildschirmfläche sich als immer schwieriger gestalten. Insbesondere bei der einhändigen Bedienung des Smartphones mit dem Daumen erfordern ungünstig platzierte klickbare Bedienelemente eine erhebliche Streckung des betreffenden Fingers oder sogar die Unterstützung durch die andere Hand. Dadurch kann die Präzision von Berührungsinteraktionen beeinträchtigt werden. Es stellt sich deshalb folgende Forschungsfrage: „Inwiefern hängt die Berührungspräzision von unvorteilhaft positionierten Bedienelementen in Smartphones ab und wie unterscheiden sich die verschiedenen Altersgruppen hinsichtlich Smartphone Interaktionen?“ Zur Beantwortung der Forschungsfrage wurde eine quantitative Studie im Design einer interaktiven Umfrage für Smartphones programmiert und an potentielle Teilnehmer:innen versandt. Dabei wurden die Teilnehmenden aufgefordert vordefinierte Haltegriffe einzuhalten. Es wurden die Berührungsinteraktionen und die Antworten der Teilnehmenden protokolliert und anschließend analysiert. Bei der Datenanalyse wurden die erhobenen Daten der Teilnehmenden in vier Altersklassen unterteilt und anschließend auf Differenzen bezüglich der Bedienpräzision untersucht. Die Darstellung und der Vergleich der Benutzer:inneninteraktionen durch OffsetVektoren ergab, dass die Versuchsgruppe der Senioren bei allen vordefinierten Haltegriffen eine signifikant geringere Präzision in Bezug auf die Berührungsgenauigkeit aufwies als die anderen Testgruppen. Darüber hinaus wurde festgestellt, dass Objekte, die weiter von der natürlichen Fingerposition entfernt sind, mit einer geringeren Präzision selektiert werden als Objekte, die in unmittelbarer Nähe zum bedienenden Finger positioniert sind. Dies zeigte sich sowohl bei der Bedienung mit dem Daumen als auch mit dem Zeigefinger und ist abhängig vom Winkel des bedienenden Fingers zum Smartphone.
Das Ziel dieser Arbeit ist die Analyse und Entwicklung einer Aktor-Bibliothek in Rust. Existierende Aktor-Bibliotheken in Rust verletzen grundlegende Regeln des Aktor-Modells, wodurch diese in nicht allen Anwendungsfällen verwendet werden können. Des Weiteren existiert keine strukturierte Arbeit zu der Entwicklung einer Aktor-Bibliothek in Rust. Die in dieser Arbeit entwickelte Bibliothek entspricht einerseits den Ideen des Aktor-Modells, andererseits wird die Erarbeitung und die durchlaufene Analyse der Bibliothek durch diese Arbeit dokumentiert. In einem ersten Schritt wird das Aktor-Modell und grundlegende Spracheigenschaften von Rust eingeführt, bevor das Design der entwickelten Aktor-Bibliothek vorgestellt und getroffene Design-Entscheidungen beschrieben und begründet werden. Darauffolgend werden die Implementationen der relevantesten Komponenten der Bibliothek beschrieben und anhand von Code-Beispielen erklärt. Des Weiteren wird das Design und die Implementation eines Test-Frameworks für Aktoren präsentiert, das das Testen von Aktoren erleichtern soll. Anhand der Implementation eines Praxisbeispiels wird die entwickelte Aktor-Bibliothek mit Java Akka durch Code-Vergleiche und Benchmarks verglichen. Hierbei wird gezeigt, dass die Verwendung der entwickelten Bibliothek mit einem vergleichbar gleich großen Code-Aufwand zu denselben und mitunter besseren Ergebnissen führen kann. Abschließend werden vorhandene Einschränkungen der entwickelten Bibliothek und deren Auswirkungen beschrieben.
The demand for managing data across multiple domains for product creation is steadily increasing. Model-Driven Systems Engineering (MDSE) is a solution for this problem. With MDSE, domain-specific data is formalized inside a model with a custom language, for example, the Unified Modelling Language (UML). These models can be created with custom editors, and specialized domains can be integrated with extensions to UML, e.g., the Systems Modeling Language (SysML). The most dominant editor in the open-source sector is Eclipse Papyrus SysML 1.6 (Papyrus), an editor to create SysML diagrams for MDSE.
In the pursuit of creating a model and diagrams, the editor does not support the user appropriately or even hinders them. Therefore, paradigms from the diagram modelling and Human Computer Interaction (HCI) domains, as well as perceptual and design theory, are applied to create an editor prototype from scratch. The changes fall into the categories of hierarchy, aid in the diagram composition, and navigation. The prototype is compared with Papyrus in a user test to determine if the changes have the effect of improving usability.
The study involved 10 participants with different knowledge levels of UML, ranging from beginners to experts. Each participant was tested on a navigation and modelling task in both the newly created editor, named Modelling Studio, and Papyrus. The study was evaluated through a questionnaire and analysis of the diagrams produced by the tasks.
The findings are that Modelling Studio’s changes to the hierarchical elements improved their rating. Furthermore, aid for diagram composition could be reinforced by changes to the alignment helper tool and adjustments to the default arrow behaviour of a diagram. Lastly, model navigation adjustments improve a link’s visibility and rating of a specialized link (best practice). The introduction of breadcrumbs had limited success in bettering navigation usability. The prototype deployed a broad spectrum of changes that found improvement already, which can, however, be further improved and tested more thoroughly.
With the rise of people wearing smartwatches and the ever-lasting issue of stress, there has been an interest in detecting stress with wearables in real-time. This allows for interventions that take place exactly when stress occurs. However, many situations require all of our attention, making them unsuitable for any interventions. Additionally, many approaches currently do not factor in this aspect, running the risk of offering users undesirable interventions.
This thesis examines how contextual user information can be incorporated into a stress intervention system to reduce undesirable intervention timings. The system is split into detecting stress using heart rate variability (HRV) metrics obtained from a photoplethysmography (PPG) signal, and inferring user context from available sensor data. It is evaluated with a simulation-based approach using daily schedules of created personas and randomly sampled stressors during daily life.
The results obtained indicate the benefit of adding contextual user information to a stress intervention system. Depending on the busyness of the schedule, it can greatly decrease the number of received interventions. However, as these findings are attained without performing a user testing, it is unclear how they compare to results from real-world usage.