Refine
Year of publication
Document Type
- Article (450)
- Master's Thesis (412)
- Conference Proceeding (396)
- Part of a Book (231)
- Book (107)
- Report (28)
- Other (18)
- Doctoral Thesis (14)
- Working Paper (9)
- Preprint (5)
Institute
- Wirtschaft (350)
- Forschungszentrum Mikrotechnik (253)
- Technik | Engineering & Technology (194)
- Forschungszentrum Business Informatics (168)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (164)
- Soziales & Gesundheit (145)
- Forschungsgruppe Empirische Sozialwissenschaften (117)
- Forschungszentrum Human Centred Technologies (102)
- Forschungszentrum Energie (88)
- Didaktik (mit 31.03.2021 aufgelöst; Integration ins TELL Center) (68)
Keywords
- Social Work (18)
- Organizational Studies, Economic Sociology (17)
- Social Structure, Social Inequality (17)
- Soziale Arbeit (15)
- Digitalisierung (14)
- Controlling (11)
- Laser ablation (11)
- Y-branch splitter (11)
- arrayed waveguide gratings (11)
- +KDC 122 (9)
In this work, we present a significant step toward in vivo ophthalmic optical coherence tomography and angiography on a photonic integrated chip. The diffraction gratings used in spectral-domain optical coherence tomography can be replaced by photonic integrated circuits comprising an arrayed waveguide grating. Two arrayed waveguide grating designs with 256 channels were tested, which enabled the first chip-based optical coherence tomography and angiography in vivo three-dimensional human retinal measurements. Design 1 supports a bandwidth of 22 nm, with which a sensitivity of up to 91 dB (830 µW) and an axial resolution of 10.7 µm was measured. Design 2 supports a bandwidth of 48 nm, with which a sensitivity of 90 dB (480 µW) and an axial resolution of 6.5 µm was measured. The silicon nitride-based integrated optical waveguides were fabricated with a fully CMOS-compatible process, which allows their monolithic co-integration on top of an optoelectronic silicon chip. As a benchmark for chip-based optical coherence tomography, tomograms generated by a commercially available clinical spectral-domain optical coherence tomography system were compared to those acquired with on-chip gratings. The similarities in the tomograms demonstrate the significant clinical potential for further integration of optical coherence tomography on a chip system.
Towards a high productivity automatic analysis framework for classification. An initial study
(2013)
Towards a novel infrastructure for conducting high productive cloud-based scientific analytics
(2016)
Towards a strategic management framework for engineering of organizational robustness and resilience
(2020)
Data is the new oil,” said British Mathematician and Tesco marketing mastermind Clive Humbly1. Data has also been described as the backbone of digital retail enterprises2 and the currency of the digital age. Whether these statements live up to be true is debatable, but what is certain is the fact that the internet age has contributed to the avalanche of data witnessed today. In a century dominated by predictive analysis and artificial intelligence, it is no surprise that by the end of the last decade, data companies Apple, Amazon and Microsoft closed as the world´s first trillion-dollar companies, with their revenues dwarfing economies of several countries across the globe.3The recognition of the importance of data in today´s economy bears with it the responsibility to protecting its owners. While this intricate balance has long been the subject of legal analysis the General Data Protection Regulation, 2018, is hailed as the world´s most comprehensive and strict data protection regime currently in force. In addition to protecting the personal data of persons from its member countries, the Regulation also seeks to ensure the same protection accompanies any data transferred out of the European Union to other countries. It is almost 5 years since the Regulation was passed and process of implementation into business operations an important topic of discussion. Of importance to this study are the Modernized Standard Contractual Clauses, a tool of data transfer to countries outside the EU, which replace the three sets of SCCs adopted by the now repealed Data Protection Directive 94/46. These Standard Contractual Clauses came into effect on 27th September 2021, and companies have until 27th September 2022 to rely on the old set of clauses. With this deadline coming up, how far have the clauses been integrated into operations by businesses in Austria and the EU?
Transparent laser-structured glasses with superhydrophilic properties for anti-fogging applications
(2019)
Ultrashort pulse laser structuring enables direct modification of glass surfaces to generate superhydrophilic properties for anti-fogging applications. This approach makes coatings dispensable and the generated surfaces remain thermally, mechanically, and chemically resistant. However, the laser-generated structures usually cause scattering, which decreases transmission and may disturb the vision through the modified glass in the dry state. The aim of this study was to find a laser-processing strategy to achieve superhydrophilic, anti-fogging properties on glass surfaces with maximum transmission and minimal visual perception of the generated structure. For this purpose, we used an ultrashort-pulsed laser to generate periodic patterns of rippled circles or rough holes with varying pitch. The water contact angle and transmission of the structured glasses were measured as a function of the structured area. It was found that a periodic pattern of holes, which covers less than 1% of the surface, is already sufficient to reach the superhydrophilic state (contact angle < 5°) and provides nearly the same transmission as pristine glass. Pictures of objects imaged through dry, structured glasses, which were placed close to the lens or object, showed in both cases only a minimal decrease of contrast. If this minor drawback can be accepted, this direct laser structuring approach could be an interesting alternative to coating-based techniques and leaves even room to apply additional coatings for the fabrication of multi-functional special glasses.
The e-commerce market has been growing for years and this trend seems to be continuing. Online stores for clothing are very successful. It seems that hardly any company can afford not to have a digital presence. This goes hand in hand with the fact that the range of products on offer to customers is getting bigger and bigger. But it's not just the range that's getting bigger, it's also the effort customers have to make to find the right product. For this reason, many successful online stores are already relying on AI. In doing so, companies are creating opportunities for customers that an employee could hardly manage. Implemented on the website, AI can check inventory, update it in real time, predict trends and evaluate customer or user data and make suitable recommendations. This is important for the customer because with the huge choice available, for one thing, personalization is increasingly important and being presented with a relevant selection. A central question is whether the recommendations are trustworthy and whether they can be equated with a real salesperson advising the customer. After all, trust is relevant in longterm customer relationships in that it leads to loyalty and satisfaction, which in turn increases the intention to repurchase. The recommendation tools mentioned are also of particular interest for another reason. On the one hand, they help customers to get a relevant selection of the offer and thus to get faster to the desired one. On the other hand, they are relevant for companies not only because of customer satisfaction, but also because of the chance to reduce returns. The large online stores for clothing offer their customers very generous opportunities to return the goods free of charge. In doing so, the companies have responded to customer wishes, because hardly anything is more important to them when it comes to online shopping: free returns. In this way, customers have minimized the risk of having to keep goods that do not fit or please them. This thesis examines whether recommendation tools can help customers to better assess the sizes and properties of clothing, so that they receive more suitable clothing and do not even feel the need to order several sizes of the same item of clothing. It can therefore be assumed that trust in the recommendations of the AI tools reduces uncertainty, which in turn should reduce the intention to return goods. Another assumption to be tested is that of the perceived usefulness of the recommendation tools. As a prerequisite to get an assessment of these assumptions is the usage of the tools. Therefore, a survey was initiated in the DACH region to assess the extent to which usage influences the factors mentioned. It was found by means of a regression analysis that the frequency of online purchases, mediated by perceived usefulness, explains the influence on trust.
Ultrafast-laser manufacture of radially emitting optical fiber diffusers for medical applications
(2018)
In recent years, ultrashort pulsed lasers have increased their applicability for industrial requirements, as reliable femtosecond and picosecond laser sources with high output power are available on the market. Compared to conventional laser sources, high quality processing of a large number of material classes with different mechanical and optical properties is possible. In the field of laser cutting, these properties enable the cutting of multilayer substrates with changing material properties. In this work, the femtosecond laser cutting of phosphor sheets is demonstrated. The substrate contains a 230 micrometer thick silicone layer filled with phosphor, which is embedded between two glass plates. Due to the softness and thermal sensitivity of the silicone layer in combination with the hard and brittle dielectric material, the separation of such a material combination is challenging for both mechanical separation processes and cutting with conventional laser sources. In our work, we show that the femtosecond laser is suitable to cut the substrate with a high cutting edge quality. In addition to the experimental results of the laser dicing process, we present a universal model that allows predicting the final cutting edge geometry of a multilayer substrate.
Zusammenfassung: Eine umfassende Literaturrecherche (Comprehensive Literature Search, CLS) bezeichnet eine umfangreiche und aufwändige Recherche mit dem Ziel, möglichst alle Studien zur Beantwortung einer zugrundeliegenden Forschungsfrage im Rahmen einer systematischen Übersichtsarbeit zu identifizieren. Konkrete Empfehlungen oder eine Definition des Begriffs CLS gibt es jedoch nicht. Der vorliegende Beitrag führt in eine Rahmung der CLS ein, stellt die damit einhergehenden Herausforderungen dar und weist auf methodische Implikationen sowie mögliche zukünftige Forschungsbereiche hin.
Umgang mit negativen Effekten in Talentmanagement Programmen von Vorarlberger Großunternehmen
(2022)
In den letzten Jahren lässt sich insbesondere in den Industrienationen ein wachsendes Interesse für Umweltfragen feststellen. In der betriebswirtschaftlichen Praxis äußert sich dies in der Initiierung verschiedener unternehmerischer Umweltinitiativen, über die regelmäßig in der einschlägigen Wirtschaftspresse zu lesen ist. Zugleich findet sich im Bereich der Wirtschaftswissenschaften ein breiter Literaturkörper, der die Auswirkungen einer verstärkten unternehmerischen Umweltorientierung auf den finanzwirtschaftlichen Erfolg kontrovers diskutiert. So existieren unterschiedlichste Theorien, die von einem positiven oder aber negativen Zusammenhang ausgehen. Empirische Untersuchungen zu dieser Fragestellung sind für Deutschland hingegen kaum auffindbar. Die Studie nimmt sich dieser Lücke an. Dabei werden zu Beginn wesentliche Begrifflichkeiten und Konzepte erläutert. Zudem erfolgt eine ausführliche Diskussion des aktuellen theoretischen Forschungsstands über mögliche Zusammenhänge von unternehmerischer Umweltleistung und finanzwirtschaftlichem Erfolg. Dem werden bisherige empirische Erkenntnisse gegenübergestellt. Den Kern der Untersuchung bilden zwei empirische Analysen am deutschen (Kapital-)Markt. Zunächst wird im Rahmen einer Ereignisstudie für den Zeitraum von 1993 bis 2008 untersucht, inwiefern sich Unternehmenswertänderungen am Aktienmarkt nach der Verleihung von Umweltpreisen feststellen lassen. Innerhalb der zweiten Analyse wird anhand von Querschnittsdaten der Jahre 2006 bis 2008 überprüft, ob ein Zusammenhang zwischen bilanziellen bzw. kapitalmarktbasierten Kennzahlen und sogenannten Umweltratings besteht. Besonderer Wert wird bei beiden Untersuchungen auf die Robustheit der Ergebnisse gelegt, weshalb u. a. der robuste MM-Schätzer sowie Bootstrap-Testverfahren Verwendung finden. Das Buch trägt dazu bei, eine häufig polemisch geführte Diskussion auf eine wissenschaftlich fundierte Basis zu stellen. Anleger erhalten zudem Anhaltspunkte, ob eine Investition in verhältnismäßig "grüne" Unternehmen mit finanziellen Nachteilen verbunden sein muss.
Unbegreiflich? Begreif mich!
(2022)
Fehlendes Wissen führt zu fehlendem Verständnis und beeinträchtigt die Empathie gegenüber Menschen mit Behinderungen und deren Lebensumständen.
Diese Arbeit untersucht bisherige Methoden zur medialen Verständnisvermittlung chronischer Krankheiten mittels Seznografie. Der Fokus liegt dabei auf rheumatischen Erkrankungen. Die Analyse beinhaltet Aspekte der Wahrnemungsvermittlung, welche bislang noch nicht oder ungenügend erforscht wurden. Es werden Beispiele zu verschiedenen Inszenierungen von Krankheit und deren Auswirkungen auf die Betroffenen gesammelt und analysiert. Dabei wird beurteilt, welche Methoden zur Vermittlung eingesetzt werden können, um durch das Erlebnis von Objekten die Empathie gegenüber körperbehinderten Menschen zu steigern und in weiterer Folge deren Inklusion in die Gesellschaft zu verbessern. Die Kombination aus faktischem Wissen gekoppelt mit einer Selbsterfahrung verstärkt den Lerneffekt und kann das Verhalten nachhaltig beeinflussen. Durch das immersive verstehen einer Situation besteht die Möglichkeit Empathie aufzubauen und zu stärken. Diese Faktoren werden bei der Konzipierung mit einbezogen und sind maßgeblich für die Struktur der Ausstellung.
Das erarbeitete Austellungskonzept baut auf bisherigen best practice Beispielen, sowie recherchierten Methoden auf, wobei die Besucher:innen immersiv mit dem Thema Behinderung und chronische Krankheiten konfrontiert werden. Dieses Konzept ist in Form einer Partitur dieser Arbeit beigelegt, um den Erlebnispfad durch die erarbeiteten Inhalte und Darstellungen übersichtlich zu präsentieren. Die entwickelten Objekte wurden durch Recherche und anhand von Interviews auf ihre Eignung geprüft und in ihrer Wirkung und Relevanz bestätigt.
Adult muscle carnitine palmitoyltransferase (CPT) II deficiency is a rare autosomal recessive disorder of long-chain fatty acid metabolism. It is typically associated with recurrent episodes of exercise-induced rhabdomyolysis and myoglobinuria, in most cases caused by a c.338C > T mutation in the CPT2 gene. Here we present the pedigree of one of the largest family studies of CPT II deficiency caused by the c.338C > T mutation, documented so far. The pedigree comprises 24 blood relatives
of the index patient, a 32 year old female with genetically proven CPT II deficiency. In total, the mutation was detected in 20 family members, among them five homozygotes and 15 heterozygotes. Among all homozygotes, first symptoms of CPT II deficiency occurred during childhood. Additionally, two already deceased relatives of the index patient were carriers of at least one copy of the genetic variant, revealing a remarkably high prevalence of the c.338C > T mutation within the tested family. Beside the index patient, only one individual had been diagnosed with CPT II deficiency prior to this study and three cases of CPT II deficiency were newly detected by this family study, pointing
to a general underdiagnosis of the disease. Therefore, this study emphasizes the need to raise awareness of CPT II deficiency for correct diagnosis and accurate management of the disease.
Der Unternehmensbewertung kommt seit jeher ein hoher Stellenwert unter den Disziplinen der Betriebswirtschaftslehre zu. Obwohl die Unternehmensbewertung als gut erforschtes Fachgebiet bezeichnet werden kann, gibt es durchaus noch Teilbereiche, denen bisher noch keine ausreichende Beachtung geschenkt worden ist. Hierzu zählt insbesondere die Fragestellung, inwiefern Steuern Einfluss auf das Wertwachstum bei der Bewertung ausüben. Die vorliegende Arbeit versucht diesen Bereich durch eine umfassende Analyse näher zu beleuchten. Dabei werden zunächst die wichtigsten Grundlagen von Unternehmensbewertung, Wachstum und Steuern dargelegt. Die erlangten Erkenntnisse werden anschließend in einem Bewertungsmodell zusammengeführt und interpretiert. Es erfolgt dabei stets eine Gegenüberstellung der steuerlichen Rahmenbedingungen vor und nach der Unternehmenssteuerreform 2008. Um nicht nur den Bedürfnissen der Wissenschaft, sondern ebenfalls denen der Praxis gerecht zu werden, werden die Grundsätze zur Durchführung von Unternehmensbewertungen des Instituts der Wirtschaftsprüfer (IDW S 1) kritisch in die Analyse mit einbezogen.
Unternehmen müssen ihre Prozesse stetig weiterentwickeln und verbessern, damit sie trotz des stärkeren Wettbewerbsdrucks am globalen Markt bestehen können. Process Mining verknüpft hochinnovative Technologie mit der Evaluation und Entwicklung von Geschäftsprozessen. Process Mining ist ein Verfahren, das dazu dient, bestehende Geschäftsprozesse aus gesammelten Daten von Informationssystemen zu identifizieren, mit bestehenden Soll-Prozessen zu vergleichen und die Geschäftsprozesse anhand der gewonnenen Erkenntnis zu verbessern. Dadurch werden Prozesse optimiert und die Wettbewerbsfähigkeit von Unternehmen wird nachhaltig gesteigert. Dennoch zeigen Erfahrungsberichte und Untersuchungen aus der Marktforschung, dass viele Process Mining Projekte scheitern, weil gewisse Faktoren der Unternehmenskultur nicht berücksichtigt werden. Es besteht eine Wissenslücke, inwiefern die Faktoren den zielführenden Einsatz von Process Mining beeinflussen. Deshalb war es das Ziel dieser Masterarbeit, herauszufinden, welche Faktoren der Unternehmenskultur den zielführenden Einsatz von Process Mining beeinflussen. Hierfür wurden in einer Literaturrecherche N= 1,491 Titel und N= 97 Abstrakte gescannt, bis N=28 wissenschaftliche Artikel und Erfahrungsberichte übrig waren, die von Relevanz und wissenschaftlichen Wert für diese Arbeit waren. Um diese N=28 wissenschaftlichen Artikel und Erfahrungsberichte zu analysieren, wurde eine Kombination aus der Vorgehensweise der Hermeneutik nach Gadamer sowie einer induktiven qualitativen Analyse nach Mayring angewendet. Die Ergebnisse aus der qualitativen Analyse aus dieser Masterarbeit haben gezeigt, dass neben der technologischen Infrastruktur die Faktoren der Unternehmenskultur wie Potenziale der Mitarbeitenden, Vision und Mission, Kommunikation mit den Mitarbeitenden, Partizipation der Mitarbeitenden und Kundenorientierung eine zentrale Rolle für den zielführenden Einsatz von Process Mining spielen. Zusammenfassend wird in dieser Masterarbeit gezeigt, dass es vor dem Beginn eines Projektes wesentlich ist, das Process Mining in die Unternehmensstrategie zu integrieren und gleichzeitig Vertrauen aufzubauen. Die Kompetenzen der Mitarbeitenden und deren Kooperation haben während der Umsetzung nicht nur einen Einfluss auf das Process Mining, sondern werden dadurch auch gestärkt. Zukünftige qualitative Studien könnten dazu beitragen, weitere Faktoren zu identifizieren, die aus Sicht der Mitarbeitenden, des Managements, der Kunden und anderer Stakeholder den zielführenden Einsatz von Process Mining in Unternehmen behindern oder ermöglichen. Außerdem könnte ein Fragebogen entwickelt und validiert werden, um die Bereitschaft von Unternehmen für ein Process Mining Projekt zu evaluieren.
Kultur und Werte sind allgegenwärtig in unseren Leben. Sie prägen uns Menschen nicht nur im persönlichen und privaten Umfeld, sondern sind auch Teil von Gesellschaftsstrukturen und Unternehmen. Das Ziel dieser Masterthesis ist es deshalb, herauszufinden, welchen Zusammenhang es zwischen den Themen Unternehmenskultur und Mitarbeiterbindung gibt und ob die Unternehmenskultur in Familienunternehmen dazu beitragen kann eine höhere Mitarbeiterbindung zu schaffen. Dabei werden eine Vielzahl an Motivationsfaktoren, sowie Werten berücksichtigt, welche in einer quantitativen Forschung Aufschluss darüber geben sollen, was den Mitarbeitenden in Vorarlberger Unternehmen wichtig ist und wie diese die Unternehmenskultur in ihren Betrieben wahrnehmen. Mit Hilfe eines standardisierten Fragebogens konnten 151 Personen mit einem Durchschnittsalter von 34,93 Jahren erreicht werden. Dabei wurde ersichtlich, dass die Faktoren angenehme Arbeitsatmosphäre, Jobsicherheit, Weiterbildung/Entwicklung, Führung und Work-Life-Balance die wichtigsten Motivationsfaktoren darstellen. Im Bereich Werte sind Verlässlichkeit, Ehrlichkeit, Verantwortungsbewusstsein, Respekt und Fairness am wichtigsten. Diese Erkenntnisse konnten unabhängig von der Unternehmensform erlangt werden.
Unterscheidung als Grundoperation in sozialen Systemen. Eine sozialkybernetische Betrachtung
(2014)
Im Rahmen dieser Masterthesis wurde beispielhaft gezeigt, mit welchen Maßnahmen die Handhabung (Gewicht, Größe) von Nasskühlern verbessert werden kann. Dabei wurde berücksichtigt, dass Kühlleistung und Durchsatz dem aktuellen Stand der Technik entsprechen.
Die zu Beginn durchgeführten Messungen an einem, in der Praxis eingesetzten, Referenzgerät und die darauffolgenden Berechnungen lieferten die thermodynamischen Größen (Temperatur, Druck). Diese physikalischen Größen lieferten die Randbedingungen der darauffolgenden Computational Fluid Dynamics (kurz CFD) Simulationen. Aus technischen Gründen wurde der Druck nicht direkt über Sensoren gemessen, sondern mit Hilfe der gemessenen Temperaturen berechnet. Da die Druckmessung einen zu starken Eingriff ins System dargestellt hätte. Um die Korrektheit der berechneten Drücke sicherzustellen, wurden in weiterer Folge die Temperaturen nachgerechnet und mit den Messwerten verglichen.
Um die Messwerte beziehungsweise die Berechnungen weiter zu bestätigen, ist zuerst ein CAD-Modell des vorhanden Referenzgerätes erstellt worden. Dieses CAD-Modell wurde dann hergenommen, um die ersten CFD Simulationen durchzuführen. Die Schwierigkeit hierbei lag bei der realistischen Abbildung der physikalischen Vorgänge, wie beispielsweise bei dem Verdampfen und Kondensieren des Kältemittels (Arbeitsmedium). Es wurden die einzelnen Komponenten des Kältekreislaufes simuliert (Wärmetauscher des Nutzmediums, Verdampfer und Kondensator des Arbeitsmediums).
Abschließend wurde ein Entwurf zur Optimierung von Schankanlagen erarbeitet. Von diesen wurden (teilweise) CAD Modelle erstellt. Die Modelle der optimierten Komponenten wurden dann, bezogen auf ihr Volumen und Gewicht, mit denen des Referenzgerätes, gegenübergestellt.
Den Abschluss der Arbeit bildet ein Fazit über die durchgeführten Berechnungen, Messungen und Simulationen. Des Weiteren wurden hier Aspekte, die nicht in der Arbeit berücksichtigt wurden, kurz aufgegriffen und erläutert.
Die Integration regenerativer und innovativer Energiespeichertechnologien in der Gebäudetechnik ist ein zentraler Bestandteil der Strategie, um die globalen Ziele der Energiewende zu erreichen. Um die Energieeffizienz von Gebäuden zu verbessern, stellen geothermische Energiequellen sowie Erdspeichersysteme in Kombination mit Wärmepumpen und Kältemaschinen eine sehr effiziente Technologie dar. Da bei der Oberflächennahen Geothermie in Abhängigkeit des Standorts eine gemittelte Erdreichtemperatur von 10 °C bereitgestellt wird, kann vorallem bei Niedertemperatursystemen durch die Verwendung von Wärmepumpen eine hohe Jahresarbeitszahl erreicht werden. Wird ein Gebäude zusätzlich noch gekühlt, kann durch die Regeneration des Erdspeichersystems zudem der Effekt der saisonalen Energiespeicherung ausgenutzt werden.
Im Rahmen dieser Arbeit werden drei unterschiedlichen Erdspeichersysteme für ein bestehendes Gebäude mit der Simulationssoftware Ida Ice simuliert. Die in dieser Arbeit verwendeten Erdspeichersysteme sind: Erdwärmesonden, Energiepfähle und Bodenabsorber. Die Speichersysteme werden mit einer Wärmepumpe und Kältemaschine für die Energiebereitstellung und der entsprechenden Regelungstechnik kombiniert. Neben einer energetischen Betrachtungsweise wird zusätzlich eine Wirtschaftlichkeitsberechnung durchgeführt, um die ökonomische Bewertung bei allen Energiespeichersystem mit zu berücksichtigen.
Die Ergebnisse zeigen, dass die Bewertung der Energiespeichersysteme von vielen Dimensionierungsparametern abhängig sind und jedes System seine Vor- und Nachteile aufweist. Über einen kurzfristigen Zeitraum von zwei Jahren kann durch die Erdwärmesonden die höchste Vorlauftemperatur und dadurch die beste Jahresarbeitszahl erreicht werden. Langzeitsimulationen zeigen jedoch, dass ohne genügend Regenration das Erdreich bei der Erdwärmesondenvariante auskühlt, weshalb in einer zusätzlichen Variante die Regeneration der Erdwärmesonden durch das Verwenden einer Solarthermieanlage simuliert wird. Das Auskühlen des Erdreichs kann bei den Energiepfählen durch die natürlichen Speichereffekte, die aus der Koppelung des Gebäudefundaments mit den Energiepfählen resultieren, vermieden werden, wodurch die Energiepfahlvariante über einen Zeitraum von mehreren Jahren und ohne Regeneration die effizienteste Variante ist. Die Bodenabsorbervariante kann durch die limitierende Dimensionierung aufgrund der Gebäudefundamentoberfläche den Wärmebedarf des Gebäudes nicht decken, wodurch die Heizelemente beim Pufferspeicher aktiviert werden müssen, was zu einer schlechteren Jahresarbeitszahl führt. Auch im Vergleich zu der bestehenden Luftwärmepumpen-Referenzanlage weist die Bodenabsorbervariante einer geringere Jahresarbeitszahl auf, wodurch die Variante als die am wenigste effizienteste bewertet wird. Bei der Wirtschaftlichkeitsberechnung ist die Erdwärmesondenvariante aufgrund der hohen Investitionskosten die teuerste Variante und der Bodenabsorber die günstigste. Eine Sensitivitätsanalyse zeigt jedoch, dass bei einer Energiepreissteigerung die Bodenabsorber aufgrund der Aktivierung der Heizelemente beim Pufferspeicher in Richtung teuerste Variante tendiert.
Um ein möglichst kostengünstiges Laden von Elektrofahrzeugen zu erreichen, ist es nötig, diese möglichst in Zeiten zu laden, an denen die Kosten für die Energie geringer sind und die Entstehung von Leistungsspitzen vermieden wird. Aus diesem Grund wird in dieser Arbeit anhand des Verbrauches und den tariflichen Bedingungen eines Betriebes in Österreich die Kostenentwicklung von drei verschiedenen Ladeszenarien untersucht und verglichen. Dabei handelt es sich um das einfache Laden, intelligente Laden und das intelligente Laden mit Vehicle to Grid Erweiterung, wobei hierbei die Energie aus den Fahrzeugen ausschließlich zur Eigenverbrauchsoptimierung und Spitzenlastreduktion eines Betriebes dient und somit nicht in das Netz gespeist wird. Die Ergebnisse werden durch eine lineare Optimierung errechnet wobei bis zu vier Fahrzeuge simuliert werden.
Die Ergebnisse zeigen, dass es durch das intelligente Laden zu keinen neuen Leistungsspitzen kommt und es zusätzlich zu einem erhöhten Eigenverbrauch aus der vorhandenen Photovoltaikanlage kommt.
Dadurch reduzieren sich die Ladekosten in jedem Szenario. Auch in Betrachtung auf die Anschaffungskosten, ist eine Verbesserung ersichtlich. Beim Vehicle to Grid Laden werden die Arbeits- und Leistungskosten noch weiter gesenkt, wobei die Leistungskosten bei zwei Fahrzeugen ihren Tiefpunkt erreicht haben. Zusätzlich kann der Eigenverbrauch aus der Photovoltaikanlage noch weiter erhöht werden. Nachdem hierbei die Investitionskosten noch berücksichtigt wurden, kommt der Autor zum Schluss, dass es nur mit einem Fahrzeug zu einer Verringerung der gesamten Kosten kommt. Dies kommt durch die erhöhten Investitionskosten und dem mit höher werdender Anzahl an Fahrzeugen geringer werdenden Vehicle to Grid Einsatz zustande.
Untersuchung zur Lösbarkeit der Rückwärtskinematik eines 6-DOF Roboter mit einem neuronalen Netz
(2022)
Das Berechnen der inversen Kinematik ist komplex und muss für jeden Robotertyp individuell gelöst werden. Da ein Manipulator ohne die Rückwärtskinematik, die die erforderlichen Achsvariablen für eine Ziellage ermittelt, in der Praxis nicht verwendet werden kann, ist dieses Problem elementar in der Robotik. In dieser Arbeit wird der Ansatz zur Lösung der inversen Kinematik mit einem neuronalen Netz für einen Roboter mit sechs Freiheitsgarden untersucht. Dabei ist besonders darauf zu achten alle Mehrdeutigkeiten der inversen Kinematik beim Training zu berücksichtigen, da sonst das Kriterium des Determinismus zwischen Inputs und Outputs verletzt wird, was verhindert, dass ein Netz für das Problem trainiert werden kann. Es hat sich gezeigt, dass der Optimierungsalgorithmus Adams ebenso gute Ergebnisse wie der Scaled Conjugated Gradient erzielt. Die in Tensorflow verwendete typischen Aktivierungsfunktion Tangens hyperbolicus, weist im Vergleich zu anderen untersuchten Aktivierungsfunktionen, die in Tensorflow implementiert sind, die beste Performance auf. In MATLAB hingegen weist die Log sigmoid Aktivierungsfunktion die beste Performance von den implementierten Aktivierungsfunktionen auf. Zusätzlich verringert das Einschränken der Achsvariablen auf die tatsächlichen Achsbeschränkungen beim Trainieren des Netzes, sowohl den Netzwerkfehler als auch die Datenmenge, die benötigt wird, damit das Netz gut generalisiert. Abschließend stellt sich heraus, dass die trainierten Netze keine Praxistauglichkeit aufweisen, da der erzielte Netzwerkfehler zu groß ist. Da alle Mehrdeutigkeiten durch geometrische Analyse ausgeschlossen sind und ein ausreichend großer Datensatz verwendet wurde, kann mit den hier vorgestellten Ansätzen das Ergebnis nur durch komplexere Netze und damit mehr Daten verbessert werden. Andere Ansätze die zusätzliche Informationen zur Berechnung der Achswinkel zur Verfügung stellen könnten zudem auch bessere Ergebnisse erzielen. Darüber hinaus könnte es sinnvoll sein, Ansätze zu untersuchen, die sich die Achsbeschränkungen zunutze machen.
Das Ziel dieser Masterarbeit war die Untersuchung der Einflussgrößen Wassertemperatur, Füllstand, Gasleerrohrgeschwindigkeit und Blasengröße auf die Befeuchtung von Luft in einer mit Salzwasser befüllten Blasensäule. Dazu wurde eine umfangreiche Versuchsreihe durchgeführt, um die Auswirkungen zu untersuchen. Großer Wert wurde dabei auf die Reproduzierbarkeit der Ergebnisse gelegt. Es wurde eine große Anzahl Datensätze während den Versuchszeiten geloggt und analysiert. Die Auswertung hat ergeben, dass die Wassertemperatur ein wesentlicher Einflussfaktor auf die Befeuchtung von Luft ist. Die Wassertemperatur zeigt gemäß des Antoine-Gesetzes exponentielle Auswirkungen auf die Kondensatproduktion auf. Hohe Füllstände in der Blasensäule wiesen im Vergleich zu niedrigeren Füllständen eine erhöhte Kondensatproduktion auf. Eine Steigerung der Gasleerrohrgeschwindigkeit in den Versuchen führte zu einer Zunahme der produzierten Kondensatströme. Die in dieser Arbeit untersuchten Spargerplatten der Variation des Lochdurchmessers konnten keine klaren Erkenntnisse auf die Befeuchtung von Luft liefern. Insgesamt sind die Forschungen an der Versuchsanlage noch nicht abgeschlossen und weitere Erkenntnisse zu dieser Thematik sollen in Zukunft gewonnen werden.
Ein weit verbreitetes Problem von Heizungs-, Lüftungs- und Kühlungsanlagen (HLK-Anlagen) ist das Schwingungsverhalten der Regelung. Dieses führt zu unerwünschten Taktzyklen und damit zu erhöhtem Energieverbrauch, sowie zu verringerter Lebensdauer der Anlagenkomponenten. Deshalb besteht ein wirtschaftliches und ökologisches Interesse an der Vermeidung des Schwingungsverhaltens. Zum Auffinden von Fehlern, sowie deren Ursachenanalyse, steht in der Literatur ein weites Spektrum an möglichen Werkzeugen zur Fehlerdetektion und -diagnose (FDD) zur Verfügung. Klassische FDD-Werkzeuge für den Bereich von HLK-Anlagen basieren auf umfangreichem Domänenwissen zur Bestimmung der Ursache-Wirkungs-Beziehung von Fehlertypen, wie zum Beispiel Schwingungen. Deren Anwendung im HLK-Bereich ist deshalb mit zeitaufwändigen Analysen durch Fachpersonal verbunden, was hohe Kosten zur Folge hat.
Im Zuge dieser Masterarbeit wird ein FDD-Werkzeug für den Fehlertyp Schwingungen entwickelt, welches den hohen Zeitaufwand der Ursachenanalyse des Schwingens von HLK-Anlagen verringert. Durch die Anwendung von Methoden des maschinellen Lernens werden potenzielle Ursachen lokalisiert. Außerdem wird gezeigt, wie mit Hilfe des maschinellen Lernens eine Abschätzung über Gegenmaßnahmen zur Behebung der Schwingungsursachen getroffen werden kann.
Die Herausforderung in der Umsetzung des FDD-Werkzeugs liegt dabei in der Auswahl der Methoden für die Implementierung des datenbasierten Modells. Zur Umsetzung werden Daten einer HLK-Anlage eines Gewerbebetriebs am Standort Vorarlberg verwendet. Das entwickelte FDD-Werkzeug dient der fortlaufenden Auswertung von Schwingungen und der Optimierung bestehender Anlagen. Schlussendlich soll damit der Erhöhung der Energieeffizienz und der Erhöhung der Lebensdauer der Komponenten von HLK-Anlagen beigetragen werden.
We have investigated the ablation behaviour of single crystal SrTiO3 <100> with focus on the influence of the pulse duration at a wavelength of 248 nm. The experiments were performed with KrF-excimer lasers with pulse durations of 34 ns and 500 fs, respectively. Femtosecond-ablation turns out to be more efficient by one order of magnitude and to eliminate the known problem of cracking of SrTiO3 during laser machining with longer pulses. In addition, the cavities ablated with femtosecond pulses display a smoother surface with no indication of melting and well-defined, sharp edges. These effects can be explained by the reduced thermal shock effect on the material by using ultrashort pulses.
Validierung der Stromnetzberechnungsansätze anhand realer Messungen in der Niederspannungsebene
(2023)
Die politischen Ziele der Energiewende und insbesondere der zunehmende Ausbau der Elektromobilität führt zu steigenden Belastungen in den Niederspannungsnetzen. Eines der Hauptprobleme besteht darin, dass die genauen Informationen über den Zeitpunkt und die Dauer der Ladevorgänge fehlen, was eine präzise Bestimmung des Netzzustandes erschwert - auch deshalb, weil dieser durch die statische Netzberechnung erhoben wird, welche weitestgehend auf Annahmen und nicht zeitreihenbasierten Werten beruht. Im Folgenden wird daher untersucht, wie groß die Abweichungen der Niederspannungsparameter zwischen Trafostation und letztem Kabelverteilschrank bei realen Messungen im Winter im Vergleich zur statischen Worst-Case Berechnung sind. Weiters wird ermittelt, welche Änderungen der Eingangsparameter zu einer Optimierung der Ergebnisse führen. Dafür werden reale Messungen in verschiedenen Niederspannungsspannungsnetzen realisiert und nach einer Analyse der Messergebnisse werden die Eingangsparameter für die Netzberechnung bestimmt. Auf Basis dieser Inputparameter werden vier verschiedene Szenarien gebildet und die Berechnung mit diesen Szenarien durchgeführt. Anschließend werden die Berechnungsergebnisse mit den Messergebnissen verglichen. Der Vergleich der Methoden zeigt, dass die Berechnung den Worst-Case-Fall im Netz sehr realistisch abbildet. Jedoch ist aufällig, dass dieser Fall nur selten vorkommt und die betrachteten Verteilernetze zum größten Teil viel geringer belastet sind. Die 95%-Szenario-Betrachtungen zeigen, dass eine Vernachlässigung der selten vorkommenden Ausreißer zu einer Änderung der Eingangsparameter und einer Optimierung der Netzberechnung führt. Aus der Untersuchung geht zusätzlich hervor, dass die Annahme des Leistungsfaktors cos ϕ mit 0,90 zu niedrig angesetzt ist. Es kann festgehalten werden, dass sich dieser bei allen Netzen zwischen 0,999 und 0,990 befindet. Dieser Eingangsparameter für die statische Worst-Case-Berechnung kann aufgrund der gewonnenen Erkenntnisse optimiert werden.
Eingebettete Systeme – wie zum Beispiel eine Multifunktions-Küchenmaschine, ein intelligenter Saugroboter oder Lautsprecher mit sprachgesteuerten Assistenten – sind für einige Menschen in der heutigen Zeit nicht mehr wegzudenken. Sie sind mittlerweile Bestandteil unseres täglichen Lebens. Doch hinter jedem System stehen auch eine Vielzahl von Anforderungen, die für die Kundinnen und Kunden, sowie Nutzerinnen und Nutzer relevant sind. Ob diese Anforderungen immer einen Mehrwert für die Kundinnen und Kunden bringen, ist dabei irrelevant. Doch wie kann gewährleistet werden, dass die zu Beginn definierten Anforderungen schlussendlich das gewünschte Ergebnis für die Kundinnen und Kunden oder Nutzerinnen und Nutzer bringt? Durch die Durchführung einer Validierung in verschiedenen Phasen der Systementwicklung können wichtige Erkenntnisse über das Produkt und dessen Funktionen vor der eigentlichen Marktfreigabe gewonnen und noch in den verschiedenen Entwicklungsphasen für Änderungen oder Verbesserungen eingeplant werden. Oft werden diese essentiellen Validierungsprozesse zu spät oder gar nicht durchgeführt, was zu unausgereiften Produktfreigaben führt, was wiederum unzufriedene Kundinnen und Kunden zur Folge haben kann.
Diese Masterarbeit bietet einen Einblick, wie eine solche Validierung in Systementwicklungen integriert werden kann. Unter anderem wird eine klassische Vorgehensweise, das V-Modell, und die agile Methode Scrum betrachtet und auf mögliche Validierungskonzepte hin untersucht. Anhand eines Praxisbeispiels einer bereits durchgeführten Systementwicklung im Elektronikbereich wird gezeigt, wie die Methoden des V-Modells und Scrum in Verbindung mit der Validierung umgesetzt wurden. Die Erkenntnisse aus diesen beiden Teilen, Theorie und Praxis, werden durch Handlungsempfehlungen für Entwicklungsprojekte abgerundet.
Objectives: The MetabQoL 1.0 is the first disease-specific health related quality of life (HrQoL) questionnaire for patients with intoxication-type inherited metabolic disorders. Our aim was to assess the validity and reliability of the MetabQoL 1.0, and to investigate neuropsychiatric burden in our patient population. Methods: Data from 29 patients followed at a single center, aged between 8 and 18 years with the diagnosis of methylmalonic acidemia (MMA), propionic acidemia (PA) or isovaleric acidemia (IVA), and their parents were included. The Pediatric Quality of Life Inventory (PedsQoL) was used to evaluate the validity and reliability of MetabQoL 1.0.
Results: The MetabQoL 1.0 was shown to be valid and reliable (Cronbach's alpha: 0.64–0.9). Fourteen out of the 22 patients (63.6%) formally evaluated had neurological findings. Of note, 17 out of 20 patients (85%) had a psychiatric disorder when evaluated formally by a child and adolescent psychiatrist. The median mental scores of the MetabQoL 1.0 proxy report were significantly higher than those of the self report (p = 0.023). Patients with neonatal-onset disease had higher MetabQoL 1.0 proxy physical (p = 0.008), mental (p = 0.042), total scores (p = 0.022); and self report social (p = 0.007) and total scores (p = 0.043) than those with later onset disease.
Conclusions: This study continues to prove that the MetabQoL 1.0 is an effective tool to measure what matters in intoxication-type inherited metabolic disorders. Our results highlight the importance of clinical assessment complemented by patient reported outcomes which further expands the evaluation toolbox of inherited metabolic diseases.
Varying mindsets in Design Thinking. Why they change during the process and how to nudge them
(2019)
In der vorliegenden Masterarbeit wird das Verbesserungspotential von Gebäudeleitsystemen am Beispiel der Errichtergemeinschaft Frühlingstraße untersucht. Der Fokus bei der Analyse liegt auf der Ermittlung von Verbesserungen im Bereich der Regel- und Steuerstrategien. Beim Referenzobjekt handelt es sich um sieben Einfamilienhäuser, die durch einen zentralen Pelletkessel mit Wärmeenergie versorgt werden, welche über das miteinander verbundene Kellergeschoss verteilt wird.
Im Kapitel Stand der Technik werden die Gebäudeleitsysteme von Mehrfamilien-Wohnanlagen in den 2000er Jahren und in den 2020er Jahren mit dem ausgeführten Gebäudeleitsystem des Referenzobjektes der Errichtergemeinschaft Frühlingstraße, bei dem es sich ebenfalls um eine Mehrfamilien-Wohnanlage handelt, miteinander verglichen. Nach dem Kapitel Forschungsstand wird die verwendete Methode kurz umrissen. Ein wichtiger Schritt zur fertigen Simulation ist das Verstehen der bestehenden Steuer- und Regelstrategien. Dabei wird sehr genau auf die Regelung der Häuser und des Pelletkessels eingegangen. Ebenfalls werden die zu simulierenden Komponenten, die zur Verfügung gestellten Messdaten und die verwendete Simulationssoftware Polysun beschrieben. Bei der Simulation des Referenzobjektes wird speziell auf die verwendeten Komponenten, aber auch auf die umgesetzten Regel- und Steuerstrategien eingegangen. Die Beschreibung der einzelnen Varianten beschränkt sich auf den Unterschied zur Simulation des Referenzobjektes.
Die einzelnen Varianten unterscheiden sich im Bereich des solaren Deckungsanteils nur sehr geringfügig. Die solare Ausbeute in den Monaten Mai bis August ist bei den Varianten 3 und 4 jedoch deutlich höher als bei den anderen Varianten. Ein deutlicher Unterschied ist auch im Bereich des Pellet-Verbrauchs auszumachen. Bei der Variante 4 werden im Vergleich zum Referenzobjekt jährlich gut 800 kg Pellets eingespart. Dies bedeutet eine Reduktion des CO2-Ausstoßes um 167,8 kg. Dieser Trend der Reduktion kann auch bei den Betriebsdauern des Pelletkessels fortgesetzt werden. Der größte Unterschied der einzelnen Varianten ist bei den Anforderungen des Pelletkessels auszumachen. Somit wird der Pelletkessel bei der Variante 2 14536-mal angefordert und bei der Variante 4 lediglich 3353-mal.
Diese Verbesserungen können durch kleine Anpassungen der Regel- und Steuerstrategien erzielt werden. Gerade weil die Low-Tech Gebäude des Referenzobjekts sehr energieeffizient umgesetzt und nicht mit technischer Ausstattung überladen wurden, können die ermittelten Verbesserungspotentiale bei anderen Gebäuden umgesetzt werden. Bei Gebäuden, die nicht als Low-Tech Gebäude errichtet wurden, ist durch die Anpassung des Gebäudeleitsystems ein größeres Verbesserungspotential zu erwarten.
Projekte zeichnen sich aus durch ihre Einmaligkeit und Offenheit. Unternehmen sind bestrebt ihre Projekte zum positiven Abschluss zu bringen. In dieser Ausarbeitung wird die Rolle der Verhaltensökonomie im Projektmanagement beleuchtet. Dabei wird der Fokus auf die Projektplanung und insbesondere auf die Aufwandsschätzung gelegt. Der theoretische Rahmen bildet ein solides Verständnis von Verhaltensökonomie und Projektmanagement. Mittels systematischer Literaturrecherche für den Zeitraum von 2017 bis 2023 werden die gängigsten kognitiven Verzerrungen ergründet, die in Projekten, insbesondere bei Aufwandsschätzungen häufig auftreten. Die häufigste kognitive Verzerrung ist der Optimism Bias, gefolgt vom Escalation of Commitment, Strategic Misrepresentation bis hin zur Planning Fallacy und dem Endownment Effect. Das Ergebnis dieser Ausarbeitung zeigt, dass kognitive Verzerrungen den Projekterfolg maßgeblich beeinflussen können.
Verstehen und Information
(2013)
Meine Masterarbeit beschreibt im Grunde einen Diskussionsprozess eines Begriffs. Es geht um den Versuch einer Kategorisierung und Bestimmung der Illustrationen, also darum, inwiefern Illustrationen kategorisiert werden können und anhand von welchen Merkmalen bestimmt werden kann, ob es sich um eine Illustration handelt. Diese Untersuchung findet in der Designforschung nämlich nur marginal statt. Julius Wiedemann und der Illustrator Raban Ruddigkeit erklären in ihren Büchern zwar, was eine Illustration ausmacht, jedoch wird weder eine Taxonomie bzw. Definition explizit angeführt oder darauf verwiesen, es kann aus dem Text aber ein Verständnis und damit eine implizite Definition explizit gemacht werden.
Laut Ruddigkeit sind Illustrationen mehr als bloß ein „Abbild der Wirklichkeit“ (Ruddigkeit 2021, Klappentext), denn eine Illustration „erhellt […] übertreibt […] mischt sich ein […] stößt […] Veränderung an […] interpretiert “ (Ruddigkeit 2021, Klappentext) Wiedemann verfolgt einen anderen Ansatz, denn laut ihm muss eine Illustration im Kontext funktionieren. (Vgl. Wiedemann 2007, 7f.)
Die Masterarbeit verfolgt die Methode der relationalen Bestimmung nach Wiesing. (Vgl. Wiesing 2015, Einleitung) Es erfolgt zusätzliche eine Analyse von Literatur, insbesondere liegt der Fokus auf den Theorien unter anderem von Sybille Krämer, Steffen-Peter Ballstaedt, Nelson Goodman, Hartmut Stöckl, Vilem Flusser, Ludwig Wittgenstein und Roland Barthes. Verorten lässt sich die Arbeit in den Bereichen der Bildwissenschaften bzw. der Kategoriensysteme. Ein Begriff wird diskutiert, es wird kein Versuch angestrebt, eine endgültige Lösung zu finden. Die Diskussion wird in einem passenden und übersichtlichen Layout in der Arbeit präsentiert und theoretisch weiter ausgearbeitet, sowie durchdiskutiert. Im besten Fall ergeben sich Vorschläge für eine Definition, eine Möglichkeit zur Kategorisierung bzw. Erhellungen zur Illustration, ohne sie endgültig definieren zu müssen.
Wir können von einem Theater der Begriffsbestimmung sprechen, welches am Fallbeispiel der Illustration inszeniert wird. Die Absicht der Masterarbeit ist somit nicht, eine endgültige Taxonomie aufzustellen, sondern die Diskussion zu eröffnen und Einsichten zu liefern. Mittels Überlegungen, Erkenntnissen aus Experimenten bzw. Analysen, Recherche und Forschung durch Design möchte ich versuchen, diesem komplexen Feld näher zu kommen. Diese Erkenntnisse sollen als Basis für weiterführende Forschung betrachtet werden. Fragen werden gestellt, diese müssen jedoch nicht im Zuge dieser Arbeit beantwortet werden.
Meine Forschungsfrage lautet somit folgendermaßen: Wie kann der Bestimmungsprozess zu einem Begriff offengelegt werden und zu einem fruchtbaren Ergebnis bzw. einer Einsicht führen, am Beispiel des Begriffs Illustration, ohne eine endgültige Lösung anzupeilen?
IEC 61499 ist ein Standard für die verteilte Automatisierung. Damit lassen sich Systeme designen, die eine Vielzahl von Knoten vernetzen können. Dadurch lassen sich komplexe Aufgaben in der Industrie leichter bewältigen. Um dies zu ermöglichen, müssen alle Systembestandteile miteinander kommunizieren können. Ein solches Kommunikationsnetzwerk kann dann schnell sehr komplex werden und damit schwer zu verwalten sein. Wenn es darum geht, an viele Teilnehmer Daten zu verteilen, hat sich das Publish-Subscribe Kommunikationsmuster bewährt.
ZeroMQ ist eine Bibliothek, mit der über Sockets unter anderem solche Publish-Subscribe Kommunikationsnetzwerke realisiert werden können. Sie baut auf dem ZeroMQ Message Transport Protocol (ZMTP) auf. Dabei ist die Verwendung unwesentlich komplexer als mit Berkeley Sockets.
4DIAC/Forte bietet ein Framework um Applikationen nach IEC 61499 zu erstellen. In dieser Thesis wird 4DIAC/Forte und ZeroMQ vorgestellt. Es wird die Struktur einer Kopplungsschicht zwischen Forte und ZeroMQ präsentiert und implementiert. Anschließend werden Messungen von Latenz und Throughput durchgeführt, um die Performance zu evaluieren.
In Forte sind traditionelle Sockets für die Kommunikation bereits implementiert. Sie unterstützen das Client-Server Muster und Publish-Subscribe mittels UDP Multicast. Mit diesen Lösungen werden die Messungen ebenfalls durchgeführt um einen Vergleich mit ZeroMQ aufzustellen. Es werden auch vorhandene Daten für DDS herangezogen. Die Ergebnisse zeigen, dass sich ZeroMQ für die Kommunikation in Forte eignet und dabei hilft, die Komplexität zu reduzieren und die Handhabung zu vereinfachen.
Welcher Kompetenzbedarf besteht bei HR-MitarbeiterInnen, um die digitale Transformation in Unternehmen mitbegleiten zu können und welche Methoden zur Kompetenzentwicklung von HR-MitarbeiterInnen finden in einer zukunftsorientierten Personalentwicklung Anwendung? Mit einer Antwort auf diese Fragen beschäftigt sich die vorliegende Arbeit. Nach der Erklärung der theoretischen Begriffe und Grundlagen zeigt das Kapitel drei den Kompetenzbedarf von HR-MitarbeiterInnen für die digitale Transformation auf und liefert spezifische Methoden zur Kompetenzentwicklung digitaler Transformation. Dabei spielen die Kompetenzen im Bereich der Führungs- und Motivationsstrategie sowie die Gestaltung des Wissensmanagements eine bedeutende Rolle. Den MitarbeiterInnen im HRM kommt angesichts des Fachkräftemangels aufgrund der demografischen Entwicklung eine zunehmend strategische Bedeutung zu. Sie werden zu engen Partnern in der strategischen Ausrichtung des Unternehmens. Auf der einen Seite steht die Ressource Humankapital, auf der anderen Seite aber auch die Zukunftssicherung, denn im Zeitalter der Digitalisierung und des globalen Wandels ist die nachhaltige Sicherung des Know-how für ein Unternehmen überlebenswichtig. In diesem Kontext müssen die verantwortlichen HR-MitarbeiterInnen andere und zum Teil vielfältigere Kompetenzen mitbringen als noch vor einigen Jahrzehnten. Die Arbeit schließt nach den Handlungsempfehlungen, einem Praxisbeispiel, einem Fazit und einem Ausblick.
Die Unternehmensplanung ist ein Pfeiler der Unternehmenssteuerung und dient zur Prognose der zukünftigen Geschäftsentwicklung sowie als Grundlage für Entscheidungen und Maßnahmen. Es wird auf diverse Charakteristiken der Unternehmensplanung eingegangen, wie die strategische und operative Planung. Die Planungsarten fokussieren sich auf Budget und Forecast. Zu diesen werden verschiedene bisherige Studien vorgestellt.
Die Forschungsfrage untersucht, wie sich in den vergangen zwei Jahren der Planungsprozess in der Bodenseeregion verändert hat und welche Treiber es für die Veränderungen gab. Die quantitative Untersuchung mittels einer Online-Umfrage erfolgt vor dem Hintergrund einer nicht nachlassenden Unsicherheit bedingt durch die Corona-Pandemie. Ein neuer Blickwinkel auf die Unternehmensplanung ist die Analyse von Unterschieden aufgrund der gewählten Unternehmensausrichtung Massenproduktion oder Auftragsfertigung. In den Ergebnissen zeigen sich keine signifikanten Unterschiede zwischen den beiden Geschäftsmodellen. Die Hälfte der befragten Unternehmen hat die Planung angepasst und z.B. die Planungsdauer verkürzt oder Szenarien verwendet.
Violation-mitigation-based method for PV hosting capacity quantification in low voltage grids
(2022)
Hosting capacity knowledge is of great importance for distribution utilities to assess the amount of PV capacity possible to accommodate without troubling the operation of the grid. In this paper, a novel method to quantify the hosting capacity of low voltage grids is presented. The method starts considering a state of fully exploited building rooftop solar potential. A downward process is proposed - from the starting state with expected violations on the grid operation to a state with no violations. In this process, the installed PV capacity is progressively reduced. The reductions are made sequentially and selectively aiming to mitigate specific violations: nodes overvoltage, lines overcurrent and transformer overloading. Evaluated on real data of fourteen low voltage grids from Austria, the method proposed exhibits benefits in terms of higher hosting capacities and lower computational costs compared to stochastic methods. Furthermore, it also quantifies hosting capacity expansions achievable by overcoming the effect of the violations. The usage of a potential different from solar rooftops is also presented, demonstrating that a user-defined potential allows to quantify the hosting capacity in a more general setting with the method proposed.
Virtual Reality im Golfsport
(2023)
Die Möglichkeiten des Einsatzes von Virtual Reality (VR) abseits des Unterhaltungssektors sind sehr umfangreich. Die Technologie kann als Wiedergabemedium von klassischen audiovisuellen Inhalten oder speziell für VR entwickelten Inhalten verwendet werden, jeweils mit oder ohne Interaktion der benutzenden Person. Um die in dieser Arbeit gestellte Forschungsfrage „Wie kann VR im Golfsport unterstützend beim Training eingesetzt werden?“ zu beantworten wurde VR als Medium auf seine Anwendungsmöglichkeiten hin überprüft und aufgezeigt, wo diese Technologie im Bereich „Training“ wirkungsvoll eingesetzt werden kann. Die Verwendung einer Mind Map ergab eine erste Produktidee: Golfplätze mittels VR zu besuchen, bevor die Spielenden selbst zu einem Turnier anreisen. Durch Literaturrecherchen, Experteninterview, die qualitative Auswertung von Interviews von Golfspielenden und eine Analyse der am Markt befindlichen digitalen „Helfer“ für Golfer:innen wurden Hinweise gesammelt, um sowohl eine Hypothese zur möglichen Zielgruppe aufzustellen, als auch die Forschungsfrage, durch Konkretisieren der Produktidee, zu beantworten.
Erkenntnisse über die am Markt befindlichen Produkte und Hinweise aus der Sportpsychologie führten zu der Hypothese, dass die Effektivität des Produktes im Einsatz des mentalen Trainings verbessert werden könnte, wenn neben dem visuellen Kanal ein Audiokanal die Darstellung der virtuellen Umgebung unterstützt. Auch wenn diese Hypothese in einer Feldstudie mit 7 Teilnehmern weder wiederlegt noch bestätigt werden konnte, zeigt die Auswertung einer Onlineumfrage zum Produkt und die erarbeitete Theorie großes Potential für den Einsatz von VR als Unterstützung im mentalen Training und für weitere Forschung auf diesem Gebiet auf. Als Produktidee ging aus der Arbeit eine VR-Applikation, zur mentalen Vorbereitung auf wenig bekannte Golfplätze, für gute und professionelle Golfspieler:innen hervor.
Globale Entwicklungen wie der Klimawandel, die Verknappung fossiler Ressourcen, die Coronapandemie oder die wachsende soziale Ungleichheit sind hochkomplexe Probleme, die das Gesellschaftssystem zunehmend destabilisieren und damit Raum für stark chaotische Entwicklungen ermöglichen. Kennzeichnend für Komplexität ist, dass rationales Überlegen oder kognitives Abwägen von Ursache-Wirkungsbeziehungen nicht mehr zielführend sind. Dabei steht im Hintergrund solcher komplexen Probleme, dass die Anzahl der (menschlichen und nicht-menschlichen) Akteure und den Verbindungen zwischen diesen nicht mehr überschau- oder analysierbar ist. In der vorliegenden Arbeit dient Forschung durch Design als Schlüssel zur Visualisierung des Chaos komplexer Systemdynamiken. So wird mittels eines detaillierten Systemmodells durch eine iterativ erstellte Visualisierung mit interaktiven Anwendungsmöglichkeiten das Fallbeispiel der Implementierung der Sustainable Development Goals in der österreichischen Politik dargestellt. Ziel dabei ist es, die zuständigen Kompetenzstellen und Antworten auf den Grad der Implementierung zu finden, wodurch einerseits daraus resultierende Handlungsempfehlungen zur Implementierung gegeben werden können, und andererseits auch Vorschläge zur Erreichung der SDGs. Als essenzielles Resultat konnte primär bestätigt werden, dass sich die Visualisierung von Systemprozessen als durchaus geeignet erwiesen hat. Zumal steht fest, dass eine sogenannte Implementierung der SDGs in Österreich nicht stattgefunden hat. Außerdem wird argumentiert, dass der Großteil der ökologischen SDGs über die Einhaltung bereits bestehender Bundes- und Landesgesetze im Rahmen des Umweltschutzes erreicht werden könnten.
If left uncontrolled, electric vehicle charging poses severe challenges to distribution grid operation. Resulting issues are expected to be mitigated by charging control. In particular, voltage-based charging control, by relying only on the local measurements of voltage at the point of connection, provides an autonomous communication-free solution. The controller, attached to the charging equipment, compares the measured voltage to a reference voltage and adapts the charging power using a droop control characteristic. We present a systematic study of the voltage-based droop control method for electric vehicles to establish the usability of the method for all the currently available residential electric vehicle charging possibilities considering a wide range of electric vehicle penetrations. Voltage limits are evaluated according to the international standard EN50160, using long-term load flow simulations based on a real distribution grid topology and real load profiles. The results achieved show that the voltage-based droop controller is able to mitigate the under voltage problems completely in distribution grids in cases either deploying low charging power levels or exhibiting low penetration rates. For high charging rates and high penetrations, the control mechanism improves the overall voltage profile, but it does not remedy the under voltage problems completely. The evaluation also shows the controller’s ability to reduce the peak power at the transformer and indicates the impact it has on users due to the reduction in the average charging rates. The outcomes of the paper provide the distribution grid operators an insight on the voltage-based droop control mechanism for the future grid planning and investments.