Refine
Year of publication
- 2021 (116) (remove)
Document Type
- Master's Thesis (92)
- Article (14)
- Conference Proceeding (5)
- Report (3)
- Book (1)
- Part of a Book (1)
Institute
- Forschungszentrum Mikrotechnik (7)
- Forschungszentrum Human Centred Technologies (4)
- Soziales & Gesundheit (4)
- Forschungsgruppe Empirische Sozialwissenschaften (3)
- Forschungszentrum Business Informatics (3)
- Department of Computer Science (Ende 2021 aufgelöst; Integration in die übergeordnete OE Technik) (2)
- Forschungszentrum Digital Factory Vorarlberg (2)
- Forschungszentrum Energie (2)
- Technik | Engineering & Technology (2)
- Wirtschaft (1)
Language
- German (73)
- English (41)
- Multiple languages (2)
Has Fulltext
- yes (116) (remove)
Keywords
- Digitalisierung (3)
- Cloud manufacturing (2)
- Demand response (2)
- Digital Twin (2)
- Digitale Transformation (2)
- Machine learning (2)
- Ontologies (2)
- Robotik (2)
- #kinderuni4you (1)
- 3D MMI splitters (1)
D'Activism
(2021)
Durch die zunehmende Digitalisierung an deutschen Schulen hat auch die damit einhergehende Medienbildung an Relevanz gewonnen. Dabei soll die Schule als zentraler Ort der Bildung ihren Schüler:innen ermöglichen, die medial gemachten Erlebnisse im Unterricht zu thematisieren. Die damit eng verbundene Digital Literacy umfasst Kompetenzen, um die digitale Lebenswelt der Schüler:innen und Lehrkräfte zu reflektieren und sich als aktives Mitglied der Gesellschaft auf einer gesicherten Informationsbasis im digitalen Lebensraum bewegen zu können.
In dieser Arbeit wird der Frage nachgegangen, wie Digital Literacy fächerübergreifend für die Zielgruppe der Lehrkräfte und Schüler:innen der gymnasialen Mittel- und Oberstufe in Baden-Württemberg gefördert werden kann. Dabei wird folgenden Forschungsfragen nachgegangen: (1) Welche ‹Digital Literacies› sollen in Schulen von Lehrkräften und Schüler:innen erworben werden? (2) Wie kann ‹Digital Literacy› fächerübergreifend in den Unterricht integriert werden? (3) Wie kann ein Produkt konzipiert, umgesetzt und evaluiert werden, das die fächerübergreifende Förderung der ‹Digital Literacy› ermöglicht?
Für die Beantwortung wurden theoretische Erkenntnisse, darunter bildungspolitische Bestimmungen und Konzeptpapiere, Medienkompetenzmodelle und spieltheoretische Ansätze beleuchtet sowie leitfadengestützte Experteninterviews durchgeführt. Anhand dieser wurden spezifische Anforderungen für die fächerübergreifende Konzeption eines modularen Educational Games abgeleitet, welches umgesetzt und anhand des Anwendungsszenarios ‹Körperbilder auf Sozialen Medien› evaluiert wurde. Die Ergebnisse der Evaluation zeigten neben einem hohen Motivations- und Spaßfaktor durch die integrierten Spielelemente auch das Interesse der Schüler:innen und Lehrkräfte. Außerdem förderte das Educational Game die Reflexionskompetenz sowie die Übernahme und Auseinandersetzung mit unterschiedlichen Sichtweisen.
Diese Arbeit leistet damit einen Beitrag zur Schließung der Forschungslücke zu Digital Literacy im Schulbereich im deutschsprachigen Raum und stellt gleichzeitig ein Educational Game zur Verfügung, welches die Vermittlung von Digital Literacy ohne spezifische technische oder digitale Kompetenzen ermöglicht.
Die Masterarbeit befasst sich mit der Thematik von Jugend und Adoleszenz im Zusammenhang mit möglichen Schwierigkeiten innerhalb der Identitätsentwicklung und wie diese gelöst werden können. Die Identitätsbildungsprozesse im Jugendalter sollen im Theorieteil dieser Arbeit in Bezug auf Bildungsinstitutionen aufgezeigt und kritisch reflektiert werden. Anschließend wird im Praxisteil ein Toolkit zur Unterstützung der Identitätsentwicklung ausgearbeitet werden, welches Jugendlichen zur Reflexion anregen und bei der Erreichung von Zielen Unterstützung bieten soll.
Ziel der Arbeit ist es, bestehende Praktiken der Audiokartografie zu beschreiben, zu ordnen und auf dieser Basis neue Karten zu gestalten. Dazu wurden in Recherchen Schallkarten ausfindig gemacht und systematisch beschrieben. Es wird ein Überblick der gängigen Praktiken nach grafischen Methoden, den visualisierten Daten und den Anwendungsfeldern der Darstellungen gezeichnet. Um ein möglichst umfassendes Bild des Feldes zu gewinnen, werden theoretische Fragen diskutiert und die gesellschaftliche Verortung von Schallkarten erörtert. Fragen der grafischen Bezeichnung von Schalleigenschaften werden mit den Mitteln der Semiotik betrachtet. Auf Basis dieser theoretischen und analytischen Auseinandersetzung werden im praktischen Teil neue Ansätze der Audiokartografie experimentell erarbeitet. Die Analyse bestehender Schallkarten zeigt, dass für die Darstellung von Schalleigenschaften auf grafische Elemente aus der Kartografie zurückgegriffen wird. Sound hat jedoch eigene Darstellungsformen. Ziel der Experimente ist es, Schallkarten auf Basis von Methoden der Signaldarstellung und Audiovisualisierung zu gestalten, und damit die Kartografie mit der Audiovisualisierung zu verbinden.
Gütesiegel sind bereits auf vielfältigen Produkten zu finden und sollen beim Einkauf den Konsumierenden Orientierung bieten. Angesichts der Gegebenheit Konsum nachhaltig zu gestalten, soll der Marktanteil von zertifizierten Produkten weiter erhöht werden. Gütesiegel werden in diesem Zusammenhang gerne mit einem guten Gewissen hinsichtlich der konsumierten Produkte assoziiert. Aber was zeichnet ein zertifiziertes Produkt aus und welche Bedeutung hat ein Gütesiegel? Die vorliegende Arbeit nimmt darauf Bezug und führt weiter an, wie die Wertigkeit eines zertifizierten Produktes gegenüber den Konsumierenden kommuniziert werden kann. Um Orientierung bieten zu können, braucht das Gütesiegel eine transparente und verständliche Beschreibung, welche die einheitlichen Standards einer Zertifizierung sowie deren Überprüfung sichtbar macht. Eine solche Beschreibung wird im Rahmen des Konzepts für den Forest Stewardship Council (FSC) gestaltet. Ergebnis ist ein Kommunikationskonzept, welches aufzeigt, wie die Wirkung einer Zertifizierung kommuniziert werden kann. Das Konzept kann an diverse Anforderungen angepasst und auf andere Zertifizierungen übertragen werden. Eine transmediale Erzählwelt erweitert die Beschreibung in Form einer Geschichte und veranschaulicht die Wertigkeit eines zertifizierten Produktes. Eine Zertifizierung bedingt die Bewirtschaftung einer Ressource. Ein Gütesiegel kann insofern nicht für den vollumfänglichen Schutz einer Ressource stehen, aber es kann Einfluss auf die Art und Weise der Bewirtschaftung ausüben und dadurch ein Bewusstsein für Konsumprodukte schaffen.
Athena
(2021)
Im postdigitalen Zeitalter, in dem wir uns befinden, ist ein gesellschaftlicher Wandel erkennbar. Die Arbeitswelt verlangt zunehmend nach Flexibilität und dynamischen Prozessen. Es herrscht ein allgemeines Selbstverständnis bezüglich der Einschätzung, dass digitale Technologien in unserem Alltag als fester Bestandteil integriert sind.
Als Gegenpol zu den digitalen Netzwerken herrscht ein starkes Bedürfnis nach analogen Erlebnissen. Öffentliche Arenen eignen sich seit jeher als Orte der Begegnung. Verantwortliche in Städten und Betreiber von Gewerbeparks beschäftigen sich mit der Frage, wie sie Areale aufwerten und den Nutzern ein attraktives Angebot schaffen können.
Die vorliegende Arbeit beschäftigt sich mit den Bedürfnissen der Nutzer (Stadtbewohner/-besucher) in Bezug auf städtische Möbelkonzepte. Leitmotiv ist, durch unterschiedliche Methoden einen besseren Einblick in urbane Räume und das Spannungsfeld zwischen Mensch, Ort und Möbel zu bekommen. Ein besonderer Schwerpunkt liegt auf der fotodokumentarischen Studie von vorhandenen Möbelkonzepten. Ziel ist es, Arealverantwortlichen sowie Gestaltern Möglichkeiten für zukünftige urbane Möbelkonzepte aufzuzeigen.
Mit dem Voranschreiten und der Weiterentwicklung der Informationstechnologie und Industrie 4.0 stehen Industrieunternehmen, speziell im Bereich der Fertigung und Produktion, vor der Herausforderung, ihre Prozesse zu digitalisieren und automatisieren. Durch die Digitalisierung werden Daten gesammelt, die zur Regelung der Prozesse und Unterstützung von Entscheidungen eingesetzt werden. Um die digitale Transformation erfolgreich umzusetzen und vor allem die Veränderung der Arbeitsabläufe im Unternehmen zu etablieren, braucht es gewissenhafte Vorbereitung. Es bietet sich im Vorfeld eines Projektes an, mittels Reifegradmodellen zur Digitalisierung, den aktuellen Status des Unternehmens zu erheben.
Diese Masterarbeit setzt sich zum Ziel zu evaluieren, ob Reifegradmodelle geeignete Tools sind, um Hindernisse und Chancen von Digitalisierungsprojekten im Vorfeld zu erkennen und abzufangen. Um vorhandene Ressourcen zielgerichtet und verschwendungsfrei einzusetzen, müssen kritische Bereiche identifiziert werden, auf die der Fokus gelegt werden sollte. Zur Bearbeitung des Themas wurde folgende Forschungsfrage gestellt: Sind Reifegradmodelle geeignete Werkzeuge, um aktiv und präventiv Barrieren für digitale Transformationsprojekte zu identifizieren und vermeiden?
Um die Forschungsfrage zu beantworten wurde eine systematische Literaturrecherche und -analyse durchgeführt. Dabei wurden bestehende Reifegradmodelle zur Digitalisierung untersucht, indem ihre Bewertungskriterien in einem Schema kategorisiert wurden. Durch die Kategorisierung wurde ersichtlich, welche Modelle für welchen Zweck einsetzbar sind, bzw. ob die wichtigen Bereiche abgedeckt werden. Ergebnis der Recherche sind sieben Reifegradmodelle, mit unterschiedlichen Herangehensweisen, die exemplarisch vorgestellt und analysiert werden.
Durch die voranschreitende Digitalisierung der Produktion ergeben sich zunehmend neue Möglichkeiten. Eine dieser Möglichkeiten ist der Einsatz von Process Mining. Mit Process Mining können Daten einem Prozess zugeordnet werden, um diesen zu visualisieren und zu untersuchen. Dadurch ist es möglich, Prozesse real zu entdecken, zu überwachen und zu verbessern. Die vorliegende Masterarbeit untersucht, unter welchen Rahmenbedingungen Process-Mining bei modular aufgebauten Montagesystemen in der Massenfertigung einen Mehrwert bieten kann. Durch eine ausführliche Literaturanalyse und dem praktischen Versuch mittels eines Experiments wird darauf eine Antwort gegeben.
Im Zuge der Digitalisierung und der stetigen Entwicklung neuer Technologien hat sich die Möglichkeit neuer Geschäftsmodelle eröffnet. Durch den Einsatz dieser Technologien und ihrer Nutzungspotentiale können auch bereits bestehende Geschäftsmodelle revolutioniert werden. Auch die wissensbasierte Dienstleistungsbranche ist diesem Trend ausgesetzt. Da bei der Dienstleistungserstellung keine materiellen Güter erstellt werden, eignet sich diese Branche für eine Transformation hin zu einem digitalen Geschäftsmodell. Fraglich ist, was bei der Konzeption von digitalen Geschäftsmodellen auf Basis wissensbasierter Dienstleistungen zu beachten ist und welche Erfolgsfaktoren diese prägen.
Um diese Frage beantworten zu können, ist eine Literaturrecherche erforderlich. Als Ergänzung wird ein beispielhaftes Forschungsdesign zur Erhebung von Erfolgsfaktoren für digitale Geschäftsmodelle aufgezeigt. Auf den daraus resultierenden Ergebnissen bauen die Übertragung und die kritische Betrachtung auf den zu untersuchenden Gegenstandsbereich der Arbeit auf. Da die Komplexität des Themenbereichs ein Basisfachwissen voraussetzt, ist die Zielgruppe durch dieses Faktum definiert.
Zu Beginn werden die Begrifflichkeiten sowie die zugehörigen Theorien diskutiert. Basierend auf der Diskussion der Begrifflichkeiten und zugehörigen Theorien werden die Konzeptionsmöglichkeiten digitaler Geschäftsmodelle sowie Besonderheiten bei der Konzeption von wissensbasierten Dienstleistungen untersucht. Zusätzlich wird die Herangehensweise in Bezug auf das Change-Management, die Methoden und die Werkzeuge genauer betrachtet. Ersichtlich wird, dass die aktive Mitarbeiterbeteiligung sowie die Zeit kritische Themen sind. Ebenfalls von besonderer Bedeutung ist der Fokus auf die Kundenakzeptanz und Kundenintegration, um weitere Funktionen in eine passende Richtung aufzubauen.
Die von Krebs, Hepp und Hadwich (2017) identifizierten 30 Erfolgsfaktoren für die Integration wissensintensiver Unternehmensdienstleistungen im Rahmen des so genannten dienstleistungsorientierten Geschäftsmodells der Servicetransformation werden diskutiert und in Bezug zu digitalen Geschäftsmodellen auf Basis wissensbasierter Dienstleistungen genauer betrachtet und angepasst.
Das Ergebnis sind 26 Erfolgsfaktoren, denn die Faktoren „Erfahrene Führungskraft von extern“, „Überprüfung und Anpassung der bestehenden Prozesse und Sicherstellung einer prozessbezogenen Verbindung zwischen dem neuen Geschäftsbereich und den ursprünglichen Bereichen“, „Produktbezug der Dienstleistung“ und „Neue Vertriebsstruktur und Abstimmung der Kundenansprache“ sind nicht relevant für den zu untersuchenden Gegenstandsbereich. Sie beziehen sich stark auf die Integration eines weiteren Geschäftsbereichs in ein produzierendes Unternehmen.
Die folgenden fünf Erfolgsfaktoren wurden passend für den Gegenstandsbereich abgeändert: „Änderung des Führungsstils“ zu „Führungsstil mit toleranter Fehlerkultur“, „Aktive Kommunikation“ zu „Aktive Kommunikation des Servicegedankens“, „Verwendung der Kundendaten aus dem Vertrieb und der Verwendung von Produkten“ zu „Verwendung der Kundendaten aus dem Vertrieb von Dienstleistungen“, „Nutzung des Ansehens des Produktgeschäfts für das Dienstleistungsgeschäft und Steigerung des Bekanntheitsgrades durch Marketingaktivitäten“ zu „Ansehen und Bekanntheitsgrad des Dienstleistungsgeschäfts“, „Strukturen für den Austausch zwischen Produkt- und Dienstleitungsbereich“ zu „Strukturen für den Austausch zwischen den Dienstleistungsteams“
Der Fokus wird mit Hilfe der Anpassungen von der Integration eines weiteren Geschäftsbereichs auf ein eigenständiges digitales Geschäftsmodell auf Basis wissensbasierter Dienstleistungen gelenkt. Die restlichen 21 Erfolgsfaktoren wurden ohne Änderung übernommen.
Die Ergebnisse dieser Arbeit bilden ein gutes Fundament zur weiteren Betrachtung des Untersuchungsgegenstands. Darauf aufbauend ist eine qualitative Studie in Form von weiteren Experteninterviews denkbar. Aus der Kombination der Ergebnisse aus den Interviews und dieser Arbeit wird die Erstellung eines Fragebogens für eine quantitative Umfrage möglich.
Mobility choices - an instrument for precise automatized travel behavior detection & analysis
(2021)
In dieser Arbeit wird ein Luft-Clathrat Energiespeicher entworfen, der die Speicherung von elektrischer Energie bei einer Speicherdauer von etwa einem Tag ermöglichen soll. Als Speichermedium dient Luft. Die Luft wird zuerst komprimiert (Einspeichern der elektrischen Energie) und anschließend bei Temperaturen oberhalb des Wasser-Gefrierpunkts (mindestens 274 K, Drücke ab etwa 170 bar) zu Luft-Clathrat synthetisiert. Gespeichert wird das Luft-Clathrat in einem offenen Tank, der aufgrund des Selbstkonservierungseffekts bei moderaten Bedingungen von 1 bar und bei einer Temperatur von 271 K gehalten werden kann. Durch das Hinzufügen von Promotern zum Luft-Clathrat, lässt sich das Luft-Clathrat bei niedrigeren Drücken (< 50 bar) und bei leicht höheren Temperaturen (ca. 280 K) synthetisieren.
Bei den Druck- und Flüssigluftspeichern handelt es sich um ähnliche Speicher, da bei diesen Luft ebenfalls als Speichermedium dient. Vorteile des Luft-Clathrat Energiespeichers gegenüber den Druck- und Flüssigluftspeichern liegen darin, dass dieser bei milderen Bedingungen (Druck, Temperatur) die Luft speichert und für die Speicherung der Luft keine Kaverne benötigt, wie es bei den Druckluftspeichern der Fall ist.
In der folgenden Masterarbeit werden drei Systeme des Luft-Clathrat Energiespeichers thermodynamisch modelliert. Das isotherme und isentrope System dienen als ideale Systeme, während das reale System an die Wirklichkeit angenähert wird. Für das reale System wird bei reinem Luft-Clathrat ein Zykluswirkungsgrad von ca. 17 %, eine gravimetrische Energiedichte von ca. 22 Wh/kg und eine volumetrische Energiedichte von ca. 21 kWh/m3 erreicht. Mit Promotern konnte der Zykluswirkungsgrad auf ca. 47 % bei einer gravimetrischen Energiedichte von ca. 11 Wh/kg und einer volumetrischen Energiedichte von ca. 10 kWh/m3 erhöht werden.
This study deals with the energy situation in Ny-Ålesund, an Arctic research station on the archipelago Svalbard, and aims at analysing the technical feasability of a transition to renewable energies by taking into consideration both the environmental and climatic impediments.
The analysis is based on a 27 year long collection of authentic meteorological data with all its strong fluctuations, seasonal as well as yearly. Great emphasis was put on the discussion of tried-and-tested renewable technologies that were compared to a new wind-based energy device that has yet to be tested for its reliability in the harsh environment of notably the Arctic winter. Meticulous calculations lead to the result that bifacial solar modules are an efficient means even in months when the sun stands low and their combination with wind-based devices prove to generate a maximum output. Geothermal energy seems to be promising in the region, but could not be evaluated due to a crucial lack of relevant data.
The study comes to the conclusion that the research station of Ny-Ålesund could well rely on a combination of renewable energy devices to cover its energy load, but needs to keep a back-up system of diesel run generators to bridge short periods of possible dysfunctions or standstills due to meteorological circumstances. Battery storage could only contribute to solve the problem of an unfortunate interruption of the energy supply, but it cannot serve as the entire back-up system since, at present, the need would go beyond all possible dimensions.
Seit jeher versuchen Energieversorgungsunternehmen den Einsatz ihrer Kraftwerke zu optimieren. Grund für die Optimierung ist die Sicherstellung der Stromversorgung bzw. das wirtschaftliche Handeln eines Unternehmens. Bisher gibt es am Markt kaum intelligente Lösungen für sehr komplexe, hydraulisch zusammenhängende Kraftwerksgruppen. Obwohl die deterministische Optimierung der illwerke vkw sehr ausgereift ist, wird hier ein Schritt weitergegangen. Als Methode dient eine detaillierte Bewertung des Kraftwerkseinsatzes bei gleichzeitiger Reduzierung von Risiken. Es wird nach Strategien und Regeln gesucht, welche den Einsatz zusätzlich optimieren. Für das Ziel dieser Forschung stellt sich in der vorliegenden Masterarbeit folgende Frage: „Wie können Kraftwerkseinsatzstrategien mithilfe eines Trainingssimulators bewertet und verallgemeinert werden?“
Zur Beantwortung der Forschungsfrage wurden Simulationsfahrten von mehreren Dispatchern durchgeführt. Die Bewertungsmethodik basiert auf der Analyse der unterschiedlichen Strategien und gewichteten Kennzahlen. Zusätzlich wurde ein Fragebogen erstellt. Dieser beinhaltet Aspekte zu bereits bekannten Regeln im Dispatching, zur Gewichtung der Kennzahlen, zur Erfahrung der Dispatcher und zum Verhalten in verschiedenen Einsatzsituationen. Die Antworten der Dispatcher zeigen, dass bereits verschiedene Regeln im Kraftwerkseinsatz zur Anwendung kommen.
Die Ergebnisse belegen, dass ein größeres rotierendes Regelband trotz geringfügiger Wirkungsgradeinbußen, optimal ist. Dadurch können spontane Regelenergieabrufe ohne Fehlarbeit beantwortet werden. Ebenso werden die Umstellungen und somit die Maschinenbelastung deutlich geringer gehalten. In allen Strategien der Dispatcher wurden die Endpegelstände so gewählt, dass min. 1,5 h mit Vollabrufen weitergefahren werden konnte. Außerdem zeigt die Arbeit, dass es nicht möglich ist, Pegelreserven während des Einsatzes zu bewerten.
Die vorliegende Arbeit beschreibt eine Methode zur Prognose von Anomalien in einzelnen Sensordaten für die Anwendung in Expertensystemen im Bereich der Biomassekraftwerke. Die in fünf Schritten beschriebene Methode beinhaltet neben der Datenaufbereitung eine Anomalievorauswahl durch eine unüberwachte Ausreißererkennung, welche mittels des PYOD-Toolkit umgesetzt wurde. Bei der anschließenden Anomaliebestimmung wird der zuvor generierte binäre Zielvektor durch einen mit dem System vertrauten Experten validiert. Eine darauffolgende überwachte binäre Klassifikation mit unbekannten Betriebsdaten ergibt, dass mittel- bis langfristige Anomalien im Mehrstunden- bis Mehrtagesbereich in Form eines Trends reproduktiv vorhergesagt werden können. Kurzfristige Anomalien im Minutenbereich in Form von Extremfällen können hingegen nicht reproduktiv vorhergesagt werden. Eine zusätzliche Untersuchung zur Vorhersage einer Anomalie noch vor deren tatsächlichen Eintrittszeitpunkt brachte keine zufriedenstellenden Ergebnisse. Demnach lässt sich mit dieser Methode nur eine bestimmte Art von Anomalien in Expertensystemen für Biomassekraftwerke vorhersagen. Dazu sollte zudem darauf geachtet werden, dass es trotz positiv erzielter quantitativer Ergebnisse notwendig ist, für die qualitative Prüfung einen mit dem System vertrauten Experten hinzuzuziehen und dass für die zu prognostizierende Anomalie die geeignete Abtastzeit zu wählen ist. Abschließend bleibt zu erwähnen, dass Anomalien, welche nur durch Über- bzw. Unterschreitung eines definierten Grenzwertes gekennzeichnet werden, als zu trivial für diese Methode gelten. Diese können über eine einfache Grenzwertbetrachtung identifiziert werden.
Im Rahmen eines Forschungsprojektes gingen die Autorinnen folgender Frage nach: Welche identitätsstiftenden Werte der Siebenbürger Sachsen/Sächsinnen sind heute in Oberösterreich noch wahrnehmbar? Es wurde dazu ein qualitatives Forschungsdesign gewählt. Die Ergebnisse zeigen, dass die Auswanderung, Fluchterfahrung und die Ankunft in Österreich wesentlich die Identitäten dieser Personengruppe bestimmte und noch immer beeinflusst. Es wird aufgezeigt, wie sich die Identitäten über drei Generationen verändert haben und was noch als identitätsstiftend erfahrbar ist. Die Ergebnisse leisten einen Beitrag zur Identitätsforschung und bieten eine gute Möglichkeit Erkenntnisse über die beforschte Zielgruppe hinaus zu generieren.
Recently the use of microRNAs (miRNAs) as biomarkers for a multitude of diseases has gained substantial significance for clinical as well as point-of-care diagnostics. Amongst other challenges, however, it holds the central requirement that the concentration of a given miRNA must be evaluated within the context of other factors in order to unambiguously diagnose one specific disease. In terms of the development of diagnostic methods and devices, this implies an inevitable demand for multiplexing in order to be able to gauge the abundance of several components of interest in a patient’s sample in parallel. In this study, we design and implement different multiplexed versions of our electrochemical microfluidic biosensor by dividing its channel into subsections, creating four novel chip designs for the amplification-free and simultaneous quantification of up to eight miRNAs on the CRISPR-Biosensor X (‘X’ highlighting the multiplexing aspect of the device). We then use a one-step model assay followed by amperometric readout in combination with a 2-minute-stop-flow-protocol to explore the fluidic and mechanical characteristics and limitations of the different versions of the device. The sensor showing the best performance, is subsequently used for the Cas13a-powered proof-of-concept measurement of two miRNAs (miRNA-19b and miRNA-20a) from the miRNA-17∼92 cluster, which is dysregulated in the blood of pediatric medulloblastoma patients. Quantification of the latter, alongside simultaneous negative control measurements are accomplished on the same device. We thereby confirm the applicability of our platform to the challenge of amplification-free, parallel detection of multiple nucleic acids.
In this work, we present a significant step toward in vivo ophthalmic optical coherence tomography and angiography on a photonic integrated chip. The diffraction gratings used in spectral-domain optical coherence tomography can be replaced by photonic integrated circuits comprising an arrayed waveguide grating. Two arrayed waveguide grating designs with 256 channels were tested, which enabled the first chip-based optical coherence tomography and angiography in vivo three-dimensional human retinal measurements. Design 1 supports a bandwidth of 22 nm, with which a sensitivity of up to 91 dB (830 µW) and an axial resolution of 10.7 µm was measured. Design 2 supports a bandwidth of 48 nm, with which a sensitivity of 90 dB (480 µW) and an axial resolution of 6.5 µm was measured. The silicon nitride-based integrated optical waveguides were fabricated with a fully CMOS-compatible process, which allows their monolithic co-integration on top of an optoelectronic silicon chip. As a benchmark for chip-based optical coherence tomography, tomograms generated by a commercially available clinical spectral-domain optical coherence tomography system were compared to those acquired with on-chip gratings. The similarities in the tomograms demonstrate the significant clinical potential for further integration of optical coherence tomography on a chip system.