Refine
Document Type
- Bachelor Thesis (52)
- Master's Thesis (25)
- Diploma Thesis (1)
Year of publication
- 2013 (78) (remove)
Keywords
- Protein-Protein-Wechselwirkung (4)
- Algorithmus (2)
- Biogasanlage (2)
- Bioinformatik (2)
- Data-Warehouse-Konzept (2)
- Laserbearbeitung (2)
- Legionella (2)
- Mathematisches Modell (2)
- Membranproteine (2)
- Molekulare Bioinformatik (2)
Institute
- 03 Mathematik / Naturwissenschaften / Informatik (78) (remove)
Für die Analyse und Visualisierung von Genexpressionsdaten existiert ein Programm der Firma Biotype® Diagnostic GmbH: der XpressionXplorer. Dieser liest normalisierte Genexpressionsdaten des "GeneChip® Human Genome U133 Plus 2.0 Array" von Affymetrix ein, die von den Datenbanken GEO und ArrayExpress abstammen. Die Genexpressionsdaten stellen eine zentrale Datenstruktur dar, welche sich abstrahiert als Tabelle, mit einer fixen Anzahl von 54.675 Zeilen und einer variablen Anzahl von über 9.000 Spalten, vorstellen lässt. Jede Zeile der Tabelle repräsentiert ein Probeset auf dem GeneChip® und jede Spalte ein Genexpressionsprofil aus einem Microarray-Experiment. Die vorliegende Arbeit beschäftigt sich mit der Weiterentwicklung einer Programmkomponente des XpressionXplorers. Die Programmkomponente hat die Bezeichnung "Differential Expression" und dient zur Entdeckung von Genen, die sich als Biomarker, z. B. von Tumorerkrankungen, eignen. Diese Programmkomponente sollte durch Einbinden einer neuen grafischen Komponente - der VirtualTreeview - erweitertund verbessert werden. Die hauptsächlichen Vorteile dieser VirtualTreeview sind die kurzen Aktualisierungszeiten, die zusätzliche Darstellung in Spalten und die Möglichkeit des interaktiven Bedienens durch die Benutzer.
Diese Arbeit thematisiert die aktuell gegebenen Hilfsmittel und Methoden, um eine ASP.NET Webanwendung für mobile Geräte umzusetzen bzw. aufzubereiten, sowie die Entwicklung einer Beispielanwendung, die den Einsatz einer solchen Herangehensweise im Entwicklungsprozess zeigt. Dabei wird auf dafür nötige technische Grundlagen eingegangen. Weiterhin werden die mobilen Geräte spezifiziert, für die diese Cross-Platform-Ansätze gelten.
Die derzeit konventionellen Verfahren können für die Glättung von mikrooptischen Elementen nicht eingesetzt werden. Für das Material Quarzglas kann dies durch den Einsatz von CO2-Laserstrahlung realisiert werden. Durch das Erwärmen des Materials über die Erweichungstemperatur hinaus, wird an der Oberfläche eine dünne Schicht aufgeschmolzen und die Oberfläche zieht sich aufgrund der Oberflächenspannung glatt. Zum Glätten von Mikrostrukturen ist die Erwärmung einer größeren Fläche nötig, um eine möglichst homogene Temperaturverteilung zu realisieren und damit auch eine homogene Glättung. Die Glättung kann mit zwei Verfahren realisiert werden, einerseits durch den Einsatz einer Zylinderlinse und andererseits durch einen Scanner. Beide Verfahren liefern Ergebnisse die nur in sehr geringem Maße voneinander abweichen. Bezogen auf Prozesszuverlässigkeit ist das Scanner-Verfahren besser steuerbar, aber weitaus nicht so schnell wie das Zylinderlinsen-Verfahren.
Diese Arbeit befasst sich mit dem Vergleich und der Optimierung verschiedener Primerdesigns zur Detektion von SNPs mittels Allel-spezifischer PCR. Dabei wurden zwei verschiedene Primerdesigns erzeugt, die auf der Grundlage eines zuvor auf Funktionalität getesteten Primerdesigns basieren. Zur stärkeren Signal-Auftrennung wurde dem zweiten Primerdesign ein Tail hinzugefügt. Das dritte Primerdesign besteht aus einer Ankersequenz (Tm > 75°C), einem nicht zur genomischen Sequenz komplementären Spacer und einem Sequenz-spezifischen 3‘-Ende. Dabei wurde die Orientierung der Primer aufgrund der Nachbar-SNPs von A2690C geändert. Die Sequenzierung ergab keine weiteren Mutationen, außer den gewünschten, innerhalb der Primer-Konstrukte. Somit wird die Erzeugung von Nullallelen nur durch die Fehlpaarung einer Base hervorgerufen. Die Funktionalität des Primerdesign 3 konnte nicht bestätigt werden. Im Vergleich schneidet das Primerdesign 1 etwas besser ab als das Primerdesign 2. Der Ausfall tritt dabei beim Primerdesign 1 schon ab einer Annealing-Temperatur von 67°C ein. Zudem entfällt die Erzeugung und der Abgleich des Tails mit den entstehenden Produkten. Für die Multiplex-PCR ist eine Kombination beider Primerdesigns denkbar und vermutlich sinnvoll, da über die Tail-Sequenzen Manipulationen zur Anpassung der Eigenschaften der Primer vorgenommen werden können und die Abstimmung zwischen verschiedenen SNP-Primer-Trios gegebenenfalls erleichtert wird. Bestätigt sich die Funktionalität der Allel-spezifischen PCR im Multiplex-Verfahren, so könnte diese Methode die in der Rechtsmedizin übliche Single Base Extension ablösen. Dadurch würde sich eine starke Senkung der Kosten und des Zeitaufwandes ergeben.
Im Teil 1 der vorliegenden Arbeit werden drei Prüfmuster auf ihre Gesamtkeimzahl (Alle koloniebildenden Einheiten, zuzüglich Hefen und Schimmelpilze) und spezifizierte Mikroorganismen validiert. Dabei werden die Parameter Richtigkeit, Präzision, Selektivität, Robustheit und die Bestimmungsgrenze überprüft. Nach Erstellung eines Validierungsplans findet, die auf das Produkt angepasste, Durchführung statt. Ergebnisse und Bewertungen werden in einem Validierungsbericht zusammengefasst. Für alle drei Prüfmuster konnten, bei Anwendung der individuellen Methode, die vorgegebenen Testorganismen nachgewiesen und das Verfahren bestätigt werden. Somit können die Methoden in der Routine angewendet werden. Teil 2 beschreibt den Vorgang einer Excel-Validierung für das Arbeitsblatt zur „mikrobiellen Wertbestimmung von Antibiotika“. Es wird ebenfalls ein Validierungsplan erstellt. Ergebnisse und Auswertungen werden in einem Bericht festgehalten. Ein Excel-Arbeitsblatt dient der optimalen Erfassung von Daten und deren Auswertungen für den Routinebetrieb, ohne die Qualität der Ergebnisse zu beeinträchtigen. Mit der Validierung konnte dies bestätigt werden. Verwendete Formeln erfüllen die Vorgaben. Die Musterberechnung anhand dreier potentieller Proben stimmt mit den Ergebnissen des Excel-Arbeitsblatts überein. Alle Zellen, bis auf grün markierte Eingabezellen, wurden gesperrt. Die farbliche Unterscheidung der Zellen erfolgte nach Funktionalität und erfüllt die angestrebte Signalwirkung.
Inhalt dieser Arbeit sind grundlegende Untersuchungen zur Mikrostrukturierung und zum Ablationsverlauf eines spintronischen Nanometerschichtstapels mittels Femtosekundenlaserstrahlung. Die Abtragsergebnisse werden mittels Rasterelektronenmikroskop und Rasterkraft-Mikroskopie evaluiert. Der Einfluss der eingestrahlten Fluenz und des Bestrahlungsregimes auf den Materialabtrag werden untersucht. Ziel ist es, Strukturen im einstelligen Mikrometerbereich in den Schichtstapel einzubringen
Die vorliegende Arbeit befasst sich mit der gezielten Neuorientierung des Exchange Bias in spintronischen Schichtsystemen durch selektive Aufheizung mittels fokussierter Laserstrahlung im externen Magnetfeld. Hierbei wird der Einfluss der Prozessparameter auf die resultierende Exchange Bias Feldstärke dargestellt. Neben experimentellen Untersuchungen wird die laserinduzierte Aufheizung durch Temperaturfeldsimulationen charakterisiert. Erste Untersuchungen zur Anwendung des lasergestützten Verfahrens auf Leiterbahn-strukturen werden vorgestellt.
Im Mittelpunkt dieser Arbeit steht der praktische Einsatz des Fingerprint-Service im Rahmen einer Paywall. Dieses Ziel gliedert sich in mehrere Teilaufgaben. Zunächst steht die Überführung des prototypischen Fingerprint-Service in eine stabile Version an. Dabei sollen die speziellen Anforderungen an den Anwendungsfall in die Implementierungen einfließen. Im nächsten Schritt sollen die Anforderungen an eine hohe Verfügbarkeit durch ein Monitoring-System überwacht werden. Die letzte Aufgabe besteht in der prototypischen Umsetzung einer Mandantenfähigkeit
Die vorliegende Arbeit beschäftigt sich mit programmierbarer Logik als Ressource unter einem Betriebssystem. Es wird dokumentiert, wie die Ressource für Anwendungsprogramme zur Verfügung gestellt werden kann. Für das Bereitstellen der Ressource wird darauf eingegangen,wie sie aufgeteilt und verwaltet werden kann. Ferner wird belegt, mit welchen Möglichkeiten das Anwendungsprogramm auf ein Hardwaremodul zugreifen kann und wie eine gegenseitige Beeinflussung zwischen Hardwaremodulen und Anwendungsprogrammen verhindert wird.
Diese Arbeit enthält Methoden zur Erzeugung einer porösenGlasoberfläche. Bei dem speziellen Glas handelt es sich um ein Natriumborosilicatglas. Die Zusammensetzung des Glases wurde so gewählt, dass durch geeignete chemische und thermische Behandlungen eine Entmischung und somit eine Phasenseparation erfolgen kann. Durch diese Entmischung ist es möglich, einen porösen Glaskörper zu erhalten. Dabei wird mit dem sogenannten VYCOR-Prozess gearbeitet. Die anschließenden Untersuchungsmethoden wie die Aufnahmen mit dem Rasterelektronenmikroskop und die Durchführung einer Quecksilber-Intrusion, sollen die porösen Strukturen auf der Glasoberfläche bestätigen.
Untersuchung einer neuartigen Befeuchtungsregelung für das Desinfektionssystem KR 1000 (Keredusy)
(2013)
In der vorliegenden Arbeit wird die Untersuchung einer neuartigen Befeuchtungsregelung für das bestehende Desinfektionssystem KR 1000 (Keredusy) durchgeführt. Grundlage der Befeuchtung ist die Erzeugung von Nebel mit einem Ultraschallvernebler. Der Nebel wird in einem geschlossenen Desinfektionskreislauf mit einem konstanten Volumenstrom verteilt. Der erste Hauptschwerpunkt der Untersuchung liegt in der Regelung der Befeuchtung durch ein eigenentwickeltes Drehklappenventil durch Volumenstromaufteilung. Der zweite Hauptschwerpunkt liegt in der Untersuchung der Vernebelungsleistung des Ultraschallverneblers. Hierbei wird ein neuer Parameter, die Nebelleistung, eingeführt. Die Einflüsse der Vernebelungsleistung bzw. der Nebelleistung werden in Abhängigkeit von der Höhe der Gleichspannung am Ultraschallvernebler, der Wasserhöhe im Verneblertopf und von der Betriebsstromart untersucht. Am Ende wird ein Vorschlag zur neuartigen Befeuchtungsregelung vorgestellt und abgehandelt
Das Ziel der Bachelorarbeit ist die Gegenüberstellung zweier Storagesysteme – einer kommerziellen Storage sowie einer Open-Source-Lösung. Nach einem theoretischen Einstieg in das Thema Speicher werden beide Storagesysteme jeweils anhand einer Beispielkonfiguration beschrieben und konfiguriert. Anschließend erfolgen die Bewertung der Storages mittels vorher gewählter Bewertungskriterien sowie ein direkter Vergleich beider Systeme. Den Abschluss dieser Arbeit bildet ein kurzer Ausblick in das aktuelle Thema der Speichervirtualisierung.
Die vorliegende Arbeit beschäftigt sich mit der Konzeption und Implementierung eines adaptiven Missionssystems für den Spielprototyp Urban Legend. Das Ziel ist es, eine Umgebung zu schaffen, in der Missionen erstellt werden können und diese an Spieler eines bestimmten Typs verteilt werden. Dabei sollen nicht nur einzelne Missionen erstellt werden können, sondern auch Missionsstränge, die eine Handlung zwischen mehreren Spielern darstellen.
Der Gegenstand der Arbeit ist, Mikrogeometrien mittels Laser auf Bipolarplatten aus hochgefüllten Graphit-Polypropylen herzustellen. Dadurch wird die Oberfläche der Bipolarplatten vergrößert, um die Kontaktwiderstände,sowohl zwischen den Platten sowie einer Gasdiffusionslage, zu senken. Desweiteren wird ein Flächenabtrag auf den eingesetzten Bipolarplatten realisiert, um einen Fräsvorgang zu ersetzen. Somit werden die Laserparameter für die Erzeugung dieser Strukturen,und ihre Funktionalität untersucht.
Die vorliegende Arbeit befasst sich mit der Sequenzanalyse der für die Legionellose relevanten Schlüsselproteine der Organismen Legionella anisa, Legionella drancourtii und Legionella shakespearei, sowie mit in vitro-Kultivierungsexperimenten der Spezies Legionella pneumophila ATCC 33152. Zunächst wurden die gesetzlichen Gegebenheiten der Legionellenproblematik und die biologischen Hintergründe betrachtet, darunter die intrazellulären Mechanismen der Legionellose. Die Ergebnisse der Arbeit beinhalten Informationen über die Schlüsselproteine der drei Legionellen Spezies und deren mögliche Pathogenität.
Die Computertomographie (CT) ist eine nichtinvasive Möglichkeit zur Untersuchung der Koronararterien. Um bei den Aufnahmen Bewegungsartefakte zu vermeiden, ist es notwendig Bilder zu einem gemessen am Herzzyklus zeitlich invarianten Zeitpunkt zu generieren. Dazu wird die CT-Aufnahme standardmäßig mittels eines Elektrokardiogramms (EKG) mit der Herzaktivität synchronisiert. Die Verwendung kontaktloser bzw. kontaktarmer Verfahren zur Erfassung der Herzaktivität bietet im Vergleich zur derzeitigen Methode Vorteile, beispielsweise eine Einsparung der Patientenvorbereitung und somit eine Zeitersparnis sowie eine Erhöhung des Patientenkomforts. Ziel dieser Masterarbeit ist es, verschiedene kontaktarme Verfahren bezüglich ihrer Eignung für die Synchronisation von CT-Aufnahmen zu untersuchen und Ansätze zur Fusion der einzelnen Signale umzusetzen. Als kontaktlose bzw. -arme Verfahren standen die kapazitive Elektrokardiographie (kEKG), die Ballistokardiograaphie (BKG), die Phonokardiographie (PKG), die Photoplethysmographie (PPG) am Rücken sowie die Erfassung der Herzaktivität mittels Dopplerradar zur Verfügung. Umgesetzt wurden zwei Fusionsansätze. Eine Fusionsmethode basierte dabei auf einer gewichteten Mittelwertbildung. Diese Methode wurde in drei Signalkombinationen untersucht. Der zweite Fusionsansatz stellte eine ODER-Verknüpfung unter Nutzung von Vorwissen aus dem kEKG und dem PPG dar. Die kapazitive Elektrokardiographie sowie die Photoplethysmographie zeigen im jetzigen Stand einzeln genutzt bei der Triggerung die besten Ergebnisse. Durch die Nutzung beider Signale mit Hilfe der zweiten Fusionsmethode konnte im Mittel eine Verbesserung bezüglich der Zuverlässigkeit der Triggerung gegenüber der Nutzung der einzelnen Signale erreicht werden