Refine
Document Type
- Bachelor Thesis (52)
- Master's Thesis (25)
- Diploma Thesis (1)
Year of publication
- 2013 (78) (remove)
Keywords
- Protein-Protein-Wechselwirkung (4)
- Algorithmus (2)
- Biogasanlage (2)
- Bioinformatik (2)
- Data-Warehouse-Konzept (2)
- Laserbearbeitung (2)
- Legionella (2)
- Mathematisches Modell (2)
- Membranproteine (2)
- Molekulare Bioinformatik (2)
- Softwareentwicklung (2)
- Stoffwechsel (2)
- Warmwasser (2)
- ASP.NET 2.0 (1)
- Atemluft (1)
- Biogas (1)
- Biologische Abluftreinigung (1)
- Biomathematik (1)
- Biozönose (1)
- Brennstoffzelle (1)
- Business Intelligence (1)
- Butanol <1-> , Stoffwechselweg , Arxula adeninivorans , Biotechnologie (1)
- Clostridium difficile (1)
- Computerspiel (1)
- Computertomographie (1)
- Cyanide (1)
- DNS (1)
- DNS-Bindungsproteine (1)
- Datenbank (1)
- Datenfusion (1)
- Datenintegration (1)
- Datenspeicherung (1)
- Desinfektionsapparat , Luftbefeuchtung (1)
- Dünnschichtsolarzelle (1)
- Elektrokardiogramm (1)
- Elektrokardiographie (1)
- Embryonalentwicklung (1)
- Endoluminale Laserchirurgie (1)
- Erneuerbare Energien (1)
- Femtosekundenlaser (1)
- Fingerprint-Verfahren (1)
- Fotovoltaik (1)
- Frühdiagnostik (1)
- Funktionelle Kernspintomographie (1)
- GMP-Regeln (1)
- Genexpression (1)
- Genom (1)
- Gerichtliche Anthropologie , Schädel , Morphometrie , Molekulargenetik (1)
- Gerste (1)
- Glas (1)
- Glättung <Oberflächenbehandlung> (1)
- Gradientenverfahren (1)
- Graph (1)
- Graphen (1)
- Graphentheorie (1)
- Holmium-Laser (1)
- Hypergraph (1)
- Immunoassay (1)
- Implementierung (1)
- Impulslaserbeschichten (1)
- Impulsschaltung (1)
- In silico-Methode (1)
- Interkonnektor (1)
- Ionenbeweglichkeitsspektroskopie (1)
- Kardiologie (1)
- Kohlendioxidlaser (1)
- Kohlenstoffwerkstoff (1)
- Kombinatorik (1)
- Komprimierte Abtastung (1)
- Körperschall (1)
- Laser , Laserbearbeitung , Femtosekundenlaser (1)
- Laserbestrahlung (1)
- Lichtwellenleiter (1)
- Medizintechnik (1)
- Mehrkriterielle Optimierung (1)
- Metallschicht , Laserimpuls , Abscheidung (1)
- Mikrobiologie (1)
- Mikrospore (1)
- Mikrostruktur (1)
- Mobiles Endgerät (1)
- Molekulargenetik , Knochenfund , Rechtsmedizin (1)
- Mukoviszidose (1)
- NMR-Tomographie (1)
- Navigation (1)
- Nichtlineare Optimierung (1)
- Nitrifikation (1)
- Oligonucleotide (1)
- Optische Kohärenztomographie (1)
- Piezoelektrischer Aktor (1)
- Pollen (1)
- Polymerase-Kettenreaktion (1)
- Polymere (1)
- Poröser Stoff (1)
- Programmierbare logische Anordnung (1)
- Programmierung (1)
- Projektmanagement (1)
- Proliferation (1)
- Prostatahypertrophie (1)
- Proteine (1)
- Proteinfaltung (1)
- Prozessmanagement (1)
- Prämie (1)
- Pränatale Diagnostik (1)
- Präzisionsmessung (1)
- Qualitätsmanagement (1)
- RNS-Interferenz (1)
- Radionuklid (1)
- Ranking , Software , Wettbewerb (1)
- Rechtsmedizin , Stammzelle , Oberschenkelknochen (1)
- Reifen , Reifengeräusch , Geräuschmessung , Schallabstrahlung (1)
- Risiko (1)
- Schadenversicherung (1)
- Sensortechnik (1)
- Sequenzanalyse <Chemie> (1)
- Software (1)
- Softwareentwicklung , Web-Applikation (1)
- Softwarewerkzeug (1)
- Spektrometer (1)
- Spektroskopie (1)
- Stomatitis , Zahnprothese , Chitosan (1)
- Strahlenschutz (1)
- Strahlentherapie (1)
- Strahlformung (1)
- T-Lymphozyt (1)
- Tastwahrnehmung (1)
- Tau-Protein (1)
- Transfektion (1)
- Transkriptionsfaktor (1)
- Ubiquitin-ähnliche Proteine (1)
- Validierung (1)
- Versicherungsmathematik (1)
- Visualisierung , Dreidimensionale Computergrafik (1)
- Wasserleitung (1)
- Wasserprobe (1)
- Zelladhäsion (1)
- Zellkultur (1)
- Zuverlässigkeit (1)
Institute
- 03 Mathematik / Naturwissenschaften / Informatik (78) (remove)
Der erste Teil der vorliegenden Arbeit befasst sich mit der Verbesserung der Laserprozesse bei der Herstellung organischer Solarzellen auf dünnen Schichten (Schichtdicken bis 100 nm). Verwendet werden Pikosekunden-Laser der Wellenlängen von 1030 nm und 515 nm. Für die Auswertung werden statistische Methoden angewendet, welche den Einfluss von Drittparametern berücksichtigen. Zum Finden der optimalen Laserparameter werden Testfelder verwendet. Die optimalen Ergebnisse von den Testfeldern werden am Produkt verifiziert. Die Verifizierung erfolgt durch die Auswertung von Variationen der Laserparameter und der elektrischen Parameter, die von funktionsfähigen Solarzellen ermittelt werden. Der zweite Teil ist die Untersuchung der Laserbearbeitung eines neuen Elektrodenmaterials. Es wird der optimale Parametersatz ermittelt und es werden die Auswirkungen von Abweichungen an elektrisch funktionierenden Modulen, welche mit verschiedenen Laserparametern bearbeitet wurden, untersucht.
Diese Bachelorarbeit mit dem genannten Thema beschäftigt sich mit der Analyse von Transkriptionsfaktoren. Das sind DNA - bindende Proteine, welche die Stärke der Transkription beeinflussen können und somit positive als auch negative Auswirkungen auf die Genexpression haben. Die meisten solcher Bindestellen befinden sich im Bereich -500 bis 100 bp relativ zur Startstelle der Transkription. Außerdem findet ein Vergleich dieser regulatorischen Regionen zwischen den Spezies Mensch, Maus und Ratte statt. Dieses Verfahren wird phylogenetisches Footprinting genannt.
In dieser Arbeit werden die Auswirkungen des Probentransportes von Warmwasser auf die mikrobiologischen Analyseergebnisse für Legionellen erläutert. Dazu werden entsprechende Grundlagen zur Legionellenproblematik, Vergleiche mit der Norm zum Probentransport, die experimentelle Durchführung und anschließend Ergebnisse der Untersuchungen aufgeführt. Die Ergebnisse werden wissenschaftlich ausgewertet, eine Datengrundlage für die bestehenden Normen erstellt und Empfehlungen für zukünftige Untersuchungen beschrieben.
Die vorliegende Arbeit befasst sich mit der systematischen Körperschallbe-schreibung eines Klimageräts für Schienenfahrzeuge.Dazu wurde die eingetragene Körperschallleistung zunächst durch einen Quellterm und eine Koppelfunktion beschrieben. Anschließend konnten mit Hilfe des Übertragungsverhaltens der Struktur Kenngrößen am Systemausgang ermittelt werden. Im letzten Teil wurden Möglichkeiten zur Minderung des Körperschalls für diese Struktur unter-sucht.
In dieser Arbeit wird untersucht, inwiefern die Strahlformung von Femtosekundenlaserstrahlung im Zusammenhang mit der Maskenprojektion möglich ist. Es werden die etablierten Strahlformer anhand einheitlicher Kriterien untersucht und bewertet. Zusätzlich werden erste Abtragsversuche durchgeführt, bei denen verschiedene Strahlformer zur Beleuchtung der Maskenebene verwendet werden.
Die zugrunde liegenden Arbeiten hatten die Steigerung der Synthesekapazitäten von n-Butanol in Arxula adeninivorans zum Ziel.
Da der Wirtsorganismus n-Butanol als exklusive Kohlenstoffquelle nutzen kann, sind Arbeiten zur Reduzierung des Butanolkatabolismus notwendig. Zu diesem Zweck wurde das Gen für eine der Aldehydehydrogenasen von A. adeninivorans ausgewählt, um diese durch homologe Rekombination zu deletieren. Zur Untersuchung des Transformationserfolges wurde eine Charakterisierung der Transformanden durchgeführt. Eine Validierung erfolgte durch Duplex-PCR und n-Butanolver-brauchsmessungen mittels GC/MS.
In dieser Arbeit wurde die Interaktion der Proteine Tau und SUMO untersucht. Für die Charakterisierung wurde zuerst die Methode der Bimolekularen Fluoreszenzkomplementation für das untersuchte System eingeführt, bei der ein geteiltes fluoreszierendes Protein durch eine Interaktion von Proteinen vervollständigt wird und ein Signal durch mikroskopische Auswertung detektiert werden kann. Nach verschiedenen Tests zur Funktionalität der Methode erfolgten Lokalisationsuntersuchungen der Proteine während einer Interaktion und bei alleiniger Expression in der Zelle.
In dieser Arbeit wird die Klasse der Chordalen Graphen vorgestellt. Dafür werden zunächst einige Grundlagen zu den Chordalen Graphen vorgestellt wie wichtige Definitionen, Eigenschaften, einige Sätze zu dieser Graphenklasse und ein Überblick über wichtige Literatur. Anschließend wird beschrieben, wie man Chordale Graphen erkennen kann und mit welchen anderen Graphenklassen sie im Zusammenhang stehen. Abschließend wird noch auf zwei der bekanntesten Algorithmen für Chordale Graphen eingegangen.
Die vorliegende Arbeit befasst sich mit einem relativ jungen Gebiet innerhalb der angewandten Mathematik, dem Compressed Sensing. Darin geht es zum einen um die Frage, wie man einen dünn besetzten, hochdimensionalen Vektor durch lineare Projektionen in seiner Dimension reduzieren kann, ohne dass dabei Information verloren geht. Dieses "Sensing"-Verfahren ist nicht-adaptiv, d.h. es soll für jeden dünn besetzten Vektor mit der gleichen Anzahl von null verschiedener Elemente gleichermaßen funktionieren und auch nicht während des Prozesses auf bereits berechnete Projektionen zurückgreifen. Zum anderen geht es um die Rekonstruktion des dünn besetzten Vektors aus diesen Projektionen, welche wesentlich weniger in der Zahl sind, als die Dimension des gesuchten Vektors. Das führt auf ein unterbestimmtes lineares Gleichungssystem, das zunächst unendlich viele Lösungen hat. Zusammen mit der Forderung der Dünnbesetztheit an die Lösung führt dies auf ein NP-schweres kombinatorisches Optimierungsproblem. Die Theorie von Compressed Sensing bietet nun Antworten auf die Fragen, wann dieses Problem l¨osbar ist und wie man es mit effizienten Verfahren der Optimierung praktisch lösen kann. Ziel dieser Arbeit ist es, einen einführenden Überblick in das Sparse Reconstruction Problem zu geben und eine Auswahl wichtiger theoretischer Resultate zu präsentieren. Dabei wird zum einen die konvexe Relaxation des NP-schweren Problems betrachtet, welche mit Methoden der konvexen Optimierung effizient gelöst werden kann. Zum anderen werden schnelle Approximationsverfahren betrachtet, welche das kombinatorische Problem direkt approximativ lösen. Dabei wird sich auf eine Auswahl beschränkt, die keinen Anspruch auf Vollständigkeit erhebt, da es kurz nach Etablierung der Theorie eine wahre Explosion an Veröffentlichungen auf diesem Gebiet gab. Dennoch werden die wichtigsten Resultate und Ansätze präsentiert und durch simulative Berechnungen bestätigt und illustriert, wobei die präsentierten Verfahren zum großen Teil selbst implementiert wurden.
There are a lot of people taking part in more than one competition. The competitions are also of a different kind. From local events with a small number of participants to international tournaments watched by many viewers. Naturally it becomes necessary a system to assess and compare the success in various competitions.
The existing ranking systems are usually specialized to fit their application area. More general ranking methods also exist. They can be applied to a wide spectrum of competition fields. However these ranking methods are still not universal and don't cover some important features of the competitions.
A totally new ranking system has been developed within the present master thesis. Its primary purpose is to evaluate and measure prestige gained by participants in competitions. The main contribution of the thesis consists of an original mathematical model that makes the ranking system unique.
The developed ranking system claims to be universal and interdisciplinary. It is based on the fundamental element that distinguishes the competition from the non-competition areas, namely standings that rank the participants according to their performance. The universality and the interdisciplinarity of the ranking system make available cross-disciplinary comparisons, which is usually very subjective and difficult for implementation.
The contribution of the master thesis extends beyond the theoretical area. A ranking software that fully implements this novel ranking system has been designed and developed. The software makes the practical benefits of the ranking system immediately available to potential application areas such as sports clubs and universities.
And finally, the developed ranking system offers a new viewpoint to the competitions – as a way of gaining prestige, rather than the traditional viewpoint of demonstrating mastery.
Die vorliegende Arbeit befasst sich mit der hierarchischen Partitionierung von Hypergraphen, die im Prozess der Chipentwicklung durch Netzlisten einer integrierten Schaltung entstehen. Das Problem der Partitionierung ist dabei NP-schwer, sodass Heuristiken für die entsprechende Partitionierung verwendet werden. Erschwerend kommt hinzu, dass die Hypergraphen meist eine große Ordnung, mehr als 10^5 Knoten, aufweisen. Ziel dieser Arbeit ist es, ein Modell für eine derartige Partitionierung zu erstellen, welches Resultate aus vorangegangenen Arbeiten berücksichtigt und die Platzierung der Elemente des integrierten Schaltkreises im Fokus hat. Des Weiteren wird die Tauglichkeit vorhandener Algorithmen auf die erwähnte Modellierung geprüft, weiter werden vorhandene Algorithmen modifiziert und eigene Algorithmen konzipiert. Dabei wird darauf geachtet, dass die Algorithmen auf Hypergraphen mit großer Ordnung anwendbar sind. Diese Algorithmen werden dazu auf Hypergraphen des Benchmarks "ISPD 05/06" angewandt.
Diese Masterarbeit befasst sich mit der Entwicklung einer Knowledge Base für die Integration von biologischen Daten des Forschungsprojekts CyanoFactory. Ziel des Projekts ist die Verbesserung der Wasserstoffproduktion von Cyanobakterien, speziell vom Modellorganismus Synechocystis sp. PCC 6803. Als Basis für diese Knowledge Base soll ein Data Warehouse verwendet werden. Mehrere existierende Data Warehouse-Systeme für biologische Daten werden vorgestellt, evaluiert und eines für die Anforderungen von CyanoFactory angepasst.
Die Bachelorarbeit befasst sich mit dem Zuordnen von Reads eines Datensatzes, der aus ausdem sequenzierten Metatranskriptom von 6 verschiedenen Organismen besteht, zu Genomen ausgewählter Organismen und die Darstellung dieser auf einer Stoffwechselkarte. Dafür wurde ein Programm in Python geschrieben, dass die Gensequenzen der einzelnen Genome mit den Reads des Datensatzes, mit der Hilfe von BLAST, vergleicht. Die Anzahl der Übereinstimmungen spielt die Stärke der Expression der einzelnen Enzyme wieder und wurde auf der Stoffwechselkarte „Biochemical Pathways“ graphisch dargestellt. Je nach Trefferanzahl wird das Enzym mit einer bestimmten Farbe hervorgehoben, so dass mit einem flüchtigen Blick Expressionsbereiche und die Stärke dieser leicht zu erkennen sind. Des Weiteren wird die genaue Anzahl der Treffer und die EC-Nummer angezeigt. Neben des Bildes speichert das Programm die Ergebnisse in Textdateien, die tabellarisch aufgebaut sind und deshalb mit einem Tabellenkalkulationsprogramm importiert werden können. Damit nicht jeder Organismus einzeln analysiert werden muss, ist eine Methode geschrieben worden, die mehrere Organismen nacheinander mit dem Datensatz vergleicht, und danach die Ergebnisse miteinander vergleicht. Außerdem wurde eine PROSITE Pattern Suche eingebaut, um EC-Nummern, die in keinem Genom vermerkt sind, in dem Datensatz dennoch zu finden.
Die vorliegende Arbeit befasst sich mit der Analyse humaner Bronchialepithelzellen und ihrer funktionalen Expression und Proteinexpression des Epithelialen Natriumkanals (ENaC). Das Hauptziel ist, sowohl die funktionale Expression als auch die Proteinexpression des epithelialen Natriumkanals mittels des Glucocorticoid Dexamethason zu steigern. Für die Analysen wurden die Zellen über verschiedene Inkubationszeiten mit Dexamethason inkubiert und elektrophysiologisch, mittels Ussing-Kammer Messungen und biochemisch, mittels Western Blot Analysen, untersucht.
Die vorliegende Arbeit befasst sich mit der Einrichtung eines Strahlenschutz-bereiches und dem Inverkehrbringen des neuen dentalen Tubusgerätes SIRIUX der Firma Ritter Concept GmbH. Als Strahlenschutzbereich wurden ein Röntgenraum und ein Bedienraum eingerichtet. Für die Verkleidung des Röntgenraumes mit speziellen Gipskartonplatten wurde der erforderliche Bleigleichwert nach DIN 6812 ermittelt. Die Inbetriebnahme einer Röntgeneinrichtung wurde, wie nach Röntgenverordnung gefordert, bei der Landesdirektion angezeigt. Des Weiteren wurde der Ablauf einer Abnahmeprüfung von Tubusgeräten entwickelt und die dazu notwendigen Messmittel angeschafft. Die Voraussetzungen für das Inverkehrbringen des neuen Medizinproduktes wurden nach Medizinproduktegesetz und Medizinproduktrichtlinie 93/42/EWG erfüllt.
Die vorliegende Masterarbeit beschäftigt sich mit Untersuchungen der Charakterisierung der elektrischen Eigenschaften von flexiblen CIGS-Dünnschichtsolarzellen nach Strukturierung mittels Pikosekundenlaser. Die laserbasierte Strukturierung führt zu einer besseren Kontrolle der Bearbeitungsergebnisse, als mit dem üblichen Verfahren mittels Nadel-Ritzen möglich ist. Zur Kontrolle wird der Parallelwiderstand der Solarzelle herangezogen. Durch ihn kann der Einfluss der Laserbearbeitung auf das Solarzellenmaterial beurteilt werden. Zur elektrischen Charakterisierung wurden an lasergenerierten Strukturen IU-Kennlinienmessungen vorgenommen, aus denen der Parallelwiderstand ermittelt wurde. Die Höhe des Widerstandes gibt Auskunft über die Stärke der Schädigung des Solarzellenmaterials. Ein hoher Widerstand deutet dabei auf eine schädigungsarme Bearbeitung. Zur Bestätigung der gewonnen Ergebnisse aus den elektrischen Messungen wurden REM-Aufnahmensowie Abtragstiefenmessungen herangezogen.
Die Magnetresonanztomographie ist eine weit entwickelte Form der bildgebenden Diagnostik. Eine neue Entwicklung ist die Elastographie mit der Magnetresonanztomographie zu verbinden. Für diese Einbringung wurde ein Bewegungswandler entwickelt, welcher ein elektrisches Signal in ein mechanisches Signal umwandelt. Dieser Bewegungswandler wurde elektromechanisch charakterisiert. Da der Aufbau des Bewegungswandlers sehr komplex ist, wurde ein elektrodynamischer Lautsprecher für erste Testmessungen verwendet. Der Lautsprecher wurde elektrisch vermessen und elektromechanisch charakterisiert. Für den Bewegungswandler wurde neben der elektrischen Methode noch eine optische Messeinrichtung verwendet.
Die vorliegende Arbeit befasst sich mit der Konzeption und Umsetzung einer automatischen OnDemand-Bereitstellung für die WebcastSuite auf Basis des Wowza Media Servers. Dabei geht es um die Erstellung einer Software, welche die vorhandene WebcastSuite um die automa-tische Erstellung einer OnDemand-Version eines Webcastes erweitert.
Cyanobakterien gehören zu den evolutionär ältesten Bewohnern unserer Erde und haben sich während Jahrmilliarden an stark differierende Umweltbedingungen adaptiert. Sie besiedeln teils Habitate mit widrigsten Konditionen, seien es bspw. im höchsten Maß nährstoffarme Gebiete oder jene mit extremer Hitze [Fuchs & Schlegel, 2007]. Durch die genomischen Beschaffenheiten sind Cyanobakterien in der Lage, Wasserstoff zu produzieren. Durch bioverfahrenstechnische Fortschritte sowie den biologisch-fachlichen Fortschritt der Kenntnisse der Stoffwechselvorgänge kann es in einigen Jahren vermutlich möglich werden, dass auf effektive Weise dieser Biowasserstoff gewonnen und als regenerativer Kraftstoff eingesetzt werden kann [URL-4; URL-5; URL-6; Bandyopadhyay et al., 2010]. Dadurch könnte in einem hohen Maß der Einsatz an fossilen Energieträgern reduziert werden. Im Umfang der vorliegenden Masterarbeit werden theoretische sowie experimentelle metabolische Daten des aktuellen wissenschaftlichen Standes der Cyanobakterien Synechocystis sp. PCC 6803 und Nostoc sp. PCC 7120 mittels einer umfangreichen Literaturrecherche aufgearbeitet, eine Analyse von Visualisierungssoftware durchgeführt und metabolische Modelle des Wasserstoffmetabolismus erstellt. Weiterhin wird die Thematik der Etablierung einer Knowledgebase für Cyanobakterien diskutiert [Karr et al., 2012]. Diese Arbeit ist Teil des EU-Forschungsprojekts CyanoFactory (FP 7, Fördernummer 308518).
ETL Konzept zur Integration von unstrukturierten Quelldaten in ein bestehendes Data Warehouse
(2013)
Die vorliegende Arbeit wurde im Rahmen meines Studiums, Bachelor of Science in Wirtschaftsinformatik an der Hochschule Mittweida (FH) – Universal of Applied Sciences verfasst. Inhaltlich befasst sich diese Arbeit mit dem Thema des Data Warehousing sowie der Integration von unstrukturierten Daten. Das Hauptanliegen der Arbeit ist es, einen umfassenden Überblick über dieses Thema zu geben. Es soll insbesondere ein detailliertes Konzept erarbeitet werden, welches die Integration der unstrukturierten Daten im Praxisszenario erleichtert. Darüber hinaus beschäftigt sich diese Arbeit mit den erforderlichen Qualitätssicherungsmaßnahmen und Automatisierungsmöglichkeiten des ETL-Prozesses. Diese werden anhand eines realen Projektes im praktischen Teil der Arbeit veranschaulicht.
Eine schnelle und zuverlässige C. difficile Diagnostik ist essentiell für die Einleitung geeigneter Therapiemaßnahmen. Bis heute wurde weltweit keine Standardisierung für die Labordiagnostik festgelegt. Jede Untersuchungseinrichtung muss sich selbst aus der Fülle der auf dem Markt vorhandenen Methoden für einen Algorithmus entscheiden. In der Literatur sind unzählige Vorschläge getesteter Verfahrens-Kombinationen mit ihren Leistungsdaten zu finden. Innerhalb dieser Arbeit wurden verschiedene Methoden aufgegriffen und miteinander verglichen. In diesem Zug fand auch die Evaluierung eines neuen Testverfahrens statt. Zusätzlich sollte die Diagnostik des mikrobiologischen Laboratoriums der Zentrum für Diagnostik GmbH Chemnitz analysiert und gegebenenfalls verbessert werden.
This Bachelor thesis provides an experimental validation of the “si-Fi” software, which was designed for RNAi off-target searches and silencing efficiency predictions. The experimental approach is based on using synthetic DNA as RNAi-target as well as RNAi-trigger sequence. The data was generated by two different types of experiments using a transient gene silencing system in bombarded barley epidermal cells. The efficiency of RNAi was estimated by scoring the effect of silencing of the susceptibility-related gene Mlo on resistance of transformed cells to the powdery mildew fungus Blumeria graminis f. sp. hordei by observing reduction of fluorescent signals coming from an RNAi target fused to the green fluorescent protein. The aim of this work was a comparison between in silicio prediction of RNAi efficiency and off-target effects in barley and experimental data.
Mit dieser Arbeit wird eine Methodik vorgestellt, strukturbiologische Netzwerke auf der Basis von Experimenten zur Affinitätsaufreinigung mit gekoppelter Massenspektrometrie zu generieren. Zur Anwendung kommen dafür verschiedene spezialisierte Tools in einem strukturierten Workflow. Es wird damit eine Möglichkeit geboten, anhand der Sequenz- und Interaktions-Informationen der analysierten Experimente ein strukturelles Protein-Protein-Interaktions-Netzwerk zu generieren.
Diese Proof-of-Concept Studie befasst sich mit der Entwicklung eines Systems zur Positionsbestimmung bzw. Navigation für bemannte Marsmissionen unter Feldbedingungen. Dazu zählte der Verzicht auf GPS Signale, sowie die Verwendung ausschließlich handelsüblicher Komponenten. Unter diesen Voraussetzungen wurden Distanzmessungen in der Nordsahara im Rahmen einer Raumfahrtsimulation durchgeführt, die Genauigkeit beurteilt und abschließend ein möglicher Ausbau und Optimierungsschritte beleuchtet. Die erreichbare Genauigkeit bei diesem System betrug bei bis zu 81% der Messwerte unter 150m.
The main purpose of this Bachelor thesis was to find and to compile comprehensive information on barley genes expressed in the context of pollen embryogen esis. In the present study, this approach was confined to genes that were previously known to be associated with the initiation of embryogenesis in different plant species. First, candidate transcript sequences were identified in barley. Second, transcript and associated genomic sequences were analyzed in silico to provide suitable structural and functional annotations. Finally, the results of one representative example are presented and interpreted in detail. This work aims to contribute to a significantly improved understanding of pollen embryogenesis - a biological phenomenon broadly used for haploid technology in crop improvement.
Geschäftsprozessmanagement, auch Business Process Management, ist ein Trend, welcher in der Wirtschaft kaum noch wegzudenken ist. Allerdings hat sich dieser Trend nicht nur in der Wirtschaft entwickelt, sondern auch im IT-Bereich. Dort wurde in den letzten Jahren vermehrt auf geschäftsprozessunterstützender Software, sogenannte Business Process Management Systeme, gesetzt. Die vorliegende Arbeit befasst sich mit der Integration solch eines Business Process Management Systems, speziell dessen Business Process Management Engine, in eine komplexe Geschäftsanwendung. Dabei werden Schwerpunkte für die Integration anhand eines Beispiel Business Process Management Systems und einer Beispiel Geschäftsanwendung beschrieben und entsprechende Lösungen vorgestellt. Außerdem folgt in Einblick in ausgewählte Funktionen eines Business Process Management System.
Cardiotokographie, kurz CTG ist ein Verfahren der pränatalen Diagnostik, bei der mittels Ultraschall und mechanischer Sensorik Rückschlüsse auf den Gesundheitszustand von Fetus und Mutter getroffen werden können. Aufgrund dieses heiklen Einsatzgebietes ist die korrekte Funktion des CTG-Gerätes während der Untersuchung von besonders großer Bedeutung. Bislang ist eine Funktionsprüfung jedoch nur während einer laufenden Untersuchung möglich. Da dies nicht in jedem Fall eine praktikable Lösung darstellt, wird im Zuge dieser Bachelorarbeit ein geeigneter Patientensimulator für die Prüfung von CTG-Geräten konstruiert und die prototypische Umsetzung dokumentiert. Mithilfe des Patientensimulators können CTG-Geräte auf defekte Transducer untersucht werden, eine Hauptursache für Funktionsstörungen. Als Grundlage für die Konstruktion werden zunächst die biologischen Vorgänge im Bauch der Mutter sowie die Funktionsweise und Auswertung einer CTG erarbeitet. Mithilfe der gewonnenen Erkenntnisse werden Ansätze zur Simulation der fetalen Herzfrequenz (FHF) und des Wehendruckes gewonnen. Der meist versprechende Ansatz wird anschließend in Form eines Prototypen umgesetzt. Dabei wird neben der Hauptfunktion, der Simulation der FHF und des Wehendruckes auch auf eine praktikable technische Umsetzung geachtet. Das Ergebnis der Bachelorarbeit ist ein funktionsfähiger Prototyp eines Patientensimulators für die FHF und den Wehendruck.
Ziel dieser Masterarbeit war es, ein Verfahren zu entwerfen, welche die Beantwortung von bestimmten Fragestellungen während einer olfaktorischen oder gustatorischen Untersuchung mittels der funktionellen Magnetresonanztomographie erlaubt. Dazu wurde mittels der Software PsychoPy eine Verbindung zwischen dem Magnetresonanztomographen, dem Olfaktometer oder Gustometer und der Bedienungseinheit des Probanden hergestellt. Die Fragestellungen für den Probanden konnten mit der Software und den registrierten Triggersignalen genau zeitlich eingestellt werden. Das Bedienelement des Probanden beruht dabei auf einem mechanischen Prinzip, das ohne metallische Materialien konzipiert wurde. Die Beantwortung der Fragen, welche über einen Projektor auf einer Leinwand dargestellt werden, soll über eine Signalerzeugung durch eine Druck- oder Zugbewegung der Finger realisiert werden.
TLC-Blots sind Darstellungen, die durch Chromatographien entstehen. Sie bestehen aus einer Grundfarbe, die durch die TLC-Platte vorgegeben ist und verschiedenen andersfarbigen Punkten oder Punkthäufungen.
Diese Arbeit beschäftigt sich mit der Repräsentation eines TLC-Blots, durch ein daraus berechnetes 3D-Gebirge. Dabei werden TLC-Plots und deren Entstehung vorgestellt. Die 3D-Darstellung und Verfahren werden im Hinblick auf eine Umsetzung beschrieben.
Zugehörig zu dieser Arbeit, wurden die Erkenntnisse daraus in einem Programm implementiert.
Die einzelnen Funktionalitäten, die zu einer besseren Auswertung führen bilden die Grundelemente hierfür. Sie bauen auf der 3D Repräsentation auf und werden in ihrer Umsetzung, so wie ihren Auswirkungen auf den Auswertungsvorgang beschrieben.
Membranproteine sind essentiell für viele lebenswichtige Prozesse in allen Organismen. Es ist hilfreich ihre Struktur aufzuklären, um ihre Funktionen und die diesen zu Grunde liegenden Mechanismen zu verstehen. Untersuchungen haben gezeigt, dass es kurze Motive gibt, die in a -helikalen transmembranen Proteinen allgegenwärtig sind. Es wird vermutet, dass diese Sequenzabschnitte elementare Eigenschaften besitzen, die die Stabilität und eventuell auch die Funktionen dieser Proteine ausmachen. In dieser Arbeit wurden die Interaktionen und die Beschaffenheit dieser Motive untersucht. Auf der Grundlage verschiedener Datenbanken konnte ein Informationsalmanach erstellt werden, der relevante Informationen zu jedem Motiv enthält. Mit einer Applikation können diese Daten visualisiert werden. Die so generierte Darstellung ist eine Möglichkeit, Proteine auf Grundlage von Motiven genauer zu analysieren. Eine Untersuchung von Motiven aus verschiedenen Proteinfamilien erbrachte weitere Einblicke. Es hat sich gezeigt, dass es Motive gibt, die vorrangig für die Aufrechterhaltung der Struktur verantwortlich sind und solche, die für eine Funktion wichtig erscheinen. Es existieren Motive, die in allen Proteinfamilien vorkommen, jedoch in jeder eine veränderte Zusammensetzung zeigen. Trotzdem scheinen sie in allen Familien die gleichen Auswirkungen zu haben. Andere Motive sind nur in bestimmten Proteinfamilien hoch konserviert und wahrscheinlich für eine Funktion spezifisch. Auf dieser Grundlage wurde eine Methode entwickelt, die einen Vergleich zwischen den Familien ermöglicht.
Die Bachelorarbeit verfolgt das Ziel der Erstellung einer zweckmäßigen und updatefähigen Soft-ware zum Umgang und zur Verwaltung von Datensätzen des OpenImmo Datenstandards. Der Datenstandard auf Basis der XML-Technologie wird bzgl. des Aufbaus, der Validierung sowie der generellen als auch spezifischen Funktionsweise aufgeführt und erläutert. Des Weiteren erfolgt die Konzeption, der Entwurf und die Implementierung des Prototyps einer möglichen Softwareumsetzung. Die Umsetzung wird analysiert, bewertet und gegenüber anderen Umsetzungsmöglichkeiten verglichen.
Die vorliegende Arbeit befasst sich mit der Entstehung des Rollgeräusches beim Überrollvorgang von Kraftfahrzeugreifen auf Fahrbahnbefestigungen. Hierbei wird der Beitrag zum Gesamtgeräusch untersucht, der durch die Schwingungen der Fahrbahn und durch die Schwingungen des Reifens erzeugt wird. In diesem Rahmen werden Berechnungen und Messungen zum Schwing- und Abstrahlverhalten stark gedämpfter Plattenstrukturen, repräsentativ für die Fahrbahn, durchgeführt. Des Weiteren wird ein Modell vorgestellt, das die Anregung von Körperschall durch einen rollenden Reifen beschreibt.
In dieser Arbeit werden die Ergebnisse von grundlegenden Untersuchungen zur Erzeugung von metallischen Schichten und Nanometerschichtstapeln mittels Laserpulsabscheidungsverfahren (PLD) vorgestellt. Für die Erzeugung des schichtbildenden Teilchenstromes durch Ablation der Festkörpertargets wurde ein KrF-Excimerlaser mit einer Wellenlänge von 248 nm verwendet. Durch Variation der Abscheidungsparameter Laserpulsfluenz und Laserstrahlquerschnitt wurden die Oberflächeneigenschaften von dünnen Metallschichten für die Erzeugung von spintronischen Schichtstapeln optimiert.
Die Abhängigkeit der materialspezifischen Schichteigenschaften Abtragsrate pro Laserpuls, Schichtaufwachsrate, Oberflächenrauigkeit, Partikulatflächendichte, Schichtdickenverteilung, Schichtdickenhomogenität und Mikrostruktur von den Abscheidungsparametern werden vorgestellt. Unter Nutzung der optimierten Prozessparameter konnten spintronische Metallschichtstapel hergestellt werden. Für die Verbesserung der Schichtdickenhomogenität von laserpulsablatierten Schichten wurde ein xy-Substrat-bewegungssystem konzipiert und dessen technische Realisierung verwirklicht.
n dieser Arbeit werden Air Clad Fasern untersucht, die aufgrund ihres Designs eine wesentlich größere Numerische Apertur gegenüber herkömmlichen Fasern aufweisen. Es wird ein einfaches Modell vorgestellt, mit dem das Fernfeld in Abhängigkeit eines wichtigen Designparameters, der Stegbreite, vorhergesagt werden kann. Unter Verwendung des Modells wurde ein Programm geschrieben, dass diese Vorhersage ermöglicht. Die Abhängigkeit des Fernfelds von der Wellen- und Faserlänge wurde für verschiedenen Air Clad Fasern experimentell bestimmt und mit der theoretischen Vorhersage verglichen.
In dieser Arbeit wird ein mathematisches Modell beschrieben, welches den O2- und CO2-Stoff-wechsel am isolierten Herzen in den drei Kompartimenten Plasma, interstitiale Flüssigkeit und Parenchymalzellen beschreibt unter Berücksichtigung des Carbonat- und Phosphatpuffergleich-gewichtes. Mit Hilfe dieses Modells wird nach möglichen Sensoren für eine experimentell festge-stellte Flussänderung unter hyperkapnischen Bedingungen gesucht. Dazu werden die Zeitska-len der einzelnen Prozesse analysiert und es wird versucht einen Regelkreis zur Flusssteuerung in das Modell einzubringen. Zudem wird das Modell in MatLab implementiert, um dort mittels Bayes’scher Datenanalyse die Parameter des Modells an die experimentell gemessenen Werte anzupassen
In dieser Arbeit werden zwei gradientenbasierte Verfahren zur Lösung nichtlinearer Optimie-rungsaufgaben vorgestellt. Neben der Theorie der Verfahren werden konkrete algorithmische Umsetzungen beschrieben und Hinweise zur Implementierung gegeben. Ein Vergleich der Algorithmen mit gängigen Optimierungsverfahren erfolgt anhand einiger ausgewählter Testfunktionen.
Ziel dieser Arbeit ist die morphognostische, morphometrische und molekulargenetische Untersuchung von historischem bodengelagerten Knochenmaterial aus der spätrömischen beziehungsweise frühen Völkerwanderungszeit. Dabei wird anhand der Bestandsaufnahme der freien oberen Extremitäten die Anzahl der Individuen nachvollzogen und mit Untersuchungen an den Oberarmknochen das Alter geschätzt und das Geschlecht bestimmt
In the 1930, during farmer activities in the village Görzig in Saxony-Anhalt, human bones from the era of emigration of nationswere found. From these skeletal remains especially the skulls, should be analyzed by morphognostic and morphometric methods to receive information about age of death and the gender. In the morphognostic part skull attributes, obliteration of the sutures and the teeth status should be analyzed. Morphometric methods should take for abrigment linear and width dimension from the skull. And then especially the manible should be dimensioned. In additon the DNA from teeth were analyzed by using the PowerPlex®S5-Kit, to test, if it is possible to receive autosomal STR profiles of aDNA. The DNA were isolated with the phenol/chloroform-isoamylalcohol method and then amplified. aDNA can be strongly degraded, so the amplification of autosomal STR systems could be challenging
Die Studie beabsichtigt eine umfangreiche Charakterisierung aufgefundener historischer, menschlicher Skelette auf morphognostischer, osteometrischer und molekulargenetischer Ebene. Anhand ausgewählter Methoden sollen das Geschlecht bestimmt und das Sterbealter geschätzt werden. Als Grundlage für die Auswahl spezifischer Bestimmungsmerkmale dient bereits veröffentlichte, wissenschaftliche Fachliteratur. Die osteologische Analyse erfolgt vorrangig an den unteren Extremitäten, speziell an den Femora
Die vorliegende Arbeit befaßt sich mit der Entwicklung von Tools zur Wartungs- und Analyseverbesserung mittels domänenspezifischer Sprachen (DSLs). Wichtigstes Ziel ist die Erstellung einer Umgebung, die es ermöglicht, bestehende Software bzw. bestehenden Programmcode zu untersuchen und auf Basis von Hinweisen seitens des Tools eine Qualitätssteigerung zu ermöglichen. Zur Erreichung dessen wird unter Nutzung bestehender Frameworks eine Sprachbeschreibung für die bestehende DSL konzeptuell erstellt und schließlich implementiert. Hierauf aufbauend geschieht die Integration in ein Analysetool, welches es Nutzern ermöglichen soll, lokal geltende Best Practices für die DSL zu spezifizieren und darauf aufbauend quantitative sowie qualitative Codeuntersuchungen durchzuführen.
Die Partitionstheorie vereinigt viele mathematische Gebiete. In dieser Arbeit gebe ich einen ersten Einblick in diese Theorie. Dazu werden verschiedene Herangehensweise betrachten, unter anderem unter Verwendung grafischer Darstellungen und unter Einbezug von erzeugenden Funktion. Abschließend wird über das Prinzip der Inklusion und Exklusion, ein weiterer Betrachtungswickel eingeschlagen. Mit Hilfe der Verbandsstrukturen lassen sich Identitäten leicht nachweisen und neue Berechnungsvorschriften entwickeln.
Diese Arbeit beschreibt den Protein Protein Interaction Optimizer – PIPINO – als Werkzeug zur Optimierung des Identifizierungsprozesses von Protein-Protein-Interaktionen. PIPINO bietet das Einlesen und die statistische Analyse von Massenspektrometrie-Daten, sowie deren Visualisierung in einem interaktiven Volcano-Plot, um Protein-Protein-Interaktionspartner zu einem untersuchten Zielprotein zu identifizieren. Weiterhin bietet das Tool die Möglichkeit der Erstellung eines Protein-Protein-Interaktions-Netzwerkes anhand von Daten aus Protein-Protein-Interaktions-Datenbanken. Außerdem steht eine Optimierung zur Verfügung, welche die signifikanten Interaktionspartner eines Massenspektrometrie-Experimentes identifizieren kann.
Die nachfolgende Bachelorarbeit befasst sich mit drei Thesen, die es zu verifizieren gilt. Die Inhalte der Thesen beschäftigen sich zum Thema, dass Projektmanagement in kleinen und mittelständischen Unternehmen oftmals vernachlässigt wird. Durch eine Ursachenanalyse soll diese Aussage bestätigt werden. Anhand einer theoretischen und praktischen Beispiels, soll diese Bachelorarbeit zeigen, dass auch kleine und mittlere Unternehmen das Potenzial für projektorientierte Arbeitsweisen mit Projektmanagement-Software haben.
Inhalt dieser Arbeit ist die ultraschnelle Strahlschaltung mit elek trooptischen Modulatoren. Ziel ist es möglichst hohe Laserleistungen schnell und effizient zu schalten. Dazu werden Untersuchungen bezüglich der Schaltzeit und der Schalteffizienz in Abhängigkeit von der Schaltfrequenz und der eingestrahlten optischen Leistung durchgeführt. Zusätzlich wird die Wirkung des Modulators auf das Strahlprofil analysiert
Die Computertomographie (CT) ist eine nichtinvasive Möglichkeit zur Untersuchung der Koronararterien. Um bei den Aufnahmen Bewegungsartefakte zu vermeiden, ist es notwendig Bilder zu einem gemessen am Herzzyklus zeitlich invarianten Zeitpunkt zu generieren. Dazu wird die CT-Aufnahme standardmäßig mittels eines Elektrokardiogramms (EKG) mit der Herzaktivität synchronisiert. Die Verwendung kontaktloser bzw. kontaktarmer Verfahren zur Erfassung der Herzaktivität bietet im Vergleich zur derzeitigen Methode Vorteile, beispielsweise eine Einsparung der Patientenvorbereitung und somit eine Zeitersparnis sowie eine Erhöhung des Patientenkomforts. Ziel dieser Masterarbeit ist es, verschiedene kontaktarme Verfahren bezüglich ihrer Eignung für die Synchronisation von CT-Aufnahmen zu untersuchen und Ansätze zur Fusion der einzelnen Signale umzusetzen. Als kontaktlose bzw. -arme Verfahren standen die kapazitive Elektrokardiographie (kEKG), die Ballistokardiograaphie (BKG), die Phonokardiographie (PKG), die Photoplethysmographie (PPG) am Rücken sowie die Erfassung der Herzaktivität mittels Dopplerradar zur Verfügung. Umgesetzt wurden zwei Fusionsansätze. Eine Fusionsmethode basierte dabei auf einer gewichteten Mittelwertbildung. Diese Methode wurde in drei Signalkombinationen untersucht. Der zweite Fusionsansatz stellte eine ODER-Verknüpfung unter Nutzung von Vorwissen aus dem kEKG und dem PPG dar. Die kapazitive Elektrokardiographie sowie die Photoplethysmographie zeigen im jetzigen Stand einzeln genutzt bei der Triggerung die besten Ergebnisse. Durch die Nutzung beider Signale mit Hilfe der zweiten Fusionsmethode konnte im Mittel eine Verbesserung bezüglich der Zuverlässigkeit der Triggerung gegenüber der Nutzung der einzelnen Signale erreicht werden
Die vorliegende Arbeit befasst sich mit der Sequenzanalyse der für die Legionellose relevanten Schlüsselproteine der Organismen Legionella anisa, Legionella drancourtii und Legionella shakespearei, sowie mit in vitro-Kultivierungsexperimenten der Spezies Legionella pneumophila ATCC 33152. Zunächst wurden die gesetzlichen Gegebenheiten der Legionellenproblematik und die biologischen Hintergründe betrachtet, darunter die intrazellulären Mechanismen der Legionellose. Die Ergebnisse der Arbeit beinhalten Informationen über die Schlüsselproteine der drei Legionellen Spezies und deren mögliche Pathogenität.
Der Gegenstand der Arbeit ist, Mikrogeometrien mittels Laser auf Bipolarplatten aus hochgefüllten Graphit-Polypropylen herzustellen. Dadurch wird die Oberfläche der Bipolarplatten vergrößert, um die Kontaktwiderstände,sowohl zwischen den Platten sowie einer Gasdiffusionslage, zu senken. Desweiteren wird ein Flächenabtrag auf den eingesetzten Bipolarplatten realisiert, um einen Fräsvorgang zu ersetzen. Somit werden die Laserparameter für die Erzeugung dieser Strukturen,und ihre Funktionalität untersucht.
Die vorliegende Arbeit beschäftigt sich mit der Konzeption und Implementierung eines adaptiven Missionssystems für den Spielprototyp Urban Legend. Das Ziel ist es, eine Umgebung zu schaffen, in der Missionen erstellt werden können und diese an Spieler eines bestimmten Typs verteilt werden. Dabei sollen nicht nur einzelne Missionen erstellt werden können, sondern auch Missionsstränge, die eine Handlung zwischen mehreren Spielern darstellen.
Das Ziel der Bachelorarbeit ist die Gegenüberstellung zweier Storagesysteme – einer kommerziellen Storage sowie einer Open-Source-Lösung. Nach einem theoretischen Einstieg in das Thema Speicher werden beide Storagesysteme jeweils anhand einer Beispielkonfiguration beschrieben und konfiguriert. Anschließend erfolgen die Bewertung der Storages mittels vorher gewählter Bewertungskriterien sowie ein direkter Vergleich beider Systeme. Den Abschluss dieser Arbeit bildet ein kurzer Ausblick in das aktuelle Thema der Speichervirtualisierung.
Untersuchung einer neuartigen Befeuchtungsregelung für das Desinfektionssystem KR 1000 (Keredusy)
(2013)
In der vorliegenden Arbeit wird die Untersuchung einer neuartigen Befeuchtungsregelung für das bestehende Desinfektionssystem KR 1000 (Keredusy) durchgeführt. Grundlage der Befeuchtung ist die Erzeugung von Nebel mit einem Ultraschallvernebler. Der Nebel wird in einem geschlossenen Desinfektionskreislauf mit einem konstanten Volumenstrom verteilt. Der erste Hauptschwerpunkt der Untersuchung liegt in der Regelung der Befeuchtung durch ein eigenentwickeltes Drehklappenventil durch Volumenstromaufteilung. Der zweite Hauptschwerpunkt liegt in der Untersuchung der Vernebelungsleistung des Ultraschallverneblers. Hierbei wird ein neuer Parameter, die Nebelleistung, eingeführt. Die Einflüsse der Vernebelungsleistung bzw. der Nebelleistung werden in Abhängigkeit von der Höhe der Gleichspannung am Ultraschallvernebler, der Wasserhöhe im Verneblertopf und von der Betriebsstromart untersucht. Am Ende wird ein Vorschlag zur neuartigen Befeuchtungsregelung vorgestellt und abgehandelt
Diese Arbeit enthält Methoden zur Erzeugung einer porösenGlasoberfläche. Bei dem speziellen Glas handelt es sich um ein Natriumborosilicatglas. Die Zusammensetzung des Glases wurde so gewählt, dass durch geeignete chemische und thermische Behandlungen eine Entmischung und somit eine Phasenseparation erfolgen kann. Durch diese Entmischung ist es möglich, einen porösen Glaskörper zu erhalten. Dabei wird mit dem sogenannten VYCOR-Prozess gearbeitet. Die anschließenden Untersuchungsmethoden wie die Aufnahmen mit dem Rasterelektronenmikroskop und die Durchführung einer Quecksilber-Intrusion, sollen die porösen Strukturen auf der Glasoberfläche bestätigen.
Die vorliegende Arbeit beschäftigt sich mit programmierbarer Logik als Ressource unter einem Betriebssystem. Es wird dokumentiert, wie die Ressource für Anwendungsprogramme zur Verfügung gestellt werden kann. Für das Bereitstellen der Ressource wird darauf eingegangen,wie sie aufgeteilt und verwaltet werden kann. Ferner wird belegt, mit welchen Möglichkeiten das Anwendungsprogramm auf ein Hardwaremodul zugreifen kann und wie eine gegenseitige Beeinflussung zwischen Hardwaremodulen und Anwendungsprogrammen verhindert wird.
Im Mittelpunkt dieser Arbeit steht der praktische Einsatz des Fingerprint-Service im Rahmen einer Paywall. Dieses Ziel gliedert sich in mehrere Teilaufgaben. Zunächst steht die Überführung des prototypischen Fingerprint-Service in eine stabile Version an. Dabei sollen die speziellen Anforderungen an den Anwendungsfall in die Implementierungen einfließen. Im nächsten Schritt sollen die Anforderungen an eine hohe Verfügbarkeit durch ein Monitoring-System überwacht werden. Die letzte Aufgabe besteht in der prototypischen Umsetzung einer Mandantenfähigkeit
Die vorliegende Arbeit befasst sich mit der gezielten Neuorientierung des Exchange Bias in spintronischen Schichtsystemen durch selektive Aufheizung mittels fokussierter Laserstrahlung im externen Magnetfeld. Hierbei wird der Einfluss der Prozessparameter auf die resultierende Exchange Bias Feldstärke dargestellt. Neben experimentellen Untersuchungen wird die laserinduzierte Aufheizung durch Temperaturfeldsimulationen charakterisiert. Erste Untersuchungen zur Anwendung des lasergestützten Verfahrens auf Leiterbahn-strukturen werden vorgestellt.
Inhalt dieser Arbeit sind grundlegende Untersuchungen zur Mikrostrukturierung und zum Ablationsverlauf eines spintronischen Nanometerschichtstapels mittels Femtosekundenlaserstrahlung. Die Abtragsergebnisse werden mittels Rasterelektronenmikroskop und Rasterkraft-Mikroskopie evaluiert. Der Einfluss der eingestrahlten Fluenz und des Bestrahlungsregimes auf den Materialabtrag werden untersucht. Ziel ist es, Strukturen im einstelligen Mikrometerbereich in den Schichtstapel einzubringen
Im Teil 1 der vorliegenden Arbeit werden drei Prüfmuster auf ihre Gesamtkeimzahl (Alle koloniebildenden Einheiten, zuzüglich Hefen und Schimmelpilze) und spezifizierte Mikroorganismen validiert. Dabei werden die Parameter Richtigkeit, Präzision, Selektivität, Robustheit und die Bestimmungsgrenze überprüft. Nach Erstellung eines Validierungsplans findet, die auf das Produkt angepasste, Durchführung statt. Ergebnisse und Bewertungen werden in einem Validierungsbericht zusammengefasst. Für alle drei Prüfmuster konnten, bei Anwendung der individuellen Methode, die vorgegebenen Testorganismen nachgewiesen und das Verfahren bestätigt werden. Somit können die Methoden in der Routine angewendet werden. Teil 2 beschreibt den Vorgang einer Excel-Validierung für das Arbeitsblatt zur „mikrobiellen Wertbestimmung von Antibiotika“. Es wird ebenfalls ein Validierungsplan erstellt. Ergebnisse und Auswertungen werden in einem Bericht festgehalten. Ein Excel-Arbeitsblatt dient der optimalen Erfassung von Daten und deren Auswertungen für den Routinebetrieb, ohne die Qualität der Ergebnisse zu beeinträchtigen. Mit der Validierung konnte dies bestätigt werden. Verwendete Formeln erfüllen die Vorgaben. Die Musterberechnung anhand dreier potentieller Proben stimmt mit den Ergebnissen des Excel-Arbeitsblatts überein. Alle Zellen, bis auf grün markierte Eingabezellen, wurden gesperrt. Die farbliche Unterscheidung der Zellen erfolgte nach Funktionalität und erfüllt die angestrebte Signalwirkung.
Diese Arbeit befasst sich mit dem Vergleich und der Optimierung verschiedener Primerdesigns zur Detektion von SNPs mittels Allel-spezifischer PCR. Dabei wurden zwei verschiedene Primerdesigns erzeugt, die auf der Grundlage eines zuvor auf Funktionalität getesteten Primerdesigns basieren. Zur stärkeren Signal-Auftrennung wurde dem zweiten Primerdesign ein Tail hinzugefügt. Das dritte Primerdesign besteht aus einer Ankersequenz (Tm > 75°C), einem nicht zur genomischen Sequenz komplementären Spacer und einem Sequenz-spezifischen 3‘-Ende. Dabei wurde die Orientierung der Primer aufgrund der Nachbar-SNPs von A2690C geändert. Die Sequenzierung ergab keine weiteren Mutationen, außer den gewünschten, innerhalb der Primer-Konstrukte. Somit wird die Erzeugung von Nullallelen nur durch die Fehlpaarung einer Base hervorgerufen. Die Funktionalität des Primerdesign 3 konnte nicht bestätigt werden. Im Vergleich schneidet das Primerdesign 1 etwas besser ab als das Primerdesign 2. Der Ausfall tritt dabei beim Primerdesign 1 schon ab einer Annealing-Temperatur von 67°C ein. Zudem entfällt die Erzeugung und der Abgleich des Tails mit den entstehenden Produkten. Für die Multiplex-PCR ist eine Kombination beider Primerdesigns denkbar und vermutlich sinnvoll, da über die Tail-Sequenzen Manipulationen zur Anpassung der Eigenschaften der Primer vorgenommen werden können und die Abstimmung zwischen verschiedenen SNP-Primer-Trios gegebenenfalls erleichtert wird. Bestätigt sich die Funktionalität der Allel-spezifischen PCR im Multiplex-Verfahren, so könnte diese Methode die in der Rechtsmedizin übliche Single Base Extension ablösen. Dadurch würde sich eine starke Senkung der Kosten und des Zeitaufwandes ergeben.
Die derzeit konventionellen Verfahren können für die Glättung von mikrooptischen Elementen nicht eingesetzt werden. Für das Material Quarzglas kann dies durch den Einsatz von CO2-Laserstrahlung realisiert werden. Durch das Erwärmen des Materials über die Erweichungstemperatur hinaus, wird an der Oberfläche eine dünne Schicht aufgeschmolzen und die Oberfläche zieht sich aufgrund der Oberflächenspannung glatt. Zum Glätten von Mikrostrukturen ist die Erwärmung einer größeren Fläche nötig, um eine möglichst homogene Temperaturverteilung zu realisieren und damit auch eine homogene Glättung. Die Glättung kann mit zwei Verfahren realisiert werden, einerseits durch den Einsatz einer Zylinderlinse und andererseits durch einen Scanner. Beide Verfahren liefern Ergebnisse die nur in sehr geringem Maße voneinander abweichen. Bezogen auf Prozesszuverlässigkeit ist das Scanner-Verfahren besser steuerbar, aber weitaus nicht so schnell wie das Zylinderlinsen-Verfahren.
Diese Arbeit thematisiert die aktuell gegebenen Hilfsmittel und Methoden, um eine ASP.NET Webanwendung für mobile Geräte umzusetzen bzw. aufzubereiten, sowie die Entwicklung einer Beispielanwendung, die den Einsatz einer solchen Herangehensweise im Entwicklungsprozess zeigt. Dabei wird auf dafür nötige technische Grundlagen eingegangen. Weiterhin werden die mobilen Geräte spezifiziert, für die diese Cross-Platform-Ansätze gelten.
Für die Analyse und Visualisierung von Genexpressionsdaten existiert ein Programm der Firma Biotype® Diagnostic GmbH: der XpressionXplorer. Dieser liest normalisierte Genexpressionsdaten des "GeneChip® Human Genome U133 Plus 2.0 Array" von Affymetrix ein, die von den Datenbanken GEO und ArrayExpress abstammen. Die Genexpressionsdaten stellen eine zentrale Datenstruktur dar, welche sich abstrahiert als Tabelle, mit einer fixen Anzahl von 54.675 Zeilen und einer variablen Anzahl von über 9.000 Spalten, vorstellen lässt. Jede Zeile der Tabelle repräsentiert ein Probeset auf dem GeneChip® und jede Spalte ein Genexpressionsprofil aus einem Microarray-Experiment. Die vorliegende Arbeit beschäftigt sich mit der Weiterentwicklung einer Programmkomponente des XpressionXplorers. Die Programmkomponente hat die Bezeichnung "Differential Expression" und dient zur Entdeckung von Genen, die sich als Biomarker, z. B. von Tumorerkrankungen, eignen. Diese Programmkomponente sollte durch Einbinden einer neuen grafischen Komponente - der VirtualTreeview - erweitertund verbessert werden. Die hauptsächlichen Vorteile dieser VirtualTreeview sind die kurzen Aktualisierungszeiten, die zusätzliche Darstellung in Spalten und die Möglichkeit des interaktiven Bedienens durch die Benutzer.