Refine
Document Type
- Bachelor Thesis (287)
- Diploma Thesis (155)
- Master's Thesis (115)
Year of publication
Keywords
- Softwareentwicklung (18)
- Proteine (12)
- Laserbearbeitung (11)
- Membranproteine (9)
- Algorithmus (8)
- Mikrostruktur (7)
- Bioinformatik (6)
- Graphentheorie (6)
- Laserschweißen (6)
- Protein-Protein-Wechselwirkung (6)
Institute
- 03 Mathematik / Naturwissenschaften / Informatik (557) (remove)
Ziel dieser Arbeit waren Untersuchungen zur heterologen Expression von Magnetosomen-Genclustern aus kultivierten sowie unkultivierten magnetotaktischen Bakterien (MTB). Die 30-120 nm großen Magnetosomen sind durch ihre Vorteile gegenüber chemisch synthetisier-ten Partikeln von biotechnologischem, medizinischem und technischem Interesse. Basierend auf Metagenomanalysen konnten Magnetosomen-Gene unkultivierter MTB identifiziert wer-den, welche der Konstruktion eines 23.392 bp großen Expressionsplasmids mittels Red/ET-Rekombination dienten. Für diesen Vektor sowie ein weiteres Magnetosomenplasmid, welches das mamAB-Operon des kultivierten a -Proteobakteriums M. gryphiswaldense beinhaltet, wurde eine Instabilität in verschiedenen Rezipientenstämmen nachgewiesen. Aufgrund der Stabilität in RecA deffizienten E. coli-Mutanten wurden RecA induzierte Rekombinationsereignisse als Ursache der Instabilität vermutet.
Ziel der Bachelorarbeit ist die Illustrierung und Bewertung des Risikokapitalbedarfes des Lebensversicherungsunternehmens bei der Anwendung vom Solvency II- sowie Schweizer Solvenztest-Standardmodell unter Annahme verschiedener Gesamtschadenverteilungen. Als Einführung werden zu diesem Zweck die verwendeten Berechnungsformeln dargestellt und hergeleitet. Anschließend erfolgt eine quantitative Gegenüberstellung der Solvenzkapitalanforderung bei unterschiedlichen Gesamtschadenverteilungen.
Die vorliegende Arbeit befasst sich mit Untersuchungen zur Beeinflussung des Exchange Bias Feldes in einem GMR-Schichtsystem. Dabei befindet sich die Probe in einem äußeren Magnetfeld und wird durch einen fokussierten Laserstrahl im Scanverfahren aufgeheizt. Ein erster Anhaltspunkt für die notwendigen Laserstrahlintensitäten sollte durch eine Temperaturfeldberechnung mithilfe eines Simulationsprogrammes ermittelt werden. Ziel der Arbeit war es, durch experimentelle Untersuchungen geeignete Laserparameter zu bestimmen. Für die Analyse der Versuchsergebnisse sollte zunächst ein Messverfahren mithilfe eines spintronischen Magnetfeldsensors entwickelt werden.
Die gestiegenen Qualitätsanforderungen im Automobilbau umfassen auch das akustische Verhalten eines Fahrzeugs. Akustische Auffälligkeiten führen insbesondere in akustisch optimierten Fahrzeugen häufig zu Kundenbeanstandungen. Die Messung und Interpretation dieser hörbaren Fehler ist relativ schwierig, da deren Beurteilung und Beschreibung meist nur subjektiv und nicht durch objektive standardisierte Methoden geschieht. Im Rahmen dieser Bachelorarbeit wurden fehlerhafte Lautsprecher untersucht. Dazu wurde in dem vorangestellten Praktikum ein Messaufbau realisiert und eine Sammlung von geeigneten Testsignalen und Analyseverfahren erstellt. Die Signale werden dabei neben klassischen Frequenzanalysen auch psychoakustischen Analysen unterzogen. Das verwendete Testsignal, die beiden Messaufbauten mit zwei verschiedenen Messsystemen, die Durchführung und die eingesetzten Analysen werden im Anschluss beschrieben. Den Abschluss stellt ein Fazit über die Verwendbarkeit des gefundenen Merkmals und der beiden Messsysteme dar. Darüber hinaus wird ein Versuch einer Klassifikation erläutert und auf seine Anwendbarkeit hin untersucht.
Die vorliegende Bachelorarbeit beschäftigt sich mit den für die Einführung eines Portals für personalisiertes Marketing notwendigen Schritten des Projektmanagements. Neben einer Vorstellung dieser Schritte wird auch auf besondere Schritte eingegangen, die für die Erstellung einer mehrsprachigen Plattform notwendig sind. Eine Betrachtung der Möglichkeiten zur Bewertung der Qualität der Software sowie von rechtlichen Rahmenbedingungen für den Betrieb eines solchen Portals schließt diese Bachelorarbeit ab.
Die vorliegende Arbeit befasst sich mit der Einrichtung eines Strahlenschutz-bereiches und dem Inverkehrbringen des neuen dentalen Tubusgerätes SIRIUX der Firma Ritter Concept GmbH. Als Strahlenschutzbereich wurden ein Röntgenraum und ein Bedienraum eingerichtet. Für die Verkleidung des Röntgenraumes mit speziellen Gipskartonplatten wurde der erforderliche Bleigleichwert nach DIN 6812 ermittelt. Die Inbetriebnahme einer Röntgeneinrichtung wurde, wie nach Röntgenverordnung gefordert, bei der Landesdirektion angezeigt. Des Weiteren wurde der Ablauf einer Abnahmeprüfung von Tubusgeräten entwickelt und die dazu notwendigen Messmittel angeschafft. Die Voraussetzungen für das Inverkehrbringen des neuen Medizinproduktes wurden nach Medizinproduktegesetz und Medizinproduktrichtlinie 93/42/EWG erfüllt.
In dieser Arbeit wurde die Interaktion der Proteine Tau und SUMO untersucht. Für die Charakterisierung wurde zuerst die Methode der Bimolekularen Fluoreszenzkomplementation für das untersuchte System eingeführt, bei der ein geteiltes fluoreszierendes Protein durch eine Interaktion von Proteinen vervollständigt wird und ein Signal durch mikroskopische Auswertung detektiert werden kann. Nach verschiedenen Tests zur Funktionalität der Methode erfolgten Lokalisationsuntersuchungen der Proteine während einer Interaktion und bei alleiniger Expression in der Zelle.
Diese Arbeit beschäftigt sich mit dem Ising-Polynom, einem Graphenpolynom, das von einem physikalischen Modell abgeleitet ist. Es werden verschiedene Darstellungen des Polynoms, seine Beziehungen zu anderen Graphenpolynomen und in ihm enthaltene Grapheninvarianten vorgestellt. Weiter werden, insbesondere für spezielle Graphenklassen, Berechnungsmöglichkeiten beschrieben und der Rechenaufwand betrachtet.
The main purpose of this Bachelor thesis was to find and to compile comprehensive information on barley genes expressed in the context of pollen embryogen esis. In the present study, this approach was confined to genes that were previously known to be associated with the initiation of embryogenesis in different plant species. First, candidate transcript sequences were identified in barley. Second, transcript and associated genomic sequences were analyzed in silico to provide suitable structural and functional annotations. Finally, the results of one representative example are presented and interpreted in detail. This work aims to contribute to a significantly improved understanding of pollen embryogenesis - a biological phenomenon broadly used for haploid technology in crop improvement.
ETL Konzept zur Integration von unstrukturierten Quelldaten in ein bestehendes Data Warehouse
(2013)
Die vorliegende Arbeit wurde im Rahmen meines Studiums, Bachelor of Science in Wirtschaftsinformatik an der Hochschule Mittweida (FH) – Universal of Applied Sciences verfasst. Inhaltlich befasst sich diese Arbeit mit dem Thema des Data Warehousing sowie der Integration von unstrukturierten Daten. Das Hauptanliegen der Arbeit ist es, einen umfassenden Überblick über dieses Thema zu geben. Es soll insbesondere ein detailliertes Konzept erarbeitet werden, welches die Integration der unstrukturierten Daten im Praxisszenario erleichtert. Darüber hinaus beschäftigt sich diese Arbeit mit den erforderlichen Qualitätssicherungsmaßnahmen und Automatisierungsmöglichkeiten des ETL-Prozesses. Diese werden anhand eines realen Projektes im praktischen Teil der Arbeit veranschaulicht.
Diese Arbeit beschäftigt sich mit der Integration einer VoIP-Lösung in ein Videospiel, welches für die Erstellung von Animationsfilmen genutzt werden soll. Hierzu wurde eine geeignete Software-Lösung ausgewählt. Der Client der gewählten Lösung wurde in das Spiel eingebunden und ein Konzept für eine serverseitig, automatisierte Verwaltung von Nutzern entwickelt und umgesetzt. Außerdem wurde die positionsabhängige Audio-Ausgabe angepasst und das Audio-Signal genutzt, um das Gesicht eines Spielcharakters beim Sprechen zu animieren.
In this work a novelty detection framework provided by M. Filippone and G. Sanguinetti is considered, which is useful especially when only few training samples are available. It is restricted to Gaussian mixture models and makes use of information theory, applying the Kullback-Leibler divergence. In this work two variations of the framework are presented, applying the symmetric Hellinger divergence and a statistical likelihood approach.
Im Rahmen dieser Arbeit wurden Informationen zur standardisierten Differenzierung von lederbefallenden Schimmelpilzen zusammengetragen. Anlass dazu liefert das Forschungsinstitut für Leder und Kunstbahnen (FILK). Schimmelpilze befallen die Lagerbestände und müssen schnellst möglichst sowie kostengünstig identifiziert werden, um entsprechende Gegenmaßnahmen einzuleiten und Personal ausreichend zu schützen. Dazu wurde eine frei verfügbare Webseite eingerichtet die mikros- und makroskopische, sequenzielle und molekularphylogenetische Bestimmungsmerkmale enthält. Auf den informationsgebenden Seiten zu mikros- und makroskopisch sind bekleidende Abbildungen sowie Schablonen hinterlegt. Zudem sind die Daten der Pilzelemente aufgelistet, die zur Differenzierung dienen. Die Informationssammlung und Ausarbeitung der Daten zum Bereich sequenziell und der molekularphylogenetischen Bestimmungsmerkmale ist Grundlage einer anderen Arbeit der Hochschule Mittweida und wurde durch Zusammenarbeit ebenfalls auf die Seite integriert. Auf den folgenden Seiten sind Grundlagen der Schimmelpilze und die Herangehensweise der Schimmelpilzdiagnostik von interessierenden Schimmeln beschrieben. Zudem ist die Ergebnisdarstellung durch die Webseite erläutert.
Diese Arbeit soll wiederkehrende Probleme beim Erstellen von Webapplikationen lösen. Dabei geht das Projekt über die Funktionen einer klassischen Programm-Bibliothek hinaus und bietet zusätzlich vorgefertigte Abläufe und Problemlösungen an. Das hierbei entstehende Softwareprodukt steckt somit einen Rahmen ab, in dem Anwendungen vornehmlich mittels Protoyping oder einer anderen (agilen) Entwurfsmethodik implementiert werden können. Es fällt daher in die Kategorie der Web-Frameworks. Ziel einer solchen Software ist es, schneller Web-Applikationen entwickeln zu können, Programmcode zu modul-arisieren und Handlungsabläufe zu standardisieren.
Die Bachelorarbeit verfolgt das Ziel der Erstellung einer zweckmäßigen und updatefähigen Soft-ware zum Umgang und zur Verwaltung von Datensätzen des OpenImmo Datenstandards. Der Datenstandard auf Basis der XML-Technologie wird bzgl. des Aufbaus, der Validierung sowie der generellen als auch spezifischen Funktionsweise aufgeführt und erläutert. Des Weiteren erfolgt die Konzeption, der Entwurf und die Implementierung des Prototyps einer möglichen Softwareumsetzung. Die Umsetzung wird analysiert, bewertet und gegenüber anderen Umsetzungsmöglichkeiten verglichen.
Diese Masterarbeit befasst sich mit der Datenvisualisierung innerhalb der CyanoFactory Knowledge Base. Die CyanoFactory Knowledge Base ist dabei eine Webanwendung für die Speicherung, Verarbeitung und Visualisierung von Informationen bezüglich der Daten aus dem europäischen Forschungsprojekt CyanoFactory. Innerhalb der Arbeit wurden dabei die interaktiven Visualisierungen von Protein-Protein-Interaktionen und Protein-Chemikalien-Interaktionen des Modellorganismus Synechocystis sp. PCC 6803 umgesetzt und als Webtool in die CyanoFactory Knowledge Base integriert. Im Rahmen dieser Arbeit wurde auch eine visuelle Ausgabe für Flux-Balance-Analysen erstellt. Neben der Visualisierung der Interaktionen innerhalb von Synechocystis sp. PCC 6803 wurde eine Analyse von dessen Protein-Interaktionsnetzwerk durchgeführt.
Inhalt dieser Arbeit ist die ultraschnelle Strahlschaltung mit elek trooptischen Modulatoren. Ziel ist es möglichst hohe Laserleistungen schnell und effizient zu schalten. Dazu werden Untersuchungen bezüglich der Schaltzeit und der Schalteffizienz in Abhängigkeit von der Schaltfrequenz und der eingestrahlten optischen Leistung durchgeführt. Zusätzlich wird die Wirkung des Modulators auf das Strahlprofil analysiert
Ziel dieser Diplomarbeit ist es, ein System zur Charakterisierung der Qualität von Isolationsschnitten in Aluminiumdünnschichten während eines Rolle-zu-Rolle-Prozesses zu evaluieren. Dazu werden geeignete Konzepte für eine solche Qualitätssicherung erarbeitet und basierend darauf Versuche mit verschiedenen Kamerasystemen durchgeführt und analysiert. Die dabei generierten Bilddaten werden im Anschluss für die Auswahl und Optimierungvon potentiellen Erkennungsalgorithmen auf Basis einer Demonstrationssoftware genutzt. Nach erfolgter Selektion eines Algorithmus wird ein Konzept für die Integration einer Qualitätssicherung für R2R-Prozesse in die Maschinensteuerungssoftware des betreuenden Unternehmens, der 3D-Micromac AG, erarbeitet und vorgestellt.
Ziel der Diplomarbeit ist es, Grundlagenuntersuchungen im Bereich der Volumenstrommessung für das Einsatzgebiet der Spiroergometrie durchzuführen. Dazu werden zunächst die wesentlichen Anforderungen an solche Sensoren gekennzeichnet und anschließend in einer Marktrecherche passende Sensoren zur weiteren Erprobung zusammengetragen. Die Arbeit unterteilt sich im Wesentlichen in zwei große Teile: Der erste Teil der Arbeit beschäftigt sich mit den theoretischen Grundlagen und Möglichkeiten zur Messung des Volumenstroms von gasförmigen, strömenden Medien. Im zweiten Teil werden die in der Marktrecherche zusammengetragenen Sensoren in einem Laboraufbau getestet und schließlich die Tauglichkeit der Sensoren für spiroergometrische Untersuchungen am Probanden geprüft und nachgewiesen. Für den am geeignetsten Sensor wird abschließend ein Konzept für eine mögliche Adaptereinheit erstellt, um den Sensor an den Geräten der Firma CORTEX Biophysik GmbH zu betreiben.
Um die Revision titanbasierter Knochenimplantate zu vermindern, wurde ein Nukleinsäure-basiertes Immobilisierungssystem entwickelt. Dabei werden einzelsträngige DNS-Sequenzen als Ankerstränge (AS) regioselektiv in die anodische Oxidschicht von Titan eingebaut. Die Doppelstrangbildung der DNS wird genutzt, um Gegenstränge, welche mit bioaktiven Molekülen konjugiert sind, an der Titanoberfläche zu fixieren und in vivo kontrolliert freizusetzen. Um eine Schädigung der Hybridisierungssequenz der AS durch Wechselwirkungen mit der Titanoberfläche zu minimieren wurden kurze ssDNS-Sequenzen als laterale Spacer eingeführt und deren Einfluss auf die Hybridisierbarkeit der AS analysiert. Weiterhin wurde die Hybridisierbarkeit der AS mit verschiedenen Gegensträngen und unter variierten Hybridisierungsbedingungen charakterisiert.
Ovarialkarzinome weisen häufig Mutationen innerhalb des Tumorsuppressorgens p53 auf, auf die das menschliche Immunsystem mit Autoantikörpern reagiert. Aber nicht alle Patienten bilden diese Autoantikörper. Warum das so ist, haben Forscher noch nicht herausgefunden. Diese Arbeit versucht eine Korrelation zwischen Immunzellpopulationen und Autoantikörper-Status zu finden.
Die vorliegende Arbeit gibt einen Überblick über das Thema Vorgehensmodelle für Business-Intelligence-Projekte. Diese Arbeit erklärt warum ein spezifisches Vorgehensmodell eine hohe
Relevanz für Erfolg von BI-Projekten besitzt. Zuerst werden BI-Projekte mit den typischen Vorgehensweisen von klassischen Softwaretechnik-Projekten mit ihren jeweils spezifischen Mo-dellen voneinander abgegrenzt. Vor dem Vergleich der Vorgehensmodelle werden die Besonder-heiten sowie Herausforderungen von BI-Projekten ermittelt und daraus Anforderungen an ein solches Vorhaben abgeleitet. Danach werden die in der Literatur vorgestellten Vorgehensmodelle sowie Modelle von verschiedenen IT-Beratungsunternehmen untersucht und ihre Defizite aufgezeigt. Anschließend wird erläutert, wie diese in das entworfene Vorgehensmodell einfließen und was das neue Modell bewirken kann. Ferner wird eine Visualisierungstechnik genutzt, um anhand von definierten Kriterien an ein eigenes BI-Vorgehensmodell die untersuchten Modelle miteinander vergleichen und evaluieren zu können.
Diese Arbeit befasst sich mit dem Vergleich und der Optimierung verschiedener Primerdesigns zur Detektion von SNPs mittels Allel-spezifischer PCR. Dabei wurden zwei verschiedene Primerdesigns erzeugt, die auf der Grundlage eines zuvor auf Funktionalität getesteten Primerdesigns basieren. Zur stärkeren Signal-Auftrennung wurde dem zweiten Primerdesign ein Tail hinzugefügt. Das dritte Primerdesign besteht aus einer Ankersequenz (Tm > 75°C), einem nicht zur genomischen Sequenz komplementären Spacer und einem Sequenz-spezifischen 3‘-Ende. Dabei wurde die Orientierung der Primer aufgrund der Nachbar-SNPs von A2690C geändert. Die Sequenzierung ergab keine weiteren Mutationen, außer den gewünschten, innerhalb der Primer-Konstrukte. Somit wird die Erzeugung von Nullallelen nur durch die Fehlpaarung einer Base hervorgerufen. Die Funktionalität des Primerdesign 3 konnte nicht bestätigt werden. Im Vergleich schneidet das Primerdesign 1 etwas besser ab als das Primerdesign 2. Der Ausfall tritt dabei beim Primerdesign 1 schon ab einer Annealing-Temperatur von 67°C ein. Zudem entfällt die Erzeugung und der Abgleich des Tails mit den entstehenden Produkten. Für die Multiplex-PCR ist eine Kombination beider Primerdesigns denkbar und vermutlich sinnvoll, da über die Tail-Sequenzen Manipulationen zur Anpassung der Eigenschaften der Primer vorgenommen werden können und die Abstimmung zwischen verschiedenen SNP-Primer-Trios gegebenenfalls erleichtert wird. Bestätigt sich die Funktionalität der Allel-spezifischen PCR im Multiplex-Verfahren, so könnte diese Methode die in der Rechtsmedizin übliche Single Base Extension ablösen. Dadurch würde sich eine starke Senkung der Kosten und des Zeitaufwandes ergeben.
Das Ziel der Bachelorarbeit ist die Untersuchung der Möglichkeiten der automatisierten Erstellung eines Compilers. Dieser Compilersoll die Transformation von Quellcode einer Sprache in die einer anderen durchführen können. Nach einem theoretischen Einstieg in das Thema Compilerbau wird die Turing eXtender Language, auf die Möglichkeit der Transformation von Quellcode, untersucht. Im Anschluss wird anhand eines Beispiels erklärt, wie eine Transformation mit der Turing eXtender Language möglich ist. Den Abschluss bildet eine Zusammenfassung über diese Arbeit.
Der Gegenstand der Arbeit ist, Mikrogeometrien mittels Laser auf Bipolarplatten aus hochgefüllten Graphit-Polypropylen herzustellen. Dadurch wird die Oberfläche der Bipolarplatten vergrößert, um die Kontaktwiderstände,sowohl zwischen den Platten sowie einer Gasdiffusionslage, zu senken. Desweiteren wird ein Flächenabtrag auf den eingesetzten Bipolarplatten realisiert, um einen Fräsvorgang zu ersetzen. Somit werden die Laserparameter für die Erzeugung dieser Strukturen,und ihre Funktionalität untersucht.
Ziel der Diplomarbeit ist es, ein Konzept zu erarbeiten, um NVH Mess- und Berechnungsdaten strukturiert miteinander zu vergleichen. Es werden die bereits verwendeten Vergleichsvarianten untersucht. Die in der IAV GmbH vorhandenen Ausgabeformate der Mess- und Berechnungsergebnisse und die Plotprogramme werden analysiert und es wird ermittelt, wie der Abgleich gestaltet werden kann. Im Zusammenhang mit dieser Arbeit wird ein weiteres Plotprogramm zur Darstellung von Campbell-Diagrammen in MATLAB entwickelt.
Ziel dieser Arbeit ist es, unter Verwendung forensischer DNA-Analysemethoden auf populationsgenetische Fragestellungen einzugehen. Es soll eine Untersuchung molekulargenetischer Marker (Y-STR) des Y-Chromosoms anhand historischen Knochenmaterials aus der römischen Kaiser- und Völkerwanderungszeit erfolgen sowie eine Einteilung in Haplogruppen vorgenommen werden.Anhand der erhobenen Daten soll ein Vergleich zu heutigen Populationen gezogen werden.
The study “Proteomic and systems biological database analysis of changed proteins from rat brain tissue after diving “ is about system biological testing of proteomic data obtained by rat brain after experimental diving in a pressure chamber. Basically, brain tissue from animal decompression sickness (DCS) was analyzed by mass spectrometry and has given two larger sets of modified proteins. Thereupon, the resulting up- and down-regulated proteins wereidentified and later compared by means of systems of biological databases, in this case GeneGo MetaCoreTM, in order to find similar or various affected cell biological signaling pathways when two different mass-spectrometry methods were compared.
Zur Optimierung der schnellen Messung des pH-Wertes in Ackerböden wurden verschiedene Bodenproben angelehnt an das DIN-Verfahren mit der Antimonelektrode untersucht. Darüber hinaus wurde die Messzeit auf eine Minute verkürzt und das Volumen der Extraktionslösungen reduziert, um den späteren Chemikalieneinsatz auf dem Feld zu reduzieren. Zur Untersuchung interferierender Matrixeffekte wurden die elektrische Leitfähigkeit, das Redoxpotenzial sowie die Ionengehalte der einzelnen Bodenproben ermittelt. Verschiedene auftretende Effekte wurden mittels des Standard-additionsverfahrens näher charakterisiert und aufgeklärt.
Die Partitionstheorie vereinigt viele mathematische Gebiete. In dieser Arbeit gebe ich einen ersten Einblick in diese Theorie. Dazu werden verschiedene Herangehensweise betrachten, unter anderem unter Verwendung grafischer Darstellungen und unter Einbezug von erzeugenden Funktion. Abschließend wird über das Prinzip der Inklusion und Exklusion, ein weiterer Betrachtungswickel eingeschlagen. Mit Hilfe der Verbandsstrukturen lassen sich Identitäten leicht nachweisen und neue Berechnungsvorschriften entwickeln.
Ziel der vorliegenden Arbeit war die Untersuchung der frequenzabhängigen Blockade des atrialen Natriumstroms durch die Antiarrhythmika Lidocain und Vernakalant. Dabei sollten die Resultate von Patienten im Sinusrhythmus mit denen von Patienten mit chronischem Vorhofflimmern verglichen werden. Es wurde geprüft, ob eine verstärkte Wirkung bei hohen Frequenzen, wie sie beim Vorhofflimmern auftreten, vorlag. Somit könnte die frequenzabhängige Wirkung der Substanzen als neue Therapiestrategie angesehen werden, da sie pathologiespezifisch ist und die Anwendung der Antiarrhythmika wenig Einfluss auf gesundes Gewebe hat. Dazu wurden an frisch isolierten Vorhofmyozyten mittels der Ganzzellableitung der Patch-Clamp-Technik die Strom-Spannungs-Beziehungen des Natriumstroms, die hervorgerufenen Stromrückgänge, der Blockeintritt und die Erholung von der Inaktivierung untersucht. Der Vergleich der beiden Patientengruppen sollte Hinweise auf ein eventuelles elektrisches Remodeling liefern.
Ziel der vorliegenden Arbeit war zunächst die theoretische Untersuchung von ausgewählten Aspekten des speziellen Verfahrens. Durch experimentelle Untersuchungen sollten die theoretischen Überlegungen und Modelle überprüft wer-den. Es sollte u.a. geklärt werden, wie der Aufbauprozess abläuft und welche physikalischen Parameter ihn entscheidend beeinflussen. Insbesondere sollte auf die Wechselwirkung von Laserstrahlung und Pulverpartikel sowie von Laserstrahlung und Substrat bzw. Mikrokörperoberfläche eingegangen werden. Weiterhin sollte eine Betrachtung der thermischen Prozesse durch Simulation und deren Vergleich mit den experimentellen Ergebnissen einer Temperaturfeldmessung stattfinden. Als Probenkörper dienten generierte dünnwandige Bauteile mit unterschiedlichen Höhen und Längen. Als Abschluss sollten die gewonnenen Erkenntnisse zum Verfahren Micro Cladding mit gepulster Laserstrahlung mit dem bisherigen Micro Cladding und dem Lasermikrosintern verglichen werden.
Die hier vorliegende Arbeit beschäftigt sich mit der Erfassung von Spielerdaten innerhalb einer Multiplayer-Partie, wobei das Unreal Development Kit zum Einsatz kommt. Ziel dabei ist es, die Spielerdaten aller an der Multiplayer-Partie beteiligten Spieler zu erfassen und elektronisch fest-zuhalten. Dabei werden Daten wie Position, Blickrichtung, Emotionen und Events wie Springen, Ducken, Rennen aufgezeichnet.
Die vorliegende Arbeit befasst sich mit einem relativ jungen Gebiet innerhalb der angewandten Mathematik, dem Compressed Sensing. Darin geht es zum einen um die Frage, wie man einen dünn besetzten, hochdimensionalen Vektor durch lineare Projektionen in seiner Dimension reduzieren kann, ohne dass dabei Information verloren geht. Dieses "Sensing"-Verfahren ist nicht-adaptiv, d.h. es soll für jeden dünn besetzten Vektor mit der gleichen Anzahl von null verschiedener Elemente gleichermaßen funktionieren und auch nicht während des Prozesses auf bereits berechnete Projektionen zurückgreifen. Zum anderen geht es um die Rekonstruktion des dünn besetzten Vektors aus diesen Projektionen, welche wesentlich weniger in der Zahl sind, als die Dimension des gesuchten Vektors. Das führt auf ein unterbestimmtes lineares Gleichungssystem, das zunächst unendlich viele Lösungen hat. Zusammen mit der Forderung der Dünnbesetztheit an die Lösung führt dies auf ein NP-schweres kombinatorisches Optimierungsproblem. Die Theorie von Compressed Sensing bietet nun Antworten auf die Fragen, wann dieses Problem l¨osbar ist und wie man es mit effizienten Verfahren der Optimierung praktisch lösen kann. Ziel dieser Arbeit ist es, einen einführenden Überblick in das Sparse Reconstruction Problem zu geben und eine Auswahl wichtiger theoretischer Resultate zu präsentieren. Dabei wird zum einen die konvexe Relaxation des NP-schweren Problems betrachtet, welche mit Methoden der konvexen Optimierung effizient gelöst werden kann. Zum anderen werden schnelle Approximationsverfahren betrachtet, welche das kombinatorische Problem direkt approximativ lösen. Dabei wird sich auf eine Auswahl beschränkt, die keinen Anspruch auf Vollständigkeit erhebt, da es kurz nach Etablierung der Theorie eine wahre Explosion an Veröffentlichungen auf diesem Gebiet gab. Dennoch werden die wichtigsten Resultate und Ansätze präsentiert und durch simulative Berechnungen bestätigt und illustriert, wobei die präsentierten Verfahren zum großen Teil selbst implementiert wurden.
Die vorliegende Arbeit beschäftigt sich mit der Charakterisierung des shh-Inhibitors GANT-61, in den Embryonen des Zebrabärblings. Es wurde eine Methode für die Untersuchung der internen Konzentrationen von GANT-61 in den Embryonen des Zebrabärblings in Abhängigkeit unterschiedlicher Expositionen mit Hilfe der HPLC entwickelt und modifiziert. Für die Wahl der Konzentrationen des Expositionsmediums wurde eine 24 h Exposition durchgeführt und der LC50-Wert bestimmt. In den Studien von Büttner et al. (2012) wurde GANT 61 als shh-Inhibitor in Zellkulturen identifiziert. Diese Ergebnisse konnten bei Fischembryonen des Zebrabärblings nicht bestätigt werden. Doch wurde eine Induktion verschiedener Gene, wie sycp3l und lim2.2 beobachtet. Zur Charakterisierung der lokalen Wirkung von GANT-61 in den Fischembryonen sollte eine In situ-Hybridisierung mit den Proteinen SYCP3L und LIM2.2 durchgeführt werden. Zur Vorbereitung des Verfahrens wurde eine quantitative real-time PCR der Gene sycp3l und lim2.2 durchgeführt.
Für die Analyse und Visualisierung von Genexpressionsdaten existiert ein Programm der Firma Biotype® Diagnostic GmbH: der XpressionXplorer. Dieser liest normalisierte Genexpressionsdaten des "GeneChip® Human Genome U133 Plus 2.0 Array" von Affymetrix ein, die von den Datenbanken GEO und ArrayExpress abstammen. Die Genexpressionsdaten stellen eine zentrale Datenstruktur dar, welche sich abstrahiert als Tabelle, mit einer fixen Anzahl von 54.675 Zeilen und einer variablen Anzahl von über 9.000 Spalten, vorstellen lässt. Jede Zeile der Tabelle repräsentiert ein Probeset auf dem GeneChip® und jede Spalte ein Genexpressionsprofil aus einem Microarray-Experiment. Die vorliegende Arbeit beschäftigt sich mit der Weiterentwicklung einer Programmkomponente des XpressionXplorers. Die Programmkomponente hat die Bezeichnung "Differential Expression" und dient zur Entdeckung von Genen, die sich als Biomarker, z. B. von Tumorerkrankungen, eignen. Diese Programmkomponente sollte durch Einbinden einer neuen grafischen Komponente - der VirtualTreeview - erweitertund verbessert werden. Die hauptsächlichen Vorteile dieser VirtualTreeview sind die kurzen Aktualisierungszeiten, die zusätzliche Darstellung in Spalten und die Möglichkeit des interaktiven Bedienens durch die Benutzer.
Mit dieser Arbeit wird eine Methodik vorgestellt, strukturbiologische Netzwerke auf der Basis von Experimenten zur Affinitätsaufreinigung mit gekoppelter Massenspektrometrie zu generieren. Zur Anwendung kommen dafür verschiedene spezialisierte Tools in einem strukturierten Workflow. Es wird damit eine Möglichkeit geboten, anhand der Sequenz- und Interaktions-Informationen der analysierten Experimente ein strukturelles Protein-Protein-Interaktions-Netzwerk zu generieren.
For the first time it was discovered that ultraviolet radiation with a wavelength of 200 to 400 nm (maximum 365 nm) radiated from a distance of 40 cm (intensity: 3500 mW/cm²) to PMMA altered its surface wettability as well as a roughness at the nanoscale that was observed with an atomic force microscope (AFM). The roughness rises and falls again in a short time ( 1-2days ) after 75 min and 180 min irradiation time. However , during the next 10 days roughness became stabilized and there was no influence of UV if PMMA was stored in air or in a Petri dish out of glass.
Die vorliegende Arbeit beschäftigt sich mit der Konzeption eines Domain-Frameworks für die semantische Analyse von forensischen Textdaten. Die Modellierung einer Taxonomie, sowie einer Ontologie, mit Hilfe von Metadaten soll eine Recherche über einen unbekannten Datenbestand ermöglichen. Als Anwendungsdomäne werden forensische Texte betrachtet.
n dieser Arbeit werden Air Clad Fasern untersucht, die aufgrund ihres Designs eine wesentlich größere Numerische Apertur gegenüber herkömmlichen Fasern aufweisen. Es wird ein einfaches Modell vorgestellt, mit dem das Fernfeld in Abhängigkeit eines wichtigen Designparameters, der Stegbreite, vorhergesagt werden kann. Unter Verwendung des Modells wurde ein Programm geschrieben, dass diese Vorhersage ermöglicht. Die Abhängigkeit des Fernfelds von der Wellen- und Faserlänge wurde für verschiedenen Air Clad Fasern experimentell bestimmt und mit der theoretischen Vorhersage verglichen.
Die Computertomographie (CT) ist eine nichtinvasive Möglichkeit zur Untersuchung der Koronararterien. Um bei den Aufnahmen Bewegungsartefakte zu vermeiden, ist es notwendig Bilder zu einem gemessen am Herzzyklus zeitlich invarianten Zeitpunkt zu generieren. Dazu wird die CT-Aufnahme standardmäßig mittels eines Elektrokardiogramms (EKG) mit der Herzaktivität synchronisiert. Die Verwendung kontaktloser bzw. kontaktarmer Verfahren zur Erfassung der Herzaktivität bietet im Vergleich zur derzeitigen Methode Vorteile, beispielsweise eine Einsparung der Patientenvorbereitung und somit eine Zeitersparnis sowie eine Erhöhung des Patientenkomforts. Ziel dieser Masterarbeit ist es, verschiedene kontaktarme Verfahren bezüglich ihrer Eignung für die Synchronisation von CT-Aufnahmen zu untersuchen und Ansätze zur Fusion der einzelnen Signale umzusetzen. Als kontaktlose bzw. -arme Verfahren standen die kapazitive Elektrokardiographie (kEKG), die Ballistokardiograaphie (BKG), die Phonokardiographie (PKG), die Photoplethysmographie (PPG) am Rücken sowie die Erfassung der Herzaktivität mittels Dopplerradar zur Verfügung. Umgesetzt wurden zwei Fusionsansätze. Eine Fusionsmethode basierte dabei auf einer gewichteten Mittelwertbildung. Diese Methode wurde in drei Signalkombinationen untersucht. Der zweite Fusionsansatz stellte eine ODER-Verknüpfung unter Nutzung von Vorwissen aus dem kEKG und dem PPG dar. Die kapazitive Elektrokardiographie sowie die Photoplethysmographie zeigen im jetzigen Stand einzeln genutzt bei der Triggerung die besten Ergebnisse. Durch die Nutzung beider Signale mit Hilfe der zweiten Fusionsmethode konnte im Mittel eine Verbesserung bezüglich der Zuverlässigkeit der Triggerung gegenüber der Nutzung der einzelnen Signale erreicht werden
nicht vorhanden
This Bachelor thesis provides an experimental validation of the “si-Fi” software, which was designed for RNAi off-target searches and silencing efficiency predictions. The experimental approach is based on using synthetic DNA as RNAi-target as well as RNAi-trigger sequence. The data was generated by two different types of experiments using a transient gene silencing system in bombarded barley epidermal cells. The efficiency of RNAi was estimated by scoring the effect of silencing of the susceptibility-related gene Mlo on resistance of transformed cells to the powdery mildew fungus Blumeria graminis f. sp. hordei by observing reduction of fluorescent signals coming from an RNAi target fused to the green fluorescent protein. The aim of this work was a comparison between in silicio prediction of RNAi efficiency and off-target effects in barley and experimental data.
Cardiotokographie, kurz CTG ist ein Verfahren der pränatalen Diagnostik, bei der mittels Ultraschall und mechanischer Sensorik Rückschlüsse auf den Gesundheitszustand von Fetus und Mutter getroffen werden können. Aufgrund dieses heiklen Einsatzgebietes ist die korrekte Funktion des CTG-Gerätes während der Untersuchung von besonders großer Bedeutung. Bislang ist eine Funktionsprüfung jedoch nur während einer laufenden Untersuchung möglich. Da dies nicht in jedem Fall eine praktikable Lösung darstellt, wird im Zuge dieser Bachelorarbeit ein geeigneter Patientensimulator für die Prüfung von CTG-Geräten konstruiert und die prototypische Umsetzung dokumentiert. Mithilfe des Patientensimulators können CTG-Geräte auf defekte Transducer untersucht werden, eine Hauptursache für Funktionsstörungen. Als Grundlage für die Konstruktion werden zunächst die biologischen Vorgänge im Bauch der Mutter sowie die Funktionsweise und Auswertung einer CTG erarbeitet. Mithilfe der gewonnenen Erkenntnisse werden Ansätze zur Simulation der fetalen Herzfrequenz (FHF) und des Wehendruckes gewonnen. Der meist versprechende Ansatz wird anschließend in Form eines Prototypen umgesetzt. Dabei wird neben der Hauptfunktion, der Simulation der FHF und des Wehendruckes auch auf eine praktikable technische Umsetzung geachtet. Das Ergebnis der Bachelorarbeit ist ein funktionsfähiger Prototyp eines Patientensimulators für die FHF und den Wehendruck.
Cyanobakterien gehören zu den evolutionär ältesten Bewohnern unserer Erde und haben sich während Jahrmilliarden an stark differierende Umweltbedingungen adaptiert. Sie besiedeln teils Habitate mit widrigsten Konditionen, seien es bspw. im höchsten Maß nährstoffarme Gebiete oder jene mit extremer Hitze [Fuchs & Schlegel, 2007]. Durch die genomischen Beschaffenheiten sind Cyanobakterien in der Lage, Wasserstoff zu produzieren. Durch bioverfahrenstechnische Fortschritte sowie den biologisch-fachlichen Fortschritt der Kenntnisse der Stoffwechselvorgänge kann es in einigen Jahren vermutlich möglich werden, dass auf effektive Weise dieser Biowasserstoff gewonnen und als regenerativer Kraftstoff eingesetzt werden kann [URL-4; URL-5; URL-6; Bandyopadhyay et al., 2010]. Dadurch könnte in einem hohen Maß der Einsatz an fossilen Energieträgern reduziert werden. Im Umfang der vorliegenden Masterarbeit werden theoretische sowie experimentelle metabolische Daten des aktuellen wissenschaftlichen Standes der Cyanobakterien Synechocystis sp. PCC 6803 und Nostoc sp. PCC 7120 mittels einer umfangreichen Literaturrecherche aufgearbeitet, eine Analyse von Visualisierungssoftware durchgeführt und metabolische Modelle des Wasserstoffmetabolismus erstellt. Weiterhin wird die Thematik der Etablierung einer Knowledgebase für Cyanobakterien diskutiert [Karr et al., 2012]. Diese Arbeit ist Teil des EU-Forschungsprojekts CyanoFactory (FP 7, Fördernummer 308518).
Die derzeit konventionellen Verfahren können für die Glättung von mikrooptischen Elementen nicht eingesetzt werden. Für das Material Quarzglas kann dies durch den Einsatz von CO2-Laserstrahlung realisiert werden. Durch das Erwärmen des Materials über die Erweichungstemperatur hinaus, wird an der Oberfläche eine dünne Schicht aufgeschmolzen und die Oberfläche zieht sich aufgrund der Oberflächenspannung glatt. Zum Glätten von Mikrostrukturen ist die Erwärmung einer größeren Fläche nötig, um eine möglichst homogene Temperaturverteilung zu realisieren und damit auch eine homogene Glättung. Die Glättung kann mit zwei Verfahren realisiert werden, einerseits durch den Einsatz einer Zylinderlinse und andererseits durch einen Scanner. Beide Verfahren liefern Ergebnisse die nur in sehr geringem Maße voneinander abweichen. Bezogen auf Prozesszuverlässigkeit ist das Scanner-Verfahren besser steuerbar, aber weitaus nicht so schnell wie das Zylinderlinsen-Verfahren.
Die vorliegende Arbeit befasst sich mit der gezielten Neuorientierung des Exchange Bias in spintronischen Schichtsystemen durch selektive Aufheizung mittels fokussierter Laserstrahlung im externen Magnetfeld. Hierbei wird der Einfluss der Prozessparameter auf die resultierende Exchange Bias Feldstärke dargestellt. Neben experimentellen Untersuchungen wird die laserinduzierte Aufheizung durch Temperaturfeldsimulationen charakterisiert. Erste Untersuchungen zur Anwendung des lasergestützten Verfahrens auf Leiterbahn-strukturen werden vorgestellt.
Geschäftsprozessmanagement, auch Business Process Management, ist ein Trend, welcher in der Wirtschaft kaum noch wegzudenken ist. Allerdings hat sich dieser Trend nicht nur in der Wirtschaft entwickelt, sondern auch im IT-Bereich. Dort wurde in den letzten Jahren vermehrt auf geschäftsprozessunterstützender Software, sogenannte Business Process Management Systeme, gesetzt. Die vorliegende Arbeit befasst sich mit der Integration solch eines Business Process Management Systems, speziell dessen Business Process Management Engine, in eine komplexe Geschäftsanwendung. Dabei werden Schwerpunkte für die Integration anhand eines Beispiel Business Process Management Systems und einer Beispiel Geschäftsanwendung beschrieben und entsprechende Lösungen vorgestellt. Außerdem folgt in Einblick in ausgewählte Funktionen eines Business Process Management System.
Diese Arbeit befasst sich mit der Konzeption und der prototypischen Umsetzung eines webbasierten Condition Monitoring Tools für ein Ortungssystem. Inhalt ist die theoretische Grundlagenschaffung – von der Anforderungsanalyse bis zur Konzeption – sowie die Implementierung eines lauffähigen Prototyps.
Ziel dieser Bachelorarbeit ist die Realisierung einer elektrooptischen Strahlweiche.
Mit elektrooptischen Modulatoren soll eine Strahlschaltung zwischen zwei Bearbeitungspunkten im Nanosekundenbereich realisiert werden.
Dabei wird das Schaltverhalten der einzelnen Komponenten sowie die Auswirkung der Modulatoren auf die räumlichen Strahleigenschaften untersucht.
Das Thema der vorliegenden Bachelorarbeit ist die Herstellung von Mikrozylinderlinsen in D263T mittels Fluorlasermikrostrukturierung. Hierbei werden Flächenabträge mit verschiedenen Maskengeometrien bei unterschiedlichen Fluenzen, Pulsüberlappungsgraden und Pulswiederholfrequenzen erzeugt. Der Einfluss der einzelnen Parameter wird untersucht und ausgewertet. Die daraus gewonnenen Erkenntnisse sollen die Grundlage für weitere Untersuchungen auf dem Gebiet der Mikrolinsenherstellung mittels Fluorlasermikrostrukturierung bilden.
As widely discussed in literature spatial patterns of amino acids, so-called structural motifs, play an important role in protein function. The functional responsible part of a protein often lies in an evolutionary highly conserved spatial arrangement of only few amino acids, which are held in place tightly by the rest of the structure. In general, these motifs can mediate various functional interactions, such as DNA/RNA targeting and binding, ligand interactions, substrate catalysis, and stabilization of the protein structure.
Hence, characterizing and identifying such conserved structural motifs can contribute to understanding of structurefunction relationships in diverse protein families. Therefore and because of the rapidly increasing number of solved protein structures, it is highly desirable to identify, understand and moreover to search for structural scattered amino acid motifs. The aim of this work was the development and the implementation of a matching algorithm to search for such small structural motifs in large sets of target structures. Furthermore, motif matches were extensively analyzed, statistically assessed and functionally classified. Following a novel approach, hierarchical clustering was combined with functional classification and used to deduce evolutionary structure-function relationships. The proposed methods were combined and implemented to a feature-rich and easy-to-use command line software tool, which is freely available and contributes to the field of structural bioinformatic research.
Protein structures are essential elements in every biological system evolved on earth, where they function as stabilizing elements, signaltransducers or replication machin eries. They are consisting of linear-bonded amino acids, which determine the three-dimensional structure of the protein, whereas the structure in turn determines the function. The native and biological active structure ofa protein can be understood as the folding state of a polypeptide chain at the global minimum of free energy.
By means of protein energy profiling, which is an approach derived from statistical physics it is possible to assign a so called energy profile to a protein structure. Such an energy profile describes the local energetic interaction features of every amino acid within the structure and introduces an energetic point of view, instead of a structural or sequential onto proteins.
This work aims to give a perspective to the question of how we may gain pattern information out of energy profiles. The concrete subjects are energy-mapped Pfam family alignments and investigations on finding motifs or patterns indiscretizised energy profile segments.
Proteins are involved in almost every aspect of life, mediating a wide range of cellular tasks. The protein sequence dictates the spatial arrangement of the residues and thus ultimately the function of a rotein. Huge effort is put into cumbersome structure eludication experiments which obtain models describing the observed spatial conformation of a protein, enabling users to predict their function, to understand their mode of action or to design tailored drugs to cure disease caused by misfolded or misregulated proteins.
However, the result of structure determination experiments are merely models of reality, made under simplifying assumptions - sometimes containing major undetected errors. On the other hand, such experiments are resource demanding and they cannot supply the actual demand.
Thus, scientists are predicting the structure of proteins in silico, resulting in models that are even
more prone to error.
In consequence, the structure biologists search after a practicable definition of structure quality and over the last two decades several model quality assessment programs emerged, measuring the local and global quality of peculiar structures. Seven representatives were studied, regarding the paradigms they follow and the features they use to describe the quality of residues. Their predications were compared, showing that there is almost no common ground among the tools.
Is there a way to combine their statements anyway?
Finally, the accumulated knowledge was used to design a novel evaluation tool, addressing problems previously spotted. Thereby, high quality of its predication as well as superior usability was
key. The strategy was compared to existing approaches and evaluated on suitable datasets.
In dieser Arbeit werden Interaktionen auf molekularer Ebene mittels eines Biosensors, einer Quarzkristallmikrowaage analysiert. Bei den experimentell genutzten Interaktionsmolekülen handelt es sich beim ersten Paar um Cyclophilin A und
Cyclosporin A und beim Zweiten um Anti-c-Myc und c-Myc. Die Sensoroberflächen können definiert modifiziert werden. Unter Verwendung des Biotin-Avidin-Systems werden Affinitäten in Echtzeit ermittelt und die Sensoren für weitere
Echtzeitmesszyklen regeneriert. Dieses Analyseverfahren soll im Vergleich zu einer vielzahl anderer Verfahren durch seine Zeit-, Kosten- und Materialersparnis beeindrucken und den Wunsch nach Weiterentwicklung vorantreiben.
Durch Genexpressionsexperimente anModellorganismen versucht man das Genomund die Reaktion des Genoms auf äußere Einflüsse zu erforschen.
Chemikalien sind in der Lage die Expression des Genoms zu beeinflussen. Durch die Experimente ist es möglich Rückschlüsse auf die Wirkweisen der Chemikalien auf genomischer Ebene zu ziehen. Durch derartige Chemikalienexperimente wurden in der Vergangenheit bereits große Mengen an Genexpressionsdaten erzeugt. Ein beliebter Modellorganismus für solche Versuche ist der Zebrabärbling Danio rerio, der in seiner embryonalen Entwicklung optimale Vorrausetzungen mit sich bringt. Bei ihm kann man phänotypische und genotypische Effekte der Chemikalien sehr gut beobachten, da er in diesem Zeitraum transparent ist und diese Phase nur fünf Tage anhält.
Anhand des Zebrabärblings soll erforscht werden, ob gleichartige Chemikalien auf genomischer Ebene ähnliche Wirkweisen besitzen und sich in Gruppen zusammenfassen lassen. Desweiteren stellt sich die Frage, ob es eine allgemeine (Gegen)Reaktion auf den Einfluss der Chemikalien gibt, welche auf genomischer Ebene sichtbar wird. Dazu werden Genexpressionsdaten aus cDNA-Microarrayexperimenten verwendet, die in den Datenbanken des NCBI und EBI abgespeichert sind. Nachdem geeigenete Experimentaldaten ausgewählt wurden und auf ihre Qualität geprüft, wurden diese einer vereinheitlichten statistischen Analyse unterzogen. Die Ergebnisse dieser statistischen Analyse wurden untereinander auf identisch differentiell exprimierte Gene verglichen.
Durch vereinheitlichte, allgemeine Analyse konnten Hinweise erbracht werden, dass es auf genomischer Ebene eine Antwort- und Gegenreaktion auf die Chemikalien gibt. Durch den Vergleich konnten 22 Gene ermittelt werden, die für das Binden und den Abbau der eingesetzten Chemikalie verantwortlich sind und experiementübergreifend auftraten.
Aufgrund der hohen Sensitivität und der schnellen Durchführbarkeit gewinnt die
Wasserstoff-/Deuterium-Austausch-Massenspektrometrie immer mehr an
Bedeutung. In dieser Arbeit liegt der Fokus auf der strukturellen Untersuchung von Protein-Zucker-Interaktionen am Beispiel von Interleukin-8 und Chondroitinsulfat, um mit Hilfe des Wasserstoff-/Deuterium-Austauschs die Interaktionsstellen zu identifizieren. In dieser Arbeit wurde mit zwei verschiedenen Herangehensweisen das Protein sowohl einzeln, als auch im Komplex mit einem Glykosaminoglykan hinsichtlich seines Austauschverhaltens untersucht. Im Rahmen dieser Arbeit gelang es mittels H-/D-Austausch-Massenspektrometrie die Bindungsstelle von Interleukin-8 zu oligomeren Chondroitinsulfat-Molekülen zu bestimmen.
Der vorliegende Bericht befasst sich mit der Erzeugung und der Entwicklung von ultranano- bzw. nanokristalliner Diamantschichten mittels Puls-Laser-Abscheidung unter Verwendung der Prozessgase Sauerstoff und Wasserstoff. Der Laserstrahl trifft während des Prozesses auf ein Graphittarget wodurch Kohlenstoffatome ablatiert werden. Ablatierte Ione werden je nach Hybridisierung durch die Prozessgase geätzt oder auf dem Substrat abgeschieden. Die Charakterisierung der erzeugten Schichten erfolgte mittels Oberflächenmorphologie und Raman-Spektren. Damit lassen die abgeschiedenen Kohlenstoffmodifikationen
unterscheiden, was zur Eingrenzung des Parameterfensters führt in denen sich ultrananokristalliner Diamantschichten erzeugen lassen. Speziell das Verändern
der Kristallitgröße der Diamantpartikel durch die Verwendung eines Filamentes
die Benutzung von NCD und MCD Haftschichtenschichten, die Verwendung einer
nanokristallinen Diamantsuspension und der Änderung der Teilchendichte soll dadurch
beeinflusst werden.
Das Ziel dieser Bachelorarbeit ist es zu analysieren, wie Gamification auf Crowdtesting Plattformen angewendet werden kann und welche Spielmechaniken sich dafür eignen.
Es werden Praxisbeispiele aus dem Bereich Crowdsourcing und –testing auf ihre Gamification-Ansätze analysiert und ausgewertet. Anhand dieser Untersuchung wird ein Gamification-Konzept für die Crowdtesting Plattform der T-Systems Multimedia Solutions GmbH erstellt.
Die Masterarbeit beschäftigt sich mit den geometrischen Fehlern des Gesamtsystems der perkutanen Strahlentherapie am Klinikum Chemnitz gGmbH. Das Gesamtsystem besteht aus einem Computertomograph, einem Bestrahlungsplanungssystem, einem Simulator und einem Linearbeschleuniger. An jeden dieser Einzelsysteme können gerätespezifische geometrische Fehler auftreten, die Einfluss auf den Gesamtfehler besitzen.
Das Ziel der Arbeit war es, die Einzelfehler zu identifizieren und zu quantifizieren. Dabei wird hauptsächlich auf die Bildgebung an dem jeweiligen Gerät eingegangen. Weiterhin erfolgt im Rahmen der Masterarbeit die Berechnung eines therapieabhängigen Gesamtfehlers exemplarisch für zwei Fallbeispiele.
In dieser Arbeit werden zwei gradientenbasierte Verfahren zur Lösung nichtlinearer Optimie-rungsaufgaben vorgestellt. Neben der Theorie der Verfahren werden konkrete algorithmische Umsetzungen beschrieben und Hinweise zur Implementierung gegeben. Ein Vergleich der Algorithmen mit gängigen Optimierungsverfahren erfolgt anhand einiger ausgewählter Testfunktionen.
Diese Arbeit enthält Methoden zur Erzeugung einer porösenGlasoberfläche. Bei dem speziellen Glas handelt es sich um ein Natriumborosilicatglas. Die Zusammensetzung des Glases wurde so gewählt, dass durch geeignete chemische und thermische Behandlungen eine Entmischung und somit eine Phasenseparation erfolgen kann. Durch diese Entmischung ist es möglich, einen porösen Glaskörper zu erhalten. Dabei wird mit dem sogenannten VYCOR-Prozess gearbeitet. Die anschließenden Untersuchungsmethoden wie die Aufnahmen mit dem Rasterelektronenmikroskop und die Durchführung einer Quecksilber-Intrusion, sollen die porösen Strukturen auf der Glasoberfläche bestätigen.
Die vorliegende Arbeit beschäftigt sich mit programmierbarer Logik als Ressource unter einem Betriebssystem. Es wird dokumentiert, wie die Ressource für Anwendungsprogramme zur Verfügung gestellt werden kann. Für das Bereitstellen der Ressource wird darauf eingegangen,wie sie aufgeteilt und verwaltet werden kann. Ferner wird belegt, mit welchen Möglichkeiten das Anwendungsprogramm auf ein Hardwaremodul zugreifen kann und wie eine gegenseitige Beeinflussung zwischen Hardwaremodulen und Anwendungsprogrammen verhindert wird.
Diese Proof-of-Concept Studie befasst sich mit der Entwicklung eines Systems zur Positionsbestimmung bzw. Navigation für bemannte Marsmissionen unter Feldbedingungen. Dazu zählte der Verzicht auf GPS Signale, sowie die Verwendung ausschließlich handelsüblicher Komponenten. Unter diesen Voraussetzungen wurden Distanzmessungen in der Nordsahara im Rahmen einer Raumfahrtsimulation durchgeführt, die Genauigkeit beurteilt und abschließend ein möglicher Ausbau und Optimierungsschritte beleuchtet. Die erreichbare Genauigkeit bei diesem System betrug bei bis zu 81% der Messwerte unter 150m.
Implementierung eines Algorithmus zur automatisierten Lane-Entzerrungauf Gelelektrophorese-Blots
(2014)
Diese Bachelorarbeit beschäftigt sich mit Entwicklung und Implementierung eines Algorithmus zur automatisierten Entzerrung von Gelelektrophorese-Blots. Dazu werden zuerst Algorithmen für die Detektion der Lanes und Banden vorgestellt. Danach werden Möglichkeiten für die Erkennung von Verzerrungen, die Korrektur des Laneverlaufs und schließlich der Entzerrung der Lane vorgestellt.
Aufgrund der Zusammensetzung des Speiseeises bietet dieses Mikroorganismen einen geeigneten Nährboden zum Leben und zur Vermehrung. Daher müssen Reinigungs- und Desinfektionsvorgänge bei der Herstellung der Produkte strengstens überwacht und auch unter ökonomischen Aspekten betrachtet werden. Fragen des Umfangs einer Reinigung sowie deren Häufigkeit gilt es dabei ebenfalls zu klären und zu optimieren. Darüber hinaus muss ferner die Einhaltung vorhandener Gesetze berücksichtigt werden. Diese Arbeit widmet sich der Untersuchung des Umfangs der aktuell angewandten Reinigungsvorgaben aus mikrobieller Sicht heraus.
The larval zebrafish mutant Knörf has got a not yet identified gen, which is lethal after 14 dpf in a homozygous state. The mutation courses various degenerations and the loss of the regeneration ability. One of these degenerations was first discovered in the retina by a histological section. The mutants retinas show gaps in the IPL at 7 and 8 dpf which number increases during the maturation of the larva. In recent studies a pax 6 staining was performed, which showed that amacrine cells areaffected. Different types of amacrine cells were tested and it was shown that the parvalbuminergic amacrine cells disappear. The staining was performed in a time course. At 5 dpf is no difference between the number of parvalbuminergic amacrine cells in siblings and mutants but then the degeneration starts. At 2 dpa there is thefirst significant difference which increases at later stages and leads nearly to a full disappearance of these cells in the eye. Parvalbumin is not only present in the retina, therefore the brain as another central nervous system structure was examined. In the telencephalon these cells disappear already at 2 dpa. The parvalbuminergic cells are also present in the skeletal muscle of the tail. Here the degeneration starts approximately at the half of the tail and intensifies to distal areas. It was shown, that parvalbuminergic cells in the muscle disappear until 4dpa. The role of parvalbumin is seemed in the binding ofcalcium and therefore it supports the adjustment of the resting potential after an excitation in the central nervous system. In muscles it assists in the slowing of relaxing after a contraction of a muscle.
m ersten Teil der Masterarbeit erfolgt die Darstellung von agilen Softwareentwicklungsmethoden. Die favorisierte Methode Design Driven Development wird im Anschluss ausführlich erläutert. Dazu zählen auch das integrierte Extrem Programming und Scrum. Im zweiten Teil ist auf diesen Grundlagen aufbauend eine Webanwendung umgesetzt wurden. Dabei erfolgte auch die Erstellung einer grafischen Oberfläche mit JavaServer Faces sowie eine Datenanbindung mit einem LDAP. Zum Schluss wird eine Zusammenfassung über die Verwendung von agilen Softwareentwicklungsmethoden und der erstellten User Administration gegeben.
Als State of the Art bei der Selektion von Nukleotid-Aptameren haben sich zur Zeit sogenannte Black-Box-Protokolle etabliert, die ohne Zusatzwissen über das Targetmolekül angewendet werden können. Wenngleich diese Vorgehensweise bei fehlender Information sehr nützlich sein kann, so kann das mögliche Potential der Suche auf diesem Weg nicht ausgeschöpft werden. Die vorliegende Arbeit leistet einen Teil an der Optimierung dieses Suchprozesses. Durch die Analyse der Ergebnisse eines durchgeführten SELEX-Experiments wird die Grundlage für den Einsatz einer motivoptimierten Startbibliothek geschaffen. Diese hat das Potential, den Verlauf und die Ergebnisse eines Folgeexperiments positiv zu beeinflussen, sodass hochaffine und hochspezifische Aptamere selektiert werden können.
Der Prozess des Bierbrauens beruht bisher auf Erfahrungswerten. Mit vorliegender Arbeit wird dieses Verfahren im Modellmaßstab anhand mehrerer relevanter Parameter untersucht und charakterisiert. Verschiedene elektrochemische Elektroden und Sensoren werden zur simultanen Messung eingesetzt. Die Zusammenhänge zwischen pH-Wert, Redoxpotential, O2-, CO2-Konzentration sowie Hefevitalität und fertigem Produkt werden untersucht und näher beschrieben. Es soll ein Einstieg in die In-situ-Messung während des Brauens gegeben werden. Dafür werden die Reaktionsbedingungen auf unterschiedlichste Weise verändert. Variiert werden z.B. die Reaktionstemperatur, das Reaktionsmedium, die Hefeart sowie die Form des Reaktionsgefäßes. Die Elektroden und Sensoren werden anhand der Ergebnisse bewertet. Abschließend wird der Einsatz dieser in einem Bauteil zur multiparametrischen Messung im Produktionsmaßstab beurteilt.
Der vorliegende Bericht befasst sich mit den Grundlagen einer neuen Möglichkeit der Kantenisolation, einem wichtigen Schritt in der Herstellung von Solarzellen. Dabei sollen dünne Spuren, bestehend aus einer Ätzpaste, mit Hilfe eines Dispenser auf Solarwafer aufgetragen und mittels Laser aktiviert werden.Hauptziel ist es die Optimierung der Laserparameter für die Kantenisolation von Solarwafern. Des Weiteren sollen die Auswirkungen dieser Methode auf die Solarzellenparameter überprüft werden sowie die Möglichkeit des Abtrages der Reaktionsprodukte mittels CO2-Laser ohne den Solarwafer dabei zu beschädigen.
Eine schnelle und zuverlässige C. difficile Diagnostik ist essentiell für die Einleitung geeigneter Therapiemaßnahmen. Bis heute wurde weltweit keine Standardisierung für die Labordiagnostik festgelegt. Jede Untersuchungseinrichtung muss sich selbst aus der Fülle der auf dem Markt vorhandenen Methoden für einen Algorithmus entscheiden. In der Literatur sind unzählige Vorschläge getesteter Verfahrens-Kombinationen mit ihren Leistungsdaten zu finden. Innerhalb dieser Arbeit wurden verschiedene Methoden aufgegriffen und miteinander verglichen. In diesem Zug fand auch die Evaluierung eines neuen Testverfahrens statt. Zusätzlich sollte die Diagnostik des mikrobiologischen Laboratoriums der Zentrum für Diagnostik GmbH Chemnitz analysiert und gegebenenfalls verbessert werden.
Proteins are macromolecules that consist of linear-bonded amino acids. They are essential elements in various metabolic processes. The three-dimensional structure of a protein is determined by the order of amino acids, also referred to as the protein sequence. This conformation corresponds to the structural state in which the protein is functionally active. However, relationships between protein sequence, structure and function have not been fully understood yet. Additionally, information about structural properties or even the entire protein structure are crucial for understanding the dynamics that define protein functionality and mechanisms. From this, the role of a protein in its molecular context can be described closely. For instance, interactions can be investigated and comprehended as a biological dynamic network that is sensitive to alternations, i.e. changes which are caused by diseases. Such knowledge can aid in drug design, whereas compounds need to be specifically tailored and adjusted to their molecular targets. Protein energy profile-basedmethods can be applied to investigate protein structures concerning dynamics and alternations. The publications enclosed to this work discuss in general the scientific potentials of energy profilebased techniques and algorithms. On the one hand, changes in stability caused by protein mutations and proteinligand interactions are discussed in the context of energy profiles. On the other hand, energetic relations to protein sequence, structure and function are elucidated in detail. Finally, the presented discussions focus on recent enhancements of the eProS (energy profile suite) database and toolbox. eProS freely provides all elucidated methodologies to the scientific community. Thus, one can address biological questions with the presented methods at hand. Additionally, eProS provides annotations related to foreign databases. This ensures a broad view on biological data and information. In particular, energetic characteristics can be identified which contribute to a protein’s structure and function.
Ziel der Diplomarbeit ist es, in Anlehnung an das 3 Ebenen IM-Referenzmodell von Krcmar , ein Informationssystem am Beispiel eines Online-Shops für die Rosenhof und Bethanien Apotheken einzuführen, mit dem der Vertriebsweg Onlinehandel dauerhaft auf- und ausgebaut werden kann. Der Online-Shop soll ein Instrument zur Erschließung neuer Zielgruppen über das Medium Internet sein. Mit Hilfe des IM-Referenzmodells, speziell mit den Ebenen „Führungsaufgaben des Informationsmanagements“, „Management der Informationssysteme“ und „Management der Informations- und Kommunikationstechnik“, soll ein Informationssystem eingeführt werden, welches die unternehmensinterne Systemlandschaft nachhaltig beeinflusst, in dem es sich in diese integriert und keine neuen IT-Barrieren aufwirft. Im Fokus stehen dabei Effizienz, Flexibilität, modulare Erweiterbarkeit sowie freie und quelloffene Formate beziehungsweise Schnittstellenstandards. Aufgrund hoher IT-Kosten der bisher eingesetzten IS, soll die Einführung des Online-Shops unter den Gesichtspunkten minimaler Investitions- und Unterhaltskosten erfolgen.
Der schnelle und sichere Nachweis von multiresistenten gramnegativen Bakterien ist eine Voraussetzung, um deren Ausbreitung einzudämmen. Die Untersuchung verschiedener mikrobiologischer Methoden zum Nachweis von ß-Lactamasen, insbesondere ESBLs und Carbapenemasen, erfolgte beispielhaft an den gram-negativen Bakterien Klebsiella pneumoniae, Klebsiella oxytoca, Enterobacter spp., Acinetobacter spp. und Pseudomonas aeruginosa. Die als Grundlage für die Antibiotika-Empfindlichkeitsbestimmungen dienenden Breakpoints werden sowohl von der CLSI als auch von der EUCAST festgelegt. Jedoch sind nur im aktuellen Normensystem der CLSI Kriterien zum Nachweis von ESBLs und Carbapenemasen angegeben. Der über die Automatensysteme durchgeführte ESBL-Bestätigungstest hat eine ausreichend hohe Spezifität und Sensitivität für K. pneumoniae. Hingegen ist bei K. oxytoca und Enterobacter spp. der DD-Synergietest zum Nachweis von ESBL-Bildung erforderlich. Auch wenn nach einer neuen Empfehlung die gramnegativen Bakterien anhand von Leitsubstanzen in MRGNE und nicht-MRGNE eingeteilt werden, bleiben die ESBL-Bestätigungstests weiterhin sinnvoll, denn Fluorchinolon- und Carbapenem-sensible ESBL-Bildner würden nicht als MRGNE eingestuft werden. Bei Carbapenemase-Verdacht steht der modifizierte Hodge-Test zum Nachweis von Carbapenemase-Aktivität zur Verfügung. Dieser sollte bei Enterobacteriaceae mit Meropenem und bei nicht-Enterobacteriaceae mit Imipenem durchgeführt werden. Eine nähere Spezifizierung der Carbapenemase kann mit verschiedenen Zusatztests, wie dem MBL-Etest oder dem KPC/MBL Identifikations-Kit, erfolgen.
EIIa in Ferrovum sp. JA12
(2012)
Im Jahr 2002 wurden während Schachtarbeiten auf dem Gelände der Justizvollzugsanstalt Chemnitz menschliche Knochen freigelegt, deren Liegezeit auf 30 bis 50 Jahre geschätzt wurde. Die DNA der Knochen wurde mit der Methodik Phenol/Chloroform-Isoamylalkohol isoliert und amplifiziert. Mit Hilfe von zwei kommerziellen Multiplex Kits wurde versucht, nahezu vollständige STR-Profile der Knochen zu erstellen. Besonders bei degradierter DNA sind STR-Systeme, die längere Fragmente enthalten, schwer zu amplifizieren. Die Verwendung der PowerPlex®S5 Systeme sollte hauptsächlich zur Klärung der Zugehörigkeit sowie der Reinheitsbestimmung der Proben dienen. Mit dem Multiplex Investigator Argus Y-12 QS Kit wurden vollständige bzw. nahezu vollständige Y-STR Profile ermittelt. Mit Hilfe von eindeutigen autosomalen PowerPlex®S5 und Y-STR Profilen wurde es möglich, überzählige Einzelknochen den annähernd vollständigen Skeletten zuzuweisen. Die erhaltenen Y-STR-Profile wurden in die Datenbanken der YHRD (http://www.yhrd.org/) und ySearch (http://www.ysearch.org/) überführt und ausgewertet.
Inhalt dieser Arbeit ist die Inaktivierung der Bakterienspezies Pseudomonas fluorescensmit atmosphärischem Plasma. Dazu wurde der verwendete Plasmagenerator in seinen physikalischen Eigenschaften charakterisiert. Mit Parametervariationen des Plasmas wurden die Pseudomonadenbehandelt und ihr Wachstumsverhalten beobachtet.
Zur nuklearmedizinischen Diagnostik werden radioaktive Präparate verwendet, um Stoffwech-selvorgänge im menschlichen Körper sichtbar zu machen. Die Akquirierung von 3D-Bilddaten erfolgt mittels SPECT-Kamera. Jeder Detektor nimmt planare Szintigramme aus verschiedenen Winkeln zum Messobjekt auf. Rekonstruktionsalgorithmen verarbeiten diese planaren Daten zu dreidimensionalen Bildern. Die Verarbeitungsweise der Rohdaten weicht zwischen den einzelnen Bildrekonstruktionsverfahren ab. Durch die Verwendung verschiedener Verfahren können von einem Objekt unterschiedliche Ergebnisse entstehen. Ziel dieser Bachelorarbeit war es, mit geeigneten Untersuchungen die Auflösung und das Kontrastverhalten des Astonish-Algorithmus zu untersuchen. Dazu sollten Messungen an verschiedenen Phantomen mit Nukliden durchgeführt werden, welche Verwendung in der Therapie und Diagnostik finden. Die Auswertung experimentell gemessener Daten zeigte eine generelle Verringerung der Halb-wertsbreite bei Astonish gegenüber OSEM. Während der Bildkontrast nur leicht verbessert ist, sank durch Astonish das Rauschniveau deutlich. Dagegen ergab die Analyse der Objektradien eine Unterschätzung dieser durch Astonish. Die im Algorithmus vorgesehene Schwächungskor-rektur mit computertomografischen Daten konnte wegen fehlender Kalibrierung nicht durchgeführt werden. Der Einsatz des Astonish-Bildrekonstruktionsverfahrens für die 3D-Dosimetrie ist hinsichtlich der Genauigkeit von Volumen und Aktivitätsbestimmung weiter zu prüfen.
In dieser Arbeit wird der Neural Gas mit funktionalen Prototypen vorgestellt, der sich insbesondere zur Analyse von funktionalen Daten eignet. Hierbei werden die Prototypen als diskrete Repräsentanten einer Funktion interpretiert bzw. als Linearkombination von Basisfunktionen dargestellt. Außerdem wird an Stelle der euklidischen Abstandsbestimmung eine Sobolev Quasi-Metrik verwendet. Im zweiten Teil der Arbeit werden der Pulsing Neural Gas, der Pulsing Neural Gas Batch und der Pulsing Fuzzy Neural Gas dargelegt. Die ursprünglichen Algorithmen sind in diesen Versionen mit Simulated Annealing kombiniert, um das Konvergenzverhalten der Algorithmen zu verbessern.
Ziel der Bachelorarbeit ist es, die Relevanz von Dokumenten innerhalb von Geschäftsprozessen anhand eines verbreiteten Anwendungsfalls zu verdeutlichen. Dazu wird neben der Thematik Enterprise-Content-Management auch auf die Möglichkeiten einer Anbindung solcher Systeme an Unternehmenslösungen eingegangen. Im Vordergrund steht dabei eine effiziente Integration von Dokumentenmanagement in bestehende Arbeitsabläufe.
Diese Arbeit beschäftigt sich mit verschiedenen Zuverlässigkeitsproblemen in gerichteten Netzwerken. Dabei wird speziell die s,t-Zuverlässigkeit und die s,T-Zuverlässigkeit betrachtet. Dazu werden verschiedene Berechnungs- und Reduktionsmöglichkeiten vorgestellt und anhand von Testrechnungen miteinander verglichen. Außerdem werden für spezielle Graphenklassen explizite und rekursive Formeln angegeben.
Im Teil 1 der vorliegenden Arbeit werden drei Prüfmuster auf ihre Gesamtkeimzahl (Alle koloniebildenden Einheiten, zuzüglich Hefen und Schimmelpilze) und spezifizierte Mikroorganismen validiert. Dabei werden die Parameter Richtigkeit, Präzision, Selektivität, Robustheit und die Bestimmungsgrenze überprüft. Nach Erstellung eines Validierungsplans findet, die auf das Produkt angepasste, Durchführung statt. Ergebnisse und Bewertungen werden in einem Validierungsbericht zusammengefasst. Für alle drei Prüfmuster konnten, bei Anwendung der individuellen Methode, die vorgegebenen Testorganismen nachgewiesen und das Verfahren bestätigt werden. Somit können die Methoden in der Routine angewendet werden. Teil 2 beschreibt den Vorgang einer Excel-Validierung für das Arbeitsblatt zur „mikrobiellen Wertbestimmung von Antibiotika“. Es wird ebenfalls ein Validierungsplan erstellt. Ergebnisse und Auswertungen werden in einem Bericht festgehalten. Ein Excel-Arbeitsblatt dient der optimalen Erfassung von Daten und deren Auswertungen für den Routinebetrieb, ohne die Qualität der Ergebnisse zu beeinträchtigen. Mit der Validierung konnte dies bestätigt werden. Verwendete Formeln erfüllen die Vorgaben. Die Musterberechnung anhand dreier potentieller Proben stimmt mit den Ergebnissen des Excel-Arbeitsblatts überein. Alle Zellen, bis auf grün markierte Eingabezellen, wurden gesperrt. Die farbliche Unterscheidung der Zellen erfolgte nach Funktionalität und erfüllt die angestrebte Signalwirkung.
Die vorliegende Arbeit befasst sich mit der Konzeption und Umsetzung einer automatischen OnDemand-Bereitstellung für die WebcastSuite auf Basis des Wowza Media Servers. Dabei geht es um die Erstellung einer Software, welche die vorhandene WebcastSuite um die automa-tische Erstellung einer OnDemand-Version eines Webcastes erweitert.
Es ist möglich, Graphen und Netzwerke durch Bewertung der Kanten mit Hilfe des Zentralitätsindizes Betweenness in Cluster zu zerlegen. Die Berechnung der Betweennesswerte für jede Kante eines betrachteten Graphen benötigt eine Zeit von O(n2m) für m >> n. In dieser Arbeit wird eine schnellere Methode mit einer Zeitkomplexität von O(nm) für die Berechnung eines Betweenness Rankings nach Newman und unabhängig nach Brandes vorgestellt und implementiert. Es wird ein Clusteralgorithmus nach Newman und Girvan auf Basis des Index Kanten-Betweenness und mit einer Laufzeit von O(nm2) vorgestellt und es werden verschiedene Graphen damit geclustert. Die Arbeit ist restringiert auf schlichte, ungerichtete Graphen.