Refine
Document Type
- Bachelor Thesis (52)
- Master's Thesis (25)
- Diploma Thesis (1)
Year of publication
- 2013 (78) (remove)
Keywords
- Protein-Protein-Wechselwirkung (4)
- Algorithmus (2)
- Biogasanlage (2)
- Bioinformatik (2)
- Data-Warehouse-Konzept (2)
- Laserbearbeitung (2)
- Legionella (2)
- Mathematisches Modell (2)
- Membranproteine (2)
- Molekulare Bioinformatik (2)
Institute
- 03 Mathematik / Naturwissenschaften / Informatik (78) (remove)
Die zugrunde liegenden Arbeiten hatten die Steigerung der Synthesekapazitäten von n-Butanol in Arxula adeninivorans zum Ziel.
Da der Wirtsorganismus n-Butanol als exklusive Kohlenstoffquelle nutzen kann, sind Arbeiten zur Reduzierung des Butanolkatabolismus notwendig. Zu diesem Zweck wurde das Gen für eine der Aldehydehydrogenasen von A. adeninivorans ausgewählt, um diese durch homologe Rekombination zu deletieren. Zur Untersuchung des Transformationserfolges wurde eine Charakterisierung der Transformanden durchgeführt. Eine Validierung erfolgte durch Duplex-PCR und n-Butanolver-brauchsmessungen mittels GC/MS.
Geschäftsprozessmanagement, auch Business Process Management, ist ein Trend, welcher in der Wirtschaft kaum noch wegzudenken ist. Allerdings hat sich dieser Trend nicht nur in der Wirtschaft entwickelt, sondern auch im IT-Bereich. Dort wurde in den letzten Jahren vermehrt auf geschäftsprozessunterstützender Software, sogenannte Business Process Management Systeme, gesetzt. Die vorliegende Arbeit befasst sich mit der Integration solch eines Business Process Management Systems, speziell dessen Business Process Management Engine, in eine komplexe Geschäftsanwendung. Dabei werden Schwerpunkte für die Integration anhand eines Beispiel Business Process Management Systems und einer Beispiel Geschäftsanwendung beschrieben und entsprechende Lösungen vorgestellt. Außerdem folgt in Einblick in ausgewählte Funktionen eines Business Process Management System.
Der erste Teil der vorliegenden Arbeit befasst sich mit der Verbesserung der Laserprozesse bei der Herstellung organischer Solarzellen auf dünnen Schichten (Schichtdicken bis 100 nm). Verwendet werden Pikosekunden-Laser der Wellenlängen von 1030 nm und 515 nm. Für die Auswertung werden statistische Methoden angewendet, welche den Einfluss von Drittparametern berücksichtigen. Zum Finden der optimalen Laserparameter werden Testfelder verwendet. Die optimalen Ergebnisse von den Testfeldern werden am Produkt verifiziert. Die Verifizierung erfolgt durch die Auswertung von Variationen der Laserparameter und der elektrischen Parameter, die von funktionsfähigen Solarzellen ermittelt werden. Der zweite Teil ist die Untersuchung der Laserbearbeitung eines neuen Elektrodenmaterials. Es wird der optimale Parametersatz ermittelt und es werden die Auswirkungen von Abweichungen an elektrisch funktionierenden Modulen, welche mit verschiedenen Laserparametern bearbeitet wurden, untersucht.
Die Bachelorarbeit befasst sich mit dem Zuordnen von Reads eines Datensatzes, der aus ausdem sequenzierten Metatranskriptom von 6 verschiedenen Organismen besteht, zu Genomen ausgewählter Organismen und die Darstellung dieser auf einer Stoffwechselkarte. Dafür wurde ein Programm in Python geschrieben, dass die Gensequenzen der einzelnen Genome mit den Reads des Datensatzes, mit der Hilfe von BLAST, vergleicht. Die Anzahl der Übereinstimmungen spielt die Stärke der Expression der einzelnen Enzyme wieder und wurde auf der Stoffwechselkarte „Biochemical Pathways“ graphisch dargestellt. Je nach Trefferanzahl wird das Enzym mit einer bestimmten Farbe hervorgehoben, so dass mit einem flüchtigen Blick Expressionsbereiche und die Stärke dieser leicht zu erkennen sind. Des Weiteren wird die genaue Anzahl der Treffer und die EC-Nummer angezeigt. Neben des Bildes speichert das Programm die Ergebnisse in Textdateien, die tabellarisch aufgebaut sind und deshalb mit einem Tabellenkalkulationsprogramm importiert werden können. Damit nicht jeder Organismus einzeln analysiert werden muss, ist eine Methode geschrieben worden, die mehrere Organismen nacheinander mit dem Datensatz vergleicht, und danach die Ergebnisse miteinander vergleicht. Außerdem wurde eine PROSITE Pattern Suche eingebaut, um EC-Nummern, die in keinem Genom vermerkt sind, in dem Datensatz dennoch zu finden.
Die vorliegende Arbeit befasst sich mit der Analyse humaner Bronchialepithelzellen und ihrer funktionalen Expression und Proteinexpression des Epithelialen Natriumkanals (ENaC). Das Hauptziel ist, sowohl die funktionale Expression als auch die Proteinexpression des epithelialen Natriumkanals mittels des Glucocorticoid Dexamethason zu steigern. Für die Analysen wurden die Zellen über verschiedene Inkubationszeiten mit Dexamethason inkubiert und elektrophysiologisch, mittels Ussing-Kammer Messungen und biochemisch, mittels Western Blot Analysen, untersucht.
Die Magnetresonanztomographie ist eine weit entwickelte Form der bildgebenden Diagnostik. Eine neue Entwicklung ist die Elastographie mit der Magnetresonanztomographie zu verbinden. Für diese Einbringung wurde ein Bewegungswandler entwickelt, welcher ein elektrisches Signal in ein mechanisches Signal umwandelt. Dieser Bewegungswandler wurde elektromechanisch charakterisiert. Da der Aufbau des Bewegungswandlers sehr komplex ist, wurde ein elektrodynamischer Lautsprecher für erste Testmessungen verwendet. Der Lautsprecher wurde elektrisch vermessen und elektromechanisch charakterisiert. Für den Bewegungswandler wurde neben der elektrischen Methode noch eine optische Messeinrichtung verwendet.
Die Bachelorarbeit verfolgt das Ziel der Erstellung einer zweckmäßigen und updatefähigen Soft-ware zum Umgang und zur Verwaltung von Datensätzen des OpenImmo Datenstandards. Der Datenstandard auf Basis der XML-Technologie wird bzgl. des Aufbaus, der Validierung sowie der generellen als auch spezifischen Funktionsweise aufgeführt und erläutert. Des Weiteren erfolgt die Konzeption, der Entwurf und die Implementierung des Prototyps einer möglichen Softwareumsetzung. Die Umsetzung wird analysiert, bewertet und gegenüber anderen Umsetzungsmöglichkeiten verglichen.
Die vorliegende Arbeit beschäftigt sich mit der Konzeption und Implementierung eines adaptiven Missionssystems für den Spielprototyp Urban Legend. Das Ziel ist es, eine Umgebung zu schaffen, in der Missionen erstellt werden können und diese an Spieler eines bestimmten Typs verteilt werden. Dabei sollen nicht nur einzelne Missionen erstellt werden können, sondern auch Missionsstränge, die eine Handlung zwischen mehreren Spielern darstellen.
Diese Bachelorarbeit mit dem genannten Thema beschäftigt sich mit der Analyse von Transkriptionsfaktoren. Das sind DNA - bindende Proteine, welche die Stärke der Transkription beeinflussen können und somit positive als auch negative Auswirkungen auf die Genexpression haben. Die meisten solcher Bindestellen befinden sich im Bereich -500 bis 100 bp relativ zur Startstelle der Transkription. Außerdem findet ein Vergleich dieser regulatorischen Regionen zwischen den Spezies Mensch, Maus und Ratte statt. Dieses Verfahren wird phylogenetisches Footprinting genannt.
Im Teil 1 der vorliegenden Arbeit werden drei Prüfmuster auf ihre Gesamtkeimzahl (Alle koloniebildenden Einheiten, zuzüglich Hefen und Schimmelpilze) und spezifizierte Mikroorganismen validiert. Dabei werden die Parameter Richtigkeit, Präzision, Selektivität, Robustheit und die Bestimmungsgrenze überprüft. Nach Erstellung eines Validierungsplans findet, die auf das Produkt angepasste, Durchführung statt. Ergebnisse und Bewertungen werden in einem Validierungsbericht zusammengefasst. Für alle drei Prüfmuster konnten, bei Anwendung der individuellen Methode, die vorgegebenen Testorganismen nachgewiesen und das Verfahren bestätigt werden. Somit können die Methoden in der Routine angewendet werden. Teil 2 beschreibt den Vorgang einer Excel-Validierung für das Arbeitsblatt zur „mikrobiellen Wertbestimmung von Antibiotika“. Es wird ebenfalls ein Validierungsplan erstellt. Ergebnisse und Auswertungen werden in einem Bericht festgehalten. Ein Excel-Arbeitsblatt dient der optimalen Erfassung von Daten und deren Auswertungen für den Routinebetrieb, ohne die Qualität der Ergebnisse zu beeinträchtigen. Mit der Validierung konnte dies bestätigt werden. Verwendete Formeln erfüllen die Vorgaben. Die Musterberechnung anhand dreier potentieller Proben stimmt mit den Ergebnissen des Excel-Arbeitsblatts überein. Alle Zellen, bis auf grün markierte Eingabezellen, wurden gesperrt. Die farbliche Unterscheidung der Zellen erfolgte nach Funktionalität und erfüllt die angestrebte Signalwirkung.
Die vorliegende Arbeit befasst sich mit der hierarchischen Partitionierung von Hypergraphen, die im Prozess der Chipentwicklung durch Netzlisten einer integrierten Schaltung entstehen. Das Problem der Partitionierung ist dabei NP-schwer, sodass Heuristiken für die entsprechende Partitionierung verwendet werden. Erschwerend kommt hinzu, dass die Hypergraphen meist eine große Ordnung, mehr als 10^5 Knoten, aufweisen. Ziel dieser Arbeit ist es, ein Modell für eine derartige Partitionierung zu erstellen, welches Resultate aus vorangegangenen Arbeiten berücksichtigt und die Platzierung der Elemente des integrierten Schaltkreises im Fokus hat. Des Weiteren wird die Tauglichkeit vorhandener Algorithmen auf die erwähnte Modellierung geprüft, weiter werden vorhandene Algorithmen modifiziert und eigene Algorithmen konzipiert. Dabei wird darauf geachtet, dass die Algorithmen auf Hypergraphen mit großer Ordnung anwendbar sind. Diese Algorithmen werden dazu auf Hypergraphen des Benchmarks "ISPD 05/06" angewandt.
ETL Konzept zur Integration von unstrukturierten Quelldaten in ein bestehendes Data Warehouse
(2013)
Die vorliegende Arbeit wurde im Rahmen meines Studiums, Bachelor of Science in Wirtschaftsinformatik an der Hochschule Mittweida (FH) – Universal of Applied Sciences verfasst. Inhaltlich befasst sich diese Arbeit mit dem Thema des Data Warehousing sowie der Integration von unstrukturierten Daten. Das Hauptanliegen der Arbeit ist es, einen umfassenden Überblick über dieses Thema zu geben. Es soll insbesondere ein detailliertes Konzept erarbeitet werden, welches die Integration der unstrukturierten Daten im Praxisszenario erleichtert. Darüber hinaus beschäftigt sich diese Arbeit mit den erforderlichen Qualitätssicherungsmaßnahmen und Automatisierungsmöglichkeiten des ETL-Prozesses. Diese werden anhand eines realen Projektes im praktischen Teil der Arbeit veranschaulicht.