Refine
Document Type
- Bachelor Thesis (287)
- Diploma Thesis (155)
- Master's Thesis (115)
Year of publication
Keywords
- Softwareentwicklung (18)
- Proteine (12)
- Laserbearbeitung (11)
- Membranproteine (9)
- Algorithmus (8)
- Mikrostruktur (7)
- Bioinformatik (6)
- Graphentheorie (6)
- Laserschweißen (6)
- Protein-Protein-Wechselwirkung (6)
Institute
- 03 Mathematik / Naturwissenschaften / Informatik (557) (remove)
Diese Arbeit beschäftigt sich hauptsächlich mit Vorgehensweisen und Konzepten zum automatischen Testen von Web- und Desktopanwendungen. Es wird dabei allerdings auch auf das allgemeine Auslieferungs- und Testmanagement von Software eingegangen. Dazu gehören unter anderem der Ablauf des Auslieferungsprozesses, Einführung zum Testen von Software oder verschiedene Testmethoden.
Das Ziel der Arbeit besteht in der Auswahl, Konzeption und Implementierung eines geeigneten Verfahrens zur Pfadberechnung und Kollisionsvermeidung in einem 3D-Simulations-System zur Planung und Visualisierung menschlicher Arbeit. Dabei werden verschiedene Datenstrukturen und Algorithmen anhand ihrer Laufzeit und ihres Speicherbedarfs untersucht. Im Anschluss werden die für geeignet befundenen Datenstrukturen und Algorithmen für die Implementierung eines Systems zur Pfadndung verwendet.
In dieser Arbeit werden die Auswirkungen des Probentransportes von Warmwasser auf die mikrobiologischen Analyseergebnisse für Legionellen erläutert. Dazu werden entsprechende Grundlagen zur Legionellenproblematik, Vergleiche mit der Norm zum Probentransport, die experimentelle Durchführung und anschließend Ergebnisse der Untersuchungen aufgeführt. Die Ergebnisse werden wissenschaftlich ausgewertet, eine Datengrundlage für die bestehenden Normen erstellt und Empfehlungen für zukünftige Untersuchungen beschrieben.
Mappings werden überall dort eingesetzt, wo eine Zuordnung von Wertepaaren benötigt wird. Wenn dies oft und nach gleichen Mustern geschieht, dann ergibt sich eine Optimierungsmöglichkeit, die durch Automatisierung gelöst werden kann. Hier setzt die vorliegende Arbeit an. Es wird ein Konzept für die automatisierte Generierung von Mappings, in einem Softwareprojekt der Firma Innovations Software Technology GmbH, entwickelt. Anschließend wird das Konzept als Prototyp eines Mapping-Werkzeugs realisiert.
Automatisierung von Arbeitsabläufen im Bereich Lohn- und Gehaltsabrechnung auf Basis von P&I LOGA
(2012)
In der vorliegenden Arbeit sollen Möglichkeiten analysiert werden, wie Abrechnungsläufe und andere Arbeiten im Umfeld der Lohn- und Gehaltsrechnung mit P&I LOGA optimiert werden können. Hierzu wird mit dem Modul P&I LOGA Batch-Jobs eine Jobsteuerung eingeführt. Diese wird im Verlauf der Arbeit eingerichtet und an die Bedingungen bei der Dölle Informationssysteme GmbH angepasst. Außerdem wird eine Software konzipiert und implementiert, mit welcher die Verwaltung von Jobs einfacher durchgeführt werden kann und die Nutzung von Skripten innerhalb eines Jobs ermöglicht wird.
Ziel der Diplomarbeit ist es, eine generische Schnittstelle für das Monitoring von Anwendungen zu definieren und als Prototyp umzusetzen. Zuerst wird auf die Themen Monitoring und Simple Network Management Protocol (SNMP) eingegangen. Anschließend werden die für die Schnittstelle benötigten Dateien definiert. Im vorletzten Punkt erfolgen die Beschreibung der Umsetzung und die Dokumentation des erstellten Skriptes. Am Schluss dieser Arbeit wird kurz an einem Beispiel die Funktionalität der Schnittstelle nachgewiesen.
A variety of methods have been used to describe natural systems and cellular functions. Most use continuous systems with differential equations. Based upon the neighbourhood relations in graphs and the complex interactions in cellular automata a mathematical model was designed and implemented as an application user interface. This discrete approach called graph automata was utilised to simulate diffusion processes and chemical kinetics. The progression of diffusion in cellular environments was described and resulted in a discrepancy of 20% in comparison to experimental results. Different chemical kinetics were simulated and found to be as accurate as their continuous counterparts. The proposed model appears to be a highly scalable and modular
approach to simulate natural systems.
Die vorliegende Arbeit befasst sich mit der systematischen Körperschallbe-schreibung eines Klimageräts für Schienenfahrzeuge.Dazu wurde die eingetragene Körperschallleistung zunächst durch einen Quellterm und eine Koppelfunktion beschrieben. Anschließend konnten mit Hilfe des Übertragungsverhaltens der Struktur Kenngrößen am Systemausgang ermittelt werden. Im letzten Teil wurden Möglichkeiten zur Minderung des Körperschalls für diese Struktur unter-sucht.
Ziel dieser Arbeit ist es die Genauigkeit der Vereinfachung für die Bestimmung des Schalldämm-Maßes für den Schalleinfallswinkel von 45°, anstelle eines diffusen Schalleinfalls, zu prüfen. Dazu wurde zunächst nach einer Möglichkeit gesucht ein dif-fuses Schallfeld mittels FE-Modellen nachzubilden. Auf Grundlage dieser Untersu-chungen wurde dann das Schalldämm-Maß einer Wand vergleichsweise für ein diffuses Schallfeld und einer einfallenden Welle von 45 ° bestimmt.
In dieser Arbeit wird untersucht, inwiefern die Strahlformung von Femtosekundenlaserstrahlung im Zusammenhang mit der Maskenprojektion möglich ist. Es werden die etablierten Strahlformer anhand einheitlicher Kriterien untersucht und bewertet. Zusätzlich werden erste Abtragsversuche durchgeführt, bei denen verschiedene Strahlformer zur Beleuchtung der Maskenebene verwendet werden.
Mit der Installation eines Linearbeschleunigers in einer klinischen Einrichtung müssen für das Planungssystem strahlenphysikalische Basisdaten mittels dosimetrischer Verfahren aufgenommen werden. Bestandteil der vorliegenden Arbeit sind zunächst grundlegende Erklärungen der Strahlenphysik, dosimetrischer Größen und der Gerätetechnik. Die Basisdaten setzen sich aus absoluten und relativen Dosiswerten sowie –verteilungen zusammen. Messungen erfolgten mit einem System der Firma PTW Freiburg. Daraus resultierende Ergebnisse werden in dieser Arbeit dargestellt. Desweiteren wurden Messungen am Kollimator des Beschleunigers durchgeführt. Schwerpunkte waren dabei die Penumbra für verschiedene Feldgrößen, die Leckstrahlung durch Lamellenzwischenräume und Transmission durch die Lamellen selbst. Zum Vergleich wurden die gleichen Messungen an einem anderen Kollimator durchgeführt. Abschließend wurden mit den implementierten Daten drei Bestrahlungspläne erarbeitet, die ebenfalls Unterschiede zwischen den beiden Kollimatoren aufzeigen sollen.
Die vorliegende Arbeit befasst sich mit einer neu zu entwickelnden Technologie im Bereich der Abwasseraufbereitung. Primäres Ziel ist es, die Anforderungen für einen Zusammenschluss zweier eigenständig auf dem Markt existierenden Verfahren zu ergründen. Die beiden Verfahrensstufen werden in Feldversuchen zusammengeführt. Auf deren Grundlage sind ausschlaggebende Verfahrensparameter unter verschiedenen Bedingungen zu analysieren und zu bewerten. Mit der neuartigen Verfahrenskombination soll zukünftig eine Abwasserbehandlungsanlage entwickelt werden, die im Vergleich zu anderen biologischen Verfahren mit Membranfiltrationsstufe einen geringeren wirtschaftlichen Aufwand aufweist und dennoch sehr hohe Ablaufqualitäten garantiert, die den gesetzlichen Anforderungen entsprechen. Zudem sind derzeitige Marktchancen für die neue Technologie auf industrieller und kommunaler Ebene zu untersuchen.
Es ist möglich, Graphen und Netzwerke durch Bewertung der Kanten mit Hilfe des Zentralitätsindizes Betweenness in Cluster zu zerlegen. Die Berechnung der Betweennesswerte für jede Kante eines betrachteten Graphen benötigt eine Zeit von O(n2m) für m >> n. In dieser Arbeit wird eine schnellere Methode mit einer Zeitkomplexität von O(nm) für die Berechnung eines Betweenness Rankings nach Newman und unabhängig nach Brandes vorgestellt und implementiert. Es wird ein Clusteralgorithmus nach Newman und Girvan auf Basis des Index Kanten-Betweenness und mit einer Laufzeit von O(nm2) vorgestellt und es werden verschiedene Graphen damit geclustert. Die Arbeit ist restringiert auf schlichte, ungerichtete Graphen.
In der vorliegenden Arbeit geht es um das Laserschweißen von Kupfer. Dabei wird besonders auf die Nahtqualität geachtet und der Energieverbrauch registriert. Durch die speziellen Materialeigenschaften gestaltet sich das Schweißen dieses Materials sehr schwierig deshalb ist es auch notwendig durch grundlegende Untersuchungen geeignete Prozessparameter zu finden. In dieser Arbeit werden die speziellen Eigenschaften von Kupfer hinsichtlich des Laserschweißens erläutert, geeignete Laserparameter abgeleitet und die Schweißnahtqualität bewertet. Wesentlich sind noch die Durchführung von Schweißversuchen, die Bewertung des Energieverbrauchs und die Bewertung der optischen Eigenschaften der Kupferoberfläche. Anschließend werden die Ergebnisse ausgewertet.
Clusteralgorithmen oder auch unüberwachte Lernverfahren sind eine wichtige Klasse von Verfahren des maschinellen Lernens mit numerischen bzw. nicht parametrischen Methoden.<br /> Die Bewertung der Ergebnisse dieser Verfahren ist meist jedoch dem Anwender überlassen und daher subjektiv. Damit sind die Vergleichbarkeit und die Optimierung solcher Verfahren recht schwierig.<br /> Im Rahmen der Diplomarbeit sollen Maße recherchiert werden, die dieses Problem beheben.<br /> Anschließend sollen Clusteralgorithmen implementiert und in Hinsicht auf diese Maßegetestet werden.<br />
Biconnected reliability
(2015)
Computer communication networks play a mayor role to manage data transfer and information processing. However, the components of the network may fail - by targeted attacks or by wearout. While targeted attacks are non-random, it seems appropriate to consider wearout effects as random. Further we can assume that the components fail independently. The task of network reliability is to analyze networks in respect to the functionality of the network with consideration of wearout of its components. In most cases a network is considered as functional if a selected set of terminals can communicate. ...
Ziel der Masterarbeit ist es einen Überblick über die freie Bibliothek „BioJava“ zu erstellen und diese dann exemplarisch in einen Tool für die Forschung und Lehre darzustellen. Die Reduzierung des Arbeitsaufwandes bei der Verarbeitung biologischer Daten soll durch das entstehende Tool minimiert werden. Durch den Einsatz in der Lehre sollen die Studentinnen und Studenten eine Grundlage erhalten für den Umgang mit wissenschaftlichen Daten. Der Einsatz moderner Technolgien soll zudem gewährleisten, dass das Tool viele Jahre eingesetzt werden kann.
Die vorliegende Bachelorarbeit befasst sich mit dem Thema, ein besseres Verständnis über den strukturellen Aufbau von Transmembranproteinen zu erlangen. Durch eine intensive Recherche über den biologischen, chemischen und physikalischen Hintergrund von Aminosäuren ist ein zusammengefasstes Grundwissen entstanden, welches in der Lage ist die Bindungseigenschaften und somit auch die Position dieser Aminosäuren in den Proteinen zu erklären. Mit Hilfe der CSU-Analysis vom Weizmann Institut of science wurden diese Kenntnisse an bekannten Transmembranproteinen zielbewusst überprüft. Die daraus resultierenden Ergebnisse zeigten, dass die Eigenschaften der Aminosäuren zur Stabilität dieser untersuchten Transmembranproteine beitragen. Eine weitere Bestätigung dieser Resultate lieferte die abschließende Überprüfung des Musters „AA2-AA3“ welches in Transmembranproteinen die häufigsten Interaktionen eingeht.
Bioprozessentwicklung für die Gewinnung von Isocitronensäure mit der Hefeart Yarrowia lipolytica
(2010)
Das Hauptziel der Bachelorarbeit bestand in der Entwicklung eines umweltverträglichen Verfahrens zur Produktion von D-threo-Isocitronensäure unter Verwendung genetisch modifizierter Hefen, insbesondere des Stammes Yarrowia lipolytica H222-S4 (p67ACO1)T1. Isocitronensäure weist ein großes Anwendungspotenzial als Synthesebaustein, in der Medizin und Kosmetik auf. Enzymatisch kann sie allerdings nur in sehr geringen Mengen gewonnen werden. Die Syntheseleistung der Hefeart Y. lipolytica bietet das Potenzial Isocitronensäure in hohen Produktkonzentrationen für die vielfältigen Applikationen zur Verfügung zu stellen. In einem 1,0-l-Bioreaktorsystem erfolgte die Untersuchung des Einflusses der Prozessparameter pH-Wert und der Gelöstsauerstoffkonzentration. In Schüttelkolbenkultivierungen wurde ein Substratscreening durchgeführt und der Einfluss der Eisenkonzentration im Medium getestet.
Die zugrunde liegenden Arbeiten hatten die Steigerung der Synthesekapazitäten von n-Butanol in Arxula adeninivorans zum Ziel.
Da der Wirtsorganismus n-Butanol als exklusive Kohlenstoffquelle nutzen kann, sind Arbeiten zur Reduzierung des Butanolkatabolismus notwendig. Zu diesem Zweck wurde das Gen für eine der Aldehydehydrogenasen von A. adeninivorans ausgewählt, um diese durch homologe Rekombination zu deletieren. Zur Untersuchung des Transformationserfolges wurde eine Charakterisierung der Transformanden durchgeführt. Eine Validierung erfolgte durch Duplex-PCR und n-Butanolver-brauchsmessungen mittels GC/MS.
The larval zebrafish mutant Knörf has got a not yet identified gen, which is lethal after 14 dpf in a homozygous state. The mutation courses various degenerations and the loss of the regeneration ability. One of these degenerations was first discovered in the retina by a histological section. The mutants retinas show gaps in the IPL at 7 and 8 dpf which number increases during the maturation of the larva. In recent studies a pax 6 staining was performed, which showed that amacrine cells areaffected. Different types of amacrine cells were tested and it was shown that the parvalbuminergic amacrine cells disappear. The staining was performed in a time course. At 5 dpf is no difference between the number of parvalbuminergic amacrine cells in siblings and mutants but then the degeneration starts. At 2 dpa there is thefirst significant difference which increases at later stages and leads nearly to a full disappearance of these cells in the eye. Parvalbumin is not only present in the retina, therefore the brain as another central nervous system structure was examined. In the telencephalon these cells disappear already at 2 dpa. The parvalbuminergic cells are also present in the skeletal muscle of the tail. Here the degeneration starts approximately at the half of the tail and intensifies to distal areas. It was shown, that parvalbuminergic cells in the muscle disappear until 4dpa. The role of parvalbumin is seemed in the binding ofcalcium and therefore it supports the adjustment of the resting potential after an excitation in the central nervous system. In muscles it assists in the slowing of relaxing after a contraction of a muscle.
In dieser Arbeit wurde die Interaktion der Proteine Tau und SUMO untersucht. Für die Charakterisierung wurde zuerst die Methode der Bimolekularen Fluoreszenzkomplementation für das untersuchte System eingeführt, bei der ein geteiltes fluoreszierendes Protein durch eine Interaktion von Proteinen vervollständigt wird und ein Signal durch mikroskopische Auswertung detektiert werden kann. Nach verschiedenen Tests zur Funktionalität der Methode erfolgten Lokalisationsuntersuchungen der Proteine während einer Interaktion und bei alleiniger Expression in der Zelle.
Die vorliegende Arbeit beschäftigt sich mit der Textanalyse biologisch relevanter Texte. Es geht darum Informationen und relevante Relationen aus diesen Texten zu extrahieren. Dies geschieht zunächst manuell und im Anschluss mit dem Programm antconc 3.2.1w maschinell. Anschließend wird mit dem Themengebiet Wissenslandkarten eine mögliche Form der Darstellung solcher Informationen und Zusammenhänge vorgestellt. Die nötigen Arbeitsschritte für die Erstellung einer solchen Wissenslandkarte werden näher beleuchtet, sowie deren Aufgaben, Ziele und Anwendungsgebiete dargestellt. Es wird auf die verschiedenen Arten von Wissenslandkarten erläutert und auf Vor- und Nachteile eingegnagen, die sich aus einer solchen Form der grafischen Darstellung ergeben. Desweiteren werden verschiedene Softwaretools vorgestellt, die die Erstellung einer Wissenslandkarte unterstützen können.
In der vorliegenden Arbeit werden SAOS-2 Zellen, welche auf mikrostrukturierten und ta-C beschichteten Objektträgern adhärierten, anhand von Fluoreszenzmessungen untersucht. Die Identifizirung möglicher Einflussfaktoren auf die Proliferation und Adhäsion der Zelllinie durch mikrostrukturierte undteilbeschichtete Glasobjektträger wird unter Verwendung des Cell Titer Blue Assays und der digitalen Bildverarbeitungs-software CellProfiler untersucht.
Das Alter von Mineralen lässt sich mit der thermisch und optisch stimulierten
Lumineszenz, sowie durch Radiofluoreszenz bestimmen. Bei der Entwicklung einer
neuen Generation von Messgeräten wird angestrebt, alle drei genannten Methoden der Fluoreszenzdatierung in einem Gerät verfügbar zu machen und dabei ortsaufgelöste Messungen an Proben und die Charakterisierung von einzelnen Körnern zu ermöglichen. Dadurch steigen auch die Anforderungenan die für die Messung eingesetzten Strahlungsquellen, insbesondere bezüglich der Homogenität des Strahlungsfeldes am untersuchten Probematerial. In der vorliegenden Arbeit werden Designkriterien für eine geeignete Strahlungsquellediskutiert. Es wurden verschiedene Methoden zur Charakterisierung des Strahlungsfeldesdieser, auf dem Isotop Sr-90 beruhenden, Betaquelle entwickelt und erprobt. Es zeigte sich, dass die Methode der Filmdosimetrie geeignet ist, um auf einfache und reproduzierbare Weise das Strahlungsfeld der vorliegenden Quelle zu charakterisieren. Für eine sichere Montage der Strahlungsquelle, ihrer Handhabung, Anwendung und Lagerung wurden geeignete Strahlenschutzmaßnahmen realisiert sowie Messungen und Abschätzungen zur Strahlenexposition vorgenommen.
In dieser Arbeit wurden die zwei isothermalen Amplifikationsmethoden Recombinase Polymerase Amplification und Loop-mediated isothermal amplification hinsichtlich ihrer Anwendung in einem diagnostischen Teststreifensystem analysiert. Des Weiteren wurden die Bindungseigenschaften des Proteins RecA untersucht, um dieses zur Hybridisierung einer Sonde in ein amplifiziertes Produkt zu nutzen. Dadurch soll die Spezifität der Amplifikationsmethode erhöht werden.
In dieser Arbeit wird die Klasse der Chordalen Graphen vorgestellt. Dafür werden zunächst einige Grundlagen zu den Chordalen Graphen vorgestellt wie wichtige Definitionen, Eigenschaften, einige Sätze zu dieser Graphenklasse und ein Überblick über wichtige Literatur. Anschließend wird beschrieben, wie man Chordale Graphen erkennen kann und mit welchen anderen Graphenklassen sie im Zusammenhang stehen. Abschließend wird noch auf zwei der bekanntesten Algorithmen für Chordale Graphen eingegangen.
Ziel der vorliegenden Arbeit war die molekularbiologische Untersuchung des loss of heterozygosity (LOH) in drei Tumorsuppressorgene der Fanconi Anämie (Fanc G, Fanc F und Fanc J). Das Hauptaugenmerk lag dabei auf der Prüfung einer prognostischen Relevanz dieser Gene, um in Zukunft den Weg für die Entwicklung eines verbesserten kausalen Therapiekonzeptes für Patienten mit einem Plattenepithelkarzinom in der Mundhöhle zu ebnen. Mit Hilfe einer Mikrosatellitenanalyse wird eine Multiplex-PCR zur Feststellung eines LOH etabliert. Die daraus resultierenden Amplifikate werden anschließend einer kapillarelektro-phoretischen Fragmentanalyse unterzogen, sodass im Folgenden die für die LOH-Berechnung wichtigen Elektropherogramme ausgewertet werden können. Unter Verwendung von statistischen Analyseverfahren liefert ein LOH in den Genen Fanc G und Fanc F möglicherweise das Potential, als prognostischer Marker zu dienen. Auch der Ansatz der Verwendung der Mikrosatelliteninstabilität als prognostischen Marker könnte eine potentielle Relevanz besitzen. Weiterführende Analysen sind allerdings erforderlich.
In der vorliegenden Bachelorarbeit wird erläutert, wie die Erstellung einer firmeninternen Software für eine Werbeagentur realisiert werden kann. Dabei werden die speziellen Anforderungen am Beispiel der Firma Schach&Matt GmbH betrachtet. Mit der zu erstellenden Software wird der Firma ein Instrument in die Hand gegeben, die es ihr ermöglicht, noch effektiver die zur Verfügung stehende Arbeitszeit zu nutzen. Als Schwerpunkt soll die Erstellung von Dokumenten und die Integration von Modulen beleuchtet werden.
Seitdem die de novo Gensyntese es vergleichsweise kostengünstig ermöglicht Gensequenzen außerhalb eines Organismus künstlich nach Wunsch zu erstellen, bieten sich viele neue Möglichkeiten der individuellen Gestaltung und Optimierung. Besondere Bedeutung wird dabei der aus dem degenerierten Code der DNA resultierenden Codon Usage zugeschrieben. Als Codon Usage bezeichnet man die unterschiedliche Präferenz für bestimmte Codons pro Aminosäure durch verschiedene Organismen. Ist die Codon Usage bei einer heterologen Expression nicht an den Zielorganismus angepasst, kann dies unterschiedliche Effekte haben. Es soll gezeigt werden welchen Einfluss die Codon Usage auf eine solche Expression haben kann, zum einen mit besonderem Fokus auf den Vergleich optimierter Versionen für E.coli K12 von verschiedenen Gensynthese Anbietern und zum anderen mit Fokus auf das zweite Codon des Open Reading Frames (ORF) und seine möglicherweise besondere Bedeutung.
Die vorliegende Arbeit befasst sich mit einem relativ jungen Gebiet innerhalb der angewandten Mathematik, dem Compressed Sensing. Darin geht es zum einen um die Frage, wie man einen dünn besetzten, hochdimensionalen Vektor durch lineare Projektionen in seiner Dimension reduzieren kann, ohne dass dabei Information verloren geht. Dieses "Sensing"-Verfahren ist nicht-adaptiv, d.h. es soll für jeden dünn besetzten Vektor mit der gleichen Anzahl von null verschiedener Elemente gleichermaßen funktionieren und auch nicht während des Prozesses auf bereits berechnete Projektionen zurückgreifen. Zum anderen geht es um die Rekonstruktion des dünn besetzten Vektors aus diesen Projektionen, welche wesentlich weniger in der Zahl sind, als die Dimension des gesuchten Vektors. Das führt auf ein unterbestimmtes lineares Gleichungssystem, das zunächst unendlich viele Lösungen hat. Zusammen mit der Forderung der Dünnbesetztheit an die Lösung führt dies auf ein NP-schweres kombinatorisches Optimierungsproblem. Die Theorie von Compressed Sensing bietet nun Antworten auf die Fragen, wann dieses Problem l¨osbar ist und wie man es mit effizienten Verfahren der Optimierung praktisch lösen kann. Ziel dieser Arbeit ist es, einen einführenden Überblick in das Sparse Reconstruction Problem zu geben und eine Auswahl wichtiger theoretischer Resultate zu präsentieren. Dabei wird zum einen die konvexe Relaxation des NP-schweren Problems betrachtet, welche mit Methoden der konvexen Optimierung effizient gelöst werden kann. Zum anderen werden schnelle Approximationsverfahren betrachtet, welche das kombinatorische Problem direkt approximativ lösen. Dabei wird sich auf eine Auswahl beschränkt, die keinen Anspruch auf Vollständigkeit erhebt, da es kurz nach Etablierung der Theorie eine wahre Explosion an Veröffentlichungen auf diesem Gebiet gab. Dennoch werden die wichtigsten Resultate und Ansätze präsentiert und durch simulative Berechnungen bestätigt und illustriert, wobei die präsentierten Verfahren zum großen Teil selbst implementiert wurden.
Die Altersbestimmung von Blutspuren kann wichtige Hinweise zum Tathergang und dessen Rekonstruktion liefern. Gegenwärtige Methoden dafür sind oft aufwändig und teuer. In dieser Arbeit wird eine Laborstudie vorgestellt, welche die Grundlage für eine neue computergestützte Methodik bereitstellt. Dabei dienen die Konzentrationen verschiedener Blutbestandteile, die morphologischen Veränderungen und die variierenden Farbinformation der Blutspur über die Zeit als Datengrundlage. Der ermittlungsrelevante Alterungsprozess wurde in dieser Studie mittels mikroskopischer und spektroskopischer Aufnahmen untersucht. Die zeitkorrelierten Merkmalsänderungen sollen zukünftig für die computergestützte Auswertung einen sogenannten Featurevektor zur Verfügung stellen, der als Grundlage für einen Altersbestimmungsschlüssel dienen soll. Die Suche nach diesen Features ist Kern dieser Arbeit. Es konnte beobachtet werden, dass es in den ersten eineinhalb Stunden vor allem morphologische Veränderungen gibt. Danach tritt die Farbänderung des Blutes als entscheidendes Merkmal in den Vordergrund, die bis zu einem Zeitraum von mindestens 3 Wochen nachweißbar ist. Als bestgeeignetes Feature hat sich jedoch das Verhältnis der Hämoglobinderivate über die Zeit herausgestellt, dass in darauf aufbauenden Experimenten weiter untersucht werden soll. So kann die nach dem Zurücklassen eines Blutfleckes verstrichene Zeit schon vor Ort ohne die Hilfe von Labormaterial bestimmt werden.
There are a lot of people taking part in more than one competition. The competitions are also of a different kind. From local events with a small number of participants to international tournaments watched by many viewers. Naturally it becomes necessary a system to assess and compare the success in various competitions.
The existing ranking systems are usually specialized to fit their application area. More general ranking methods also exist. They can be applied to a wide spectrum of competition fields. However these ranking methods are still not universal and don't cover some important features of the competitions.
A totally new ranking system has been developed within the present master thesis. Its primary purpose is to evaluate and measure prestige gained by participants in competitions. The main contribution of the thesis consists of an original mathematical model that makes the ranking system unique.
The developed ranking system claims to be universal and interdisciplinary. It is based on the fundamental element that distinguishes the competition from the non-competition areas, namely standings that rank the participants according to their performance. The universality and the interdisciplinarity of the ranking system make available cross-disciplinary comparisons, which is usually very subjective and difficult for implementation.
The contribution of the master thesis extends beyond the theoretical area. A ranking software that fully implements this novel ranking system has been designed and developed. The software makes the practical benefits of the ranking system immediately available to potential application areas such as sports clubs and universities.
And finally, the developed ranking system offers a new viewpoint to the competitions – as a way of gaining prestige, rather than the traditional viewpoint of demonstrating mastery.
Die vorliegende Arbeit befasst sich mit der hierarchischen Partitionierung von Hypergraphen, die im Prozess der Chipentwicklung durch Netzlisten einer integrierten Schaltung entstehen. Das Problem der Partitionierung ist dabei NP-schwer, sodass Heuristiken für die entsprechende Partitionierung verwendet werden. Erschwerend kommt hinzu, dass die Hypergraphen meist eine große Ordnung, mehr als 10^5 Knoten, aufweisen. Ziel dieser Arbeit ist es, ein Modell für eine derartige Partitionierung zu erstellen, welches Resultate aus vorangegangenen Arbeiten berücksichtigt und die Platzierung der Elemente des integrierten Schaltkreises im Fokus hat. Des Weiteren wird die Tauglichkeit vorhandener Algorithmen auf die erwähnte Modellierung geprüft, weiter werden vorhandene Algorithmen modifiziert und eigene Algorithmen konzipiert. Dabei wird darauf geachtet, dass die Algorithmen auf Hypergraphen mit großer Ordnung anwendbar sind. Diese Algorithmen werden dazu auf Hypergraphen des Benchmarks "ISPD 05/06" angewandt.
Diese Masterarbeit befasst sich mit der Entwicklung einer Knowledge Base für die Integration von biologischen Daten des Forschungsprojekts CyanoFactory. Ziel des Projekts ist die Verbesserung der Wasserstoffproduktion von Cyanobakterien, speziell vom Modellorganismus Synechocystis sp. PCC 6803. Als Basis für diese Knowledge Base soll ein Data Warehouse verwendet werden. Mehrere existierende Data Warehouse-Systeme für biologische Daten werden vorgestellt, evaluiert und eines für die Anforderungen von CyanoFactory angepasst.
Darstellung des S-TEC Änderungsprozesses in Form einer neuen UML-nahen konsolidierten Methode
(2009)
Ziel dieser Diplomarbeit ist es, den derzeitigen Änderungsprozess, welcher mühsam auf Papier bzw. in Excel und Word zusammengeschrieben wird in einer neuen UMLnahen Form zu erfassen und für die Mitarbeiter der S-TEC verständlich aufzubereiten. Ein weiteres Ziel ist es zu belegen, dass die verwendete Darstellungsart für die Konzeption von Geschäftsprozessen geeignet ist. Diese Arbeit soll als Vorlage zu einem System dienen, welches in Oracle-APEX implementiert werden soll, um zukünftig Auswertungen leichter durchführen zu können und um andererseits auch für SOX-Prüfungen eine verifizierbare Lösung vorweisen zu können. Zum Abschluss wird der erstellte Geschäftsprozess mit den ausgearbeiteten Prozessen präsentiert und detailliert beschrieben
Diese Arbeit beschäftigt sich mit der Darstellung von Fahrzeugumläufen in Form einer Blockdarstellung. Verschiedene Möglichkeiten der Bewertung der Qualität einer Blockdarstellung werden aufgezeigt. Die Optimierung dieser Bewertungsvarianten führt auf das Graphen- beziehungsweise das Mengenpartitionierungsproblem. Für diese werden verschiedene Modelle und Heuristiken vorgestellt. Anhand von Testrechnungen erwies sich die im Rahmen dieser Arbeit entwickelte Heuristik als die Methode, welche die besten Ergebnisse liefert.
Diese Arbeit beschäftigt sich mit dem Ising-Polynom, einem Graphenpolynom, das von einem physikalischen Modell abgeleitet ist. Es werden verschiedene Darstellungen des Polynoms, seine Beziehungen zu anderen Graphenpolynomen und in ihm enthaltene Grapheninvarianten vorgestellt. Weiter werden, insbesondere für spezielle Graphenklassen, Berechnungsmöglichkeiten beschrieben und der Rechenaufwand betrachtet.
In der vorliegenden Bachelorarbeit werden die Wechselwirkungen von umweltrele-vanten Metallen mit biologischen Komponenten untersucht. Dazu dienen die bak-teriellen Haldenisolate Lysinibacillus sphaericus JG-A12 und Lysinibacillus sp. JG-B53. Diese zeigten bereits in vorangegangenen Untersuchungen sehr hohe Metallbindungs-kapazitäten. Für die Sorptionsversuche werden die Schwer- und Edelmetalle Platin, Palladium, Blei, Cadmium, Europium und Gold und das Halbmetall Arsen verwendet. Durch die Einbeziehung von isolierten Zellwandbestandteilen der Gram-positiven Mikroorganismen, wie z.B. S-Layer-Proteine und Membranlipide sollen genauere Kenntnisse der Sorptionseigenschaften der biologischen Komponenten erlangt werden. Als analytische Verfahren werden die ICP-MS und die QCM-D eingesetzt. Durch einen Vergleich der zwei Bakterien werden unterschiedliche Metallselektivitäten aufgedeckt, die in weiteren Forschungsvorhaben und Anwendungsgebieten Einsatz finden können.
Die Extensible Markup Language (XML) hat sich längst vom Image des Alleskönners zu einer breit genutzten Grundlage für den Datenaustausch (z.B. raumbezogener Daten) entwickelt. Einerseits steht die Transparenz, die XML so exibel einsetzbar macht, andererseits die denierte Spezialisierung im Zuge detaillierter Aufgabenstellungen, die auf den ersten Blick etwas widersprüchlich erscheint, aber dennoch als groÿer Gewinn hervorgeht. In diesem Fall bestand die Anforderung, mit Hilfe des XML-basierten GPS Exchange Formats (GPX) als Datenformat, den Austausch von Geodaten zu gestalten, um zu zeigen, daÿ sich mit GPX eine fehlende Interoperabilität bewerkstelligen lässt. Die Arbeit thematisiert den Mangel, daÿ der komplexe Rahmen der Geoinformationssysteme keine genormten Schnittstellen zum Austausch von Geoinformationen (GPS-Daten) bereitstellt. In diesem Zusammenhang dient eine Oracle Datenbank mit der Erweiterung Spatial Cartridge (Speicherung raumbezogener Daten) zur dauerhaften Speicherung der Geodaten. Deren Datenbankschema Oracle Spatial bietet auf der Grundlage von ISONormen die Möglichkeit, Geodaten barrierefrei abzuspeichern. Eine Java-Applikation schlägt den Bogen zu beiden Schwerpunktthematiken, indem sie die geographischen Informationen dem Anwender bereitstellt. Diese Diplomarbeit greift das oene, lizenzfreie Konzept GPX auf und stellt mit alternativen Kommunikationsschnittstellen eine Verbindung zu Oracle Spatial her.
Diese Masterarbeit befasst sich mit der Datenvisualisierung innerhalb der CyanoFactory Knowledge Base. Die CyanoFactory Knowledge Base ist dabei eine Webanwendung für die Speicherung, Verarbeitung und Visualisierung von Informationen bezüglich der Daten aus dem europäischen Forschungsprojekt CyanoFactory. Innerhalb der Arbeit wurden dabei die interaktiven Visualisierungen von Protein-Protein-Interaktionen und Protein-Chemikalien-Interaktionen des Modellorganismus Synechocystis sp. PCC 6803 umgesetzt und als Webtool in die CyanoFactory Knowledge Base integriert. Im Rahmen dieser Arbeit wurde auch eine visuelle Ausgabe für Flux-Balance-Analysen erstellt. Neben der Visualisierung der Interaktionen innerhalb von Synechocystis sp. PCC 6803 wurde eine Analyse von dessen Protein-Interaktionsnetzwerk durchgeführt.
Die Studie umfasst historisches Skelettmaterial, welches mit Hilfe von Metrik und Morphognostik analysiert werden soll. Die Untersuchungen wurden anhand der Wirbelsäule durchgeführt und dienen sowohl der Individualanalyse als auch der Rekonstruktion der Skelettpopulation. Dabei sind degenerative und pathologische Veränderungen ein wichtiger Bestandteil der Analysen. Die Grundlage für die Auswahl der Untersu-chungskriterien bildet bereits veröffentlichte, wissenschaftliche Fachliteratur.