Refine
Document Type
- Bachelor Thesis (287)
- Diploma Thesis (155)
- Master's Thesis (115)
Year of publication
Keywords
- Softwareentwicklung (18)
- Proteine (12)
- Laserbearbeitung (11)
- Membranproteine (9)
- Algorithmus (8)
- Mikrostruktur (7)
- Bioinformatik (6)
- Graphentheorie (6)
- Laserschweißen (6)
- Protein-Protein-Wechselwirkung (6)
Institute
- 03 Mathematik / Naturwissenschaften / Informatik (557) (remove)
Das Thema der vorliegenden Masterarbeit ist die Herstellung von Fresnel-Zylinderlinsen mittels Fluorlasermikrostrukturierung im Maskenprojektionsverfahren. Anhand einer, nach den theoretischen Grundlagen berechneten, Fresnel-Linse erfolgt die Berechnung von Maskengeometrien auf Basis zweier unterschiedlicher Methoden.
Des Weiteren werden Möglichkeiten zur Optimierung der Maskengeometrie vorgestellt, mit denen die Funktion der Masken verbessert werden kann. Durch die Korrektur ist die Herstellung von Fresnel-Zylinderlinsen mit definiertem Krümmungsradius möglich.
Die Bachelorarbeit beschäftigt sich mit der Shadererstellung zur Visualisierung von Automobilmodellen in einer Echtzeitengine unter Berücksichtigung physikalischer Grundsätze. Es werden theoretische Grundlagen dargestellt, um dem Leser die Materie näher zu bringen. Daraufhin wird der verfolgte Lösungsansatz beschrieben und
durch ein Experteninterview gegengeprüft. Im Anschluss folgt der praktische Teil mit der Shader-Generierung in einer Echtzeit-Engine. Danach werden die Shader an das 3D-Modell eines Fahrzeuges angepasst und es folgt eine Auswertung mit der Beschreibung alternativer Herangehensweisen.
Cell-free protein synthesis is gaining increasing importance in basic and applied research as a result of advances that have been made in the past years. This study successfully established a commercially available coupled in vitro transcription/translation system for DNA expression templates based on HeLa cell lysate and suitable detection methods. Possibilities to establish an inexpensive in-house CFPS system based on E. coli lysate were elucidated. Cell-free extract from E. coli strains HB101, JM109 and B (Luria) was generated using sonication and a streamlined procedure for the creation of a reaction mix for convenient and simple application in CFPS systems was established. Of the three strains tested using the in-house protocol, neither exhibited any CFPS activity.
Influenza Viren sind einzelsträngige RNA Viren, welche in drei unterschiedliche Typen unterteilt werden: A, B und C. Sie alle besitzen ein in acht Segmente unterteiltes Genom. Während Viren vom Typ B und C eher langsam im Menschen evolvieren, evolvieren Viren vom Typ A sehr schnell und verursachen milde bis schwere Erkrankungen. Sie sind daher eine ständige Gefahr für den Menschen. Neben den üblichen genetischen Mutationen zur Veränderung des Erbguts hat Influenza die Fähigkeit zur Reassortierung. In diesem Fall muss eine Wirtszelle gleichzeitig von zwei (oder mehr) unterschiedlichen Influenza Viren befallen sein, welche als neuer Virus von der Wirtszelle hervorgebracht werden und Segmente von beiden (allen) gleichzeitig infizierenden Vieren enthalten. Neben diesem speziellen Fall von Reassortierungen haben Influenza A Viren bereits eine hohe Mutationsrate. Ursache für die schnelle genetische Veränderung und die damit verbundene Umgehung des Immunsystems des Wirts, ist eine Polymerase der eine proofreading-Untereinheit fehlt. Speziell genetische Veränderungen in einem der beiden Oberflächenglykoproteinen - Hämagglutinin (HA) - können massive Auswirkungen auf die Fähigkeit des Virus haben, Menschen zu infizieren. Dieses Protein zeigt bevorzugte Aminosäuren auf, welche unter extremen Selektionsdruck stehen. Genetische Veränderungen in diesem Proteinen ist einer der Hauptgründe dafür, dass Influenza A Viren das Immunsystems des Wirts umgehen können, da dieses bevorzugt von Antikörpern erkannt wird. Exogenes Material wird sehr spezifisch durch das Immunsystem erkannt und ist sehr speziell auf die Oberfläche einiger Aminosäuren und deren Eigenschaften angepasst. Schon kleine Veränderungen an bekannten, wichtigen Stellen können zum Umgehen der Immunantwort des Wirts führen, da die Bindung und damit die Markierung durch Antikörper beeinträchtigt ist. Die hohe Mutationsrate von Influenza A Viren, speziell im HA protein, ist der Grund für die Notwendigkeit von jährlichen Impfungen.
Im Rahmen des Exzellenz-Cluster cfaed werden am Zentrum für Mikrotechnologie der TU Chemnitz und dem Fraunhofer Institut für Elektrische Nanosysteme die Immobilisierung von DNA-Origami in mikro- und nanostrukturierten Oberflächen untersucht. Die DNA-Origami zeigen auf Mica, Siliziumdioxid und hydrophoben Polymeren ein signifikant unterschiedliches Bindeverhalten. Dies bildet die Grundlage für die Immobilisierung in hydrophilen Kavitäten in einem hydrophoben Umfeld. Es werden drei verschiedene Integrationsansätze untersucht und beurteilt.
Biconnected reliability
(2015)
Computer communication networks play a mayor role to manage data transfer and information processing. However, the components of the network may fail - by targeted attacks or by wearout. While targeted attacks are non-random, it seems appropriate to consider wearout effects as random. Further we can assume that the components fail independently. The task of network reliability is to analyze networks in respect to the functionality of the network with consideration of wearout of its components. In most cases a network is considered as functional if a selected set of terminals can communicate. ...
Diese Arbeit behandelt die Entwicklung einer Packheuristik für ein spezielles 3-dimensionales Bin-Packing-Problem. Dazu werden Methoden verschiedener
wissenschaftlicher Arbeiten miteinander kombiniert. Es wird ein Belademechanismus für allgemeine Bin-Packing-Probleme auf das spezielle Problem angepasst. Dieser versucht möglichst dichte Packungen zu produzieren. Weiter wird eine Heuristik, beruhend auf dem simulierten Abkühlen, zur Optimierung der Güte einer Lösung genutzt. Dies kann durch Veränderung der Packsequenzen erreicht werden, da ein deterministischer Belademechanismus verwendet wird.
Ovarialkarzinome weisen häufig Mutationen innerhalb des Tumorsuppressorgens p53 auf, auf die das menschliche Immunsystem mit Autoantikörpern reagiert. Aber nicht alle Patienten bilden diese Autoantikörper. Warum das so ist, haben Forscher noch nicht herausgefunden. Diese Arbeit versucht eine Korrelation zwischen Immunzellpopulationen und Autoantikörper-Status zu finden.
Die Firma Leeb Event – Service & Produktions GmbH (im weiteren nur noch mit Firma Leeb benannt) ist ein Unternehmen, welches neben den Bereichen Werbemittelberatung, Grafik & Layout, Werbemittelproduktion und Werbemittelbeschaffung zusätzlich auch die Lagerverwaltung und den Versand von Artikeln für andere Unternehmen übernimmt und bereits auf eine 10-jährige Erfahrung zurückgreifen kann. Die Firma Leeb wurde im Jahr 2012 beauftragt, alle österreichweiten BP Tankstellen des Landes zu besuchen und wichtige marketingstrategische Informationen zu erfassen. ...
In der industriellen Abwasserbehandlung stieg in den letzten Jahrzehnten die Nachfrage nach effektiven Behandlungsmethoden mit dem Schwerpunkt der weitmöglichen Kreislaufschließung unter Minimierung der Betriebskosten erheblich an. Besonders industrielle Abwässer mit einer hohen Schmutzfracht (CSB) besitzen ein erhebliches Energiepotential. In der heutigen Zeit, in der Umweltschutz, betriebskostengünstige Produktionen und Energiekosteneinsparungen eine wesentliche Rolle spielen, wird die anaerobe Abwasserreinigung immer attraktiver. Die in den hochbelasteten Abwasserströmen enthaltenen Stoffe können anaerob abgebaut und in Biogas überführt werden. Das Ziel dieser Arbeit ist die Optimierung der Biogasausbeute bei der Behandlung von Abwässern aus der Produktion von weißem Verpackungskarton. Im Rahmen der Zielstellung wurde zunächst eine Prozessanalyse der großtechnischen Anlage durch Beprobung und labortechnische Untersuchungen der Anaerobreaktoren durchgeführt. Anhand der gewonnen Daten konnten weitere Versuche, wie u.a. die Herabsetzung der Verweilzeit des Abwassers in der Versäuerung erarbeitet werden. Alle ermittelten Daten wurden im Anschluss umfangreich ausgewertet und diskutiert.
Diese Diplomarbeit behandelt sowohl die theoretischen Grundlagen zur Entwicklung und Konzeption einer Programmiersprache als auch die praktische Umsetzung eines Interpreters. Es wird auf die eingesetzten Werkzeuge, sowie auf die zugrundeliegenden Mechanismen eingegangen. Anhand von Beispielen werden zuerst die Bausteine des Interpreters erläutert und später einige Konzepte wie Built-In-Funktionen und Speicherverwaltung genauer vorgestellt. Ergebnis der Diplomarbeit ist ein in C implementierter Interpreter für die entworfene Programmiersprache sowie Konzepte und Grundlagen zur Erweiterung und Weiterentwicklung der Programmiersprache.
In der vorliegenden Bachelorarbeit wird die Eignung eines Smartphones, spezieller eines iPho-nes, für die standortbasierte Zeiterfassung untersucht. Betrachtet werden technische Ansätze und die auf der iOS-Plattform verfügbaren Verfahren iBeacon und Geofencing. Dabei soll mittels einer Präsenzdetektion ermittelt werden, ob sich ein Mitarbeiter in der Firma oder am Arbeitsplatz aufhält und dementsprechend eine Zeiterfassung gestartet werden. Die Verfahren werden hinsichtlich ihrer Eignung im Bezug auf aufgestellte Anforderungen und auf ihre reaktive sowie proaktive Verwendung beurteilt.
Schwerpunkte
• Untersuchung verfügbarer technischer Ansätze auf der iOS - Plattform und Vergleich ihrer Eigenschaften
• Implementierung eines Prototypen mit mindestens zwei verschiedenen Ansätzen
• Analyse der Performance in der Praxis insbesondere hinsichtlich der betriebssystemsei-tigen Einschränkungen (z.B. Aktualisierungsintervall)
Anhand dieser Arbeit wird es einem mittelständischen Unternehmen ermöglicht die IT Infrastruktur zu planen und umzustrukturieren. Derzeit ist die IT Landschaft dezentral und es ist nur mit großem personellen Aufwand möglich, diese zu betreuen. Diese Arbeit soll aufzeigen welche Möglichkeiten es mit modernsten Mitteln gibt, einfach und effizient ein eigenes zentrales Rechenzentrum zu betreiben.
Anhand von Erhebungen, Gesprächen und Umfragen mit und innerhalb des Unternehmens wird sich ein gemeinsamer Weg ergeben, der in dieser Arbeit detailliert ausgeführt wird. Der Neuigkeitswert liegt in einem neuen IT-Konzept für die Infrastruktur, da es keine dezentralen Komponenten mehr geben wird auf denen die Kernapplikationen der einzelnen Standorte betrieben werden sollen.
Ziel ist es durch Recherche und Vergleiche die bestmöglichste Lösung in Hinblick auf technische Aspekte zu entwickeln, dabei aber auch auf die Wirtschaftlichkeit dieser Lösung zu achten. Es ist kein Ziel dieser Arbeit, eine detaillierte Installations- und Konfigurationsbeschreibung zu erstellen, der Fokus liegt klar auf dem ganzheitlichen Konzept.
Diese Arbeit beschäftigt sich mit der Optimierung der PCR-Chemie für Y-chromosomale SNP-Analysen, wobei eine vorangegangene Forschungsarbeit die Grundlage für den Optimierungsprozess bildet. Dabei soll auf die Verwendung eines kommerziellen Kits zur Durchführung der Amplifikation des genetischen Materials verzichtet werden. Die für die Analysen herangezogene DNA stammt aus historischem Knochenmaterial eines Gräberfeldes nahe Görzig. Abschließend sollen die untersuchten Proben hinsichtlich der detektierten Y-SNPs bewertet werden.
Die Arbeit dient als Grundlage für einen Aufbau von SPR-basierten DNA-Chips. Die Analyse der Immobilisierung und Hybridisierung erfolgte dabei in Echtzeit unter Nutzung der Spektroskopie der Oberflächenplasmonenresonanz (SPR). Die SPR-Spektroskopie ermöglicht es, Änderungen des Brechungsindexes an der Metalloberfläche durch die Detektion einer Verschiebung des (Plasmonen-) Resonanzwinkels zu verfolgen. Diese Methode stellt eine markierungsfreie und sensitive Alternative zu Array-basierten Untersuchungen mit Fluoreszenzfarbstoffen, enzymatischen Reaktionen oder radioaktiven Markern dar. Als Metall wird häufig Gold eingesetzt, da es chemisch stabiler ist. Ziel soll es aber sein Silber als Grundlage zu verwenden, da mit dem Einsatz von Silber eine höhere Winkelauflösung erreicht werden kann und ein größeres Spektrum der Anregungswellenlänge für die SPR zugänglich ist. Um die Vorteile des Silbers nutzen zu können, ist es sinnvoll das Silber vor DNA Immobilisierung zu passivieren. Es wurden Glassubstrate nach mehreren Vorbehandlungsschritten mit Silber bedampft. Auf Basis dieser Substrate werden zwei verschiedene Strukturierungen untersucht. Im ersten Fall erfolgte eine Immobilisierung mit thiolmodifizierter DNA und anschließendem Blocken. Für die Immobilisierung dieser DNA wurden 2 Flächen auf dem Silbersubstrat genutzt, wobei eine Fläche die komplementäre DNA zur anderen Fläche gebunden hat. Auf beiden Flächen wurden die Immobilisierung, das Blocken und die anschließende Hybridisierung mit komplementärer DNA unter Nutzung von SPR-Spektroskopie durch Erhöhung des SPR-Signals beobachtet. Im zweiten Fall wurden einige Silbersubstrate mit 11-Mercapto-1-undecanol (MUD) passiviert. Durch eine Beschichtung mit (3-Bromopropyl)trichlorosilan war es möglich Phosphorothioat-DNA (PT-DNA) auf der Oberfläche zu immobilisieren. Es wurden verschiedene DNA-Konzentrationen komplementärer DNA von 0,25 μM, 0,5 μM und 1 μM für die Hybridisierung getestet. Dabei ergab sich, dass 0,25 μM keine signifikanten Signalerhöhungen bewirkten. Sowohl 0,5 μM als auch 1 μM komplementäre DNA brachten Signalerhöhungen. Auf dem passivierten Silber konnte im Vergleich zum unpassiviertem Silber eine deutlich geringere Signaldrift beobachtet werden. Der vorgenommene Schichtaufbau kann für DNA-Mikroarrays mit vielen Einzelnachweisen pro Flächeninhalt angewendet werden. Das passivierte Silber mit MUD und (3-Bromopropyl)trichlorosilan ist geeignet für Immobilisierung von PT-DNA und anschließende Hybridisierung mit komplementärer DNA.
Um das Internet nutzen zu können, braucht jeder Nutzer eine eigene Adresse im Internet-Protokoll. Zur Zeit existieren zwei solcher Protokolle: IPv4 und IPv6. IPv6 ist hierbei die Weiterentwicklung von IPv4, dessen Adressreserven mittlerweile fast aufgebraucht sind. Da beide Internetprotokolle zueinander inkompatibel sind, sollten bestehende IPv4-Netze um IPv6 ergänzt werden. Dadurch wird die Erreichbarkeit in beiden Protokollen gewährleistet.
Diese Arbeit beschäftigt sich mit der Erstellung eines Konzeptes zur Einführung von IPv6 in das bestehende IPv4-Netzwerk der Hochschule Mittweida. Aufgrund des bereits existierenden Netzwerkes gibt es einige Bedingungen an IPv6, welche es zu beachten gilt. Es soll sich zum Beispiel die IPv4-Adresse in der IPv6-Adresse wiederspiegeln und die „Layer 2“-Struktur in keinster Weise verändert werden. Zudem sollen möglichst die bereits verwendeten Programme weiterhin verwendet werden können. Im Laufe der Arbeit wurden diesbezüglich innerhalb einer Testumgebung die Gegebenheiten der existierenden IPv4-Konfuguration nachgebildet und diese um IPv6 erweitert. Dafür musste einerseits die optimale Konfiguration des Routers gefunden werden, damit auf der Clientseite keine Autokonfiguration durchgeführt wird. Andererseits musste ein DHCP-Server aufgesetzt werden. Für diesen müssen die Einträge aus einer Hostdatenbank in die Konfigurationsdatei des DHCP-Servers überführt und der Server daraufhin neu gestartet werden. Damit die Sicherheitsfeatures der „Switche“ den neuen Gegebenheiten gewachsen sind, müssen diese natürlich auch noch entsprechend angepasst werden.
Letztendlich wurde mit dieser Arbeit der Grundstein für den „Dual-Stack“-Betrieb an der Hochschule Mittweida gelegt. Dieser Stand kann natürlich auch in anderen Netzwerken angewendet und an die anderen Gegebenheiten angepasst werden.
Im Rahmen der Bachelorarbeit wurden Strukturierungsexperimente an verschiedenen Materialien mittels ultrakurzen Laserpulsen durchgeführt. Die untersuchten Materialien sind Stahl (Thyrodur 2990), Wolframcarbid, Quarzglas und PMMA. Die Versuche wurden mit der Laseranlage FS-150-10 durchgeführt. Ziel der Versuche war es Erkenntnisse über das Ablationsverhalten der untersuchten Materialien bei einer Pulsdauer von ca. 35 fs zu gewinnen. Diese Ergebnisse sollten mit denen für 150 fs verglichen werden um den Einfluss der Pulsdauer zu charakterisieren. Desweiteren sollten Einflussfaktoren, welche sich auf die Oberflächenrauheit auswirken untersucht werden. Dazu wurden Testfelder erzeugt und auf ihre Strukturtiefe und Oberflächenrauheit der strukturierten Bereiche untersucht.
Entwurf und Implementierung einer Testumgebung fuer
den DT5-Schulungssimulator mit Hilfe des CTE
(2015)
Die schon seit langem anhaltende Bevoelkerungszunahme in Grossstaedten spiegelt sich auch in den Transportmitteln wieder. Wo frueher noch Pferdekutschen ausreichten, mussten im Laufe der Zeit immer modernere Fortbewegungsmittel eingesetzt werden. 1863 wurde aus diesem Grund die erste U-Bahn (Untergrundbahn) in London in Betrieb genommen.
U-Bahnen sind Verkehrssysteme, welche unabhaengig von anderen Verkehrssystemen fungieren. Auch in Hamburg wurde 1912 die erste Untergrundbahn eingefuehrt. In Hamburg wird diese Untergrundbahn jedoch als Hochbahn bezeichnet, was darauf zurückgefuehrt werden kann, dass diese vor allem oberirdisch verkehrt. Genaueres kann in [Hochbahnbuch] nachgelesen werden. ...
Diese Bachelorarbeit befasst sich mit der Möglichkeit, durch Fermentation cyanobakterieller Biomasse, erneuerbare Energie in Form von Biogas zu gewinnen. Dazu wurden verschiedene Versuchsanordnungen entwickelt, um die Menge an entstandenem Biogas zu erfassen. Die Cyanobakterien, die als Substrat für die Fermentation dienten, waren Spirulina maxima und Synechocystis sp. PCC 6803. Ein Teil der verwendeten Biomasse war lyophilisiert und stammte vom CNR Florence Research Area Institut (Italien), ein anderer wurde im Labor angezüchtet. Um den Fermentationsprozess zu beurteilen, wurden Analysen mittels HPLC, photometrische Testsysteme und pH-Wert Messungen angewendet.
Industry 4.0 this concept is hotly debated in all industries. But what does it actually means. Is the industry actually in the fourth industrial revolution?
Using the example of previous revolutions we see that the effects of a revolution are enormous. It concerns not only the industry but also has consequences for the people. What impact will this revolution have on the society?
This thesis will seek to identify what Industry 4.0 is. A brief introduction with information about the first, second and third revolution and the road to Industry 4.0. What technolog-ical requirements need to implement for Industry 4.0. In this way CPS is explained as well as what it is the term "Internet of Things". In detail, it addresses what Industry 4.0 means specifically for process automation. Some examples will be shown how far the fourth industrial revolution has arrived already in the daily production.
What opportunities arise and with which challenges and risks are there to take?
Aufreinigung fermentativ hergestellter Milchsäure unter dem Aspekt der Polymilchsäure-Herstellung
(2011)
Gegenstand dieser Diplomarbeit ist ein Prozessschritt bei der Aufarbeitung
einer milchsäurehaltigen Fermenterbrühe. Dazu werden in der Literatur
beschriebene und von Herstellern empfohlene Anionenaustauscher auf ihre
Eignung untersucht.
Um Einflüsse bestimmter organischer Säuren, Ammoniumulfat,
Ammoniumlactat und Zucker auf die Milchsäurequalität zu untersuchen, werden
definierte Mengen davon zugesetzt (Spiking) und anschließend Lactid-Tests
durchgeführt.
Der Kunststoff Polymilchsäure (PLA), der aus Milchsäure gewonnen wird, soll
Polymere auf Erdölbasis ersetzen. Die Reinheit der biotechnologisch
hergestellten Milchsäure hat direkten Einfluss auf Wirtschaftlichkeit und Qualität
beim PLA-Prozess.
In dieser Arbeit werden Interaktionen auf molekularer Ebene mittels eines Biosensors, einer Quarzkristallmikrowaage analysiert. Bei den experimentell genutzten Interaktionsmolekülen handelt es sich beim ersten Paar um Cyclophilin A und
Cyclosporin A und beim Zweiten um Anti-c-Myc und c-Myc. Die Sensoroberflächen können definiert modifiziert werden. Unter Verwendung des Biotin-Avidin-Systems werden Affinitäten in Echtzeit ermittelt und die Sensoren für weitere
Echtzeitmesszyklen regeneriert. Dieses Analyseverfahren soll im Vergleich zu einer vielzahl anderer Verfahren durch seine Zeit-, Kosten- und Materialersparnis beeindrucken und den Wunsch nach Weiterentwicklung vorantreiben.
Proteins are involved in almost every aspect of life, mediating a wide range of cellular tasks. The protein sequence dictates the spatial arrangement of the residues and thus ultimately the function of a rotein. Huge effort is put into cumbersome structure eludication experiments which obtain models describing the observed spatial conformation of a protein, enabling users to predict their function, to understand their mode of action or to design tailored drugs to cure disease caused by misfolded or misregulated proteins.
However, the result of structure determination experiments are merely models of reality, made under simplifying assumptions - sometimes containing major undetected errors. On the other hand, such experiments are resource demanding and they cannot supply the actual demand.
Thus, scientists are predicting the structure of proteins in silico, resulting in models that are even
more prone to error.
In consequence, the structure biologists search after a practicable definition of structure quality and over the last two decades several model quality assessment programs emerged, measuring the local and global quality of peculiar structures. Seven representatives were studied, regarding the paradigms they follow and the features they use to describe the quality of residues. Their predications were compared, showing that there is almost no common ground among the tools.
Is there a way to combine their statements anyway?
Finally, the accumulated knowledge was used to design a novel evaluation tool, addressing problems previously spotted. Thereby, high quality of its predication as well as superior usability was
key. The strategy was compared to existing approaches and evaluated on suitable datasets.
Protein structures are essential elements in every biological system evolved on earth, where they function as stabilizing elements, signaltransducers or replication machin eries. They are consisting of linear-bonded amino acids, which determine the three-dimensional structure of the protein, whereas the structure in turn determines the function. The native and biological active structure ofa protein can be understood as the folding state of a polypeptide chain at the global minimum of free energy.
By means of protein energy profiling, which is an approach derived from statistical physics it is possible to assign a so called energy profile to a protein structure. Such an energy profile describes the local energetic interaction features of every amino acid within the structure and introduces an energetic point of view, instead of a structural or sequential onto proteins.
This work aims to give a perspective to the question of how we may gain pattern information out of energy profiles. The concrete subjects are energy-mapped Pfam family alignments and investigations on finding motifs or patterns indiscretizised energy profile segments.
As widely discussed in literature spatial patterns of amino acids, so-called structural motifs, play an important role in protein function. The functional responsible part of a protein often lies in an evolutionary highly conserved spatial arrangement of only few amino acids, which are held in place tightly by the rest of the structure. In general, these motifs can mediate various functional interactions, such as DNA/RNA targeting and binding, ligand interactions, substrate catalysis, and stabilization of the protein structure.
Hence, characterizing and identifying such conserved structural motifs can contribute to understanding of structurefunction relationships in diverse protein families. Therefore and because of the rapidly increasing number of solved protein structures, it is highly desirable to identify, understand and moreover to search for structural scattered amino acid motifs. The aim of this work was the development and the implementation of a matching algorithm to search for such small structural motifs in large sets of target structures. Furthermore, motif matches were extensively analyzed, statistically assessed and functionally classified. Following a novel approach, hierarchical clustering was combined with functional classification and used to deduce evolutionary structure-function relationships. The proposed methods were combined and implemented to a feature-rich and easy-to-use command line software tool, which is freely available and contributes to the field of structural bioinformatic research.
A variety of methods have been used to describe natural systems and cellular functions. Most use continuous systems with differential equations. Based upon the neighbourhood relations in graphs and the complex interactions in cellular automata a mathematical model was designed and implemented as an application user interface. This discrete approach called graph automata was utilised to simulate diffusion processes and chemical kinetics. The progression of diffusion in cellular environments was described and resulted in a discrepancy of 20% in comparison to experimental results. Different chemical kinetics were simulated and found to be as accurate as their continuous counterparts. The proposed model appears to be a highly scalable and modular
approach to simulate natural systems.
Aufgrund der hohen Sensitivität und der schnellen Durchführbarkeit gewinnt die
Wasserstoff-/Deuterium-Austausch-Massenspektrometrie immer mehr an
Bedeutung. In dieser Arbeit liegt der Fokus auf der strukturellen Untersuchung von Protein-Zucker-Interaktionen am Beispiel von Interleukin-8 und Chondroitinsulfat, um mit Hilfe des Wasserstoff-/Deuterium-Austauschs die Interaktionsstellen zu identifizieren. In dieser Arbeit wurde mit zwei verschiedenen Herangehensweisen das Protein sowohl einzeln, als auch im Komplex mit einem Glykosaminoglykan hinsichtlich seines Austauschverhaltens untersucht. Im Rahmen dieser Arbeit gelang es mittels H-/D-Austausch-Massenspektrometrie die Bindungsstelle von Interleukin-8 zu oligomeren Chondroitinsulfat-Molekülen zu bestimmen.
Durch Genexpressionsexperimente anModellorganismen versucht man das Genomund die Reaktion des Genoms auf äußere Einflüsse zu erforschen.
Chemikalien sind in der Lage die Expression des Genoms zu beeinflussen. Durch die Experimente ist es möglich Rückschlüsse auf die Wirkweisen der Chemikalien auf genomischer Ebene zu ziehen. Durch derartige Chemikalienexperimente wurden in der Vergangenheit bereits große Mengen an Genexpressionsdaten erzeugt. Ein beliebter Modellorganismus für solche Versuche ist der Zebrabärbling Danio rerio, der in seiner embryonalen Entwicklung optimale Vorrausetzungen mit sich bringt. Bei ihm kann man phänotypische und genotypische Effekte der Chemikalien sehr gut beobachten, da er in diesem Zeitraum transparent ist und diese Phase nur fünf Tage anhält.
Anhand des Zebrabärblings soll erforscht werden, ob gleichartige Chemikalien auf genomischer Ebene ähnliche Wirkweisen besitzen und sich in Gruppen zusammenfassen lassen. Desweiteren stellt sich die Frage, ob es eine allgemeine (Gegen)Reaktion auf den Einfluss der Chemikalien gibt, welche auf genomischer Ebene sichtbar wird. Dazu werden Genexpressionsdaten aus cDNA-Microarrayexperimenten verwendet, die in den Datenbanken des NCBI und EBI abgespeichert sind. Nachdem geeigenete Experimentaldaten ausgewählt wurden und auf ihre Qualität geprüft, wurden diese einer vereinheitlichten statistischen Analyse unterzogen. Die Ergebnisse dieser statistischen Analyse wurden untereinander auf identisch differentiell exprimierte Gene verglichen.
Durch vereinheitlichte, allgemeine Analyse konnten Hinweise erbracht werden, dass es auf genomischer Ebene eine Antwort- und Gegenreaktion auf die Chemikalien gibt. Durch den Vergleich konnten 22 Gene ermittelt werden, die für das Binden und den Abbau der eingesetzten Chemikalie verantwortlich sind und experiementübergreifend auftraten.
Die Studie umfasst historisches Skelettmaterial, welches mit Hilfe von Metrik und Morphognostik analysiert werden soll. Die Untersuchungen wurden anhand der Wirbelsäule durchgeführt und dienen sowohl der Individualanalyse als auch der Rekonstruktion der Skelettpopulation. Dabei sind degenerative und pathologische Veränderungen ein wichtiger Bestandteil der Analysen. Die Grundlage für die Auswahl der Untersu-chungskriterien bildet bereits veröffentlichte, wissenschaftliche Fachliteratur.
Diese Bachelorarbeit erforscht Methoden und Techniken für die Erstellung von Concept
Art bei der Entwicklung von Videospielen. Mithilfe von Aussagen renommierter Concept
Artists sowie einer qualitativen Umfrage in Unternehmen wird ein de facto Industriestandard ermittelt und Probleme mit der Arbeitsweise und den Arbeitsergebnissen der Concept Artists in der Videospielindustrie analysiert. Das Ergebnis der Analyse zeigt, dass in den Firmen Concept Art eine zu geringe Relevanz besitzt und durch eine genauere Definition eines Standards die Qualität der Arbeit gesteigert werden könnte.
Die Masterarbeit beschäftigt sich mit den geometrischen Fehlern des Gesamtsystems der perkutanen Strahlentherapie am Klinikum Chemnitz gGmbH. Das Gesamtsystem besteht aus einem Computertomograph, einem Bestrahlungsplanungssystem, einem Simulator und einem Linearbeschleuniger. An jeden dieser Einzelsysteme können gerätespezifische geometrische Fehler auftreten, die Einfluss auf den Gesamtfehler besitzen.
Das Ziel der Arbeit war es, die Einzelfehler zu identifizieren und zu quantifizieren. Dabei wird hauptsächlich auf die Bildgebung an dem jeweiligen Gerät eingegangen. Weiterhin erfolgt im Rahmen der Masterarbeit die Berechnung eines therapieabhängigen Gesamtfehlers exemplarisch für zwei Fallbeispiele.
Das Ziel dieser Bachelorarbeit ist es zu analysieren, wie Gamification auf Crowdtesting Plattformen angewendet werden kann und welche Spielmechaniken sich dafür eignen.
Es werden Praxisbeispiele aus dem Bereich Crowdsourcing und –testing auf ihre Gamification-Ansätze analysiert und ausgewertet. Anhand dieser Untersuchung wird ein Gamification-Konzept für die Crowdtesting Plattform der T-Systems Multimedia Solutions GmbH erstellt.
In dieser Arbeit werden die Ergebnisse von grundlegenden Untersuchungen zur Erzeugung von metallischen Schichten und Nanometerschichtstapeln mittels Laserpulsabscheidungsverfahren (PLD) vorgestellt. Für die Erzeugung des schichtbildenden Teilchenstromes durch Ablation der Festkörpertargets wurde ein KrF-Excimerlaser mit einer Wellenlänge von 248 nm verwendet. Durch Variation der Abscheidungsparameter Laserpulsfluenz und Laserstrahlquerschnitt wurden die Oberflächeneigenschaften von dünnen Metallschichten für die Erzeugung von spintronischen Schichtstapeln optimiert.
Die Abhängigkeit der materialspezifischen Schichteigenschaften Abtragsrate pro Laserpuls, Schichtaufwachsrate, Oberflächenrauigkeit, Partikulatflächendichte, Schichtdickenverteilung, Schichtdickenhomogenität und Mikrostruktur von den Abscheidungsparametern werden vorgestellt. Unter Nutzung der optimierten Prozessparameter konnten spintronische Metallschichtstapel hergestellt werden. Für die Verbesserung der Schichtdickenhomogenität von laserpulsablatierten Schichten wurde ein xy-Substrat-bewegungssystem konzipiert und dessen technische Realisierung verwirklicht.
In dieser Arbeit werden Übergangswahrscheinlichkeiten für die anderen beiden Modelle abgeleitet. Des weiteren wird gezeigt, dass sich die Anzahl der benötigten Gleichungen zum Lösen der in [21] angegebenen Rekursion für die mittleren Erstankunftszeiten der den Modellen zugrunde liegenden Markovketten für den Sterngraphen zu 2 j V j 1 ergibt. Es wird für bestimmte Graphen mit guten Symmetrieeigenschaften eine alternative Darstellung als Markovkette angegeben. Für eben diese Graphen werden nur O (j V j) viele Gleichungen benötigt, um eine äquivalente Rekursion für die mittlere Zeit bis zum Informieren von ganz V zu lösen. Es werden Reduktionen und Schranken für die mittleren Erstankunftszeiten angegeben und unabhängig von [9] und [7] wird eine Variante des Push-Algorithmus mit Gedächtnis eingeführt, für welche eine obere Schranke für die Laufzeit angegeben wird. Allem vorangestellt wird kurz das zugrunde liegende Problem und vor allem der Push-Algorithmus beleuchtet und es werden wichtige frühere Ergebnisse anderer Autoren vorgestellt. Abschließend werden die Ergebnisse bewertet und offene Probleme angegeben. Es werden in dieser Arbeit nicht behandelte Modelle vorgeschlagen.
Ziel der Arbeit ist die Analyse der mechanischen Eigenschaften von undotierten und mit stickstoffdotierten ta-C Schichten. Zudem werden Biegeproben gebogenund die Auswirkungen auf die Schicht untersucht. Des Weiteren werden Fräser mit ta-C beschichtet und die Veränderung des Standweges mit anders beschich-teten Fräsern verglichen.
Im Rahmen der Bachelorarbeit wurde eine Anlage konzipiert, die ausgehend von einem existierenden geregelten Ozonerzeuger vier verschiedene Konzentrationen von Ozonwasser bereitstellt. Dabei wurde die Anlage von Grund auf zusammengebaut und die enthaltenen Komponenten mit einer SPS-Steuerung verbunden. Unter Berücksichtigung von Zerfall und Zehrung des Ozons in der Anlage konnte ein Verfahrensablauf erstellt werden, mit dem die Anlage vier verschiedene Wirkkonzentrationen bereitstellen kann.
Die Bachelorarbeit beschäftigt sich mit Möglichkeiten, Objekte zur Laufzeit zu manipulieren. Dabei werden Verfahren zur Analyse von Klassen und deren Werte, sowie die Versendung an ein externes Tool behandelt. Zudem werden diese Daten über eine Benutzeroberfläche präsentiert. Dabei spezialisiert die Arbeit sich auf das Ash-Framework und wird mithilfe von ActionScript 3 realisiert. Abschließend wird das Framework an einem Praxisbeispiel angewandt
Der Gegenstand der Arbeit ist, Möglichkeiten zur Ablösung konventioneller Siebdruckprozesse durch ein Mikrodosierverfahren zu untersuchen. Dabei werden Leiterbahnen für die Vorderseitenstruktur und Durchkontaktierungen für rückseitenkontaktierte Siliziumsolarzellen, unter Einsatz von Silberpasten, geschaffen. Es konnten Leiterbahndurchmesser von ca. 80 µm bei Bahnhöhen von 10-15 µm erreicht werden. Durch einen sich anschließenden Ofenprozess ergaben sich Bahnwiderstände von 230 m /cm. Ein ohmsches Kontaktverhalten der Leiterbahnen zum Silizium konnte durch eine Antireflexschicht hindurch erzeugt werden. Die Möglichkeit der Erzeugung einer Durchkontaktierung der Vorderseitenkontakte auf die Zellrückseite mittels Durchgangsbohrungen
wurde nachgewiesen. Desweiteren wurde untersucht, inwieweit der Ofenprozess, der eine Leitfähigkeit der Vorderseitenstruktur hervorruft, durch einen Laserprozess abgelöst werden kann. Versuche zeigten, dass ein Versintern der Leiterbahnstrukturen mittels
Laser möglich ist. Aus Bahnbreiten von 150 µm und Bahnhöhen von 25 µm ergaben sich Leiterbahnwiderstände von 270 m /cm.
In dieser Masterarbeit wird die praktische Umsetzbarkeit eines Konzeptes zur Grabenstrukturierung in Dünnschichtsolarzellen untersucht. Im konkreten handelt es sich um den Ersten von vier Strukturierungsschritten (P1). Es werden die speziellen Anforderungen an den Laserprozess und das Bearbeitungskonzept beschrieben. Ausgehend von Vorversuchen mit verschiedenen Lasergeräten werden praktische Versuche durchgeführt und entsprechend den Anforderungen ausgewertet. Daraus werden die Parameter für ein optimales Ergebnis bestimmt.
TLC-Blots sind Darstellungen, die durch Chromatographien entstehen. Sie bestehen aus einer Grundfarbe, die durch die TLC-Platte vorgegeben ist und verschiedenen andersfarbigen Punkten oder Punkthäufungen.
Diese Arbeit beschäftigt sich mit der Repräsentation eines TLC-Blots, durch ein daraus berechnetes 3D-Gebirge. Dabei werden TLC-Plots und deren Entstehung vorgestellt. Die 3D-Darstellung und Verfahren werden im Hinblick auf eine Umsetzung beschrieben.
Zugehörig zu dieser Arbeit, wurden die Erkenntnisse daraus in einem Programm implementiert.
Die einzelnen Funktionalitäten, die zu einer besseren Auswertung führen bilden die Grundelemente hierfür. Sie bauen auf der 3D Repräsentation auf und werden in ihrer Umsetzung, so wie ihren Auswirkungen auf den Auswertungsvorgang beschrieben.
Das Thema der vorliegenden Bachelorarbeit ist die Herstellung von Mikrozylinderlinsen in D263T mittels Fluorlasermikrostrukturierung. Hierbei werden Flächenabträge mit verschiedenen Maskengeometrien bei unterschiedlichen Fluenzen, Pulsüberlappungsgraden und Pulswiederholfrequenzen erzeugt. Der Einfluss der einzelnen Parameter wird untersucht und ausgewertet. Die daraus gewonnenen Erkenntnisse sollen die Grundlage für weitere Untersuchungen auf dem Gebiet der Mikrolinsenherstellung mittels Fluorlasermikrostrukturierung bilden.
Ziel dieser Bachelorarbeit ist die Realisierung einer elektrooptischen Strahlweiche.
Mit elektrooptischen Modulatoren soll eine Strahlschaltung zwischen zwei Bearbeitungspunkten im Nanosekundenbereich realisiert werden.
Dabei wird das Schaltverhalten der einzelnen Komponenten sowie die Auswirkung der Modulatoren auf die räumlichen Strahleigenschaften untersucht.
Die vorliegende Arbeit beschäftigt sich mit der Analyse der Lehreinheiten “Softwaretechnik-Grundlagen“ und “Softwaretechnik-Projekt“ an der Hochschule Mittweida, sowie mit den Möglichkeiten zur Modernisierung und Umgestaltung dieser. Der erste Teil enthält Erläuterungen zu ausgewählten Grundlagen der Softwaretechnik für das spätere Verständnis. Darauf folgt eine Analyse des Ist–Stands der Vorlesungen, sowie der Praktika der genannten Module. Aus dieser
geht hervor, dass sich die Lehrinhalte auf dem aktuellen Stand befinden.
Darüber hinaus beinhaltet die Arbeit wichtige Vorschläge zur Umstrukturierung der Vorlesungen und leichten Umgestaltung der Praktika. Daraus geht u.a. hervor, dass es wichtig ist, die Erläuterungen zu agilen Entwicklungsmethoden wie Scrum zu erweitern und die Vorlesungen mit guten Beispielen und Grafiken aufzulockern. Zusätzlich liegt ein überarbeitetes Praktikum zum Thema “Testen mit JUnit in der Entwicklungsumgebung Eclipse“, inklusive Musterlösung bei, welches auf 90 min ausgelegt ist.
Diese Arbeit befasst sich mit der Konzeption und der prototypischen Umsetzung eines webbasierten Condition Monitoring Tools für ein Ortungssystem. Inhalt ist die theoretische Grundlagenschaffung – von der Anforderungsanalyse bis zur Konzeption – sowie die Implementierung eines lauffähigen Prototyps.
Diese Bachelorarbeit befasst sich mit der Anwendung der Photogrammetrie in der Entwicklung von Echtzeit-Rendering Anwendungen. Die photogrammetrischen Methoden zur Erstellung eines 3D Modells für Echtzeit-Rendering Anwendung werden Vorgestellt und mithilfe von praktischen Tests und quantitativen Umfragen wird eine Gegenüberstellung der traditionellen Modellierungsmethode und der photogrammetrischen herausgearbeitet, um feststellen zu können, wann es sich effektiv lohnt, photogrammetrische Methoden für die Erstellung von 3D Modellen zu verwenden. Das Ergebnis der Gegenüberstellung zeigt, dass die photogrammetrische Erstellung von 3D Modellen durch die Grenzen der Software und der notwendigen Arbeitsgeräte limitiert ist. Zudem lag der Arbeitsaufwand bei den Tests zu dieser Methode, deutlich über dem der traditionellen Modellierung. Jedoch wurde die Qualität der Modelle, die mithilfe der photogrammetrischen Methode erstellt wurden, als hochwertiger eingeschätzt.
Die Arbeit beschreibt die Analyse und Optimierung der Geschäftsprozesse in einem Unternehmen, dass Artikel in der Rollladen- und Sonnenschutzbranche auf Maß fertigt. Diese Artikel können im Internet mit Hilfe von Produktkonfiguratoren bestellt werden. Innerhalb dieser Diplomarbeit wird beschrieben, wie mit Hilfe der Mittel der Softwaretechnik die vorhandenen Produktkonfiguratoren untersucht wurden und optimiert wurden. Innerhalb dieser Arbeit wird auch darauf eingegangen wie mit unterschiedlichen Java-Frameworks eine Verbindung von den Bestellungen zur Produktionsorganisation geschaffen wird. Die Produktkonfiguratoren sind mit Javascript und dem Javascript Framework jQuery entwickelt wurden und die Software für die Produktion mit Hilfe von Java Enterprise.