Refine
Document Type
- Bachelor Thesis (276)
- Diploma Thesis (155)
- Master's Thesis (98)
Year of publication
Language
- German (529) (remove)
Keywords
- Softwareentwicklung (18)
- Laserbearbeitung (11)
- Proteine (9)
- Algorithmus (8)
- Membranproteine (7)
- Mikrostruktur (7)
- Graphentheorie (6)
- Laserschweißen (6)
- Protein-Protein-Wechselwirkung (6)
- Software (6)
Institute
- 03 Mathematik / Naturwissenschaften / Informatik (529) (remove)
Diese Diplomarbeit beschreibt die Konzeption und Implementierung einer Software-Ablaufsteuerung, deren Funktionalität sich an Skriptsprachen orientiert. Es können damit speziell an diese Ablaufsteuerung angepasste Softwareprodukte, sowie allgemeine Windowsprogramme, gesteuert werden. Mit einer intuitiven Benutzersteuerung können Ablaufpläne erstellt und abgearbeitet werden. Während der Abarbeitung lassen sich alle Eingabeparameter der Programme kontrollieren. Mit Hilfe von verschiedenen Optimierungsalgorithmen können diese Parameter auch optimiert werden.
Ziel dieser Diplomarbeit ist die Abschätzung der Formaldehydimmissionen im Umkreis ausgewählter Anlagen unter besonderer Berücksichtigung des Abbaus in der Atmosphäre. In der vorliegenden Arbeit werden ein Emissionskataster für Sachsen erstellt und anschließend die Ergebnisse diskutiert. Darüber hinaus werden Ausbreitungsrechnungen für die einzelnen Anlagen durchgeführt, um die Transmission von Formaldehyd bei unterschiedlichen Witterungseinflüssen bzw. die Immissionskonzentrationen abschätzen zu können. Somit sollen mögliche Gefahren bzw. Beeinträchtigungen auf die umgebende Umwelt aufgrund des Verhaltens von Formaldehyd in der Atmosphäre evaluiert werden
Da in der Nuklearmedizin die diagnostische Bildgebung unter Verwendung eines Radiopharmazeutikums stets mit einer Strahlenexposition des Patienten verbunden ist, muss für jedes neue Radiopharmazeutikum eine Abschätzung der Strahlenexposition für dieses Präparat vorgenommen werden. Die vorliegende Diplomarbeit befasst sich mit der Abschätzung der Strahlenexposition, die durch Inkorporation des neuen Radiopharmazeutikums (-)[18F]NCFHEB entsteht. Mittels der Positronenemissionstomografie soll dieses neue Präparat zur Diagnostik bei Demenzerkrankungen eingesetzt werden. Die Abschätzung der Strahlenexposition, die durch die Anwendung dieses Radiopharmazeutikums für einen Patienten entsteht, wurde im Rahmen einer Machbarkeitsstudie anhand von drei gesunden Probanden vorgenommen. Die Bestimmungen der Organdosen und der effektiven Dosis erfolgten nach dem MIRDSchema. Die ermittelten Werte, die zur Abschätzung der Strahlenexposition dienen, wurden mit anderen 18F-Tracern verglichen. Dieser Vergleich ließ eine Aussage über den Stellenwert des Radiopharmazeutikums bezüglich der Strahlenexposition zu. Weiterhin wurde ein Vergleich der erhobenen Daten dieser Studie mit den ermittelten Daten der früheren präklinischen Studie durchgeführt. Dies ermöglicht eine Wertung der präklinischen Daten hinsichtlich ihrer Aussagekraft und ihres prädiktiven Wertes für die Verhältnisse am Menschen.
Ziel der Arbeit ist es die DNA-Isolate von Teilen der Bevölkerungsgruppen aus Ghana (Ewe) und Äthiopien (Amharen) bezüglich ausgewählter mitochondrialer Single nucleotide Polymorphisms (mtSNPs) zu untersuchen. Bis zum jetzigen Zeitpunkt wurden anhand vorliegender DNA-Isolate autosomale STR- und z.T. Y-STR Analysen durchgeführt. Die Erkenntnisse aus den STR-Analysen sollen nun durch Absichten einer populationsgenetischen Studie anhand von mtDNA-Analysen an einem umfangreichen Probenset durchgeführt werden. Das mtSNP-System, sowie die Durchführung basieren auf Teilinformationen der Veröffentlichung von Paneto et al. aus dem Jahr 201 1. Die Auswertung der mtSNP-Profile erfolgt mittels eines bereits publizierten Multiplexsystems zur Haplogruppenklassifikation
Ziel dieser Arbeit ist es eine Entscheidung zur Entwicklung einer mobilen Erfas-sungssoftware für das Facility Management System GEBMan 10 zu treffen. Dabei stehen zum einen die Adaptierung derbereits entwickelten Software GEB-Man Mobil 3, zum anderen eine völlige Neuimplementierung einer Erfassungs-software zur Wahl. Zu diesem Zweck soll die bestehende Anwendung GEBMan Mobil 3 inklusive aller Komponenten, sowohl unter Berücksichtigung der inhaltlichen als auch der technologischen Anforderungen an eine Erfassungssoftware, analysiert und be-wertet werden. Im Anschluss ist unter Berücksichtigung bestimmter Kriterien zu entscheiden, ob eine Anpassung der bestehenden Software oder eine Neuimplementierung eines mobilen Erfassungssystems vorzunehmen ist.
Die Ablösung der Kameralistik in den öffentlichen deutschen Haushalten ist beschlossene Sache. Abgelöst werden soll sie durch ein System, das an der doppelten Buchführung angelegt ist. Im förderalen Aufbau der Bundesrepublik ergeben sich in den einzelnen Bundesländern unterschiedliche Lösungsansätze. Deswegen sind Hersteller von branchenspezifischer Finanzsoftware für Kommunen dazu aufgefordert, ihre Software dem jeweiligen Land anzupassen. Diese Arbeit betrachtet die Gesetzlage im Freistaat Sachsen und zeigt anhand der Software OK.FIS notwendige Schritte zur Anpassung auf.
In der vorliegenden Arbeit wird die Kommunikation zwischen Steuergeräten mit Hilfe von Zustandsmodellen analysiert und auf Plausibilitäten beim Schließen von Zuständen eingegangen. Die Steuergerätebeschreibungen wurden dafür in SCXML überführt und weiterverarbeitet. Es handelt sich um keine vorherige Simulation, sondern um eine nachträgliche Analyse. Im Automobil kommunizieren viele Steuergeräte gleichzeitig über CAN-Bus miteinander, die vorher nur in kleinerem Rahmen getestet werden konnten. Inhalt dieser Arbeit ist es, Nutzen aus dabei aufgezeichneten Daten zu ziehen, um nachträglich einzelne Steuergeräte auf Fehlerzustände zu überprüfen. Dabei wird berücksichtigt, dass das Wissen über die Abläufe im Fahrzeug unvollständig ist.
Analyse der molekularbiologischen Evolution der BRCT-Domäne im Energieprofilorientierten Kontext
(2012)
Die vorliegende Arbeit liefert eine ausführliche Analyse der BRCT-Domäne. Dabei wur-de zum einen eine Zusammenfassung erstellt, in welcher diewichtigsten bisher ermittel-ten bekannten Eigenschaften und Funktionen dieser Domänezusammengetragen sind. Des Weiteren erfolgte eine Analyse der BRCT-Domäne auf Grundlage von Energieprofi-len. Der Schwerpunkt der Untersuchung lag dabei auf der Rekonstruktion evolutionärer Verwandtschaftsbeziehungen. Somit wurde zum einen überprüftin wie weit sich Ener-gieprofile auf phylogenetische Methoden anwenden lassen, wie deren Ergebnisse zu bewerten sind und in wie weit diese Ergebnisse mit bisherigen evolutionären Erkennt-nissen der BRCT-Domäne korrelieren oder sich neue Erkenntnisse daraus ergeben.
Ziel der Diplomarbeit ist es, die Verwendung von mobilen Durchleuchtungsgeräten im Operationsbereich einer Klinik zu beobachten. Dabei wird die Patientenstrahlungsdosis bei durchleuchtungsgestützten Operationen im Klinikalltag analysiert und insbesondere das Handeln des Anwenders von mobilen Durchleuchtungsgeräten betrachtet. Aus Sicht des Strahlenschutzes ist dabei die Durchleuchtung im Lendenwirbelsäulenbereich von besonderem Interesse. Die Ergebnisse der Studie zeigen Schwachstellen im Klinikalltag auf. Aufgrund dessen erfolgt die Formulierung von praktischen Hinweisen, um Strahlungsdosis zu reduzieren. Außerdem werden Funktionen an den mobilen Durchleuchtungsanlagen als Möglichkeit zur Dosisreduktion in Betracht gezogen und überprüft.
Ziel dieser Diplomarbeit ist eine kritische Analyse des Liefe-rantenwechselprozesses am deutschen Energiemarkt nach den Vorgaben der Bundesnetzagentur und dem BDEW an-hand der Integration in das Billingsystem AccountPlus. Dabei sollen die verschiedenen Nachrichten des Wechsel-prozesses untersucht und mögliche Verbesserungen auf-gezeigt werden.
Die Ingenieure in der Außengeräuschentwicklung bei BMW arbeiten derzeit mit der Fenstermethode zur Untersuchung von Teilschallquellen am Fahrzeug. Diese soll zukünftig mit einer neuen, effizienteren Methode, der Betriebstransferpfadanalyse, ersetzt werden. Mit dieser werden auch die Informationen im Frequenzbereich zugänglich und die bereits vorhandenen Erkenntnisse auf Gesamtpegelbasis müssen nun in den Frequenzbereich übertragen werden. Im Rahmen dieser Diplomarbeit soll dies für das Mündungsgeräusch der Abgasanlage geschehen. Die Entwicklung und Herstellung der Abgasanlagen findet bei den Zulieferern statt. Diese haben in Lastenheften vorgeschriebene Versuchsvorgaben, wie Sie zum Beispiel das Schalldämpfermündungsgeräusch messen sollen. Diese Messergebnisse dienen den Ingenieuren bei BMW als Entwicklungsgrundlage für die Konzeptionierung des zu erwartenden Außengeräusches neuer Fahrzeugtypen. Ziel dieser Diplomarbeit ist es, die Versuchsvorgaben zum Schalldämpfermündungsgeräusch so anzupassen, dass die Messergebnisse eine direkte Aussage auf die Wirkung im Fahrzeugaußengeräusch zulassen.
Ziel der Diplomarbeit ist die Analyse und Identifizierung signifikant differentiell exprimierter Sense- und Antisense-Transkripte zur Erforschung und Entwicklung geeigneter diagnostischer Tumormarker für Bauchspeicheldrüsenkrebs. Mit Hilfe des von der GenXPro GmbH entwickelten und patentierten SuperSAGE-Verfahrens können RNA-Transkripte, die sowohl aus gesundem als auch aus an Krebs erkranktem Pankreasgwebe isoliert wurden, quantifiziert und entsprechende Genexpressionprofile erstellt werden. Auf Grundlage dieser Daten sollen genetische Tumormarker entwickelt werden, wobei vor allem stark differentiell exprimierte RNA-Transkripte im Vordergrund stehen - insbesondere Antisense-RNA. Die quantitative Echtzeit-PCR (qRT-PCR oder qPCR) ist dabei ein geeignetes Mittel zum Test fluoreszens-markierter Sonden auf Eignung als Tumormarker sowie zu Validierung der SuperSAGE-Daten. Dabei wurden bekannte Verfahren wie TaqMan™ und SYBR® Green Asssays angewandt.
In dieser Bachelor-Arbeit geht es um Objekt relationales Mapping durch das Open-Source ORMFramework Hibernate. Es werden die Vor- und Nachteile der theoretischen Implementation aufgezeigt und diese an einem prototypischen Beispiel näher betrachtet und verifiziert. Ziel ist es, eine datenbankunabhängige Lösung für den Einsatz im DELECO R -Umfeld zu finden.
In der vorliegenden Bachelorarbeit wird ein Web Service API für die Megware Cluster-Managementsoftware entworfen und ansatzweise implementiert. Der REST-Architekturstil bildet dabei das Fundament des Entwurfes, auf dem das Web Service aufgebaut wird. Einen großen Stellenwert nehmen die Performance-Betrachtungen ein, um die internen Einflüsse wie Lastverteilung und Caching zu berücksichtigen
Das Ziel dieser Bachelorarbeit ist es zu analysieren, wie Gamification auf Crowdtesting Plattformen angewendet werden kann und welche Spielmechaniken sich dafür eignen.
Es werden Praxisbeispiele aus dem Bereich Crowdsourcing und –testing auf ihre Gamification-Ansätze analysiert und ausgewertet. Anhand dieser Untersuchung wird ein Gamification-Konzept für die Crowdtesting Plattform der T-Systems Multimedia Solutions GmbH erstellt.
Die vorliegende Arbeit befasst sich mit gebräuchlichen Schätzverfahren. Diese sollen analysiert und verglichen werden, um eine Empfehlung für den Einsatz eines Schätzverfahrens im Fach Softwaretechnik-Projekt abzugeben. Desweiteren sollen statistische Daten untersucht werden, die im Laufe einiger studentischer Projekte angefallen sind. Insbesondere steht dabei ein Soll-Ist-Vergleich von studentischen Aufwandsschätzungen im Vordergrund.
Der erste Teil der vorliegenden Arbeit befasst sich mit der Verbesserung der Laserprozesse bei der Herstellung organischer Solarzellen auf dünnen Schichten (Schichtdicken bis 100 nm). Verwendet werden Pikosekunden-Laser der Wellenlängen von 1030 nm und 515 nm. Für die Auswertung werden statistische Methoden angewendet, welche den Einfluss von Drittparametern berücksichtigen. Zum Finden der optimalen Laserparameter werden Testfelder verwendet. Die optimalen Ergebnisse von den Testfeldern werden am Produkt verifiziert. Die Verifizierung erfolgt durch die Auswertung von Variationen der Laserparameter und der elektrischen Parameter, die von funktionsfähigen Solarzellen ermittelt werden. Der zweite Teil ist die Untersuchung der Laserbearbeitung eines neuen Elektrodenmaterials. Es wird der optimale Parametersatz ermittelt und es werden die Auswirkungen von Abweichungen an elektrisch funktionierenden Modulen, welche mit verschiedenen Laserparametern bearbeitet wurden, untersucht.
Durch Genexpressionsexperimente anModellorganismen versucht man das Genomund die Reaktion des Genoms auf äußere Einflüsse zu erforschen.
Chemikalien sind in der Lage die Expression des Genoms zu beeinflussen. Durch die Experimente ist es möglich Rückschlüsse auf die Wirkweisen der Chemikalien auf genomischer Ebene zu ziehen. Durch derartige Chemikalienexperimente wurden in der Vergangenheit bereits große Mengen an Genexpressionsdaten erzeugt. Ein beliebter Modellorganismus für solche Versuche ist der Zebrabärbling Danio rerio, der in seiner embryonalen Entwicklung optimale Vorrausetzungen mit sich bringt. Bei ihm kann man phänotypische und genotypische Effekte der Chemikalien sehr gut beobachten, da er in diesem Zeitraum transparent ist und diese Phase nur fünf Tage anhält.
Anhand des Zebrabärblings soll erforscht werden, ob gleichartige Chemikalien auf genomischer Ebene ähnliche Wirkweisen besitzen und sich in Gruppen zusammenfassen lassen. Desweiteren stellt sich die Frage, ob es eine allgemeine (Gegen)Reaktion auf den Einfluss der Chemikalien gibt, welche auf genomischer Ebene sichtbar wird. Dazu werden Genexpressionsdaten aus cDNA-Microarrayexperimenten verwendet, die in den Datenbanken des NCBI und EBI abgespeichert sind. Nachdem geeigenete Experimentaldaten ausgewählt wurden und auf ihre Qualität geprüft, wurden diese einer vereinheitlichten statistischen Analyse unterzogen. Die Ergebnisse dieser statistischen Analyse wurden untereinander auf identisch differentiell exprimierte Gene verglichen.
Durch vereinheitlichte, allgemeine Analyse konnten Hinweise erbracht werden, dass es auf genomischer Ebene eine Antwort- und Gegenreaktion auf die Chemikalien gibt. Durch den Vergleich konnten 22 Gene ermittelt werden, die für das Binden und den Abbau der eingesetzten Chemikalie verantwortlich sind und experiementübergreifend auftraten.
Die Hardware-Virtualisierung bietet neue Ansätze für die Realisierung von Hochverfügbarkeitskonfigurationen. So lassen sich auf der Basis von virtuellen Maschinen (VM) vorhandene Ressourcen wesentlich zielgerichteter und flexibler verteilen. Kombiniert man diese mit ausfallverringernden Mechanismen auf Applikationsebene (z. B. Applikationscluster), so können damit hochverfügbare Dienste zu erheblich reduzierten Kosten realisiert werden. Ziel der Diplomarbeit ist es, auf Grundlage unterschiedlicher realer Einsatzszenarien sinnvolle Topologien zu entwickeln, die einerseits eine hohe Verfügbarkeit gewährleisten, aber andererseits auch ökonomischen Randbedingungen genügen.
Ovarialkarzinome weisen häufig Mutationen innerhalb des Tumorsuppressorgens p53 auf, auf die das menschliche Immunsystem mit Autoantikörpern reagiert. Aber nicht alle Patienten bilden diese Autoantikörper. Warum das so ist, haben Forscher noch nicht herausgefunden. Diese Arbeit versucht eine Korrelation zwischen Immunzellpopulationen und Autoantikörper-Status zu finden.
Diese Bachelorarbeit mit dem genannten Thema beschäftigt sich mit der Analyse von Transkriptionsfaktoren. Das sind DNA - bindende Proteine, welche die Stärke der Transkription beeinflussen können und somit positive als auch negative Auswirkungen auf die Genexpression haben. Die meisten solcher Bindestellen befinden sich im Bereich -500 bis 100 bp relativ zur Startstelle der Transkription. Außerdem findet ein Vergleich dieser regulatorischen Regionen zwischen den Spezies Mensch, Maus und Ratte statt. Dieses Verfahren wird phylogenetisches Footprinting genannt.
Ziel der Bachelorarbeit ist es, Kraft-Abstands-Kurven zu analysieren und auszuwerten, um somit Aussagen über die Kräfte zu bekommen, welche bei der Zelladhäsion wirken. Daher wurden zuerst die Kräfte analysiert und mittels Histogrammen ausgewertet. Aufgrund der Tatsache, dass der Verlauf der Kraft-Abstands-Kurven einen Einfluss auf die Kräfte hat, soll im zweiten Schritt eine Funktion gefunden werden, die diesen Verlauf bestmöglich beschreibt.
Ziel der Bachelorarbeit ist es, die Relevanz von Dokumenten innerhalb von Geschäftsprozessen anhand eines verbreiteten Anwendungsfalls zu verdeutlichen. Dazu wird neben der Thematik Enterprise-Content-Management auch auf die Möglichkeiten einer Anbindung solcher Systeme an Unternehmenslösungen eingegangen. Im Vordergrund steht dabei eine effiziente Integration von Dokumentenmanagement in bestehende Arbeitsabläufe.
Diese Arbeit beschäftigt sich mit der Erstellung von Stundenterminpreiskurven für den rumänischen Strommarkt. Nach einem kurzen Überblick über den rumänischen Strommarkt wird der Aufbau des Spotpreis-basierten Mehr-Faktor-Modells erklärt. Für die deterministische Kurve werden verschiedene Verfahren verglichen und getestet. Anschließend wird das Mehr-Faktor-Modell auf ein Zwei-Faktor-Modell spezifiziert. Für die Parameterschätzung wird die Einbettung des Kalman-Filters in die Maximum-Likelihood-Optimierung erklärt. Diese Arbeit dient dem Unternehmen OMV Gas & Power GmbH als wissenschaftliche Grundlage zur Erstellung und Simulation stündlicher Forward-Kurven für den rumänischen Strommarkt.
Ziel der Diplomarbeit ist es, ein Verfahren zur Modellanpassung für Wahrscheinlichkeitsdichtefunktionen zu entwickeln und dieses an simulierten Daten zu testen. Dabei stellt sich die Frage, ob klassische statistische Verfahren zur Prüfung von Unterschieden zwischen Dichtefunktionen ausreichen, um die Modelle zu unterscheiden. Der Kolmogorov-Smirnov-Anpassungstest liefert eine globale Bewertung der empirischen Verteilungsfunktionen. Dadurch wird schon bei kleinen Störungen der Realisierungen einer Zufallsgröße das vorliegende Modell nicht mehr als dieses erkannt. Über das Verfahren der Faltung wird eine integrale Analyse von empirischen Verteilungsfunktionen geschaffen, um somit die Robustheit gegenüber Störungen zu erhöhen und die Modellzuordnung sicherer zu gestalten. Bekannte klassische Verteilungsfunktionen werden in die Modellbetrachtungen einbezogen. Zum Schluss werden die erarbeiteten Verfahren auf reale Datensätze angewandt.
Die vorliegende Arbeit gliedert sich in zwei Themengebiete. Im ersten Teil wurden anaerobe, thermophile, lignocellulolytische Mikroorganismen aus dem Thermalsee Héviz in Ungarn mit Weizenstroh angereichert, wobei der Abbau des Strohs mit verschiedenen analytischen Methoden verfolgt wurde. Der zweite Teil der Arbeit beschäftigt sich mit der Abschätzung der Zellzahl von Eisenoxidierern, sowie Eisen- und Sulfatreduzierern in drei verschiedenen Laborreaktoren mittels der „Most probable Number“-Methode
Ziel der Diplomarbeit ist es zum einen die Schallausbreitung im akustischen Wellenleiter (Kundtsches Rohr) unterhalb der ersten Quermode mit der Software MATLAB zu modellieren. Zum anderen werden Algorithmen zur Umsetzung eines einkanaligen, feedforward Antischallsystems vorgestellt und bewertet. Weiterhin ist die messtechnische Ermittlung der Schalldruckpegelminderung im Kundtschen Rohr, in Abhängigkeit vom Phasen- und Amplitudenfehler, Gegenstand dieser Arbeit. Abschließend wird auf die Verwendbarkeit des AD/DA-Wandlers Fireface 800 in einem Antischallsystem eingegangen.
Ziel der Diplomarbeit ist es zu untersuchen, wie hoch der Bekanntheitsgrad, die Akzeptanz, der Einsatzgrad und die Handhabbarkeit des von der Bildungsportal Sachsen GmbH bereitgestellten Lernmanagement-Systems OPAL, das vom Land Sachsen und der Hochschule Mittweida bereits seit Gründung der Gesellschaft im Jahr 2004 finanziell gefördert wird, an der Hochschule Mittweida ist. Es soll erläutert werden, welche Möglichkeiten bestehen, diese Aspekte zu fördern und auszubauen.
Diese Bachelorarbeit befasst sich mit der Anwendung der Photogrammetrie in der Entwicklung von Echtzeit-Rendering Anwendungen. Die photogrammetrischen Methoden zur Erstellung eines 3D Modells für Echtzeit-Rendering Anwendung werden Vorgestellt und mithilfe von praktischen Tests und quantitativen Umfragen wird eine Gegenüberstellung der traditionellen Modellierungsmethode und der photogrammetrischen herausgearbeitet, um feststellen zu können, wann es sich effektiv lohnt, photogrammetrische Methoden für die Erstellung von 3D Modellen zu verwenden. Das Ergebnis der Gegenüberstellung zeigt, dass die photogrammetrische Erstellung von 3D Modellen durch die Grenzen der Software und der notwendigen Arbeitsgeräte limitiert ist. Zudem lag der Arbeitsaufwand bei den Tests zu dieser Methode, deutlich über dem der traditionellen Modellierung. Jedoch wurde die Qualität der Modelle, die mithilfe der photogrammetrischen Methode erstellt wurden, als hochwertiger eingeschätzt.
Inhalt dieser Arbeit ist der Aufbau einer Anlage zur Bestrahlung von Zellen im in vitro Bereich. Unter Berücksichtigung der biologischen Anforderungen wurde ein Gerät konstruiert, elektronische Mess- und Ansteuerungsschaltungen gebaut und in einem System zusammengefasst. Anschließend wurde die Anlage unter Laborbedingungen getestet und in zwei Versuchen zur Photodynamischen Krebszelltherapie angewendet
In der Vitalmikroskopie werden Sauerstoffsensoren genutzt, um Zellen mikroskopieren zu können und Umgebungsparameter, wie z.B. den Sauerstoffgehalt, überwachen zu können. Ziel der Arbeit ist die Entwicklung eines automatisierten Messplatzes zur Bestimmung anwenderspezifischer Kennwerte solcher Sensoren. Dazu muss einerseits ein reproduzierbares Messregimes gewährleistet sein und andererseits muss eine Software entwickelt werden um den Messplatz zu steuern.
Ziel der Bachelorarbeit ist es, eine Webanwendung für den biotechnischen Bereich der Hochschule Mittweida zu entwickeln. Dabei sollen errungene Kenntnisse und Tools aus der bioinformatischen Bibliothek für Forschung und Lehre bereit gestellt werden. Der Aufbau eines Servers mit einer nutzerfreundlichen Oberfläche steht dabei im Vordergrund. Unter Berücksichtigung dieser Zielstellung werden zuerst die benötigten Tools aufbereitet und für die Integration in die Anwendung angepasst. Danach wird ein passendes Interface für die Dateneingabe erzeugt. Zum Schluss werden die Ausgaben der Tools für den Nutzer aufbereitet und dargestellt.
Die Ingenieure der Abteilung Außengeräusch der BMW AG sind für die Kontrolle und Überwachung gesetzlicher Ziele des Außengeräuschs für Serienfahrzeuge und für neue, in der Entwicklung befindliche, Fahrzeuge verantwortlich. Dafür
werden derzeit aufwendige Vorbeifahrtmessungen durchgeführt. Da die Abgasanlage eine der Hauptgeräuschquellen am Fahrzeug darstellt, kann über Änderungen Einfluss auf das Vorbeifahrtgeräusch genommen werden. In Zukunft sollen die zeit- und kostenaufwendigen Vorbeifahrtmessungen auf ein
Minimum reduziert und Änderungen an Abgasanlagen im Prüfstand mit Blick auf die Vorbeifahrt bewertet werden.
In dieser Arbeit werden die grundsätzlichen Randbedingungen und Eigenschaften eines solchen Prüfstandes geklärt und bewertet.
Ziel der Diplomarbeit ist es, sich mit dem Aufbau und Funktionsweise der Hochgeschwindigkeitskamera HSFC-pro vertraut zumachen und diese im Einsatz zu erproben. Ein Hauptproblem bei kurzzeitaufgelösten Visualisierung besteht in der Synchronisation zwischen Kamera und dem zu untersuchenden Prozess. In der Arbeit wurden zwei Lösungsmöglichkeiten besprochen und praktisch bei der Beobachtung laserinduzierter Prozesse angewandt.
Aktive Systeme zur Schallfeldbeeinflussung (ANC-Systeme) basieren auf dem Interferenzeffekt während der Ausbreitung von Schallwellen . Die Schallemissionen von Blockheizkraftwerken (BHKW), wie sie zunehmend bei der dezentralen Energieversorgung in Gebäuden eingesetzt werden, stellen eine Herausforderung an den Schallschutz dar. Der Einsatz von ANC-Systemen ist für diese Problemstellung erfolgversprechend. Um die dominierenden, tieffrequenten Anteile im Spektrum der Abgasgeräusche von Verbrennungsmotoren zu minimieren, wurde ein Demonstrator eines aktiven Schalldämpfers entwickelt. Dabei wurde der Einfluss der Mikrofonpositionen im Abgasrohr sowie von Parametern innerhalb des Adaptionsalgorithmus auf die Einfügungsdämpfung und die Stabilität des ANC-Systems untersucht.
Aufreinigung fermentativ hergestellter Milchsäure unter dem Aspekt der Polymilchsäure-Herstellung
(2011)
Gegenstand dieser Diplomarbeit ist ein Prozessschritt bei der Aufarbeitung
einer milchsäurehaltigen Fermenterbrühe. Dazu werden in der Literatur
beschriebene und von Herstellern empfohlene Anionenaustauscher auf ihre
Eignung untersucht.
Um Einflüsse bestimmter organischer Säuren, Ammoniumulfat,
Ammoniumlactat und Zucker auf die Milchsäurequalität zu untersuchen, werden
definierte Mengen davon zugesetzt (Spiking) und anschließend Lactid-Tests
durchgeführt.
Der Kunststoff Polymilchsäure (PLA), der aus Milchsäure gewonnen wird, soll
Polymere auf Erdölbasis ersetzen. Die Reinheit der biotechnologisch
hergestellten Milchsäure hat direkten Einfluss auf Wirtschaftlichkeit und Qualität
beim PLA-Prozess.
Diese Arbeit beschäftigt sich hauptsächlich mit Vorgehensweisen und Konzepten zum automatischen Testen von Web- und Desktopanwendungen. Es wird dabei allerdings auch auf das allgemeine Auslieferungs- und Testmanagement von Software eingegangen. Dazu gehören unter anderem der Ablauf des Auslieferungsprozesses, Einführung zum Testen von Software oder verschiedene Testmethoden.
Das Ziel der Arbeit besteht in der Auswahl, Konzeption und Implementierung eines geeigneten Verfahrens zur Pfadberechnung und Kollisionsvermeidung in einem 3D-Simulations-System zur Planung und Visualisierung menschlicher Arbeit. Dabei werden verschiedene Datenstrukturen und Algorithmen anhand ihrer Laufzeit und ihres Speicherbedarfs untersucht. Im Anschluss werden die für geeignet befundenen Datenstrukturen und Algorithmen für die Implementierung eines Systems zur Pfadndung verwendet.
In dieser Arbeit werden die Auswirkungen des Probentransportes von Warmwasser auf die mikrobiologischen Analyseergebnisse für Legionellen erläutert. Dazu werden entsprechende Grundlagen zur Legionellenproblematik, Vergleiche mit der Norm zum Probentransport, die experimentelle Durchführung und anschließend Ergebnisse der Untersuchungen aufgeführt. Die Ergebnisse werden wissenschaftlich ausgewertet, eine Datengrundlage für die bestehenden Normen erstellt und Empfehlungen für zukünftige Untersuchungen beschrieben.
Mappings werden überall dort eingesetzt, wo eine Zuordnung von Wertepaaren benötigt wird. Wenn dies oft und nach gleichen Mustern geschieht, dann ergibt sich eine Optimierungsmöglichkeit, die durch Automatisierung gelöst werden kann. Hier setzt die vorliegende Arbeit an. Es wird ein Konzept für die automatisierte Generierung von Mappings, in einem Softwareprojekt der Firma Innovations Software Technology GmbH, entwickelt. Anschließend wird das Konzept als Prototyp eines Mapping-Werkzeugs realisiert.
Automatisierung von Arbeitsabläufen im Bereich Lohn- und Gehaltsabrechnung auf Basis von P&I LOGA
(2012)
In der vorliegenden Arbeit sollen Möglichkeiten analysiert werden, wie Abrechnungsläufe und andere Arbeiten im Umfeld der Lohn- und Gehaltsrechnung mit P&I LOGA optimiert werden können. Hierzu wird mit dem Modul P&I LOGA Batch-Jobs eine Jobsteuerung eingeführt. Diese wird im Verlauf der Arbeit eingerichtet und an die Bedingungen bei der Dölle Informationssysteme GmbH angepasst. Außerdem wird eine Software konzipiert und implementiert, mit welcher die Verwaltung von Jobs einfacher durchgeführt werden kann und die Nutzung von Skripten innerhalb eines Jobs ermöglicht wird.
Ziel der Diplomarbeit ist es, eine generische Schnittstelle für das Monitoring von Anwendungen zu definieren und als Prototyp umzusetzen. Zuerst wird auf die Themen Monitoring und Simple Network Management Protocol (SNMP) eingegangen. Anschließend werden die für die Schnittstelle benötigten Dateien definiert. Im vorletzten Punkt erfolgen die Beschreibung der Umsetzung und die Dokumentation des erstellten Skriptes. Am Schluss dieser Arbeit wird kurz an einem Beispiel die Funktionalität der Schnittstelle nachgewiesen.
Die vorliegende Arbeit befasst sich mit der systematischen Körperschallbe-schreibung eines Klimageräts für Schienenfahrzeuge.Dazu wurde die eingetragene Körperschallleistung zunächst durch einen Quellterm und eine Koppelfunktion beschrieben. Anschließend konnten mit Hilfe des Übertragungsverhaltens der Struktur Kenngrößen am Systemausgang ermittelt werden. Im letzten Teil wurden Möglichkeiten zur Minderung des Körperschalls für diese Struktur unter-sucht.
Ziel dieser Arbeit ist es die Genauigkeit der Vereinfachung für die Bestimmung des Schalldämm-Maßes für den Schalleinfallswinkel von 45°, anstelle eines diffusen Schalleinfalls, zu prüfen. Dazu wurde zunächst nach einer Möglichkeit gesucht ein dif-fuses Schallfeld mittels FE-Modellen nachzubilden. Auf Grundlage dieser Untersu-chungen wurde dann das Schalldämm-Maß einer Wand vergleichsweise für ein diffuses Schallfeld und einer einfallenden Welle von 45 ° bestimmt.
In dieser Arbeit wird untersucht, inwiefern die Strahlformung von Femtosekundenlaserstrahlung im Zusammenhang mit der Maskenprojektion möglich ist. Es werden die etablierten Strahlformer anhand einheitlicher Kriterien untersucht und bewertet. Zusätzlich werden erste Abtragsversuche durchgeführt, bei denen verschiedene Strahlformer zur Beleuchtung der Maskenebene verwendet werden.
Mit der Installation eines Linearbeschleunigers in einer klinischen Einrichtung müssen für das Planungssystem strahlenphysikalische Basisdaten mittels dosimetrischer Verfahren aufgenommen werden. Bestandteil der vorliegenden Arbeit sind zunächst grundlegende Erklärungen der Strahlenphysik, dosimetrischer Größen und der Gerätetechnik. Die Basisdaten setzen sich aus absoluten und relativen Dosiswerten sowie –verteilungen zusammen. Messungen erfolgten mit einem System der Firma PTW Freiburg. Daraus resultierende Ergebnisse werden in dieser Arbeit dargestellt. Desweiteren wurden Messungen am Kollimator des Beschleunigers durchgeführt. Schwerpunkte waren dabei die Penumbra für verschiedene Feldgrößen, die Leckstrahlung durch Lamellenzwischenräume und Transmission durch die Lamellen selbst. Zum Vergleich wurden die gleichen Messungen an einem anderen Kollimator durchgeführt. Abschließend wurden mit den implementierten Daten drei Bestrahlungspläne erarbeitet, die ebenfalls Unterschiede zwischen den beiden Kollimatoren aufzeigen sollen.
Die vorliegende Arbeit befasst sich mit einer neu zu entwickelnden Technologie im Bereich der Abwasseraufbereitung. Primäres Ziel ist es, die Anforderungen für einen Zusammenschluss zweier eigenständig auf dem Markt existierenden Verfahren zu ergründen. Die beiden Verfahrensstufen werden in Feldversuchen zusammengeführt. Auf deren Grundlage sind ausschlaggebende Verfahrensparameter unter verschiedenen Bedingungen zu analysieren und zu bewerten. Mit der neuartigen Verfahrenskombination soll zukünftig eine Abwasserbehandlungsanlage entwickelt werden, die im Vergleich zu anderen biologischen Verfahren mit Membranfiltrationsstufe einen geringeren wirtschaftlichen Aufwand aufweist und dennoch sehr hohe Ablaufqualitäten garantiert, die den gesetzlichen Anforderungen entsprechen. Zudem sind derzeitige Marktchancen für die neue Technologie auf industrieller und kommunaler Ebene zu untersuchen.
Es ist möglich, Graphen und Netzwerke durch Bewertung der Kanten mit Hilfe des Zentralitätsindizes Betweenness in Cluster zu zerlegen. Die Berechnung der Betweennesswerte für jede Kante eines betrachteten Graphen benötigt eine Zeit von O(n2m) für m >> n. In dieser Arbeit wird eine schnellere Methode mit einer Zeitkomplexität von O(nm) für die Berechnung eines Betweenness Rankings nach Newman und unabhängig nach Brandes vorgestellt und implementiert. Es wird ein Clusteralgorithmus nach Newman und Girvan auf Basis des Index Kanten-Betweenness und mit einer Laufzeit von O(nm2) vorgestellt und es werden verschiedene Graphen damit geclustert. Die Arbeit ist restringiert auf schlichte, ungerichtete Graphen.
In der vorliegenden Arbeit geht es um das Laserschweißen von Kupfer. Dabei wird besonders auf die Nahtqualität geachtet und der Energieverbrauch registriert. Durch die speziellen Materialeigenschaften gestaltet sich das Schweißen dieses Materials sehr schwierig deshalb ist es auch notwendig durch grundlegende Untersuchungen geeignete Prozessparameter zu finden. In dieser Arbeit werden die speziellen Eigenschaften von Kupfer hinsichtlich des Laserschweißens erläutert, geeignete Laserparameter abgeleitet und die Schweißnahtqualität bewertet. Wesentlich sind noch die Durchführung von Schweißversuchen, die Bewertung des Energieverbrauchs und die Bewertung der optischen Eigenschaften der Kupferoberfläche. Anschließend werden die Ergebnisse ausgewertet.
Clusteralgorithmen oder auch unüberwachte Lernverfahren sind eine wichtige Klasse von Verfahren des maschinellen Lernens mit numerischen bzw. nicht parametrischen Methoden.<br /> Die Bewertung der Ergebnisse dieser Verfahren ist meist jedoch dem Anwender überlassen und daher subjektiv. Damit sind die Vergleichbarkeit und die Optimierung solcher Verfahren recht schwierig.<br /> Im Rahmen der Diplomarbeit sollen Maße recherchiert werden, die dieses Problem beheben.<br /> Anschließend sollen Clusteralgorithmen implementiert und in Hinsicht auf diese Maßegetestet werden.<br />
Biconnected reliability
(2015)
Computer communication networks play a mayor role to manage data transfer and information processing. However, the components of the network may fail - by targeted attacks or by wearout. While targeted attacks are non-random, it seems appropriate to consider wearout effects as random. Further we can assume that the components fail independently. The task of network reliability is to analyze networks in respect to the functionality of the network with consideration of wearout of its components. In most cases a network is considered as functional if a selected set of terminals can communicate. ...
Ziel der Masterarbeit ist es einen Überblick über die freie Bibliothek „BioJava“ zu erstellen und diese dann exemplarisch in einen Tool für die Forschung und Lehre darzustellen. Die Reduzierung des Arbeitsaufwandes bei der Verarbeitung biologischer Daten soll durch das entstehende Tool minimiert werden. Durch den Einsatz in der Lehre sollen die Studentinnen und Studenten eine Grundlage erhalten für den Umgang mit wissenschaftlichen Daten. Der Einsatz moderner Technolgien soll zudem gewährleisten, dass das Tool viele Jahre eingesetzt werden kann.
Die vorliegende Bachelorarbeit befasst sich mit dem Thema, ein besseres Verständnis über den strukturellen Aufbau von Transmembranproteinen zu erlangen. Durch eine intensive Recherche über den biologischen, chemischen und physikalischen Hintergrund von Aminosäuren ist ein zusammengefasstes Grundwissen entstanden, welches in der Lage ist die Bindungseigenschaften und somit auch die Position dieser Aminosäuren in den Proteinen zu erklären. Mit Hilfe der CSU-Analysis vom Weizmann Institut of science wurden diese Kenntnisse an bekannten Transmembranproteinen zielbewusst überprüft. Die daraus resultierenden Ergebnisse zeigten, dass die Eigenschaften der Aminosäuren zur Stabilität dieser untersuchten Transmembranproteine beitragen. Eine weitere Bestätigung dieser Resultate lieferte die abschließende Überprüfung des Musters „AA2-AA3“ welches in Transmembranproteinen die häufigsten Interaktionen eingeht.
Bioprozessentwicklung für die Gewinnung von Isocitronensäure mit der Hefeart Yarrowia lipolytica
(2010)
Das Hauptziel der Bachelorarbeit bestand in der Entwicklung eines umweltverträglichen Verfahrens zur Produktion von D-threo-Isocitronensäure unter Verwendung genetisch modifizierter Hefen, insbesondere des Stammes Yarrowia lipolytica H222-S4 (p67ACO1)T1. Isocitronensäure weist ein großes Anwendungspotenzial als Synthesebaustein, in der Medizin und Kosmetik auf. Enzymatisch kann sie allerdings nur in sehr geringen Mengen gewonnen werden. Die Syntheseleistung der Hefeart Y. lipolytica bietet das Potenzial Isocitronensäure in hohen Produktkonzentrationen für die vielfältigen Applikationen zur Verfügung zu stellen. In einem 1,0-l-Bioreaktorsystem erfolgte die Untersuchung des Einflusses der Prozessparameter pH-Wert und der Gelöstsauerstoffkonzentration. In Schüttelkolbenkultivierungen wurde ein Substratscreening durchgeführt und der Einfluss der Eisenkonzentration im Medium getestet.
Die zugrunde liegenden Arbeiten hatten die Steigerung der Synthesekapazitäten von n-Butanol in Arxula adeninivorans zum Ziel.
Da der Wirtsorganismus n-Butanol als exklusive Kohlenstoffquelle nutzen kann, sind Arbeiten zur Reduzierung des Butanolkatabolismus notwendig. Zu diesem Zweck wurde das Gen für eine der Aldehydehydrogenasen von A. adeninivorans ausgewählt, um diese durch homologe Rekombination zu deletieren. Zur Untersuchung des Transformationserfolges wurde eine Charakterisierung der Transformanden durchgeführt. Eine Validierung erfolgte durch Duplex-PCR und n-Butanolver-brauchsmessungen mittels GC/MS.
In dieser Arbeit wurde die Interaktion der Proteine Tau und SUMO untersucht. Für die Charakterisierung wurde zuerst die Methode der Bimolekularen Fluoreszenzkomplementation für das untersuchte System eingeführt, bei der ein geteiltes fluoreszierendes Protein durch eine Interaktion von Proteinen vervollständigt wird und ein Signal durch mikroskopische Auswertung detektiert werden kann. Nach verschiedenen Tests zur Funktionalität der Methode erfolgten Lokalisationsuntersuchungen der Proteine während einer Interaktion und bei alleiniger Expression in der Zelle.
Die vorliegende Arbeit beschäftigt sich mit der Textanalyse biologisch relevanter Texte. Es geht darum Informationen und relevante Relationen aus diesen Texten zu extrahieren. Dies geschieht zunächst manuell und im Anschluss mit dem Programm antconc 3.2.1w maschinell. Anschließend wird mit dem Themengebiet Wissenslandkarten eine mögliche Form der Darstellung solcher Informationen und Zusammenhänge vorgestellt. Die nötigen Arbeitsschritte für die Erstellung einer solchen Wissenslandkarte werden näher beleuchtet, sowie deren Aufgaben, Ziele und Anwendungsgebiete dargestellt. Es wird auf die verschiedenen Arten von Wissenslandkarten erläutert und auf Vor- und Nachteile eingegnagen, die sich aus einer solchen Form der grafischen Darstellung ergeben. Desweiteren werden verschiedene Softwaretools vorgestellt, die die Erstellung einer Wissenslandkarte unterstützen können.
In der vorliegenden Arbeit werden SAOS-2 Zellen, welche auf mikrostrukturierten und ta-C beschichteten Objektträgern adhärierten, anhand von Fluoreszenzmessungen untersucht. Die Identifizirung möglicher Einflussfaktoren auf die Proliferation und Adhäsion der Zelllinie durch mikrostrukturierte undteilbeschichtete Glasobjektträger wird unter Verwendung des Cell Titer Blue Assays und der digitalen Bildverarbeitungs-software CellProfiler untersucht.
Das Alter von Mineralen lässt sich mit der thermisch und optisch stimulierten
Lumineszenz, sowie durch Radiofluoreszenz bestimmen. Bei der Entwicklung einer
neuen Generation von Messgeräten wird angestrebt, alle drei genannten Methoden der Fluoreszenzdatierung in einem Gerät verfügbar zu machen und dabei ortsaufgelöste Messungen an Proben und die Charakterisierung von einzelnen Körnern zu ermöglichen. Dadurch steigen auch die Anforderungenan die für die Messung eingesetzten Strahlungsquellen, insbesondere bezüglich der Homogenität des Strahlungsfeldes am untersuchten Probematerial. In der vorliegenden Arbeit werden Designkriterien für eine geeignete Strahlungsquellediskutiert. Es wurden verschiedene Methoden zur Charakterisierung des Strahlungsfeldesdieser, auf dem Isotop Sr-90 beruhenden, Betaquelle entwickelt und erprobt. Es zeigte sich, dass die Methode der Filmdosimetrie geeignet ist, um auf einfache und reproduzierbare Weise das Strahlungsfeld der vorliegenden Quelle zu charakterisieren. Für eine sichere Montage der Strahlungsquelle, ihrer Handhabung, Anwendung und Lagerung wurden geeignete Strahlenschutzmaßnahmen realisiert sowie Messungen und Abschätzungen zur Strahlenexposition vorgenommen.
In dieser Arbeit wurden die zwei isothermalen Amplifikationsmethoden Recombinase Polymerase Amplification und Loop-mediated isothermal amplification hinsichtlich ihrer Anwendung in einem diagnostischen Teststreifensystem analysiert. Des Weiteren wurden die Bindungseigenschaften des Proteins RecA untersucht, um dieses zur Hybridisierung einer Sonde in ein amplifiziertes Produkt zu nutzen. Dadurch soll die Spezifität der Amplifikationsmethode erhöht werden.
In dieser Arbeit wird die Klasse der Chordalen Graphen vorgestellt. Dafür werden zunächst einige Grundlagen zu den Chordalen Graphen vorgestellt wie wichtige Definitionen, Eigenschaften, einige Sätze zu dieser Graphenklasse und ein Überblick über wichtige Literatur. Anschließend wird beschrieben, wie man Chordale Graphen erkennen kann und mit welchen anderen Graphenklassen sie im Zusammenhang stehen. Abschließend wird noch auf zwei der bekanntesten Algorithmen für Chordale Graphen eingegangen.
Ziel der vorliegenden Arbeit war die molekularbiologische Untersuchung des loss of heterozygosity (LOH) in drei Tumorsuppressorgene der Fanconi Anämie (Fanc G, Fanc F und Fanc J). Das Hauptaugenmerk lag dabei auf der Prüfung einer prognostischen Relevanz dieser Gene, um in Zukunft den Weg für die Entwicklung eines verbesserten kausalen Therapiekonzeptes für Patienten mit einem Plattenepithelkarzinom in der Mundhöhle zu ebnen. Mit Hilfe einer Mikrosatellitenanalyse wird eine Multiplex-PCR zur Feststellung eines LOH etabliert. Die daraus resultierenden Amplifikate werden anschließend einer kapillarelektro-phoretischen Fragmentanalyse unterzogen, sodass im Folgenden die für die LOH-Berechnung wichtigen Elektropherogramme ausgewertet werden können. Unter Verwendung von statistischen Analyseverfahren liefert ein LOH in den Genen Fanc G und Fanc F möglicherweise das Potential, als prognostischer Marker zu dienen. Auch der Ansatz der Verwendung der Mikrosatelliteninstabilität als prognostischen Marker könnte eine potentielle Relevanz besitzen. Weiterführende Analysen sind allerdings erforderlich.
In der vorliegenden Bachelorarbeit wird erläutert, wie die Erstellung einer firmeninternen Software für eine Werbeagentur realisiert werden kann. Dabei werden die speziellen Anforderungen am Beispiel der Firma Schach&Matt GmbH betrachtet. Mit der zu erstellenden Software wird der Firma ein Instrument in die Hand gegeben, die es ihr ermöglicht, noch effektiver die zur Verfügung stehende Arbeitszeit zu nutzen. Als Schwerpunkt soll die Erstellung von Dokumenten und die Integration von Modulen beleuchtet werden.
Seitdem die de novo Gensyntese es vergleichsweise kostengünstig ermöglicht Gensequenzen außerhalb eines Organismus künstlich nach Wunsch zu erstellen, bieten sich viele neue Möglichkeiten der individuellen Gestaltung und Optimierung. Besondere Bedeutung wird dabei der aus dem degenerierten Code der DNA resultierenden Codon Usage zugeschrieben. Als Codon Usage bezeichnet man die unterschiedliche Präferenz für bestimmte Codons pro Aminosäure durch verschiedene Organismen. Ist die Codon Usage bei einer heterologen Expression nicht an den Zielorganismus angepasst, kann dies unterschiedliche Effekte haben. Es soll gezeigt werden welchen Einfluss die Codon Usage auf eine solche Expression haben kann, zum einen mit besonderem Fokus auf den Vergleich optimierter Versionen für E.coli K12 von verschiedenen Gensynthese Anbietern und zum anderen mit Fokus auf das zweite Codon des Open Reading Frames (ORF) und seine möglicherweise besondere Bedeutung.
Die vorliegende Arbeit befasst sich mit einem relativ jungen Gebiet innerhalb der angewandten Mathematik, dem Compressed Sensing. Darin geht es zum einen um die Frage, wie man einen dünn besetzten, hochdimensionalen Vektor durch lineare Projektionen in seiner Dimension reduzieren kann, ohne dass dabei Information verloren geht. Dieses "Sensing"-Verfahren ist nicht-adaptiv, d.h. es soll für jeden dünn besetzten Vektor mit der gleichen Anzahl von null verschiedener Elemente gleichermaßen funktionieren und auch nicht während des Prozesses auf bereits berechnete Projektionen zurückgreifen. Zum anderen geht es um die Rekonstruktion des dünn besetzten Vektors aus diesen Projektionen, welche wesentlich weniger in der Zahl sind, als die Dimension des gesuchten Vektors. Das führt auf ein unterbestimmtes lineares Gleichungssystem, das zunächst unendlich viele Lösungen hat. Zusammen mit der Forderung der Dünnbesetztheit an die Lösung führt dies auf ein NP-schweres kombinatorisches Optimierungsproblem. Die Theorie von Compressed Sensing bietet nun Antworten auf die Fragen, wann dieses Problem l¨osbar ist und wie man es mit effizienten Verfahren der Optimierung praktisch lösen kann. Ziel dieser Arbeit ist es, einen einführenden Überblick in das Sparse Reconstruction Problem zu geben und eine Auswahl wichtiger theoretischer Resultate zu präsentieren. Dabei wird zum einen die konvexe Relaxation des NP-schweren Problems betrachtet, welche mit Methoden der konvexen Optimierung effizient gelöst werden kann. Zum anderen werden schnelle Approximationsverfahren betrachtet, welche das kombinatorische Problem direkt approximativ lösen. Dabei wird sich auf eine Auswahl beschränkt, die keinen Anspruch auf Vollständigkeit erhebt, da es kurz nach Etablierung der Theorie eine wahre Explosion an Veröffentlichungen auf diesem Gebiet gab. Dennoch werden die wichtigsten Resultate und Ansätze präsentiert und durch simulative Berechnungen bestätigt und illustriert, wobei die präsentierten Verfahren zum großen Teil selbst implementiert wurden.
Die Altersbestimmung von Blutspuren kann wichtige Hinweise zum Tathergang und dessen Rekonstruktion liefern. Gegenwärtige Methoden dafür sind oft aufwändig und teuer. In dieser Arbeit wird eine Laborstudie vorgestellt, welche die Grundlage für eine neue computergestützte Methodik bereitstellt. Dabei dienen die Konzentrationen verschiedener Blutbestandteile, die morphologischen Veränderungen und die variierenden Farbinformation der Blutspur über die Zeit als Datengrundlage. Der ermittlungsrelevante Alterungsprozess wurde in dieser Studie mittels mikroskopischer und spektroskopischer Aufnahmen untersucht. Die zeitkorrelierten Merkmalsänderungen sollen zukünftig für die computergestützte Auswertung einen sogenannten Featurevektor zur Verfügung stellen, der als Grundlage für einen Altersbestimmungsschlüssel dienen soll. Die Suche nach diesen Features ist Kern dieser Arbeit. Es konnte beobachtet werden, dass es in den ersten eineinhalb Stunden vor allem morphologische Veränderungen gibt. Danach tritt die Farbänderung des Blutes als entscheidendes Merkmal in den Vordergrund, die bis zu einem Zeitraum von mindestens 3 Wochen nachweißbar ist. Als bestgeeignetes Feature hat sich jedoch das Verhältnis der Hämoglobinderivate über die Zeit herausgestellt, dass in darauf aufbauenden Experimenten weiter untersucht werden soll. So kann die nach dem Zurücklassen eines Blutfleckes verstrichene Zeit schon vor Ort ohne die Hilfe von Labormaterial bestimmt werden.
Die vorliegende Arbeit befasst sich mit der hierarchischen Partitionierung von Hypergraphen, die im Prozess der Chipentwicklung durch Netzlisten einer integrierten Schaltung entstehen. Das Problem der Partitionierung ist dabei NP-schwer, sodass Heuristiken für die entsprechende Partitionierung verwendet werden. Erschwerend kommt hinzu, dass die Hypergraphen meist eine große Ordnung, mehr als 10^5 Knoten, aufweisen. Ziel dieser Arbeit ist es, ein Modell für eine derartige Partitionierung zu erstellen, welches Resultate aus vorangegangenen Arbeiten berücksichtigt und die Platzierung der Elemente des integrierten Schaltkreises im Fokus hat. Des Weiteren wird die Tauglichkeit vorhandener Algorithmen auf die erwähnte Modellierung geprüft, weiter werden vorhandene Algorithmen modifiziert und eigene Algorithmen konzipiert. Dabei wird darauf geachtet, dass die Algorithmen auf Hypergraphen mit großer Ordnung anwendbar sind. Diese Algorithmen werden dazu auf Hypergraphen des Benchmarks "ISPD 05/06" angewandt.
Diese Masterarbeit befasst sich mit der Entwicklung einer Knowledge Base für die Integration von biologischen Daten des Forschungsprojekts CyanoFactory. Ziel des Projekts ist die Verbesserung der Wasserstoffproduktion von Cyanobakterien, speziell vom Modellorganismus Synechocystis sp. PCC 6803. Als Basis für diese Knowledge Base soll ein Data Warehouse verwendet werden. Mehrere existierende Data Warehouse-Systeme für biologische Daten werden vorgestellt, evaluiert und eines für die Anforderungen von CyanoFactory angepasst.
Darstellung des S-TEC Änderungsprozesses in Form einer neuen UML-nahen konsolidierten Methode
(2009)
Ziel dieser Diplomarbeit ist es, den derzeitigen Änderungsprozess, welcher mühsam auf Papier bzw. in Excel und Word zusammengeschrieben wird in einer neuen UMLnahen Form zu erfassen und für die Mitarbeiter der S-TEC verständlich aufzubereiten. Ein weiteres Ziel ist es zu belegen, dass die verwendete Darstellungsart für die Konzeption von Geschäftsprozessen geeignet ist. Diese Arbeit soll als Vorlage zu einem System dienen, welches in Oracle-APEX implementiert werden soll, um zukünftig Auswertungen leichter durchführen zu können und um andererseits auch für SOX-Prüfungen eine verifizierbare Lösung vorweisen zu können. Zum Abschluss wird der erstellte Geschäftsprozess mit den ausgearbeiteten Prozessen präsentiert und detailliert beschrieben
Diese Arbeit beschäftigt sich mit der Darstellung von Fahrzeugumläufen in Form einer Blockdarstellung. Verschiedene Möglichkeiten der Bewertung der Qualität einer Blockdarstellung werden aufgezeigt. Die Optimierung dieser Bewertungsvarianten führt auf das Graphen- beziehungsweise das Mengenpartitionierungsproblem. Für diese werden verschiedene Modelle und Heuristiken vorgestellt. Anhand von Testrechnungen erwies sich die im Rahmen dieser Arbeit entwickelte Heuristik als die Methode, welche die besten Ergebnisse liefert.
Diese Arbeit beschäftigt sich mit dem Ising-Polynom, einem Graphenpolynom, das von einem physikalischen Modell abgeleitet ist. Es werden verschiedene Darstellungen des Polynoms, seine Beziehungen zu anderen Graphenpolynomen und in ihm enthaltene Grapheninvarianten vorgestellt. Weiter werden, insbesondere für spezielle Graphenklassen, Berechnungsmöglichkeiten beschrieben und der Rechenaufwand betrachtet.
In der vorliegenden Bachelorarbeit werden die Wechselwirkungen von umweltrele-vanten Metallen mit biologischen Komponenten untersucht. Dazu dienen die bak-teriellen Haldenisolate Lysinibacillus sphaericus JG-A12 und Lysinibacillus sp. JG-B53. Diese zeigten bereits in vorangegangenen Untersuchungen sehr hohe Metallbindungs-kapazitäten. Für die Sorptionsversuche werden die Schwer- und Edelmetalle Platin, Palladium, Blei, Cadmium, Europium und Gold und das Halbmetall Arsen verwendet. Durch die Einbeziehung von isolierten Zellwandbestandteilen der Gram-positiven Mikroorganismen, wie z.B. S-Layer-Proteine und Membranlipide sollen genauere Kenntnisse der Sorptionseigenschaften der biologischen Komponenten erlangt werden. Als analytische Verfahren werden die ICP-MS und die QCM-D eingesetzt. Durch einen Vergleich der zwei Bakterien werden unterschiedliche Metallselektivitäten aufgedeckt, die in weiteren Forschungsvorhaben und Anwendungsgebieten Einsatz finden können.
Die Extensible Markup Language (XML) hat sich längst vom Image des Alleskönners zu einer breit genutzten Grundlage für den Datenaustausch (z.B. raumbezogener Daten) entwickelt. Einerseits steht die Transparenz, die XML so exibel einsetzbar macht, andererseits die denierte Spezialisierung im Zuge detaillierter Aufgabenstellungen, die auf den ersten Blick etwas widersprüchlich erscheint, aber dennoch als groÿer Gewinn hervorgeht. In diesem Fall bestand die Anforderung, mit Hilfe des XML-basierten GPS Exchange Formats (GPX) als Datenformat, den Austausch von Geodaten zu gestalten, um zu zeigen, daÿ sich mit GPX eine fehlende Interoperabilität bewerkstelligen lässt. Die Arbeit thematisiert den Mangel, daÿ der komplexe Rahmen der Geoinformationssysteme keine genormten Schnittstellen zum Austausch von Geoinformationen (GPS-Daten) bereitstellt. In diesem Zusammenhang dient eine Oracle Datenbank mit der Erweiterung Spatial Cartridge (Speicherung raumbezogener Daten) zur dauerhaften Speicherung der Geodaten. Deren Datenbankschema Oracle Spatial bietet auf der Grundlage von ISONormen die Möglichkeit, Geodaten barrierefrei abzuspeichern. Eine Java-Applikation schlägt den Bogen zu beiden Schwerpunktthematiken, indem sie die geographischen Informationen dem Anwender bereitstellt. Diese Diplomarbeit greift das oene, lizenzfreie Konzept GPX auf und stellt mit alternativen Kommunikationsschnittstellen eine Verbindung zu Oracle Spatial her.
Diese Masterarbeit befasst sich mit der Datenvisualisierung innerhalb der CyanoFactory Knowledge Base. Die CyanoFactory Knowledge Base ist dabei eine Webanwendung für die Speicherung, Verarbeitung und Visualisierung von Informationen bezüglich der Daten aus dem europäischen Forschungsprojekt CyanoFactory. Innerhalb der Arbeit wurden dabei die interaktiven Visualisierungen von Protein-Protein-Interaktionen und Protein-Chemikalien-Interaktionen des Modellorganismus Synechocystis sp. PCC 6803 umgesetzt und als Webtool in die CyanoFactory Knowledge Base integriert. Im Rahmen dieser Arbeit wurde auch eine visuelle Ausgabe für Flux-Balance-Analysen erstellt. Neben der Visualisierung der Interaktionen innerhalb von Synechocystis sp. PCC 6803 wurde eine Analyse von dessen Protein-Interaktionsnetzwerk durchgeführt.
Die Studie umfasst historisches Skelettmaterial, welches mit Hilfe von Metrik und Morphognostik analysiert werden soll. Die Untersuchungen wurden anhand der Wirbelsäule durchgeführt und dienen sowohl der Individualanalyse als auch der Rekonstruktion der Skelettpopulation. Dabei sind degenerative und pathologische Veränderungen ein wichtiger Bestandteil der Analysen. Die Grundlage für die Auswahl der Untersu-chungskriterien bildet bereits veröffentlichte, wissenschaftliche Fachliteratur.
In dieser Bachelorarbeit wurde der Spinnenfaden auf molekularer Ebene betrachtet. Da es eine Vielzahl verschiedener Spinnenfäden gibt, wurde zunächst ein kurzer Überblick über die Besonderheiten der einzelnen Fadentypen geschaffen und daraufhin einer dieser Fäden ausgewählt, den es näher zu untersuchen galt. Dieser Faden wurde hinsichtlich des Aufbaus und Proteinzusammensetzung mittels bioinformatischer Software analysiert. Die gewonnenen bioinformatischen Daten wurden mit den Erkenntnissen aus verschiedenen Experimenten wie Röntgenanalyse, Kernmagnetresonanz, Gelelektrophorese, u.a. verglichen. Es galt, Übereinstimmungen bzw. Widersprüche zwischen den bioinformatischen Daten und den praktischen Experimenten zu finden.
QSAR- und QSPR-Modelle finden bereits seit etwa 40 Jahren in der Arzneimittelherstellung, dem Drug-Design, Anwendung. Durch sie lassen sich Verhaltensweisen von chemischen Substanzen vorhersagen, sodass Interaktionen und Reaktionen mit anderen Chemikalien abgeschätzt werden können. Dieser Ansatz lässt sich auch auf Proteine übertragen. Der Faltungsweg eines Proteins hin zu seiner nativen Struktur kann noch nicht genau bestimmt werden. Durch die energetische Beschreibung mit Hilfe von Deskriptoren kann dies allerdings möglich werden. Diese Bachelorarbeit soll sich mit möglichen Deskriptoren befassen, um anschließende mathematische Analysen hin zu einem QSER-Modell (Quantitative Structure Energy Relationships) zu vereinfachen. Dabei sollen Zusammenhänge zwischen dem Energieprofil und der Struktur eines globulären Proteins erklärt, erforscht und verstanden werden. Auch Grundgedanken für die weitere Vorgehensweise sollen diskutiert und verglichen werden. Das abschließende Ziel der gesamten Thematik ist die Erklärung struktureller Ausbildungen eines Proteins unter Integration der energetischen Charakterisierungen.
Die Bachelorarbeit befasst sich mit dem Zuordnen von Reads eines Datensatzes, der aus ausdem sequenzierten Metatranskriptom von 6 verschiedenen Organismen besteht, zu Genomen ausgewählter Organismen und die Darstellung dieser auf einer Stoffwechselkarte. Dafür wurde ein Programm in Python geschrieben, dass die Gensequenzen der einzelnen Genome mit den Reads des Datensatzes, mit der Hilfe von BLAST, vergleicht. Die Anzahl der Übereinstimmungen spielt die Stärke der Expression der einzelnen Enzyme wieder und wurde auf der Stoffwechselkarte „Biochemical Pathways“ graphisch dargestellt. Je nach Trefferanzahl wird das Enzym mit einer bestimmten Farbe hervorgehoben, so dass mit einem flüchtigen Blick Expressionsbereiche und die Stärke dieser leicht zu erkennen sind. Des Weiteren wird die genaue Anzahl der Treffer und die EC-Nummer angezeigt. Neben des Bildes speichert das Programm die Ergebnisse in Textdateien, die tabellarisch aufgebaut sind und deshalb mit einem Tabellenkalkulationsprogramm importiert werden können. Damit nicht jeder Organismus einzeln analysiert werden muss, ist eine Methode geschrieben worden, die mehrere Organismen nacheinander mit dem Datensatz vergleicht, und danach die Ergebnisse miteinander vergleicht. Außerdem wurde eine PROSITE Pattern Suche eingebaut, um EC-Nummern, die in keinem Genom vermerkt sind, in dem Datensatz dennoch zu finden.