Refine
Document Type
- Bachelor Thesis (50)
- Diploma Thesis (50)
- Master's Thesis (3)
Year of publication
- 2010 (103) (remove)
Keywords
- Laserschweißen (4)
- Optimierung (3)
- Softwareentwicklung (3)
- Akustische Messtechnik (2)
- Biogasanlage (2)
- Dokumentenverwaltungssystem (2)
- Dosimetrie (2)
- Körperschall (2)
- Laserbearbeitung (2)
- Mehrkriterielle Optimierung (2)
Institute
- 03 Mathematik / Naturwissenschaften / Informatik (103) (remove)
Zur Verarbeitung von Prepreg-Material im Leichtbau müssen bestimmte Bedingungen eingehalten werden, um eine hohe Qualität der Bauteile zu gewährleisten . In Laminier - und Zuschneideräumen soll die Konzentration an Partikeln mit einem Durchmesser von 5 – 10 µm den Grenzwert von 29.300 Partikel/m³ nicht überschreiten. Ziel der Diplomarbeit war es, die Staubpartikelkonzentration in den betroffenen Räumen der Cotesa GmbH Mittweida zu untersuchen und die Stäube auf Bestandteile und mögliche Quellen zu analysieren, um ein Konzept zur Reduzierung zu entwickeln. Dazu wurden regelmäßige Messungen mit einem Streulichtpartikelzähler durchgeführt und die aufgenommen Werte sowie bereits vorhandene Messdaten auf ihre räumliche und zeitliche Verteilung hin sowie auf Zusammenhänge mit den Umgebungsbedingungen untersucht. Um mögliche Staubquellen zu identifizieren, wurden Vergleichsmessungen mit verschiedenen Materialien durchgeführt und Staubproben genommen. Die Proben wurden unter Licht-, Fluoreszenz- und Elektronenmikroskop untersucht sowie energiedispersive Röntgenanalysen durchgeführt. Es konnte festgestellt werden, dass von außen eingetragene Partikel wie Flugasche eine große Rolle spielen, aber auch die Personen im Reinraum sowie Materialien und Hilfsstoffe selbst Partikel im betrachteten Größenbereich emittieren.
Ziel der Diplomarbeit ist die Analyse und Identifizierung signifikant differentiell exprimierter Sense- und Antisense-Transkripte zur Erforschung und Entwicklung geeigneter diagnostischer Tumormarker für Bauchspeicheldrüsenkrebs. Mit Hilfe des von der GenXPro GmbH entwickelten und patentierten SuperSAGE-Verfahrens können RNA-Transkripte, die sowohl aus gesundem als auch aus an Krebs erkranktem Pankreasgwebe isoliert wurden, quantifiziert und entsprechende Genexpressionprofile erstellt werden. Auf Grundlage dieser Daten sollen genetische Tumormarker entwickelt werden, wobei vor allem stark differentiell exprimierte RNA-Transkripte im Vordergrund stehen - insbesondere Antisense-RNA. Die quantitative Echtzeit-PCR (qRT-PCR oder qPCR) ist dabei ein geeignetes Mittel zum Test fluoreszens-markierter Sonden auf Eignung als Tumormarker sowie zu Validierung der SuperSAGE-Daten. Dabei wurden bekannte Verfahren wie TaqMan™ und SYBR® Green Asssays angewandt.
Seit der Einführung der Änderungen der Arbeitslosengeld II-Gesetze im Jahre 2005, gab es wesentliche Veränderungen in der Arbeitsmarktpolitik. Je nach Art und Länge des vorherigen Arbeitsverhältnisses gibt es 2 Arten von Leistungen, welche ein Hilfebedürftiger erhalten kann. Es wird unterschieden nach Leistungen aus dem Rechtskreis des SGB III1 und Leistungen aus dem Kreis des SGB II2. Es kann darüber hinaus auftreten, dass sowohl SGB III und SGB II Leistungen empfangen werden. In der nachfolgenden Diplomarbeit soll die Frage erörtert werden, welche Bestimmungsfaktoren maßgeblich dafür verantwortlich sind, dass Menschen aus der SGB III in eine SGB II Arbeitslosigkeit wechseln. Es wird zunächst auf die Datengrundlage eingegangen und die wichtigsten Begriffe erläutert. Nach einer deskriptiven Auswertung der gewonnenen Daten, sowie der Bestimmung der wichtigsten statistischen Kennzahlen, erfolgt die Auswertung mittels Regression. Die logistische Regression wird vor allem in der Wirtschaft immer beliebter. Ziel ist es zu bestimmen, mit welcher Wahrscheinlichkeit ein Übergang aus dem SGB III- in den SGB II-Bereich stattfindet. Es wird erörtert, welche Variablen maßgeblich einen Einfluss auf die Übergangswahrscheinlichkeit haben. Als Modelle werden die binäre logistische Regression und die ordinale logistische Regression verwendet. Abschließend wird die Güte der Modelle bewertet. Durch die Analyse sollen vor allem die Risikofaktoren eines solchen Modells bestimmt werden. Zusätzlich erfolgt eine Auswertung mittels einer Panelanalyse. Dieses Modell ist besonders dann sinnvoll, wenn sich im Verlauf der Zeit (Jahre, Monate, Tage) ein Merkmal einer Person ändert. Es werden die Veränderungen in den Jahren 2007 und 2008 untersucht. Betrachtet werden die Modelle, des Pooled Logit Modells, des Fixed Effects Modells und das Random Effects Modells. Am Ende der Diplomarbeit wird diskutiert, inwieweit die Lösungen praktikabel sind und wie die Entwicklung in dieser Richtung weiter gehen kann. Passend zu den erzeugten Ergebnissen, wurde ein Tool für Stata entwickelt, welches diese reproduziert. Infolgedessen ist es möglich, die Auswertung für andere Bundesländer vorzunehmen.
Die vorliegende Arbeit befasst sich mit der Identifizierung von ABC-Transportern sowie genetischen Expressionsstudien in Muscheln. Das Hauptziel ist es, einerseits die erhaltenen cDNA-Sequenzen verschiedener Arten mit einander zu vergleichen und Rückschlüsse auf die Verwandtschaftsbeziehungen zu schließen. Andererseits soll die zelluläre Stressantwort bei der Exposition mit umweltrelevanten Schadstoffen charakterisiert werden.
Die Flammkaschierung ist ein wichtiger Bereich in der Textilindustrie. Durch die unerwünschte Freisetzung von Cyanverbindungen stellen die Produktionsvorgänge der Flammkaschierung jedoch eine erhebliche Umweltbelastung dar. Damit der vom Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit angegebene Grenzwert für Cyanverbindungen eingehalten werden kann, sind Abluftreinigungsverfahren zu entwickeln. Im Rahmen dieser Bachelorarbeit wurden weiterführende Untersuchungen im Bereich der mikrobiellen Cyanidelimination durchgeführt. Ein Ziel war es, Systemverluste bei Laborversuchen zu minimieren, um Aufschlüsse über den eigentlichen mikrobiologischen Abbau von Cyanid geben zu können. In einem einwöchigen Sterilansatz, welcher mit destilliertem Wasser durchgeführt wurde, konnten zwischen 90 % und 100 % an Cyanid wiedergefunden werden. Die Versuche mit Nährlösung zeigten Wiederfindungswerte zwischen 40 % - 60 %. Zum anderen wurde die Substratverwertung der Mikroorganismen an Pilot- und Großanlagen untersucht, um Aussagen über Wechselwirkungen zwischen den Substanzen wie Ammonium, Nitrat, Phosphat und Fruktose treffen zu können. Hierbei wurde gezeigt, dass in den Pilotanlagen keine Nitrifikanten enthalten waren.
Ziel der Diplomarbeit ist es einen XML-Schema-gespeisten XML-Editor-Generator zu entwickeln. Der generierte XML-Editor basiert dabei auf einem Java-Swing-GUI. Ziel dieses Editors ist es, die OOA und Prototypenentwicklung dahingehend zu unterstützen, dass sie den Schritt vom Datenmodell zur grafischen Oberfläche erleichtert sowie die einfache Bearbeitung von XML-Dokumenten ermöglicht. Die Arbeit beschäftigt sich dabei mit den Grundlagen der Verarbeitung von XML und XSD, sowie den Verarbeitungsmethoden die dem Generator zugrunde liegenden. Anschließend wird die Funktion des Generators an einem Fallbeispiel schrittweise erläutert.
Im Rahmen dieser Diplomarbeit wird ein Programm entwickelt, welches vorhandene Backupstrategien ergänzen soll. Oft ist es erforderlich, im Falle eines Disasters, den entstandenen Datenverlust durch eine Wiederherstellung in kürzest möglicher Zeit zu beheben. Das Programm soll neben Standardfunktionalitäten, wie Sicherung und Wiederherstellung von Datenbanken, die Möglichkeit bieten, aus diesen angefertigten Sicherungen einzelne Objekte, insbesondere Tabellen, wiederherstellen zu können. Dabei werden Konsistenzfaktoren, sowie die Zugriffsmöglichkeit auf die Schemadaten und das Transaktionsprotokoll von SQL Server untersucht, und unter Berücksichtigung dieser Erkenntnisse eine Backup- und Restorefunktionalität entworfen. Abschließend soll die Funktionalität im Vergleich mit anderen Produkten bewertet, sowie eine Einschätzung für den Praxiseinsatz getroffen werden.
Das Ziel der vorliegenden Arbeit ist die Konzeption und Implementierung eines Informations- und Buchungssystems als wichtige Erweiterung der bestehenden Dispositions-Software ILDispo. Zielgruppe für den Einsatz sind die Kunden der Interline Limousine Network GmbH. Am Anfang geht der Autor auf die Dispositionssoftware ILDispo ein und erläutert die daraus resultierenden Voraussetzungen und Anforderungen, welche an die zu erstellende Webanwendung gestellt werden. Desweiteren werden die verwendeten Technologien erläutert und Besonderheiten aufgezeigt. Ein wichtiges Ergebnis ist die entstehende Webanwendung. Nach Beendigung der Testphase wird es den Kunden der Interline Limousine Network GmbH möglich sein, mithilfe dieser Webanwendung zum einem die Auftragserfassung komfortabler und zeitsparender durchzuführen, zum anderen jederzeit einen Überblick über künftige bzw. vergangene Aufträge zu haben.
Ziel der Bachelorarbeit ist es, ein Simulationsprogramm für die Wachstumsdynamik und die Schadstoffaufnahme von Characeae (Armleuchteralgen) zu entwerfen. Das soll in Abhängigkeit von zwei Standorten erfolgen – optimaler und extremer Standort. Um die Biologie der Armleuchteralgen besser kennenzulernen, wird zunächst ein Literaturstudium absolviert und kurz zusammengefasst. Für die Modellierung wird das Simulationsprogramm iThink® verwendet. Im Folgenden werden die einzelnen Modellierungsschritte beschrieben, die Ergebnisse diskutiert, und es wird ein Ausblick über eine eventuelle Modellerweiterung gegeben.
Die gestiegenen Qualitätsanforderungen im Automobilbau umfassen auch das akustische Verhalten eines Fahrzeugs. Akustische Auffälligkeiten führen insbesondere in akustisch optimierten Fahrzeugen häufig zu Kundenbeanstandungen. Die Messung und Interpretation dieser hörbaren Fehler ist relativ schwierig, da deren Beurteilung und Beschreibung meist nur subjektiv und nicht durch objektive standardisierte Methoden geschieht. Im Rahmen dieser Bachelorarbeit wurden fehlerhafte Lautsprecher untersucht. Dazu wurde in dem vorangestellten Praktikum ein Messaufbau realisiert und eine Sammlung von geeigneten Testsignalen und Analyseverfahren erstellt. Die Signale werden dabei neben klassischen Frequenzanalysen auch psychoakustischen Analysen unterzogen. Das verwendete Testsignal, die beiden Messaufbauten mit zwei verschiedenen Messsystemen, die Durchführung und die eingesetzten Analysen werden im Anschluss beschrieben. Den Abschluss stellt ein Fazit über die Verwendbarkeit des gefundenen Merkmals und der beiden Messsysteme dar. Darüber hinaus wird ein Versuch einer Klassifikation erläutert und auf seine Anwendbarkeit hin untersucht.
Im Rahmen der Bachelorarbeit wurde eine Anlage konzipiert, die ausgehend von einem existierenden geregelten Ozonerzeuger vier verschiedene Konzentrationen von Ozonwasser bereitstellt. Dabei wurde die Anlage von Grund auf zusammengebaut und die enthaltenen Komponenten mit einer SPS-Steuerung verbunden. Unter Berücksichtigung von Zerfall und Zehrung des Ozons in der Anlage konnte ein Verfahrensablauf erstellt werden, mit dem die Anlage vier verschiedene Wirkkonzentrationen bereitstellen kann.
Im Rahmen dieser Bachelorarbeit wurden Untersuchungen des Schwefelstoffkreislaufes in Labormodell-Pflanzenkläranlagen durchgeführt. Das Hauptaugenmerk lag hierbei auf den Transformationsprozessen des Schwefelkreislaufes. Des Weiteren sollten eventuell neue Erkenntnisse über den Einfluss auf andere Umsetzungsprozesse, wie etwa den Stickstoffkreislauf gewonnen werden. Die hierfür vorgesehenen Versuche wurden an Modellanlagen im Labormaßstab durchgeführt. Zum Einsatz kamen horizontal durchströmte bepflanze Bodenfilter (Constructed Wetlands), welche mit Sumpfpflanzen (Helophyten) bepflanzt wurden. Neben der Erfassung der verschiedenen Zu- und Ablauffrachten der entsprechenden Parameter wie zum Beispiel der verschiedenen Schwefelspezies, wurden zur besseren Charakterisierung der Transformationsprozesse zusätzlich physikochemische Parameter wie pH-Wert und Redoxpotential gemessen, sowie eine Bilanzierung des Wasserverlustes durchgeführt. Bei den Untersuchungen wurde ein sehr geringer Umsatz von Sulfat zu Sulfid festgestellt. Es ist zu vermuten, dass oxidative Prozesse im Bodenkörper in Bezug auf diesen Versuch eine dominierende Rolle spielen. Anhand der ermittelten Milieuparameter (pH-Wert und Redoxpotential), Summenparameter wie z.B. TOC sowie dem Wasserverlust konnte dieser Sachverhalt näher erläutert werden
Das Ziel der Diplomarbeit ist es, Strategien zur Ersatzmodellkonstruktion zur Approximationsbibliothek der EngineeringToolbox hinzuzufügen. Die Eignung verschiedener Approximationsverfahren für den Einsatz in der Bauteilsimulation ist zu prüfen und ausgewählte Verfahren sind zu implementieren. Die Güte der Modellierung soll mit bereits vorhandenen Approximationsmodellen verglichen werden. Dazu sind Methoden zur globalen Beurteilung der Qualität der Modelle aus der Literatur zu recherchieren und auf die Modelle anzuwenden. Zusätzlich sind Kriterien zu untersuchen, die die lokale Approximationsgenauigkeit eines Ersatzmodells bewerten können. Im ersten Teil der Arbeit werden Approximationsmethoden vorgestellt, die für mehrdimensionale Daten angewendet werden können. Mithilfe der im zweiten Teil dargelegten Bewertungskriterien werden die untersuchten Verfahren hinsichtlich ihrer Approximationsgüte verglichen und Empfehlungen bezüglich ihres Einsatzes gegeben.
Neurodegenerative Erkrankungen wie Morbus Alzheimer oder Parkinson treten durch die steigende Alterserwartung immer häufiger auf. Um diese medikamentös behandeln zu können, müssen Pharmaka die Blut-Hirn-Barriere überwinden, die das Gehirn vor im Blut befindlichen Krankheitserregern und Toxinen schützt. Eine Möglichkeit stellt die Kopplung des Medikaments an ein Nanopartikel dar. Diese sind mit dem rezeptorspezifischen Apolipoprotein E (ApoE) ummandelt und ermöglichen so die Überwindung der Blut-Hirn-Barriere. Ziel der vorliegenden Arbeit war die Expression und Aufreinigung des humanen Apolipoproteins E3 (hsApoE3) in Escherichia coli und die Untersuchung der Expressionsfähigkeit in SFplus-Insektenzellen. Dazu wurde die cDNA Sequenz des hsApoE3 mit der Gensequenz der TEV-Proteasen-Schnittstelle sowie des Polyhistidin-Tags synthetisiert und in unterschiedliche pET Vektoren mit verschiedenen Fusionsproteinen kloniert, welche für die Expression Verwendung fanden. Als Fusionsproteine wurde entweder His6-Tag alleine oder der His6-Tag in Kombination mit einem GST, NusA, ZZ oder MBP-Tag verwendet. Das Fusionsprotein MBP-hsApoE3 wurde am stärksten exprimiert und konnte über den His6-Tag und einer anschließenden MBP-Affinitätschromatographie erfolgreich aufgereinigt werden
Ziel dieser Arbeit ist es, die Effizienz des Prozesses des Laserpulverauftragschweißens an der in Abschnitt 4. beschriebenen Anlage zu maximieren. Das heißt vor allem das eingesetzte Pulver vollständig und mit möglichst wenig Laserleistung PL umzusetzen. Um das Pulver maximal auszunutzen musste dabei der Pulverstrahl optimal geformt werden. Er sollte deshalb einen, auf den Laserstrahlfokus angepassten Pulverstrahlfokus besitzen und eine möglichst hohe Wechselwirkungszeit des Pulverstrahls mit dem Laserstrahl um diesen vollständig aufzuschmelzen. Dazu sollten die Pulverpartikel bei dem Austritt aus der Pulverdüse eine möglichst geringe Geschwindigkeit besitzen. Daher wurden zuerst die möglichen Einflussfaktoren untersucht, die diese Größen beeinflussen könnten. Anschließend wurde die Untersuchung laserseitig fortgeführt. Das heißt es wurde versucht mit den zuvor erlangten Erkenntnissen den Pulvernutzungsgrad η bei der Erzeugung von Auftragschweißspuren zu bestimmen und zu maximieren. Abschließend wurde noch untersucht wie viel Pulver bei einer bestimmten Laserleistung PL und guten Spurqualität maximal umgesetzt werden konnte. Ziel war es Parametersätze zu finden bei denen Auftragschweißspuren unterschiedlicher Spurhöhe h mit maximalem Pulvernutzungsgrad η und optimaler Ausnutzung der eingesetzten Laserleistung PL erzeugt werden konnte.
Am Beispiel der Kläranlage Niederwiesa soll geklärt werden in wie weit tieffrequente Signalanteile (8-1400 Hz) von Schallemissionen zur Belästigung im Wohnhaus „Zur Finkenmühle 5“ beitragen. Dazu werden Messungen in der Gruppenkläranlage Niederwiesa und im Wohnhaus „Zur Finkenmühle 5“ durchgeführt und ausgewertet. Besonderes Augenmerk soll auf die Signalanteile unterhalb der durchschnittlichen menschlichen Hörschwelle gelegt werden. Weiterhin werden Hörproben durchgeführt und diese ausgewertet. Zum Schluss erfolgt die Auswertung der Messergebnisse und der gewonnenen Erkenntnisse.
In dieser Bachelor-Arbeit geht es um Objekt relationales Mapping durch das Open-Source ORMFramework Hibernate. Es werden die Vor- und Nachteile der theoretischen Implementation aufgezeigt und diese an einem prototypischen Beispiel näher betrachtet und verifiziert. Ziel ist es, eine datenbankunabhängige Lösung für den Einsatz im DELECO R -Umfeld zu finden.
Da in der Nuklearmedizin die diagnostische Bildgebung unter Verwendung eines Radiopharmazeutikums stets mit einer Strahlenexposition des Patienten verbunden ist, muss für jedes neue Radiopharmazeutikum eine Abschätzung der Strahlenexposition für dieses Präparat vorgenommen werden. Die vorliegende Diplomarbeit befasst sich mit der Abschätzung der Strahlenexposition, die durch Inkorporation des neuen Radiopharmazeutikums (-)[18F]NCFHEB entsteht. Mittels der Positronenemissionstomografie soll dieses neue Präparat zur Diagnostik bei Demenzerkrankungen eingesetzt werden. Die Abschätzung der Strahlenexposition, die durch die Anwendung dieses Radiopharmazeutikums für einen Patienten entsteht, wurde im Rahmen einer Machbarkeitsstudie anhand von drei gesunden Probanden vorgenommen. Die Bestimmungen der Organdosen und der effektiven Dosis erfolgten nach dem MIRDSchema. Die ermittelten Werte, die zur Abschätzung der Strahlenexposition dienen, wurden mit anderen 18F-Tracern verglichen. Dieser Vergleich ließ eine Aussage über den Stellenwert des Radiopharmazeutikums bezüglich der Strahlenexposition zu. Weiterhin wurde ein Vergleich der erhobenen Daten dieser Studie mit den ermittelten Daten der früheren präklinischen Studie durchgeführt. Dies ermöglicht eine Wertung der präklinischen Daten hinsichtlich ihrer Aussagekraft und ihres prädiktiven Wertes für die Verhältnisse am Menschen.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Modells zur Beschreibung des Fermenterzustandes für unterschiedliche Fütterungsrationen und Anmaischregime. Um Substrate mit einem hohen Trockensubstanzgehalt vergären zu können, müssen diese mit Flüssigkeit versetzt werden. Der Einsatz von Wasser ist jedoch weder ökologisch noch ökonomisch sinnvoll. Aus diesem Grund wurde ein Modell entworfen, welches in Abhängigkeit der Substrate und der Rahmenbedingungen des Fermenters die notwendigen Mengen Presswasser aus der Fest-Flüssig-Trennung des Gärrestes berechnet und den Fermenterzustand für diese Fahrweise ermittelt und ausgibt.
Die Diplomarbeit beschäftigt sich mit der Entwicklung eines technischen Add-on Konzeptes zum Thema Liquiditätsplanung und -management für die mittelständische Unternehmenssoftware SAP Business One. Der Schwerpunkt dieser Konzeption liegt in einem automatisierten Ablaufprozess, um die aktuelle Lage kleiner und mittlerer Unternehmen (KMU) bezüglich ihrer Liquidität gegenwärtig wie auch zukünftig zu betrachten und zu steuern. Die Grundlage für Untersuchungen liefern die einschlägige Literatur, aktuelle Anforderungsanalysen des Mittelstandes sowie Befragungen von Spezialisten im Bereich der Steuer- und Unternehmensberatung. Diese Diplomarbeit dient dem Unternehmen Bautzen IT.Solutions GmbH als wissenschaftliche Grundlage, um die Unternehmenssoftware SAP Business One im Bereich Finanzwesen zu erweitern und im Mittelstandsgeschäft zu etablieren.
Da bei technischen Optimierungsaufgaben oft diskrete Parameter wie Stückzahlen oder die Anzahl der Zähne eines Zahnrades, welche nur ganzzahlige Werte annehmen können, eine Rolle spielen, können Optimierungsverfahren, welche für stetige Parameter entwickelt wurden, nicht ohne Weiteres für diese Aufgaben eingesetzt werden. Das Ziel dieser Arbeit ist es, eine Diskretisierung ausgewählter Optimierungsverfahren zu entwickeln und diese programmtechnisch umzusetzen. Anschließend sollen die diskretisierten Verfahren auf ihre Einsetzbarkeit getestet und die Ergebnisse miteinander verglichen werden, so dass eine Empfehlung zur Anwendung der Optimierungsverfahren gegeben werden kann.
Das Alter von Mineralen lässt sich mit der thermisch und optisch stimulierten
Lumineszenz, sowie durch Radiofluoreszenz bestimmen. Bei der Entwicklung einer
neuen Generation von Messgeräten wird angestrebt, alle drei genannten Methoden der Fluoreszenzdatierung in einem Gerät verfügbar zu machen und dabei ortsaufgelöste Messungen an Proben und die Charakterisierung von einzelnen Körnern zu ermöglichen. Dadurch steigen auch die Anforderungenan die für die Messung eingesetzten Strahlungsquellen, insbesondere bezüglich der Homogenität des Strahlungsfeldes am untersuchten Probematerial. In der vorliegenden Arbeit werden Designkriterien für eine geeignete Strahlungsquellediskutiert. Es wurden verschiedene Methoden zur Charakterisierung des Strahlungsfeldesdieser, auf dem Isotop Sr-90 beruhenden, Betaquelle entwickelt und erprobt. Es zeigte sich, dass die Methode der Filmdosimetrie geeignet ist, um auf einfache und reproduzierbare Weise das Strahlungsfeld der vorliegenden Quelle zu charakterisieren. Für eine sichere Montage der Strahlungsquelle, ihrer Handhabung, Anwendung und Lagerung wurden geeignete Strahlenschutzmaßnahmen realisiert sowie Messungen und Abschätzungen zur Strahlenexposition vorgenommen.
Methoden zur Sensitivitäts- und Robustheitsbewertung für multikriterielle Optimierungsverfahren
(2010)
Die Bachelorarbeit beschäftigt sich einerseits mit verschiedenen Verfahren zur Sensitivitätsanalyse für multikriterielle Optimierungsverfahren. Die Sensitivität wird dabei a-priori und a-posteriori untersucht. Andererseits werden Methoden zur Bewertung der Robustheit von Lösungen aus multikriteriellen Optimierungsverfahren vorgestellt. Zudem werden die Ergebnisse der Sensitivitätsanalyse und Robustheitsbewertung in geeigneten graphischen Darstellungen visualisiert. Abschließend werden die erläuterten Analyse- und Bewertungsmethoden auf einen Praxisbeispiel angewendet und miteinander verglichen.
Im Rahmen der Erforschung und Entwicklung protektiver Formen für die intensivmedizinische Beatmung, sind die Kenntnisse der alveolären Geometrie und der Lungendynamik von entscheidender Bedeutung. Ziel dieser Diplomarbeit ist die Entwicklung und Evaluierung eines Beatmungsgerätes, welches eine Total Liquid Ventilation (TLV) und die mechanische Beatmung von kleinen Labortieren erlaubt. Eine TLV kann, insbesondere in Fällen einer schweren Lungenschädigung, eine verbesserte Therapie ermöglichen. Weiterhin kann eine Brechungsindexanpassung zwischen dem alveolären Raum und den alveolären Septen, begründet durch die Flüssigkeitsfüllung, erreicht werden, um eine optimierte Bildgebung der subpleuralen Alveolen, mittels Optischer Kohärenztomografie (OCT), zu ermöglichen. Die Diplomarbeit umfasst die Auswahl und Beschaffung der benötigten mechanischen und elektronischen Bauelemente für den Aufbau des Gerätes, 3D-Konstruktion entsprechender Komponenten (SolidWorks®), Entwurf einer Elektronikschaltung und die Entwicklung der benötigten Software (LabView®). Das System wurde vollständig aufgebaut und durch Testuntersuchungen an isolierten Organen evaluiert.
Ziel der Bachelorarbeit ist es, eine Taktik zu entwickeln, mit deren Hilfe Datensicherungsvorgänge weiter optimiert werden können. Dabei soll eine zusätzliche Strategie für den Wechsel des Sicherungstyps bei der Datensicherung erdacht werden, um eine bessere Ausnutzung des zur Verfügung stehenden Speicherplatzes zu erreichen. Für die Datensicherung werden bestimmte Bedürfnisse vorgegeben. An allgemeinen und bereits verwendeten Strategien wird analysiert, ob es für das genannte Ziel schon Lösungen gibt und in wie fern diese nutzbar sind. Weiterhin soll die erarbeitete Strategie in der Sicherungssoftware mesoSAFE Backup umgesetzt und getestet werden.
Ziel der Bachelorarbeit ist es, eine Webanwendung für den biotechnischen Bereich der Hochschule Mittweida zu entwickeln. Dabei sollen errungene Kenntnisse und Tools aus der bioinformatischen Bibliothek für Forschung und Lehre bereit gestellt werden. Der Aufbau eines Servers mit einer nutzerfreundlichen Oberfläche steht dabei im Vordergrund. Unter Berücksichtigung dieser Zielstellung werden zuerst die benötigten Tools aufbereitet und für die Integration in die Anwendung angepasst. Danach wird ein passendes Interface für die Dateneingabe erzeugt. Zum Schluss werden die Ausgaben der Tools für den Nutzer aufbereitet und dargestellt.
When entering waterways that are restricted either in height, width or by another vessel, the behaviour of a ship changes. The most evident effect of navigating in shallow water is the squat which has led to several groundings. Because of pressure differences the vessel is pulled down into the water and the trim is changed. Another shallow water effect is the speed loss due to an increase in resistance which can reduce the maximal speed by upto 50 percent. In general the behaviour of a ship in shallow water is said to be sluggish, meaning that it is more difficult to navigate which affects the radius of the turning circle among others. Sailing parallel to a close-by bank affects the lateral force and the yaw moment. The interaction with other ships has similar effects as bank effects, but is more sophisticated since more parameters play a major role. In this thesis each of these effects is researched by studying several papers by renowned researchers.
Several models are developed which are correspondent with the inherent model of forces and moments of the simulation program. The challenges and obstacles that arised during modelling and implementation are pointed out and solutions or approaches are given.
Es wird an der Umsetzung einer faserintegrierten Optik zur Einkopplung eines gepulsten Mikrochiplasers in eine photonische Kristall-Faser zur Erzeugung ei-nes Superkontinuums gearbeitet. Momentan wird dies durch einen kommerziel-len Laserstrahlkoppler realisiert. Ziel ist es nun, dieses Bauteil durch eine an die Faser angeschmolzene Optik zu ersetzen, um so die mechanische Belastbarkeit der Laser-Faser-Kopplung zu verbessern, die Koppeleffizienz zu erhöhen und die Kosten für das endgültige Produkt zu senken. Hierbei gilt es, durch eine möglichst einfache Linsenform die Reproduzierbarkeit zu gewährleisten und gleichzeitig eine hohe Koppeleffizienz zu erreichen. Im Folgenden werden relevante theoretische Grundlagen sowie technische Vorgaben erläutert, die Herangehensweise an die Problematik, sowie Lösungsvorschläge aufgezeigt. Erste Prototypen werden untersucht und ausge-wertet.
Im Rahmen dieser Diplomarbeit wird ein Bauteil entwickelt, welches die Luftblasen aus der venösen Linie des Schlauchsystems einer Herz-Lungen-Maschine (HLM) selektiert und an die Umgebungsluft abgibt bevor der Blutstrom in die Pumpe gelangt. Hierbei soll die Perfusion nicht unterbrochen werden müssen. Weitere Schwerpunkte der Arbeit sind Untersuchungen des entwickelten Luftblasenfilters an der MEDOS DELTASTREAM®-HLM. Hierbei soll der erntwickelte Filter mit vorhandenen alternativen Ansätzen verglichen werden. Es wird das Auftreten von Luftblasen hinter dem erarbeiteten und hinter anderen Filtern geprüft. Mit Hilfe der gewonnen Versuchsergebnisse sollen Aussagen über die Eignung des entwickelten Filters für den Einsatz bei der Extrakorporalen Zirkulation am Menschen möglich werden. Der erste Teil der Arbeit beschäftigt sich mit den Grundlagen der extrakorporalen Zirkulation und deren Auswirkungen auf den menschlichen Organismus. Aus diesen Grundlagen werden die Anforderungen an einen möglichen Lösungsansatz für einen neuartigen Luftblasenfilter aufgestellt. Der zweite Teil der Arbeit befasst sich mit einer Marktrecherche und der Entwicklung, Dimensionierung und Konstruktion eines eigenen Filters auf Basis eines Hydrozyklons. Im Anschluss wird der als Prototyp gefertigte Zyklon im DELTASTREAM-System der Firma MEDOS Medizintechnik AG getestet und mit anderen Filtern verglichen. Für den entwickelten Hydrozyklon werden abschließend Möglichkeiten diskutiert, wie dessen Funktionalität verbessert werden könnte, so dass er in der Zukunft in einem minimierten System Anwendung finden könnte.
Diese Diplomarbeit gibt Ausblicke und Lösungen zur Anbindung eines graphischen Benutzerinterfaces an eine in Sybase PowerBuilder entwickelte bestehende Geschäftsanwendung, für eine schrittweise Überführung eines Clientprogrammes in eine zukunftsorientierte Anwendung. Dabei werden zunächst theoretische Grundlagen ermittelt sowie die im bestehenden Programm eingesetzten Technologien analysiert. Anschließend werden mögliche Lösungen für das Problem erarbeitet und abgewogen. Weiterhin wird eine konkrete Variante im Konzept ausgearbeitet und als Prototyp umgesetzt, gefolgt von einer Überlegung zur weiteren schrittweisen Vorgehensweise bei der sukzessiven Überführung der einzelnen Komponenten. Abschließend erfolgen eine Auswertung der Arbeit und der Ausblick auf zukünftige Erweiterungen sowie Möglichkeiten.
Rekonstruktionsalgorithmen verarbeiten in der Nuklearmedizin Rohdaten aus SPECT- oder PET/CT-Daten zu Bildern, aus denen Informationen für die Diagnostik und Dosimetrie gewonnen werden können. Ziel dieser Diplomarbeit ist es, einen alternativen Rekonstruktionsalgorithmus zum gängigen OSEM-Algorithmus zu finden, der einzelne Anreicherungen berücksichtigt, so dass eine Dosimetrie möglich ist. Hauptkennzeichen der Qualität eines Algorithmus für die Dosimetrie ist die Abweichung des Verhältnisses der Maxima der einzelnen Anreicherungsherde unter der Voraussetzung, dass jeder Herd eine gleiche Aktivitätskonzentration aufweist. Rekonstruktionsalgorithmen weichen in der Verarbeitungsweise der Rohdaten voneinander ab. Deshalb treten unterschiedliche Ergebnisse aus einer Aufnahme auf, sodass mehrere Algorithmen zu testen und ihr Verhalten zu charakterisieren sind. Unter Berücksichtigung dieser Vorgaben wurde der OSEM-Algorithmus untersucht und der SIRT- sowie der ReSPECT-Algorithmus mit diesem verglichen. Abschließend konnten Aussagen getroffen werden, durch die ein nächster Schritt für eine Dosimetrie und eine Therapieplanung gegangen werden kann.
Ziel dieser Diplomarbeit ist es die mobilen Möglichkeiten die ein Unternehmen heutzutage hat, aufzudecken und zu zeigen was man bei der Umsetzung zu beachten hat. Gerade die mobile Branche ist ein Bereich der Informatik, der nicht klar definiert ist und sich ständig ändert. Diese Diplomarbeit soll dies abändern, indem es das Angebot von mobilen Lösungen vorstellt, die Einsatzmöglichkeiten darstellt und die Kosten und Nutzen solcher Lösungen aufführt. Mit den Prognosen soll die zukünftige Entwicklung aufgezeigt werden. Zum Schluss erfolgt die Auswertung dieser Arbeit und die Vorstellung einer Firma die erfolgreich eine mobile Lösung umgesetzt hat.
Stabilitätsanalyse des Membranproteins HP0565 : eine experimentelle und bioinformatische Studie
(2010)
Diese Arbeit beschäftigt sich mit der Auswertung von Kraft- Abstandskurven aus einem SMFS-Experiment des Membranproteins HP0565. Gleichermaßen wurden die Möglichkeiten einer bioinformatischen Studie für eine Charakterisierung des Proteins genutzt. Im Hinblick auf die Möglichkeiten der Single-Molecule-Force Spectroscopy (SMFS) wurden Stabilitätsanalysen und statistische Betrachtungen durchgeführt.
Um beruflich strahlenexponierte Personen hinreichend im Sinne des § 40 bis § 42 der Strahlenschutzverordnung zu überwachen und somit vor einer übermäßigen Strahlenbelastung zu schützen, müssen von diesen Personen Dosimeter getragen werden. Ziel des Bachelorprojekts ist die Einführung einer routinemäßig durchgeführten Dokumentation der beruflichen Strahlenexposition der Mitarbeiter der Klinik und Poliklinik für Nuklearmedizin des Universitätsklinikums Leipzig mittels elektronischer Personendosimeter. Dazu gehört das automatische Auslesen und Dokumentieren der täglichen Personendosis in einer Datenbank, personenbezogener Import von amtlichen Filmdosimeterwerten in die Datenbank sowie die Möglichkeit, die gespeicherten Daten je nach Erfordernis auszuwerten, mit den amtlichen Dosiswerten zu vergleichen und ggf. einer Behörde zu Nachweiszwecken vorlegen zu können. Es sollen die Hard- und Software, sowie deren Funktionen und Modi näher beschrieben und ein Überblick über die Möglichkeiten der Dokumentation und Auswertung mit der Software Dosmo2000 dargestellt werden.
Bei dem Einsatz von Dokumentenmanagement-Systemen (DMS) sind verschiedene rechtliche Anforderungen zu erfüllen. Diese sind beim Archivieren von Dokumenten und Entwickeln rechnergestützter Geschäftsprozesse (Workflows) anzuwenden. Diese Arbeit erfasst die Gesetze, Verordnungen, Normen und Zertifikate, die zur Entwicklung einer gesetzeskonformen Dokumentenmanagement-Lösung (DML) eines Versicherungsunternehmens in Deutschland existieren. Dabei wird die Umsetzung der rechtlichen Anforderungen anhand der Entwicklung einer eigenen Dokumentenmanagement-Lösung mit dem Alfresco Content-Management-System (Alfresco CMS) vorgestellt.
Im Rahmen der Bachelorarbeit und des Praxissemesters wurde ein Programm erstellt, welches die theoretische Berechnung der Laserstrahlpropagation ermöglicht. Die theoretische Grundlage bietet das Beugungsintegral von Gustav Kirchhoff. Ziel war es diesen theoretischen Grundlagen in eine geeignete Programmiersprache umzusetzen. Als Entwicklungsumgebung MATLAB ausgewählt. Eine GUI (Graphic User Interface) wurde erstellt, um die Bedienung einfach und benutzerfreundlich zu gestalten. Von besonderer Bedeutung für die Berechnungen ist die Elementgröße, da sie die Genauigkeit der Ergebnisse und die benötigte Berechnungsdauer bestimmt. Hierfür wurde eine empirisch ermittelte Funktion aufgestellt, die es ermöglicht die maximal mögliche Elementgröße zu bestimmen. Weiterhin wurde eine Funktion aufgestellt, welche eine Abschätzung der Berechnungsdauer ermöglicht. In dieser Arbeit wird die Gestaltung und Bedienung, sowie Inhalt und die Umsetzung des entwickelten Programmes zur Berechnung der Laserstrahlpropagation bis zum bisherigen Arbeitsstand beschrieben.
Optical imaging of intrinsic signals ist eine Methode zur intraoperativen Erkennung funktionell aktiver Hirnareale. Die vorliegende Arbeit überprüft die Verwendung unterschiedlicher Filter im Kameraaufbau der TU Dresden. Als Phantom für die Hirnmessungen wurde das Modell des Fingerphantoms verwendet. Die durch Wärme provozierte Stimulation wurde bei den Wellenlängen 436 nm, 550 nm, 568 nm und 600 nm gemessen. Als Referenzmessung diente die Laser-Doppler-Fluxmetrie. Die Arbeit wertet die unterschiedlichen Ergebnisse der zum Einsatz gekommenen Filter aus und bewertet diese für die weitere Verwendung bei Operationen
Für die Untersuchung von Bewegungen menschlicher Probanden werden diese Bewegungen mit Hilfe von Motion-Capture-Systemen gemessen. Diese gemessenen Daten müssen auf ein biomechanisches Menschmodell übertragen werden, welches zuvor entsprechend den anthropometrischen Werten des Probanden parametrisiert werden muss. Diese Arbeit beschäftigt sich mit der automatischen Bestimmung der anthropometrischen Daten und der Übertragung der Bewegungsdaten mittels inverser Kinematik.
Die nachfolgende Arbeit untersucht den Standardansatz zur Berechnung der Kapitalanforderungen eines Schaden- und Unfallversicherers. Mit einem internen stochastischen Risikomodell wird überprüft ob individuelle Risikomodule den GDV -Standardansatz verbessern können und ein angepasstes Partialmodell zur Berechnung der Kapitalanforderungen konzipiert werden kann.
Ziel dieser Diplomarbeit ist es, den derzeitigen Geschäftsprozess, welcher mit zeitaufwendigen und nicht immer transparenten Arbeiten verbunden ist, durch die Implementierung des elektronischen Rechnungsfreigabeworkflow zu optimieren. Mit dieser Optimierung erwartet man sich eine Reduzierung des Aufwandes in der Finanzbuchhaltung und den Fachbereichen, bei der Abwicklung von Mahnungen sowie eine bessere Nutzung der Skonti. Dies wird primär durch die Verkürzung der Durchlaufzeit erzielt. Jederzeit kann der Status und auch der „Ort“ des Beleges recherchiert werden. Frühwarnsystem sowie entsprechende „Erinnerungen“ können vor Skontoverlusten und Mahnspesen alarmieren. Diese zusätzlich erlangte Transparenz sowie Kontrollmöglichkeit wird als Feature gewertet. Ein weiterer Vorteil wird in der Optimierung der Kommunikation zum Kostenstellenverantwortlichen gesehen. Durch die frühe Digitalisierung der Belege und somit dem Abgleich mit dem Buchhaltungssystem kann die Aktualität der Kostenstelleninformationen verbessert werden. Diese Arbeit soll als Vorlage zu einem System dienen, welches in das SAP-System implementiert werden soll, um die Transparenz und Durchlaufzeit der Eingangsrechnungen zu optimieren. Zum Abschluss wird der erstellte Geschäftsprozess mit den ausgearbeiteten Prozessen präsentiert und detailliert beschrieben.
Die vorliegende Diplomarbeit beschäftigt sich mit dem Thema der Desktop-Virtualisierung und geht auf die Besonderheiten und technischen Details der virtuellen Desktop Infrastruktur (VDI) ein. Zudem werden Schritte und Maßnahmen für die Konzeption einer virtuellen Desktopumgebung betrachtet und die Desktop-Virtualisierungsprodukte VMWare View 4.0, Citrix XenDesktop 4.0 und Microsofts VDI Suite analysiert und verglichen
Der Freistaat Sachsen hat auf Grund der Finanzlage mit der Einführung betriebswirtschaftlicher Methoden, genauer dem sogenannten Neuen Steuerungsmodell (NSM), begonnen. Zur einheitlichen Umsetzung wurde dazu für den Freistaat Sachsen das NSM-Rahmenhandbuch ausgearbeitet. Dieses beinhaltet unter anderem Regeln zur Bildung von statistischen Kennzahlen zum Geschäftsanfall. Ziel dieser Bachelorarbeit ist es, diese Kennzahlen IT-gestützt aufzubereiten und zu generieren. Als Datengrundlage dient dabei das Registraturprogramm VIS.SAX, welches das gesamte Schriftgut erfasst. Nach der Aufnahme des Ist-Zustandes des vorhandenen Systems und dessen Schnittstellen folgt die Anforderungsanalyse. Anhand dieser werden verschiedene Lösungsmöglichkeiten konzipiert und verglichen. Anschließend wird die spezifische endgültige Lösung zur Berechnung statistischer Kennzahlen beschrieben und ein dazugehöriger Prototyp entwickelt.
Ziel der Bachelorarbeit ist es die Verifizierung der Chou-Fasman-Präferenzen an RNA-Molekülen zu realisieren und in Entscheidungsbäume einzubinden. Des Weiteren soll auf Basis bekannter und bestehender Vorhersagealgorithmen ein Meta-Vorhersage-Server erschaffen werden. Dieser soll alle bisher bekannten Vorhersagen bündeln und auf diesem Weg eine Qualitätssteigerung erzielen. Ziel ist es, die Sekundärstruktur einer Base X, aber auch die Base X selbst in Abhängigkeit von Vorgänger- und Nachfolger-Base vorherzusagen. Dabei werden sowohl die Nukleosid-Präferenzen als auch, die durch Experimente ermittelten chemischen Verschiebungen, berücksichtigt