Refine
Document Type
- Bachelor Thesis (36)
- Master's Thesis (14)
- Diploma Thesis (12)
Year of publication
- 2016 (62) (remove)
Keywords
- Softwareentwicklung (2)
- Adventivwurzel , Petunie , Steckling , Strigolactone (1)
- Android <Systemplattform> , Malware (1)
- Animationsfilm , Filmanalyse (1)
- Antikörper , Natürliche Killerzelle , Streptavidin , Tumorantigen (1)
- Bewegtes Bild , App <Programm> (1)
- Biogasanlage , Prozessanalyse (1)
- Biogasgewinnung (1)
- Biogasgewinnung , Biomasse (1)
- Biogasgewinnung , Nuttalls Wasserpest (1)
Institute
- Angewandte Computer‐ und Biowissenschaften (62) (remove)
Die Bedeutung mobiler Geräte wächst, aufgrund des zunehmenden Funktionsumfanges sowie deren Leistungsfähigkeit, seit ihrer Einführung stetig. Eine Kernkomponente dieser Geräte bildet das Betriebssystem. Hierbei stellt das Android die populärste und am Markt weit verbreitetste mobile Plattform dar. Damit verbunden bilden Android-basierte Geräte de facto das Hauptangriffsziel von Cyberkriminellen, wobei die Systeme in Form von Malware kompromittiert werden. Hieraus erwächst das Erfordernis, effiziente Maßnahmen zur Abwehr dieser Bedrohungen zu entwickeln. Grundlage dafür bildet die forensische Untersuchung dieser Schadanwendungen. Derzeit im Internet verfügbare Signatur-Analysen von Android-Paketen liefern hierbei nur begrenzte Informationen über das charakteristische Laufzeitverhalten dieser Applikationen bei Ausführung des maskierten Schadcodes. Die Zielsetzung dieser Arbeit ist die Schaffung einer hardwarebasierten Android-Analyse-Plattform – auf der Grundlage eines Wandboards –, um mobile Malware zur Laufzeit zu überwachen und, neben statischen Applikationsdaten, deren schadhaften Aktivitäten – gestartete Prozesse, nachgeladene Bibliotheken und Netzwerkverkehr – aufzuzeigen. Das Hauptaugenmerk liegt hierbei auf der Entwicklung und systemischen Integration einer forensischen Methodik zur automatisierten Sammlung und Bereitstellung dieser Daten. Um ein prinzipielles Verständnis für den Themenkomplex zu erhalten, werden elementare Grundlagen und Spezifika der Android-Plattform sowie Aspekte der IT-Forensik ausgeführt. Der Detaillierung der entwickelten Vorgehensweise folgt die veranschaulichte Darstellung des Aufbaus und der Konfiguration der Android -Analyse-Plattform. Die Anwendbarkeit der geschaffenen Methodik wird, in Form eines exemplarischen Untersuchungsablaufes, an einer Android-Malware demonstriert.
Im Rahmen der Untersuchungen für die vorliegende Bachelorarbeit wurden in fünf einstufigen Biogasreaktoren Maissilage vergoren. Die Zugabe von Harnstoff sollte eine Prozessstörung induzieren. Zur Überwachung des Prozessverlaufes erfolgten die gängigen Analysen (pH, FOS/TAC, NH4-N, GC etc.). Zusätzlich sollten Gasproben aus den Reaktoren entnommen und mittels IRMS analysiert werden, um das Isotopenverhältnis des gebildeten Biogases zu untersuchen.
Häufiger werden komplexere Fachanwendungen nicht mehr nach dem Rich-Client-Prinzip konzipiert, sondern in einer Web-Frontend-Backend-Architektur umgesetzt. Die Modellierung komplexer Geschäftsprozesse erfolgt meist nach einer serviceorientierten Architektur. Der Einsatz von Webservice-Technologien ist besonders für die technische Realisierung von serviceorientierten Architekturen geeignet. Neue Marktanforderungen von mobilen Geräten und höhere Entwicklungsgeschwindigkeiten fordern von Softwareherstellern noch flexiblere, nachhaltigere und dezentralere Lösungen. Microservices greifen das Problem auf und fokussieren die Modularisierung von monolithischen Systemen. Die Entwicklung unabhängiger Services, die einzeln erstellt und ausgeliefert werden können, tragen zu einer agilen Softwareentwicklung bei. Ziel der Arbeit ist es, eine Strategie für die Anbindung von Webservices in Projekten zu liefern. Neben der im Enterprise-Umfeld etablierten serviceorientierten Architektur wird der neuere Ansatz der unternehmensübergreifenden Microservice-Architektur aufgegriffen. Am Beispiel eines Prototyps werden die Rahmenbedingungen dargestellt, die für die Anbindung von verschiedenen Webservices erfüllt sein müssen. Zusätzlich werden Vorschläge gegeben, die die Funktionalitäten des Prototyps bei einem Ausfall externer Dienste sicherstellen.
It is possible to obtain a common updating rule for k-means and Neural Gas algorithms by using a generalized Expectation Maximization method. This result is used to derive two variants of these methods. The use of a similarity measure, specifically the gaussian function, provides another clustering alternative to the before mentioned methods. The main benefit of using the gaussian function is that it inherently looks for a common cluster center for similar data points (depending on the value of the parameter s ). In different experiments we report similar behaviour of batch and proposed variants. Also we show some useful results for the “alternative” similarity method, specifically when there is no clue about the number of clusters in the data sets.
Im Rahmen der vorliegenden Arbeit wurde die Modifizierung von Titanoberflächen mit Kalziumphosphatbeschichtungen unter Einbeziehung der biologisch aktiven Spurenelemente Strontium und Kupfer untersucht. Hierfür bildet die Methode der elektrochemisch gestützten Abscheidung (ECAD) von Kalziumphosphaten aus wässrigen Elektrolyten die Grundlage. Mit der Modifizierung der Kalziumphosphatbeschichtung soll die Einheilphase der Implantate verkürzt werden, indem durch sukzessive Degradation sowie der Phasenumwandlung der unter Bruschitbedingung abgeschiedenen Beschichtungszustände die immobilisierten Ionen in das Umgebungsgewebe freigesetzt werden. Für die Bruschitabscheidung mit bzw. ohne Strontium wurden drei unterschiedliche Beschichtungsstrategien zur Immobilisierung von Kupfer in die Kalziumphosphatbeschichtung angewendet. Diese spurenelementhaltigen Beschichtungen wurden hinsichtlich der Belegungsdichten der Hauptkomponenten der Kalziumphosphatmatrix sowie der eingelagerten Spurenelemente sowie der Morphologie der Beschichtungsoberfläche untersucht. Zur weiteren Oberflächencharakterisierung wurden der chemische Status von Kupfer und Strontium sowie die Phasenzusammensetzung der abgeschiedenen Beschichtung analysiert. Weiterhin wurde untersucht, inwieweit unterschiedliche Belegungsdichten bzw. die verschiedenen Beschichtungsvarianten das Freisetzungsverhalten der Spurenelemente unter annähernd physiologischen Verhältnissen beeinflusst. Die kupferhaltigen Beschichtungszustände wurden hinsichtlich ihres antimikrobiellen Potentials untersucht.
In meiner Masterarbeit habe ich mich mit Wasserlinsen als neuartige Energieträger für die Energiebranche beschäftigt. Dazu wurden im Labor Wasserlinsen in kleinen Becken angezüchtet und später dann als Substrat für die Biogasherstellung verwendet. Hierzu wurde ein Kleinfermentersystem im Labormaßstab aufgebaut, in dem erste Tests zur Erzeugung von Biogas aus Wasserlinsen erfolgten. Durch verschiedene Analysen wurde im Anschluss
bewertet, inwieweit sich Wasserlinsen zur Biogasproduktion eignen und welchen Einfluss Indol-3-Essigsäure auf die Synthese hatte.
Die vorliegende Arbeit betrachtet den Stellenwert von Realismus in Animationsfilmen. Unter Berücksichtigung der gestalterischen Darstellung der Figuren, der Handlung und der visuellen Gestaltung des Animationsfilmes, wird bewertet, wie wichtig die einzelnen Faktoren eines Filmes im Bezug auf ihre realistische Wirkung auf den Zuschauer sind.
Die Bakterien Francisella tularensis sind die Erreger der Zoonose Tularämie. Eine bekannte und wichtige Unterart dieser ist die Bakterienspezies Francisella tularensis subsp. holarctica, welche auch als Typ B bezeichnet werden. Diese treten auf der ganzen nördlichen Hemisphäre und eben auch innerhalb Deutschlands auf. Es sind 3 bekannte Untergruppen des Typ B zurzeit bekannt, welche sich in genetischer Hinsicht zu einem geringen Teil unterscheiden. Um die Ausbreitung der Tularämie besser verstehen und Ausbrüche verhindern zu können, ist die Bestimmung des genauen Genotyps unabdinglich. 36 Isolate von Tieren aus Deutschland aus dem Jahr 2015 wurden mittels Real-time PCR genotypisiert, um anschließend die Verteilung der unterschiedlichen Genotypen in Deutschland mit Proben aus den vergangenen Jahren 2006 bis 2014 vergleichen zu können.
Gegenstand dieser Arbeit ist die in-vitro Kultivierung von Petunia hybrida ‘Mitchell‘. Ziel der Untersuchung ist einerseits die Etablierung eines in-vitro Systems mit Petunien. Andererseits soll die Auswirkung einer warm-Dunkelbehandlung auf die Adventivwurzelbildung sowie den Kohlenhydratmetabolismus auf die Mutante PDR1 und DAD1 festgestellt werden.
Ziel dieser Diplomarbeit ist es, eine Übersicht über einsetzbare Systeme zur stationären und mobilen Einzelarbeitsplatzabsicherung nach DGUV 139 in einem
Chemiewerk zu erstellen. Dabei sollen die Vor- und Nachteile der Systeme analysiert und nach technischen und wirtschaftlichen Kriterien bewertet und verglichen werden. Für eventuell bestehende Schwächen sollen Lösungsvorschläge zur Beseitigung gefunden werden.
Die vorliegende Diplomarbeit befasst sich mit der Erstellung eines Konzeptes für eine Betriebs- und Konfigurationssoftware eines CAN-Bus-Datenloggers sowie mit der anschließenden Implementierung dieses Konzeptes. Basierend auf einer Analyse bestehender Datenlogger werden die notwendigen Anforderungen ermittelt. Diese Anforderungen stellen die Grundlage für das Konzept der Betriebs- und Konfigurationssoftware dar. Im Anschluss an die Implementierung erfolgt der Nachweis über die Umsetzung der vorab definierten Anforderungen mittels Verifikation.
In dieser Arbeit wurden kulturelle Nachweisverfahren zur Detektion von Vaginitis Erregern mit molekularbiologischen Methoden verglichen und bewertet. Für diese Untersuchung standen Vaginalabstriche von Patientinnen zur Verfügung. Diese Vaginalabstriche wurden von Gynäkologen zur Untersuchung auf pathogene Keime in das Fachlabor „Diagnosticum“ nach Neukirchen geliefert. Es wurden folgende verschiedene Universal- und Selektionsnährmedien für den Nachweis verwendet: TSS-, MCK-, MRS-, PVX-, GAR- und CAN2-Agar. Außerdem erfolgte eine mikroskopische Beurteilung (Nugent-Score) der Abstriche. Dazu wurden die Proben nach der Gram-Färbung bei 1.000-facher Vergrößerung mikroskopisch betrachtet und bewertet. Nach der Identifizierung möglich pathogener Keime erfolgte die Resistenztestung, um für den behandelnden Gynäkologen die Auswahl des richtigen Antibiotikums zu erleichtern.
Die beiden Resistenztestungssysteme, VITEK2- (bioMérieux) und Phönix-System (Becton Dickinson), basieren auf der Bestimmung der Minimalen-Hemmkonzentration. An molekularen Nachweismethoden wurde ein DNA-Hybridisierungsverfahren, Affirm-Test (Becton Dickinson), verwendet. Ferner wurden zwei Nukleinsäuren-Amplifikationsmethoden genutzt. Zum einen wurde eine Multiplex Real-Time PCR (fast-track) und zum anderen eine TMA (Transcription Mediated Amplification) Methode verwendet. Die Multiplex Real-Time PCR ermöglicht den Nachweis verschiedener Erreger (Chlamydia trachomatis, Neisseria gonorrhoeae, Mycoplasma genitalium, Trichomonas vaginalis, Mycoplasma hominis, Ureaplasma urealyticum und Ureaplasma parvum). Für das TMA wurde ein Combo Assay zur Detektierung von Chlamydia trachomatis und Neisseria gonorrhoeae genutzt. Während der Masterarbeit wurden 251 Patientenproben untersucht und ausgewertet.
Genetic sex determination of ancient DNA samples based on one simple mathematical algorithm, which considers the number of mapped reads on autosomal, X, and Y chromosomes. The algorithm is implemented in one command line tool - SiD. SiD is used to deter-mine the sex of 16 samples, which have been shotgun sequenced and captured with a 1240k panel.
Die vorliegende Bachelorarbeit befasst sich mit aktuell existierenden Methoden zur Reduzierung des Polycounts eines 3D-Models. Ziel der Arbeit war es herauszuarbeiten, wie sich ausgewählte Remeshing-Methodiken für verschiedene Arten von Ausgangsmodellen eignen und diesbezüglich Empfehlungen auszusprechen. Im Rahmen dessen, wurde ein Maßstab zur Bewertung der Ergebnisse konzipiert, der eine Beurteilung der resultierenden Modelle anhand festgelegter Qualitätskriterien ermöglicht.
Ziel der vorliegenden Bachelorarbeit war es, ein Open-Source-Softwarepaket zusammen zu stellen, das zur computergestützten Tatortrekonstruktion verwendet werden kann. Dazu wurden verschiedene Add-ons für die Open-Source-Software Blender in ihrer Funktionsweise vorgestellt und anschließend miteinander verglichen. Hierbei wurde insbesondere auf Nutzerfreundlichkeit und Eignung zur Tatortrekonstruktion eingegangen. Anschließend wurde das daraus resultierende Softwarepaket zur Erstellung einer Tatortrekonstruktion anhand eines Fallbeispiels verwendet.
Das HIGS-Projekt (Hochintegrierte Ganzzellsensoren für die Umwelt- und Medizintechnik) beschäftigt sich als Teil des BioSAM-Verbunds (Biologische Sensor-Aktor-Systeme auf der Basis von funktionalisierten Mikroorganismen) mit der Entwicklung von Ganzzellsensoren, die in der Umwelt- und Medizintechnik Einsatz finden sollen. In diesen Sensoren sollen mit Hilfe von gentechnisch veränderten Hefezellen biomolekulare und nichtbiologische Analyten erkannt werden. Die Besonderheit hierbei ist, dass sich die Zellen in einem Mikrofluidiksystem befinden sollen, welches den Einsatz in konventioneller Arbeitsumgebung ermöglicht, ohne die Bestimmung des Sicherheitsstandards S1 zu verletzen [o.V., 2014]. Als Versuchsanalyt während der Entwicklung dient das Pheromon, welcher das Wachstum der Hefezellen des Kreuzungstyps a hemmt und in genetisch modifizierten Modellhefen die Produktion eines rot fluoreszierenden Proteins bewirkt. Im späteren fertigen Biosensor soll der Arzneimittelwirkstoff Diclofenac detektiert werden. Nachgewiesen wird der Analyt über die Fluoreszenz der Hefezellen, welche durch den Analyten ausgelöst wird. Bei Diclofenac handelt es sich um einen schmerzlindernden Wirkstoff, welcher häufig in frei verkäuflichen schmerzlindernden Medikamenten enthalten ist. Da allerdings ein Großteil des Schmerzmittels wieder ausgeschieden oder von der Haut abgewaschen wird, gelangen größere Mengen des Diclofenac in die Abwässer und somit in das Ökosystem.
Die vorliegende Bachelorarbeit widmet sich der Implementierung einer Lösung für den konfigurationslosen Datenaustausch zwischen iOS und Mac OS X. Hierbei soll ein Framework entwickelt werden, das in iOS-Applikationen integriert werden kann. Dadurch wird ermöglicht, eine Verbindung zum Entwicklerwerkzeug SimPholders aufzubauen und mit diesem Daten auszutauschen.
Im Laufe der Arbeit wird dabei auf alle Schritte vom Verbindungsaufbau, über die Datenübertragung bis hin zur Anzeige der Daten in SimPholders sowie eine Beispiel für die Installation des Frameworks in eine iOS-Applikation eingegangen.
Schwerpunkte
- Planung und Implementierung einer Lösung zur konfigurationslosen Kommunikation zwischen iOS und OS X über das Multipeer Connectivity Framework
-Untersuchung alternativer Technologien zum Informationsaustausch zwischen Geräten
- Performance-Analyse zweier spezieller Serialisierungstechnologien in Hinsicht auf Geschwindigkeit und Größe
Diese Arbeit beschäftigt sich mit dem Konzept von Virtual-Reality-Brillen und deren Einfluss auf das Immersionsempfinden in Bezug auf Videospiele. Es soll geklärt werden, welche einzelnen Aspekte der Immersion bei der Benutzung einer Virtual-Reality-Brille während des Erlebens von Videospielen verbessert werden und wie intensiv dies ausfällt. Die Vorgehensweise stützt sich auf Recherche und eine theoretische Auseinandersetzung mit der Thematik. Zu diesem Zweck wird der Begriff Immersion anhand der vorhandenen Forschungslage definiert und in untersuchbare Teilbereiche aufgegliedert. Als Repräsentant moderner Virtual-Reality-Brillen wird die Oculus Rift gewählt. Deren technische Eigenschaften und Funktionsweisen werden ergründet, den festgelegten Teilbereichen der Immersion gegenübergestellt und auf das jeweilige Immersionspotential untersucht werden. Es stellte sich heraus, dass die Oculus Rift in der Lage ist, Immersionsformen zu unterstützen, die auf der Sinneswahrnehmung des Spielers basieren. Immersionsformen, welche eine kognitive Auseinandersetzung des Spielers mit Spielinhalten voraussetzen, gewinnen je nach Einzelfall nur schwach bis gar nicht an Intensität. Zum Zwecke der weiteren Auseinandersetzung mit der Thematik und der Bestätigung der theoretischen Erkenntnisse wird ein Untersuchungsdesign vorgestellt, das auf den Feststellungen dieser Arbeit basiert und in künftigen Probandentests eingesetzt werden kann.
Das Ziel der Diplomarbeit ist die Datenbankentwicklung und Implementierung der Messgeräte-Datenimport Schnittstelle. Der Benutzer soll für simple Messgerätedateien selbst eine Importschnittstelle erstellen können.
Neben der Implementierung der Schnittstelle für den Import von
Messgerätedateien in die Labordatenbank soll auch eine graphisch aufbereitete Historie aller Importe sowie eine Verwaltung der bereits erstellten Schnittstellen umgesetzt werden.
Ziel dieser Arbeit ist eine existierende Benutzerführung, die auf einer Kombination von Maus und Tastatur basiert, auf ein Gamepad-Eingabegerät zu übertragen. Als Benutzerführung gilt hierbei sowohl das grafische User Interface als auch die haptische Bedienung. Als Gamepad gilt eine Variante mit 2 Thumbsticks, einem Directional-Pad und mindestens 8 zusätzlichen Buttons. Die dazu entstehenden Aufgaben teilen sich in Analyse der existierenden Bedienung, Konzeptionierung und Implementierung der neuen Steuerung auf. Im analytischen Teil wird untersucht, in welchen Situationen bestimmte Eingabearten getätigt werden.
Basierend auf der Analyse wird ein Konzept ausgearbeitet, um Funktionen der Software mit dem Gamepad abzubilden. Eine wichtige Limitierung dabei ist ein möglichst minimaler Eingriff in die existierende Nutzerführung und Oberflächengestaltung. Branchenübliche Bedienstandards für Gamepad User Interfaces werden dabei entsprechend berücksichtigt und dargelegt. In der Implementierungsphase wird das entworfene Konzept in die Software eingearbeitet. Im Vorfeld wird die programmiertechnische Struktur der existierenden Maus- und Tastatursteuerung untersucht. Basierend auf den Erkenntnissen wird ein Implementationskonzept entworfen und schlussendlich umgesetzt.
Large bone defects are a major clinical problem affecting elderly disproportionally, particularly indeveloped countries where this population is the fastest growing. Current treatments include autologous and allogenous bone grafts, bone elongation with the Ilizarov technique, bone graft substitutes, and electrical stimulation. Each of these approaches enjoys varying degrees of success, however, each also has its associated problems and complications. A new, still experimental, treatment is Tissue Engineering that combines scaffolds, osteogenic stem cells and growth factors, and is showing encouraging early results in preclinical and initial clinical studies.
Electrical stimulation has been shown to enhance bone healing by promoting mesenchymal stem cell migration, proliferation, and differentiation. In the present study we combine Tissue Engineering with Electrical Stimulation and hypothesize that this combined approach will have a synergistic effect resulting in enhanced new bone formation. In our in vitro experiments we observed that the levels of electrical stimulation we tested had no cytotoxic effect, instead increased osteogenic differentiation, as determined by enhanced expression of the osteogenic marker, Alkaline Phosphatase. These findings support our hypothesis by demonstrating that in the tissue-engineering environment electrical stimulation promotes bone formation. The bioinformatics part of this project consisted of gene network analysis, identification of the top 10 osteogenic markers and analyzis of genegene interactions. We observed that in studies of stem cells from both human and rat the genes, BMPR1A, BMP5, TGFßR1, SMAD4, SMAD2, BMP4, BMP7, RUNX3, and CDKN1A, are associated with osteogenesis and interact with each other. We observed a total of 31 interactions for human and 29 interactions for rat stem cells. While this approach needs to be proven experimentally, we believed that these in vitro and in silico analyses could compliment each other and in doing so contribute to the field of bone healing research.
Im Rahmen dieser Diplomarbeit wird das IT-Service Management und im Speziellen der Bereich Servicebetrieb, für den Einsatz in Unternehmen mit großen, geografisch verteilten IT- Landschaften, nach aktuellen Standards durchleuchtet und bewertet. Auf der Basis der gewonnenen Erkenntnisse wird ein Konzept für eine Lösung erstellt, welche den Servicebetrieb für die angesprochenen Unternehmen, hinsichtlich Bearbeitungszeit von Störungsbehebungen und Einsatz von Arbeitskraft, optimieren soll. Das erarbeitete Konzept wird anschließend als Prototypensystem implementiert und bewertet.
Ziel dieser Diplomarbeit ist es, eine geeignete Methode zur Validierung von Laserpulsen mit einer Pulsdauer von 500ps bis maximal 10ns zu finden. Die Ergebnisse der Validierung der, von unterschiedlichen VCSEL (Vertical Cavity Surface Emitting Laser) Dioden, erzeugten Laserpulse soll als eine grundlegende Hilfestellung zur Entscheidungsfindung für die Wahl der richtigen VCSEL Diode dienen.
Zunächst wird auf die Theorie und Grundlagen von Laserpulsen sowie die wichtigsten Eigenschaften von VCSEL Dioden eingegangen. Danach folgen ein Vergleich verschiedener Ansätze zur Validierung sowie die Wahl einer konkreten Methode. In einem weiteren Kapitel wird näher auf die gewählte Methode und ihre Anwendung in der Praxis eingegangen. Die beiden letzten Kapitel befassen sich mit der Bewertung der erhaltenen Ergebnisse aus der praktischen Anwendung der gewählten Methode zur Validierung sowie einer Zusammenfassung beziehungsweise einem Ausblick.
Android ist eine Plattform und kommt auf den unterschiedlichsten mobilen Endgeräten wie Smartphones, Tablets und vielen anderen zum Einsatz. Aufgrund des prosperierenden Marktes für die auf Android zugeschnittenen Geräte, erlangt diese Plattform eine immer größere Bedeutung im Rahmen der Informationssicherheit. Da die Leistungsfähigkeit der mobilen Endgeräte perpetuell expandiert, nimmt auch die Gefahr zu, dass diese kompromittiert und so durch kriminelle Handlungen zweckentfremdet werden. Zum Schutz vor solchen Bedrohungen ist eine Untersuchung über online Anbieter oder Sicherheitssuiten möglich. Während sich die statische Analyse mit der Mustersuche befasst, wird bei der dynamischen Analyse das Verhalten eines Schadprogramms geprüft. Die Methode der Verhaltensanalyse muss im laufenden Betrieb geschehen, was üblicherweise durch Software Emulation realisiert wird. Die virtuelle Umgebung kann jedoch von Schadprogrammen eruiert werden und um einer Erkennung zu entgehen, führen diese ein eigens dafür programmiertes Verhalten aus. Die vorliegende Arbeit befasst sich mit der Hardwareplattform Wandboard und deren Konfiguration, um im späteren Verlauf Android Schadsoftware zu analysieren. Dabei sollte das Hauptaugenmerk auf die Schadsoftware gelegt werden, die eine Emulation erkennen kann. Dazu werden zunächst die Grundlagen zur Hardware Wandboard und zur Plattform Android gegeben. Um Schadprogramme einer detaillierten Analyse zu unterziehen, muss das Verständnis von Betriebssystem Abläufen sowie den genutzten Dateisystemen mit möglichen Speicherorten, apodiktisch sein. Die Software basierenden Werkzeuge müssen bekannt sein, um eine ubiquitäre Einführung entwickeln zu können. Diese kann dann als Leitfaden für aufbauende Arbeiten zur Disposition stehen. Anhand einer Schadsoftware wird exemplarisch gezeigt, wie eine Analyse der Netzwerkkommunikation eines Android Schadprogramms bewerkstelligt werden kann. Nach einem Überblick wird artikuliert, dass die Hardwareplattform Wandboard eine sehr gute Wahl für eine Analyse von Android Schadsoftware darstellt und die Evaluation der Hardware in demselben Maße von Bedeutung ist, wie die der Software.
Classification of time series has received an important amount of interest over the past years due to many real-life applications, such as environmental modeling, speech recognition, and computer vision.
In my thesis, I focus on classification of time series by LVQ classifiers. To learn a classifiers, we need a training set. In our case, every data point in the training set contains a sequence (an ordered set) of feature vectors. Thus, the first task is to construct a new feature vector (or matrix) for each sequence.
Inspired by [2], I use Hankel matrices to construct the new feature vectors. This choice comes from a basic assumption that each time series is generated by a single or a set of unknown Linear Time Invariant (LTI) systems.
After generating new feature vectors by Hankel matrices, I use two approaches to learn a classifier: Generalized Learning Vector Quntization (GLVQ) and Median variant of Generalized Learning Vector Quantization (mGLVQ).
Das Ziel dieser Arbeit war die Kombinierung von Lerninhalten und Techniken der Lernpsychologie mit kommerziellen Spielgenres. Dabei werden theoretische Grundlagen zu Unterhaltungsspielen und Lerntheorien sowie dem E-Learning vermittelt. Anschließend findet eine Zusammenführung der erörterten Theorie statt, um ein Konzept sowie einen Prototyp zu entwickeln. Der Prototyp wurde an der Zielgruppe getestet und ausgewertet. Diese Bachelorarbeit ist vor allem für Studenten der Medieninformatik und Interessenten der Spielentwicklung interessant.
Das Ziel dieser Bachelorarbeit war die Analyse der organischen und anorganischen Inhaltsstoffe der höheren Wasserpflanzen Elodea nuttallii und Myriophyllum heterophyllum. Dazu wurden mithilfe von Atomspektrometrie und Gaschromatographie mit Massensektrometer-Kopplung Analysen durchgeführt. Es konnten interessante und für eine weitere Verwendung der Biomasse wertvolle Inhaltsstoffe identifiziert werden. Vor allem Linolsäure und α-Linolensäure für eine ernährungsphysiologische Verwendung, als auch β-sitosterol für pharmazeutische Zwecke konnten nachgewiesen werden.
Systematische Analyse und Validierung von Test-Aufgaben für multikriterielle Optimierungsverfahren
(2016)
Bei der Entwicklung von modernen Verbrennungsmotoren spielen Softwareanwendungen zur Berechnung und Simulation eine grundlegende Rolle. Mit Blick darauf, dass die Anforderungen stetig wachsen und die Entwicklungszeiten kürzer werden, wird der Einsatz vonmathematischen
Optimierungsverfahren immer wichtiger. Zum Test und zur Bewertung der Verfahren existiert eine Vielzahl von analytischen Testaufgaben. In dieser Arbeit werden Test-Aufgaben für die multikriterielle Optimierung vorgestellt und auf die Schwierigkeiten, die sie Optimierungsverfahren bereiten können, untersucht. Anschließend wird eine Auswahl der Test-Aufgaben ausführlich getestet und die Ergebnisse ausgewertet.
Für die Messung der Exposition der nicht ionisierenden Strahlung gibt es die verschiedensten Normen und nationale Vorschriften. Die Diplomarbeit soll zeigen, ob die bisher oft angewandte Messmethode mittels eines einzigen Messpunktes (auch Einpunkt Methode genannt), auch plausible Ergebnisse ergibt. Der Messpunkt wird bestimmt durch Räumlichkeiten mit sensibler Nutzung (z.B. Schlafzimmer, Kinderzimmer,…), ebenso sollte immer ein Outdoor Messpunkt mitgemessen werden. Die in der Literatur beschriebenen Messmethoden wie z.B. Schwenkmessung, Mehrpunkt Messungen,… sind im Vergleich mit der Einpunkt Messung zeitlich und messtechnisch aufwendiger.
Um die einzelnen Messmethode zu prüfen, werden die ausgewählten Messmethoden durch Messungen miteinander verglichen und bewertet.
Folgende Messmethoden werden bewertet:
• EN8850 vorgeschlagene Flächenmessung mittels Drei- oder Sechspunktmessung und anschließender Mittelwertbildung der einzelnen Messwerte. Diese Messung wird mit und ohne Hochrechnung auf maximale Auslastung durchgeführt
• 24h Dauermessung mittels frequenzselektiven, auswertbaren Personen Dosimeter
• Einpunkt Messung mit und ohne Hochrechnung auf maximale Auslastung
In dieser Arbeit wurde der Einfluss des orphanen Kernrezeptors Peroxisom-Proliferatoraktivierte Rezeptor des Subtyps Gamma (PPARγ) auf die kardiale Differenzierung in vitro untersucht. Hierfür wurde die murinen embryonale Stammzelllinie CGR8 und das Modellsystems Embryoid Body verwendet. Zur Beantwortung der Fragestellung wurden einerseits pharmakologische Inkubationsexperimente mit spezifischen Agonisten sowie Antagonisten realisiert. Andererseits wurde das Differenzierungsverhalten vergleichend in einer PPARγ-Knockdown-Zelllinie betrachtet, welche durch eine stabile Herunterregulation des Rezeptorsubtyps gekennzeichnet ist.
Die vorliegende Bachelorarbeit gibt einen Überblick über die aktuellen Konzepte modularer Programmierung und deren Umsetzung mit JavaScript. Hierfür werden einige JavaScript Frameworks für die Erstellung einer einfachen clientseitigen Anwendung geprüft und unter verschiedenen Kriterien ausgewertet. Als Basis dieser Arbeit dienen Fachliteratur, die Dokumentation der jeweiligen Frameworks und die persönlichen Erkenntnisse und Erfahrungen des Authors. Der Verfasser erhofft sich dadurch einen Erkenntnisgewinn zur sauberen und modularen Programmierung mit JavaScript und wie diese bei kleinen und clientseitigen Anwendungen durch Frameworks erleichtert werden kann.
The loss of photoreceptors is a major course for visual impairment and blindness with no cure currently established. Photoreceptor replacement into mouse models of retinal degeneration is currently investigated as a potential future therapy. To evaluate visual function in mice before and after treatment two vision-based behavioral tests (optomotor tracking and the light/dark box) were investigated including their feasibility to distinguish between rod and cone photoreceptor function. Both methods turned out to be an objective and reliable readout for vision ability in wildtype mice and mice with vision impairment due to retinal degeneration. The capability of the methods to assess slight vision improvements have to be further evaluated.
Therefore options for improvement of the established tests and an idea for a new test paradigm have been introduced.
In der vorliegenden wissenschaftlichen Arbeit wird der Einsatz von digitalen Spielen in der schulischen wie berufliche Aus- und Weiterbildung untersucht. Dabei wird insbesondere die Methode des Digital Game-Based Learnings betrachtet. Grundlage der Analyse bilden zahlreiche Fachliteratur, diverse Studien und aktuelle Erfahrungsberichte, anhand derer sowohl die positive Wirkung als auch die pädagogische Bedeutung von Computerspielen belegt wird. Mithilfe von zusätzlichen Experteninterviews werden neben den Möglichkeiten und Herausforderung digitaler Spiele abschließend eine Prognose für deren Einsatz als Lernmedium in deutschen Schulen und Konzernen erarbeitet.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Tools zur Unterstützung eines Embedded-Software-Entwicklers für die Erstellung einer nach SIL-2 abgenommenen Modulspezifikation. Das Hauptaugenmerk hat dabei vor allem auf dem Zeitfaktor zu liegen. Es soll dem Entwickler dadurch eine optimierte Nutzung seiner Arbeitszeit ermöglichen. Um dies zu erreichen, soll das Tool an die aktuelle Arbeitsweise angelehnt sein und eine effiziente Technologie für die Erstellung der Dokumentation verwenden. Ein weiterer Vorteil dieses Tools ist eine Reduzierung von Fehlerquellen.
Diese Arbeit beschäftigt sichmit bestehendenUser-Space Implementierungen des TCP-Protokolls zur Verwendung in einer Firewall. Die Implementierungen werden hinsichtlich ihrer Wartbarkeit, Dokumentation und Integrierbarkeit in eine bestehende Firewall-Lösung bewertet. Außerdem wird die Funktionsweise eines TCP-Proxy erläutert.
Verwendung von „mCherry“ als Reportersystem zur Bestimmung der Stärke verschiedener Promotoren.
(2016)
In der folgenden Arbeit geht es um die Analyse der Stärke von verschiedenen Promotoren in den Mikroorganismen Escherichia coli und Acetobacterium woodii, welche mithilfe des rot fluoreszierenden Reporterproteins mCherry detektiert wurde. Die Messungen wurden jeweils bei zellsuspensionen mit dem TECAN-Reader „Infinite® 200 PRO“ der Tecan Group Ltd., Schweiz, durchgeführt. Die relative Fluoreszenz, bei der es sich um die gemessene Emission
in Bezug auf die OD600 der jeweiligen Zellsuspension handelt, spiegelt die Stärke des jeweiligen Promotors wieder.
Des Weiteren wurde die Klonierung des Promotors PbgaL2 durchgeführt.
In der Softwareentwicklung gewinnen agile Methoden zunehmend an Bedeutung. ERP-Implementierungspartner sind in der Regel keine Entwickler neuer Standardanwendungen, sondern erweitern oder ergänzen vom Hersteller gelieferte Standardsoftware. Die Diplomarbeit soll zeigen, ob agile Methoden für die Softwareentwicklung bei ERP-Implementierungspartnern aufgrund der besonderen Anforderungen geeignet sind .
Die anfallende Biomasse der Wasserpflanze Elodea nuttallii sollte als Mischsilage in zwei Fermentern vergoren werden. Zur Silage-Herstellung wurden verschiedenste Behandlungsarten ausprobiert und die Silagen anschließend analysiert. Aus diesen wurde eine Mischsilage ausgewählt, welche in einem kontinuierlichen Vergärungsprozess untersucht wurde.
Hierbei sind die Prozessstabilität (FOS, FOS/TAC, Ammoniumstickstoff, pH und GC) sowie der Biogasertrag genauer betrachtet worden. Es konnten somit Aussagen zur Funktionalität und Effizienz der Elodea nuttallii als Co-Substrat bei der Herstellung von Biogas getroffen werden.
Cancer is one of the main causes of death in developed countries, and cancer treatment heavily depends on successful early detection and diagnosis. Tumor biomarkers are helpful for early diagnose. The goal of this discovery method is to identify genetic variations as well as changes in gene expression or activity that can be linked to a typical cancer state.
First, several cancer gene signaling pathways were introduced and then combined. 27 candidate genes were selected, through the analysis of several data sets in the GEO database, a few expression difference matrices were established. Those candidate genes were tested in the matrices and found five genes PLA1A, MMP14, CCND1, BIRC5 and MYC that have the potential to be tumor biomarkers. Two of these genes have been further discussed, PLA1A is a potential biomarker for prostate cancer, and MMP14 can be considered as a biomarker for NSC lung cancer.
Finally, the significance of this study and the potential value of the two genes are discussed, and the future research in this direction is a prospect.
Basierend auf dem aktuellen Verständnis über die olfaktorische Perzeption der Hundenase, der Definition des menschlichen Individualgeruchs und dem Einfluss von Wetterparametern und weiteren Faktoren, welche im Zusammenhang mit einer urbanen Umgebung auf eine molekulare Geruchsspur einwirken können, soll diese Arbeit den derzeitigen wissenschaftlichen Stand verdeutlichen und Wiedersprüche aufgreifen. Es wird eine umfangreiche Literatursammlung zum gegenwärtigen Wissensstand dargestellt, sowie bestehende Probleme polizeilicher Mantrail-Einsätze aufgezeigt. Die Arbeit bietet eine differente Betrachtungsweise im Umgang mit der Dokumentation dieser Einsätze und gibt erste Einblicke für die Entwicklung einer computergestützten Simulation, basierend auf statistischen Modellen. Eine daraus resultierende Software soll eine juristisch verwertbare Wahrscheinlichkeitsaussage zum Verhalten des Hundes in seiner urbanen Umgebung auf der Grundlage einer molekularen Spur ermöglichen und kann als Werkzeug zur Dokumentation, sowie zur Plausibilitätsbetrachtung von Mantrail-Einsätzen Verwendung finden. Basis für diese Ansätze bildet das Verständnis der Geruchswahrnehmung durch den Hund, sein Verhalten während eines Trails sowie die Kenntnisse über die Ausbreitung einer Geruchswolke in der Umwelt. Diese Aspekte, sowie deren Beeinflussung durch äußere Faktoren und die Mensch-Hund Beziehung die maßgeblich zum Erfolg beiträgt, werden in der vorliegenden Arbeit ausführlich diskutiert und erste Ansätze zur Demo-Software vorgestellt.
Standardsoftware wie Enterprise Resource Planning Systeme bieten eine ganzheitliche Unterstützung der Wertschöpfungsprozesse eines Anwenderunternehmens. Die darüber abgebildeten Geschäftsprozesse spiegeln im Allgemeinen das Wissen eines Entwicklerunternehmens über die Vorgehensweisen und Methoden innerhalb einer bestimmten Branche wider. In der heutigen Zeit gehören Enterprise Resource Planning Systeme zur softwaretechnischen Grundausstattung für die überwiegende Mehrzahl Kleiner und Mittlerer Unternehmen. Deren primärer Wettbewerbsvorteil liegt hierbei vor allem in ihrer Individualität, welche durch ein Enterprise Resource Planning System zu unterstützen ist. Diesbezügliche Anpassungen des Systems sind aufgrund seiner Komplexität häufig sehr kostenintensiv und übersteigen nicht selten das Budget eines Kleinen und Mittleren Unternehmens.
Workflow-Management-Systeme bieten eine einfache Möglichkeit die internen Geschäftsprozesse eines Anwenderunternehmens kostengünstig über ein Enterprise Resource Planning Systems abzubilden. Gleichzeitig erlauben sie die Steuerung der modellierten Arbeitsabläufe.
Diese Arbeit beschäftigt sich daher mit der Integration eines Workflow-Management-Systems in ein bestehendes Enterprise Resource Planning System. Das Integrationskonzept bezieht sich dabei ausschließlich auf Client-Server- Architekturen. Auf Basis einer IST-Analyse wird dabei ein Integrationskonzept für eine lose Kopplung beider Systeme entwickelt. Im Ergebnis soll dies einen einfachen Austausch des Workflow-Management-Systems garantieren und dessen Funktionen innerhalb des Enterprise Resource Planning System bereitstellen.
Schlüsselwörter: Workflow Management, Workflow-Management-System, Enterprise Resource Planning, Integration, Integrationskonzept, Kleine und Mittlere Unternehmen