Angewandte Computer‐ und Biowissenschaften
Refine
Document Type
- Bachelor Thesis (90)
- Diploma Thesis (18)
- Master's Thesis (10)
Year of publication
- 2017 (118) (remove)
Keywords
- Softwareentwicklung (5)
- Altersbestimmung (3)
- DNS (3)
- Videospiel (3)
- Bioinformatik (2)
- Blockchain (2)
- Computerforensik (2)
- Computersicherheit (2)
- Computerspiel (2)
- Daktyloskopie (2)
Institute
Das Ziel der vorliegenden Bachelorarbeit ist es, die wichtigsten theoretischen Konzepte zum kreativen Lernen zu vergleichen und empirisch zu überprüfen. Dazu wurde in zwei Kita eine teilnehmende Beobachtung durchgeführt. Die Ergebnisse sollen herausfinden, in welcher Weise Animationsfilme Lernhilfen für Kinder darstellen. Folgende Schlussfolgerungen gehen jedoch nach der Auswertung der teilnehmenden Beobachtung über die theoretischen Annahmen hinaus: vbL in Kitas ist möglich, erweist sich im Alltag allerdings Schwierig, Animationsfilme oder digitale Medien sollten im Kita-alltag sparsam eingesetzt werden und vbL sollte nur genutzt werden, wenn Kinder dabei selbst aktiv werden können.
Die Gamesbranche erwirtschaftet jedes Jahr mit AAA Titeln Milliardenumsätze und wächst stetig weiter. Diese wissenschaftliche Arbeit trägt den Titel: Untersuchungen zur Machbarkeit der Entwicklung von Games-AAA-Titeln durch kleine Teams. In der Arbeit wird analysiert ob es möglich ist AAA-Games-Titel mit kleinen Teams umzusetzen. Dafür wird die Entwicklung der Branche analysiert um Ausgangslage und Anforderungen für AAA-Titel zu definieren. Mit diesen Daten werden neue Arbeitsweisen und Technologien untersucht und bewertet. Aus diesen wird dann ein optimales Modell ab-geleitet mit dem AAA-Titel mit wenig Kapital und Entwicklern umgesetzt werden kann.
Implementierung einer Schrifterkennung auf Basis Neuronaler Netze am Beispiel einer IBAN-Erkennung
(2017)
Inhalt dieser Arbeit ist die Entwicklung einer Software zur Schrifterkennung, basierend auf Neuronalen Netzen. Dies soll am Beispiel einer IBAN-Erkennung skizziert werden.
Hierfür werden zuerst grundlegende Konzepte (künstlicher) Neuronaler Netze sowie der für die Zeichen-Extraktion notwendigen Bildvorverarbeitung besprochen.
Die Implementierung des Neuronalen Netzes erfolgt auf Basis eines speziellen Frameworks, zum direkten Vergleich wird auch eine (rudimentär funktionale) Eigenentwicklung vorgestellt.
Entsprechende Tests und Messungen zeigen Stärken und Schwächen der umgesetzten Lösung und liefern somit Aufschluss darüber, welches Potential für eine weitere Behandlung der Thematik besteht.
Die Überwachung sozialer Online-Netzwerke spielt eine zunehmend wichtige Rolle, um die polizeilichen Aufgaben hinsichtlich Kriminalprävention und Gefahrenabwehr auch im virtuellen Raum effektiv und effizient wahrnehmen zu können. Gleichzeitig machen das enorme Volumen und die Komplexität der Daten eine manuelle Bearbeitung nahezu unmöglich. Es müssen automatisierte Verfahren entwickelt werden, welche sogenannte Gefährder in sozialen Online-Netzwerken sicher erkennen können. Für die Entwicklung, das Training und die Evaluation von Modellen für das Maschinelle Lernen werden standardisierte Referenzdaten benötigt. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines solchen Goldstandards mit Trainings- und Testdaten für Algorithmen zur Detektion von Gefährdern in sozialen Online-Netzwerken. Es werden Kriterien für die Auswahl relevanter Profile und Attribute erarbeitet und Anforderungen für die Strukturierung und Ablage der Daten formuliert. Weiterhin werden konkrete Profile und Feature-Kandidaten sowie ein XML-Schema und Dateilayout für die Bereitstellung der Daten des Goldstandards vorgeschlagen. Abschließend werden die Ergebnisse kritisch gewürdigt und ein Ausblick für zukünftige Arbeiten gegeben.
In dieser Thesis wird das Konzept des Software Defined Networkings (SDN) und den daraus resultierenden Möglichkeiten näher betrachtet. Auf dieser Grundlage wird beschrieben wie mit Hilfe einer SDN Umgebung eine kritische Infrastruktur abgesichert werden kann. Hierzu wird eine Mikrosegmentierung mit VMware NSX und auf Basis des VXLAN Protokoll realisiert. In weiterer Ausbaustufe werden zwei Rechenzentren zu einer hybriden Cloud zusammengeschlossen und demonstriert wie Layer 2 Datenverkehr zwischen beiden Rechenzentren transparent übertragen und dadurch die Sicherheit für solch ein Szenario erhöht wird. Darauf folgt ein Vergleich mit einer vergleichbaren Netzwerkumgebung, mit abschließender Beurteilung des Sicherheitsniveaus der implementierten Infrastruktur.
AVL entwickelt aktuell einen neuen Ladungsverstärker, der sich von Vorgängermodellen dadurch unterscheidet, dass zusätzlich zur Ausgabe der verstärkten und gefilterten Signale auch deren Digitalisierung und Verarbeitung in einem Signalprozessor vorgesehen sind. Für diese Hardware soll im Signalprozessor ein intelligenter Algorithmus zur Driftregelung als auch eine Ermittlung und statistische Bewertung der Signalspitzenwerte konzipiert und als Firmwarekomponenten umgesetzt werden. Aufgrund seines Aufbaus benötigt ein Ladungsverstärker eine permanente Kompensation der auftretenden Drifteffekte, um den Signalnullpunkt stabil zu halten. Solche Drifterscheinungen kommen sowohl durch die nicht idealen Komponenten, zu geringe Isolation der Signalwege als auch durch diverse Effekte der verwendeten Quarzdruckaufnehmer zustande. Durch Analyse des digitalisierten Messsignals soll laufend die Nullpunktsdrift ermittelt und durch Abgabe einer Korrekturspannung an einen DAC, aus der wiederum ein Kompensationsstrom für den Ladungs-/Spannungskonverter erzeugt wird, vollständig ausgeregelt werden. Die für die Driftregelung erforderliche Signalanalyse, soll gleichzeitig auch dazu verwendet werden, laufend den Spitzenwert des Signals zu ermitteln und diesen einer von 5 Klassen zuzuordnen und die Häufigkeiten in den Klassen zu kumulieren. Auf diese Weise kann dem Anwender ein Maß für die vom Sensor wahrgenommene Belastung, übermittelt, und somit ein Kriterium zur Entscheidung für einen eventuellen Sensoraustausch geboten werden.
Diese Arbeit untersucht den Einfluss westlicher und japanischer Kultur auf die Videospielindustrie. Dabei reduziert sie sich auf einen gewissen Kulturbegriff und schafft mithilfe dessen ein aktuelles und neutrales Bild der Stereotypen beider Kulturen. Eine analytische Betrachtung am praktischen Beispiel einiger Videospiele, gibt dabei Aufschluss über unterschiedliche Konzepte, die durch das bestehen von Kulturen geprägt wurden. Auf Grundlage der quantitativen Umfrage werden gewisse Neigungen und Präferenzen der westliche Audienz untersucht und analysiert und mit den theoretischen, sowie analytischen Ansätze verglichen und in Relation gesetzt. Das Ergebnis zeigt, dass kulturelle Wertmuster im Zuge der Globalisierung einander annähern und die Grenzen der eindeutigen Identifikation zunehmend verschwimmen
The endogen steroid hormone 17b-estradiol is a central player in a wide range of physiologic, behavioral processes and diseases in vertebrates. As a consequence, it is a main target for molecular design and drug discovery efforts in medicine and environmental sciences, which requires in-depth knowledge of protein-ligand binding processes. This work develops a bioinformatic framework based on local and global structure similarity for the characterization of E2-protein interactions in all 35 publicly available three-dimensional structures of estradiol-protein complexes. Subsequently, it uses gained data to identify four geometrically conserved estradiol binding residue motifs, against which the Protein Data Bank is queried. As result of this database query, 15 hits present in seven protein structures are found. Five of these structures do not contain E2 as ligand and had thus not been included in this work’s initial data set. One of these newly detected structures is structurally and functionally dissimilar, as well as evolutionarily distant from all other proteins analyzed in this work. Nevertheless, the ability of this protein to actually bind estradiol must be further analyzed. Finally, geometrically conserved E2-protein interactions are identified and a new research direction using these conserved interaction ensembles for the detection of novel estradiol targets is proposed.
Für die Unfallrekonstruktion bietet die Erstellung eines 3D-Modelles viele Vorteile. Es fallen weniger Daten bei der Datenakquirierung an und somit wird benötigte Zeit an der Unfallstelle reduziert. Zusätzlich lassen sich Messungen direkt am 3D-Modell vornehmen. Um eine möglichst genaue 3D-Rekonstruktion zu ermöglichen, wurde in dieser Arbeit der Einfluss von verschiedenen Aufnahmemethodiken und softwarespezifischen Prozessparametern, auf das mithilfe der Photogrammetrie Software Agisoft PhotoScan erstellte Modell untersucht. Da es bisher wenig Literatur gab, welche sichmit der richtigen Parametrisierung des Rekonstruktionsprozesses auseinandersetzte, wurde dabei deshalb empirisch vorgegangen. Als unterschiedliche Aufnahmemethoden wurden die Aufnahme direkt mit der Kamera aus der Hand, an einem Stativ und aus der Luft mit drei verschiedenen Kamerasystemen analysiert. Die rekonstruierten 3D-Modelle wurden auf ihre Abweichung und auf die optische Ähnlichkeit zum realen Modell untersucht. Das Ziel dieser Arbeit war die Optimierung des Rekonstruktions- und Aufnahmeprozesses für die Aufnahme einer Fahrbahn. Dabei stellten sich heraus, dass sich für verschiedene Aufnahmemethodiken unterschiedliche Prozessparameter eignen und dass die Parametrisierung, neben der Aufnahmemethodik, einen großen Einfluss auf das fertige 3D-Modell hat.
Die vorliegende Arbeit befasst sich mit der Analyse der Verbindungen zur Blockchain-Technologie und der künstlichen Intelligenz. Das Hauptziel ist, neue Bereiche der beiden Technologien zu beschreiben und zu erklären. Zuerst werden inhaltliche Fragen und Erklärungen für ein besseres Verständnis der beiden Technologien erläutert. Des Weiteren werden gemeinsame Einsatzszenarien, sowie dessen Realisierung betrachtet. Zuletzt werden Vor- und Nachteile, sowie eine Zukunftsprognose der Blockchain-Technologie und der künstlichen Intelligenz aufgestellt.
In dieser Arbeit ging es hauptsächlich darum, zu untersuchen wie bestimmte, gewählte Degradationsparameter auf DNA Proben realer Personen einwirken und wie diese im Laufe der Zeit verändert werden. Besonderes Augenmerk lag hierbei auf dropout/dropin Phänomenen. Dabei wurde zusätzlich die Verwendbarkeit des Chimera® Mentype® Kits in der forensischen Spurenanalytik überprüft.
Es wurden unterschiedliche Spurenmaterialien von fünf Probanden über einen Zeitraum von 4 h bis 14 Tagen, diversen Temperaturen und UVC-Bestrahlung ausgesetzt. Die Auswertung erfolgte mittels STR-Profilen sowie Fragment Analyzer™. Ebenfalls wurden Hautabriebsspuren gesichert, welche mittels NanoDrop™ und Fragment Analyzer ™ analysiert wurden um eine Beurteilung über die Tauglichkeit dieser Tools vornehmen zu können.
Die Ergebnisse bestätigen, dass ein großer Unterschied zwischen Speichelproben und Mundschleimhautabstrichen besteht, was Degradationserscheinungen betrifft. Es konnte auch festgestellt werden, dass es signifikante Unterschiede bei den Probanden gibt. (Shedderstatus) Bei dem Vergleich von STR-Profilen mit den Fragment Analyzer™ Daten zeigt sich, dass eine Korrelation nicht möglich ist.
Der angesetzten Toolvergleich brachte hervor, dass der Fragment Analyzer™ effizienter und präziser ist, womit der NanoDrop™ vorgezogen werden sollte.
Ziel der vorliegenden Arbeit war es, ein Qualitätssicherungssystem von Tierarzneimittel – Standardsubstanzen zu erstellen, indem die chromatographischen Eigenschaften der Wirkstoffe, die zur Überprüfung der Arzneimittelrückstände in Lebensmitteln dienen, erfasst und dokumentiert wurden. Der Bestand der internen Datenbank, die zum Untersuchungsspektrum der „Landesuntersuchungsanstalt für das Gesundheits- und Veterinärwesen“(LUA) Chemnitz gehören, umfasst derzeit 745 Wirkstoffe, hierbei konnten 437 Wirkstoffe in die Stabilitätsprüfung aufgenommen werden. Es wurden 103 Substanzen mittels GC-MS und 334 Wirkstoffe mittels HPLC-DAD erfasst und dokumentiert. Es wurde mittels einer Dreifachmessung ein geeignetes Verfahren zur Überprüfung der chromatographischen Eigenschaften und zur Kontrolle der Stabilität gefunden.
Ziel dieser Diplomarbeit ist es, eine geeignete mobile Messmethode für ein Motorenüberwachungssystem mit Erkennung und Ausgleichsroutine bei Motorlaständerungen zu finden. Zunächst werden Grundlagen und wichtige Kennwerte der Indiziermesstechnik erklärt. Danach folgt die Gegenüberstellung von zwei Messmethoden mit erweiterter Plausibilitätsüberprüfung der verwendeten Sensoren. Die Validierung aussagekräftiger Resultatwerte, soll als Grundlage für die Erweiterung des Softwareablaufs dienen. Die beiden letzten Kapitel befassen sich mit der Erweiterung des Softwareablaufs sowie einer Zusammenfassung mit Ausblick.
Bereits 1886 entdeckte der Kinderarzt Theodor Escherich ein neuartiges Bakterium, welches später den Namen Escherichia (E.) coli bekommt, im Darm von Kleinkindern. Im Laufe der Jahre fand man heraus, dass E. coli sowohl probiotische, als auch pathogene Eigenschaften haben kann. Pathogene E. coli können eine ganze Reihe gefährlicher Durchfallerkrankungen auslösen, was eine sichere Diagnose der Erreger notwendig macht. Die zuverlässigste Analysemethode ist die Polymerase-Ketten-Reaktion (PCR). Dabei können kleinste Mengen DNA vervielfältigt und anschließend analysiert werden. Ziel dieser Arbeit ist die Entwicklung und Validation einer Multiplex-PCR, um insgesamt sieben verschiedene pathogenen E. coli nachweisen und unterscheiden zu können
Im Rahmen dieser Arbeit werden existierende Taxonomien und Ergebnisse weiterer wissenschaftlicher Arbeiten, welche sich mit der Aufnahme und Verarbeitung auditiver Reize, sowie möglichen Reaktionen auf diese, beschäftigen, miteinander verknüpft. Zudem werden die Erfahrung eines Videospiels im Spieler, die dafür von ihm benötigten, mentalen Fähigkeiten, als auch Funktionen von Audio hinsichtlich der Anwendung in der Mensch-Maschine-Interaktion, zu besagten Kategorisierungen in Relation gesetzt, um eine Kategorisierung zu erschließen, welche bei der Arbeit mit auditiven Reizen angewandt werden kann. Das Ziel hierbei ist das Streben nach einer idealen Erfahrung im Spieler eines Videospiels zu unterstützen, sowie das Schaffen eines vollständigen Leitfadens zum Sound Design von Videospielen weiter voranzutreiben
Brassica oleracea like all crucifers plants have a defense mechanism against natural enemies, which are chemical compounds formed form the enzymatic degradation of glucosinolates. In the presence of epithiospecifier proteins (ESP), the hydrolysis of glucosinolates will form epithionitriles or nitriles depending on the glucosinolate structure, This research proved that three predicted sequences (ESP) taken from NCBI database has a role in the enzymatic hydrolysis of glucosinolates in Brassica oleracea.
Modularität in 3D-Videospielumgebungen und Techniken zur Verwendung und Minimierung der Nachteile
(2017)
Diese Arbeit thematisiert die Vorteile und Nachteile der Verwendung von modularen Asset-Sets sowie den Arbeitsablauf bei der Erstellung dieser in einer Echtzeit-3D-Umgebung. Am Ende sollen der Produktionsaufwand der Assets sowie die zu erwartende Performance besser eingeschätzt werden können. Zudem soll der Leser Zugriff auf Techniken erhalten, mit denen sich die Nachteile durch die Verwendung von modularen Assets minimieren lassen.
In dieser Bachelorarbeit wird die steigende Nutzung von computerbasierten Animationstechniken und ihre Auswirkungen auf die Popularität von handgezeichneten Animationen und Stop-Motion-Filmen analysiert und kritisch hinterfragt. Unter Animation sei in diesem Fall ein Bewegtbild in Form eines Films, einer Fernsehserie oder eines auf sonstige Weise verbreiteten Videos zu verstehen, welches ausschließlich unter Verwendung von Computern, Puppentrick oder gezeichneten Bildinhalten erstellt wurde. Animierte Elemente in Realfilmen sollen nicht berücksichtigt werden. So sind in Filmen, wie JASON AND THE ARGONAUTS (R.: Don Chaffey. USA 1963) oder AVATAR (R.: James Cameron. USA 2009), zwar animierte Elemente enthalten, jedoch dienen diese lediglich als Werkzeug zur Erweiterung der filmisch darstellbaren Realität. Diese Werke sind somit nicht als Animationsfilme kategorisiert und werden in dieser Arbeit nicht grundlegend behandelt. Jegliche Erwähnung dieser Art steht im direkten Zusammenhang zu ihrer Auswirkung auf die zugrunde liegende Animationsform. In dieser Arbeit wird erläutert, in welchem Maße das computergenerierte Bewegtbild in der Populärkultur eine Vorrangstellung einnimmt und welche geschichtlichen Hintergründe dazu führten. Dazu wird Zeichentrick vor allem auf seinen Kostenaufwand, die allgemeine Produktionsdauer, die benötigte Arbeiterschaft und seine Popularität in der Bevölkerung hin untersucht. All dies geschieht im Vergleich zu Computeranimation. Außerdem wird versucht, anhand globaler Vergleiche Lösungsansätze zu finden, mit deren Hilfe die Marktfähigkeit von 2D- und Stop-Motion-Animationsfilmen zukünftig gewährleistet bleiben kann. Das Thema lässt sich im Fachbereich Medien einordnen. Besonders Interessenten der Animationsfilmherstellung und Medienstudenten soll diese Abhandlung nützliche und wissenswerte Sachverhalte über die zugrunde liegende Kontroverse näherbringen.
Titandioxid-Nanopartikel zählen zu den meist verwendeten Nanopartikeln der modernen Industrie. Durch ihre Anwendung gelangt ein Großteil ins Abwasser, womit das Verhalten der Nanopartikel in Kläranlagen einen entscheidenden Prozess für die Abschätzung des Umweltrisikos bildet. In dieser Arbeit wurden zwei Laborkläranlagen betrieben und Mittels der Abbauleistungen für TOC, DOC, TNb und Gesamtphosphor auf ihre Funktionsfähigkeit überprüft. Ein Kohlenstoffabbau von im Mittel >90 % wurde angestrebt und auch erreicht. Eine Anlage wurde einmalig mit 62,7 mg Titandioxid-NP beimpft. Die zweite Anlage wurde täglich mit 1 mg/d beimpft. In beiden Versuchen wurde ein Großteil der Nanopartikel (>90 %) im Schlamm wiedergefunden und nur 4 % bis 10 % in der wässrigen Phase. Es wurden keine negativen Auswirkungen auf die Mikroorganismen durch die Nanopartikel beobachtet
Im Rahmen dieser Arbeit wird die Herstellung, Evaluierung und in vitro-Charakterisierung Luciferase-exprimierender Candida albicans-Stämme gezeigt, welche in einem späteren Brandwundeninfektionsmodell an Ratten eingesetzt werden, um den Infektionsverlauf nach Applikation von Candida albicans in vivo zu untersuchen.
Die vorliegende Bachelorarbeit zeigt anhand von durchgeführten Untersuchungen auf, welche allgemeinen Marketingmanagement Konzepte auf die deutsche Spieleindustrie angewandt werden können. Es werden allgemeine theoretische Ansätze eines klassischen Planungsprozesses einer Marketing Konzeption dargelegt, welche mittels Literaturrecherche erarbeitet wurden. Die Anwendbarkeit dieser Konzepte auf die deutsche Spieleindustrie wurde in einem methodischen Teil, durch qualitative Experteninterviews mit langjährigen Branchenanhängern, geprüft.
Ziel der Diplomarbeit ist die Erstellung einer Software zum Auslesen und Aufbereiten von Fehlerdaten aus einer Datenbank einer Automatischen Optischen Inspektion (AOI). Des Weiteren sollen die Daten in Tabellenform und als Diagramm darstellbar und auch exportierbar sein.
Diese Arbeit befasst sich zunächst mit den Grundlagen von Java und Datenbanken sowie mit der Abfragesprache SQL. In den darauffolgenden Kapiteln werden die Anforderungen präzisiert und es wird näher auf die Installation der erforderlichen Komponenten sowie die Implementierung eingegangen. Im letzten Kapitel werden die Ergebnisse kurz zusammengefasst und ein Ausblick für Funktionserweiterungen wird dargestellt.
In der vorliegenden Arbeit soll ein Lösungskonzept für Regressionstests des Softwareprodukts robotron*ecount entstehen. Ziel ist die Ermöglichung eines effizienten und wirtschaftlichen Regressionstests mithilfe der Testautomatisierung. Zunächst wird ein universeller Testprozess definiert. Des Weiteren erfolgt eine Untersuchung von technischen und logischen Konzepten sowie Werkzeugen bezüglich der Testautomatisierung wie z. B. Formen der Testfalldarstellung und Testmetriken. Außerdem wird die Struktur und Arbeitsweise des Testobjekts robotron*ecount analysiert. Die gewonnenen Erkenntnisse werden anschließend bei der Gestaltung des Lösungskonzepts angewendet.
The following is a description and outline of the work done at the Cornell Lab of Ornithology developing Nation Feathers VR, a virtual reality game for learning about bird calls and songs. The goal was to develop a game which is intuitive, educational and entertaining. Furthermore, the software needed to be structured in a way that allows for feasible future expansion. This required careful data saving and retrieval. The game gives the player an opportunity to learn and apply that knowledge, all while maintaining a shorter runtime in order to reduce the total time spent in the virtual world. This is meant to prevent any discomfort to the player that may result from extended use of the VR headset.
Abstract nicht vorhanden
Das Smartphone ist im Laufe seiner Entwicklung zu einem ständigen Begleiter des modernen Menschen avanciert. Besonders der Marktführer, das mit Android betriebene Mobilgerät, ist weit verbreitet, allerdings aufgrund von nicht geschlossenen Sicherheitslecks für Malware anfällig, sodass zahlreiche Arten an Android-Viren existieren. Die Analyse dieser ermöglicht die Klassifikation, Abwehr und Bekämpfung solcher Angriffe. Die Kombination aus einem Webserver und mehreren Wandboards, einer Mikrocontroller-Entwicklungsplattform, bietet zusätzlich die Möglichkeit, das Analysieren zur Laufzeit durchzuführen. Im aktuellen Zustand des geplanten Projektes wäre es allerdings nötig, bei jedem Wechsel der Android-Version oder -Malware die
bootfähige Speicherkarte des Wandboards auszutauschen. Dieser zeitlich und materiell aufwändige Vorgang kann durch die Konfiguration des Wandboards, das heißt seiner Hard- und Software, für den Boot der Android-Abbilder mit den zu analysierenden Viren über das Netzwerk optimiert werden. Die vorgestellte Methodik nutzt das Protokoll Preboot Execution Environment, um die Android-Systemdateien über einen TFTP- und einen NFS-Server zu laden. Die SD-Karte wird ausschließlich für den verwendeten Bootloader U-Boot eingesetzt. Um die auf den Servern eingerichteten Daten herzustellen, wurden zwei Ansätze, die Kompilierung des Android-Quellcodes und die Generierung aus den vorinstallierten SD-Karten-Images, entwickelt. Das Vorgehen zur Konfiguration der Server und des Bootloaders ist als Anleitung in die methodische Darstellung eingearbeitet. Mit Abschluss der Einrichtung zum Netzwerkstart konnte Android erfolgreich auf dem Wandboard über das lokale Netz gestartet werden. Die nunmehr mit weniger Aufwand durchführbaren Wechsel von Systemversionen ermöglichen die Realisierung eines Services zur Android-Malware-Analyse zur Laufzeit, der die zeitnahe und sichere Klassifikation und Bekämpfung von Viren auf Mobilgeräten möglich macht.
Nanopartikel gelangen vor allem aus der Industrie oder durch Regenwasser aus den Städten in Klärwerke und somit in den Wasserkreislauf. In diesem Versuch soll das Verhalten von Cerdioxid-Nanopartikeln in zwei Laborkläranlagen mittels verschiedener Zugabemethoden untersucht werden. Dafür wurden zunächst die Leistungsfähigkeiten der Laborkläranlagen untersucht, indem Proben des Zulaufes und des Ablaufes entnommen und die Überwachungsparameter analysiert wurden. Für die Untersuchung der Nanopartikel wurden die entnommenen Schlamm- und Ablaufproben aufgeschlossen und mittels ICP-MS gemessen.
Die Leistungsfähigkeit beider Laborkläranlagen konnte mit einem Kohlenstoffabbau von im Mittel über 90% nachgewiesen werden. Bei Laborkläranlage 1 wurde eine einmalige Zugabe der Nanopartikel gewählt, dabei setzten sich 95% der Nanopartikel im Schlamm und 5% im Ablauf fest. Im Gegensatz dazu wurde bei Laborkläranlage 2 eine kontinuierliche Zugabe gewählt. Zu Beginn der Versuchsreihe sind die Cerfrachten gesunken, da durch das hohe Blindwert-Niveau mehr Nanopartikel aus der Anlage herausgespült als hinzugegeben wurden. Nach einer Erhöhung der hinzugegebenen Masse war ein Anstieg der Cerfracht zu erkennen, da die Fracht, die aus der Anlage herausgespült wurde, kleiner war als die zugegebene Masse an Nanopartikeln. Die Nanopartikel setzten sich zu 96% im Schlamm und zu 4% im Ablauf fest.
Die vorliegende Arbeit befasst sich mit Verfahren und Methoden zur Optimierung der Performanz und Bedienbarkeit von Filtervorgängen. Hauptaugenmerk liegt auf der Konzeption und Implementierung eines Prototyps für die Filterung von Artefakten mit inhomogenen Attributen. Dazu erfolgt die Anbindung an ein Indexsystem, die Erzeugung einer Filtersprache mit zugehöriger Grammatik sowie die Bereitstellung von Filtervorschlägen
Die vorliegende Arbeit befasst sich mit der Konzeption und Planung einer web-basierten und teilweise automatisierten Serviceplattform zur Erfassung und Durchführung von Serviceaufträgen einer Servicestelle für Musikinstrumente. Das Hauptziel ist, dass diese Serviceinformationen auch dem Kunden selbst zur Verfügung gestellt werden und Ihm eine Kommunikation zur Servicestelle ermöglicht wird. Um diese Sessionbezogenen Zugriffe zu beschränken, soll ein System entwickelt werden, das sowohl die Verwendbarkeit als auch die Sicherheit der Datenweitergabe bedenkt. Zusätzlich soll durch die Funktionalität für die Firma die Zusammenarbeit zwischen der örtlich getrennten Serviceannahme und Servicedurchführung verbessert werden. Die Schaffung dieser Serviceplattform erfolgt zusammen mit der Neuerstellung eines modernen Webauftrittes.
Es wurde zum einen ein IgG-ELISA zum spezifischen Nachweis von Anti-Dengue-Antikörpern in humanen Seren entwickelt und optimiert mit dem Schwerpunkt einer besseren Spezifität im Vergleich zu bereits auf dem Markt befindlichen ELISA-Tests. Zum anderen wurde eine real-time-PCR zum Nachweis von Dengueviren in humanen Seren mit gleichzeitiger Serotypenbestimmung entwickelt und optimiert
Ziel dieser Diplomarbeit ist die experimentelle Untersuchung der optischen Freiraumübertragung (FSO) von Daten. Unter Verwendung von Protokollen der Kommunikationstechnik werden IEEE-Standards analysiert und die Anwendbarkeit für FSO überprüft. Ein geeigneter Standard wird dann verwendet, um eine experimentelle Datenübertragung mit Licht über den Freiraum durchzuführen.
Die Vorliegende Bachelorarbeit befasst sich mit der Bedeutung von Antagonisten in Videospielen. Ausgehend vom narrativen Aspekt dieses Mediums und auch im Hinblick auf Parallelen zu Film und Literatur, wird zunächst das Designen von antagonistischen Charakteren behandelt. Die Formen und Funktionen des Prinzips des Antagonismus werden erläutert. Anschließend steht das konkrete konzeptionelle und visuelle Design von Schurken im Mittelpunkt. Diese Betrachtungen münden schließlich in der Zusammenstellung eines Kriterienkatalogs zur Erstellung von Antagonisten. Dies ist das Ziel dieser Bachelorarbeit. Den Abschluss bildet die Schaffung eines eigenen Antagonisten unter Berücksichtigung der gewonnenen Kriterien.
In dieser Bachelorarbeit werden DNA-Mischspuren von zwei, drei und vier Personen im Hinblick auf Unterschiede in Peakhöhen und Peakareas untersucht. Dabei werden die Einflüsse sinkender DNA-Mengen, steigender Verhältnisse sowie Temperatur und UV-Lichteinfluss auf die Signalstärken der Allele betrachtet und verglichen. Es wird im Speziellen auf die Häufigkeiten aufgetretener Degradationsphänomene Allelic Drop-in und Allelic Drop-out eingegangen, sowie die genutzten STR-Systeme diesbezüglich bewertet. Die Abgrenzbarkeit der Mischspuren bzw. deren Bewertung erfolgt auf Grundlage der aktuellen Vorgaben der Spurenkommission.
Das Ziel dieser Arbeit war es, durch geschichtliche, technische und gesellschaftliche Analysen die heutige Medienlandschaft von Print, Fernsehen und Internet aufzuzeigen. Dabei wurden die Medien Print und Fernsehen auf ihre Konkurrenzfähigkeit in Verbindung mit dem Internet getestet. Durch Umfragen wurden die Nutzungsverhältnisse und Sichtweisen verschiedener Konsumenten ausgewertet. Die Ergebnisse lassen auf eine deutliche Bedrohung von Print und Fernsehen durch das Internet schließen.
In der vorliegenden Bachelorarbeit wird das Themengebiet der Entwicklung eines webbasierten Informationssystems und einem programmatischen Interfaces zur Integration von Sensorikdaten aus Pflanzenphänotypisierungsanlagen erörtert. Um dies zu ermöglichen, wurden mit der Modellierungssprache UML Konzepte erstellt. Dazu zählen das Gesamtsystemkonzept, das Webinformationssystemkonzept und das MockUp des Webinformationssystems (PhenoLIMS). Für die Realisierung von PhenoLIMS wurden Oracle Application Express, JavaScript und PL/SQL eingesetzt. Dabei fand Oracle Application Express für die Oberfläche, JavaScript für das Manipulieren von Elementen der Weboberfläche und PL/SQL für das Abfragen und das Herunterladen der Daten Anwendung. Der Download sollte als ISA-Tab genormte MIAPPE zur Verfügung stehen.
Die Aminosäure Phenylalanin wird in vielen sekundären Stoffwechselwegen benötigt, so auch im Phenylpropanoid Stoffwechselweg. Feruloyl-CoA ist eines dieser Stoffe des Phenylpropanoid Stoffwechselwegs. Aus Feruloyl-CoA können unter anderem Cumarine und Suberin gebildet werden. Da beide Stoffe aus Feruloyl-CoA synthetisiert werden können wurden die Synthesewege dieser Stoffe auf Kompetitivität untersucht. Die Cumarinanalyse wurde an Nicotiana tabacum Zellkulturen und deren Medien mittels HPLC, Dünnschichtchromatographie und fotometrischen Messungen durchgeführt. Die Cumarine wurden über phenolische Extraktion aus den Zellen gewonnen, während die Cumarine aus den Medien durch Festphasenextraktion isoliert wurden. Suberin wurde an Arabidopsis thaliana Ökotyp Columbia und Arabidopsis thaliana Mutante Feruloyl-CoA 6’-hydroxylase, durch Anfärben des Suberins am Konfokalmikroskop untersucht. Arabidopsis thaliana und Nicotiana tabacum wurden auf eisenhaltigen und eisenmangel Medien kultiviert. Eine Erhöhte Bildung an Scopoletin und Scopolin konnte unter Eisenmangel nachgewiesen werden. Beide Organismen der Suberinanalyse wiesen eine unverändert starke Synthese auf, es wurden nur Änderungen im Suberinisierungsmuster beobachtet. Somit hat sich die Hypothese, dass es unter Eisenmangel zu einer geringeren Synthese von Suberin durch erhöhte Cumarinsynthese kommt, nicht bestätigt.
Die vorliegende Bachelorarbeit befasst sich mit der Thematik zur Überprüfung der möglichen Schädigung von Lederhalbfabrikaten (Wet-Blue) durch verschiedene Schimmelpilze, welche auf Leder vorgekommen sind bzw. bereits von Leder isoliert werden konnten. Dafür sollte das Wachstum der Schimmelpilze auf dem Halbfabrikat mit Hilfe von Kultivierungsmethoden aus verschiedenen Bewuchstests gezielt gefördert werden. Anschließend wurden die Prüflinge auf eine Materialschädigung untersucht und auf mögliche Nährstoffquellen für das Wachstum der Schimmelpilze zurückgeschlossen
Etablierung eines Verfahrens zur Herstellung von
Keratinhydrolysat aus Rinder- und Pferdehaaren
(2017)
Diese Arbeit beschäftigt sich mit der Etablierung eines Verfahrens zur Herstellung unterschiedlich stark abgebauter Keratinhydrolysate aus Rinder- und Pferdehaaren. Dafür wurden verschiedene aus der Literatur bekannte Extraktionsmethoden angewendet und deren Eignung unter Variation der Inkubationstemperatur, der Inkubationsdauer und der Konzentration der eingesetzten Chemikalien untersucht. Anschließend erfolgte eine gelelektrophoretische Charakterisierung der gewonnenen Hydrolysate. Weiterhin wurde eine Aminosäureanalyse sowie eine Bestimmung freier Thiolgruppen mittels Ellman’s Reagenz durchgeführt.
Die vorliegende Bachelorarbeit befasst sich mit dem Begriff Environmental Storytelling. Dabei war es das Ziel eine Definition für die Elemente in Environmental Storytelling aufzustellen und diese zu katalogisieren, sodass diese zukünftig in den Prozess des Level Designs einfließen können. Die Elemente wurden anhand einer kleinen Auswahl an Spielen exemplarisch getestet. Die Bachelorarbeit soll den Menschen helfen, die Narration in das Level Design einbringen wollen. Der Verfasser erhofft sich am Ende einen Katalog anzutreffenden Elementen erstellt zu haben.
Das Ziel der vorliegenden Arbeit war es, ein für mittelständische und kleine Unternehmen geeignetes Format für die Versendung elektronischer Rechnungen zu finden, hierfür eine Softwarelösung zu entwickeln und diese in ein bestehendes Produkt zu integrieren. Nach gründlicher Analyse fiel die Entscheidung auf das ZUGFeRD-Format, für welches eine nun kommerziell vertriebene Komponente entwickelt wurde, die zusammen mit einem, im Rahmen der Arbeit entwickelten E-Mail-Client, in die Software HSC-AuftragPlus integriert wurde. Damit lassen sich ZUGFeRDRechnungen ohne Umwege oder externe Programme sowohl empfangen und importieren, als auch exportieren und versenden. Bei diesen Schritten erfolgt auch immer eine mehrstufige Validierung und entsprechendes Feedback an den Benutzer. Da die Bachelorarbeit auf betriebswirtschaftliche, juristische und informatische Aspekte eingeht, sollte sie insbesondere für Studierende der Informatik und Wirtschaftswissenschaften viele interessante Informationen enthalten
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Streifentestsystems, mit einer integrierten Amplifikationsmethode und Read-out-System, zum Nachweis pathogener Bakterien in Wunden. Dabei wird als Amplifikationsmethode die Rekombinase-Polymerase-Amplifikation (RPA) unter Verwendung des TwistAmp® nfo Kits, der Firma TwistDX Ltd., gewählt. Zur Detektion sollen Milenia HybriDetect Streifentests, der Firma Milenia Biotec GmbH, verwendet werden, da diese mit dem TwistAmp® nfo Kit kombiniert werden können. Diese zwei Methoden sollen in die onsite.flow Kartusche, der Firma BiFlow Systems GmbH, eingebracht werden. Um dies zu realisieren, sollen thermographische Charakterisierungen mit der onsite.flow Kartusche durchgeführt werden. Wichtig ist dabei, vor allem die Temperatur bei 37° C, da die RPA hier ihr Optimum findet. Um dies zu testen, sollen zwei Regelungsarten der onsite.flow Kartusche untersucht werden. Zum einen die Regelung über die Stromstärke und zum anderen die Regelung über die Temperatur. Weiterhin soll die Nachregelung der Temperatur durch ein Offset untersucht werden und das Beheizen von Flüssigkeiten im Näpfchen mit der onsite.flow Kartusche. Zudem sollen mit dem TwistAmp® nfo Kit, mithilfe von Agarosegelen, erste Versuche unter verschiedenen Reaktionsbedingungen durchgeführt und in Hinblick auf eine quantitative Aussage, untersucht werden. Außerdem sollen die Milenia HybriDetect Streifentest auf verschiedene Bedingungen, die in der onsite.flow Kartusche vorliegen, im Reaktionsgefäß getestet werden. Anschließend soll die RPA im Näpfchen der onsite.flow Kartusche durchgeführt werden und mit den Streifentests das Amplifikationsprodukt detektiert werden. Zuletzt sollen der Streifentest und die Reaktionsbestandteile des TwistAmp® nfo Kits, in die onsite.flow Kartusche eingebracht werden.
Die Salzgitter Flachstahl GmbH (SZFG) ist das größte Tochterunternehmen der Salzgitter AG und stellt unterschiedliche Flachstahlprodukte her. Sie beinhaltet
verschiedenen Produktionsbereiche und Produktionsanlagen, wie bspw. das Hochofenwerk mit der Erzvorbereitung und den Hochöfen, das Stahlwerk mit den Stranggießanlagen, das Warmbreitbandwalzwerk mit der Warmbreitbandstraße und der Schubbeize, und abschließend der Bereich Kaltflach mit der Kontibeize, der Tandemstrasse, der Glüherei und der Dressierstraße, den Verzinkungsanlagen, der Bandbeschichtung und den Coillinien.
Eine der Beizanlagen der SZFG ist die Kontibeize 2 (KB2) aus dem Bereich Kalt-flach. In der KB2 werden die Stahlbänder vom Oberflächenzunder und von Verschmutzungen befreit. Weite Teile des zu verarbeitenden Materials der SZFG durchläuft die KB2. Ihrer Verfügbarkeit wird daher eine große Bedeutung beige-messen. Die Verfügbarkeit ist das Maß für den störungsfreien Betrieb einer jeden Produktionsanlage. Sie verringert sich über die Anzahl und die jeweilige
Dauer von Störungen in Relation zu der verfahrenen Produktionszeit.
Die Diplomarbeit zielt auf eine Erhöhung der Anlagenverfügbarkeit ab, indem die Zeit nach Störungseintritt bis zum Wiederanlauf der Anlage verringert werden soll. Unter bestimmten Störbedingungen fehlen zurzeit verschiedene Materialdaten, um die Anlage bei Datenverlust sicher anzufahren. Durch eine bessere Übersicht über die gespeicherten Materialdaten im Anlagenspeicher und des folglich leichteren Abgleichs der Daten mit dem Material vor Ort, wird den Mitarbeitern helfen fehlerhafte Datensätze in der Anlagensteuerung zu erkennen und dadurch Fehler beim Anfahren der Anlage zu vermeiden.
Die vorliegende Arbeit befasst sich mit dem Entwurf eines Labornetzgeräts, das zusätzlich zu der konventionellen analogen Steuerung über Drehregler, noch die Möglichkeit der digitalen Steuerung über Bluetooth und WIFI bietet. Durch Verwendung eines integrierten Akkus und die Möglichkeit das Netzgerät über Solarenergie zu betreiben, soll eine Vielzahl an Anwendungsfällen abgedeckt werden. Konkret werden potentielle Schaltungstopologien analysiert und Entwurfskriterien diskutiert. Diese Projektstudie soll einen Referenzwert über Möglichkeiten und Probleme eines solchen Labornetzgeräts bieten.