Refine
Document Type
- Bachelor Thesis (90)
- Diploma Thesis (18)
- Master's Thesis (10)
Year of publication
- 2017 (118) (remove)
Keywords
- Softwareentwicklung (5)
- Altersbestimmung (3)
- DNS (3)
- Videospiel (3)
- Bioinformatik (2)
- Blockchain (2)
- Computerforensik (2)
- Computersicherheit (2)
- Computerspiel (2)
- Daktyloskopie (2)
Institute
- Angewandte Computer‐ und Biowissenschaften (118) (remove)
Das Ziel der vorliegenden Bachelorarbeit ist es, die wichtigsten theoretischen Konzepte zum kreativen Lernen zu vergleichen und empirisch zu überprüfen. Dazu wurde in zwei Kita eine teilnehmende Beobachtung durchgeführt. Die Ergebnisse sollen herausfinden, in welcher Weise Animationsfilme Lernhilfen für Kinder darstellen. Folgende Schlussfolgerungen gehen jedoch nach der Auswertung der teilnehmenden Beobachtung über die theoretischen Annahmen hinaus: vbL in Kitas ist möglich, erweist sich im Alltag allerdings Schwierig, Animationsfilme oder digitale Medien sollten im Kita-alltag sparsam eingesetzt werden und vbL sollte nur genutzt werden, wenn Kinder dabei selbst aktiv werden können.
Die Gamesbranche erwirtschaftet jedes Jahr mit AAA Titeln Milliardenumsätze und wächst stetig weiter. Diese wissenschaftliche Arbeit trägt den Titel: Untersuchungen zur Machbarkeit der Entwicklung von Games-AAA-Titeln durch kleine Teams. In der Arbeit wird analysiert ob es möglich ist AAA-Games-Titel mit kleinen Teams umzusetzen. Dafür wird die Entwicklung der Branche analysiert um Ausgangslage und Anforderungen für AAA-Titel zu definieren. Mit diesen Daten werden neue Arbeitsweisen und Technologien untersucht und bewertet. Aus diesen wird dann ein optimales Modell ab-geleitet mit dem AAA-Titel mit wenig Kapital und Entwicklern umgesetzt werden kann.
Implementierung einer Schrifterkennung auf Basis Neuronaler Netze am Beispiel einer IBAN-Erkennung
(2017)
Inhalt dieser Arbeit ist die Entwicklung einer Software zur Schrifterkennung, basierend auf Neuronalen Netzen. Dies soll am Beispiel einer IBAN-Erkennung skizziert werden.
Hierfür werden zuerst grundlegende Konzepte (künstlicher) Neuronaler Netze sowie der für die Zeichen-Extraktion notwendigen Bildvorverarbeitung besprochen.
Die Implementierung des Neuronalen Netzes erfolgt auf Basis eines speziellen Frameworks, zum direkten Vergleich wird auch eine (rudimentär funktionale) Eigenentwicklung vorgestellt.
Entsprechende Tests und Messungen zeigen Stärken und Schwächen der umgesetzten Lösung und liefern somit Aufschluss darüber, welches Potential für eine weitere Behandlung der Thematik besteht.
Die Überwachung sozialer Online-Netzwerke spielt eine zunehmend wichtige Rolle, um die polizeilichen Aufgaben hinsichtlich Kriminalprävention und Gefahrenabwehr auch im virtuellen Raum effektiv und effizient wahrnehmen zu können. Gleichzeitig machen das enorme Volumen und die Komplexität der Daten eine manuelle Bearbeitung nahezu unmöglich. Es müssen automatisierte Verfahren entwickelt werden, welche sogenannte Gefährder in sozialen Online-Netzwerken sicher erkennen können. Für die Entwicklung, das Training und die Evaluation von Modellen für das Maschinelle Lernen werden standardisierte Referenzdaten benötigt. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines solchen Goldstandards mit Trainings- und Testdaten für Algorithmen zur Detektion von Gefährdern in sozialen Online-Netzwerken. Es werden Kriterien für die Auswahl relevanter Profile und Attribute erarbeitet und Anforderungen für die Strukturierung und Ablage der Daten formuliert. Weiterhin werden konkrete Profile und Feature-Kandidaten sowie ein XML-Schema und Dateilayout für die Bereitstellung der Daten des Goldstandards vorgeschlagen. Abschließend werden die Ergebnisse kritisch gewürdigt und ein Ausblick für zukünftige Arbeiten gegeben.
In dieser Thesis wird das Konzept des Software Defined Networkings (SDN) und den daraus resultierenden Möglichkeiten näher betrachtet. Auf dieser Grundlage wird beschrieben wie mit Hilfe einer SDN Umgebung eine kritische Infrastruktur abgesichert werden kann. Hierzu wird eine Mikrosegmentierung mit VMware NSX und auf Basis des VXLAN Protokoll realisiert. In weiterer Ausbaustufe werden zwei Rechenzentren zu einer hybriden Cloud zusammengeschlossen und demonstriert wie Layer 2 Datenverkehr zwischen beiden Rechenzentren transparent übertragen und dadurch die Sicherheit für solch ein Szenario erhöht wird. Darauf folgt ein Vergleich mit einer vergleichbaren Netzwerkumgebung, mit abschließender Beurteilung des Sicherheitsniveaus der implementierten Infrastruktur.
AVL entwickelt aktuell einen neuen Ladungsverstärker, der sich von Vorgängermodellen dadurch unterscheidet, dass zusätzlich zur Ausgabe der verstärkten und gefilterten Signale auch deren Digitalisierung und Verarbeitung in einem Signalprozessor vorgesehen sind. Für diese Hardware soll im Signalprozessor ein intelligenter Algorithmus zur Driftregelung als auch eine Ermittlung und statistische Bewertung der Signalspitzenwerte konzipiert und als Firmwarekomponenten umgesetzt werden. Aufgrund seines Aufbaus benötigt ein Ladungsverstärker eine permanente Kompensation der auftretenden Drifteffekte, um den Signalnullpunkt stabil zu halten. Solche Drifterscheinungen kommen sowohl durch die nicht idealen Komponenten, zu geringe Isolation der Signalwege als auch durch diverse Effekte der verwendeten Quarzdruckaufnehmer zustande. Durch Analyse des digitalisierten Messsignals soll laufend die Nullpunktsdrift ermittelt und durch Abgabe einer Korrekturspannung an einen DAC, aus der wiederum ein Kompensationsstrom für den Ladungs-/Spannungskonverter erzeugt wird, vollständig ausgeregelt werden. Die für die Driftregelung erforderliche Signalanalyse, soll gleichzeitig auch dazu verwendet werden, laufend den Spitzenwert des Signals zu ermitteln und diesen einer von 5 Klassen zuzuordnen und die Häufigkeiten in den Klassen zu kumulieren. Auf diese Weise kann dem Anwender ein Maß für die vom Sensor wahrgenommene Belastung, übermittelt, und somit ein Kriterium zur Entscheidung für einen eventuellen Sensoraustausch geboten werden.
Diese Arbeit untersucht den Einfluss westlicher und japanischer Kultur auf die Videospielindustrie. Dabei reduziert sie sich auf einen gewissen Kulturbegriff und schafft mithilfe dessen ein aktuelles und neutrales Bild der Stereotypen beider Kulturen. Eine analytische Betrachtung am praktischen Beispiel einiger Videospiele, gibt dabei Aufschluss über unterschiedliche Konzepte, die durch das bestehen von Kulturen geprägt wurden. Auf Grundlage der quantitativen Umfrage werden gewisse Neigungen und Präferenzen der westliche Audienz untersucht und analysiert und mit den theoretischen, sowie analytischen Ansätze verglichen und in Relation gesetzt. Das Ergebnis zeigt, dass kulturelle Wertmuster im Zuge der Globalisierung einander annähern und die Grenzen der eindeutigen Identifikation zunehmend verschwimmen
The endogen steroid hormone 17b-estradiol is a central player in a wide range of physiologic, behavioral processes and diseases in vertebrates. As a consequence, it is a main target for molecular design and drug discovery efforts in medicine and environmental sciences, which requires in-depth knowledge of protein-ligand binding processes. This work develops a bioinformatic framework based on local and global structure similarity for the characterization of E2-protein interactions in all 35 publicly available three-dimensional structures of estradiol-protein complexes. Subsequently, it uses gained data to identify four geometrically conserved estradiol binding residue motifs, against which the Protein Data Bank is queried. As result of this database query, 15 hits present in seven protein structures are found. Five of these structures do not contain E2 as ligand and had thus not been included in this work’s initial data set. One of these newly detected structures is structurally and functionally dissimilar, as well as evolutionarily distant from all other proteins analyzed in this work. Nevertheless, the ability of this protein to actually bind estradiol must be further analyzed. Finally, geometrically conserved E2-protein interactions are identified and a new research direction using these conserved interaction ensembles for the detection of novel estradiol targets is proposed.
Für die Unfallrekonstruktion bietet die Erstellung eines 3D-Modelles viele Vorteile. Es fallen weniger Daten bei der Datenakquirierung an und somit wird benötigte Zeit an der Unfallstelle reduziert. Zusätzlich lassen sich Messungen direkt am 3D-Modell vornehmen. Um eine möglichst genaue 3D-Rekonstruktion zu ermöglichen, wurde in dieser Arbeit der Einfluss von verschiedenen Aufnahmemethodiken und softwarespezifischen Prozessparametern, auf das mithilfe der Photogrammetrie Software Agisoft PhotoScan erstellte Modell untersucht. Da es bisher wenig Literatur gab, welche sichmit der richtigen Parametrisierung des Rekonstruktionsprozesses auseinandersetzte, wurde dabei deshalb empirisch vorgegangen. Als unterschiedliche Aufnahmemethoden wurden die Aufnahme direkt mit der Kamera aus der Hand, an einem Stativ und aus der Luft mit drei verschiedenen Kamerasystemen analysiert. Die rekonstruierten 3D-Modelle wurden auf ihre Abweichung und auf die optische Ähnlichkeit zum realen Modell untersucht. Das Ziel dieser Arbeit war die Optimierung des Rekonstruktions- und Aufnahmeprozesses für die Aufnahme einer Fahrbahn. Dabei stellten sich heraus, dass sich für verschiedene Aufnahmemethodiken unterschiedliche Prozessparameter eignen und dass die Parametrisierung, neben der Aufnahmemethodik, einen großen Einfluss auf das fertige 3D-Modell hat.
Die vorliegende Arbeit befasst sich mit der Analyse der Verbindungen zur Blockchain-Technologie und der künstlichen Intelligenz. Das Hauptziel ist, neue Bereiche der beiden Technologien zu beschreiben und zu erklären. Zuerst werden inhaltliche Fragen und Erklärungen für ein besseres Verständnis der beiden Technologien erläutert. Des Weiteren werden gemeinsame Einsatzszenarien, sowie dessen Realisierung betrachtet. Zuletzt werden Vor- und Nachteile, sowie eine Zukunftsprognose der Blockchain-Technologie und der künstlichen Intelligenz aufgestellt.
In dieser Arbeit ging es hauptsächlich darum, zu untersuchen wie bestimmte, gewählte Degradationsparameter auf DNA Proben realer Personen einwirken und wie diese im Laufe der Zeit verändert werden. Besonderes Augenmerk lag hierbei auf dropout/dropin Phänomenen. Dabei wurde zusätzlich die Verwendbarkeit des Chimera® Mentype® Kits in der forensischen Spurenanalytik überprüft.
Es wurden unterschiedliche Spurenmaterialien von fünf Probanden über einen Zeitraum von 4 h bis 14 Tagen, diversen Temperaturen und UVC-Bestrahlung ausgesetzt. Die Auswertung erfolgte mittels STR-Profilen sowie Fragment Analyzer™. Ebenfalls wurden Hautabriebsspuren gesichert, welche mittels NanoDrop™ und Fragment Analyzer ™ analysiert wurden um eine Beurteilung über die Tauglichkeit dieser Tools vornehmen zu können.
Die Ergebnisse bestätigen, dass ein großer Unterschied zwischen Speichelproben und Mundschleimhautabstrichen besteht, was Degradationserscheinungen betrifft. Es konnte auch festgestellt werden, dass es signifikante Unterschiede bei den Probanden gibt. (Shedderstatus) Bei dem Vergleich von STR-Profilen mit den Fragment Analyzer™ Daten zeigt sich, dass eine Korrelation nicht möglich ist.
Der angesetzten Toolvergleich brachte hervor, dass der Fragment Analyzer™ effizienter und präziser ist, womit der NanoDrop™ vorgezogen werden sollte.
Ziel der vorliegenden Arbeit war es, ein Qualitätssicherungssystem von Tierarzneimittel – Standardsubstanzen zu erstellen, indem die chromatographischen Eigenschaften der Wirkstoffe, die zur Überprüfung der Arzneimittelrückstände in Lebensmitteln dienen, erfasst und dokumentiert wurden. Der Bestand der internen Datenbank, die zum Untersuchungsspektrum der „Landesuntersuchungsanstalt für das Gesundheits- und Veterinärwesen“(LUA) Chemnitz gehören, umfasst derzeit 745 Wirkstoffe, hierbei konnten 437 Wirkstoffe in die Stabilitätsprüfung aufgenommen werden. Es wurden 103 Substanzen mittels GC-MS und 334 Wirkstoffe mittels HPLC-DAD erfasst und dokumentiert. Es wurde mittels einer Dreifachmessung ein geeignetes Verfahren zur Überprüfung der chromatographischen Eigenschaften und zur Kontrolle der Stabilität gefunden.
Ziel dieser Diplomarbeit ist es, eine geeignete mobile Messmethode für ein Motorenüberwachungssystem mit Erkennung und Ausgleichsroutine bei Motorlaständerungen zu finden. Zunächst werden Grundlagen und wichtige Kennwerte der Indiziermesstechnik erklärt. Danach folgt die Gegenüberstellung von zwei Messmethoden mit erweiterter Plausibilitätsüberprüfung der verwendeten Sensoren. Die Validierung aussagekräftiger Resultatwerte, soll als Grundlage für die Erweiterung des Softwareablaufs dienen. Die beiden letzten Kapitel befassen sich mit der Erweiterung des Softwareablaufs sowie einer Zusammenfassung mit Ausblick.
Bereits 1886 entdeckte der Kinderarzt Theodor Escherich ein neuartiges Bakterium, welches später den Namen Escherichia (E.) coli bekommt, im Darm von Kleinkindern. Im Laufe der Jahre fand man heraus, dass E. coli sowohl probiotische, als auch pathogene Eigenschaften haben kann. Pathogene E. coli können eine ganze Reihe gefährlicher Durchfallerkrankungen auslösen, was eine sichere Diagnose der Erreger notwendig macht. Die zuverlässigste Analysemethode ist die Polymerase-Ketten-Reaktion (PCR). Dabei können kleinste Mengen DNA vervielfältigt und anschließend analysiert werden. Ziel dieser Arbeit ist die Entwicklung und Validation einer Multiplex-PCR, um insgesamt sieben verschiedene pathogenen E. coli nachweisen und unterscheiden zu können
Im Rahmen dieser Arbeit werden existierende Taxonomien und Ergebnisse weiterer wissenschaftlicher Arbeiten, welche sich mit der Aufnahme und Verarbeitung auditiver Reize, sowie möglichen Reaktionen auf diese, beschäftigen, miteinander verknüpft. Zudem werden die Erfahrung eines Videospiels im Spieler, die dafür von ihm benötigten, mentalen Fähigkeiten, als auch Funktionen von Audio hinsichtlich der Anwendung in der Mensch-Maschine-Interaktion, zu besagten Kategorisierungen in Relation gesetzt, um eine Kategorisierung zu erschließen, welche bei der Arbeit mit auditiven Reizen angewandt werden kann. Das Ziel hierbei ist das Streben nach einer idealen Erfahrung im Spieler eines Videospiels zu unterstützen, sowie das Schaffen eines vollständigen Leitfadens zum Sound Design von Videospielen weiter voranzutreiben
Brassica oleracea like all crucifers plants have a defense mechanism against natural enemies, which are chemical compounds formed form the enzymatic degradation of glucosinolates. In the presence of epithiospecifier proteins (ESP), the hydrolysis of glucosinolates will form epithionitriles or nitriles depending on the glucosinolate structure, This research proved that three predicted sequences (ESP) taken from NCBI database has a role in the enzymatic hydrolysis of glucosinolates in Brassica oleracea.
Modularität in 3D-Videospielumgebungen und Techniken zur Verwendung und Minimierung der Nachteile
(2017)
Diese Arbeit thematisiert die Vorteile und Nachteile der Verwendung von modularen Asset-Sets sowie den Arbeitsablauf bei der Erstellung dieser in einer Echtzeit-3D-Umgebung. Am Ende sollen der Produktionsaufwand der Assets sowie die zu erwartende Performance besser eingeschätzt werden können. Zudem soll der Leser Zugriff auf Techniken erhalten, mit denen sich die Nachteile durch die Verwendung von modularen Assets minimieren lassen.
In dieser Bachelorarbeit wird die steigende Nutzung von computerbasierten Animationstechniken und ihre Auswirkungen auf die Popularität von handgezeichneten Animationen und Stop-Motion-Filmen analysiert und kritisch hinterfragt. Unter Animation sei in diesem Fall ein Bewegtbild in Form eines Films, einer Fernsehserie oder eines auf sonstige Weise verbreiteten Videos zu verstehen, welches ausschließlich unter Verwendung von Computern, Puppentrick oder gezeichneten Bildinhalten erstellt wurde. Animierte Elemente in Realfilmen sollen nicht berücksichtigt werden. So sind in Filmen, wie JASON AND THE ARGONAUTS (R.: Don Chaffey. USA 1963) oder AVATAR (R.: James Cameron. USA 2009), zwar animierte Elemente enthalten, jedoch dienen diese lediglich als Werkzeug zur Erweiterung der filmisch darstellbaren Realität. Diese Werke sind somit nicht als Animationsfilme kategorisiert und werden in dieser Arbeit nicht grundlegend behandelt. Jegliche Erwähnung dieser Art steht im direkten Zusammenhang zu ihrer Auswirkung auf die zugrunde liegende Animationsform. In dieser Arbeit wird erläutert, in welchem Maße das computergenerierte Bewegtbild in der Populärkultur eine Vorrangstellung einnimmt und welche geschichtlichen Hintergründe dazu führten. Dazu wird Zeichentrick vor allem auf seinen Kostenaufwand, die allgemeine Produktionsdauer, die benötigte Arbeiterschaft und seine Popularität in der Bevölkerung hin untersucht. All dies geschieht im Vergleich zu Computeranimation. Außerdem wird versucht, anhand globaler Vergleiche Lösungsansätze zu finden, mit deren Hilfe die Marktfähigkeit von 2D- und Stop-Motion-Animationsfilmen zukünftig gewährleistet bleiben kann. Das Thema lässt sich im Fachbereich Medien einordnen. Besonders Interessenten der Animationsfilmherstellung und Medienstudenten soll diese Abhandlung nützliche und wissenswerte Sachverhalte über die zugrunde liegende Kontroverse näherbringen.