Refine
Document Type
- Bachelor Thesis (90) (remove)
Year of publication
- 2017 (90) (remove)
Keywords
- Softwareentwicklung (4)
- Altersbestimmung (3)
- Videospiel (3)
- Blockchain (2)
- Computerforensik (2)
- Computerspiel (2)
- DNS (2)
- Daktyloskopie (2)
- Eingebettetes System (2)
- Gerichtliche Wissenschaften (2)
Institute
- Angewandte Computer‐ und Biowissenschaften (90) (remove)
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.
Das Ziel der vorliegenden Bachelorarbeit ist es, die wichtigsten theoretischen Konzepte zum kreativen Lernen zu vergleichen und empirisch zu überprüfen. Dazu wurde in zwei Kita eine teilnehmende Beobachtung durchgeführt. Die Ergebnisse sollen herausfinden, in welcher Weise Animationsfilme Lernhilfen für Kinder darstellen. Folgende Schlussfolgerungen gehen jedoch nach der Auswertung der teilnehmenden Beobachtung über die theoretischen Annahmen hinaus: vbL in Kitas ist möglich, erweist sich im Alltag allerdings Schwierig, Animationsfilme oder digitale Medien sollten im Kita-alltag sparsam eingesetzt werden und vbL sollte nur genutzt werden, wenn Kinder dabei selbst aktiv werden können.
Ziel der vorliegenden Arbeit war es, ein Qualitätssicherungssystem von Tierarzneimittel – Standardsubstanzen zu erstellen, indem die chromatographischen Eigenschaften der Wirkstoffe, die zur Überprüfung der Arzneimittelrückstände in Lebensmitteln dienen, erfasst und dokumentiert wurden. Der Bestand der internen Datenbank, die zum Untersuchungsspektrum der „Landesuntersuchungsanstalt für das Gesundheits- und Veterinärwesen“(LUA) Chemnitz gehören, umfasst derzeit 745 Wirkstoffe, hierbei konnten 437 Wirkstoffe in die Stabilitätsprüfung aufgenommen werden. Es wurden 103 Substanzen mittels GC-MS und 334 Wirkstoffe mittels HPLC-DAD erfasst und dokumentiert. Es wurde mittels einer Dreifachmessung ein geeignetes Verfahren zur Überprüfung der chromatographischen Eigenschaften und zur Kontrolle der Stabilität gefunden.
Digitaler Fingerabdruck PC
(2017)
Die vorliegende Arbeit befasst sich mit der Grundlagenentwicklung zur Erzeugung digitaler Fingerabdrücke eines PC Nutzers. Über eine Herleitung durch digitale Spuren werden Features identifiziert, die durch einen Nutzer am PC individualisiert werden können. Mit Hilfe eines selbstentwickelten Demonstrators werden diese erhoben und anschließend mögliche Vergleichsprozesse vorgestellt.
Die vorliegende Bachelorarbeit gibt einen Einblick in das Lernverhalten mit mobilen Endgeräten von Studierenden. Ziel der Arbeit war es herauszufinden, wie, wann und wo Studierende (mobil) lernen, welche Medien sie zur Vorbereitung auf Tests und Prüfungen nutzen, woher sie ihre Lerninhalte beziehen und welche Rolle Videos beim Lernen spielen. Für die Beantwortung dieser Fragen wurde ein Fragebogen mit der Überschrift Lernen im studentischen Kontext erstellt und von Studierenden der Hochschule Mittweida und der TU Chemnitz ausgefüllt. Herausgekommen ist, dass Studierende zeitnah zur Prüfung lernen; seltener jedoch auf mobile sondern vielmehr auf analoge Medien zurückgreifen. Auch die Ortsunabhängigkeit, die laut Definition ein wichtiger Bestandteil des mobilen Lernens darstellt, wird durch das Lernen im vertrauten Umfeld (d.h. zu Hause) in Frage gestellt. Mobile Geräte werden zwar zum Lernen eingesetzt, jedoch hauptsächlich um auf digitale (Lern-)Inhalte zuzugreifen bzw. sich mit Kommilitonen in sozialen Medien auszutauschen.
Die vorliegende Arbeit beschäftigt sich mit der forensischen Datensicherung integrierter Schaltkreise. Das Ziel ist, eine Software zu entwickeln, die es ermöglicht die Daten zweier Schaltkreise durch die Nutzung eines Galep-5D Programmiergerätes in eine Binärdatei zu überführen. Bei den Schaltkreisen handelt es sich um einen seriellen EEPROM und einen eMMC NAND-Flash. Es wird ein Vorgehen erläutert, wie mit Hilfe der bereitgestellten Bibliotheken, die Datenextraktion des EEPROMs durch SPI und des eMMCs durch den eMMC-Standard, erfolgt. Aus dieser Arbeit geht hervor, dass sich die Schaltkreise korrekt auslesen lassen, aber die Datenrate zu gering ist, um dieses Verfahren praktikabel für die Datensicherung größerer Speicher zu nutzen. Dennoch
wird ein Grundbaustein für weitere Forschungen, in Bezug auf das Auslesen unbekannter Schaltkreise, gelegt.
Die vorliegende Bachelorarbeit zeigt anhand von durchgeführten Untersuchungen auf, welche allgemeinen Marketingmanagement Konzepte auf die deutsche Spieleindustrie angewandt werden können. Es werden allgemeine theoretische Ansätze eines klassischen Planungsprozesses einer Marketing Konzeption dargelegt, welche mittels Literaturrecherche erarbeitet wurden. Die Anwendbarkeit dieser Konzepte auf die deutsche Spieleindustrie wurde in einem methodischen Teil, durch qualitative Experteninterviews mit langjährigen Branchenanhängern, geprüft.
Abstract nicht vorhanden
The following is a description and outline of the work done at the Cornell Lab of Ornithology developing Nation Feathers VR, a virtual reality game for learning about bird calls and songs. The goal was to develop a game which is intuitive, educational and entertaining. Furthermore, the software needed to be structured in a way that allows for feasible future expansion. This required careful data saving and retrieval. The game gives the player an opportunity to learn and apply that knowledge, all while maintaining a shorter runtime in order to reduce the total time spent in the virtual world. This is meant to prevent any discomfort to the player that may result from extended use of the VR headset.
In der vorliegenden Bachelorarbeit wird das Themengebiet der Entwicklung eines webbasierten Informationssystems und einem programmatischen Interfaces zur Integration von Sensorikdaten aus Pflanzenphänotypisierungsanlagen erörtert. Um dies zu ermöglichen, wurden mit der Modellierungssprache UML Konzepte erstellt. Dazu zählen das Gesamtsystemkonzept, das Webinformationssystemkonzept und das MockUp des Webinformationssystems (PhenoLIMS). Für die Realisierung von PhenoLIMS wurden Oracle Application Express, JavaScript und PL/SQL eingesetzt. Dabei fand Oracle Application Express für die Oberfläche, JavaScript für das Manipulieren von Elementen der Weboberfläche und PL/SQL für das Abfragen und das Herunterladen der Daten Anwendung. Der Download sollte als ISA-Tab genormte MIAPPE zur Verfügung stehen.
Das Ziel dieser Arbeit war es, durch geschichtliche, technische und gesellschaftliche Analysen die heutige Medienlandschaft von Print, Fernsehen und Internet aufzuzeigen. Dabei wurden die Medien Print und Fernsehen auf ihre Konkurrenzfähigkeit in Verbindung mit dem Internet getestet. Durch Umfragen wurden die Nutzungsverhältnisse und Sichtweisen verschiedener Konsumenten ausgewertet. Die Ergebnisse lassen auf eine deutliche Bedrohung von Print und Fernsehen durch das Internet schließen.
Die Vorliegende Bachelorarbeit befasst sich mit der Bedeutung von Antagonisten in Videospielen. Ausgehend vom narrativen Aspekt dieses Mediums und auch im Hinblick auf Parallelen zu Film und Literatur, wird zunächst das Designen von antagonistischen Charakteren behandelt. Die Formen und Funktionen des Prinzips des Antagonismus werden erläutert. Anschließend steht das konkrete konzeptionelle und visuelle Design von Schurken im Mittelpunkt. Diese Betrachtungen münden schließlich in der Zusammenstellung eines Kriterienkatalogs zur Erstellung von Antagonisten. Dies ist das Ziel dieser Bachelorarbeit. Den Abschluss bildet die Schaffung eines eigenen Antagonisten unter Berücksichtigung der gewonnenen Kriterien.
Untersuchung des hämolytischen Verhaltens alternder Blutproben mit ausgewählten Lösungsmitteln
(2017)
Die Untersuchung der Blutspuren am Tatort kann bei der Aufklärung eines Verbrechens hilfreich sein. Neben der Blutmusteranalyse, bei der Form und Verteilung von Blutspuren untersucht werden, ist auch die Blutaltersbestimmung fundamental, um den zeitlichen Ablauf einer Tat detailliert beschreiben zu können. Dafür sind im letzten Jahrhundert viele Methoden vorgestellt worden. Neben einer Farbskala für die Bestimmung des Blutalters vom Anfang des 20. Jahrhunderts gibt es heute mittlerweile computergestützte Ansätze, die jedoch meist sehr zeitaufwendig sind und eine schwere oder gar teure Ausrüstung benötigen. In dieser Arbeit sollte das hämolytische Verhalten alternder Blutproben mit drei ausgewählten Lösungsmitteln (destilliertes Wasser, Kochsalzlösung und Zitronensäure) untersucht werden. Dazu wurden 40 Messungen von präparierten Blutproben mit einem Spektroskop durchgeführt und ausgewertet. Für die Bestimmung des Blutalters wurden die Peaks des Oxyhämoglobins, bei 540 und 576 Nanometer, und die des Methämoglobins, bei 500 und 630 Nanometer, näher betrachtet. Es konnte festgestellt werden, dass die Oxyhämoglobin-Peaks mit zunehmendem Blutalter abnehmen und die Methämoglobin-Peaks entsprechend zunehmen, bis die typischen Spitzen des Blutspektrums nicht mehr ersichtlich sind.
Kategorisierung der Malware
(2017)
Diese Bachelorarbeit beschäftigt sich mit der Kategorisierung der Malware. Dabei werden verschiedene, vorhandene Konzepte vorgestellt sowie ein Eigenkonzept in Hinblick auf die deutsche Gesetzgebung entwickelt. Die Vorstellung von anderen Kategorisierungsmodellen gibt einen kurzen Einblick in das umfassende Thema der Malware-Kategorisierung. Es gibt viele unterschiedliche Konzepte zur Kategorisierung der Malware, jedoch war der Fokus bisher immer auf spezifische Komponenten der Malware selbst gerichtet. Im vorgestellten Eigenonzept zur Kategorisierung der Malware liegt der Fokus auf dem Payload und der Rückkopplung der einzelnen Malware-Typen. Dieses neu geschaffene Kategorisierungsmodell ermöglicht einen anderen Blickwinkel zum Kategorisieren von Schadsoftware, da sich dieses Modell mit den Wirkprinzipien beschäftigt und dabei rechtliche Aspekte mit einbezieht. Mit allgemeinen Definitionen der einzelnen Typen der Malware kann anhand ihrer speziellen Charakteristiken ein grober Überblick über existierende Computerschädlinge geschaffen werden. Um schließlich einen Bezug zur derzeitigen Gesetzgebung herzustellen, werden relevante Gesetze vorgestellt sowie mögliche rechtliche Lücken aufgezeigt.
In dieser Bachelorarbeit werden DNA-Mischspuren von zwei, drei und vier Personen im Hinblick auf Unterschiede in Peakhöhen und Peakareas untersucht. Dabei werden die Einflüsse sinkender DNA-Mengen, steigender Verhältnisse sowie Temperatur und UV-Lichteinfluss auf die Signalstärken der Allele betrachtet und verglichen. Es wird im Speziellen auf die Häufigkeiten aufgetretener Degradationsphänomene Allelic Drop-in und Allelic Drop-out eingegangen, sowie die genutzten STR-Systeme diesbezüglich bewertet. Die Abgrenzbarkeit der Mischspuren bzw. deren Bewertung erfolgt auf Grundlage der aktuellen Vorgaben der Spurenkommission.
Das menschliche Gesicht verrät nicht nur die Identität, das Geschlecht oder das aktuelle Befinden einer Person, sondern bietet darüber hinaus, Informationen über das Alter. Die automatische Altersschätzung von Gesichtsbildern extrahiert diese Informationen und klassifiziert diese, um eine Altersschätzung zu erzeugen. Gekoppelt mit einem Gesichtserkennungssystem kann die Leistung der Gesichtserkennung erhöht werden oder eine altersbasierte Zugangskontrolle eingerichtet werden, die nur Gesichtsbilder der Person benötigt. Ziel dieser Arbeit ist es die Leistung eines zur Verfügung gestellten Algorithmus zur automatischen Altersschätzung zu evaluieren. Die Prüfung enthält auch die Beobachtung von Einflüssen auf die Leistung des Algorithmus. Die Evaluierung wurde mit einer eigens erstellten, kontrollierten Testmenge durchgeführt, umein möglichst genaues Ergebnis zu erhalten.
Es besteht großer Entwicklungsbedarf von aussagekräftigen in vitro Testsystemen, die als Alternative zu Tierversuchen und für die Grundlagenforschung eingesetzt werden können. Im Fokus steht dabei unter anderem die Echtzeitcharakterisierung des Zellverhaltens. Bisher gibt es hinsichtlich der Echtzeitcharakterisierung kaum Produkte auf dem Markt. Eine Weiterentwicklung ist daher essentiell. In der vorliegenden Arbeit wurden erstmalig die pH-sensitiven Sensorpartikel (ein fluoreszenzbasiertes Messsystem aus einem pH-sensitiven Farbstoff und einem Referenzfarbstoff) der Firma „Surflay Nanotec GmbH“ auf ihre Eignung für die Echtzeitcharakterisierung in Zellkultursystemen getestet und bewertet. Dabei zeigte sich, dass es sich um ein zuverlässiges System handelt, welches reproduzierbare Werte liefert. Die Sensorpartikel sind photostabil und lassen sich durch unterschiedliche Fokusebenen nicht beeinflussen. Die Messung des pH-Wertes ist in einem Bereich von pH 4 bis pH 9 möglich. Innerhalb von Zellkultursystemen kann eine pH-Wert-Änderung, durch Stoffwechselprodukte verursacht, gemessen werden. Besonders hervorzuheben ist, dass eine lokale pH-Wert-Messung in Zell-nähe erfolgen kann. Damit hebt es sich von anderen Produkten ab.
Blutspuren gehören zu den wichtigsten Beweismitteln in der Forensik. Über eine Blutspurenanalyse können beispielsweise Form, Anzahl und Größe von Blutrückständen analysiert und unter Berücksichtigung naturwissenschaftlicher Gesetzmäßigkeiten interpretiert werden. Diese Parameter lassen häufig Rückschlüsse auf die Art und Stärke einer Gewalteinwirkung zu, jedoch selten darauf wie alt eine Blutspur ist, beziehungsweise wann die Gewalteinwirkung stattgefunden hat. Methoden, die beispielweise auf RNA–Analyse oder der Spektroskopie beruhen, machen es sich zum Ziel dies festzustellen. Viele dieser Methoden sind jedoch invasiv, zerstören also zwangsläufig die Blutspur. Nicht invasive Strategien hingegen können mehrfach angewendet und deren Ergebnisse gemeinsam interpretiert werden, um eine möglichst genaue Abschätzung abgeben zu können. Dies erweist sich vor allem dann als Vorteil, wenn die Zahl der Blutspuren am Tatort limitiert ist. Die im Folgenden vorgestellte, nicht invasive Methode soll eine Option für eine möglichst akkurate Altersschätzung innerhalb eines kurzen Zeitraumes, nach Beginn der Trocknung darstellen, indem sie die bei der Trocknung des Bluttropfens entstandenen Risse in den festen Ablagerungen analysiert. Hierbei werden Bilder vom trocknenden Blutfleck in zeitlich bestimmten Abständen geschossen. Nach einer Reihe von Bildbearbeitungsprozessen, kann die Zahl der weißen Pixel, als Maß für die Größe der Trocknungsrisse, sowie die sich daraus ergebenden prozentualen Anstiege, gegen die Zeit in ein Koordinatensystem eingetragen und über Graphen dargestellt werden. In Zukunft könnten anhand dieser Graphen Funktionen approximiert werden, die eine Einordnung eines, in einem fest definierten Zeitraum ermittelten Anstiegs der Pixelzahl, der von einem weiteren Blutfleck erfasst wurde, zu einem bestimmten Zeitraum ermöglichen. Diese Arbeit soll einen grundlegenden Ablaufplan zur Erstellung von Versuchsreihen liefern, mithilfe derer eine Blutspur zeitlich abhängig auf morphologische Veränderungen, in Form von Trocknungsrissen, analysiert und für eine Altersschätzung weiterer Blutspuren, in Abhängigkeit der Umgebungsfaktoren, herangezogen werden kann.
Die Überwachung sozialer Online-Netzwerke spielt eine zunehmend wichtige Rolle, um die polizeilichen Aufgaben hinsichtlich Kriminalprävention und Gefahrenabwehr auch im virtuellen Raum effektiv und effizient wahrnehmen zu können. Gleichzeitig machen das enorme Volumen und die Komplexität der Daten eine manuelle Bearbeitung nahezu unmöglich. Es müssen automatisierte Verfahren entwickelt werden, welche sogenannte Gefährder in sozialen Online-Netzwerken sicher erkennen können. Für die Entwicklung, das Training und die Evaluation von Modellen für das Maschinelle Lernen werden standardisierte Referenzdaten benötigt. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines solchen Goldstandards mit Trainings- und Testdaten für Algorithmen zur Detektion von Gefährdern in sozialen Online-Netzwerken. Es werden Kriterien für die Auswahl relevanter Profile und Attribute erarbeitet und Anforderungen für die Strukturierung und Ablage der Daten formuliert. Weiterhin werden konkrete Profile und Feature-Kandidaten sowie ein XML-Schema und Dateilayout für die Bereitstellung der Daten des Goldstandards vorgeschlagen. Abschließend werden die Ergebnisse kritisch gewürdigt und ein Ausblick für zukünftige Arbeiten gegeben.
Diese Arbeit beinhaltet eine erste Strukturanalyse des neuen Apple File System. Es wurden die Datenträgerstrukturen eines APFS-Containers anhand mehrerer unter macOS "Sierra“ erstellten Images analysiert. Dabei wurde festgestellt, dassGrundzüge des Vorgänger-Dateisystems HFS+ auch bei APFS Anwendung finden, das neue System jedoch um einige Funktionalitäten verändert respektive erweitert wurde. Dazu zählen im Wesentlichen Snapshots, Copy-on-Write-Verfahren, Verschlüsselung und eine flexiblere Art der Partitionierung. Bezogen auf computerforensische Untersuchungen ist die Verschlüsselung der Nutzerdaten auf Apple-Computern eher als hinderlich zu betrachten. Die anderen Features werden dabei nach aktuellem Kenntnisstand keine oder leicht positive Auswirkungen haben.
This thesis proposes a solution to the practical problem of supervising relatively basic mechanic processes in robotics by means of computervision. Supervision happens by comparing the tracked movement with a known, ideal recording of the movement that acts as a model.
First, this thesis analyzes possible approaches to the problem regarding data structures and representation, ways of extracting the data from the recording and ways to compare the data sets of two recordings. Then, a specific solution is implemented in C++ and explained.
In der vorliegenden Arbeit wird das Thema Cybercrime umfangreich behandelt. Dabei wird unter anderem auf den klassischen Cyberangriff und auf das Thema Social Engineering eingegangen. Die Problematik der Cybercrime, wird für jeden leicht verständlich erklärt. Dabei wird eine neue und allgemeine Anatomie von Cyberangriffen erarbeitet und es werden aktuelle Beispiele diskutiert. Ziel der Arbeit ist es, ein Sicherheitsbewusstsein zu schaffen mit dem jeder sich sicherer in der digitalen Welt bewegen kann.
Die Gamesbranche erwirtschaftet jedes Jahr mit AAA Titeln Milliardenumsätze und wächst stetig weiter. Diese wissenschaftliche Arbeit trägt den Titel: Untersuchungen zur Machbarkeit der Entwicklung von Games-AAA-Titeln durch kleine Teams. In der Arbeit wird analysiert ob es möglich ist AAA-Games-Titel mit kleinen Teams umzusetzen. Dafür wird die Entwicklung der Branche analysiert um Ausgangslage und Anforderungen für AAA-Titel zu definieren. Mit diesen Daten werden neue Arbeitsweisen und Technologien untersucht und bewertet. Aus diesen wird dann ein optimales Modell ab-geleitet mit dem AAA-Titel mit wenig Kapital und Entwicklern umgesetzt werden kann.
Mixed Reality in Games
(2017)
In der vorliegenden Bachelorarbeit sollen Grenzen und Unterschiede der verschiedenen Bereiche der Mixed Reality aufgezeigt werden. Bei der Betrachtung werden die Bereiche Games und Game Design besonders betrachtet. Dabei wurden verschiedene Mixed Reality Anwendungen untersucht und klassifiziert. Diese Ergebnisse wurden verwendet, um ein Konzept für ein Spiel für Mixed Reality Geräte zu entwickeln.
Diese Arbeit ist sowohl für Studierende im Bereich Games als auch für Lehrkräfte in diesem Feld relevant. Für die Zusammenstellung der Arbeit wurden bereits vorhandene Schriftstücke über Mixed Reality und Games verwendet und zu einem Großteil theoretisch verarbeitet. Zum Abschluss der Arbeit wird ein Videospielkonzept für Mixed Reality vorgestellt.
Nanopartikel gelangen vor allem aus der Industrie oder durch Regenwasser aus den Städten in Klärwerke und somit in den Wasserkreislauf. In diesem Versuch soll das Verhalten von Cerdioxid-Nanopartikeln in zwei Laborkläranlagen mittels verschiedener Zugabemethoden untersucht werden. Dafür wurden zunächst die Leistungsfähigkeiten der Laborkläranlagen untersucht, indem Proben des Zulaufes und des Ablaufes entnommen und die Überwachungsparameter analysiert wurden. Für die Untersuchung der Nanopartikel wurden die entnommenen Schlamm- und Ablaufproben aufgeschlossen und mittels ICP-MS gemessen.
Die Leistungsfähigkeit beider Laborkläranlagen konnte mit einem Kohlenstoffabbau von im Mittel über 90% nachgewiesen werden. Bei Laborkläranlage 1 wurde eine einmalige Zugabe der Nanopartikel gewählt, dabei setzten sich 95% der Nanopartikel im Schlamm und 5% im Ablauf fest. Im Gegensatz dazu wurde bei Laborkläranlage 2 eine kontinuierliche Zugabe gewählt. Zu Beginn der Versuchsreihe sind die Cerfrachten gesunken, da durch das hohe Blindwert-Niveau mehr Nanopartikel aus der Anlage herausgespült als hinzugegeben wurden. Nach einer Erhöhung der hinzugegebenen Masse war ein Anstieg der Cerfracht zu erkennen, da die Fracht, die aus der Anlage herausgespült wurde, kleiner war als die zugegebene Masse an Nanopartikeln. Die Nanopartikel setzten sich zu 96% im Schlamm und zu 4% im Ablauf fest.
Das Smartphone ist im Laufe seiner Entwicklung zu einem ständigen Begleiter des modernen Menschen avanciert. Besonders der Marktführer, das mit Android betriebene Mobilgerät, ist weit verbreitet, allerdings aufgrund von nicht geschlossenen Sicherheitslecks für Malware anfällig, sodass zahlreiche Arten an Android-Viren existieren. Die Analyse dieser ermöglicht die Klassifikation, Abwehr und Bekämpfung solcher Angriffe. Die Kombination aus einem Webserver und mehreren Wandboards, einer Mikrocontroller-Entwicklungsplattform, bietet zusätzlich die Möglichkeit, das Analysieren zur Laufzeit durchzuführen. Im aktuellen Zustand des geplanten Projektes wäre es allerdings nötig, bei jedem Wechsel der Android-Version oder -Malware die
bootfähige Speicherkarte des Wandboards auszutauschen. Dieser zeitlich und materiell aufwändige Vorgang kann durch die Konfiguration des Wandboards, das heißt seiner Hard- und Software, für den Boot der Android-Abbilder mit den zu analysierenden Viren über das Netzwerk optimiert werden. Die vorgestellte Methodik nutzt das Protokoll Preboot Execution Environment, um die Android-Systemdateien über einen TFTP- und einen NFS-Server zu laden. Die SD-Karte wird ausschließlich für den verwendeten Bootloader U-Boot eingesetzt. Um die auf den Servern eingerichteten Daten herzustellen, wurden zwei Ansätze, die Kompilierung des Android-Quellcodes und die Generierung aus den vorinstallierten SD-Karten-Images, entwickelt. Das Vorgehen zur Konfiguration der Server und des Bootloaders ist als Anleitung in die methodische Darstellung eingearbeitet. Mit Abschluss der Einrichtung zum Netzwerkstart konnte Android erfolgreich auf dem Wandboard über das lokale Netz gestartet werden. Die nunmehr mit weniger Aufwand durchführbaren Wechsel von Systemversionen ermöglichen die Realisierung eines Services zur Android-Malware-Analyse zur Laufzeit, der die zeitnahe und sichere Klassifikation und Bekämpfung von Viren auf Mobilgeräten möglich macht.
Im Rahmen der Arbeit wird ein Überblick über aktuelle Verfahren der Sentimentanalyse gegeben, welche sich besonders für die Analyse von Nutzerdaten in sozialen Netzwerken eignen und auch auf die deutsche Sprache ausgerichtet sind bzw. auf diese übertragen werden können. Darüber hinaus sollen forensische Anwendungsgebiete der Sentimentanalyse aufgezeigt und diskutiert werden.
Analyse des Einflusses verschiedener Umweltfaktoren auf die spektroskopische Blutaltersbestimmung
(2017)
Blutspuren gehören zu den wichtigsten Beweisen in der Forensik. Neben der morphologischen Untersuchung wie bei der Blutmusteranalyse, kann ebenfalls das Blut an sich untersucht werden um das Alter zu bestimmen. Somit lassen sich nicht nur Tathergänge rekonstruieren, auch eine Überprüfung der Aussagen von Zeugen oder Tatverdächtigen ist somit möglich. Allerdings erschweren Umweltfaktoren die Bestimmung des Alters. Der Einfluss der Faktoren Licht, Temperatur und Luftfeuchtigkeit wurde in dieser Arbeit mit Hilfe einer spektroskopischen Analysemethode, der UV/VIS-Spektroskopie, über einen Zeitraum von 21 Tagen untersucht. Für die Bestimmung des Blutalters wurden neben den vier spezifischen Blutpeaks, zwei Peaks aus dem UV-Bereich näher betrachtet. Es konnte beobachtet werden, dass vor allem die Temperaturverhältnisse einen großen Einfluss auf die Umwandlung von Oxyhämoglobin zu Methämoglobin haben. Die Umsetzungsrate ist hierbei viel geringer. Die Betrachtung der Peaks im UV-Bereich ergab, dass diese von Lichteinflüssen stärker beeinflusst werden. Jedoch eignen sich die Peaks nur bis zu einem Zeitraum von maximal fünf Tagen, da bei älteren Spuren die Werte nicht mehr zuverlässig sind.
In dieser Arbeit ging es hauptsächlich darum, zu untersuchen wie bestimmte, gewählte Degradationsparameter auf DNA Proben realer Personen einwirken und wie diese im Laufe der Zeit verändert werden. Besonderes Augenmerk lag hierbei auf dropout/dropin Phänomenen. Dabei wurde zusätzlich die Verwendbarkeit des Chimera® Mentype® Kits in der forensischen Spurenanalytik überprüft.
Es wurden unterschiedliche Spurenmaterialien von fünf Probanden über einen Zeitraum von 4 h bis 14 Tagen, diversen Temperaturen und UVC-Bestrahlung ausgesetzt. Die Auswertung erfolgte mittels STR-Profilen sowie Fragment Analyzer™. Ebenfalls wurden Hautabriebsspuren gesichert, welche mittels NanoDrop™ und Fragment Analyzer ™ analysiert wurden um eine Beurteilung über die Tauglichkeit dieser Tools vornehmen zu können.
Die Ergebnisse bestätigen, dass ein großer Unterschied zwischen Speichelproben und Mundschleimhautabstrichen besteht, was Degradationserscheinungen betrifft. Es konnte auch festgestellt werden, dass es signifikante Unterschiede bei den Probanden gibt. (Shedderstatus) Bei dem Vergleich von STR-Profilen mit den Fragment Analyzer™ Daten zeigt sich, dass eine Korrelation nicht möglich ist.
Der angesetzten Toolvergleich brachte hervor, dass der Fragment Analyzer™ effizienter und präziser ist, womit der NanoDrop™ vorgezogen werden sollte.
Die vorliegende Arbeit befasst sich mit der Analyse von Videos mit Kinder- und Jugendschauspielern, die durch die Forensik-Analyse-Software X-Ways Forensics gecarvt und gefiltert und von dem Gesichtserkennungsprogramm SHORE des Fraunhofer Instituts für Integrierte Schaltungen bezüglich Alter und Geschlecht analysiert werden. Die Biometrische Unterscheidung des Alters ist besonders bei der Erkennung und Differenzierung zwischen legaler Erwachsenenpornographie und inkriminierter Kinder- sowie Jugendpornografie entscheidend. Die Ergebnisse werden unter verfahrensechten Umständen getestet und auf Gerichtsverwertbarkeit geprüft. Um Vergleiche mit ähnlichen Produkten und der manuellen Arbeit eines erfahrenen Ermittlers zu erstellen, werden Testdaten mit bekannten Parametern eingespeist und bezüglich Treffer- und Fehlergenauigkeit sowie Dauer verglichen.
Die vorliegende Arbeit befasst sich mit der Analyse der Verbindungen zur Blockchain-Technologie und der künstlichen Intelligenz. Das Hauptziel ist, neue Bereiche der beiden Technologien zu beschreiben und zu erklären. Zuerst werden inhaltliche Fragen und Erklärungen für ein besseres Verständnis der beiden Technologien erläutert. Des Weiteren werden gemeinsame Einsatzszenarien, sowie dessen Realisierung betrachtet. Zuletzt werden Vor- und Nachteile, sowie eine Zukunftsprognose der Blockchain-Technologie und der künstlichen Intelligenz aufgestellt.
Effekte von antibiotischen Gyrasehemmern auf die Topologie der mtDNA menschlicher Tumorzellen
(2017)
Das Antibiotikum Levofloxacin hemmt die Gyrase der Mitochondrien, was die Replikation der mtDNA an der supercoiled-Form zur Folge hat. Dadurch entstehen mtDNA-Catenate, welche bei der Teilung nur an ein Tochtermitochondrium weitergegeben werden können. Somit entstehen Zellen ohne mtDNA, sogenannte ρ0-Zellen. Mithilfe von Fluoreszenzmikroskopie, qPCR und Selektion soll diese These hier nachgewiesen werden.
Die dabei entstandenen Ergebnisse zeigen mikroskopisch Mitochondrien ohne mtDNA, sowie einen Rückgang des mtDNA-Gehalts durch die qPCR und das Sterben von vereinzelten Zellen unter Selektionsdruck durch fehlendes Pyruvat und Uridin. Bei den Levofloxacinkonzentrationen 400 μM und 600 μM konnten all diese Effekte nachgewiesen werden, wobei in Zellen, welche mit niedriger Konzentration behandelt wurden, die mtDNA noch vorhanden ist. Bei höheren Konzentrationen müssen letale und toxische Effekte beachtet werden. Somit können ρ0-Zellen mithilfe von Levofloxacin hergestellt werden.
Die Entstehung von Catenaten wurde indirekt an den Zellen der Konzentrationen 400 μM und 600 μM nachgewiesen, da Zellen, die ohne Levofloxacin weiter behandelt wurden, auch in Mangelmedium gewachsen sind. In diesen Zellen könnte die wieder aktivierte Gyrase die Catenate zerschnitten und entwunden haben, wodurch wieder eine funktionsfähige Atmungskette vorliegt.
Konfiguration IT-forensischer Untersuchungspläne mittels wiederverwendbarer Methodenbausteine
(2017)
Das Ziel der vorliegenden Bachelorarbeit war es, die in meinem hochschulinternen Praxisprojekt, eingereicht am 12.05.2017, generierten Bausteine zur automatischen Erstellung von IT-forensischen Untersuchungsplänen zu verbessern und weiterzuentwickeln, um so eine höhere Abdeckung von Fällen zu erreichen. Dazu wurde Literatur gesichtet und ein Interview mit Herrn Alexander Sigel, DigiTrace GmbH Köln, geführt. Das Praxisprojekt wurde ebenfalls von Herrn Sigel betreut.
In dieser Arbeit konnten erfolgreich neue Bausteine konfiguriert und bereits vorhandene Attribute von bestehenden Bausteinen sinnvoll erweitert werden. Die automatisch generierten Untersuchungspläne, ausgehend von diesen Bausteinen, können als Gedankenstütze oder Checkliste dienen und Fehler während der Untersuchung oder während der Erstellung des Untersuchungsplans minimieren. Durch die zielgerichtete Abfrage nach bestimmen Untersuchungszielen auf bestimmten zu untersuchenden IT-forensischen Geräten, Objekten, auf denen ein bestimmtes Betriebssystem installiert ist, können die ausgegebenen Untersuchungsschritte gezielt an den Untersuchungsauftrag angepasst werden.
Die Bachelorarbeit ist sowohl für Studierende als auch für selbstständige oder angestellte IT-Forensiker interessant, die im Zuge ihrer Arbeit Untersuchungspläne erstellen, um die Untersuchung systematisch zu gestalten.
Untersuchungen zu Chancen und Limits von Texture Maps im Umfeld der Entwicklung digitaler 3D Spiele
(2017)
Der Fortschritt in Computerhard- und software ermöglicht der Spieleindustrie, immer technisch versiertere digitale Spiele zu entwickeln. Besonders der Bereich des 3D und 2D Designs profitiert davon, obgleich immer noch Grenzen vorzufinden sind, welche in Hinsicht auf die Generierung von Game Assets zu berücksichtigen sind. Die vorliegende Arbeit untersucht dabei den aktuellen Forschungsstand und analysiert diesbezüglich Chancen und Limits sogenannter Texture Maps zur Erzeugung von Detail auf dreidimensionalen Objekten. Die Resultate dieser Untersuchung sollen am ausgewählten Beispiel der Videospielreihe Tomb Raider aufgezeigt werden.
Generierung von in silico Modellen zur Vorhersage der Bioverfügbarkeit potentieller Arzneistoffe
(2017)
Ziel dieser Arbeit ist es, eine essentielle Eigenschaft (die Bioverfügbarkeit) von Verbindungen zur Auswahl von neu synthetisierten Verbindungen, vorherzusagen. Dafür wird ein QSPR Modell erarbeitet, das die orale Bioverfügbarkeit vorhersagt. Es werden verschiedene Modelle erstellt, die auf unterschiedlichen Trainingsmethoden beruhen. Die Performance der Modelle wird durch den Korrelationskoeffizienten (R2) bewertet.
Im Rahmen der zwölfwöchigen Bearbeitungszeit wurde in dieser Bachelorarbeit die Analyse und das Zeitmanagement von Routineparameter in unserem Labor, labopart – Medizinische Laboratorien in Chemnitz, getätigt. Ziel war es durch statistische Erfassungen und intensive Mitarbeit, die Notwendigkeit der Anschaffung neuer Analyzer sowie weitere Optimierungsgründe finden und beschreiben zu können.
Die vorliegende Arbeit befasst sich mit einer Verbesserung des Produktverwaltungsprozesses eines Magento Onlineshops sowie einer verbesserten Bestellverarbeitung und dessen Integration zu Unternehmenssystemen. Mögliche Optimierungsansätze werden anhand der System-landschaft des Unternehmens XECURIS GmbH & Co. KG aufgezeigt. Unternehmen sind darum bemüht, Workflows möglichst effektiv und mit geringem Zeitaufwand zu gestalten. Insbesondere Unternehmen im IT-Umfeld sind darauf angewiesen, dass komplexe Geschäftsabläufe automatisiert und fehlerfrei abgearbeitet werden. Ziel der Arbeit ist es, Schwächen an der bestehenden Infrastruktur des Unternehmens zu analysieren, Optimierungsansätze zu entwickeln sowie Ansätze zu deren Implementation aufzuzeigen.
Für die Unfallrekonstruktion bietet die Erstellung eines 3D-Modelles viele Vorteile. Es fallen weniger Daten bei der Datenakquirierung an und somit wird benötigte Zeit an der Unfallstelle reduziert. Zusätzlich lassen sich Messungen direkt am 3D-Modell vornehmen. Um eine möglichst genaue 3D-Rekonstruktion zu ermöglichen, wurde in dieser Arbeit der Einfluss von verschiedenen Aufnahmemethodiken und softwarespezifischen Prozessparametern, auf das mithilfe der Photogrammetrie Software Agisoft PhotoScan erstellte Modell untersucht. Da es bisher wenig Literatur gab, welche sichmit der richtigen Parametrisierung des Rekonstruktionsprozesses auseinandersetzte, wurde dabei deshalb empirisch vorgegangen. Als unterschiedliche Aufnahmemethoden wurden die Aufnahme direkt mit der Kamera aus der Hand, an einem Stativ und aus der Luft mit drei verschiedenen Kamerasystemen analysiert. Die rekonstruierten 3D-Modelle wurden auf ihre Abweichung und auf die optische Ähnlichkeit zum realen Modell untersucht. Das Ziel dieser Arbeit war die Optimierung des Rekonstruktions- und Aufnahmeprozesses für die Aufnahme einer Fahrbahn. Dabei stellten sich heraus, dass sich für verschiedene Aufnahmemethodiken unterschiedliche Prozessparameter eignen und dass die Parametrisierung, neben der Aufnahmemethodik, einen großen Einfluss auf das fertige 3D-Modell hat.
Es wurde zum einen ein IgG-ELISA zum spezifischen Nachweis von Anti-Dengue-Antikörpern in humanen Seren entwickelt und optimiert mit dem Schwerpunkt einer besseren Spezifität im Vergleich zu bereits auf dem Markt befindlichen ELISA-Tests. Zum anderen wurde eine real-time-PCR zum Nachweis von Dengueviren in humanen Seren mit gleichzeitiger Serotypenbestimmung entwickelt und optimiert
Die vorliegende Arbeit befasst sich mit Verfahren und Methoden zur Optimierung der Performanz und Bedienbarkeit von Filtervorgängen. Hauptaugenmerk liegt auf der Konzeption und Implementierung eines Prototyps für die Filterung von Artefakten mit inhomogenen Attributen. Dazu erfolgt die Anbindung an ein Indexsystem, die Erzeugung einer Filtersprache mit zugehöriger Grammatik sowie die Bereitstellung von Filtervorschlägen
Diese Arbeit untersucht den Einfluss westlicher und japanischer Kultur auf die Videospielindustrie. Dabei reduziert sie sich auf einen gewissen Kulturbegriff und schafft mithilfe dessen ein aktuelles und neutrales Bild der Stereotypen beider Kulturen. Eine analytische Betrachtung am praktischen Beispiel einiger Videospiele, gibt dabei Aufschluss über unterschiedliche Konzepte, die durch das bestehen von Kulturen geprägt wurden. Auf Grundlage der quantitativen Umfrage werden gewisse Neigungen und Präferenzen der westliche Audienz untersucht und analysiert und mit den theoretischen, sowie analytischen Ansätze verglichen und in Relation gesetzt. Das Ergebnis zeigt, dass kulturelle Wertmuster im Zuge der Globalisierung einander annähern und die Grenzen der eindeutigen Identifikation zunehmend verschwimmen