Refine
Document Type
- Bachelor Thesis (85)
- Diploma Thesis (18)
- Master's Thesis (7)
Year of publication
- 2017 (110) (remove)
Language
- German (110) (remove)
Keywords
- Softwareentwicklung (4)
- Altersbestimmung (3)
- DNS (3)
- Computerforensik (2)
- Computersicherheit (2)
- Computerspiel (2)
- Daktyloskopie (2)
- Eingebettetes System (2)
- Gerichtliche Wissenschaften (2)
- Gesichtserkennung (2)
Institute
- Angewandte Computer‐ und Biowissenschaften (110) (remove)
Die vorliegende Bachelorarbeit befasst sich mit dem Begriff Environmental Storytelling. Dabei war es das Ziel eine Definition für die Elemente in Environmental Storytelling aufzustellen und diese zu katalogisieren, sodass diese zukünftig in den Prozess des Level Designs einfließen können. Die Elemente wurden anhand einer kleinen Auswahl an Spielen exemplarisch getestet. Die Bachelorarbeit soll den Menschen helfen, die Narration in das Level Design einbringen wollen. Der Verfasser erhofft sich am Ende einen Katalog anzutreffenden Elementen erstellt zu haben.
Die Salzgitter Flachstahl GmbH (SZFG) ist das größte Tochterunternehmen der Salzgitter AG und stellt unterschiedliche Flachstahlprodukte her. Sie beinhaltet
verschiedenen Produktionsbereiche und Produktionsanlagen, wie bspw. das Hochofenwerk mit der Erzvorbereitung und den Hochöfen, das Stahlwerk mit den Stranggießanlagen, das Warmbreitbandwalzwerk mit der Warmbreitbandstraße und der Schubbeize, und abschließend der Bereich Kaltflach mit der Kontibeize, der Tandemstrasse, der Glüherei und der Dressierstraße, den Verzinkungsanlagen, der Bandbeschichtung und den Coillinien.
Eine der Beizanlagen der SZFG ist die Kontibeize 2 (KB2) aus dem Bereich Kalt-flach. In der KB2 werden die Stahlbänder vom Oberflächenzunder und von Verschmutzungen befreit. Weite Teile des zu verarbeitenden Materials der SZFG durchläuft die KB2. Ihrer Verfügbarkeit wird daher eine große Bedeutung beige-messen. Die Verfügbarkeit ist das Maß für den störungsfreien Betrieb einer jeden Produktionsanlage. Sie verringert sich über die Anzahl und die jeweilige
Dauer von Störungen in Relation zu der verfahrenen Produktionszeit.
Die Diplomarbeit zielt auf eine Erhöhung der Anlagenverfügbarkeit ab, indem die Zeit nach Störungseintritt bis zum Wiederanlauf der Anlage verringert werden soll. Unter bestimmten Störbedingungen fehlen zurzeit verschiedene Materialdaten, um die Anlage bei Datenverlust sicher anzufahren. Durch eine bessere Übersicht über die gespeicherten Materialdaten im Anlagenspeicher und des folglich leichteren Abgleichs der Daten mit dem Material vor Ort, wird den Mitarbeitern helfen fehlerhafte Datensätze in der Anlagensteuerung zu erkennen und dadurch Fehler beim Anfahren der Anlage zu vermeiden.
Die vorliegende Arbeit hat es sich zur Aufgabe gemacht, einen effizienten Workflow für die Erstellung einer Destruction-Simulation herauszuarbeiten und Kriterien für ihre Glaubhaftigkeit darzustellen. In einer praktischen Umsetzung werden diverse Schritte zur Erstellung einer Simulation auf ihre Funktionalität überprüft und erklärt. Die Erkenntnisse aus der Analyse, gestützt durch die Aussagen von Spezialisten aus angesehenen VFX-Studios, verdeutlichen, dass viele Faktoren bei der Erstellung einer Simulation zu beachten sind, die deren Verlauf beeinflussen können.
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.
Die vorliegende Diplomarbeit beschreibt den Entwurf und die Umsetzung einer ticketgestützten Bearbeitung des Prozesses „Neuer Mitarbeiter“ an der Hoch-schule Mittweida mit dem Ticketsystem KIX. Dazu wird der IST-Zustand doku-mentiert und analysiert. Auf Basis einer Schwachstellenanalyse wird ein SOLL-Konzept entwickelt und mit dem IST-Zustand verglichen. Abschließend wird das SOLL-Konzept des Prozesses „Neuer Mitarbeiter“ mit Hilfe des Prozess-management-Moduls im Ticketsystem KIX implementiert und die Ergebnisse betrachtet.
Das Ziel der vorliegenden Arbeit war es, ein für mittelständische und kleine Unternehmen geeignetes Format für die Versendung elektronischer Rechnungen zu finden, hierfür eine Softwarelösung zu entwickeln und diese in ein bestehendes Produkt zu integrieren. Nach gründlicher Analyse fiel die Entscheidung auf das ZUGFeRD-Format, für welches eine nun kommerziell vertriebene Komponente entwickelt wurde, die zusammen mit einem, im Rahmen der Arbeit entwickelten E-Mail-Client, in die Software HSC-AuftragPlus integriert wurde. Damit lassen sich ZUGFeRDRechnungen ohne Umwege oder externe Programme sowohl empfangen und importieren, als auch exportieren und versenden. Bei diesen Schritten erfolgt auch immer eine mehrstufige Validierung und entsprechendes Feedback an den Benutzer. Da die Bachelorarbeit auf betriebswirtschaftliche, juristische und informatische Aspekte eingeht, sollte sie insbesondere für Studierende der Informatik und Wirtschaftswissenschaften viele interessante Informationen enthalten
Etablierung eines Verfahrens zur Herstellung von
Keratinhydrolysat aus Rinder- und Pferdehaaren
(2017)
Diese Arbeit beschäftigt sich mit der Etablierung eines Verfahrens zur Herstellung unterschiedlich stark abgebauter Keratinhydrolysate aus Rinder- und Pferdehaaren. Dafür wurden verschiedene aus der Literatur bekannte Extraktionsmethoden angewendet und deren Eignung unter Variation der Inkubationstemperatur, der Inkubationsdauer und der Konzentration der eingesetzten Chemikalien untersucht. Anschließend erfolgte eine gelelektrophoretische Charakterisierung der gewonnenen Hydrolysate. Weiterhin wurde eine Aminosäureanalyse sowie eine Bestimmung freier Thiolgruppen mittels Ellman’s Reagenz durchgeführt.
Ziel dieser Diplomarbeit ist die experimentelle Untersuchung der optischen Freiraumübertragung (FSO) von Daten. Unter Verwendung von Protokollen der Kommunikationstechnik werden IEEE-Standards analysiert und die Anwendbarkeit für FSO überprüft. Ein geeigneter Standard wird dann verwendet, um eine experimentelle Datenübertragung mit Licht über den Freiraum durchzuführen.
Die vorliegende Bachelorarbeit befasst sich mit der Thematik zur Überprüfung der möglichen Schädigung von Lederhalbfabrikaten (Wet-Blue) durch verschiedene Schimmelpilze, welche auf Leder vorgekommen sind bzw. bereits von Leder isoliert werden konnten. Dafür sollte das Wachstum der Schimmelpilze auf dem Halbfabrikat mit Hilfe von Kultivierungsmethoden aus verschiedenen Bewuchstests gezielt gefördert werden. Anschließend wurden die Prüflinge auf eine Materialschädigung untersucht und auf mögliche Nährstoffquellen für das Wachstum der Schimmelpilze zurückgeschlossen
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Streifentestsystems, mit einer integrierten Amplifikationsmethode und Read-out-System, zum Nachweis pathogener Bakterien in Wunden. Dabei wird als Amplifikationsmethode die Rekombinase-Polymerase-Amplifikation (RPA) unter Verwendung des TwistAmp® nfo Kits, der Firma TwistDX Ltd., gewählt. Zur Detektion sollen Milenia HybriDetect Streifentests, der Firma Milenia Biotec GmbH, verwendet werden, da diese mit dem TwistAmp® nfo Kit kombiniert werden können. Diese zwei Methoden sollen in die onsite.flow Kartusche, der Firma BiFlow Systems GmbH, eingebracht werden. Um dies zu realisieren, sollen thermographische Charakterisierungen mit der onsite.flow Kartusche durchgeführt werden. Wichtig ist dabei, vor allem die Temperatur bei 37° C, da die RPA hier ihr Optimum findet. Um dies zu testen, sollen zwei Regelungsarten der onsite.flow Kartusche untersucht werden. Zum einen die Regelung über die Stromstärke und zum anderen die Regelung über die Temperatur. Weiterhin soll die Nachregelung der Temperatur durch ein Offset untersucht werden und das Beheizen von Flüssigkeiten im Näpfchen mit der onsite.flow Kartusche. Zudem sollen mit dem TwistAmp® nfo Kit, mithilfe von Agarosegelen, erste Versuche unter verschiedenen Reaktionsbedingungen durchgeführt und in Hinblick auf eine quantitative Aussage, untersucht werden. Außerdem sollen die Milenia HybriDetect Streifentest auf verschiedene Bedingungen, die in der onsite.flow Kartusche vorliegen, im Reaktionsgefäß getestet werden. Anschließend soll die RPA im Näpfchen der onsite.flow Kartusche durchgeführt werden und mit den Streifentests das Amplifikationsprodukt detektiert werden. Zuletzt sollen der Streifentest und die Reaktionsbestandteile des TwistAmp® nfo Kits, in die onsite.flow Kartusche eingebracht werden.
Diese Arbeit beschäftigt sich mit der Analyse und Evaluierung ausgewählter Tools, im Bereich des IT-Monitorings, sowie der Bewertung der unterschiedlichen Lösungen, unter Berücksichtigung der Anforderungen im Unternehmen. Dazu gehört im Anschluss ebenfalls die Erarbeitung eines Implementierungskonzepts für den Echtbetrieb.
Die vorliegende Bachelorarbeit gibt einen Einblick in das Lernverhalten mit mobilen Endgeräten von Studierenden. Ziel der Arbeit war es herauszufinden, wie, wann und wo Studierende (mobil) lernen, welche Medien sie zur Vorbereitung auf Tests und Prüfungen nutzen, woher sie ihre Lerninhalte beziehen und welche Rolle Videos beim Lernen spielen. Für die Beantwortung dieser Fragen wurde ein Fragebogen mit der Überschrift Lernen im studentischen Kontext erstellt und von Studierenden der Hochschule Mittweida und der TU Chemnitz ausgefüllt. Herausgekommen ist, dass Studierende zeitnah zur Prüfung lernen; seltener jedoch auf mobile sondern vielmehr auf analoge Medien zurückgreifen. Auch die Ortsunabhängigkeit, die laut Definition ein wichtiger Bestandteil des mobilen Lernens darstellt, wird durch das Lernen im vertrauten Umfeld (d.h. zu Hause) in Frage gestellt. Mobile Geräte werden zwar zum Lernen eingesetzt, jedoch hauptsächlich um auf digitale (Lern-)Inhalte zuzugreifen bzw. sich mit Kommilitonen in sozialen Medien auszutauschen.
Die vorliegende Arbeit befasst sich mit dem Aufbau einer zentralen Datenbank sowie der Entwicklung eines Webinterfaces. Dazu werden einleitend die nötigen Grundlagen erläutert und die aktuellen Technologien verglichen. Im Hauptteil wird die aktuell eingesetzte Anlagenliste auf Excel-Basis analysiert und Konzepte für die Datenbank und dem Webinterface erstellt. Im Anschluss daran werden die Konzepte umgesetzt und zum Schluss ein Fazit gezogen sowie mögliche zukünftige Entwicklungen angeschnitten.
Amplifikation von bekannten Kopienzahlvariationen mit ihren umgebenden Sequenzbereichen in einer Long-Range-Polymerase-Kettenreaktion und Auswertung der Produkte mittels Hochauflösender Schmelzkurvenanalyse auf einem LightCycler 480. Unterscheidung mehrerer CNVs von mitgeführten Referenzen durch die zwei Methoden der Hochauflösenden Schmelzkurvenanalyse Meltcurve-Genotyping und Gene Scanning. Grenzen, wie zum Beispiel Pseudogene, welche beachtet werden müssen oder eine eingeschränkte Eignung des Verfahrens für den Nachweis von Duplikationen wurden deutlich. Es zeigte sich zudem, dass eine große Menge an Referenzen empfehlenswert ist, die Amplifikationsparameter in der LR-PCR optimiert sein sollten und interkalierende Farbstoffe der zweiten Generation für die Verwendung in der HRM verwendet werden sollten. Bevor das Verfahren für den Nachweis von CNVs in Proben eingesetzt werden kann, sind weitere Untersuchungen und Optimierungen vorzunehmen.
Die vorliegende Arbeit befasst sich mit dem Entwurf eines Labornetzgeräts, das zusätzlich zu der konventionellen analogen Steuerung über Drehregler, noch die Möglichkeit der digitalen Steuerung über Bluetooth und WIFI bietet. Durch Verwendung eines integrierten Akkus und die Möglichkeit das Netzgerät über Solarenergie zu betreiben, soll eine Vielzahl an Anwendungsfällen abgedeckt werden. Konkret werden potentielle Schaltungstopologien analysiert und Entwurfskriterien diskutiert. Diese Projektstudie soll einen Referenzwert über Möglichkeiten und Probleme eines solchen Labornetzgeräts bieten.
Die vorliegende Arbeit beschäftigt sich mit der forensischen Datensicherung integrierter Schaltkreise. Das Ziel ist, eine Software zu entwickeln, die es ermöglicht die Daten zweier Schaltkreise durch die Nutzung eines Galep-5D Programmiergerätes in eine Binärdatei zu überführen. Bei den Schaltkreisen handelt es sich um einen seriellen EEPROM und einen eMMC NAND-Flash. Es wird ein Vorgehen erläutert, wie mit Hilfe der bereitgestellten Bibliotheken, die Datenextraktion des EEPROMs durch SPI und des eMMCs durch den eMMC-Standard, erfolgt. Aus dieser Arbeit geht hervor, dass sich die Schaltkreise korrekt auslesen lassen, aber die Datenrate zu gering ist, um dieses Verfahren praktikabel für die Datensicherung größerer Speicher zu nutzen. Dennoch
wird ein Grundbaustein für weitere Forschungen, in Bezug auf das Auslesen unbekannter Schaltkreise, gelegt.
In der vorliegenden Bachelorarbeit wird das Themengebiet der Entwicklung eines webbasierten Informationssystems und einem programmatischen Interfaces zur Integration von Sensorikdaten aus Pflanzenphänotypisierungsanlagen erörtert. Um dies zu ermöglichen, wurden mit der Modellierungssprache UML Konzepte erstellt. Dazu zählen das Gesamtsystemkonzept, das Webinformationssystemkonzept und das MockUp des Webinformationssystems (PhenoLIMS). Für die Realisierung von PhenoLIMS wurden Oracle Application Express, JavaScript und PL/SQL eingesetzt. Dabei fand Oracle Application Express für die Oberfläche, JavaScript für das Manipulieren von Elementen der Weboberfläche und PL/SQL für das Abfragen und das Herunterladen der Daten Anwendung. Der Download sollte als ISA-Tab genormte MIAPPE zur Verfügung stehen.
Ziel der Diplomarbeit ist die Erstellung einer Software zum Auslesen und Aufbereiten von Fehlerdaten aus einer Datenbank einer Automatischen Optischen Inspektion (AOI). Des Weiteren sollen die Daten in Tabellenform und als Diagramm darstellbar und auch exportierbar sein.
Diese Arbeit befasst sich zunächst mit den Grundlagen von Java und Datenbanken sowie mit der Abfragesprache SQL. In den darauffolgenden Kapiteln werden die Anforderungen präzisiert und es wird näher auf die Installation der erforderlichen Komponenten sowie die Implementierung eingegangen. Im letzten Kapitel werden die Ergebnisse kurz zusammengefasst und ein Ausblick für Funktionserweiterungen wird dargestellt.
Es besteht großer Entwicklungsbedarf von aussagekräftigen in vitro Testsystemen, die als Alternative zu Tierversuchen und für die Grundlagenforschung eingesetzt werden können. Im Fokus steht dabei unter anderem die Echtzeitcharakterisierung des Zellverhaltens. Bisher gibt es hinsichtlich der Echtzeitcharakterisierung kaum Produkte auf dem Markt. Eine Weiterentwicklung ist daher essentiell. In der vorliegenden Arbeit wurden erstmalig die pH-sensitiven Sensorpartikel (ein fluoreszenzbasiertes Messsystem aus einem pH-sensitiven Farbstoff und einem Referenzfarbstoff) der Firma „Surflay Nanotec GmbH“ auf ihre Eignung für die Echtzeitcharakterisierung in Zellkultursystemen getestet und bewertet. Dabei zeigte sich, dass es sich um ein zuverlässiges System handelt, welches reproduzierbare Werte liefert. Die Sensorpartikel sind photostabil und lassen sich durch unterschiedliche Fokusebenen nicht beeinflussen. Die Messung des pH-Wertes ist in einem Bereich von pH 4 bis pH 9 möglich. Innerhalb von Zellkultursystemen kann eine pH-Wert-Änderung, durch Stoffwechselprodukte verursacht, gemessen werden. Besonders hervorzuheben ist, dass eine lokale pH-Wert-Messung in Zell-nähe erfolgen kann. Damit hebt es sich von anderen Produkten ab.
In der vorliegenden Arbeit soll ein Lösungskonzept für Regressionstests des Softwareprodukts robotron*ecount entstehen. Ziel ist die Ermöglichung eines effizienten und wirtschaftlichen Regressionstests mithilfe der Testautomatisierung. Zunächst wird ein universeller Testprozess definiert. Des Weiteren erfolgt eine Untersuchung von technischen und logischen Konzepten sowie Werkzeugen bezüglich der Testautomatisierung wie z. B. Formen der Testfalldarstellung und Testmetriken. Außerdem wird die Struktur und Arbeitsweise des Testobjekts robotron*ecount analysiert. Die gewonnenen Erkenntnisse werden anschließend bei der Gestaltung des Lösungskonzepts angewendet.
Diese Arbeit befasst sich mit der Bestimmung der minimalen Hemmkonzentration (MHK) im Titerplattenformat für Antibiotika und/oder Effluxpumpen-Inhibitoren anhand verschiedener klinischer Isolate von E. faecalis, E. faecum und S. aureus und dem Vergleich mit bereits vorhandener Literatur. Aufbauend auf den ermittelten MHK-Werten wurden dann Bestimmungen der minimalen Biofilm-inhibierenden Konzentration am konfokalen Laser-Scanning-Mikroskop durchgeführt. Die Klonalität der verwendeten Isolate wurde mittels Random Amplified Polymorphic DNA-PCR und den daraus erstellten Dendrogrammen geprüft.
Aufgrund einer immer älter werdenden Bevölkerung ist das Thema des gesunden
Alterns ein wichtiges Forschungsfeld. Dabei haben vor allem molekulare Prozesse eine bedeutende Rolle, weshalb auch die DNA ein bedeutendes Untersuchungsobjekt darstellt. Neben Mutationen auf Sequenzebene gibt es auch Veränderungen der DNA auf einer übergeordneten Ebene, welche die Sequenzabfolge selbst nicht verändern. Ein solcher Prozess ist die DNA-Methylierung, welche in allen höher entwickelten Eukaryonten von großer Bedeutung ist. Ein Modellorganismus, der in der Alternsforschung
immer mehr Beachtung fndet, ist der manuelle Fisch N. furzeri. Da zur
DNA-Methylierung im Organismus N. furzeri noch nichts bekannt ist, erfolgte im Rahmen dieser Masterarbeit eine Untersuchung der globalen DNA-Methylierung im Alterungsprozess des N. furzeri.
In dieser Bachelorarbeit werden DNA-Mischspuren von zwei, drei und vier Personen im Hinblick auf Unterschiede in Peakhöhen und Peakareas untersucht. Dabei werden die Einflüsse sinkender DNA-Mengen, steigender Verhältnisse sowie Temperatur und UV-Lichteinfluss auf die Signalstärken der Allele betrachtet und verglichen. Es wird im Speziellen auf die Häufigkeiten aufgetretener Degradationsphänomene Allelic Drop-in und Allelic Drop-out eingegangen, sowie die genutzten STR-Systeme diesbezüglich bewertet. Die Abgrenzbarkeit der Mischspuren bzw. deren Bewertung erfolgt auf Grundlage der aktuellen Vorgaben der Spurenkommission.
Konzeptionierung eines embedded Device zur
Aufzeichnung von Datenverkehr in Drahtlosnetzwerken
(2017)
In der vorliegenden Bachelorarbeit wird eine Methodik vorgestellt, den Datenverkehr in Draht-losnetzwerken mithilfe eines embedded Device aufzuzeichnen. Zu herkömmlichen, kommer-ziellen Produkten wird hier, basierend auf den von „Espressif“ entwickelten ESP32, eine kos-tengünstige Alternative dargestellt. Der aufgezeichnete Netzwerkverkehr kann innerhalb des Programmablaufs gefiltert, sowie anschließend auf einer SD-Karte gesichert werden. Der in dieser Arbeit aufgezeigte Schaltplan ist, wie auch der Programmablauf, auf den jeweiligen Einsatz modifizierbar. Aufgrund der geringen Größe von etwa 52mm x 27mm x 13mm ist das embedded Device für den mobilen Einsatz prädestiniert. Die Performance des Geräts und der verwendeten SD-Karte werden jeweils in einem Benchmark veranschaulicht. Aufgrund der Geschwindigkeit von 0,005284 Mbps kann ein lückenloses Aufzeichnen von drahtlosen Netzwerkverkehr zwar nicht gewährleistet, jedoch im Ausblick alternative Einsatzgebiete vorgeschlagen werden.
Das Ziel dieser Arbeit war es, durch geschichtliche, technische und gesellschaftliche Analysen die heutige Medienlandschaft von Print, Fernsehen und Internet aufzuzeigen. Dabei wurden die Medien Print und Fernsehen auf ihre Konkurrenzfähigkeit in Verbindung mit dem Internet getestet. Durch Umfragen wurden die Nutzungsverhältnisse und Sichtweisen verschiedener Konsumenten ausgewertet. Die Ergebnisse lassen auf eine deutliche Bedrohung von Print und Fernsehen durch das Internet schließen.
Die Vorliegende Bachelorarbeit befasst sich mit der Bedeutung von Antagonisten in Videospielen. Ausgehend vom narrativen Aspekt dieses Mediums und auch im Hinblick auf Parallelen zu Film und Literatur, wird zunächst das Designen von antagonistischen Charakteren behandelt. Die Formen und Funktionen des Prinzips des Antagonismus werden erläutert. Anschließend steht das konkrete konzeptionelle und visuelle Design von Schurken im Mittelpunkt. Diese Betrachtungen münden schließlich in der Zusammenstellung eines Kriterienkatalogs zur Erstellung von Antagonisten. Dies ist das Ziel dieser Bachelorarbeit. Den Abschluss bildet die Schaffung eines eigenen Antagonisten unter Berücksichtigung der gewonnenen Kriterien.
Die vorliegende Bachelorarbeit zeigt anhand von durchgeführten Untersuchungen auf, welche allgemeinen Marketingmanagement Konzepte auf die deutsche Spieleindustrie angewandt werden können. Es werden allgemeine theoretische Ansätze eines klassischen Planungsprozesses einer Marketing Konzeption dargelegt, welche mittels Literaturrecherche erarbeitet wurden. Die Anwendbarkeit dieser Konzepte auf die deutsche Spieleindustrie wurde in einem methodischen Teil, durch qualitative Experteninterviews mit langjährigen Branchenanhängern, geprüft.
Die vorliegende Bachelorarbeit handelt von den Nutzungsmöglichkeiten des von der Walt Disney Company entwickelten Systems zur Texturierung von 3D-Modellen: "Ptex". In der Arbeit wird Ptex mit UV-basiertem Texture Mapping verglichen, besonders unter der Prämisse der Entwicklung von Videospielen und dem damit einhergehenden Workflow. Am Ende der Arbeit wird besonders auf die Stärken und Schwächen der unterschiedlichen Texturierungsmöglichkeiten eingegangen.
Untersuchung des hämolytischen Verhaltens alternder Blutproben mit ausgewählten Lösungsmitteln
(2017)
Die Untersuchung der Blutspuren am Tatort kann bei der Aufklärung eines Verbrechens hilfreich sein. Neben der Blutmusteranalyse, bei der Form und Verteilung von Blutspuren untersucht werden, ist auch die Blutaltersbestimmung fundamental, um den zeitlichen Ablauf einer Tat detailliert beschreiben zu können. Dafür sind im letzten Jahrhundert viele Methoden vorgestellt worden. Neben einer Farbskala für die Bestimmung des Blutalters vom Anfang des 20. Jahrhunderts gibt es heute mittlerweile computergestützte Ansätze, die jedoch meist sehr zeitaufwendig sind und eine schwere oder gar teure Ausrüstung benötigen. In dieser Arbeit sollte das hämolytische Verhalten alternder Blutproben mit drei ausgewählten Lösungsmitteln (destilliertes Wasser, Kochsalzlösung und Zitronensäure) untersucht werden. Dazu wurden 40 Messungen von präparierten Blutproben mit einem Spektroskop durchgeführt und ausgewertet. Für die Bestimmung des Blutalters wurden die Peaks des Oxyhämoglobins, bei 540 und 576 Nanometer, und die des Methämoglobins, bei 500 und 630 Nanometer, näher betrachtet. Es konnte festgestellt werden, dass die Oxyhämoglobin-Peaks mit zunehmendem Blutalter abnehmen und die Methämoglobin-Peaks entsprechend zunehmen, bis die typischen Spitzen des Blutspektrums nicht mehr ersichtlich sind.
Blutspuren gehören zu den wichtigsten Beweismitteln in der Forensik. Über eine Blutspurenanalyse können beispielsweise Form, Anzahl und Größe von Blutrückständen analysiert und unter Berücksichtigung naturwissenschaftlicher Gesetzmäßigkeiten interpretiert werden. Diese Parameter lassen häufig Rückschlüsse auf die Art und Stärke einer Gewalteinwirkung zu, jedoch selten darauf wie alt eine Blutspur ist, beziehungsweise wann die Gewalteinwirkung stattgefunden hat. Methoden, die beispielweise auf RNA–Analyse oder der Spektroskopie beruhen, machen es sich zum Ziel dies festzustellen. Viele dieser Methoden sind jedoch invasiv, zerstören also zwangsläufig die Blutspur. Nicht invasive Strategien hingegen können mehrfach angewendet und deren Ergebnisse gemeinsam interpretiert werden, um eine möglichst genaue Abschätzung abgeben zu können. Dies erweist sich vor allem dann als Vorteil, wenn die Zahl der Blutspuren am Tatort limitiert ist. Die im Folgenden vorgestellte, nicht invasive Methode soll eine Option für eine möglichst akkurate Altersschätzung innerhalb eines kurzen Zeitraumes, nach Beginn der Trocknung darstellen, indem sie die bei der Trocknung des Bluttropfens entstandenen Risse in den festen Ablagerungen analysiert. Hierbei werden Bilder vom trocknenden Blutfleck in zeitlich bestimmten Abständen geschossen. Nach einer Reihe von Bildbearbeitungsprozessen, kann die Zahl der weißen Pixel, als Maß für die Größe der Trocknungsrisse, sowie die sich daraus ergebenden prozentualen Anstiege, gegen die Zeit in ein Koordinatensystem eingetragen und über Graphen dargestellt werden. In Zukunft könnten anhand dieser Graphen Funktionen approximiert werden, die eine Einordnung eines, in einem fest definierten Zeitraum ermittelten Anstiegs der Pixelzahl, der von einem weiteren Blutfleck erfasst wurde, zu einem bestimmten Zeitraum ermöglichen. Diese Arbeit soll einen grundlegenden Ablaufplan zur Erstellung von Versuchsreihen liefern, mithilfe derer eine Blutspur zeitlich abhängig auf morphologische Veränderungen, in Form von Trocknungsrissen, analysiert und für eine Altersschätzung weiterer Blutspuren, in Abhängigkeit der Umgebungsfaktoren, herangezogen werden kann.
Kategorisierung der Malware
(2017)
Diese Bachelorarbeit beschäftigt sich mit der Kategorisierung der Malware. Dabei werden verschiedene, vorhandene Konzepte vorgestellt sowie ein Eigenkonzept in Hinblick auf die deutsche Gesetzgebung entwickelt. Die Vorstellung von anderen Kategorisierungsmodellen gibt einen kurzen Einblick in das umfassende Thema der Malware-Kategorisierung. Es gibt viele unterschiedliche Konzepte zur Kategorisierung der Malware, jedoch war der Fokus bisher immer auf spezifische Komponenten der Malware selbst gerichtet. Im vorgestellten Eigenonzept zur Kategorisierung der Malware liegt der Fokus auf dem Payload und der Rückkopplung der einzelnen Malware-Typen. Dieses neu geschaffene Kategorisierungsmodell ermöglicht einen anderen Blickwinkel zum Kategorisieren von Schadsoftware, da sich dieses Modell mit den Wirkprinzipien beschäftigt und dabei rechtliche Aspekte mit einbezieht. Mit allgemeinen Definitionen der einzelnen Typen der Malware kann anhand ihrer speziellen Charakteristiken ein grober Überblick über existierende Computerschädlinge geschaffen werden. Um schließlich einen Bezug zur derzeitigen Gesetzgebung herzustellen, werden relevante Gesetze vorgestellt sowie mögliche rechtliche Lücken aufgezeigt.
Die vorliegende Arbeit befasst sich mit den Herausforderungen, die bei der Verwendung von Photogrammetrie für Computerspiele entstehen. Ziel der Arbeit ist es, die Lösungsmöglichkeiten für diese Probleme zu ergründen und ihre Vor- und Nachteile zu beleuchten. Die Erkenntnisse werden am Ende der Arbeit in einem Leitfaden zusammengefasst, der den richtigen Umgang mit der Technik beschreibt.
Implementierung einer Schrifterkennung auf Basis Neuronaler Netze am Beispiel einer IBAN-Erkennung
(2017)
Inhalt dieser Arbeit ist die Entwicklung einer Software zur Schrifterkennung, basierend auf Neuronalen Netzen. Dies soll am Beispiel einer IBAN-Erkennung skizziert werden.
Hierfür werden zuerst grundlegende Konzepte (künstlicher) Neuronaler Netze sowie der für die Zeichen-Extraktion notwendigen Bildvorverarbeitung besprochen.
Die Implementierung des Neuronalen Netzes erfolgt auf Basis eines speziellen Frameworks, zum direkten Vergleich wird auch eine (rudimentär funktionale) Eigenentwicklung vorgestellt.
Entsprechende Tests und Messungen zeigen Stärken und Schwächen der umgesetzten Lösung und liefern somit Aufschluss darüber, welches Potential für eine weitere Behandlung der Thematik besteht.
Diese Arbeit beinhaltet eine erste Strukturanalyse des neuen Apple File System. Es wurden die Datenträgerstrukturen eines APFS-Containers anhand mehrerer unter macOS "Sierra“ erstellten Images analysiert. Dabei wurde festgestellt, dassGrundzüge des Vorgänger-Dateisystems HFS+ auch bei APFS Anwendung finden, das neue System jedoch um einige Funktionalitäten verändert respektive erweitert wurde. Dazu zählen im Wesentlichen Snapshots, Copy-on-Write-Verfahren, Verschlüsselung und eine flexiblere Art der Partitionierung. Bezogen auf computerforensische Untersuchungen ist die Verschlüsselung der Nutzerdaten auf Apple-Computern eher als hinderlich zu betrachten. Die anderen Features werden dabei nach aktuellem Kenntnisstand keine oder leicht positive Auswirkungen haben.
Die vorliegende Arbeit befasst sich mit der Implementation einer Virtual Desktop Infrastruktur (VDI). Dies wird am Beispiel der Tirol Kliniken GmbH dargestellt. Im theoretischen Teil werden die Grundlagen der Virtualisierung und die Komponenten einer VDI betrachtet. Im praktischen Teil findet eine Auswahl und Konzeptionierung einer geeigneten VDI-Lösung für das Beispielunternehmen statt. Nach der Dimensionierung und prototypischen Implementation, erfolgt eine Überprüfung des benötigten Ressourcenbedarfs des VDI-Konzeptes.
Die Überwachung sozialer Online-Netzwerke spielt eine zunehmend wichtige Rolle, um die polizeilichen Aufgaben hinsichtlich Kriminalprävention und Gefahrenabwehr auch im virtuellen Raum effektiv und effizient wahrnehmen zu können. Gleichzeitig machen das enorme Volumen und die Komplexität der Daten eine manuelle Bearbeitung nahezu unmöglich. Es müssen automatisierte Verfahren entwickelt werden, welche sogenannte Gefährder in sozialen Online-Netzwerken sicher erkennen können. Für die Entwicklung, das Training und die Evaluation von Modellen für das Maschinelle Lernen werden standardisierte Referenzdaten benötigt. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines solchen Goldstandards mit Trainings- und Testdaten für Algorithmen zur Detektion von Gefährdern in sozialen Online-Netzwerken. Es werden Kriterien für die Auswahl relevanter Profile und Attribute erarbeitet und Anforderungen für die Strukturierung und Ablage der Daten formuliert. Weiterhin werden konkrete Profile und Feature-Kandidaten sowie ein XML-Schema und Dateilayout für die Bereitstellung der Daten des Goldstandards vorgeschlagen. Abschließend werden die Ergebnisse kritisch gewürdigt und ein Ausblick für zukünftige Arbeiten gegeben.
Das menschliche Gesicht verrät nicht nur die Identität, das Geschlecht oder das aktuelle Befinden einer Person, sondern bietet darüber hinaus, Informationen über das Alter. Die automatische Altersschätzung von Gesichtsbildern extrahiert diese Informationen und klassifiziert diese, um eine Altersschätzung zu erzeugen. Gekoppelt mit einem Gesichtserkennungssystem kann die Leistung der Gesichtserkennung erhöht werden oder eine altersbasierte Zugangskontrolle eingerichtet werden, die nur Gesichtsbilder der Person benötigt. Ziel dieser Arbeit ist es die Leistung eines zur Verfügung gestellten Algorithmus zur automatischen Altersschätzung zu evaluieren. Die Prüfung enthält auch die Beobachtung von Einflüssen auf die Leistung des Algorithmus. Die Evaluierung wurde mit einer eigens erstellten, kontrollierten Testmenge durchgeführt, umein möglichst genaues Ergebnis zu erhalten.
Im Rahmen der Arbeit wird ein Überblick über aktuelle Verfahren der Sentimentanalyse gegeben, welche sich besonders für die Analyse von Nutzerdaten in sozialen Netzwerken eignen und auch auf die deutsche Sprache ausgerichtet sind bzw. auf diese übertragen werden können. Darüber hinaus sollen forensische Anwendungsgebiete der Sentimentanalyse aufgezeigt und diskutiert werden.
Die Gamesbranche erwirtschaftet jedes Jahr mit AAA Titeln Milliardenumsätze und wächst stetig weiter. Diese wissenschaftliche Arbeit trägt den Titel: Untersuchungen zur Machbarkeit der Entwicklung von Games-AAA-Titeln durch kleine Teams. In der Arbeit wird analysiert ob es möglich ist AAA-Games-Titel mit kleinen Teams umzusetzen. Dafür wird die Entwicklung der Branche analysiert um Ausgangslage und Anforderungen für AAA-Titel zu definieren. Mit diesen Daten werden neue Arbeitsweisen und Technologien untersucht und bewertet. Aus diesen wird dann ein optimales Modell ab-geleitet mit dem AAA-Titel mit wenig Kapital und Entwicklern umgesetzt werden kann.
In dieser Arbeit geht es um sogenannte Orakel. Dies sind Anbieter die es ermöglichen, externe Daten in Smart Contracts der Ethereum Plattform, einzubinden. Im Zuge dieser Arbeit soll zunächst evaluiert werden, welche Orakel es derzeit schon gibt und wie diese Funktionieren. Es soll eine vergleichende Analyse durchgeführt werden, welche die Eigenschaften der verschiedenen Ansätze untersucht und bewertet. Wenn möglich sind alternative Ansätze zu erarbeiten.
Zum Abschluss ist ein Smart Contract zu programmieren, welcher entweder von einem selbst entwickelten oder einem existierenden Orakel zum Abfragen von externen Daten gebraucht macht.
Mixed Reality in Games
(2017)
In der vorliegenden Bachelorarbeit sollen Grenzen und Unterschiede der verschiedenen Bereiche der Mixed Reality aufgezeigt werden. Bei der Betrachtung werden die Bereiche Games und Game Design besonders betrachtet. Dabei wurden verschiedene Mixed Reality Anwendungen untersucht und klassifiziert. Diese Ergebnisse wurden verwendet, um ein Konzept für ein Spiel für Mixed Reality Geräte zu entwickeln.
Diese Arbeit ist sowohl für Studierende im Bereich Games als auch für Lehrkräfte in diesem Feld relevant. Für die Zusammenstellung der Arbeit wurden bereits vorhandene Schriftstücke über Mixed Reality und Games verwendet und zu einem Großteil theoretisch verarbeitet. Zum Abschluss der Arbeit wird ein Videospielkonzept für Mixed Reality vorgestellt.
In der vorliegenden Arbeit wird das Thema Cybercrime umfangreich behandelt. Dabei wird unter anderem auf den klassischen Cyberangriff und auf das Thema Social Engineering eingegangen. Die Problematik der Cybercrime, wird für jeden leicht verständlich erklärt. Dabei wird eine neue und allgemeine Anatomie von Cyberangriffen erarbeitet und es werden aktuelle Beispiele diskutiert. Ziel der Arbeit ist es, ein Sicherheitsbewusstsein zu schaffen mit dem jeder sich sicherer in der digitalen Welt bewegen kann.