Refine
Document Type
- Bachelor Thesis (111)
- Master's Thesis (17)
- Diploma Thesis (8)
Year of publication
- 2019 (136) (remove)
Keywords
- Computerforensik (12)
- Softwareentwicklung (10)
- Videospiel (7)
- Computerspiel (6)
- Algorithmus (5)
- Daktyloskopie (5)
- Virtuelle Realität (5)
- Android <Systemplattform> (4)
- Biotechnologie (4)
- Computersicherheit (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (136) (remove)
This work deals with the automatic knowledge-based classification of forensic texts. For this purpose, a sematic web server in the form of a local DBpedia instance, which runs on a Virtuososerver to be created. Mainly it was checked for how the installation works and this recorded in an illustrated instructions. In addition, it was checked how far an online access to the global DBpedia works.
Methodenvergleich zur Hydroxyprolinbestimmung in Kollagenmaterialien von verschiedenen Tierarten
(2019)
Kollagen kommt ausschließlich bei Wirbeltieren vor und ist eines der bedeutsamsten Proteine im Reich der Säuger (Menschen inbegriffen). Etwa 25% aller Proteine eines Säugetieres sind Kollagene. Kollagen kommt hauptsächlich in Knochen, Unterhaut, Sehnen, Bändern, Knorpel und Blutgefäßen vor und gewährleistet dem Gewebe Struktur und Stabilität durch Ausbildung zugfester Kollagenfibrillen.
Hyper- und Hyponatriämie
(2019)
Die Arbeit beschäftigt sich mit dem Einfluss von Natrium auf die Hypo- und Hypernatriämie. Zusätzlich soll die These über die Wirkung von Östradiol auf die Hyponatriämie gestützt oder widerlegt werden, um herauszufinden ob Frauen im fortpflanzungsfähigem Alter besonders anfällig für eine Hyponatriämie sind. Bei einem Zusammenhang zwischen der Hyponatriämie und dem Östradiolwert, ergeben sich neue relevante Aspekte die bei der Prävention oder bei der Aufnahme einer Frau in der Klinik von großer Bedeutung sind.
Die grundlegende Theorie des Blutsalzes sowie die Ursachen, Symptome und Therapie werden erläutert. Anschließend werden die bei Labopart Medizinische Laboratorien gemessenen Werte aus dem Jahr 2018 betrachtet und ausgewertet. Der Weg der Proben wird von der Blutabnahme bis zum Messergebnis dokumentiert. In der klinischen Chemie durchlaufen diese die in der Arbeit beschriebenen Stationen. Diese grundlegende Basis soll eine Diskussion und Interpretation der fünfzig höchsten und niedrigsten Natriumwerte erlauben, damit ein Natriumungleichgewicht schneller in Betracht gezogen oder behandelt werden kann. Zugleich lassen sich die Ergebnisse in der Prävention einsetzen.
Die Bachelorarbeit erläutert, was Deepfakes sind und inwiefern solche, unter Zuhilfenahme von maschinellem Lernen erzeugten, Bild- und Videomanipulationen in juristischen Zusammenhängen in Erscheinung treten oder Einfluss auf Vorgänge im Bereich des Rechtsverkehrs haben können. Dies wird unter anderem anhand dreier ausgewählter Szenarien verdeutlicht.
Die forensische Daktyloskopie findet seit über 100 Jahren Anwendung in der Kriminalistik zur Identifizierung von Personen, welche die für jede Person einzigartige Anordnung von Papillarleisten auf einer Oberfläche hinterlässt. Dabei kann oft nur das Muster des Fingerabdruckes forensisch relevante Informationen bereitstellen. Untersucht man den Fingerabdruck jedoch auch auf Anhaftstoffe, so können sich für Ermittler neue Erkenntnisse über den Träger ergeben und womit er in Berührung kam. In der vorliegenden Arbeit wird untersucht, ob sich der Ansatz der optischen Detektion mit forensischen Lichtsystemen auch in die Daktyloskopie übertragen lässt und den Träger eines Fingerabdruckes mit Anhaftungen von Brandbeschleuniger oder Schmauchspuren als solchen identifizieren kann.
Das Ziel der vorliegenden Bachelorarbeit ist es, verschiedene Säuren auf ihre Phosphorrücklösewirkung bei Klärschlamm zu untersuchen. Als Untersuchungsobjekt dient chemisch phosphoreliminierter Klärschlamm aus dem Klärwerk Leipzig Rosental. Bei den Säuren handelte es sich um Schwefelsäure, Zitronensäure, Methansäure, Ethansäure und Kieselsäure. Die Ergebnisse dieser Arbeit können für die Verfahrensentwicklung von speziellen hydrothermalen Prozessen, in Kläranlagen oder sonstigen Verfahren zur Phosphorrückgewinnung verwendet werden.
In der vorliegenden Arbeit werden geeignete Kriterien zur Beurteilung von Bienenvölkern in der Bienenhaltung (Imkerei) ermittelt. Für die datentechnische Erfassung dieser Kriterien wird prototypisch ein Internet of Things (kurz: IoT) System konzeptioniert und implementiert. Dieses System nutzt zur drahtlosen Datenübertragung die Technologie LoRa/LoRaWan. Eine Darstellung der Informationen erfolgt abschließend in einer IoT Plattform. Für diese Gesamtlösung wer-den dazu geeignete Hard- und Softwarelösungen verglichen und prototypisch implementiert. Eine Inbetriebnahme erfolgt an einem Referenzbienenstock
Die Bachelorarbeit behandelt die automatische Überprüfung hinsichtlich "Indicators of Compromisse" auf Linux-Systemen.
Sie beschreibt die Anfertigung eines forensischen Hilfstools welches die Aufgabe der automatisierten Überprüfung so weit wie möglich übernehmen soll. Hierbei waren 26 Indicators of Compromise als Grundlage gegeben, welche im Rahmen der Arbeit betrachtet werden. Das forensische Hilfstool setzt sich im Ergebnis aus zwei Hauptskripten zusammen, wovon eines zur Datenerhebung auf dem zu untersuchenden System dient, das andere zur Datenanalyse auf einem separaten Analysesystem. Die Arbeit stellt für jeden der betrachteten Indikatoren ausführlich dar wie eine automatisierte Überprüfung erfolgt, und falls nicht möglich ist, wodurch diese eingeschränkt wird und welche Schritte manuell erfolgen müssen. Als Endergebnis der Arbeit wird festgehalten, dass für alle Indikatoren mindestens eine Teilautomatisierung umsetzbar ist. Eine komplette Automatisierung für alle Indikatoren ist nicht möglich. Jedoch gelingt es durch das Hilfstool die manuelle Arbeit entscheidend zu verkürzen und zu erleichtern.
Bioaerosole kommen ubiquitär in der Atmosphäre vor. Sie sind meist ungefährlich, aber sie können auch Bestandteile enthalten, welche eine gesundheitliche Gefahr für den Menschen darstellen. Um ihre Inhaltsstoffe zu ermitteln werden sie beprobt. Die biologische Untersuchung dieser Proben erfolgt über Kulturen und molekularbiologisch. In den Fokus der molekularbiologischen Auswertung rückt zurzeit das third generation sequencing via Nanopore. Ziel dieser Arbeit ist es zu prüfen, ob die durch den Coriolis μ generierten Luftproben zur molekularbiologischen Analyse mit Nanopore Sequenzierung nutzbar sind. Dazu werden kulturbasierte und molekularbiologische Untersuchungsmethoden angewendet und miteinander verglichen. Es wird gezeigt, dass die Proben für eine weitere Nutzung durch Nanopore Sequenzierung geeignet sind.
Die Daten auf Mobilgeräten besitzen als Beweise in kriminalpolizeilichen Ermittlungsverfahren eine große Bedeutung. Besonders interessant sind dabei die Chats von diversen Instant-Messaging-Diensten. Aufgrund der stetigen technischen Weiterentwicklung der Smartphones und der Sicherheitsarchitektur des Android-Betriebssystems wird es jedoch zunehmend erschwert bzw. unmöglich, diese Chats mit den klassischen forensischen Sicherungsverfahren zu extrahieren. In der vorliegenden Arbeit wird daher die Entwicklung eines Tools zur Sicherung von Chats über die Benutzerschnittstelle beschrieben. Die angewandte Methodik erstellt dafür Screenshots über die Android Debug Bridge. Diese werden anschließend mit einer Texterkennungs-Software weiterverarbeitet, um die Durchsuchbarkeit der Chatinhalte für die Ermittler sicherzustellen.
Ziel der vorliegenden Bachelorarbeit ist es, über das Thema Verschlüsselungstrojaner aufzuklären und dabei auf eine mögliche Prävention durch die Produkte Sandstorm und Intercept X der Firma Sophos einzugehen. Dabei wird besonders auf die Gefahren und Präventionsmöglichkeiten im Allgemeinen eingegangen sowie eine Sicherheitsanalyse im Themenspezifischen Kontext durchgeführt. Weiterhin wird der Anbieter Sophos mit anderen Anbietern verglichen und anhand von verschiedenen Parametern bewertet.
Diese Arbeit thematisiert das Zusammenspiel verschiedenster Projektmanagement Ansätze mit den Psychologischen Persönlichkeitstypen nach dem Myers-Briggs-Typenindikator.
Es wird hierbei auf die Erstellung eines dynamischen Evaluationstools eingegangen und den konkreten Hintergedanken zur Fragenerstellung selbiger. Ziel war es ebenfalls die Arbeitsmoral und Vorstellungen einzelner Teammitglieder zu verbessern. Außerdem ist eine Verbindung der Arbeitsstile und Persönlichkeitstypen eine große Chance, Teams zu optimieren und die Produktivität zu steigern
In dieser Arbeit wird ein Messgerät zur Bestimmung von emotionalen Erregungszuständen vorgestellt.
Dieses soll eine Anwendung in der Untersuchung von Probanden in VR-Umgebungen finden. Hierdurch stellen sich Anforderungen, die von klassischen Messgeräten nur begrenzt erfüllt werden.
Die somit erfassten Vitaldaten benötigen eine Verarbeitung, bevor aus ihnen Rückschlüsse gezogen werden können. Hierfür werden drei verschiedene Algorithmen verwendet. Die so gewonnen Ergebnisse werden untereinander und mit professionell gewonnen Daten verglichen.
In dieser Arbeit wurden neuartige Proteasen aus psychrotoleranten Bakterienstämmen isoliert und auf ihre biochemischen Eigenschaften charakterisiert. Des Weiteren konnten S8 Familie Proteasen Gene amplifiziert werden und Unterschiede in der Aminosäuresequenz konnten in Zusammenhang mit den biochemischen Eigenschaften der Proteasen in Verbindung gebracht werden.
Die vorliegende Bachelorarbeit behandelt das Thema Leichendaktyloskopie im Rahmen der Identifizierung von unbekannten Toten. Dabei wird zunächst auf die Grundlagen der Daktyloskopie eingegangen. Im zweiten Teil werden verschiedene Leichenerscheinungen und Arten sowie die speziellen und Standardmethoden der Leichendaktyloskopie erläutert. Der praktische Teil dreht sich um den Vergleich zwischen Fingerabdrücken von lebenden und verstorbenen Personen. Dafür wurden in verschiedenen Testreihen Fingerabdrücke mithilfe von Fingerabdruckscannern aufgenommen und diese anhand von fünf Kriterien bewertet. Es soll herausgefunden werden, ob signifikante Unterschiede zwischen den Fingerabdrücken von lebenden und verstorbenen Personen bestehen.
Möglichkeiten zur Aufnahme und Kategorisierung von
Knochenveränderungen und deren Interpretation
(2019)
Diese Bachelorarbeit befasst sich mit der Aufnahme, Kategorisierung und Interpretation von Knochen verändernden Merkmalen. Ziel ist es, eine möglichst einheitliche und allgemein verständliche Methode zu entwerfen, die der Aufnahme von knöchernen Veränderungen dient und worauf aufbauend Klassifikationen erfolgen können. Diese wiederum soll dahingehend überprüft werden, ob eine Feststellung der Ursache möglich ist.
Ziel dieser Arbeit ist es, an ausgewähltem Material aus einer Skelettsammlung eine morphologische Geschlechtsbestimmung am Os ilium (Darmbein), einem Teil des Os coxae (Hüftbein), durchzuführen und deren Zuverlässigkeit zu überprüfen. Um die Bestimmung des Geschlechts sicherer zu machen, werden weitere morphologische Analysen am Cranium sowie an den Ossa coxae und eine osteometrische Analyse am Femur durchgeführt und mit den Ergebnissen der Geschlechtsbestimmung am Os ilium verglichen.
G-Protein-gekoppelte Rezeptoren (GPCR) sind wichtige Proteinkomplexe für unzählige physiologische Funktionen und dienen als Startpunkt für moderne pharmazeutische Eingriffe. Trotz ihrer Fülle, bemerkenswerten Größe und Molekularstruktur, welche Zell- und Matrixkontakte in einer Vielzahl von Organsystemen ermöglicht, sind GPCR die am wenigsten verstandene Rezeptorklasse. Die Grundlagenforschung an der räumlichen GPCR-Struktur dient dem besseren Verständnis ihres strukturbasierten Wirkstoffdesigns, wodurch pharmazeutisch interessante Proteine mit Medikamenten spezifisch interagieren können. Dafür werden GPCR in „Human Embryonic Kidney“-Zellen (HEK293S-Zellen) exprimiert und anschließend mit der röntgenkristallografischen Analyse untersucht.
Die vorliegende Bachelorarbeit beeinhaltet Untersuchungen zur Gewinnung leistungsverbesserter Mutanten des Produktionsstammes Penicillium verruculosum M28-9. Dazu wurde die chemische Mutation mittels N-Methyl-N-Nitro-Nitroso-Guanidin angewendet. Die Selektion von Mutanten mit partiell bzw. vollständig ausgeschalteter C-Katabolitrepression erfolgte mittels eines Submers-Screening.
Das nach der Mutation folgende Submers-Screening wurde unter Verwendung der Antimetabolite 2-Deoxy-D-Glukose sowie 1- oder 2-Thioglycerol in unterschiedlichen Konzentrationen durchgeführt. Die mutierten Konidien wurden kultiviert und konnten anschließend mittels Klonselektionierung auf Agarmedien mit amorpher Cellulose und dem Einsatz der wachstumsbegrenzenden Substanz Bengalrosa selektiert werden.
Im Rahmen der Untersuchungen konnten potentielle Mutanten auf einem Medium mit amorpher Cellulose und 25 g/l Glukose als Repressor erhalten werden.
Diese Arbeit vergleicht die drei populärsten Frontend-Frameworks in der Webentwicklung in Bezug auf barrierefreie Umsetzungsstrategien. Dabei wird der Begriff Barrierefreiheit definiert, aktuelle Standards dargestellt und diese dann anschließend methodisch innerhalb der gewählten Frameworks umgesetzt.
Im Rahmen der vorliegenden Bachelorarbeit sollte ein Add-On zur semi-automatischen Phantombilderstellung in Blender erstellt werden. Hierfür wurden bereits bestehende Add-Ons von Einzelprozessen der Gesichtsweichteilrekonstruktion miteinander verbunden und einem einheitlichen Bild angepasst. Zudem wurden Anpassungen und Erweiterungen an den Add-Ons vorgenommen, um die Anwenderfreundlichkeit zu erhöhen. Abschließend wurde das Ergebnis mit anderen Computergestützten Rekonstruktionsmethoden verglichen.
In dieser Arbeit wurden verschiedene kaliumselektive Elektroden hergestellt. Diese wurden auf Funktion und Selektivität überprüft. Anschließend wurden Messungen mit ausgewählten Elektroden in aufgeschlämmten Bodenproben durchgeführt, um das Einstellverhalten und das pflanzenverfügbare Kalium, angelehnt an eine Methode der VDLUFA, zu bestimmen. Da diese Methode aber auf der Analyse mit Atomabsorptionsspektrometrie beruht, wurden die Ergebnisse beider Messmethoden miteinander verglichen.
Das Ziel dieser Arbeit ist es verschiedene Methoden der Platzierung von Vegetation zu vergleichen und in Hinsicht auf die Qualität der Ergebnisse zu beurteilen. Zum Vergleich dient in diesem Fall die Natur selbst als Maßstab, denn diese soll bei den meisten Methoden simuliert werden. Die Methoden zur Generierung sind vielfältig und unterschiedlich komplex. Einem Entwickler stellt sich nun die Frage zu welcher Methode oder welcher Kombination er greifen soll unter den Aspekten Entwicklungsaufwand, Performanz, Qualität und Flexibilität. Es soll erkundet werden, bei welchen Vorhaben es sich für einen Spielentwickler lohnt ein solches System zu implementieren oder ob herkömmliche Produktionsketten sinnvoller wären.
Durch die zunehmende Nutzung mobiler Endgeräte fallen im alltäglichen Leben zahlreiche personenbezogene Daten an. Zu diesen Daten gehören unter anderem auch GPS-Positionen, die von handelsüblichen Smartphones erhoben werden. Besonders Android-Geräte sammeln eine große Menge an Positionsdaten, die für verschiedene Wissenschafts-Domänen, wie beispielsweise Medizin oder Forensik, eine Rolle spielen. Für verschiedene Anwendungsfälle kann eine Aggregation der einzelnen GPS-Positionen zu Orten und verbindenden Strecken relevant sein.
Ziel der Arbeit ist die Entwicklung eines Algorithmus zur Aggregation von GPS-Standorten zu Orten, deren Besuchen und Verbindungen. Nach Implementierung des Algorithmus wurde dieser in eine Java-Applikation eingebettet, die unter anderem der Visualisierung der erzielten Ergebnisse dient. Für die Evaluation des Algorithmus wurden über einen Zeitraum von zwei Monaten Standortdaten mit Hilfe eines Android-Smartphones erhoben, welche unter Verwendung des implementierten Algorithmus ausgewertet wurden. Die Evaluation resultierte in einem Parameterset, welches sich für die Auswertung des vorliegenden Testdatensatzes als geeignet herausstellte. Das Ergebnis der Arbeit ist ein funktionstüchtiger Algorithmus, der vielfältige Anwendungsmöglichkeiten aufweist und dessen Erweiterung ein hohes Potenzial für Folgeprojekte bietet.
A relatively new research field of neurosciences, called Connectomics, aims to achieve a full understanding and mapping of neural circuits and fine neuronal structures of the nervous system in a variety of organisms. This detailed information will provide insight in how our brain is influenced by different genetic and psychiatric diseases, how memory traces are stored and ageing influences our brain structure. It is beyond question that new methods for data acquisition will produce large amounts of neuronal image data. This data will exceed the zetabyte range and is impossible to annotate manually for visualization and analysis. Nowadays, machine learning algorithms and specially deep convolutional neuronal networks are heavily used in medical imaging and computer vision, which brings the opportunity of designing fully automated pipelines for image analysis. This work presents a new automated workflow based on three major parts including image processing using consecutive deep convolutional networks, a pixel-grouping step called connected components and 3D visualization via neuroglancer to achieve a dense three dimensional reconstruction of neurons from EM image data.
Die vorliegende Arbeit befasst sich umfangreich mit der Thematik der »Security Incident and Event Management« (SIEM) Systeme und ihrer Installation, Organisation und Anwendung in kleinen und mittleren Unternehmen (KMU). Am Anfang wird dem Leser die Funktionsweise eines solchen SIEM Systems erklärt, um im Anschluss am Beispiel der miteinander interagierenden Softwares Elasticsearch, Logstash, Beats und Kibana schrittweise in einer IT-Infrastruktur zu implementieren. Außerdem wird die Eignung eines solchen Systems für kleine und mittlere Unternehmen in gesetzlicher und organisatorischer Hinsicht auf Basis zweier Studien untersucht, welche den aktuellen Zustand der Thematik IT-Sicherheit in KMU widerspiegeln. Das Ziel der Arbeit ist es festzustellen, in welchem Rahmen ein SIEM System in KMU nötig ist und helfen kann, um die IT-Sicherheit des Unternehmens zu fördern. Dabei wird sowohl auf die Installation, als auch auf die Nutzung eins SIEM Systems unter den in KMU vorherrschenden Bedingungen betrachtet.
Inhalt dieser Arbeit ist der Einfluss von Rhamnolipiden auf die Vesikulation von Gram-negativen Bakterien am Beispiel von Pseudomonas putida. Es soll unter-sucht werden, ob die Vesikulation durch Zugabe von Rhamnolipiden erhöht wird und ob die Anwesenheit von Rhamnolipiden die Wirkung langkettiger Alkohole (hier wurden 1-Octanol und 1-Decanol verwendet) abschwächt.
Messengerdaten auf Mobiltelefonen sind häufig für Ermittlungs- und Strafverfahren relevant. Eine händische Untersuchung dieser ist für einen digitalen Forensiker jedoch sehr arbeits- und zeitintensiv. Aus diesem Grund wird in dieser Bachelorarbeit ein möglichst effektives Verfahren
zur Auswertung und Aufbereitung von Messengerdaten auf Mobiltelefonen vorgestellt, welches digitalen Forensikern als Leitfaden dienen soll. Das vorgestellte Verfahren kann für jeden Messenger verwendet werden und basiert auf der Methode des Reverse Engineerings. Um dessen Anwendung zu demonstrieren und seine Funktionalität unter Beweis zu stellen, werden die Daten des Messengers TamTam, insbesondere die Datenbanken, exemplarisch ausgewertet und aufbereitet.
In dieser Arbeit werden ausgewählteWerbenetzwerke in Android-Apps im Hinblick auf deren Datenerhebung betrachtet. Dabei stellen sich folgende Forschungsfragen: Welche Daten werden an die Werbenetzwerke übermittelt? Wie decken sich die übermittelten Daten mit den Angaben seitens der Werbenetzwerke? Wie werden die Daten von dem Android-Gerät erhoben und welchen Einfluss haben die Daten auf die Privatsphäre des Benutzers? Um die Forschungsfragen zu beantworten, ist eine Auswahl von 100 Apps aus dem Google Play Store getroffen und auf deren enthaltenen Werbenetzwerke analysiert worden. Anschließend wurde der Netzwerkverkehr von ausgewählten Werbenetzwerken mithilfe eines Proxy-Server betrachtet, um die übermittelten Daten abzufangen. Gleichzeitig sind die Datenschutzerklärungen
der ausgewählten Werbenetzwerke im Hinblick auf deren Angaben zu erhobenen Daten betrachtet worden.
Abschließend wurde der Quellcode von den Werbenetzwerken angeschaut, um herauszufinden wie die Daten aus dem Android-System erhoben werden.
Die Ergebnisse der Analyse des Datenverkehrs zeigen, dass neben Daten über das verwendete Gerät, die ausführende App, zur ungefähren Positionsbestimmung und zu Einstellungsparameter auch Statusinformationen, wie Ladezustand der Batterie und freier Speicherplatz, übertragen werden. Es wurde festgestellt, dass Werbenetzwerke erheblich mehr Daten erheben und übermitteln als in deren Datenschutzerklärungen angegeben. Durch die Analyse des Quellcodes der Werbenetzwerke konnte herausgefunden werden, dass Daten zum einen über API-Aufrufe an das Android-System ermittelt werden und zum anderen durch entsprechende Algorithmen der Werbenetzwerke. Mithilfe der Ergebnisse konnte gezeigt werden, dass seitens der Werbenetzwerke eine bessere und umfangreichere Angabe zu den erhobenen Daten wünschenswert ist.
Weiterhin konnten unter den Daten keine personenbezogenen Informationen gefunden werden, welche eine Zuordnung zu einem einzelnen Individuum erlauben. Jedoch wurden Informationen gefunden, die eine Zuordnung der Daten zu einem einzelnen Gerät erlauben.
Die vorliegende Arbeit befasst sich mit der Analyse von ShellBags in Windows-Betriebssystemen. Die Untersuchungen beziehen sich auf Windows XP, 7 und 10, welche als virtuelle Maschinen in VMware Workstation Pro integriert wurden. Da die ShellBag-Registrierungsschlüssel neben Ansichtseinstellungen im Datei-Explorer auch Einträge zu Aktivitäten in und mit verschiedenen Ordnern, in Netzlaufwerken sowie mit externen Speichermedien enthalten, liefern sie für forensische Analysen wertvolle Hinweise. Darüber hinaus können auch die darin befindlichen Zeitstempel zur Auswertung herangezogen werden. Hierfür wurden verschiedene Testreihen durchgeführt. Der Vergleich von ShellBag-Zuständen vor und nach einer Aktivität basiert auf dem Tool Compare It!, welches die Gegenüberstellung zweier .reg-Dateien erlaubt. Die Ergebnisse bestätigen,
dass auch heute noch eine Weiterentwicklung der ShellBags erfolgt, da stets Änderungen vorgenommen und neue Informationen hinzugefügt werden. Dennoch hat sich zum großen Teil eine einheitliche Ablage der Informationen herausgebildet.
Die vorliegende Bachelorarbeit befasst sich mit der Entwicklung eines 3D-Sehnen-Gewebemodells aus einer Triplettkultur. Dafür wurden Triplettkulturen aus Synovial-zellen, skelettalen Muskelzellen und mesenchymalen Stammzellen bzw. Tenozyten in 2D etabliert, wobei die Stammzellen tenogen differenziert werden sollten. Mithilfe der qPCR wurde die Expression von Markergenen eines jeden Zelltyps untersucht, um den Differenzierungserfolg, sowie den Einfluss der Triplettkultur zu charakterisieren. Zum Schluss erfolgte die Übertragung in eine 3D Umgebung.
Mobile-Games haben in den letzten Jahren einen großen Teil des Spielmarktes eingenommen. Viele dieser Mobile-Games greifen auf Free-to-Play-Modelle zurück und betreiben Monetarisierung über Ingame-Purchases und Microtransactions. Damit gewinnt die Player-Retention in diesen Spielen immer weiter an Bedeutung und verschiedene Mechaniken in Spielen sind darauf ausgelegt, die Retention zu steigern. In dieser Arbeit wurden fünf Titel aus dem Mobile-RTS-Genre betrachtet und dabei herausgestellt, dass Spiele dieses Genres stark Energy-Systeme undSkinner-Box-Systeme verwenden und die Spielzeit der Spieler dadurch begrenzen. Es wurde die These aufgestellt, dass sich verlängerte Spielzeiten einzelner Sessions ebenso positiv auf die Retention auswirken können. Daraufhin wurden verschiedene Mechaniken in den Spielen untersucht, die zu einer Verlängerung der Spielzeit führen und deren Effekt auf die betrachteten Spiele. Diese Mechaniken eignen sich ebenso gut zur Generierung von Retention, jedoch sind die in Mobile-RTS etablierten Mechaniken auf eine Begrenzung der Spielzeit ausgelegt. Es wurde als alternative Spiel-Mechanik das Portal-System vorgestellt, das längere Spielzeiten ermöglicht und dadurch positiven Einfluss auf die Retention haben soll. Da es sich nur um eine theoretische Betrachtung handelt, steht hierbei eine praktische Betrachtung noch aus.
In dieser Arbeit beschäftigt sich der Autor mit der Identifikation eines Spielertyps für das Videospiel-Genre "Soulslike". Er erläutert dafür Spielertyp-Theorien und die Theo-rie des Spaßes. Zusätzlich analysiert er das "Soulslike"-Genre, indem er verschiedene Spiele aus dem Genre durchleuchtet. Um einen Spielertyp zu erfassen, wertet er eine Umfrage aus, die er Spielern diesen Genres ausfüllen lässt.
Die vorliegende Masterarbeit befasst sich mit der Thematik der vergleichenden Untersuchung zur Ausprägung sehnenspezifischer Marker in Scaffold- versus Sphäroid-basierten Tissue Engineering Konstrukten. Dafür sollten humane aus dem Knochenmark stammende mesenchymale Stammzellen verwendet und tenogen differenziert werden und auf einem Kollagen-Scaffold oder als Sphäroid im Kollagen-Hydrogel kultiviert werden. Aussagen über eine mögliche Differenzierung sollten durch mikroskopische Untersuchungen und durch qPCR ermittelt werden.
Die Bildung von Sphäroiden sollte durch die Kultivierung im Hanging-Drop mit der Kultivierung in Mikrotiterplatten mit zellabweisender Oberfläche vergleichend untersucht werden. Dafür wurden neben mikroskopischen Untersuchungen, Färbemethoden und Gefriermikrotomschnitte herangezogen.
Als Positivkontrolle wurden humane Tenozyten (Sehnenzellen) verwendet.
Diese Arbeit beschäftigte sich mit der Testung der zytotoxischen Eigenschaften von zehn Eisen(III)-Salophenderivaten auf die malignen Zelllinien MDA-MB-MB-231, A2780, A2780-Cis, HTB-77, HL-60 und Colo 699. Zur Bestimmung der Spezifität der Wirkstoffe wurden zusätzlich die Zelllinien HS-5 und SV-80 mitgetestet.
Mit verschiedenen Untersuchungsmethoden soll geklärt werden, welche Zelltodmechanismen durch die Eisen(III)-Salophenkomplexe induziert werden. Von besonderem Interesse ist hierbei der Nachweis des 2012 entdeckten Ferroptosemechanismus.
Es wird die Entwicklung eines Reversen Genetik Systems für das Respiratorische Synzytial Virus beschrieben. Die Ergebnisse für die Versuche zur Subklonierung von RSV-Antigenomfragmenten in Klonierungsvektoren, sowie der Ligation zweier RSV-Antigenomfragmente miteinander und anschließend in einem Expressionsvektor werden dargestellt und diskutiert. Die Methoden die zu diesen Ergebnissen führten werden aufgeführt, diskutiert und mit Literatur verglichen. Des Weiteren werden die Erfolge und Misserfolge zusammengefasst und in Form des Ausblickes dargestellt, welche weiteren Schritte zur Entwicklung eines Reversen Genetik Systems für das Respiratorische Synzytial Virus geplant sind.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeption und Implementierung eines Serious Game-Prototypen. Nachdem zunächst die Eigenschaften und Vorteile von E-Learning und Serious Games erläutert werden, widmet sich die Arbeit der ausführlichen Analyse der Möglichkeiten und Besonderheiten von unbemannten Luftfahrtsystemen, sowie den Systemen zu deren Detektion und Abwehr. Neben dem entwicklungstechnischen Stand, aktuellen Ereignissen, sowie potenziellen Bedrohungen werden stellvertretend Beispiele für Abwehr- und Erkennungssysteme aufgezeigt, um einen Überblick über die Gefahren von Drohnen und die möglichen Konsequenzen verschiedener Interventionsmaßnahmen aufzuzeigen. Im weiteren Verlauf der Arbeit werden die Implementierungsschritte des entwickelten Serious-Game-Prototypen erläutert und die Zusammenhänge einzelner Gameplay-Elemente und der Realität hervorgehoben.
Diese Arbeit beschäftigt sich mit der Untersuchung von Bild- und Videomaterial auf Anzeichen von Manipulationen. Erst werden Methoden vorgestellt, die bei regulären Manipulationen zu Erfolgen führen können. Anschließend werden mit den gleichen Methoden Deep-Fake Videos untersucht, um zu prüfen, ob diese einfachen Methoden auch bei Deep-Fakes funktionieren können.
Innerhalb dieser Bachelorarbeit werden zuerst theoretische Grundlagen für das Balancing von Spielen erarbeitet, die sich im späteren Verlauf immer weiter auf rundenbasierte Strategiespiele spezialisieren. Diese dienen nach einer Analyse bekannter und erfolgreicher Beispiele von rundenbasierten Sammelkartenspielen im praktischen Teil dazu einen Algorithmus zu formulieren, welche wichtigen Aspekte beim Balancing eines Spiels in diesem eben diesem Genre zu beachten, und, wie diese grob umzusetzen sind. Schlussendlich wird dieses Verfahren Anhand von Statistiken eines dieser näher betrachteten Beispiele auf seine Genauigkeit hin untersucht, um Schlussendlich ein Fazit über die praktische Anwendbarkeit dieses Algorithmus ziehen zu können.
Die vorliegende Arbeit befasst sich mit dem Datenschutz allgemein und der DSGVO im Konkreten als Herausforderung für Unternehmen.
Die Einhaltung rechtlicher Vorschriften, vertraglicher Bestimmungen, externer sowie interner Regelwerke, im Begriff Compliance zusammengefasst, ist ein wichtiges Unternehmensziel. Die DSGVO, die am 25.05.2018 in
Kraft trat, bringt für Betriebe einige zu beachtende Änderungen mit sich, so beispielsweise die Rechenschaftspflicht des Verantwortlichen und die verschärften Sanktionen bei Verstößen.
Zusätzlich muss durch sie als Verordnung, aufgrund ihrer Vorrangstellung gegenüber nationalen Gesetzen, auch die Anwendbarkeit einiger bestehender Regelungen in Frage gestellt werden.
Schimmelpilze spielen als Zersetzer eine große Rolle in allen Ökosystemen der Erde. Auch in der Forensik wird ihnen eine bedeutende Rolle zuteil, da sie meist totes organi-sches Material besiedeln. Neben der Leichenliegezeitbestimmung und ihrem Nutzen als biologische Spuren an Tatorten, können Schimmelpilze einen Nutzen als Mykotoxinbild-ner aufweisen. In ihrem sekundären Stoffwechsel produzieren sie abhängig von Art und äußeren Einflüssen Toxine. Über ausgewählte Gattungen, deren Arten und Mykotoxine wird in dieser Arbeit ein Überblick gegeben. Analysen dieser Mykotoxine sollen unter Umständen auf die Art Rückschlüsse erlauben. Hierbei präferierte und dargestellte Methoden sind GC-MS, LC-ESI-MS, UHPLC-Qtof-MS und andere Methoden aus der Chromatografie und Massenspektrometrie. Diese werden in der Arbeit mit ihren Grund-lagen gemeinsam erläutert. Über diese Methoden wird der forensische Nutzen von Mykotoxinen als Differenzierungsmerkmal diskutiert und am Ende der Arbeit wird ein Aus-blick auf zukünftigen Nutzen dieser Methoden und der Mykotoxinanalyse in der Forensik gegeben.
Die folgende Arbeit handelt von der Umstellung der Kommunikationssoftware eines Servers in der Logistikabteilung der KOMSA AG. Ziel ist es den Ist-Zustand zu analysieren und darauf basierend einen Prototyp zu erstellen oder einen Gerätevorschlag zu unterbreiten, welche die Fortführung der Prozesse im Logistikbereich ermöglichen. Um einen Prototyp zu entwickeln, ist eine Analyse der IT-Infrastruktur der betreffenden Logistikabteilung durchgeführt und darauf aufbauend Konzepte zum Ablösen der alten Telnet-Server entwickelt worden. Der Telnet-Server des Anbieters Pragmasys konnte den Anforderungen am besten gerecht werden, daher wurde der Prototyp mit diesem entworfen. Der KOMSA AG wird empfohlen vorerst den Prototypen zu nutzen und eine Ablösung der MDE-Geräte in Erwägung zu ziehen, da das Telnet-Protokoll zu unsicher ist.
Ziel dieser Arbeit die Bereitstellung von Sensordaten sowie dessen Auswertung und Weitergabe an Aktoren. Die Bereitstellung dieser Daten soll mittels Datenbank-Abfragen und einer nachrichtenorientierten Infrastruktur bereitgestellt werden. Nach dieser erfolgreichen Implementierung soll ein Datenformat sowie -standard erörtert werden.
Nur auf der Grundlage homogener Daten kann eine effektive Nutzung dieser Daten er-reicht und ein sinnvolles Zusammenarbeiten verschiedener Institute sichergestellt werden.
Prototype-based classification methods like Generalized Matrix Learning Vector Quantization (GMLVQ) are simple and easy to implement. An appropriate choice of the activation function plays an important role in the performance of (deep) multilayer perceptrons (MLP) that rely on a non-linearity for classification and regression learning. In this thesis, successful candidates of non-linear activation functions are investigated which are known for MLPs for application in GMLVQ to realize a non-linear mapping. The influence of the non-linear activation functions on the performance of the model with respect to accuracy, convergence rate are analyzed and experimental results are documented.
Zielführend der vorliegenden Bachelorarbeit soll über den Einsatz von Methoden und Technologien in der Hochschulbildung zur effektiven Vermittlung von Lerninhalten informiert werden. Zielführend elaborieren die vorliegenden Ausführungen darüber strukturiert, organisiert und motiviert die Lerneffektivität der Studierenden zu steigern. Im Fallbeispiel erforschte Erkenntnisse und Zielstellungen wurden dafür verwendet, um das Learning-Management-System OPAL unterstützend in den Lernprozess zu involvieren. Erstellt wurde ein OPAL-Kurs zur Vermittlung von Grundlagen der 3DModellierung. Unter Einbezug von Lernkarten, Selbsttests, Bonusaufgaben, Live-Abstimmungen, Erklärvideos sowie detail-markierte Visualisierungen soll die Effektivität der Vermittlung von Wissensinhalten optimal an die Studierenden transferiert werden.
Wissen aneignen, wiederholen, festigen und vertiefen werden durch angewandte Methoden im Kurs repräsentiert. Das Unterstützen der Studierenden im Prozess der Befähigung des eigenständigen Lernens sowie aus eigen-Initiative Lösungen zu erörtern steht zudem als Motivation über dieser Bachelorarbeit. Dem entwickelten Grundlagenkurs der 3D-Modellierung, lassen sich folglich die Komponenten Motivationsträger, Lösungsorientiert, Wissensfestigend, Vergleichsbasierend und Planungsorientiert zuordnen. Bereits in einer Umfrage zur Wahrnehmung der entwickelten Kursstruktur konnten 60 Teilnehmende verzeichnet werden mit dem Ergebnis das angewandte Methoden und Technologien tendenziell zielführend verlaufen. Um den Erfolg der realisierten Methodiken und Techniken realistisch einschätzen zu können wurde mittels AttrakDiff die hedonische und pragmatische Qualität des interaktiven OPAL-Kurses evaluiert. Inquiriert wurden insgesamt 16 Untersuchungsteilnehmer in einem Beobachtungszeitraum von sechs Tagen. Die online, automatisch berechneten Ergebnisse der Auswertung durch AttrakDiff bezüglich des Grundlagen Kurses der 3D-Modellierung, definieren eine Produktcharakteristika von „begehrend“ basierend auf den 28 verschiedenen semantischen Differenzialen. Ergänzend kann verzeichnet werden, dass eine hohe Konfidenz in Bezug auf die Wahrscheinlichkeit der Bewertung eruiert werden konnte. Im Ergebnis kann darauf geschlossen werden, dass die entwickelte und umgesetzte Kursstruktur am Fallbeispiel eines Grundlagenkurses der 3D-Modellierung tendenziell als positiv und ziel-erfüllend gewertet werden kann. Der Grundlagenkurs, vereint zudem den Vorteil der adaptiven Anwendung auf beliebige andere Bereiche und gilt somit als positives Beispiel, welches in der Lehre Anwendung finden kann.
Kocuria spp. - Bakterien sind in der Natur omnipräsent vorkommende Gram-positive Kokken.
Einige Studien beschäftigten sich bereits mit der Biodiversität und den biotechnologischen Applikationen dieser Bakterien. Jedoch ist trotz dessen nur wenig über die Gattung Kocuria bekannt. Ziel dieser Arbeit ist es, Aufschluss über die Biodiversität und das biotechnologische Potential von Kocuria spp. - Stämmen, die aus z.B. Meeressedimenten und der Atacama-Wüste isoliert wurden, zu gewinnen. Dafür werden mikrobiologische, chemische sowie genetische Methoden verwendet, wie z.B. Wachstumstests zur Untersuchung physiologischer Eigenschaften, analytisch chemische Methoden und phylogenetische Analysen. Es wird gezeigt, dass die Kocuria spp. - Isolate spezifische Merkmale hinsichtlich ihrer Biodiversität aufweisen und in der Lage sind, biotechnologisch nutzbare Substanzen zu produzieren.
Cryptorchidism describes a disease, in which one or both testes do not descend into the scrotum properly. With a prevalence of up to 10%, cryptorchidism is one of the most common birth defects of the male genital tract. Despite its associated health risks and accompanying economic damage, resulting from surgery and losses in breeding, studies on canine cryptorchidism and its causes are relatively rare. In this study a relational database for genetic causes of cryptorchidism was established and used as a basis for the identification of candidate genes. Associated regions were analysed by nanopore sequencing with the goal to identify genetic variants correlated with cryptorchidism in German Sheep Poodle.
In der Restwasserklärung einer Papierfabrik treten seit Jahren Korrosionsprobleme auf, die die Funktionalität der Anlagen gefährden. Besonders stark ist der Schaden an Kupferbauteilen in den Schaltschränken. Verantwortlich sind aggressive Gase mit Schwefelwasserstoff als Hauptverursacher. Analysen haben ergeben, dass Schwefelwasserstoff in der Restwasserklärung ausgast, eine besonders starke Quelle ist der Krümelstoffhaufen, in dem optimale Bedingungen für mikrobielle Aktivität herrschen. Die Experimente haben ergeben, dass auch das Prozesswasser Sulfidionen bis zur Konzentration von etwa 0,8 mg/l führt. Die Schlammmischbütte ist ebenfalls ein Ort mit guten Bedingungen für die Sulfatreduktion, nur die niedrige Verweilzeit des Wassers von 20 Minuten dient dort als begrenzender Faktor für einen mikrobiellen Bewuchs. Der durchschnittlichen Sauerstoffkonzentration von 0,12 mg/l kann in der Gemeinschaft einer Sielhaut standgehalten werden. Direkt im Wasser sorgen in Verbindung mit Feuchtigkeit und Wärme Chloridionen für Korrosion an den Entwässerungsanlagen. Diese Schäden sind allerdings tolerierbar, die Standzeit der Anlagen wird nicht so extrem beeinträchtigt wie die der Schaltschränke. Als wirtschaftlich betrachtet beste Methode zum Schutz der Kupferkomponenten vor dem Schwefelwasserstoff erwies sich die Installation eines chemischen Filtersystems.
Diese Arbeit zielte darauf ab, die Anwendung zellbasierter in vitro-Assays zur Detektion von Agonismus und Antagonismus von Umweltstoffen im Hochdurchsatz zu optimieren. Darüber hinaus wurde der Einfluss von Lösemitteln in den Proben auf die Messungen untersucht. Parallel dazu wurden die untersuchten Stoffe und Lösemittel durch zwei verschiedene Methoden auf Zytotoxizität analysiert. Ausgehend von den Ergebnissen dieser Arbeit wurden derzeit angewandte Methoden zur Durchführung und Auswertung von Versuchen zu Agonismus und Antagonismus kritisch hinterfragt.
The epithelial membrane proteins (EMP1-3), which belong to the family of peripheral myelin proteins 22-kDa (PMP22), are involved in epithelial differentiation. EMP2 was found to be a downstream target gene of the tumor suppressor gene HOPX, a homeobox-containing gene. Additionally, a dysregulation of EMP2 has been observed in various cancers, but the function of EMP2 in human lung cancer has not yet been clarified.
In this study, a real-time RT-PCR, Western blot and cytoblock analysis were performed to analyze the expression of EMP2. Gain-of-function was achieved by stable transfection with an EMP2 expression vector and loss-of-function by siRNA knockdown. Stable transfection led to overexpression of EMP2 at both mRNA and protein levels in the transfected cell lines H1299 and H2170.
Functional assays including proliferation, colony formation, migration and invasion assays as well as cell cycle analyzes were performed after stable transfection and it was found that the ectopic EMP2 expression resulted in a reduced cell proliferation, migration and invasion as well as a G1 cell cycle arrest. After the EMP2 gene was silenced by the siRNA knockdown, inhibition of the cell invasive property was observed. These phenomena were accompanied by reduced AKT, mTor and p38 activities.
Taken together, the data suggest that the epithelial membrane protein 2 (EMP2) is a tumor suppressor and exerts its tumor suppressive function by inhibiting AKT and MAPK signaling pathways in human lung cancer cells.
The aim of this bachelor thesis was to establish extracytoplasmic function (ECF) σ factors as synthetic genetic regulators for biotechnological and synthetic biology applications in the new emerging model organism Vibrio natriegens. Therefore, synthetic genetic circuits were engineered on plasmids as test set-up for the investigated ECFs and their target promoters. The resulting plasmid library consisted of the reporter plasmids with the target promoter, fused to a lux cassette, a set of high-copy ECF plasmids and a backup set of lower-copy ECF plasmids. First, the high-copy plasmids were transformed in V. natriegens to test them for their functionality upon different inducer levels, which yielded good inducibility for few, but showed too high ECF-expression in most strains. For this reason, the set of lower copy plasmids was used for combinatorial co-transformation, to investigate the ECFs for their cross-talk to unspecific ECF target promoters. The switching to the lower-copy plasmid-set seemed to be partly helpful, while still much room for fine-tuning of the circuits remains. The knowledge gained can be used to achieve higher success rates when engineering synthetic circuits for various applications in V. natriegens, by using the ECFs here recommended as suitable synthetic genetic regulators.
Workload Optimization Techniques for Password
Guessing Algorithms on Distributed Computing Platforms
(2019)
The following thesis covers several ways to optimize distributed computing platforms for cryptanalytic purposes. After an introduction on password storage, password guessing attacks and distributed computing in general, a set of inital benchmark results for a variety of different devices will be analyzed. The shown results are mainly based on utilization of the open source password recovery tool Hashcat. The second part of this work shows an algorithmic implementation for information retrieval and workload generation. This thesis can be used for the conception of a distributed computing system, inventory analysis of available hardware devices, runtime and cost estimations for specific jobs and finally strategic workload distribution.
Ziel der Bachelor Arbeit war die Untersuchung der Interaktion des Mikrotubuli-assoziierten Proteins Tau an die Mikrotubuli mittels des Split-Luciferase-Assays. Dafür wurden die benötigten Expressionsplasmide hergestellt und die Interaktion im NanoBiT-Assay gemessen. Diese Messwerte wurden mithilfe des HiBiT-Assays normiert und mit dem Wst8-Assay sowie mit der Hoechst 33258 Färbung wurde die Zytotoxizität und die Zellzahl bestimmt.
Es konnten die Interaktionen zwischen β-Tubulin I/ III und Tau, α-Tubulin und Tau sowie α-Tubulin und β-Tubulin I/III gemessen werden. Das N-terminal fusionierte β-Tubulin I mit der kleinen Untereinheit und β-Tubulin III mit der großen Untereinheit konnten aufgrund fehlender Expressionsplasmide nicht in die Interaktionsanalyse mit einbezogen werden. Die optimale Konfiguration der Luciferase Untereinheiten sowie die bestmöglichsten Interaktionspartner, bei der die größte Interaktion von 0,2790 bzw. 0,3095 gemessen werden konnte war bei dem β-Tubulin I bzw. III mit dem Tau 36 TubbIII/ 34 2N4R bzw. 0N4R Tau. Hingegen entsprachen die optimale Konfiguration sowie die bestmöglichsten Interaktionspartner der Interaktion α-Tubulin mit Tau 33 TubaA/ 36 1N4R Tau sowie α-Tubulin mit β-Tubulin 33 TubaA/ 36 TubbI & TubbIII. Diese zeigten Interaktionsstärken von 0,1360; 0,1419 und 0,1668 im Vergleich zur PKA-Interaktion. Die Gegenüberstellung zu den Ergebnissen von Shin et al. zeigte eine übereinstimmende Konfiguration für die α-Tubulin/ Tau Interaktion, hingegen eine Differenz in der Konfiguration für die β-Tubulin/ Tau Interaktion. Die Ergebnisse des β-Tubulins mit den Tau Isoformen des Vektors pFC34 zeigten im T-Test eine signifikant größere Bindungsaffinität der Tau Isoformen mit 4 Mikrotubulibindungsregionen im Vergleich zu denen mit 3 Bindungsregionen.
In dieser Arbeit geht es um die Untersuchung photogrammetrisch erzeugter 3D-Objekte hinsichtlich deren Qualität und Umsetzung als Videospiel-Asset. In drei Experimenten wird geprüft, inwiefern unterschiedliche Aufnahmeparameter und Erfassungsmethoden Einfluss auf die digitale Rekonstruktion realer Objekte besitzen.
Unter Einbezug der Untersuchungserkenntnisse wird ein 3D-Asset erstellt und ausgewertet.
In today’s market, the process of dealing with textual data for internal and external processes has become increasingly important and more complex for certain companies. In this context,the thesis aims to support the process of analysis of similarities among textual documents by analyzing relationships among them. The proposed analysis process includes discovering similarities among these financial documents as well as possible patterns. The proposal is based on the exploitation and extension of already existing approaches as well as on their combination with well-known clustering analysis techniques. Moreover, a software tool has been implemented for the evaluation of the proposed approach, and experimented on the EDGAR filings, on the basis of qualitative criteria.
Diese Bachelorarbeit befasst sich mit der Herausforderung, kleine Zahlungen effizient mithilfe der Blockchain umsetzen zu können. Dafür werden verschiedene existierende Zahlung-Schemata vorgestellt werden. Sie werden dabei auch auf ihre Eignung im Bezug auf die Anforderungen eines IoT-Gerätes geprüft. Besonderer Fokus wird auf die probabilistischen Zahlungen gelegt.
Abschließend wird die Implementierung eines Prototypen vorgestellt und die Anwendbarkeit eines solchen Systems ausgewertet.
In the present bachelor thesis, nanopore sequencing and Illumina sequencing was compared using pollen DNA collected from honeybees and bumble bees. Therefore, nanopore sequencing was performed with the MinION sequencers and the generated reads were analysed with bash programming. A quantitative and qualitative (based on ITS2 sequences) BLAST run was performed. The results confirme the error probability of nanopore sequencing that is described in the literature. Nevertheless, with both sequencing methods similar sample preferences of the bees could have been observed, allowing ecological conclusions.
Ziel der vorliegenden Arbeit ist es, Nutzer aus dem Heimbereich zur kritischen Beurteilung der Sicherheit von Netzwerkgeräten anzuregen.
Dazu wird zunächst aufgezeigt, warum Netzwerkgeräte ein lohnenswertes Ziel darstellen können. Zusätzlich werden bekannte Beispiele für gehackte beziehungsweise veränderte Netzwerkgeräte vorgestellt. Außerdem werden dem Leser Methoden zur Untersuchung dargestellt, welche an den konkreten Beispielen exemplarisch durchgeführt werden. Um eine sinnvolle Reihenfolge der Untersuchungen zu gewährleisten wird ein allgemeines Vorgehensmodell vorgestellt, welches entsprechend an die konkreten Untersuchungsanforderungen angepasst werden kann. Insbesondere werden die Recherche von Informationen, die optische Untersuchung, die Einstellungsüberprüfung und die Verifikation der Firmware besprochen und am konkreten Beispiel gezeigt. Auch die Übertragbarkeit auf andere Geräte wird überprüft und es wird versucht einen Ausblick auf eventuelle zukünftige Entwicklungen im Bereich der Sicherheit von Netzwerkgeräten zu geben. Limitierende Faktoren werden im Diskussionsteil der Arbeit ebenfalls betrachtet und näher erläutert.
Konzept und Entwicklung eines webbasierten, dynamischen sowie
datenbankbasierten PDF-Generators
(2019)
Die vorliegende Arbeit beschäftigt sich mit der Konzeption und Implementierung eines webbasierten, dynamischen sowie datenbankbasierten PDF-Generators.
Hierzu wird zuerst eine Anforderungsanalyse durchgeführt. Ausgehend von dieser wird ein Plan zur Entwicklung eines solchen Generators ausgearbeitet. Dieser umfasst unter anderem die zu nutzenden Technologien und eine Softwarearchitektur. Nachfolgend wird dieser Plan schrittweise umgesetzt. Dafür werden die erarbeiteten Anforderungen weiter ausgearbeitet und implementiert.
Fehlende Erholung von Stress kann langfristig zu gesundheitlichen und psychologischen Problemen führen. Präventivmaßnahmen sind eine Notwendigkeit geworden, um Depressionserkrankungen durch wachsenden Leistungsdruck in unserer neoliberalen Gesellschaft vorzubeugen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und Evaluation eines Computerspiels zur Förderung der eigenen Selbsteinschätzung von Stress und zur Unterstützung von Selbsterkenntnis, im Sinne des bewussten Umgangs mit Stresssituationen. Computerspielen wird hierbei als präventive Maßnahme eingesetzt.
Diese Arbeit beschäftigt sich mit der Analyse spezieller Sequenzbereiche. Als Ausgangsdatensatz dienen Sequenzen, in welchen Reste ermittelt wurden, die den Faltungsprozess initiieren und die Bildung von Sekundärstrukturelementen unterstützen. Diese frühfaltenden Reste, auch early folding residues genannt, sind maßgeblich für das Verständnis des Proteinfaltungsprozesses. Ziel dieser Arbeit ist es, für alle early folding residues allgemein gültige Sequenzmuster zu finden und welche Importanz diese bei der Proteinfaltung spielen. Um dieses Ziel zu erreichen wurde ein Programm zu Verarbeitung der Rohdaten angefertigt und die daraus resultierenden Sequenzbereiche geclustert. Anschließend sind die Cluster in Sequenzlogos dargestellt worden.
Diese Arbeit hat zum Ziel, auf Basis eines neuronalen Netzes eine Sentimentanalyse für deutsche Facebook-Kommentare durchzuführen und die erzielte Güte der Klassifikation im Vergleich zu anderen Verfahren zu bewerten. Dazu werden als Datengrundlage alle Kommentare (01.12.2018) des Facebook-Auftrittes der Deutschen Bahn und des deutschen Einzelhändlers Lidl verwendet.
In the practice of software engineering, project managers often face the problem of software project management.
It is related to resource constrained project scheduling
problem. In software project scheduling, main resources are considered to be the employees with some skill set and required amount of salary. The main purpose of software
project scheduling is to assign tasks of a project to the available employees such that the total cost and duration of the project are minimized, while keeping in check that
the constraints of software project scheduling are fulfilled. Software project scheduling (SPSP) has complex combined optimization issues and its search space increases exponentially when number of tasks and employees are increased, this makes software project scheduling problem (SPSP) a NP-Hard problem. The goal of software project scheduling problem is to minimize total cost and duration of project which makes it multi-objective problem. Many algorithms are proposed up till now that claim to give near optimal results for NP-Hard problems, but only few are there that gives feasible set of solutions for software project scheduling problem, but still we want to get more efficient algorithm to get feasible and efficient results.
Nowadays, most of the problems are being solved by using nature inspired algorithms because these algorithms provide the behavior of exploration and exploitation. For solving
software project scheduling (SPSP) some of these nature inspired algorithms have been used e.g. genetic algorithms, Ant Colony Optimization algorithm (ACO), Firefly etc.
Nature inspired algorithms like particle swarm optimization, genetic algorithms and Ant Colony Optimization algorithm provides more promising result than naive and greedy algorithms. However there is always a quest and room for more improvement. The main purpose of this research is to use bat algorithm to get efficient results and solutions for software project scheduling problem. In this work modified bat algorithm is implemented where a different approach of random walk is used. The contributions of this thesis are to: (1) To adapt and apply modified multi-objective bat algorithm for solving software project scheduling (SPSP) efficiently, (2) to adapt and apply other nature inspired algorithms like genetic algorithms for solving software project scheduling (SPSP) and (3) to compare and analyze the results obtained by applied nature inspired algorithms and provide the conclusion.
Die Erstellung fotorealistischer Modelle kann viel Zeit und Aufwand beanspruchen, insbesondere wenn es darum geht, reale Menschen in virtuellen Welten darzustellen.
Für solche Zwecke wird häufig die Photogrammetrie eingesetzt, ein Verfahren, das 3D-Modelle aus 2D-Bilddaten erzeugt. Normalerweise erfordert die Aufnahme der entsprechenden Bilder eine bestimmte Ausrüstung, über die der Durchschnittsmensch nicht verfügt.
Um das gewünschte Modell trotzdem erstellen und nutzen zu können, müssen mögliche Alternativen gefunden werden. Diese sollten natürlich das bestmögliche Ergebnis liefern. Zu diesem Zweck sind empirisch verschiedene Möglichkeiten zu untersuchen, um die erforderlichen Daten optimal zu erfassen und zu verarbeiten.
In dieser Arbeit werden verschiedene Ansätze zu der Authentizitätsprüfung von Manuka-Honig mittels LC-MS getestet. Dabei werden Chromatogramme verschiedener Honige verglichen. Außerdem wird das für Manuka-Honig charakteristische Leptosperin untersucht. Eine Quantifizierung der Stoffe Methylglyoxal, 2‘-Methoxyacetophenon, 2-Methoxybenzoesäure, 4-Hydroxyphenylessigsäure und 3-Phenylmilchsäure ist ebenso beschrieben.
Die dabei genutzte Methode wird unter der Verwendung des Orbitrap-Massenspektrometers Q Exactive Focus sowie des QQQMassenspektrometers 6490 validiert. Somit wird die Authentizitätsprüfung von Manuka-Honig ermöglicht.
Elektronische Zeiterfassung mittels Android APP mit Datenbankanbindung über TCP - lP Kommunikation
(2019)
Die vorliegende Arbeit befasst sich mit Design und Entwicklung einer App zur mobilen Zeiterfassung auf Basis des Betriebssystems Android. Die Applikation ist über das Kommunikationsprotokoll TCP-IP an eine Datenbank (MariaDB) angebunden. Der Funktions-umfang der Anwendung umfasst Login (Benutzer vorhanden), Registrierung (Anlage neuen Benutzer), Zeiterfassung (Kommen, Gehen, jeweils mit und ohne Grund), Auswertungen (Anwesenheiten im laufenden Monat, Monatsreport).
Die forensische Software ist das wichtigste Werkzeug für einen digitalen Forensiker in der Post-Mortem-Analyse. Daher beschäftigt sich die Arbeit mit dem Vergleich von drei forensischen Softwarelösungen. Darunter sind X-Ways als verbreitetste Software in deutschsprachigen Raum, Magnet Axiom als sehr verbreitete Software im Nordamerikanischen Raum und Autopsy als Open-Source-Lösung.
Für den Vergleich wurde ein Testszenario auf einer Festplatte sowie auf einem SSD-Datenträger, welches mittels der vorgenannten forensischen Software ausgewertet wurden. Die Ergebnisse wurden hinsichtlich der Parameter Geschwindigkeit, Genauigkeit, Vollständigkeit, Wiederholbarkeit und Nachvollziehbarkeit verglichen.
Die vorliegende Arbeit befasst sich mit der Konzeptionierung einer gesamthaften
Gebäudeautomatisierung und spannt dabei den Bogen von der methodischen Anforderungsanalyse über das Lösungsdesign bis hin zur Realisierung eines modernen Smart Homes. Die Herausforderung lag dabei in der Gewährleistung der Interoperabilität der einzelnen Komponenten, ohne dabei die zugrunde liegende Technik in den Vordergrund treten zu lassen. In die Praxis umgesetzte Anforderungen werden in dieser Arbeit bis auf die Ebene des Quellcodes dokumentiert und belegen somit die Machbarkeit.
Der Weg zur Brückenklassifizierung : Generierung, Annotation und Klassifizierung eines Datensatzes
(2019)
In dieser Arbeit wird darauf eingegangen, wie zum Zwecke der Klassifizierung von Brückenbildern ein Datensatz erhoben, annotiert, augmentiert und verschiedene Modelle neuronaler Netze darauf trainiert wurden die Brückenbilder in eine von sieben Kategorien einzuordnen. Dabei wird kurz auf die übergeordnete Bemühung eingegangen, mithilfe eines solchen Netzes einen Beitrag zur Abmilderung der Auswirkungen katastrophaler Ereignisse zu bieten. Anschließend werden die vorgenommenen Schritte im Einzelnen erläutert, die zu den im letztem Kapitel gezeigten Ergebnissen führten. Abschließend werden die Ergebnisse diskutiert, Probleme und mögliche Fehlerquellen angesprochen und ein Ausblick auf Weiterführung der Bemühung zur korrekten Brückenklassifikation gegeben.
Neural networks have become one of the most powerful algorithms when it comes to learning from big data sets and it is used extensively for classification. But the deeper the network models, the lesser is the interpretability of such models. Although many methods exist to explain
the output of such networks, the lack of interpretability makes them black boxes. On the other hand, prototype-based machine learning algorithms are known to be interpretable and robust.
Therefore, the aim of this thesis is to find a way to interpret the functioning of the neural networks by introducing a prototype layer to the neural network architecture. This prototype layer will train alongside the neural network and help us interpret the model. We present architectures of neural networks consisting of autoencoders and prototypes that perform activity recognition from heart rates extracted from ECG signals. These prototypes represent the different activity groups that the heart rates belong to and thereby aid in interpretability.
In der vorliegenden Bachelorarbeit wird ein konfigurierbares grafisches Benutzerinterface für die CAN-Analysesoftware BUSMASTER der Firma ETAS GmbH konzeptioniert, entwickelt und an einem CAN-Demonstrator getestet. Gemäß der in dieser Arbeit vermittelten Grundlagen zu aktuellen Bussystemen der Automobilindustrie und ihrer Datenübertragung werden entsprechende CAN-Nachrichten implementiert und auf den CAN-Bus gesandt. Eine Auswertung der über den Bus laufenden Botschaften ermöglicht eine Visualisierung dieser innerhalb der GUI.
Die Funktionsfähigkeit des entwickelten Userinterfaces kann durch die erfolgreiche Steuerung des CAN-Demonstrators belegt werden. Dieser wird zudem im Rahmen der Softwareentwicklung und Inbetriebnahme weiterentwickelt.
Die vorliegende Bachelorarbeit soll Erkenntnisse über die sicherheitsrelevanten Schwachstellen einer Android Applikation liefern. Hierbei werden theoretische sowie praktische Analysen aus der digitalen Forensik durchgeführt. Die dabei verwendeten Methoden sind in der forensischen Informatik etabliert und gewähren einen fundierten und strukturierten Ablauf.
Die aus jenen Vorgaben entstandenen Ergebnisse, weisen ein moderates, kritisches Sicherheitsmanagement der zu analysierenden Anwendung auf. Diese Bachelorarbeit richtet sich sowohl an Studierende mit Interesse für Sicherheitsüberprüfungen spezieller Anwendungen und forensische Strukturen und Richtlinien als auch an Fachleute im Bereich der Informationstechnik.
Lippensychronisation und real erscheinende Charakteranimationen sind in der heutigen Zeit ein integraler Bestandteil von Videospielen. Diese Arbeit widmet sich der Frage mit welchen Techniken es der Spieleindustrie gelingt, die digitalen Charaktere lebendig wirken zu lassen und ihnen Stimmen zu verleihen. Hierzu werden zunächst einige Grundlagen wie etwa verschiedene Animationsmethoden, Arten der Lippensychronisation und emotionale Stimulierungen beleuchtet und anschließend der Prototyp einer Software konzipiert und entwickelt, die es 2D - Charakteren erlaubt, möglichst automatisiert lippensychron und in verschiedenen Emotionslagen zu sprechen. Der resultierende Prototyp wird anschließend im Zuge eines Playtests auf seine Praktikabilität geprüft und die verwendeten Ansätze (Motion Capture und Key Frame - Animation mit Phonem Analyse) werden miteinander verglichen und als Ergebnis der Ausarbeitung wird geschlussfolgert, welche Variante sich als besser geeignet erwiesen hat. Es wird ein Ausblick auf künftige Möglichkeiten für den Bereich der 3D - Animation und die Automatisierung mittels Text-to-Speech gegeben. Darüber hinaus, wird das Zukunftspotential die Spieler in kommenden Videospielen nicht mehr ausschließlich die Entscheidungsgewalt über die Sätze ihres Charakters, sondern auch dessen Emotionen besitzen zu lassen, vorgestellt.
In der vorliegenden Bachelorarbeit war das Ziel, die Entwicklung eines webbasierten Content-Editors, der zur Erstellung von interaktiven Webinhalten für die Aufklärung von Patienten zu medizinischen Aspekten der Augenheilkunde genutzt werden kann.
Dafür wurde zunächst die zu erstellende Software in die Kategorie der Autorensysteme eingeordnet und untersucht, welche Punkte bei der Entwicklung des Content-Editors berücksichtigt werden müssen. Neben der Analyse der Anforderungen, die das dahinter liegende Projekt stellt, kam zusätzlich die Analyse einer Plattform aus einem studentischen Projekt, in der ein ähnliches System entwickelt worden ist.
Aus diesen Punkten wurde der darauf folgende Konzeptentwurf als Prototyp entwickelt und mithilfe von vier Probanden evaluiert. Die Auswertung zeigte, dass der webbasierte Content-Editor durchaus eine Existenzberechtigung hat und in Zukunft weiterentwickelt werden kann.
Besonders interessant ist die vorliegende Arbeit für Softwareentwickler, die in naher Zukunft vorhaben, ein Autorensystem mit speziellen Anforderungen zu entwickeln.
Diese Arbeit thematisiert die Darstellung und spielerisch-interaktive Nutzung von Schallwellen im computergenerierten 3D Raum. Dabei stellt sich die Frage, ob und wie sich die physikalischen Eigenschaften von Schallwellen spielerisch nutzbar machen lassen. Im Rahmen dieses Projektes entsteht ein Minispiel in der Unity-Engine, in welchem der Spieler unter Zuhilfenahme von Schall kurze Rätsel lösen muss, um an das Ende eines Levels zu gelangen. Hierbei liegt der Fokus nicht nur auf der Umsetzung der Spielidee, sondern auch auf einer einfachen Wiederverwendung und Erweiterung der implementierten Spiel-Mechaniken. Die Ergebnisse werden durch die Befragung von Testpersonen nach Durchführung von Spieletests ermittelt, mit dem Ergebnis, dass sich Schallwellen spielerisch sehr gut nutzen lassen, um einem Spiel Abwechslung zu verleihen. Das Spielkonzept ist ausbaubar und bietet vielseitig einsetzbare Mechaniken.
Konfiguration und Evaluierung des Nominatim-Servers
aufbauend auf der Docker-Virtualisierungs-Lösung
(2019)
Das Ziel der vorliegenden Bachelorarbeit war es, eine auf Docker basierende Nominatim-Umgebung zu erarbeiten. Hierzu musste zunächst ein theoretischer Hintergrund zu den Themen Nominatim und Docker geschaffen werden. Die Ergebnisse der Literaturrecherche dienten als Grundlage für die Gestaltung eines Umsetzungskonzepts, welches selbst wiederum die Basis für die spätere Implementierung war.
Die Arbeit ist für Studierende der Informatik interessant, die sich mit Problemstellungen in den Bereichen Docker, OpenStreetMap und Nominatim befassen.
Es sollen Animationen angefertigt werden, die anschließend für Präsentationen oder die Aufbereitung von Videos zum Einsatz kommen. Zunächst wird in knapper Form der Inhalt der folgenden Kapitel dargestellt. Im ersten Abschnitt werden die theoretischen Grundlagen erläutert. Zu finden sind hier in erster Linie Regeln, die bei der Gestaltung beachtet werden sollen. Außerdem sind Definitionen von relevanten Begriffen aufgeführt.
Um die spätere Ausführung besser nachvollziehen zu können, wird die Benutzeroberfläche des genutzten Animationsprogramms beschrieben. In der anschließenden Konzeption sind die Ideen für die Umsetzung zu finden. Die Gliederung besteht aus den jeweiligen Animationen und den allgemeingültigenÜberlegungen, die es zu beachten gilt. Zusätzlich wurde zu jeder Visualisierung ein Storyboard kreiert, um zu prüfen, ob das Konzept umsetzbar und optisch stimmig ist. Im Abschnitt Umsetzung werden die Überlegungen der Konzepte übernommen und umgesetzt. Damit sind die wesentlichen Schritte erklärt, um die verschiedenen Produktionen nachvollziehen und eventuell nachbauen zu können. Zur besseren Nachvollziehbarkeit werden die wesentlichen Handlungen begründet. Die folgende Evaluation bezieht sich auf die in der Umsetzung entstandenen Visualisierungen. Tabellarisch werden für jede einzelne Animation Bedingungen dargestellt und es wird überprüft, ob und in welcher Form diese erfüllt wurden. Es gibt zwei verschiedene Methoden, nach denen die Auswertung erfolgt. Zuerst wird ermittelt, ob die Gestaltung konform mit den Corporate Design ist. Anschließend werden die allgemeinen Bestimmungen für ein gelungenes Design abgefragt. Das Schlusskapitel fasst die Ergebnisse der Arbeit zusammen und gibt einen Überblick über Verwendungs- sowie Erweiterungsmöglichkeiten der angefertigten Animationen.
Diese Arbeit beschäftigt sich mit der Implementation einer Werkzeugkette, die es dem Nutzer ermöglicht, in einer Benutzeroberfläche digitale Objekte in dessen Form und Oberfläche zu manipulieren, und im Anschluss eine automatisierte Bilderreihe der Objektes zu erhalten.
Schwerpunktmäßig werden in dieser Arbeit gewisse Programmkomponenten auf spezifische Problemstellung der digitalen Nahbereichsphotogrammetrie ausgelegt, die eine ungenaue Rekonstruktion bei detailgenauen Modelleigenschaften aufweist. Hierzu werden dem Nutzer Modellspezische inkrementelle Manipulationen bereitgestellt, die optimalerweise die Extremefälle der Rekonstruktionsqualität moderner Photogrammetrie-Software beurteilen lässt. Nicht-Modell Faktoren, die potentiell zu Fehlern in der Genauigkeit beitragen können, sollen, soweit es technisch möglich ist, für moderne photogrammetrische Software optimiert und damit ausgegrenzt werden. Näher soll dabei auf die Kapabilitäten von detaillierten und realitätsnahen Objekten eingegangen werden. Es soll trotz der digitalen Umgebung, realitätsnahes Umgebungslicht eingebracht werden, sowie gewisse komplexe Materialien und Materialeinstellungen implementiert werden.
In der folgenden Arbeit wurde die Genauigkeit eines Nahinfrarotspektroskops, zur Schätzung ausgewählter Qualitätsparameter von getrockneten Grassilagen, validiert.
Anschließend wurde die Kalibration des NIR-Spektroskops optimiert und erneut validiert.
Des Weiteren wurden die untersuchten Silagen, anhand der nutritiven Qualitätsparameter, hinsichtlich ihrer Eignung zur Wiederkäuerfütterung bewertet.
Spektroskopische Featuredetektion
zur Altersbestimmung von Humanblutproben
im Labor und am Tatort
(2019)
In der Forensik sind Blutspurenanalysen ein wichtiges Mittel der Tatortermittlung.
Aus diesem Grund wäre die Altersbestimmung von Blut ein guter Ansatz, um die Aufklärungsrate noch zu verbessern.
In dieser Arbeit mit Fokus auf Grundlagenforschung wurden durch spektrophotometrische Analysen und statistischer Auswertung zwei große Komplexe untersucht. Vergleichende Analysen von Schweineblut mit Humanblut wurden durchgeführt und geprüft, ob sie in ihren Ergebnissen vergleichbar sind. So sollten Rückschlüsse auf die Übersetzung bereits vorhandener Studien mit Schweineblut ermöglicht werden, um die Eignung als Humanblutersatz zu diskutieren. Weiterhin wurde durch Vergleich der Absorptionsspektren über Zeit ermittelt, wie stark und auf welche Weise die Zugabe von Gerinnungshemmern wie Citrat Einfluss auf den Prozess der Blutalterung nimmt.
In einem zweiten Komplex wurde versucht, eine auf Spektro-Photometrie basierende statistische Methode zu etablieren, die den Prozess der Blutalterung nachvollziehen und mit möglichst geringen Abweichungen vorhersagen kann.
Dies sollte potentiell die Bestimmung des Alters einer Blutprobe ermöglichen. Im Zuge dessen wurden eine Hypothese zu den ex vivo ablaufenden chemischen Prozessen der Blutalterung erörtert und anhand der Spektraldaten diskutiert.
Charakterisiert wurde dies über die messbaren Anteile der Hämoglobin-Derivate im UV-Vis-Spektrum einer Vollblutprobe
Die vorliegende Arbeit befasst sich mit der These, dass Stereoskopie in der digitalen Architekturvisualisierung bestimmten Gestaltungsregeln im Bildaufbau folgen muss, um den Betrachter in die gewünschte Immersion zu führen. Um die These zu hinterfragen werden 3D-Szenen angefertigt, die Probanden in Form von Stereo-Panoramen unter Verwendung einer Virtual Reality-Brille vorgeführt und evaluiert werden. Hierbei werden die gezielte Blickführung und ihre Manipulation
betrachtet. Ein besonderer Fokus wird zudem auf die Veränderung der Stereobasis und die Tiefenunschärfe gelegt.
Im Rahmen der vorliegenden Bachelorarbeit sollte eine Zusammenfassung der derzeitigen state-of-the-art-Methoden für die Rekonstruktion der einzelnen Gesichtsmerkmale bei einer Gesichtsweichteilrekonstruktion erstellt werden. Zudem wurde eine plastische GWR durchgeführt und evaluiert, um diese theoretischen Richtlinien anzuwenden und zu testen
Extraktion und Analyse spektraler Information zur Verbesserung der Früherkennung von Pathologien
(2019)
In dieser Arbeit wurden Untersuchungen zur Optimierung Fundus basierter Untersuchungen erprobt. Es erfolgte eine Analyse der im Klinikum vorhandenen Funduskamera FF450plus sowie einer Vielzahl von ärztlichen Einträgen zum Augenfundus im klinikinternen Dokumentationssystem Turbomed. Schlussendlich wurde der Versuch unternommen gegebene Fundusbilder mithilfe von Klassifikationsapplikationen der Programmieroberfläche MatLab untersuchen zu lassen.
In dieser Bachelorarbeit wird ein Workflow zur standardisierten Frisurenerstellung im Rahmen der computergestützten Gesichtsweichteilrekonstruktion beschrieben. Dafür wurde die kostenfreie Open-Source Software Blender mit der Versionsnummer 2.8 verwendet. Der Workflow wurde mithilfe des blenderinternen Partikelsystems erstellt.
In der Arbeit werden zwei weit verbreitete Computer-Forensik-Tools verglichen und bewertet. X-Ways Forensic und Autopsy wurden als beispielhafte Vertreter der Kategorien "proprietäre Tools" sowie "freie Tools" gewählt. Es werden anhand eines Kriterienkatalogs und verschiedener Test-Szenarien die einzelnen Funktionen systematisch evaluiert.
In der vorliegenden Arbeit wird eine Methodik beschrieben, um den OBD-II Daten aus einem Fahrzeugsystem mithilfe eines embedded Device aufzuzeichnen. Dieser basiert auf der Verwendung eines Raspberry Pi 3B+ Modells in Verbindung mit einem am Fahrzeug angebrachten ELM327 Bluetooth Diagnosechip. Die aufgezeichneten OBD-II Daten werden zusammen mit den, über den GPS-HAT der Firma „Uputronics“ , aufgezeichneten GPS-Daten in jeweils eine eigene Logdatei abgespeichert. Aufgrund des frühen Entwicklungsstadiums kann ein lückenloses sowie fehlerfreies loggen der Daten nicht garantiert werden, jedoch werden noch andere Anwendungsfälle aufgezeigt.
Bei der Erstellung moderner Videospiele wird eine große Menge an Grafikobjekten für die Zusammensetzung der Landschaften und Umgebungen benötigt. Da die Ansprüche der Spieler an die Grafik steigen, ist es besonders bei Spielen mit realistischer Grafik oft notwendig, viel Zeit und Ressourcen einzusetzen um diese Objekte zu erstellen. Daher lohnt es sich, diese möglichst effizient einzusetzen und abzuwägen, an welchen Stellen sich ein hoher Detailgrad lohnt und an welchen Stellen auf simpler gehaltene Objekte zurückgegriffen werden kann, ohne dass dies dem Spieler auffällt.
Unter Beachtung einiger Gestaltungsgesetze und Grundlagen der Wahrnehmung und Levelgestaltung können die Objekte effektiv eingesetzt und an den Orten platziert werden, an welchen die Aufmerksamkeit des Spielers am höchsten ist. Neben der Zeitersparnis bei der Erstellung von Objekten ist es auch für die vom Computer benötigte Rechenleistung des Spiels sinnvoll, nur an den notwendigsten Stellen einen hohen Detailgrad zu verwenden.
In dieser Arbeit geht es darum, Methoden zu erarbeiten, die es erleichtern, Details effizienter in der Spielumgebung zu platzieren und herauszufinden, in welchen Situationen diese sinnvoll einsetzbar sind.
Es wurden laborbezogene Referenzbereiche für 25-Hydroxyvitamin D für Kinder und Jugendliche sowie Erwachsene erstellt. Für Erwachsene wurden zusätzlich laborbezogene Referenzbereiche mit Berücksichtigung der Jahreszeiten ermittelt. Des Weiteren wurde je 50 Patienten mit toxischen 25-Hydroxyvitamin D-Konzentrationen sowie 50 Patienten mit einem manifestierten Mangel analysiert.
Die Vorbereitung eines Rennwagens für eine Fahrt ist aufwändig. Daher soll ein 3d Modell des Formula Student Rennwagens ’elCobra’ in die Simulationsplattform Assetto Corsa integriert werden, um einfache Manöver virtuell nachstellen zu können. Am Schluss wird ein Fragebogen aufgestellt, auf dessen Basis das Modell und die Materialien des Fahrzeugs nach unterschiedlichen Kriterien evaluiert, und Mitglieder des Technikum Mittweida Motorsport damit befragt werden.
In dieser Arbeit sollen die Vorgehensweise und einige Ansätze der KI-basierten Emotionserkennung vorgestellt werden. Dabei wird auch auf die Grundlagen der allgemeinen Emotionserkennung eingegangen und hinterfragt, ob die Nutzung einer KI mit diesen Fähigkeiten sinnvoll für Vernehmungssituationen ist.
Dynamisches Pixel-Art
(2019)
In diesem Dokument handelt es sich um eine Beschreibung und Darstellung von Methoden zur Darstellung von Pixelgrafiken anhand von 3D-Objekten in Unity. Des Weiteren beinhaltet dieses Dokument eine Beschreibung von Lighting and Shadows in Unity und wie diese für 2D-Grafiken genutzt werden können.
Es wird beschrieben was Computergrafiken sind und wie diese dargestellt werden, sowie was Schader sind und wie diese funktionieren.
Des Weiteren werden Beispiele von Methoden zu den oben genannten Gebieten erläutert, die bereits vorhanden sind und ihre Funktionsweiße und Nutzen analysiert.
Es werden Methoden erarbeitet und dargestellt wie Pixelation von 3D-Grafiken möglich ist, sowie das Erstellen von Lighting und Shadows bei 2D-Grafiken. Aus diesen Methoden wird für jeweils ein Gebiet eine Vorangehensweise ausgewählt und ein Proof of Concept erstellt.
Diese werden Analysiert und evaluiert, sowie mögliche Nutzen erläutert.
Die Bedeutung der mobilen Geräte im Leben des modernen Menschen nimmt stetig zu, wodurch große Mengen persönlicher Daten abgelegt sind. Zusätzlich ist das Betriebssystem Android durch die weit verbreitete Nutzung und die quelloffene Struktur ein lohnendes Ziel für Angreifer, die schadhafte Software einsetzen. Die steigende Zahl an verschiedenen Formen und Ausprägungen machen eine sichere und zuverlässige Auswertung und Klassifikation von Malware notwendig, besonders dann, wenn es sich um unbekannte Proben handelt. Das Ziel dieser Arbeit liegt in der Realisierung einer ganzheitlichen Auswertekomponente, die in der Lage ist, gesicherte Informationen über das Verhalten und die Zielabsicht von Malware zu generieren und eine entsprechende Einordnung anhand der Funktionalität vorzunehmen. Dazu sind robuste Merkmale unterschiedlicher Kategorien vonnöten, die eine sichere Detektion und Klassifikation ermöglichen. Die Verknüpfung verschiedener Methoden des maschinellen Lernens etabliert eine vollumfängliche automatische Entscheidung. Die genannten Grundsätze sind in einem Programm realisiert, welches aus vier Modulen zusammengesetzt ist. Die Rohdaten der Analyseergebnisse werden eingelesen und zu angereicherten Charakteristika verarbeitet. Die Erkennung des verdächtigen Verhaltens erfolgt über den Abgleich mit gewichteten Merkmalen. Die im Fall einer eindeutigen Entscheidung für Schadhaftigkeit erfolgende Klassifikation nimmt eine charakterliche Einordnung der zugehörigen Applikation vor. Ein Abschlussbericht nutzt die im letzten Modul visualisierten Ergebnisse zur Aufbereitung der einzelnen Merkmale. Anhand der Erprobung des Programms durch einen Datensatz aus schadhaften Applikationen konnte die Funktion der Methodik nachgewiesen werden, Android-Applikationen zuverlässig nach ihrem Verhalten charakterisieren zu können.