Refine
Document Type
- Bachelor Thesis (111)
- Master's Thesis (17)
- Diploma Thesis (8)
Year of publication
- 2019 (136) (remove)
Keywords
- Computerforensik (12)
- Softwareentwicklung (10)
- Videospiel (7)
- Computerspiel (6)
- Algorithmus (5)
- Daktyloskopie (5)
- Virtuelle Realität (5)
- Android <Systemplattform> (4)
- Biotechnologie (4)
- Computersicherheit (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (136) (remove)
Möglichkeiten zur Aufnahme und Kategorisierung von
Knochenveränderungen und deren Interpretation
(2019)
Diese Bachelorarbeit befasst sich mit der Aufnahme, Kategorisierung und Interpretation von Knochen verändernden Merkmalen. Ziel ist es, eine möglichst einheitliche und allgemein verständliche Methode zu entwerfen, die der Aufnahme von knöchernen Veränderungen dient und worauf aufbauend Klassifikationen erfolgen können. Diese wiederum soll dahingehend überprüft werden, ob eine Feststellung der Ursache möglich ist.
Messengerdaten auf Mobiltelefonen sind häufig für Ermittlungs- und Strafverfahren relevant. Eine händische Untersuchung dieser ist für einen digitalen Forensiker jedoch sehr arbeits- und zeitintensiv. Aus diesem Grund wird in dieser Bachelorarbeit ein möglichst effektives Verfahren
zur Auswertung und Aufbereitung von Messengerdaten auf Mobiltelefonen vorgestellt, welches digitalen Forensikern als Leitfaden dienen soll. Das vorgestellte Verfahren kann für jeden Messenger verwendet werden und basiert auf der Methode des Reverse Engineerings. Um dessen Anwendung zu demonstrieren und seine Funktionalität unter Beweis zu stellen, werden die Daten des Messengers TamTam, insbesondere die Datenbanken, exemplarisch ausgewertet und aufbereitet.
Das Ziel dieser Arbeit ist es verschiedene Methoden der Platzierung von Vegetation zu vergleichen und in Hinsicht auf die Qualität der Ergebnisse zu beurteilen. Zum Vergleich dient in diesem Fall die Natur selbst als Maßstab, denn diese soll bei den meisten Methoden simuliert werden. Die Methoden zur Generierung sind vielfältig und unterschiedlich komplex. Einem Entwickler stellt sich nun die Frage zu welcher Methode oder welcher Kombination er greifen soll unter den Aspekten Entwicklungsaufwand, Performanz, Qualität und Flexibilität. Es soll erkundet werden, bei welchen Vorhaben es sich für einen Spielentwickler lohnt ein solches System zu implementieren oder ob herkömmliche Produktionsketten sinnvoller wären.
In dieser Arbeit wurden verschiedene kaliumselektive Elektroden hergestellt. Diese wurden auf Funktion und Selektivität überprüft. Anschließend wurden Messungen mit ausgewählten Elektroden in aufgeschlämmten Bodenproben durchgeführt, um das Einstellverhalten und das pflanzenverfügbare Kalium, angelehnt an eine Methode der VDLUFA, zu bestimmen. Da diese Methode aber auf der Analyse mit Atomabsorptionsspektrometrie beruht, wurden die Ergebnisse beider Messmethoden miteinander verglichen.
Inhalt dieser Arbeit ist der Einfluss von Rhamnolipiden auf die Vesikulation von Gram-negativen Bakterien am Beispiel von Pseudomonas putida. Es soll unter-sucht werden, ob die Vesikulation durch Zugabe von Rhamnolipiden erhöht wird und ob die Anwesenheit von Rhamnolipiden die Wirkung langkettiger Alkohole (hier wurden 1-Octanol und 1-Decanol verwendet) abschwächt.
Durch die zunehmende Nutzung mobiler Endgeräte fallen im alltäglichen Leben zahlreiche personenbezogene Daten an. Zu diesen Daten gehören unter anderem auch GPS-Positionen, die von handelsüblichen Smartphones erhoben werden. Besonders Android-Geräte sammeln eine große Menge an Positionsdaten, die für verschiedene Wissenschafts-Domänen, wie beispielsweise Medizin oder Forensik, eine Rolle spielen. Für verschiedene Anwendungsfälle kann eine Aggregation der einzelnen GPS-Positionen zu Orten und verbindenden Strecken relevant sein.
Ziel der Arbeit ist die Entwicklung eines Algorithmus zur Aggregation von GPS-Standorten zu Orten, deren Besuchen und Verbindungen. Nach Implementierung des Algorithmus wurde dieser in eine Java-Applikation eingebettet, die unter anderem der Visualisierung der erzielten Ergebnisse dient. Für die Evaluation des Algorithmus wurden über einen Zeitraum von zwei Monaten Standortdaten mit Hilfe eines Android-Smartphones erhoben, welche unter Verwendung des implementierten Algorithmus ausgewertet wurden. Die Evaluation resultierte in einem Parameterset, welches sich für die Auswertung des vorliegenden Testdatensatzes als geeignet herausstellte. Das Ergebnis der Arbeit ist ein funktionstüchtiger Algorithmus, der vielfältige Anwendungsmöglichkeiten aufweist und dessen Erweiterung ein hohes Potenzial für Folgeprojekte bietet.
Die vorliegende Arbeit befasst sich umfangreich mit der Thematik der »Security Incident and Event Management« (SIEM) Systeme und ihrer Installation, Organisation und Anwendung in kleinen und mittleren Unternehmen (KMU). Am Anfang wird dem Leser die Funktionsweise eines solchen SIEM Systems erklärt, um im Anschluss am Beispiel der miteinander interagierenden Softwares Elasticsearch, Logstash, Beats und Kibana schrittweise in einer IT-Infrastruktur zu implementieren. Außerdem wird die Eignung eines solchen Systems für kleine und mittlere Unternehmen in gesetzlicher und organisatorischer Hinsicht auf Basis zweier Studien untersucht, welche den aktuellen Zustand der Thematik IT-Sicherheit in KMU widerspiegeln. Das Ziel der Arbeit ist es festzustellen, in welchem Rahmen ein SIEM System in KMU nötig ist und helfen kann, um die IT-Sicherheit des Unternehmens zu fördern. Dabei wird sowohl auf die Installation, als auch auf die Nutzung eins SIEM Systems unter den in KMU vorherrschenden Bedingungen betrachtet.
In dieser Arbeit beschäftigt sich der Autor mit der Identifikation eines Spielertyps für das Videospiel-Genre "Soulslike". Er erläutert dafür Spielertyp-Theorien und die Theo-rie des Spaßes. Zusätzlich analysiert er das "Soulslike"-Genre, indem er verschiedene Spiele aus dem Genre durchleuchtet. Um einen Spielertyp zu erfassen, wertet er eine Umfrage aus, die er Spielern diesen Genres ausfüllen lässt.
Ziel dieser Arbeit ist es, an ausgewähltem Material aus einer Skelettsammlung eine morphologische Geschlechtsbestimmung am Os ilium (Darmbein), einem Teil des Os coxae (Hüftbein), durchzuführen und deren Zuverlässigkeit zu überprüfen. Um die Bestimmung des Geschlechts sicherer zu machen, werden weitere morphologische Analysen am Cranium sowie an den Ossa coxae und eine osteometrische Analyse am Femur durchgeführt und mit den Ergebnissen der Geschlechtsbestimmung am Os ilium verglichen.
Im Rahmen der vorliegenden Bachelorarbeit sollte ein Add-On zur semi-automatischen Phantombilderstellung in Blender erstellt werden. Hierfür wurden bereits bestehende Add-Ons von Einzelprozessen der Gesichtsweichteilrekonstruktion miteinander verbunden und einem einheitlichen Bild angepasst. Zudem wurden Anpassungen und Erweiterungen an den Add-Ons vorgenommen, um die Anwenderfreundlichkeit zu erhöhen. Abschließend wurde das Ergebnis mit anderen Computergestützten Rekonstruktionsmethoden verglichen.
A relatively new research field of neurosciences, called Connectomics, aims to achieve a full understanding and mapping of neural circuits and fine neuronal structures of the nervous system in a variety of organisms. This detailed information will provide insight in how our brain is influenced by different genetic and psychiatric diseases, how memory traces are stored and ageing influences our brain structure. It is beyond question that new methods for data acquisition will produce large amounts of neuronal image data. This data will exceed the zetabyte range and is impossible to annotate manually for visualization and analysis. Nowadays, machine learning algorithms and specially deep convolutional neuronal networks are heavily used in medical imaging and computer vision, which brings the opportunity of designing fully automated pipelines for image analysis. This work presents a new automated workflow based on three major parts including image processing using consecutive deep convolutional networks, a pixel-grouping step called connected components and 3D visualization via neuroglancer to achieve a dense three dimensional reconstruction of neurons from EM image data.
In dieser Arbeit werden ausgewählteWerbenetzwerke in Android-Apps im Hinblick auf deren Datenerhebung betrachtet. Dabei stellen sich folgende Forschungsfragen: Welche Daten werden an die Werbenetzwerke übermittelt? Wie decken sich die übermittelten Daten mit den Angaben seitens der Werbenetzwerke? Wie werden die Daten von dem Android-Gerät erhoben und welchen Einfluss haben die Daten auf die Privatsphäre des Benutzers? Um die Forschungsfragen zu beantworten, ist eine Auswahl von 100 Apps aus dem Google Play Store getroffen und auf deren enthaltenen Werbenetzwerke analysiert worden. Anschließend wurde der Netzwerkverkehr von ausgewählten Werbenetzwerken mithilfe eines Proxy-Server betrachtet, um die übermittelten Daten abzufangen. Gleichzeitig sind die Datenschutzerklärungen
der ausgewählten Werbenetzwerke im Hinblick auf deren Angaben zu erhobenen Daten betrachtet worden.
Abschließend wurde der Quellcode von den Werbenetzwerken angeschaut, um herauszufinden wie die Daten aus dem Android-System erhoben werden.
Die Ergebnisse der Analyse des Datenverkehrs zeigen, dass neben Daten über das verwendete Gerät, die ausführende App, zur ungefähren Positionsbestimmung und zu Einstellungsparameter auch Statusinformationen, wie Ladezustand der Batterie und freier Speicherplatz, übertragen werden. Es wurde festgestellt, dass Werbenetzwerke erheblich mehr Daten erheben und übermitteln als in deren Datenschutzerklärungen angegeben. Durch die Analyse des Quellcodes der Werbenetzwerke konnte herausgefunden werden, dass Daten zum einen über API-Aufrufe an das Android-System ermittelt werden und zum anderen durch entsprechende Algorithmen der Werbenetzwerke. Mithilfe der Ergebnisse konnte gezeigt werden, dass seitens der Werbenetzwerke eine bessere und umfangreichere Angabe zu den erhobenen Daten wünschenswert ist.
Weiterhin konnten unter den Daten keine personenbezogenen Informationen gefunden werden, welche eine Zuordnung zu einem einzelnen Individuum erlauben. Jedoch wurden Informationen gefunden, die eine Zuordnung der Daten zu einem einzelnen Gerät erlauben.
Die vorliegende Masterarbeit befasst sich mit der Thematik der vergleichenden Untersuchung zur Ausprägung sehnenspezifischer Marker in Scaffold- versus Sphäroid-basierten Tissue Engineering Konstrukten. Dafür sollten humane aus dem Knochenmark stammende mesenchymale Stammzellen verwendet und tenogen differenziert werden und auf einem Kollagen-Scaffold oder als Sphäroid im Kollagen-Hydrogel kultiviert werden. Aussagen über eine mögliche Differenzierung sollten durch mikroskopische Untersuchungen und durch qPCR ermittelt werden.
Die Bildung von Sphäroiden sollte durch die Kultivierung im Hanging-Drop mit der Kultivierung in Mikrotiterplatten mit zellabweisender Oberfläche vergleichend untersucht werden. Dafür wurden neben mikroskopischen Untersuchungen, Färbemethoden und Gefriermikrotomschnitte herangezogen.
Als Positivkontrolle wurden humane Tenozyten (Sehnenzellen) verwendet.
Die vorliegende Bachelorarbeit beeinhaltet Untersuchungen zur Gewinnung leistungsverbesserter Mutanten des Produktionsstammes Penicillium verruculosum M28-9. Dazu wurde die chemische Mutation mittels N-Methyl-N-Nitro-Nitroso-Guanidin angewendet. Die Selektion von Mutanten mit partiell bzw. vollständig ausgeschalteter C-Katabolitrepression erfolgte mittels eines Submers-Screening.
Das nach der Mutation folgende Submers-Screening wurde unter Verwendung der Antimetabolite 2-Deoxy-D-Glukose sowie 1- oder 2-Thioglycerol in unterschiedlichen Konzentrationen durchgeführt. Die mutierten Konidien wurden kultiviert und konnten anschließend mittels Klonselektionierung auf Agarmedien mit amorpher Cellulose und dem Einsatz der wachstumsbegrenzenden Substanz Bengalrosa selektiert werden.
Im Rahmen der Untersuchungen konnten potentielle Mutanten auf einem Medium mit amorpher Cellulose und 25 g/l Glukose als Repressor erhalten werden.
G-Protein-gekoppelte Rezeptoren (GPCR) sind wichtige Proteinkomplexe für unzählige physiologische Funktionen und dienen als Startpunkt für moderne pharmazeutische Eingriffe. Trotz ihrer Fülle, bemerkenswerten Größe und Molekularstruktur, welche Zell- und Matrixkontakte in einer Vielzahl von Organsystemen ermöglicht, sind GPCR die am wenigsten verstandene Rezeptorklasse. Die Grundlagenforschung an der räumlichen GPCR-Struktur dient dem besseren Verständnis ihres strukturbasierten Wirkstoffdesigns, wodurch pharmazeutisch interessante Proteine mit Medikamenten spezifisch interagieren können. Dafür werden GPCR in „Human Embryonic Kidney“-Zellen (HEK293S-Zellen) exprimiert und anschließend mit der röntgenkristallografischen Analyse untersucht.
Diese Arbeit vergleicht die drei populärsten Frontend-Frameworks in der Webentwicklung in Bezug auf barrierefreie Umsetzungsstrategien. Dabei wird der Begriff Barrierefreiheit definiert, aktuelle Standards dargestellt und diese dann anschließend methodisch innerhalb der gewählten Frameworks umgesetzt.
Die vorliegende Bachelorarbeit befasst sich mit der Entwicklung eines 3D-Sehnen-Gewebemodells aus einer Triplettkultur. Dafür wurden Triplettkulturen aus Synovial-zellen, skelettalen Muskelzellen und mesenchymalen Stammzellen bzw. Tenozyten in 2D etabliert, wobei die Stammzellen tenogen differenziert werden sollten. Mithilfe der qPCR wurde die Expression von Markergenen eines jeden Zelltyps untersucht, um den Differenzierungserfolg, sowie den Einfluss der Triplettkultur zu charakterisieren. Zum Schluss erfolgte die Übertragung in eine 3D Umgebung.
Die vorliegende Arbeit befasst sich mit der Analyse von ShellBags in Windows-Betriebssystemen. Die Untersuchungen beziehen sich auf Windows XP, 7 und 10, welche als virtuelle Maschinen in VMware Workstation Pro integriert wurden. Da die ShellBag-Registrierungsschlüssel neben Ansichtseinstellungen im Datei-Explorer auch Einträge zu Aktivitäten in und mit verschiedenen Ordnern, in Netzlaufwerken sowie mit externen Speichermedien enthalten, liefern sie für forensische Analysen wertvolle Hinweise. Darüber hinaus können auch die darin befindlichen Zeitstempel zur Auswertung herangezogen werden. Hierfür wurden verschiedene Testreihen durchgeführt. Der Vergleich von ShellBag-Zuständen vor und nach einer Aktivität basiert auf dem Tool Compare It!, welches die Gegenüberstellung zweier .reg-Dateien erlaubt. Die Ergebnisse bestätigen,
dass auch heute noch eine Weiterentwicklung der ShellBags erfolgt, da stets Änderungen vorgenommen und neue Informationen hinzugefügt werden. Dennoch hat sich zum großen Teil eine einheitliche Ablage der Informationen herausgebildet.
Ziel dieser Arbeit die Bereitstellung von Sensordaten sowie dessen Auswertung und Weitergabe an Aktoren. Die Bereitstellung dieser Daten soll mittels Datenbank-Abfragen und einer nachrichtenorientierten Infrastruktur bereitgestellt werden. Nach dieser erfolgreichen Implementierung soll ein Datenformat sowie -standard erörtert werden.
Nur auf der Grundlage homogener Daten kann eine effektive Nutzung dieser Daten er-reicht und ein sinnvolles Zusammenarbeiten verschiedener Institute sichergestellt werden.
Konfiguration und Evaluierung des Nominatim-Servers
aufbauend auf der Docker-Virtualisierungs-Lösung
(2019)
Das Ziel der vorliegenden Bachelorarbeit war es, eine auf Docker basierende Nominatim-Umgebung zu erarbeiten. Hierzu musste zunächst ein theoretischer Hintergrund zu den Themen Nominatim und Docker geschaffen werden. Die Ergebnisse der Literaturrecherche dienten als Grundlage für die Gestaltung eines Umsetzungskonzepts, welches selbst wiederum die Basis für die spätere Implementierung war.
Die Arbeit ist für Studierende der Informatik interessant, die sich mit Problemstellungen in den Bereichen Docker, OpenStreetMap und Nominatim befassen.
Diese Arbeit beschäftigte sich mit der Testung der zytotoxischen Eigenschaften von zehn Eisen(III)-Salophenderivaten auf die malignen Zelllinien MDA-MB-MB-231, A2780, A2780-Cis, HTB-77, HL-60 und Colo 699. Zur Bestimmung der Spezifität der Wirkstoffe wurden zusätzlich die Zelllinien HS-5 und SV-80 mitgetestet.
Mit verschiedenen Untersuchungsmethoden soll geklärt werden, welche Zelltodmechanismen durch die Eisen(III)-Salophenkomplexe induziert werden. Von besonderem Interesse ist hierbei der Nachweis des 2012 entdeckten Ferroptosemechanismus.
Es sollen Animationen angefertigt werden, die anschließend für Präsentationen oder die Aufbereitung von Videos zum Einsatz kommen. Zunächst wird in knapper Form der Inhalt der folgenden Kapitel dargestellt. Im ersten Abschnitt werden die theoretischen Grundlagen erläutert. Zu finden sind hier in erster Linie Regeln, die bei der Gestaltung beachtet werden sollen. Außerdem sind Definitionen von relevanten Begriffen aufgeführt.
Um die spätere Ausführung besser nachvollziehen zu können, wird die Benutzeroberfläche des genutzten Animationsprogramms beschrieben. In der anschließenden Konzeption sind die Ideen für die Umsetzung zu finden. Die Gliederung besteht aus den jeweiligen Animationen und den allgemeingültigenÜberlegungen, die es zu beachten gilt. Zusätzlich wurde zu jeder Visualisierung ein Storyboard kreiert, um zu prüfen, ob das Konzept umsetzbar und optisch stimmig ist. Im Abschnitt Umsetzung werden die Überlegungen der Konzepte übernommen und umgesetzt. Damit sind die wesentlichen Schritte erklärt, um die verschiedenen Produktionen nachvollziehen und eventuell nachbauen zu können. Zur besseren Nachvollziehbarkeit werden die wesentlichen Handlungen begründet. Die folgende Evaluation bezieht sich auf die in der Umsetzung entstandenen Visualisierungen. Tabellarisch werden für jede einzelne Animation Bedingungen dargestellt und es wird überprüft, ob und in welcher Form diese erfüllt wurden. Es gibt zwei verschiedene Methoden, nach denen die Auswertung erfolgt. Zuerst wird ermittelt, ob die Gestaltung konform mit den Corporate Design ist. Anschließend werden die allgemeinen Bestimmungen für ein gelungenes Design abgefragt. Das Schlusskapitel fasst die Ergebnisse der Arbeit zusammen und gibt einen Überblick über Verwendungs- sowie Erweiterungsmöglichkeiten der angefertigten Animationen.
Ziel der Bachelor Arbeit war die Untersuchung der Interaktion des Mikrotubuli-assoziierten Proteins Tau an die Mikrotubuli mittels des Split-Luciferase-Assays. Dafür wurden die benötigten Expressionsplasmide hergestellt und die Interaktion im NanoBiT-Assay gemessen. Diese Messwerte wurden mithilfe des HiBiT-Assays normiert und mit dem Wst8-Assay sowie mit der Hoechst 33258 Färbung wurde die Zytotoxizität und die Zellzahl bestimmt.
Es konnten die Interaktionen zwischen β-Tubulin I/ III und Tau, α-Tubulin und Tau sowie α-Tubulin und β-Tubulin I/III gemessen werden. Das N-terminal fusionierte β-Tubulin I mit der kleinen Untereinheit und β-Tubulin III mit der großen Untereinheit konnten aufgrund fehlender Expressionsplasmide nicht in die Interaktionsanalyse mit einbezogen werden. Die optimale Konfiguration der Luciferase Untereinheiten sowie die bestmöglichsten Interaktionspartner, bei der die größte Interaktion von 0,2790 bzw. 0,3095 gemessen werden konnte war bei dem β-Tubulin I bzw. III mit dem Tau 36 TubbIII/ 34 2N4R bzw. 0N4R Tau. Hingegen entsprachen die optimale Konfiguration sowie die bestmöglichsten Interaktionspartner der Interaktion α-Tubulin mit Tau 33 TubaA/ 36 1N4R Tau sowie α-Tubulin mit β-Tubulin 33 TubaA/ 36 TubbI & TubbIII. Diese zeigten Interaktionsstärken von 0,1360; 0,1419 und 0,1668 im Vergleich zur PKA-Interaktion. Die Gegenüberstellung zu den Ergebnissen von Shin et al. zeigte eine übereinstimmende Konfiguration für die α-Tubulin/ Tau Interaktion, hingegen eine Differenz in der Konfiguration für die β-Tubulin/ Tau Interaktion. Die Ergebnisse des β-Tubulins mit den Tau Isoformen des Vektors pFC34 zeigten im T-Test eine signifikant größere Bindungsaffinität der Tau Isoformen mit 4 Mikrotubulibindungsregionen im Vergleich zu denen mit 3 Bindungsregionen.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeption und Implementierung eines Serious Game-Prototypen. Nachdem zunächst die Eigenschaften und Vorteile von E-Learning und Serious Games erläutert werden, widmet sich die Arbeit der ausführlichen Analyse der Möglichkeiten und Besonderheiten von unbemannten Luftfahrtsystemen, sowie den Systemen zu deren Detektion und Abwehr. Neben dem entwicklungstechnischen Stand, aktuellen Ereignissen, sowie potenziellen Bedrohungen werden stellvertretend Beispiele für Abwehr- und Erkennungssysteme aufgezeigt, um einen Überblick über die Gefahren von Drohnen und die möglichen Konsequenzen verschiedener Interventionsmaßnahmen aufzuzeigen. Im weiteren Verlauf der Arbeit werden die Implementierungsschritte des entwickelten Serious-Game-Prototypen erläutert und die Zusammenhänge einzelner Gameplay-Elemente und der Realität hervorgehoben.
In today’s market, the process of dealing with textual data for internal and external processes has become increasingly important and more complex for certain companies. In this context,the thesis aims to support the process of analysis of similarities among textual documents by analyzing relationships among them. The proposed analysis process includes discovering similarities among these financial documents as well as possible patterns. The proposal is based on the exploitation and extension of already existing approaches as well as on their combination with well-known clustering analysis techniques. Moreover, a software tool has been implemented for the evaluation of the proposed approach, and experimented on the EDGAR filings, on the basis of qualitative criteria.
Diese Arbeit zielte darauf ab, die Anwendung zellbasierter in vitro-Assays zur Detektion von Agonismus und Antagonismus von Umweltstoffen im Hochdurchsatz zu optimieren. Darüber hinaus wurde der Einfluss von Lösemitteln in den Proben auf die Messungen untersucht. Parallel dazu wurden die untersuchten Stoffe und Lösemittel durch zwei verschiedene Methoden auf Zytotoxizität analysiert. Ausgehend von den Ergebnissen dieser Arbeit wurden derzeit angewandte Methoden zur Durchführung und Auswertung von Versuchen zu Agonismus und Antagonismus kritisch hinterfragt.
In dieser Arbeit geht es um die Untersuchung photogrammetrisch erzeugter 3D-Objekte hinsichtlich deren Qualität und Umsetzung als Videospiel-Asset. In drei Experimenten wird geprüft, inwiefern unterschiedliche Aufnahmeparameter und Erfassungsmethoden Einfluss auf die digitale Rekonstruktion realer Objekte besitzen.
Unter Einbezug der Untersuchungserkenntnisse wird ein 3D-Asset erstellt und ausgewertet.
Die vorliegende Arbeit befasst sich mit dem Datenschutz allgemein und der DSGVO im Konkreten als Herausforderung für Unternehmen.
Die Einhaltung rechtlicher Vorschriften, vertraglicher Bestimmungen, externer sowie interner Regelwerke, im Begriff Compliance zusammengefasst, ist ein wichtiges Unternehmensziel. Die DSGVO, die am 25.05.2018 in
Kraft trat, bringt für Betriebe einige zu beachtende Änderungen mit sich, so beispielsweise die Rechenschaftspflicht des Verantwortlichen und die verschärften Sanktionen bei Verstößen.
Zusätzlich muss durch sie als Verordnung, aufgrund ihrer Vorrangstellung gegenüber nationalen Gesetzen, auch die Anwendbarkeit einiger bestehender Regelungen in Frage gestellt werden.
The aim of this bachelor thesis was to establish extracytoplasmic function (ECF) σ factors as synthetic genetic regulators for biotechnological and synthetic biology applications in the new emerging model organism Vibrio natriegens. Therefore, synthetic genetic circuits were engineered on plasmids as test set-up for the investigated ECFs and their target promoters. The resulting plasmid library consisted of the reporter plasmids with the target promoter, fused to a lux cassette, a set of high-copy ECF plasmids and a backup set of lower-copy ECF plasmids. First, the high-copy plasmids were transformed in V. natriegens to test them for their functionality upon different inducer levels, which yielded good inducibility for few, but showed too high ECF-expression in most strains. For this reason, the set of lower copy plasmids was used for combinatorial co-transformation, to investigate the ECFs for their cross-talk to unspecific ECF target promoters. The switching to the lower-copy plasmid-set seemed to be partly helpful, while still much room for fine-tuning of the circuits remains. The knowledge gained can be used to achieve higher success rates when engineering synthetic circuits for various applications in V. natriegens, by using the ECFs here recommended as suitable synthetic genetic regulators.
In der folgenden Arbeit wurde die Genauigkeit eines Nahinfrarotspektroskops, zur Schätzung ausgewählter Qualitätsparameter von getrockneten Grassilagen, validiert.
Anschließend wurde die Kalibration des NIR-Spektroskops optimiert und erneut validiert.
Des Weiteren wurden die untersuchten Silagen, anhand der nutritiven Qualitätsparameter, hinsichtlich ihrer Eignung zur Wiederkäuerfütterung bewertet.
Schimmelpilze spielen als Zersetzer eine große Rolle in allen Ökosystemen der Erde. Auch in der Forensik wird ihnen eine bedeutende Rolle zuteil, da sie meist totes organi-sches Material besiedeln. Neben der Leichenliegezeitbestimmung und ihrem Nutzen als biologische Spuren an Tatorten, können Schimmelpilze einen Nutzen als Mykotoxinbild-ner aufweisen. In ihrem sekundären Stoffwechsel produzieren sie abhängig von Art und äußeren Einflüssen Toxine. Über ausgewählte Gattungen, deren Arten und Mykotoxine wird in dieser Arbeit ein Überblick gegeben. Analysen dieser Mykotoxine sollen unter Umständen auf die Art Rückschlüsse erlauben. Hierbei präferierte und dargestellte Methoden sind GC-MS, LC-ESI-MS, UHPLC-Qtof-MS und andere Methoden aus der Chromatografie und Massenspektrometrie. Diese werden in der Arbeit mit ihren Grund-lagen gemeinsam erläutert. Über diese Methoden wird der forensische Nutzen von Mykotoxinen als Differenzierungsmerkmal diskutiert und am Ende der Arbeit wird ein Aus-blick auf zukünftigen Nutzen dieser Methoden und der Mykotoxinanalyse in der Forensik gegeben.
Diese Arbeit beschäftigt sich mit der Untersuchung von Bild- und Videomaterial auf Anzeichen von Manipulationen. Erst werden Methoden vorgestellt, die bei regulären Manipulationen zu Erfolgen führen können. Anschließend werden mit den gleichen Methoden Deep-Fake Videos untersucht, um zu prüfen, ob diese einfachen Methoden auch bei Deep-Fakes funktionieren können.
Diese Arbeit beschäftigt sich mit der Implementation einer Werkzeugkette, die es dem Nutzer ermöglicht, in einer Benutzeroberfläche digitale Objekte in dessen Form und Oberfläche zu manipulieren, und im Anschluss eine automatisierte Bilderreihe der Objektes zu erhalten.
Schwerpunktmäßig werden in dieser Arbeit gewisse Programmkomponenten auf spezifische Problemstellung der digitalen Nahbereichsphotogrammetrie ausgelegt, die eine ungenaue Rekonstruktion bei detailgenauen Modelleigenschaften aufweist. Hierzu werden dem Nutzer Modellspezische inkrementelle Manipulationen bereitgestellt, die optimalerweise die Extremefälle der Rekonstruktionsqualität moderner Photogrammetrie-Software beurteilen lässt. Nicht-Modell Faktoren, die potentiell zu Fehlern in der Genauigkeit beitragen können, sollen, soweit es technisch möglich ist, für moderne photogrammetrische Software optimiert und damit ausgegrenzt werden. Näher soll dabei auf die Kapabilitäten von detaillierten und realitätsnahen Objekten eingegangen werden. Es soll trotz der digitalen Umgebung, realitätsnahes Umgebungslicht eingebracht werden, sowie gewisse komplexe Materialien und Materialeinstellungen implementiert werden.
Die folgende Arbeit handelt von der Umstellung der Kommunikationssoftware eines Servers in der Logistikabteilung der KOMSA AG. Ziel ist es den Ist-Zustand zu analysieren und darauf basierend einen Prototyp zu erstellen oder einen Gerätevorschlag zu unterbreiten, welche die Fortführung der Prozesse im Logistikbereich ermöglichen. Um einen Prototyp zu entwickeln, ist eine Analyse der IT-Infrastruktur der betreffenden Logistikabteilung durchgeführt und darauf aufbauend Konzepte zum Ablösen der alten Telnet-Server entwickelt worden. Der Telnet-Server des Anbieters Pragmasys konnte den Anforderungen am besten gerecht werden, daher wurde der Prototyp mit diesem entworfen. Der KOMSA AG wird empfohlen vorerst den Prototypen zu nutzen und eine Ablösung der MDE-Geräte in Erwägung zu ziehen, da das Telnet-Protokoll zu unsicher ist.
In der Restwasserklärung einer Papierfabrik treten seit Jahren Korrosionsprobleme auf, die die Funktionalität der Anlagen gefährden. Besonders stark ist der Schaden an Kupferbauteilen in den Schaltschränken. Verantwortlich sind aggressive Gase mit Schwefelwasserstoff als Hauptverursacher. Analysen haben ergeben, dass Schwefelwasserstoff in der Restwasserklärung ausgast, eine besonders starke Quelle ist der Krümelstoffhaufen, in dem optimale Bedingungen für mikrobielle Aktivität herrschen. Die Experimente haben ergeben, dass auch das Prozesswasser Sulfidionen bis zur Konzentration von etwa 0,8 mg/l führt. Die Schlammmischbütte ist ebenfalls ein Ort mit guten Bedingungen für die Sulfatreduktion, nur die niedrige Verweilzeit des Wassers von 20 Minuten dient dort als begrenzender Faktor für einen mikrobiellen Bewuchs. Der durchschnittlichen Sauerstoffkonzentration von 0,12 mg/l kann in der Gemeinschaft einer Sielhaut standgehalten werden. Direkt im Wasser sorgen in Verbindung mit Feuchtigkeit und Wärme Chloridionen für Korrosion an den Entwässerungsanlagen. Diese Schäden sind allerdings tolerierbar, die Standzeit der Anlagen wird nicht so extrem beeinträchtigt wie die der Schaltschränke. Als wirtschaftlich betrachtet beste Methode zum Schutz der Kupferkomponenten vor dem Schwefelwasserstoff erwies sich die Installation eines chemischen Filtersystems.
The epithelial membrane proteins (EMP1-3), which belong to the family of peripheral myelin proteins 22-kDa (PMP22), are involved in epithelial differentiation. EMP2 was found to be a downstream target gene of the tumor suppressor gene HOPX, a homeobox-containing gene. Additionally, a dysregulation of EMP2 has been observed in various cancers, but the function of EMP2 in human lung cancer has not yet been clarified.
In this study, a real-time RT-PCR, Western blot and cytoblock analysis were performed to analyze the expression of EMP2. Gain-of-function was achieved by stable transfection with an EMP2 expression vector and loss-of-function by siRNA knockdown. Stable transfection led to overexpression of EMP2 at both mRNA and protein levels in the transfected cell lines H1299 and H2170.
Functional assays including proliferation, colony formation, migration and invasion assays as well as cell cycle analyzes were performed after stable transfection and it was found that the ectopic EMP2 expression resulted in a reduced cell proliferation, migration and invasion as well as a G1 cell cycle arrest. After the EMP2 gene was silenced by the siRNA knockdown, inhibition of the cell invasive property was observed. These phenomena were accompanied by reduced AKT, mTor and p38 activities.
Taken together, the data suggest that the epithelial membrane protein 2 (EMP2) is a tumor suppressor and exerts its tumor suppressive function by inhibiting AKT and MAPK signaling pathways in human lung cancer cells.
Workload Optimization Techniques for Password
Guessing Algorithms on Distributed Computing Platforms
(2019)
The following thesis covers several ways to optimize distributed computing platforms for cryptanalytic purposes. After an introduction on password storage, password guessing attacks and distributed computing in general, a set of inital benchmark results for a variety of different devices will be analyzed. The shown results are mainly based on utilization of the open source password recovery tool Hashcat. The second part of this work shows an algorithmic implementation for information retrieval and workload generation. This thesis can be used for the conception of a distributed computing system, inventory analysis of available hardware devices, runtime and cost estimations for specific jobs and finally strategic workload distribution.
Kocuria spp. - Bakterien sind in der Natur omnipräsent vorkommende Gram-positive Kokken.
Einige Studien beschäftigten sich bereits mit der Biodiversität und den biotechnologischen Applikationen dieser Bakterien. Jedoch ist trotz dessen nur wenig über die Gattung Kocuria bekannt. Ziel dieser Arbeit ist es, Aufschluss über die Biodiversität und das biotechnologische Potential von Kocuria spp. - Stämmen, die aus z.B. Meeressedimenten und der Atacama-Wüste isoliert wurden, zu gewinnen. Dafür werden mikrobiologische, chemische sowie genetische Methoden verwendet, wie z.B. Wachstumstests zur Untersuchung physiologischer Eigenschaften, analytisch chemische Methoden und phylogenetische Analysen. Es wird gezeigt, dass die Kocuria spp. - Isolate spezifische Merkmale hinsichtlich ihrer Biodiversität aufweisen und in der Lage sind, biotechnologisch nutzbare Substanzen zu produzieren.
Es wird die Entwicklung eines Reversen Genetik Systems für das Respiratorische Synzytial Virus beschrieben. Die Ergebnisse für die Versuche zur Subklonierung von RSV-Antigenomfragmenten in Klonierungsvektoren, sowie der Ligation zweier RSV-Antigenomfragmente miteinander und anschließend in einem Expressionsvektor werden dargestellt und diskutiert. Die Methoden die zu diesen Ergebnissen führten werden aufgeführt, diskutiert und mit Literatur verglichen. Des Weiteren werden die Erfolge und Misserfolge zusammengefasst und in Form des Ausblickes dargestellt, welche weiteren Schritte zur Entwicklung eines Reversen Genetik Systems für das Respiratorische Synzytial Virus geplant sind.
Mobile-Games haben in den letzten Jahren einen großen Teil des Spielmarktes eingenommen. Viele dieser Mobile-Games greifen auf Free-to-Play-Modelle zurück und betreiben Monetarisierung über Ingame-Purchases und Microtransactions. Damit gewinnt die Player-Retention in diesen Spielen immer weiter an Bedeutung und verschiedene Mechaniken in Spielen sind darauf ausgelegt, die Retention zu steigern. In dieser Arbeit wurden fünf Titel aus dem Mobile-RTS-Genre betrachtet und dabei herausgestellt, dass Spiele dieses Genres stark Energy-Systeme undSkinner-Box-Systeme verwenden und die Spielzeit der Spieler dadurch begrenzen. Es wurde die These aufgestellt, dass sich verlängerte Spielzeiten einzelner Sessions ebenso positiv auf die Retention auswirken können. Daraufhin wurden verschiedene Mechaniken in den Spielen untersucht, die zu einer Verlängerung der Spielzeit führen und deren Effekt auf die betrachteten Spiele. Diese Mechaniken eignen sich ebenso gut zur Generierung von Retention, jedoch sind die in Mobile-RTS etablierten Mechaniken auf eine Begrenzung der Spielzeit ausgelegt. Es wurde als alternative Spiel-Mechanik das Portal-System vorgestellt, das längere Spielzeiten ermöglicht und dadurch positiven Einfluss auf die Retention haben soll. Da es sich nur um eine theoretische Betrachtung handelt, steht hierbei eine praktische Betrachtung noch aus.
In der vorliegenden Bachelorarbeit war das Ziel, die Entwicklung eines webbasierten Content-Editors, der zur Erstellung von interaktiven Webinhalten für die Aufklärung von Patienten zu medizinischen Aspekten der Augenheilkunde genutzt werden kann.
Dafür wurde zunächst die zu erstellende Software in die Kategorie der Autorensysteme eingeordnet und untersucht, welche Punkte bei der Entwicklung des Content-Editors berücksichtigt werden müssen. Neben der Analyse der Anforderungen, die das dahinter liegende Projekt stellt, kam zusätzlich die Analyse einer Plattform aus einem studentischen Projekt, in der ein ähnliches System entwickelt worden ist.
Aus diesen Punkten wurde der darauf folgende Konzeptentwurf als Prototyp entwickelt und mithilfe von vier Probanden evaluiert. Die Auswertung zeigte, dass der webbasierte Content-Editor durchaus eine Existenzberechtigung hat und in Zukunft weiterentwickelt werden kann.
Besonders interessant ist die vorliegende Arbeit für Softwareentwickler, die in naher Zukunft vorhaben, ein Autorensystem mit speziellen Anforderungen zu entwickeln.
Innerhalb dieser Bachelorarbeit werden zuerst theoretische Grundlagen für das Balancing von Spielen erarbeitet, die sich im späteren Verlauf immer weiter auf rundenbasierte Strategiespiele spezialisieren. Diese dienen nach einer Analyse bekannter und erfolgreicher Beispiele von rundenbasierten Sammelkartenspielen im praktischen Teil dazu einen Algorithmus zu formulieren, welche wichtigen Aspekte beim Balancing eines Spiels in diesem eben diesem Genre zu beachten, und, wie diese grob umzusetzen sind. Schlussendlich wird dieses Verfahren Anhand von Statistiken eines dieser näher betrachteten Beispiele auf seine Genauigkeit hin untersucht, um Schlussendlich ein Fazit über die praktische Anwendbarkeit dieses Algorithmus ziehen zu können.
Diese Arbeit thematisiert die Darstellung und spielerisch-interaktive Nutzung von Schallwellen im computergenerierten 3D Raum. Dabei stellt sich die Frage, ob und wie sich die physikalischen Eigenschaften von Schallwellen spielerisch nutzbar machen lassen. Im Rahmen dieses Projektes entsteht ein Minispiel in der Unity-Engine, in welchem der Spieler unter Zuhilfenahme von Schall kurze Rätsel lösen muss, um an das Ende eines Levels zu gelangen. Hierbei liegt der Fokus nicht nur auf der Umsetzung der Spielidee, sondern auch auf einer einfachen Wiederverwendung und Erweiterung der implementierten Spiel-Mechaniken. Die Ergebnisse werden durch die Befragung von Testpersonen nach Durchführung von Spieletests ermittelt, mit dem Ergebnis, dass sich Schallwellen spielerisch sehr gut nutzen lassen, um einem Spiel Abwechslung zu verleihen. Das Spielkonzept ist ausbaubar und bietet vielseitig einsetzbare Mechaniken.
In dieser Arbeit werden verschiedene Ansätze zu der Authentizitätsprüfung von Manuka-Honig mittels LC-MS getestet. Dabei werden Chromatogramme verschiedener Honige verglichen. Außerdem wird das für Manuka-Honig charakteristische Leptosperin untersucht. Eine Quantifizierung der Stoffe Methylglyoxal, 2‘-Methoxyacetophenon, 2-Methoxybenzoesäure, 4-Hydroxyphenylessigsäure und 3-Phenylmilchsäure ist ebenso beschrieben.
Die dabei genutzte Methode wird unter der Verwendung des Orbitrap-Massenspektrometers Q Exactive Focus sowie des QQQMassenspektrometers 6490 validiert. Somit wird die Authentizitätsprüfung von Manuka-Honig ermöglicht.
Diese Arbeit beschäftigt sich mit der Analyse spezieller Sequenzbereiche. Als Ausgangsdatensatz dienen Sequenzen, in welchen Reste ermittelt wurden, die den Faltungsprozess initiieren und die Bildung von Sekundärstrukturelementen unterstützen. Diese frühfaltenden Reste, auch early folding residues genannt, sind maßgeblich für das Verständnis des Proteinfaltungsprozesses. Ziel dieser Arbeit ist es, für alle early folding residues allgemein gültige Sequenzmuster zu finden und welche Importanz diese bei der Proteinfaltung spielen. Um dieses Ziel zu erreichen wurde ein Programm zu Verarbeitung der Rohdaten angefertigt und die daraus resultierenden Sequenzbereiche geclustert. Anschließend sind die Cluster in Sequenzlogos dargestellt worden.
Zielführend der vorliegenden Bachelorarbeit soll über den Einsatz von Methoden und Technologien in der Hochschulbildung zur effektiven Vermittlung von Lerninhalten informiert werden. Zielführend elaborieren die vorliegenden Ausführungen darüber strukturiert, organisiert und motiviert die Lerneffektivität der Studierenden zu steigern. Im Fallbeispiel erforschte Erkenntnisse und Zielstellungen wurden dafür verwendet, um das Learning-Management-System OPAL unterstützend in den Lernprozess zu involvieren. Erstellt wurde ein OPAL-Kurs zur Vermittlung von Grundlagen der 3DModellierung. Unter Einbezug von Lernkarten, Selbsttests, Bonusaufgaben, Live-Abstimmungen, Erklärvideos sowie detail-markierte Visualisierungen soll die Effektivität der Vermittlung von Wissensinhalten optimal an die Studierenden transferiert werden.
Wissen aneignen, wiederholen, festigen und vertiefen werden durch angewandte Methoden im Kurs repräsentiert. Das Unterstützen der Studierenden im Prozess der Befähigung des eigenständigen Lernens sowie aus eigen-Initiative Lösungen zu erörtern steht zudem als Motivation über dieser Bachelorarbeit. Dem entwickelten Grundlagenkurs der 3D-Modellierung, lassen sich folglich die Komponenten Motivationsträger, Lösungsorientiert, Wissensfestigend, Vergleichsbasierend und Planungsorientiert zuordnen. Bereits in einer Umfrage zur Wahrnehmung der entwickelten Kursstruktur konnten 60 Teilnehmende verzeichnet werden mit dem Ergebnis das angewandte Methoden und Technologien tendenziell zielführend verlaufen. Um den Erfolg der realisierten Methodiken und Techniken realistisch einschätzen zu können wurde mittels AttrakDiff die hedonische und pragmatische Qualität des interaktiven OPAL-Kurses evaluiert. Inquiriert wurden insgesamt 16 Untersuchungsteilnehmer in einem Beobachtungszeitraum von sechs Tagen. Die online, automatisch berechneten Ergebnisse der Auswertung durch AttrakDiff bezüglich des Grundlagen Kurses der 3D-Modellierung, definieren eine Produktcharakteristika von „begehrend“ basierend auf den 28 verschiedenen semantischen Differenzialen. Ergänzend kann verzeichnet werden, dass eine hohe Konfidenz in Bezug auf die Wahrscheinlichkeit der Bewertung eruiert werden konnte. Im Ergebnis kann darauf geschlossen werden, dass die entwickelte und umgesetzte Kursstruktur am Fallbeispiel eines Grundlagenkurses der 3D-Modellierung tendenziell als positiv und ziel-erfüllend gewertet werden kann. Der Grundlagenkurs, vereint zudem den Vorteil der adaptiven Anwendung auf beliebige andere Bereiche und gilt somit als positives Beispiel, welches in der Lehre Anwendung finden kann.
Fehlende Erholung von Stress kann langfristig zu gesundheitlichen und psychologischen Problemen führen. Präventivmaßnahmen sind eine Notwendigkeit geworden, um Depressionserkrankungen durch wachsenden Leistungsdruck in unserer neoliberalen Gesellschaft vorzubeugen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und Evaluation eines Computerspiels zur Förderung der eigenen Selbsteinschätzung von Stress und zur Unterstützung von Selbsterkenntnis, im Sinne des bewussten Umgangs mit Stresssituationen. Computerspielen wird hierbei als präventive Maßnahme eingesetzt.
In the present bachelor thesis, nanopore sequencing and Illumina sequencing was compared using pollen DNA collected from honeybees and bumble bees. Therefore, nanopore sequencing was performed with the MinION sequencers and the generated reads were analysed with bash programming. A quantitative and qualitative (based on ITS2 sequences) BLAST run was performed. The results confirme the error probability of nanopore sequencing that is described in the literature. Nevertheless, with both sequencing methods similar sample preferences of the bees could have been observed, allowing ecological conclusions.
Cryptorchidism describes a disease, in which one or both testes do not descend into the scrotum properly. With a prevalence of up to 10%, cryptorchidism is one of the most common birth defects of the male genital tract. Despite its associated health risks and accompanying economic damage, resulting from surgery and losses in breeding, studies on canine cryptorchidism and its causes are relatively rare. In this study a relational database for genetic causes of cryptorchidism was established and used as a basis for the identification of candidate genes. Associated regions were analysed by nanopore sequencing with the goal to identify genetic variants correlated with cryptorchidism in German Sheep Poodle.
Diese Bachelorarbeit befasst sich mit der Herausforderung, kleine Zahlungen effizient mithilfe der Blockchain umsetzen zu können. Dafür werden verschiedene existierende Zahlung-Schemata vorgestellt werden. Sie werden dabei auch auf ihre Eignung im Bezug auf die Anforderungen eines IoT-Gerätes geprüft. Besonderer Fokus wird auf die probabilistischen Zahlungen gelegt.
Abschließend wird die Implementierung eines Prototypen vorgestellt und die Anwendbarkeit eines solchen Systems ausgewertet.
Extraktion und Analyse spektraler Information zur Verbesserung der Früherkennung von Pathologien
(2019)
In dieser Arbeit wurden Untersuchungen zur Optimierung Fundus basierter Untersuchungen erprobt. Es erfolgte eine Analyse der im Klinikum vorhandenen Funduskamera FF450plus sowie einer Vielzahl von ärztlichen Einträgen zum Augenfundus im klinikinternen Dokumentationssystem Turbomed. Schlussendlich wurde der Versuch unternommen gegebene Fundusbilder mithilfe von Klassifikationsapplikationen der Programmieroberfläche MatLab untersuchen zu lassen.
Lippensychronisation und real erscheinende Charakteranimationen sind in der heutigen Zeit ein integraler Bestandteil von Videospielen. Diese Arbeit widmet sich der Frage mit welchen Techniken es der Spieleindustrie gelingt, die digitalen Charaktere lebendig wirken zu lassen und ihnen Stimmen zu verleihen. Hierzu werden zunächst einige Grundlagen wie etwa verschiedene Animationsmethoden, Arten der Lippensychronisation und emotionale Stimulierungen beleuchtet und anschließend der Prototyp einer Software konzipiert und entwickelt, die es 2D - Charakteren erlaubt, möglichst automatisiert lippensychron und in verschiedenen Emotionslagen zu sprechen. Der resultierende Prototyp wird anschließend im Zuge eines Playtests auf seine Praktikabilität geprüft und die verwendeten Ansätze (Motion Capture und Key Frame - Animation mit Phonem Analyse) werden miteinander verglichen und als Ergebnis der Ausarbeitung wird geschlussfolgert, welche Variante sich als besser geeignet erwiesen hat. Es wird ein Ausblick auf künftige Möglichkeiten für den Bereich der 3D - Animation und die Automatisierung mittels Text-to-Speech gegeben. Darüber hinaus, wird das Zukunftspotential die Spieler in kommenden Videospielen nicht mehr ausschließlich die Entscheidungsgewalt über die Sätze ihres Charakters, sondern auch dessen Emotionen besitzen zu lassen, vorgestellt.
Die vorliegende Bachelorarbeit soll Erkenntnisse über die sicherheitsrelevanten Schwachstellen einer Android Applikation liefern. Hierbei werden theoretische sowie praktische Analysen aus der digitalen Forensik durchgeführt. Die dabei verwendeten Methoden sind in der forensischen Informatik etabliert und gewähren einen fundierten und strukturierten Ablauf.
Die aus jenen Vorgaben entstandenen Ergebnisse, weisen ein moderates, kritisches Sicherheitsmanagement der zu analysierenden Anwendung auf. Diese Bachelorarbeit richtet sich sowohl an Studierende mit Interesse für Sicherheitsüberprüfungen spezieller Anwendungen und forensische Strukturen und Richtlinien als auch an Fachleute im Bereich der Informationstechnik.
Die forensische Software ist das wichtigste Werkzeug für einen digitalen Forensiker in der Post-Mortem-Analyse. Daher beschäftigt sich die Arbeit mit dem Vergleich von drei forensischen Softwarelösungen. Darunter sind X-Ways als verbreitetste Software in deutschsprachigen Raum, Magnet Axiom als sehr verbreitete Software im Nordamerikanischen Raum und Autopsy als Open-Source-Lösung.
Für den Vergleich wurde ein Testszenario auf einer Festplatte sowie auf einem SSD-Datenträger, welches mittels der vorgenannten forensischen Software ausgewertet wurden. Die Ergebnisse wurden hinsichtlich der Parameter Geschwindigkeit, Genauigkeit, Vollständigkeit, Wiederholbarkeit und Nachvollziehbarkeit verglichen.
Diese Arbeit hat zum Ziel, auf Basis eines neuronalen Netzes eine Sentimentanalyse für deutsche Facebook-Kommentare durchzuführen und die erzielte Güte der Klassifikation im Vergleich zu anderen Verfahren zu bewerten. Dazu werden als Datengrundlage alle Kommentare (01.12.2018) des Facebook-Auftrittes der Deutschen Bahn und des deutschen Einzelhändlers Lidl verwendet.
Die Erstellung fotorealistischer Modelle kann viel Zeit und Aufwand beanspruchen, insbesondere wenn es darum geht, reale Menschen in virtuellen Welten darzustellen.
Für solche Zwecke wird häufig die Photogrammetrie eingesetzt, ein Verfahren, das 3D-Modelle aus 2D-Bilddaten erzeugt. Normalerweise erfordert die Aufnahme der entsprechenden Bilder eine bestimmte Ausrüstung, über die der Durchschnittsmensch nicht verfügt.
Um das gewünschte Modell trotzdem erstellen und nutzen zu können, müssen mögliche Alternativen gefunden werden. Diese sollten natürlich das bestmögliche Ergebnis liefern. Zu diesem Zweck sind empirisch verschiedene Möglichkeiten zu untersuchen, um die erforderlichen Daten optimal zu erfassen und zu verarbeiten.
Ziel der vorliegenden Arbeit ist es, Nutzer aus dem Heimbereich zur kritischen Beurteilung der Sicherheit von Netzwerkgeräten anzuregen.
Dazu wird zunächst aufgezeigt, warum Netzwerkgeräte ein lohnenswertes Ziel darstellen können. Zusätzlich werden bekannte Beispiele für gehackte beziehungsweise veränderte Netzwerkgeräte vorgestellt. Außerdem werden dem Leser Methoden zur Untersuchung dargestellt, welche an den konkreten Beispielen exemplarisch durchgeführt werden. Um eine sinnvolle Reihenfolge der Untersuchungen zu gewährleisten wird ein allgemeines Vorgehensmodell vorgestellt, welches entsprechend an die konkreten Untersuchungsanforderungen angepasst werden kann. Insbesondere werden die Recherche von Informationen, die optische Untersuchung, die Einstellungsüberprüfung und die Verifikation der Firmware besprochen und am konkreten Beispiel gezeigt. Auch die Übertragbarkeit auf andere Geräte wird überprüft und es wird versucht einen Ausblick auf eventuelle zukünftige Entwicklungen im Bereich der Sicherheit von Netzwerkgeräten zu geben. Limitierende Faktoren werden im Diskussionsteil der Arbeit ebenfalls betrachtet und näher erläutert.
Konzept und Entwicklung eines webbasierten, dynamischen sowie
datenbankbasierten PDF-Generators
(2019)
Die vorliegende Arbeit beschäftigt sich mit der Konzeption und Implementierung eines webbasierten, dynamischen sowie datenbankbasierten PDF-Generators.
Hierzu wird zuerst eine Anforderungsanalyse durchgeführt. Ausgehend von dieser wird ein Plan zur Entwicklung eines solchen Generators ausgearbeitet. Dieser umfasst unter anderem die zu nutzenden Technologien und eine Softwarearchitektur. Nachfolgend wird dieser Plan schrittweise umgesetzt. Dafür werden die erarbeiteten Anforderungen weiter ausgearbeitet und implementiert.
Dynamisches Pixel-Art
(2019)
In diesem Dokument handelt es sich um eine Beschreibung und Darstellung von Methoden zur Darstellung von Pixelgrafiken anhand von 3D-Objekten in Unity. Des Weiteren beinhaltet dieses Dokument eine Beschreibung von Lighting and Shadows in Unity und wie diese für 2D-Grafiken genutzt werden können.
Es wird beschrieben was Computergrafiken sind und wie diese dargestellt werden, sowie was Schader sind und wie diese funktionieren.
Des Weiteren werden Beispiele von Methoden zu den oben genannten Gebieten erläutert, die bereits vorhanden sind und ihre Funktionsweiße und Nutzen analysiert.
Es werden Methoden erarbeitet und dargestellt wie Pixelation von 3D-Grafiken möglich ist, sowie das Erstellen von Lighting und Shadows bei 2D-Grafiken. Aus diesen Methoden wird für jeweils ein Gebiet eine Vorangehensweise ausgewählt und ein Proof of Concept erstellt.
Diese werden Analysiert und evaluiert, sowie mögliche Nutzen erläutert.
In dieser Bachelorarbeit wird ein Workflow zur standardisierten Frisurenerstellung im Rahmen der computergestützten Gesichtsweichteilrekonstruktion beschrieben. Dafür wurde die kostenfreie Open-Source Software Blender mit der Versionsnummer 2.8 verwendet. Der Workflow wurde mithilfe des blenderinternen Partikelsystems erstellt.
Im Rahmen der vorliegenden Bachelorarbeit sollte eine Zusammenfassung der derzeitigen state-of-the-art-Methoden für die Rekonstruktion der einzelnen Gesichtsmerkmale bei einer Gesichtsweichteilrekonstruktion erstellt werden. Zudem wurde eine plastische GWR durchgeführt und evaluiert, um diese theoretischen Richtlinien anzuwenden und zu testen
Spektroskopische Featuredetektion
zur Altersbestimmung von Humanblutproben
im Labor und am Tatort
(2019)
In der Forensik sind Blutspurenanalysen ein wichtiges Mittel der Tatortermittlung.
Aus diesem Grund wäre die Altersbestimmung von Blut ein guter Ansatz, um die Aufklärungsrate noch zu verbessern.
In dieser Arbeit mit Fokus auf Grundlagenforschung wurden durch spektrophotometrische Analysen und statistischer Auswertung zwei große Komplexe untersucht. Vergleichende Analysen von Schweineblut mit Humanblut wurden durchgeführt und geprüft, ob sie in ihren Ergebnissen vergleichbar sind. So sollten Rückschlüsse auf die Übersetzung bereits vorhandener Studien mit Schweineblut ermöglicht werden, um die Eignung als Humanblutersatz zu diskutieren. Weiterhin wurde durch Vergleich der Absorptionsspektren über Zeit ermittelt, wie stark und auf welche Weise die Zugabe von Gerinnungshemmern wie Citrat Einfluss auf den Prozess der Blutalterung nimmt.
In einem zweiten Komplex wurde versucht, eine auf Spektro-Photometrie basierende statistische Methode zu etablieren, die den Prozess der Blutalterung nachvollziehen und mit möglichst geringen Abweichungen vorhersagen kann.
Dies sollte potentiell die Bestimmung des Alters einer Blutprobe ermöglichen. Im Zuge dessen wurden eine Hypothese zu den ex vivo ablaufenden chemischen Prozessen der Blutalterung erörtert und anhand der Spektraldaten diskutiert.
Charakterisiert wurde dies über die messbaren Anteile der Hämoglobin-Derivate im UV-Vis-Spektrum einer Vollblutprobe
Elektronische Zeiterfassung mittels Android APP mit Datenbankanbindung über TCP - lP Kommunikation
(2019)
Die vorliegende Arbeit befasst sich mit Design und Entwicklung einer App zur mobilen Zeiterfassung auf Basis des Betriebssystems Android. Die Applikation ist über das Kommunikationsprotokoll TCP-IP an eine Datenbank (MariaDB) angebunden. Der Funktions-umfang der Anwendung umfasst Login (Benutzer vorhanden), Registrierung (Anlage neuen Benutzer), Zeiterfassung (Kommen, Gehen, jeweils mit und ohne Grund), Auswertungen (Anwesenheiten im laufenden Monat, Monatsreport).
In dieser Arbeit sollen die Vorgehensweise und einige Ansätze der KI-basierten Emotionserkennung vorgestellt werden. Dabei wird auch auf die Grundlagen der allgemeinen Emotionserkennung eingegangen und hinterfragt, ob die Nutzung einer KI mit diesen Fähigkeiten sinnvoll für Vernehmungssituationen ist.
Methodenvergleich zur Hydroxyprolinbestimmung in Kollagenmaterialien von verschiedenen Tierarten
(2019)
Kollagen kommt ausschließlich bei Wirbeltieren vor und ist eines der bedeutsamsten Proteine im Reich der Säuger (Menschen inbegriffen). Etwa 25% aller Proteine eines Säugetieres sind Kollagene. Kollagen kommt hauptsächlich in Knochen, Unterhaut, Sehnen, Bändern, Knorpel und Blutgefäßen vor und gewährleistet dem Gewebe Struktur und Stabilität durch Ausbildung zugfester Kollagenfibrillen.
Die Vorbereitung eines Rennwagens für eine Fahrt ist aufwändig. Daher soll ein 3d Modell des Formula Student Rennwagens ’elCobra’ in die Simulationsplattform Assetto Corsa integriert werden, um einfache Manöver virtuell nachstellen zu können. Am Schluss wird ein Fragebogen aufgestellt, auf dessen Basis das Modell und die Materialien des Fahrzeugs nach unterschiedlichen Kriterien evaluiert, und Mitglieder des Technikum Mittweida Motorsport damit befragt werden.
In der Arbeit werden zwei weit verbreitete Computer-Forensik-Tools verglichen und bewertet. X-Ways Forensic und Autopsy wurden als beispielhafte Vertreter der Kategorien "proprietäre Tools" sowie "freie Tools" gewählt. Es werden anhand eines Kriterienkatalogs und verschiedener Test-Szenarien die einzelnen Funktionen systematisch evaluiert.
Die vierte industrielle Revolution beschäftigt sich mit der massiven Digitalisierung industrieller Produktionsstätten und -abläufen. Daten der Maschinensteuerungen werden gesammelt und ausgewertet, um die Produktion zu optimieren. Die dabei anfallenden Datenmengen sind enorm und können von einzelne Rechnern meist nicht bewältigt werden. Auch wären die Kosten bei einem Ausfall dieser Systeme derart hoch, sodass ein redundanter Betrieb der Serverinfrastruktur notwendig ist.
Diese Diplomarbeit behandelt den Entwurf einer horizontal skalierbaren Cloud-Infrastruktur für das Internet der Dinge. Anlass dazu ist das von der SFS Group AG entwickelte hauseigene Logistiksystem ’eLogistics’, welches erneuert und dabei die in dieser Arbeit ausgearbeitete Infrastruktur verwenden soll. Dabei wird die Frage verfolgt, nach welchen Prinzipien und mit welchen Technologien die Ziele horizontale Skalierbarkeit sowie eine hohe Ausfallsicherheit erreicht werden können. In den theoretischen Grundlagen werden dazu existierende Konzepte betrachtet, darauf folgend werden in den technischen Grundlagen einige der am Markt verfügbaren Software-Produkte vorgestellt. Nach einer kurzen Skizze der Grundanforderungen wird die gewählte Architektur vorgestellt und begründet. In der Realisierung werden daraufhin ausgesuchte Implementierungsthematiken vorgestellt. Abschliessend werden Themen rund um Testing, Deployment sowie Monitoring kurz angeschnitten und ein Fazit gezogen.
Das Ergebnis stellt neben der entwickelten Software einen Weg dar, mit welchem ähnliche Aufgabenstellungen bewerkstelligt werden können. Zudem enthält es eine Mixtur bewährter Infrastrukturkomponenten, welche die Anzahl der erforderlichen Komponenten Dritter minimiert und damit die Wartung vereinfacht.
Der Austausch von digitalen Informationen wird seit vielen Jahren immer stärker durch das Internet geprägt. Große Cloud-Speicher wie Dropbox erzeugen durch ihre Angebote einen enormen Preisdruck auf regionale Anbieter, behandeln das Thema Privatsphäre und Datensicherheit auf der anderen Seite aber oft stiefmütterlich oder speichern die Daten außerhalb Europas.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Systemkonzeptes für einen marktfähigen, regionalen Cloud-Speicher. Durch eine Marktanalyse sollen zuerst konkurrenzfähige Zielpreise für das Produkt ermittelt und festgelegt werden, die anschließend durch den Einsatz eines günstigen Object-Storage und der Containertechnologie mit Hilfe einer zu bestimmenden freien Cloud-Speicher Software aus Sicht des Anbieters auch technisch umsetzbar sind.
Die vorliegende Bachelorarbeit befasst sich mit dem Thema, ob sich Errungenschaften, auf Video on Demand Portalen, positiv auf die Langzeitbindung der Kunden auswirken können. Diesbezüglich werden in dieser Bachelorarbeit Erfolgsfaktoren von Gamification ausgearbeitet. Aus diesen, wird gemeinsam mit den Grundlagen von Video on Demand und der Verhaltenstherapie ein Konzept entwickelt, dass ein erfolgreiches Einsetzen von Achievements auf Video on Demand Plattformen ermöglichen soll. Das Konzept wird dabei durch eine Umfrage von Video on Demand Konsumenten gestützt.
In der vorliegenden Bachelorarbeit wird ein konfigurierbares grafisches Benutzerinterface für die CAN-Analysesoftware BUSMASTER der Firma ETAS GmbH konzeptioniert, entwickelt und an einem CAN-Demonstrator getestet. Gemäß der in dieser Arbeit vermittelten Grundlagen zu aktuellen Bussystemen der Automobilindustrie und ihrer Datenübertragung werden entsprechende CAN-Nachrichten implementiert und auf den CAN-Bus gesandt. Eine Auswertung der über den Bus laufenden Botschaften ermöglicht eine Visualisierung dieser innerhalb der GUI.
Die Funktionsfähigkeit des entwickelten Userinterfaces kann durch die erfolgreiche Steuerung des CAN-Demonstrators belegt werden. Dieser wird zudem im Rahmen der Softwareentwicklung und Inbetriebnahme weiterentwickelt.
Die vorliegende Arbeit befasst sich mit der These, dass Stereoskopie in der digitalen Architekturvisualisierung bestimmten Gestaltungsregeln im Bildaufbau folgen muss, um den Betrachter in die gewünschte Immersion zu führen. Um die These zu hinterfragen werden 3D-Szenen angefertigt, die Probanden in Form von Stereo-Panoramen unter Verwendung einer Virtual Reality-Brille vorgeführt und evaluiert werden. Hierbei werden die gezielte Blickführung und ihre Manipulation
betrachtet. Ein besonderer Fokus wird zudem auf die Veränderung der Stereobasis und die Tiefenunschärfe gelegt.
Die Bedeutung der mobilen Geräte im Leben des modernen Menschen nimmt stetig zu, wodurch große Mengen persönlicher Daten abgelegt sind. Zusätzlich ist das Betriebssystem Android durch die weit verbreitete Nutzung und die quelloffene Struktur ein lohnendes Ziel für Angreifer, die schadhafte Software einsetzen. Die steigende Zahl an verschiedenen Formen und Ausprägungen machen eine sichere und zuverlässige Auswertung und Klassifikation von Malware notwendig, besonders dann, wenn es sich um unbekannte Proben handelt. Das Ziel dieser Arbeit liegt in der Realisierung einer ganzheitlichen Auswertekomponente, die in der Lage ist, gesicherte Informationen über das Verhalten und die Zielabsicht von Malware zu generieren und eine entsprechende Einordnung anhand der Funktionalität vorzunehmen. Dazu sind robuste Merkmale unterschiedlicher Kategorien vonnöten, die eine sichere Detektion und Klassifikation ermöglichen. Die Verknüpfung verschiedener Methoden des maschinellen Lernens etabliert eine vollumfängliche automatische Entscheidung. Die genannten Grundsätze sind in einem Programm realisiert, welches aus vier Modulen zusammengesetzt ist. Die Rohdaten der Analyseergebnisse werden eingelesen und zu angereicherten Charakteristika verarbeitet. Die Erkennung des verdächtigen Verhaltens erfolgt über den Abgleich mit gewichteten Merkmalen. Die im Fall einer eindeutigen Entscheidung für Schadhaftigkeit erfolgende Klassifikation nimmt eine charakterliche Einordnung der zugehörigen Applikation vor. Ein Abschlussbericht nutzt die im letzten Modul visualisierten Ergebnisse zur Aufbereitung der einzelnen Merkmale. Anhand der Erprobung des Programms durch einen Datensatz aus schadhaften Applikationen konnte die Funktion der Methodik nachgewiesen werden, Android-Applikationen zuverlässig nach ihrem Verhalten charakterisieren zu können.
Hyper- und Hyponatriämie
(2019)
Die Arbeit beschäftigt sich mit dem Einfluss von Natrium auf die Hypo- und Hypernatriämie. Zusätzlich soll die These über die Wirkung von Östradiol auf die Hyponatriämie gestützt oder widerlegt werden, um herauszufinden ob Frauen im fortpflanzungsfähigem Alter besonders anfällig für eine Hyponatriämie sind. Bei einem Zusammenhang zwischen der Hyponatriämie und dem Östradiolwert, ergeben sich neue relevante Aspekte die bei der Prävention oder bei der Aufnahme einer Frau in der Klinik von großer Bedeutung sind.
Die grundlegende Theorie des Blutsalzes sowie die Ursachen, Symptome und Therapie werden erläutert. Anschließend werden die bei Labopart Medizinische Laboratorien gemessenen Werte aus dem Jahr 2018 betrachtet und ausgewertet. Der Weg der Proben wird von der Blutabnahme bis zum Messergebnis dokumentiert. In der klinischen Chemie durchlaufen diese die in der Arbeit beschriebenen Stationen. Diese grundlegende Basis soll eine Diskussion und Interpretation der fünfzig höchsten und niedrigsten Natriumwerte erlauben, damit ein Natriumungleichgewicht schneller in Betracht gezogen oder behandelt werden kann. Zugleich lassen sich die Ergebnisse in der Prävention einsetzen.
Neural networks have become one of the most powerful algorithms when it comes to learning from big data sets and it is used extensively for classification. But the deeper the network models, the lesser is the interpretability of such models. Although many methods exist to explain
the output of such networks, the lack of interpretability makes them black boxes. On the other hand, prototype-based machine learning algorithms are known to be interpretable and robust.
Therefore, the aim of this thesis is to find a way to interpret the functioning of the neural networks by introducing a prototype layer to the neural network architecture. This prototype layer will train alongside the neural network and help us interpret the model. We present architectures of neural networks consisting of autoencoders and prototypes that perform activity recognition from heart rates extracted from ECG signals. These prototypes represent the different activity groups that the heart rates belong to and thereby aid in interpretability.
Das Ziel dieser Arbeit ist die Analyse von Kampfszenarien in Videospielen, mit dem Fokus auf der Gewichtung von unterschiedlichen Charakter-Klassen und Teamzusammenstellung.
Dazu wird dies an zwei Videospielen analysiert. Danach wird eine Anforderungsanalyse durchgeführt und es erfolgt die prototypische Umsetzung eines Softwaretools, in dem sich Kampfszenarien simulieren lassen. Ergänzend dazu wird eine visuelle Evaluation implementiert. Anhand der Auswertung von Testsimulationen wird dann eine erneute Analyse durchgeführt.
Bei der Erstellung moderner Videospiele wird eine große Menge an Grafikobjekten für die Zusammensetzung der Landschaften und Umgebungen benötigt. Da die Ansprüche der Spieler an die Grafik steigen, ist es besonders bei Spielen mit realistischer Grafik oft notwendig, viel Zeit und Ressourcen einzusetzen um diese Objekte zu erstellen. Daher lohnt es sich, diese möglichst effizient einzusetzen und abzuwägen, an welchen Stellen sich ein hoher Detailgrad lohnt und an welchen Stellen auf simpler gehaltene Objekte zurückgegriffen werden kann, ohne dass dies dem Spieler auffällt.
Unter Beachtung einiger Gestaltungsgesetze und Grundlagen der Wahrnehmung und Levelgestaltung können die Objekte effektiv eingesetzt und an den Orten platziert werden, an welchen die Aufmerksamkeit des Spielers am höchsten ist. Neben der Zeitersparnis bei der Erstellung von Objekten ist es auch für die vom Computer benötigte Rechenleistung des Spiels sinnvoll, nur an den notwendigsten Stellen einen hohen Detailgrad zu verwenden.
In dieser Arbeit geht es darum, Methoden zu erarbeiten, die es erleichtern, Details effizienter in der Spielumgebung zu platzieren und herauszufinden, in welchen Situationen diese sinnvoll einsetzbar sind.
Der Weg zur Brückenklassifizierung : Generierung, Annotation und Klassifizierung eines Datensatzes
(2019)
In dieser Arbeit wird darauf eingegangen, wie zum Zwecke der Klassifizierung von Brückenbildern ein Datensatz erhoben, annotiert, augmentiert und verschiedene Modelle neuronaler Netze darauf trainiert wurden die Brückenbilder in eine von sieben Kategorien einzuordnen. Dabei wird kurz auf die übergeordnete Bemühung eingegangen, mithilfe eines solchen Netzes einen Beitrag zur Abmilderung der Auswirkungen katastrophaler Ereignisse zu bieten. Anschließend werden die vorgenommenen Schritte im Einzelnen erläutert, die zu den im letztem Kapitel gezeigten Ergebnissen führten. Abschließend werden die Ergebnisse diskutiert, Probleme und mögliche Fehlerquellen angesprochen und ein Ausblick auf Weiterführung der Bemühung zur korrekten Brückenklassifikation gegeben.
Die vorliegende Arbeit befasst sich mit der Konzeptionierung einer gesamthaften
Gebäudeautomatisierung und spannt dabei den Bogen von der methodischen Anforderungsanalyse über das Lösungsdesign bis hin zur Realisierung eines modernen Smart Homes. Die Herausforderung lag dabei in der Gewährleistung der Interoperabilität der einzelnen Komponenten, ohne dabei die zugrunde liegende Technik in den Vordergrund treten zu lassen. In die Praxis umgesetzte Anforderungen werden in dieser Arbeit bis auf die Ebene des Quellcodes dokumentiert und belegen somit die Machbarkeit.
In der vorliegenden Arbeit wird eine Methodik beschrieben, um den OBD-II Daten aus einem Fahrzeugsystem mithilfe eines embedded Device aufzuzeichnen. Dieser basiert auf der Verwendung eines Raspberry Pi 3B+ Modells in Verbindung mit einem am Fahrzeug angebrachten ELM327 Bluetooth Diagnosechip. Die aufgezeichneten OBD-II Daten werden zusammen mit den, über den GPS-HAT der Firma „Uputronics“ , aufgezeichneten GPS-Daten in jeweils eine eigene Logdatei abgespeichert. Aufgrund des frühen Entwicklungsstadiums kann ein lückenloses sowie fehlerfreies loggen der Daten nicht garantiert werden, jedoch werden noch andere Anwendungsfälle aufgezeigt.
In the practice of software engineering, project managers often face the problem of software project management.
It is related to resource constrained project scheduling
problem. In software project scheduling, main resources are considered to be the employees with some skill set and required amount of salary. The main purpose of software
project scheduling is to assign tasks of a project to the available employees such that the total cost and duration of the project are minimized, while keeping in check that
the constraints of software project scheduling are fulfilled. Software project scheduling (SPSP) has complex combined optimization issues and its search space increases exponentially when number of tasks and employees are increased, this makes software project scheduling problem (SPSP) a NP-Hard problem. The goal of software project scheduling problem is to minimize total cost and duration of project which makes it multi-objective problem. Many algorithms are proposed up till now that claim to give near optimal results for NP-Hard problems, but only few are there that gives feasible set of solutions for software project scheduling problem, but still we want to get more efficient algorithm to get feasible and efficient results.
Nowadays, most of the problems are being solved by using nature inspired algorithms because these algorithms provide the behavior of exploration and exploitation. For solving
software project scheduling (SPSP) some of these nature inspired algorithms have been used e.g. genetic algorithms, Ant Colony Optimization algorithm (ACO), Firefly etc.
Nature inspired algorithms like particle swarm optimization, genetic algorithms and Ant Colony Optimization algorithm provides more promising result than naive and greedy algorithms. However there is always a quest and room for more improvement. The main purpose of this research is to use bat algorithm to get efficient results and solutions for software project scheduling problem. In this work modified bat algorithm is implemented where a different approach of random walk is used. The contributions of this thesis are to: (1) To adapt and apply modified multi-objective bat algorithm for solving software project scheduling (SPSP) efficiently, (2) to adapt and apply other nature inspired algorithms like genetic algorithms for solving software project scheduling (SPSP) and (3) to compare and analyze the results obtained by applied nature inspired algorithms and provide the conclusion.
Es wurden laborbezogene Referenzbereiche für 25-Hydroxyvitamin D für Kinder und Jugendliche sowie Erwachsene erstellt. Für Erwachsene wurden zusätzlich laborbezogene Referenzbereiche mit Berücksichtigung der Jahreszeiten ermittelt. Des Weiteren wurde je 50 Patienten mit toxischen 25-Hydroxyvitamin D-Konzentrationen sowie 50 Patienten mit einem manifestierten Mangel analysiert.
In dieser Arbeit wird die Entwicklung einer Anwendung für das mobile Betriebssystem Android beschrieben, welche zwei Verfahren für die Berechnung der Entfernung zu einem kreisförmigen Marker implementiert. Hierfür werden Kernbestandteile der Auswertung von Kameradaten auf der Android-Plattform mit der OpenCV-Bibliothek erläutert und deren Einsatz in der Anwendung dargestellt. Die beiden Verfahren werden hinsichtlich ihrer Genauigkeit und Anwendbarkeit auf die mobile Plattform verglichen und ausgewertet.
Im Rahmen dieses Bachelor-Projektes soll ein Live-System zur sicheren Erstellung von Cold Storage Wallets entwickelt werden. Hierfür wird zunächst der Prozess mit bisherigen Mitteln umfassend analysiert. Ausgehend davon, werden Anforderungen für eine Lösung im Hinblick auf Sicherheit, Benutzerfreundlichkeit und Erweiterungsmöglichkeiten ausgearbeitet. Die Anforderungen umfassen sowohl die technischen Eigenschaften des Betriebssystems, als auch die Software, die mit dem Live-System ausgeliefert werden soll. Diese muss quell-offene Werkzeuge zur sicheren Generierung der kryptografischen Schlüssel für gängige Kryptowährungen beinhalten. Die Auswahl soll durch eine Überprüfung der verfügbaren Werkzeuge erfolgen. Auf der Basis dieser Anforderungen wird ein entsprechendes Live-System entwickelt. Abschließend werden eventuelle Probleme und Verbesserungsmöglichkeiten dargestellt.
In the following study the properties of the superabsorbent polymer Broadleaf P4 were investigated according to the aim to apply that polymer within constructed wetlands. The application of the polymer in constructed wetlands shall result in an improvement of the removal of pesticides. For that the polymer was given into lab-scale wetlands together with pumice and were compared to a control wetland, which was filled with gravel. The wetlands were running for several weeks in which the nutrient removal was recorded. The polymer was also tested according to its property to adsorb the pesticides before adding the pesticides to the wetland beds.
Die vorliegende Bachelorarbeit befasst sich mit den Datenbanken, die durch verschiedene Applikationen einzelnen Hersteller von Fitness-Trackern auf dem Mobiltelefon gespeichert werden.
Das Ziel dieser Arbeit besteht darin, den Speicherort der Datenbanken im Mobiltelefon zu lokalisieren und diese anschließend auszuwerten. Die Auswertung erstreckt sich auf die Erforschung des Aufbaus der einzelnen Datenbanken und das Verstehen eventueller angewandter Verschlüsselungsmethoden. Es werden Grundlagen forensischer Arbeitsweisen skizziert und anhand dieser verschiedene Datenbanken von drei Applikationen auf einem Mobiltelefon untersucht. Zum Abschluss dieser Arbeit werden die Erkenntnisse dargelegt, welche aus den Daten gewonnen wurden und diese in den Kontext einer forensischen Sonderuntersuchung gesetzt.
Many companies use machine learning techniques to support decision-making and automate business processes by learning from the data that they have. In this thesis we investigate the theory behind the most widely used in practice machine learning algorithms for solving classification and regression problems.
In particular, the following algorithms were chosen for the classification problem: Logistic Regression, Decision Trees, Random Forest, Support Vector Machine (SVM), Learning Vector Quantization (LVQ). As for the regression problem, Decision Trees, Random Forest and Gradient Boosted Tree were used. We then apply those algorithms to real company data and compare their performances and results.
In der Strafverfolgung werden viele verschiedene Tools zur Extraktion und Auswertung von Informationen aus Asservaten angewendet. Trotzdem kann es durch den technischen Fortschritt immer wieder vorkommen, dass es kein Auswertetool für ein neues Dateiformat oder eine neue Version einer beliebigen Software gibt. Ein solcher Fall tritt bei der neusten Version von „Skype for Desktop“ auf, welche erstmals eine LevelDB-Datenbank zur Sicherung der Nutzerdaten verwendet. Um diese analysieren zu können, wird in der vorliegenden Arbeit der Aufbau der von dieser Software angelegten LevelDB Datenbankdateien und die Struktur der zugehörigen Key-Value Paare analysiert. Darauf aufbauend, wird die Entwicklung einer Software für die Auswertung solcher LevelDB Datenbankdateien beschrieben. Diese Software soll Informationen zu Nachrichten, Anrufen, Gruppen und Kontakten aus der vorliegenden „Skype for Desktop“-Datenbank extrahieren und in einer SQLite Datenbank ablegen. Dieses Format erleichtert die Auswertung der Daten erheblich.
Das Ziel der vorliegenden Bachelorarbeit ist es, verschiedene Säuren auf ihre Phosphorrücklösewirkung bei Klärschlamm zu untersuchen. Als Untersuchungsobjekt dient chemisch phosphoreliminierter Klärschlamm aus dem Klärwerk Leipzig Rosental. Bei den Säuren handelte es sich um Schwefelsäure, Zitronensäure, Methansäure, Ethansäure und Kieselsäure. Die Ergebnisse dieser Arbeit können für die Verfahrensentwicklung von speziellen hydrothermalen Prozessen, in Kläranlagen oder sonstigen Verfahren zur Phosphorrückgewinnung verwendet werden.