Refine
Document Type
- Bachelor Thesis (88)
- Master's Thesis (37)
- Diploma Thesis (6)
Year of publication
- 2021 (131) (remove)
Keywords
- Maschinelles Lernen (9)
- Softwareentwicklung (9)
- Videospiel (9)
- Computerforensik (8)
- Computersicherheit (8)
- Blut (4)
- Datensicherung (4)
- Altersbestimmung (3)
- Android <Systemplattform> (3)
- Datenschutz (3)
- Deep learning (3)
- Digitalisierung (3)
- RNS (3)
- Virtuelle Realität (3)
- App <Programm> (2)
- Bildverarbeitung (2)
- Biomarker (2)
- CAN-Bus (2)
- CRISPR/Cas-Methode (2)
- Computerkriminalität (2)
- Computersimulation (2)
- Daktylogramm (2)
- Datenbanksystem (2)
- Deutschland (2)
- Forensik (2)
- Genetischer Fingerabdruck (2)
- Graphentheorie (2)
- Kollagen (2)
- Kriminalität (2)
- Mobiles Endgerät (2)
- Neuronales Netz (2)
- Programmierung (2)
- Rechtsmedizin (2)
- SARS-CoV-2 (2)
- Sequenzanalyse <Chemie> (2)
- Social Media (2)
- Stammzelle (2)
- Steuergerät (2)
- Tatrekonstruktion (2)
- Vektorquantisierung (2)
- Zelle (2)
- Abwasseraufbereitung (1)
- Active Directory (1)
- Algorithmus (1)
- Angriffsvektor (1)
- Anthropometrie (1)
- Antigenrezeptor (1)
- Antikörper (1)
- Anwendungssoftware (1)
- App Inventor (1)
- Arthrose (1)
- Authentifikation (1)
- Bewegungsapparat (1)
- Bildmaterial (1)
- Biogas (1)
- Biogastechnik (1)
- Biomasseproduktion (1)
- Biometrie (1)
- Blockchain (1)
- Blutuntersuchung (1)
- C <Programmiersprache> (1)
- COVID-19 (1)
- Cannabinoide (1)
- Cellulasen (1)
- Cloud Computing (1)
- Cluster <Datenanalyse> (1)
- Codierungstheorie (1)
- Computerlinguistik (1)
- Computertomografie (1)
- Container (1)
- Container <Informatik> (1)
- Cytologie (1)
- Cytotoxizität (1)
- DNA Barcoding (1)
- Daktyloskopie (1)
- Data Mining (1)
- Data-Warehouse-Konzept (1)
- Datenanalyse (1)
- Dimethoat (1)
- Diskrete Mathematik (1)
- Docker <Software> (1)
- Dreidimensionale Rekonstruktion (1)
- Dunkelziffer (1)
- E-Scooter (1)
- Eigendynamik (1)
- Eigenwertproblem (1)
- Elektrizitätserzeugung (1)
- Endokrin wirksamer Stoff (1)
- Erweiterte Realität <Informatik> (1)
- Erzähltechnik (1)
- Extraktion (1)
- Firewall (1)
- Firmware (1)
- Fitness (1)
- Fluoreszenz-Resonanz-Energie-Transfer (1)
- Fluoreszenzmarkierung (1)
- Flüssigkeit (1)
- Fortpflanzung (1)
- Fotogrammetrie (1)
- Futtermittel (1)
- Gamification (1)
- Gebäudeleittechnik (1)
- Gelatine (1)
- Gentechnologie (1)
- Gerichtliche Entomologie (1)
- Gerichtliche Wissenschaften (1)
- Geschäftsmodell (1)
- Graph (1)
- Großfamilie (1)
- Hassrede (1)
- Holografie (1)
- IP (1)
- Identität (1)
- Identitätsverwaltung (1)
- Immunohistologie (1)
- Immuntherapie (1)
- Implementation (1)
- Infrastruktur (1)
- Insektizid (1)
- Internet (1)
- Internet der Dinge (1)
- Internetkriminalität (1)
- Java <Programmiersprache> (1)
- Kinderpornografie (1)
- Kommunikation (1)
- Kommunikationsprotokoll (1)
- Kraftfahrzeugbau (1)
- Krebs <Medizin> (1)
- Kriminelle Vereinigung (1)
- Kriminologie (1)
- Kryptorchismus (1)
- Kunst (1)
- Künstliche Intelligenz (1)
- Legionella (1)
- Lernendes System (1)
- Lernsoftware (1)
- Linearer Code (1)
- Logdatei (1)
- Manipulation (1)
- Marketing (1)
- Massively Multiplayer Online Role-Playing Game (1)
- Medizin (1)
- Mehrprozessorsystem (1)
- Mensch (1)
- Metadaten (1)
- Mobilfunk (1)
- Molekularbiologie (1)
- Mundschleimhaut (1)
- Nanopartikel (1)
- Naturstein (1)
- Netzwerktopologie (1)
- Nichtverbale Kommunikation (1)
- Nucleocapsid (1)
- Numerische Mathematik (1)
- Online-Spiel (1)
- Optische Spektroskopie (1)
- Organisiertes Verbrechen (1)
- Penetrationstest (1)
- Periphere Stammzellentransplantation (1)
- Politische Kommunikation (1)
- Priming (1)
- Produktion (1)
- Programm (1)
- Projektmanagement (1)
- Prostatakrebs (1)
- Proteasen (1)
- Pupillenreaktion (1)
- Puppet <Software> (1)
- Rauigkeit (1)
- Rechnernetz (1)
- Regenerative Medizin (1)
- Rekonstruktion (1)
- Routing (1)
- Rust <Programmiersprache> (1)
- Schimmelpilze (1)
- Schnittstelle (1)
- Schutzmaßnahme (1)
- Selbstwirksamkeit (1)
- Semantik (1)
- Serious game (1)
- Server (1)
- Simulation (1)
- Single-page-Webanwendung (1)
- Skelett (1)
- Smartphone (1)
- Smiley (1)
- Smoothed Particle Hydrodynamics (1)
- Software (1)
- Softwaretest (1)
- Soziales Netzwerk (1)
- Speicher <Informatik> (1)
- Spiel-Engine (1)
- Sprache (1)
- Sprachgebrauch (1)
- Spurenauswertung (1)
- Spurensicherung (1)
- Statistisches Modell (1)
- Strafverfolgung (1)
- Taphonomie (1)
- Tee (1)
- Textanalyse (1)
- Transkriptionsfaktor (1)
- Transplantation (1)
- Twitter <Softwareplattform> (1)
- Ultraviolettspektroskopie (1)
- Unternehmen (1)
- Vektor (1)
- Verdaulichkeit (1)
- Verwitterung (1)
- Video (1)
- Visuelle Wahrnehmung (1)
- WINDOWS <Programm> (1)
- Wahrnehmung (1)
- Wahrscheinlichkeitsrechnung (1)
- Whatsapp (1)
- Wiederkäuer (1)
- Zeitreihe (1)
- Zeitreihenanalyse (1)
- Zephyr <Programm> (1)
- Zufallsgraph (1)
Institute
- Angewandte Computer‐ und Biowissenschaften (131) (remove)
There are multiple ways to gain information about an individual and its health status, but an increasingly popular field in medicine has become the analysis of human breath, which carries a lot of information about metabolic processes within the individuals body. The information in exhaled breath consists of volatile (organic) compounds (VOCs). These VOCs are products of metabolic processes within the individuals body, thus might be an indicator for diseases disturbing those processes. The compounds are to be detected by mass-spectrometric (MS) or ion-mobility spectrometric (IMS) techniques, making the analysis of these compounds not only bounded to exhaled breath. The resulting data is spectral data, capturing concentrations of the VOCs indirectly through intensities. However, a number of about 3000 VOCs [1] could already be determined in human exhaled breath. The number of research paper about VOC-analysis and detection had risen nearly constantly over the last decade 1. Furthermore, the technique to identify VOCs could also be used to capture biomarker from alien species within the individuals body. Extracting VOCs from an individual can be done by non- or minimal invasive techniques. However, the manual identification of VOCs and biomarkers related to a certain disease or infection is not feasible due to the complexity of the sample and often unknown metabolic products, thus automized techniques are needed. [1–4] To establish breath analysis as a diagnosis tool, machine learning methodes could be used. Machine learning has become a popular and common technique when dealing with medical data, due to the rapid analysis. Taking this advantage, breath analysis using machine learning could become the model of choice for diagnosis, keeping in mind that conventional methodes are laboratory based and thus when trying detect bacterial infection need sometimes several days to identify the organism. [5]
The games industry has significantly grown over the last 30 years. Projects are getting bigger and more expensive, making it essential to plan, structure and track them more efficiently.
The growth of projects has increased the administrative workload for producers, project managers and leads, as they have to monitor and control the progress of the project in order to keep a permanent overview of the project. This is often accompanied by a lack of insight into the project and basic communication within the team. Therefore, the goal of this thesis is to enhance conventional project management methods with process structures that occur frequently in game development.
This thesis initially elaborates on what project management in the game industry actually is: Here, methods are considered, especially agile methods and progress tracking prac-tices, which were created for software development and have become a standard in game development. Subsequently, an example is used to demonstrate how process management can function within the development of video games. Based on this, the ideal is depicted, which is implemented and used in a tool at the German games studio KING Art GmbH. This ideal is compared with expert interviews in order to verify its gen-eral validity in the industry.
By integrating process structures, the administrative effort can be reduced, communica-tion within game development can be simplified, while the current project status can be permanently presented. This benefits both project management and leads, as well as the entire team. Further application tests of this theory would have to be organized to check scalability and to draw comparisons to other applications.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher unter den Betriebssystemen Microsoft Windows und Linux der Web Clients der Instant-Messengerdienste WhatsApp und Telegram aus forensischer Perspektive beleuchtet. Hierfür werden die technischen Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät im Internetcache enthaltene Artefakte digital forensisch analysiert und diskutiert. Die gewonnenen Erkenntnisse sollen zukünftige forensische Untersuchungen, bei denen Instant-Messengerdienste wie WhatsApp oder Telegram eine Rolle spielen, vereinfachen und die Interpretation der gefundenen Artefakte unterstützen.
Menschen hinterlassen bei jeder Berührung eines Gegenstandes Fingerabdrücke, durch die sie eindeutig identifiziert werden können, sofern die Qualität dieser aus-reichend ist. Geachtet wird dabei vor allem auf das Grundmuster und den Papillarleisten eines Fingerabdrucks, in denen sich individuell angeordnete Minuzien wiederfinden. Die Qualität dieser Spuren hängt nicht nur von der Person selbst ab, sondern wird u.a. auch durch äußere Gegebenheiten beeinflusst. In dieser Arbeit wird speziell auf den Einfluss filmischer Verunreinigungen auf daktyloskopischer Spuren eingegangen. Zum Einsatz kommen dabei sowohl feste, als auch flüssige Verunreinigungen, die für festgelegte Zeitintervalle auf die Fingerabdrücke einwirken. Die Qualität der verunreinigten Fingerspuren wird analysiert, im jeweiligen Kontext ausgewertet und kann dabei zukünftigen Arbeiten eine Grundlage bieten. Filmisch verunreinigte Fingerabdrücke können sich durchaus auch nach längerer Einwirkzeit sichern lassen, sofern die Sicherungsmethoden passend ausgewählt und angewendet werden.
Die Biometrie ist eine Methode für die Zugriffssicherung auf sensible Daten, welche sich seit dem letzten Jahrzehnt immer mehr durchgesetzt hat. Sie wird vor allem in dem Bereich mobiler Endgeräte verbreitet eingesetzt, da die Implementierung kostengünstig ist. Außerdem muss sich der Benutzer keine Zugangsdaten merken, um Zugriff zu erlangen. Mit dem zunehmenden Nutzen werden jedoch auch Ansätze evaluiert, um diese Sicherheitsbeschränkungen von biometrischen Systemen zu umgehen.
In dieser Arbeit werden Ansätze evaluiert, um Zugang zu gesicherten Daten für forensische Zwecke zu erhalten. Bei Straftaten ist es entscheidend, in kurzer Zeit an die benötigten Daten zu kommen. Mit einem Brute-Force-Angriff kann es jedoch mehrere Jahre dauern, Passwörter zu knacken. Daher kann die Biometrie eine schnellere Lösung sein, um mobile Geräte zu entsperren. Hier liegt der Fokus auf der Erstellung von Fingerabdruck-Artefakten, um sich Zugang zu verschaffen.
Um diese These zu überprüfen, werden Experimente mit verschiedenen Ansätzen durchgeführt, um gängige Typen von Fingerabdrucksensoren zu umgehen. Zu Beginn wurden 2D-Ansätze evaluiert. Hierbei werden Fingerabdrücke mit einem Laserdrucker auf verschiedenste Materialien gedruckt. Als nächstes werden 3D-Ansätze getestet, wozu ein SLA Drucker verwendet wird. Darüber hinaus sind Hilfsmittel evaluiert worden, um die Eigenschaften der Fingerabdruckartefakte zu verbessern, damit sie sich mehr wie ein menschlicher Finger verhalten.
Die Experimente zeigen, dass es möglich ist, Fingerabdrucksensoren mit Artefakten zu umgehen, um an gesicherte Daten zu gelangen. Optische Sensoren akzeptieren 2D gedruckte Fingerabdrücke. Im Gegensatz dazu benötigen kapazitive und ultraschallbasierte Sensoren andere Artefakte. Wir konnten die Sicherheitssperre mit 3D Fingerabdrücken überwinden. Darüber hinaus sind Hilfsmittel nützlich, wenn eine Lebenderkennung integriert ist.
Analyse dezentraler Identifikation mittels Sidetree-Protokolls, am Beispiel von Microsoft ION
(2021)
This master thesis deals with the field of decentralized identification, using the example of the Microsoft Identity Overlay Network (ION). In the introduction, basic terms such as identity and identification are described. A special emphasis is placed on the explaining of the principle of decentralized identifiers (DIDs) and the SSI concept. ION is an implementation of the Sidetree protocol and uses its core components. This is the reason why more details and special parts of Sidetree are described in the methods chapter. Afterwards the ION history and network topology is typify more in detail. An ION node will be installed and operated on top of the Bitcoin blockchain. The installation process and the problems that arise are recorded. Then the ION tools (a programming library and its values) will be explained and the example program code is shown. As a practical addition of the ION tools, a verifiable credential solution is scripted. This solution shows the creation of ION-DID and the signature options of these identifiers. In the results chapter the knowledge acquired via the decentralized identification is evaluated. A theoretical security analysis for ION is implemented. Furthermore, a list of the currently possible uses for the network is enumerated. A discussion is initiated that compares the advantages and disadvantages of ION. The thesis ends with a conclusion and an outlook for ION and decentralized identification.
Das Ziel dieser Arbeit ist die Untersuchung der in Blender vorhandenen Tools zur Erstellung einer Fallsimulation mit einfachen Objekten und Menschmodellen. Nach einem kurzen Überblick über die Theorie werden verschiedene Kräfte in mehreren Testreihen untersucht und schlussendlich kombiniert. Diese Testreihen werden mit dem Programm Blender durchgeführt. Zusätzlich wurde eine Anleitung zur Erstellung einer Ragdoll in Blender 2.8 an-gefertigt.
Das Testen von Software ist unabdingbar und wird nicht nur für Desktop Applikationen, sondern auch für Applikationen auf mobilen Geräten benötigt. Der Prozess des Testens ist aufwändig. Es gibt durch künstliche Intelligenz gestützte Lösungen, welche Systemtests zu großen Teilen eigenständig generieren und dem Entwickler das Testen erleichtern, zum Beispiel das AI4Test Projekt der Systems Multimedia Solutions GmbH.
Das Ziel dieser Bachelorarbeit besteht darin, das AI4Test Projekt zu analysieren und die bestehende Struktur so zu erweitern, dass iOS-Geräte neben Android und Desktop Geräten unterstützt werden. Dabei wird eine generalisierte Schnittstelle zur Interaktion mit Geräten geschaffen.
Das Ziel der Bachelorarbeit wird erreicht. Das AI4Test Projekt wird vorgestellt, die Schnittstelle generalisiert und die Plattform iOS wird prinzipiell unterstützt.
Das Ziel der vorliegenden Arbeit war es, den Deliktbereich Cybercrime auf Vorhersagbarkeit seiner Verbrechensrate zu testen. Diese Testung erfolgte, indem nach Trends und Gesetzmäßigkeiten innerhalb der bisherigen Geschehnisse des
Deliktbereichs gesucht wurde, wozu Daten der Polizeilichen Kriminalstatistik herangezogen wurden. Die Suche nach Trends und Gesetzmäßigkeiten erfolgte, indem versucht wurde, auf Basis eines Hidden-Markov-Modells diejenigen Parameter zu identifizieren, anhand derer sich die aussagekräftigsten Gesetzmäßigkeiten bilden ließen. Die Arbeit basiert auf PUX, eine vom Autor erstellte Webtechnologie-basierte Anwendung, mit der PKS-Daten gespeichert und mit Hilfe von Visualisierung und Simulation erforscht werden können.
Soziale Medien ermöglichen den öffentlichen Austausch von Nachrichten im digitalen Raum. Viele Personen missbrauchen diese Plattformen jedoch für die Verbreitung von Hass. Die Bestimmung und die Prävention derartiger Kommentare stellt eine große Herausforderung dar. In dieser Arbeit werden Möglichkeiten zur Bestimmung und Prognose von Toxizität als Kennzahl
für die sentimentale Ausdrucksform des Hasses aufgezeigt. Nach der begründeten Auswahl der Perspective API als Werkzeug zur Bestimmung von Toxizität werden mit diesem Werkzeug über 600.000 deutschsprachigen Twitter-Kommentare aus dem Frühjahr 2021 annotiert. Die Annotation bildet die Grundlage für die Untersuchung der Ausbreitung toxischer deutscher Sprache.
Mit Methoden der intelligenten Datenanalyse werden im Datensatz Einflussfaktoren ermittelt, die das Absetzen eines toxischen Kommentars begünstigen. Die gefundenen Einflussfaktoren werden final dazu verwendet, um die Toxizität von Antworten, ohne ein Wissen über deren Inhalt,
mit Hilfe künstlicher Intelligenz zu prognostizieren.
Das Thema Kinderpornographie ist schon lange immer wieder Fokus der Medien. Erst vor kurzem hat die deutsche Polizei ein internationales Netzwerk, welches Kinderpornographie verbreitete, aufgedeckt und vier Täter festgenommen. [27] Auch die polizeiliche Kriminalstatistik (PKS) verzeichnete im Jahr 2019 und 2020 einen massiven Anstieg des Besitzes, der Herstellung und der Verbreitung von Kinderpornographie. [3, 4] Diese Zustände und Entwicklungen sind erschreckend und zeigen die Relevanz der Arbeit in diesem Themengebiet. Daher befasst sich diese Bachelorarbeit mit der Entwicklung einer unterstützenden künstlichen Intelligenz (K.I.) für die Ermittlungen.
Die Datenschutzgrundverordnung hat in der Europäischen Union für ein einheitliches Datenschutzrecht gesorgt. Sie fordert unter anderem eine einfache und verständliche Sprache von Datenschutzerklärungen und benennt umfangreiche, inhaltliche Anforderungen. Im Praxisumfeld ist es aber immer noch nicht selbstverständlich, dass Datenschutzerklärungen sich an formalen und inhaltlichen Festlegungen der Datenschutzgrundverordnung und weiterer geltender deutscher Gesetze orientieren. Das in dieser Arbeit erstellte Python-Programm zur automatisierten Analyse von Datenschutzerklärungen kategorisiert Themenabschnitte mit Hilfe einer Stichwortsuche und prüft die Datenschutzerklärung anhand eines festgelegten Katalogs an Testkriterien. Abschließend wird eine Bewertung auf Basis der Form und des Inhalts vorgenommen.
Die vorliegende Arbeit untersucht die Erstellung prozeduraler Materialien in Hinblick auf die Verwitterung von Naturstein an einer Skulptur. Dazu werden die betrachteten Gesteinsarten zunächst hinsichtlich ihres Verwitterungsverhaltens untersucht. Beim Dokumentieren der Nachbildung der Materialien zeigt die Arbeit Vor- und Nachteile, sowie Grenzen der prozeduralen Methode auf. Betrachtet wird dabei auch die Realisierbarkeit der Parametrisierung. Weiterhin gibt die Arbeit einen Ausblick darauf, welche Vorgehensweise für welchen Anwendungsfall geeignet ist.
Diese Arbeit beschreibt eine Anwendung zur Extraktion und Verarbeitung von Ereignisprotokollen unter Microsoft Windows. Sie erfasst hierfür die Konzeption, den Aufbau sowie deren Funktionsweise und geht dabei auch auf die entwickelten Werkzeuge der Anwendung ein. Zielsetzung war die Bereitstellung wenig verbreiteter Werkzeuge für die Ereignisprotokollanalyse, wobei besonderes Augenmerk auf eine Nutzung im Kontext von Incident-Response-Fällen gelegt wurde.
Ziel dieser Arbeit ist die Entwicklung eines Modells, das über einen mehrstufigen Angriffsprozess das Passwort eines spezifischen Benutzers unabhängig von der Stärke des Passworts rekonstruiert. Der Fokus des Modells liegt auf dem benutzerspezifischen Angriff und dessen Präprozessor. Dieser soll unter Berücksichtigung der bisherigen Design- und Konstruktionsprinzipien des Benutzers sowie unter Einbeziehung seiner persönlichen Informationen die wahrscheinlichsten Passwort-Kandidaten generieren.
Das Ziel dieser Masterarbeit ist die Evaluierung des Realtime Multi-Person 2D Pose Estimation Frameworks OpenPose. Dazu wird die Forschungsfrage gestellt, bis zu welcher Pixelgröße ein Mensch allgemein von dem System mit einer Sicherheit von über 50% richtig detektiert und dargestellt wird. Um die Forschungsfrage zu beantworten ist eine Studie mit sieben Probanden durchgeführt wurden. Aus der Datenerhebung geht hervor, dass der gesuchte Confidence Value zwischen 110px und 150px Körpergröße in von Menschen digitalen Bildern erreicht wird.
Im Folgenden wird sich mit der Blutspurenmusteranalyse beschäftigt. Hierzu werden in der folgenden Arbeit drei Experimente vorgestellt bei denen verschiedene Arten von Blutspuren hergestellt werden und somit eine große Datenbank an fotographisch festgehaltenen Blutspuren erstellt wird. Diese Datenbank hilft dann den Prozess der Analyse von Blutspuren zu automatisieren. Die Bilder werden dazu benutzt ein neuronales Netz zu trainieren und anhand des Trainings wird evaluiert, wie präzise das Netz ist.
We investigate the folding and thermodynamic stability of a tertiary contact of baker's yeast ribosomal ribonucleic acid (rRNA), which is supposed to be essential for the maturation process of ribosomes in eukaryotes at lower temperatures1. Ribosomes are cellular machines essential for all living organisms. RNA is at the center of these machines and responsible for translation of genetic information into proteins2,3. Only recently, the rRNA tertiary contact of interest was discovered in Zurich by the research group of Vikram Govind Panse. Gerhardy et al.1 showed in vitro that within the 60s-preribosome under defined metal ion concentrations the tertiary contact become visible between a GAAA-tetraloop and a kissing loop motif. Our aim is now to understand this RNA structure, especially the formation of the rRNA tertiary contact, in terms of thermodynamics and kinetics at various experimental conditions, such as temperature and metal ion concentration of K(I), Na(I) and Mg(II). Therein, we use optical spectroscopy like UV/VIS spectroscopy and ensemble Förster or Fluorescence Resonance Energy Transfer (FRET) folding studies. Our findings will help to further characterize this newly discovered ribosomal RNA contact and to elucidate its function within the ribosomal maturation process.
Arthrose ist eine der häufigsten Gelenkkrankheiten, die im Alter auftritt. Es kommt dabei u.a. zu einer degenerativen Veränderung des Gelenkknorpels. Momentan existieren nur symptomatische Behandlungen. Ein neu erforschter regenerativer Therapieansatz ist die Injektion von „Nanofat“ in das arthrotische Gelenk. In dieser Arbeit wird Nanofat durch zwei verschiedene Aufreinigungesmethoden gewonnen: Variante eins mit der Tulipfilter und Variante zwei mit der Lipocube-Aufreinigung. Diese Arbeit vergleicht die Eigenschaften der adipösen Stammzellen miteinander, welche aus Variante eins und zwei gewonnen werden. Die adipösen Stammzellen werden dabei in Vitalität, Seneszenz, Apoptose, Proliferation, Migration, Genexpression und Lebende-Tote Zellen untersucht. Dabei hat sich gezeigt, dass es zwischen den beiden Aufreiningungsmethoden keine messbaren Unterschiede zwischen den adipösen Stammzellen gibt. Somit kann gesagt werden, dass die unterschiedlichen Aufarbeitungsmethoden die adipösen Stammzellen in der Weiterkultivierung nicht beeinflussen.
Seit einigen Jahren erzielt die CAR-T-Zell-Therapie beeindruckende Therapieerfolge. Trotzdem kommt es vor, dass Patienten auf die Behandlung kaum oder überhaupt nicht ansprechen. Aktuell ist jedoch noch nicht bekannt, von welchen Patientenmerkmalen eine erfolgreiche CAR-T-Zell-Therapie abhängig ist. Deshalb wird in dieser Arbeit mit Hilfe verschiedener Methoden untersucht, wie sich die CAR-T-Zellen eines Patienten gegenüber einer Zielzelllinie (Raji), die den Krebszellen im Patienten entspricht, verhalten. Darüber hinaus finden Untersuchungen in Vorbereitung auf Transkriptom-Analysen der CAR-T-Zellen statt. Hierbei soll der Aktivierunsgzustand des CARs nach einer Separation der CAR-T-Zellen von den Rajis über CAR-spezifische Nachweisreagenzien von Miltenyi bzw. ACRObiosystems und magnetische Beads überprüft werden.
In der vorliegenden Pilotstudie wurden Wangenschleimhautabstriche und Nagelproben von Patienten nach einer erfolgten hämatopoetischen Stammzelltransplantation auf einen gemischten Chimärismus untersucht. Dafür wurden STR- und SNP-Analysen mit den Referenzprobenmaterialien aus isolierter Stammzellspender- und Empfänger-DNA vor Transplantation und den nach Transplantation entnommenen Wangenschleimhautabstrichen und Nagelproben durchgeführt. Es wurden sieben Probanden untersucht, wovon sechs eine allogene Stammzelltransplantation erhalten haben und ein Proband eine autologe Stammzelltransplantation durchlaufen hatte. Bei allen Proben nach einer allogenen Stammzelltransplantation konnte im epidermalen Material anteilig das Mikrosatelliten- und SNP- Profil des Spenders in den DNA-Isolaten des Empfängers nachgewiesen werden. In den Wangenschleimhautabstrichen wurde stets eine gemischte Chimärismussituation festgestellt. Die Ergebnisse weisen einen detektierten Spenderanteil von 11 bis 39 % auf. In den Nagelproben konnte ein Anteil an Spender-DNA bis zu 44 % nachgewiesen werden. Die Analysen bestätigen die Existenz eines Spenderanteils in Nagelproben und Wangenepithel eines Stammzellempfängers nach allogener Transplantation. Weitere Studien sind notwendig, um zu untersuchen, welche Faktoren die Anzahl der vorhandenen Spenderzellen in dem epidermalen Gewebe bestimmen.
Spektakuläre Überfälle, Luxusimmobilien, Sportwagen, Gewalttaten und Tumulte im öffentlichen Raum und darüber hinaus die dreiste Beanspruchung von Sozialleistungen: Dies ist das Bild, dass die Medien von den Clans zeichnen. Das Thema Clankriminalität bestimmt seit wenigen Jahren den politischen als auch medialen Diskurs in Deutschland und dabei ist das Phänomen kein Neues, sondern besteht seit mehreren Jahrzehnten. Von Polizeibehörden wurde das Problem gesehen und behandelt, während man in der Politik aufgrund der Angst vor Rassismus-Vorwürfen das Thema lange Zeit nicht weiter antastete. Zwischen diesen Debatten über Rassismus und Political Correctness schafft die Kriminalität Fakten. Neben Gewalt, Drohungen und Betrugsmaschen, die das gesamte Bundesgebiet betreffen, wird in den Familien eine Paralleljustiz gelebt und die deutsche Rechtsordnung nicht anerkannt. Für Außenstehende ist das Clangefüge und deren Organisationsstrukturen sowie Lebensweise nur schwer nachzuvollziehen, daher bedarf es einer genaueren Untersuchung dieses Kriminalitätsphänomens, insbesondere im Hinblick auf die Migrations- und Integrationsgeschichte, der hier in der Rede stehenden Familien. Diese Arbeit versucht die Thematik sachlich und objektiv zu behandeln und zu erklären, wie Clankriminalität überhaupt erst entstehen konnte, welche Fehler in der Integrationspolitik in der Vergangenheit gemacht wurden und welche Ansätze zur Bekämpfung der Clankriminalität ihre Anwendung finden.
Die Strafverfolgungsbehörden verwenden zunehmend Mobilfunkdaten, um Tathergänge zu rekonstruieren und daraufhin Tatverdächtige überführen zu können. Die Mobilfunkdaten erhalten die Strafvervolgungsbehörden auf Anfrage und richterlichen Beschluss von den Telekommunikationsanbietern. Die Anfragen sind sowohl zeitlich als auch regional stark eingegrenzt. Trotzdem ist das Datenvolumen erheblich. Auf Grund des Datenvolumens und der Heterogenität der Datenformate zwischen den Mobilfunkanbietern, gestaltet sich die Auswertung der Daten sehr aufwändig. Diese Masterarbeit adressiert die genannten Aspekte mit einer auf die Mobilfunkdaten abgestimmten Datenintegrations- und -analyse-Pipeline. Die Pipeline überführt die Mobilfunkdaten in ein harmonisiertes Datenformat und reichert sie mit einer Annotation zur Bodennutzungsklassifizierung an. Letztere sind für die Datenanalyse relevant. Grundlegend greift die Pipeline auf eine Graphdatenbank zurück, in die die Daten eingefügt werden. Anhand der Anfragesprache Cypher können relevante Daten für diverse Auswertungsfragen selektiert und zur Verfügung gestellt werden. Diese Grundlage ermöglicht eine iterative Vorgehensweise bei der Datenauswertung, so dass aus Ergebnissen einer vorangegangenen Frage, neuen Auswertungszielen schnellstmöglichst begegnet werden kann. Die in der Arbeit gezeigten Auswertungen stehen beispielhaft für das große Spektrum an Auswertungsmöglichkeiten. Insbesondere wurden Personenkreise mit speziellen Bewegungsprofilen anhand der den Funkmasten zugeordneten Landnutzungsklassen ermittelt. Die in der Arbeit verwendeten Daten wurden mit diesem Ansatz um 99% reduziert. Damit können Analyst:innen sich auf die relevanten Aussagen konzentrieren. Zudem konnte eine Korrelation zwischen Mobilität und dem Nutzungsverhalten hergestellt werden. Jedoch zeigt sich auch, dass die hohe Variabilität und Individualität der Personen in einem zeitlich und regional eng begrenzten Datenraum, der Ermittlung von allgemeinen Bewegungsprofilen entgegensteht.
In der Bachelorarbeit wird der Zusammenhang zwischen der Verwendung von Kunst und der Videospielproduktion dargestellt. Als Ziel der Arbeit soll eine Aufschlüsselung der Kunstbereiche Concept Art und Illustration klarstellen, inwiefern eine Unterscheidung in der Industrie eine Rolle spielen. Mit der Untersuchung soll ein realistischer Eindruck über die Funktionsweise der Kunst in den beiden Bereichen analysiert werden. Das Ergebnis zeigt, dass die initiale Motivation zur Erstellung grundlegend verschieden ist und für den Entwickler das Maß für die Qualität der Werke ist.
In machine learning, Learning Vector Quantization (LVQ) is well known as supervised vector quantization. LVQ has been studied to generate optimal reference vectors because of its simple and fast learning algorithm [2]. In many tasks of classification, different variants are considered while training a model and a consideration of variants of large margin in LVQ helps to get significant
results [20]. Large margin LVQ (LMLVQ) is to maximize the distance between decision hyperplane and data points. In this thesis, a comparison of different variants of Generalized Learning Vector Quantization (GLVQ) and Large margin in LVQ is proposed along with visualization, implementation and experimental results.
Ziel dieser Arbeit ist es, Cyberangriffe auf die verschiedenen Differenzierungs- und Klassifizierungsmöglichkeiten zu untersuchen. Dabei wird sich besonders mit Täterschäften, Tätermotivation und der Vorgehensweise bei Angriffen beschäftigt. Anschließend werden zehn im Zeitraum 2016 bis 2020 vorgefallene Cyberangriffe voneinander differenziert und in die beschriebenen Klassifikationen eingeordnet.
Das Thema dieser Arbeit liegt im Schwerpunkt der perpetuierenden Corona-Pandemie und dem zukünftigen Internetnutzungsverhalten der Gesellschaft. Hier soll untersucht werden, wie sich das Internetnutzungsverhalten auf die Bevölkerung auswirkt, aufgrund des Wandels der Gesellschaft. Dabei wurden wissenschaftliche Fragestellungen formuliert und durch eine Literarturrecherche in Bezug gebracht.
Untersucht wurden die folgenden zugrundeliegenden Themenbereiche:
- Internetnutzungsverhalten der Gesellschaft,
- Veränderung des Internetnutzungsverhalten,
- Zukunftsaussichten der Gesellschaft zur digitalen Umgebung,
- Internetnutzung und Internetkriminalität,
- Altersstruktur von Internetkriminalität,
- Auswirkungen der Internetkriminalität,
- Berichte von Tätern und Opfern zur Internetkriminalität,
- Beratungsstellen für Opfer,
- Verhinderung der Internetkriminalität,
- Reduzierung der Internetkriminalität durch die Regierung und
- Maßnahmen der Regierung zur Internetkriminalität.
Diese Arbeit beschäftigt sich mit dem Erstellen semantischer Encodings von Bilddaten. Um diese Kodierungen aus den Daten zu extrahieren, wird ein künstliches neuronales Netzwerk auf
Videobild Interpolation trainiert. Die daraus erlernten Encodings sollen anschließend auf ihre Anwendbarkeit in einer anderen Aufgabe der KI gestützten Bildverarbeitung, der Extraktion von Landmarken auf Menschen, getestet werden.
The objective of this Bachelor Project is the creation of a tool that should support forensic investigators during IT forensic interventions. It uses Kismet as the base program and adds functionalities to it via the plugin interface. The installation of the plugin shall be explained, how the plugin works, and a recommendation on how to use it. To understand the underlying basics, an introduction about WLAN and Bluetooth is given. The tests that were performed with the new plugin are described as well as their results. It is therefore briefly discussed why the tool is applicable for locating Wi-Fi devices, especially access points, but not Bluetooth devices. Using all this a few ideas on how to improve the tool and what can be researched in this area are provided.
Diese Arbeit soll einen Leitfaden für die Spurensuche mit forensischen Lichtquellen darstellen. Den Ausgangspunkt bilden Blut, Sperma, Speichel und Urin sowie jeweils vier Vergleichssubstanzen, welche unter Tageslicht ähnlich aussehen und mithilfe der Spurensuchlampe ausgeschlossen werden sollen. Der Versuch wird mit verschiedenfarbigen saugenden sowie nicht saugenden Spurenträgern durchgeführt. Ebenfalls werden Fingerabdrücke nach chemischer Bedampfung auf mögliche verbesserte Sichtbarkeit in verschiedenen Lichtspektren untersucht. Ziel ist es, in Abhängigkeit der Spurenträgerfarbe und -beschaffenheit darzustellen, mit welchen Lichtspektren und Filtern welche Spuren wie aussehen. Dies soll neben der verbesserten Sichtbarkeit eine Unterscheidung zu den Vergleichssubstanzen und den Spuren untereinander ermöglichen. Durch den Ausschluss anderer Substanzen mithilfe forensischer Lichtquellen wird die Anzahl notwendiger chemischer Nachweistests reduziert. Eine Handlungsanleitung und die entstandenen Fotos als Referenz sollen den Einsatz von Spurensuchlampen sowohl am Tatort als auch im Labor erleichtern.
In this work, a protocol for portable nanopore sequencing of DNA from pollen collected from honey bees, bumble bees, and wild bees was developed. DNA metabarcoding is applied to identify genera within the mixed DNA samples. The DNA extraction and ITS and ITS2 PCR parameters tested for this purpose were applied to the collected pollen sample and the amplicons were then decoded using the Flongle sequencer adapter from Oxford Nanopore Technologies. It is shown that the main pollinator resources at the different sites can be identified in percentage proportions. The protocol generated in this study can be used for further ecological questions.
In meiner vorherigen Arbeit wurden mit Hilfe von Ansätzen in der Deterministik und Probabilistik nach den Regelwerken [DIN12010] und [DIN22010] Gegenmaßnamen aufgezeigt, was beim heutigen Komponentenausfall in Kraftwerken dazu führt, diese schnellstmöglich zu beheben. Wie dort beschrieben, hat seit den siebziger Jahren die exponierte Computertechnologie sowie der anzuwendenden Wechselwirkung mit der Prozessleittechnik und deren Simulation wie in meiner Projektarbeit diskutiert wird, eingesetzt. In dieser Arbeit wird das Regelwerk [DIN32010] erörtert. Es wird eine partielle Softwareentwicklung im eingebetteten System in den Programmiersprachen ‘C‘ bzw. ‘C++‘ gestellt, welche anhand der ‘Funktionalen Sicherheit‘ über die Bussysteme in der Sicherheitstechnik darstellt werden. Die einzelnen Kapitel werden in Anforderungen von Werkzeugen, Anforderung an die Softwaresicherheit, Anforderung aus der Hardware, Planung der Validation, Planung der Softwarearchitektur, Planung der Softwarekapselung, Planung von Systemdesign, Planung von Moduldesign, Planung von Hardware zu Software, Softwareintegration, Softwarevalidation und Softwaremodifikation diskutiert.
Diese Arbeit beschreibt das methodische Vorgehen bei einem Penetrationstest. Am praktischen Beispiel einer Unified Communication Infrastruktur, mit Komponenten des Herstellers innovaphone und Linphone, wird eine Sicherheitsanalyse demonstriert. Dabei wird die Konzeption und Durchführung, sowie der Umgang mit identifizierten Schwachstellen betrachtet. Insbesondere werden Techniken zum Ausnutzen von Voice-over-IP Schwachstellen gezeigt, der technische Hintergrund erläutert und Gegenmaßnahmen vorgestellt. Abschließend folgt eine Diskussion über eine mögliche Gestaltung einer sicheren Unified Communications Infrastruktur.
Die A12 Businessanwendung der Firma mgm technology partners GmbH ist modellgetrieben. Damit die Architektur grafisch dargestellt werden kann, wird ein Layout-System benötigt, an das unterschiedliche Anforderungen gestellt werden. Sie umfassen unter anderem die Minimierungen der Knotenüberschneidungen, der Kantenüberschneidungen und der Biegungen der Kanten.
In der vorliegenden Arbeit werden bereits existierende Layout-Algorithmen betrachtet. Dabei wird besonders darauf geachtet, wie sich diese an die gestellten Anforderungen anpassen lassen. Es stellt sich heraus, dass die Layouts dazu jeweils unterschiedlich gut geeignet sind. Um eine Messbarkeit der Ästhetik zu ermöglichen, werden Metriken definiert.
Es werden zwei Layouts gewählt, welche zur Umsetzung aller Anforderungen besonders geeignet sind. Dabei handelt es sich um das Radial Baum Layout und das kraftgesteuerte Layout, das bereits ein gutes Layout darstellt. Es kann gezeigt werden, dass mithilfe von Anpassungen eine deutliche Verbesserung der Ästhetik von Layouts erreicht wird.
Als Ergebnis der Arbeit entsteht eine Implementierung des kraftgesteuerten Layouts, welche Knotenüberschneidungen fast vollständig eliminiert, ohne dabei andere Aspekte der Graphendarstellung zu stören.
Die vorliegende Arbeit befasst sich mit der dynamischen Speicherung und visuellen Darstellung von Metainformationen im Data Warehouse und Business Intelligence Umfeld. Ziel der Diplomarbeit ist es, eine Softwarelösung zu entwickeln, die es ermöglicht, Metainformationen dynamisch zu speichern und in Form von Graphen schnell und einfach zu visualisieren.
Im Data Warehouse und Business Intelligence Umfeld gibt es eine Vielzahl von Metainformationen, die in strukturierter Form (XML/CSV-Dateien, Datenbank-Tabellen usw.) vorliegt, aber über keine visuelle Darstellung verfügt. Auf Basis der geplanten visuellen Darstellung in Form von Graphen im Rahmen der Diplomarbeit kann die „Data-Lineage“ dargestellt werden und „Impact Analysen“ sind dadurch möglich.
Die Softwarelösung ermöglicht den Benutzern, mittels der graphischen Darstellung auf die benötigten Informationen zuzugreifen.
Seit nun mehr vielen Jahren ist der Einsatz von Software in allen Lebenslagen nicht mehr wegzudenken. Das Leben von fast allen Menschen wird täglich, bewusst oder unbewusst, von Software gesteuert, unterstützt oder beeinflusst. Da Softwareprodukte auch immer weitreichendere Eingriffe in persönliche Daten nehmen, sollte ein Hauptaugenmerk der Softwareentwicklung stets auf Sicherheit und Datenschutz gelegt werden. Umso wichtiger ist es daher, dass nicht nur Sicherheitsuntersuchungen durchgeführt werden, sondern dass diese auch möglichst umfassend und strukturiert realisiert werden.
Die vorliegende Arbeit beschäftigt sich daher mit der Entwicklung einer Methodik zur schrittweisen Überführung eines abstrakten Architekturmodells, wie beispielsweise einem Datenflussdiagramm, hin zu einem möglichst vollständigen Testplan zur Durchführung reproduzierbarer Penetrationstests, unter Einsatz von Hilfsmodellen zur Gefahrenklassifizierung. Hierbei sollen Konzepte, wie Threat-Modeling auf Basis des STRIDE-Modells und Finden von Sicherheitslücken mithilfe der Common Vulnerability and Exposures-Datenbank zum Einsatz kommen.
BGP und OSPF sind zwei am häufigsten verwendete Routingprotokolle des Internets. Beide Protokolle sind in ihrem grundlegenden Aufbau über 20 Jahre alt. Da das Internet die Basis unseres Informationsaustausches ist und die Basis des Internets das Routing ist, sollten die verantwortlichen Routingprotokolle entsprechend sicher sein. Durch eine Sicherheitsanalyse der standardisierten RFCs soll eine grundlegende Einschätzung der beiden Protokolle vorgenommen werden. Dazu werden Aufbau, Funktionsweise, Schwachstellen und eine Auswahl möglicher Angriffe auf das jeweilige Protokoll näher erläutert. Sicherheitsmechanismen und ihr Nutzen in Bezug auf die Absicherung und Abwehr von Angriffen werden bewertet.
Diese Arbeit beschäftigt sich damit, verschiedene Methoden des maschinellen Lernens zu testen und mit der Frage, ob es damit möglich ist, auffällige Anmeldungen zu erkennen. Es ist von Interesse, spezielle abnormale Anmeldemuster zu erkennen, welche im Kontext eines Angriffes genutzt werden. Diese können anschließend verwendet werden, um Angreifer bzw. kompromittierte Nutzer aus einem Netzwerk zu identifizieren. Die Schwierigkeit, dementsprechende auffällige Anmeldungen zu erkennen, steigt dabei mit zunehmender Anzahl an Angriffen. Des Weiteren beeinflusst die Vielfalt in den Verhaltensweisen die Erkennung. Demzufolge werden verschiedene Methoden getestet, mehrere Szenarien simuliert und anschließend werden anhand eines echten Testfalls die Methoden bzw. das Verfahren validiert. Als Endergebnis der Arbeit entstehen eine Software und ein Verfahren zur Erkennung von auffälligen Anmeldungen.
Die Arbeit behandelt das Zephyr Echtzeitbetriebssystem. Im Rahmen der Arbeit wird besprochen wie ein System-on-a-Module (SoM) in Zephyr umgesetzt werden kann, und welche Optionen das Konfigurationssystem bietet um die Zephyrapplikation an Hardware- und Systemänderungen anzupassen ohne den Quellcode für den jeweiligen Build verändern zu müssen. Dafür wurde eine Beispielapplikation auf Basis des i.MX RT1170 Prozessors von NXP erstellt. Dieser Chip soll beim Projektpartner in Zukunft die Grundlage für ein System-on-a-Module bilden, welches in die Grundplatinen der verschiedenen Geräte eingesetzt wird. Zum Schluss der Arbeit wird außerdem besprochen wie ein Bootloader verwendet werden kann um Updates in ein laufendes System einzuspielen.
In dieser Arbeit wird ein Versuch zur Erfassung der Aufmerksamkeit und des Gedächtnisses im Zusammenhang mit traditioneller Kunst durchgeführt. Anhand digital veränderter Werke soll erforscht werden, ob Probanden etwaige Modifikationen an bekannten Gemälden wahrnehmen. Anhand wissenschaftlicher Daten werden die per Umfrage erhaltenen Ergebnisse analysiert und ausgewertet.
Empirischer Vergleich der Realitätsnähe verschiedener Algorithmen zur Simulation von Flüssigkeiten
(2021)
In dieser Bachelorarbeit werden die beiden FluidSimulation Solver SPH (Smoothed Particle Hydrodynamics) und PBD (Position Based Dynamics) unter dem Aspekt des Realismus miteinander verglichen. Im ersten Teil werden die theoretischen Grundlagen vermittelt, die für das Verhalten von Wasser verantwortlich sind. Dadurch wird dann eine Liste mit Kriterien erstellt, um die einzelnen Versuche zu bewerten. Schließlich werden sechs Versuche durchgeführt, welche durch jene Liste bewertet werden. Schlussendlich werden diese Ergebnisse zusammengefasst, und der Schluss gezogen, dass SPH mehr für eine realistische Wassersimulation geeignet ist.
Aufbauend auf der CRISPR-FISH Methode, welche basierend auf dem CRISPRCas9-System die Detektion spezifischer DNA-Sequenzen mittels Fluoreszenzmikroskopie ermöglicht, wird in dieser Arbeit versucht, eine weiterführende Methode zu entwickeln, um die Detektion spezifischer DNA-Sequenzen mithilfe eines Transmissionselektronenmikroskops und somit eine höhere Auflösung zu erreichen.
Entwicklung einer Methode zur Empfehlung von Suchbegriffen
und -phrasen im forensischen Kontext
(2021)
Diese Arbeit befasst sich mit der Entwicklung einer Methode zur Empfehlung von Suchbegriffen und -phrasen im forensischen Kontext. In der forensischen Fallarbeit stellen Kurznachrichten auf mobilen Endgeräten eine zentrale Beweisquelle dar. Häufig sind Ermittler hierbei mit umfangreichen Chatverläufen konfrontiert. Das Ziel besteht darin, den Ermittler bestmöglich bei der Arbeit mit der enormen Datenmenge zu unterstützen, indem ihm die relevantesten Begriffe des Datensatzes vorgeschlagen werden. Hierfür wurden unter anderem Algorithmen der Keyword Extraction, der explorativen Datenanalyse sowie des Word Association Minings untersucht. Als erfolgversprechendste Ansätze erwiesen sich das Topic Modeling mit einer Term-Kookkurrenzmatrix als Eingabe, die Vorhersage von thematisch ähnlichen Begriffen mittels der Latent Dirichlet Allocation sowie die Analyse von paradigmatischen Relationen.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer Testumgebung für das Fuzzing eines HTTP-Relay einer Firewall. Das Hauptziel ist aber die Entwicklung der sich in der Testumgebung befindenden Testcases, welche die Firewall durch Fuzzing prüfen. Dieser Vorgang soll als Black-box Testing Ansatz konzipiert werden und das Fuzzing der Firewall über das Netzwerk berücksichtigen. Dafür soll ein bereits existierender Fuzzer verwendet werden, welcher als Framework von den Testcases verwendet und instrumentiert wird. Zusätzlich soll während der Durchführung Logfiles verfasst und anschließend ausgewertet werden, um Aufschluss über die Ergebnisse zu erhalten.
In der vorliegenden Bachelorarbeit wird anhand von den Vorgaben und veröffentlichen Dokumentationen des BSI eine Schablone für universitäre Einrichtungen erarbeitet, die als Musterlösung für die Implementierung des IT-Grundschutzes an einer Universität dienen soll. Als Beispiel wird dabei die Hochschule Mittweida und ihre infrastrukturellen und organisatorischen Gegebenheiten herangezogen. Diese konkreten Gegebenheiten sollen und müssen bei der Umsetzung des IT-Grundschutz-Profils an die Rahmenbedingungen der jeweiligen umsetzenden Institution angepasst werden. Es werden die einzelnen Schritte der Standard-Absicherung nach IT-Grundschutz durchgeführt und erläutert. Damit soll ein Schutzniveau gewährleistet werden, das dem normalen Schutzbedarf entspricht. Für Zielobjekte mit erhöhtem Schutzbedarf wird zusätzlich eine Risikoanalyse benötigt, die in der vorliegenden Arbeit ebenfalls beispielhaft dargestellt wird.
Diese Arbeit befasst sich mit der Erstellung einer Vorgehensweise für das Durchführen von Sicherheitstests von Cloud-Infrastrukturen des Typs Microsoft Azure. Dafür werden anfangs der grundlegende Aufbau und die technische Realisierung der genannten Infrastruktur erarbeitet. Dies beinhaltet eine Feststellung der potenziellen Angriffsfläche nach außen. Ebenso geschieht eine Erfassung und Kontextualisierung des bereits bestehenden Wissens in Bezug auf Sicherheitstests von Azure-Cloud-Umgebungen. Im Detail umfasst dies die Generierung einer Übersicht über anerkannte und erprobte Vorgehensweisen, Best Practices, verfügbare und zu verwendende Tools sowie häufige Sicherheitslücken in Azure Umgebungen. Darüber hinaus müssen offenkundige Grenzen innerhalb bestehender gesetzlicher Regularien sowie technischer Implementierungen für die Erstellung des Konzepts erfasst werden. Im Anschluss werden die erlangten Informationen genutzt, um vereinheitlicht eine Guideline zu entwerfen, nach welchem ein strukturierter Sicherheitstest einer Azure-Cloud-Infrastruktur durchgeführt werden kann. Letztendlich erfolgt eine vergleichende Diskussion der vorliegenden Feststellungen mit bestehenden anderen Vorgehensweisen, um diese Arbeit einzuordnen.
Die vorliegende Arbeit befasst mit der Entwicklung eines Prüfstandes zur Absicherung einer Softwarefunktion. Dabei wird die Umgebung, der Hochintegrationsrechner in der Fahrzeugentwicklung, sowie verschiedene Prüfstandskonzepte betrachtet. Die Anforderung und Testspezifikationen werden analysiert und teilweise revidiert. Als Lösung wird eine drei Teilige dargestellt: Testwürfel, G-HiL und Sys-HiL. Diese Synergie liefert zu jedem Verbundreleases einen SmokeTest und kann zu den Gesamtintegrationstest einen Volltest durchführen.
Ziel dieser Arbeit ist es, Konzepte zur Steigerung der intrinsischen Motivation innerhalb der Lernsimulation Finanzmars zu erstellen und zu untersuchen. Zur Erstellung dieser Konzepte sollen potentiell motivationsfördernde Elemente aus dem Bereich der Gamification sowie aus E-Commerce-Geschäftsmodellen kombiniert und verwendet werden. Dabei sollen zwei Belohnungssysteme entwickelt werden, bestehend aus einerseits klassischen Belohnungen digitaler Spiele sowie andererseits aus Belohnungen mit zufälliger Gewinnausschüttung, sogenannten Lootboxen. Als Forschungsobjekt dieser Arbeit wird die Lernsimulation Finanzmars verwendet, in welche die zu erstellenden Konzepte integriert werden. Diese werden sodann in einer anschließenden Evaluation auf potentielle Motivationssteigerungen untersucht. Diesbezüglich gilt es, für jedes zu untersuchende Konzept eine eigene Spielversion von Finanzmars zu entwickeln. Eine Probandengruppe soll während der Evaluation diese Spielversionen testen, sodass ihre Spielerdaten entsprechend untersucht werden können. Um Abseits der Spielerdaten auch die Probandenmeinungen hinsichtlich ihrer Motivation evaluieren zu können, gilt es, darauffolgende Fragebögen zu konzipieren und diese von Probanden bearbeitet werden zu lassen.
Erhöhung stickstoffreicher Substratanteile bei der Vergärung landwirtschaftlicher Biogassubstrate
(2021)
In der vorliegenden Arbeit sollte die Erhöhung von stickstoffreichen Substratanteilen bei der Vergärung landwirtschaftlicher Biogassubstrate untersucht werden. Der Abbau von Stickstoff während der anaeroben Vergärung führt zu der Bildung von Ammoniumstickstoff bzw. Ammoniak. Dieser kann die Methanproduktion hemmen und den Biogasprozess instabilisieren. Für den Versuch dienten drei Biogasanlagen alsFallbeispiele und wurden in den Labormaßstab als Reaktor A, B und C übertragen. Anschließend wurde der Anteil an Maissilage im Substratinput der Reaktoren reduziert und durch Wirtschaftsdünger ersetzt. Bei Reaktor A konnte der Anteil an Maissilage am Gesamtsubstrat um 6% reduziert werden. Dies hatte einen Rückgang von 2% in der spezifischen Methangproduktion zur Folge. Bei Reaktor B wurde der Anteil an Maissilage um 10% reduziert, was mit einer Verminderung von 18% in der spezifischen Methanproduktion einherging. Bei Reaktor C konnte der Maissilageanteil um 12% reduziert werden. Die spezifische Methanproduktion ging dabei um 13% zurück. In einer weiteren Versuchsphase sollte bei Reaktor B durch eine Steigerung der Raumbelastung die Methanproduktion wieder gesteigert werden. Erste Ergebnisse zeigen einen leichten Anstieg in der Methanproduktion. Bei Reaktor C sollte durch den Einsatz von stickstoffreduziertem Rezirkulat die Methanproduktion und Prozessstabilität verbessert werden. Erste Ergebnisse deuten auf einen Erfolg dieser Maßnahme hin.
Das Bundesamt für Umwelt definiert Endokrine Disruptoren als ,,Chemikalien oder Mischungen von Chemikalien, die die natürliche biochemische Wirkweise von Hormonen stören und dadurch schädliche Effekte (…) hervorrufen.‘‘ [Umweltbundesamt, 2020]. Zum Schutz von Mensch und Natur ist eine effektive Eliminierung von diesen Substanzen notwendig, was jedoch eine sensitive Detektion voraussetzt. Mit Hilfe von Reporter-Gen-Assays wie z.B. dem A-YES lassen sich estrogenwirksame Substanzen in Wasser nachweisen. Im Zuge der kontinuierlichen Optimierung der Hefezell-Assays der new_diagnostics GmbH sollte in dieser Arbeit durch Integration des alternativen Reporterenzyms Meerrettichperoxidase (HRP) in Hefebiosensoren die Möglichkeit geprüft werden, inwieweit eine Verbesserung der Testsensitivität und/oder die Vereinfachung von Verfahrensabläufen möglich ist. Nach Aufbau dafür notwendiger Hrp-Kassetten bzw. Plasmide konnte gezeigt werden, dass diese erfolgreich in den Hefesystemen d.h. in A. adeninivorans und in S. cerevisiae integriert werden konnten. Für die Bewertung der Funktionalität von hefeproduzierter HRP wurde im Vorfeld eine Analytik etabliert, die die Detektion funktionaler HRP bis zu einer Konzentration von ca. ≥ 0,2 Units/ml ermöglichte.
Diese Arbeit befasst sich mit der Erstellung einer Schutzbedarfsanalyse am Universitäts Klinikum Carl Gustav Carus Dresden. Dabei wird die Vorgehensweise für die Standard Absicherung nach dem BSI-Standard 200-2 IT-Grundschutz Methodik, welche vom BSI empfohlen wird, der neu entwickelten Methode gegenüber gestellt.
In einer Welt, in welcher die Anzahl der mit digitalen Geräten ausgeübten Straf-taten die zuständigen Behörden zu überrollen scheint, ist es an der digitalen Forensik, neue Wege der Verbrechensbekämpfung zu beschreiten. Um eine Viel-zahl an digitalen Spuren auszuwerten, benötigt es außerdem spezialisierter Werkzeuge und Methodiken. Das in Korrelation mit dieser Arbeit entwickelte Programm verfolgt das Ziel, einen bisher manuellen Ablauf in der forensischen Software „X-Ways Forensics“ zu automatisieren und somit Aufwand und Komplexität zu reduzieren. Genauer versucht die sogenannte „X-Tension“, eine Datei vom Dateityp „.vmdk“ innerhalb eines Falles ausfindig zu machen, um diese anschließend als neues für sich stehendes Asservat auswerten zu können. Die Arbeit zeigt dabei die Arbeitsweise des Programmes sowie Chancen für die Zukunft auf.
Soziale Netzwerke spielen eine große Rolle für die digitale Kommunikation. Menschen tauschen sich aus und teilen Informationen. Die große Anzahl an Nachrichten, die täglich veröffentlicht werden, stellt Entwickler vor ein großes Problem: den Mangel an Kontrolle. Obwohl es Regeln gibt, halten sich viele Nutzer nicht daran. Diese Problematik erfordert ein verbessertes System, welches toxische Inhalte erkennt und klassifiziert. Ziel der Arbeit war es, verschiedene Methoden für maschinelles Lernen zu kombinieren. Weiterhin wurden die Fragen beantwortet, was Toxizität in Verbindung mit sozialen Medien bedeutet und ob
Toxizität in einem linearen Zusammenhang mit Hasssprache steht. Das bestmögliche Ergebnis der Klassifizierung ist ein micro F1-Wert von 0.76192.
In dieser Arbeit soll die Erweiterung eines bestehenden Spielprototypen durch visuell anreichernde Effekte vorgenommen und deren Auswirkung auf das Spielerlebnis untersucht werden. Dazu wird eine Testumgebung geschaffen, in der Tester mehrmals denselben Abschnitt in verschiedenen Intensitätsstufen der gestalteten Effekte durchspielen. Anschließend halten die Testpersonen ihre gesammelten Erfahrungen in ihrem jeweiligen Testdokument fest, welche schließlich ausgewertet werden, um die Auswirkung auf das Spielerlebnis qualifizieren zu können.
Diese Arbeit bildet einen Einstig in die Grundlagen der IT-Forensik und befasst sich mit der Evaluation der beiden Programme „X-Ways Forensics“ und „Magnet AXIOM“. Dabei werden die Stärken und Schwächen der beiden Tools aufgezeigt und Empfehlungen geben, für wen und für welchen Einsatz, welches Programm geeignet ist.
Evaluierung der Microsoft HoloLens für den Einsatz der KI-basierten forensischen Personenanalyse
(2021)
Diese Arbeit betrachtet verschiedene Methoden aus dem Machine-Learning, geht im genaueren auf Deep-Neural-Networks ein und versucht diese für die forensische Personenanlyse einzusetzen. Gestützt wurde sich auf auf das MediaPipe-Framework.
Die HoloLens 1 schränkte die Möglichkeiten darauf ein, Bildaufnahmen auf ihr zu tätigen und die Inferenz an einer externen Maschine auszuführen. Um die Möglichkeit der Inferenz auf AR-Geräten zu ermöglichen weiter zu untersuchen, wurden die aktuelle Forschung im Bereich von Edgie-AI betrachtet.
Die HoloLens 1 bietet keine Möglichkeit die Inferenz der aktuellen Frameworks auf dem Gerät durchzuführen. Es konnte eine Inferenz auf einer externen Maschine durchgeführt werden und an die HoloLens übertragen werden. Weiter wurde die aktuelle Forschung betrachtet, welche sich mit spezialisierten Hardware für die Inferenz von NN betrachtet.
Diese Diplomarbeit befasst sich mit der Evaluierung der Entwicklungsumgebung „MIT App Inventor 2“. Dazu wird eine Android-App, zur Visualisierung, Bewertung und Speicherung von Messwerten, welche von einem mobilen Sensorknoten eines Umgebungsscanner per Bluetooth Low Energy bereitgestellt werden, erstellt. Hauptziel ist die Bewertung von „MIT App Inventor 2“ im Hinblick auf die technischen Anforderungen und Installationsablauf der Entwicklungsumgebung, den Schwierigkeitsgrad des Entwicklungsprozesses der Android-App und das Änderungsmanagement bei Änderungen an der App. Außerdem wird die Funktionalität, mögliche Einschränkungen und der Ressourcenverbrauch der Entwicklungsumgebung bewertet.
Diese Arbeit befasst sich mit der Gestaltung und Kombination verschiedener Bildkompositionen und der Ermittlung von deren Einfluss auf die vom Betrachter wahrgenommene Bildstimmung. Dabei werden Environment Concept Artworks aus verschiedenen Bildelementen zusammengesetzt, welche bestimmte Auswirkungen auf die empfundene Stimmung haben sollen. Der Effekt der entwickelten Bilder auf die Stimmung eines Betrachters wurde durch eine Befragung von Testpersonen ermittelt. Die Ergebnisse der Umfrage lassen sich durch verschiedene Bildelemente klar begründen und bestätigen die der Arbeit zu Grunde liegende Forschungsfrage. Die in dieser Arbeit ermittelten Informationen, bieten einen guten Ausgangspunkt für die Entwicklung von 2D-Werken mit der klaren Absicht eine konkrete Bildstimmung auszulösen, und sind auch außerhalb des Anwendungsfalls Environment Concept Art nutzbar.
Extraktion und Aufreinigung verschiedener Kollagentypen und deren Fähigkeit der Selbstassemblierung
(2021)
Ziel der Masterarbeit ist es, Kollagen aus verschiedenen Gewebearten zu extrahieren und nach Selbstassemblierung hinsichtlich ihrer Morphologie zu untersuchen. Zusätzlich sollten einzelne Typen mit Hilfe chromatographischer Methoden isoliert werden. Dabei wird der Fokus auf die Typen Ⅰ, Ⅱ und Ⅲ gelegt. Dafür wird zunächst das kollagenhaltige Gewebe verdaut und im Anschluss das Kollagen via Salzfällung extrahiert. Es wird mit Hilfe von Assemblierungskurven und der Darstellung mit einem Rasterkraftmikroskop untersucht, wie sich dieses Kollagen unter verschiedenen Bedingungen selbstassembliert. Das gewonnene Kollagen soll außerdem mit einer Zonenpräzipitationschromatographie in einzelne Typen unterteilt werden. Zuletzt folgt eine Evaluierung der angewendeten Methoden.
Das Ziel der vorliegenden Bachelorarbeit ist es, digitale Spuren im Speicher eines elektrischen Tretrollers zu untersuchen. Der Roller stammt aus einem ehemaligen Verleihsystem und es existiert von Beginn dieser Arbeit an keine Kenntnis darüber, ob digitale Informationen auf dem Speicher zugänglich und überhaupt vorhanden sind. Es wird resultierend aus der vergangenen Nutzung des Rollers innerhalb des „Sharing-Angebotes“ davon aus gegangen, dass entsprechende Daten erzeugt worden sind. Dazu können Informationen zählen, die z.B. Aufschluss über die zurückgelegte Strecke geben. Es gilt herauszufinden, ob sich diese und auch andere Daten auf dem Speicher der „IoT-Elektronik“ des Rollers befinden. In Abhängigkeit des Resultates liegt der Fokus auf entsprechender Rekonstruktion dieser Daten. Soweit es machbar erscheint, obliegt ein weiterer Analyseaspekt der Firmware des E-Scooters, um das Zusammenspiel der lokalen Hardware-Komponenten und des entfernten „Backends“ nachvollziehen zu können. Der Roller wird für diese Bachelorarbeit physisch zerlegt und es kommen unterschiedliche, software-basierte Werkzeuge für die Analyse zum Einsatz.
In dieser Bachelorarbeit steht die Untersuchung eines IoT-Gerätes im Fokus. Das Smart Home Security Kit der Firma D-Link wird in allen Bestandteilen auf deren Funktionsweise getestet und analysiert. Das Vierkomponentensystem verfügt über eine Überwachungskamera, einen Fenster-/ Türsensor, einer Sirene
und einem Hub. Im Vordergrund der steht die Datensicherheit und die Zuverlässigkeit der Verwahrung von sensiblen Nutzerinformationen. Es findet die Untersuchung der Hard- und Software sowie der Cloud, App und Website statt. Übertragungsprotokolle und genutzte Sicherheitsstandards werden kritisch beleuchtet. Am Ende findet die Überprüfung der Hardware auf mögliche Manipulationen statt. Es soll ein Überblick über mögliche Vorangehensweisen und Tools gegeben werden, welche auf andere Systeme angewendet werden könnten.
Our current research aims to establish a complete ribonucleic acid (RNA) production line from plasmid design to purification of in vitro transcribed RNA and labeling of RNA. RNA is the central molecule within the central dogma of molecular biology and is involved in most essential processes within a cell[1]. In many cases, only compact three-dimensional structures of the respective RNA are able to fulfill their function. In this context, RNA tertiary contacts such as kissing loops and pseudoknots are essential to stabilize three-dimensional folding[2]. We will produce a tertiary contact consisting of a kissing loop and a GAAA tetraloop that occurs in eukaryotic ribosomal RNA[3,4]. The RNA sequence is integrated into a vector plasmid. Subsequently, the plasmid is amplified in E. coli. After following plasmid purification steps, the RNA sequence will be transcribed in vitro[5,6]. In order for the RNA be used for Förster resonance energy transfer (FRET) experiments at the single molecule level, fluorescent dyes must be coupled to the RNA molecule[7].
Die vorliegende Arbeit befasst sich der Erforschung des Gebietes Gamecrime. Es wird erläutert, was Gamecrime ist und inwiefern es rechtlich geregelt ist. Darüber hinaus wird diskutiert, an welchen Stellen die Gesetze aktuell an ihre Grenzen stoßen. Um Gamecrime zu verstehen, werden die Wirkungstheorien der Mediengewaltforschung dargestellt. Ferner wird noch über die Darstellung von Gamecrime in den Medien sowie über präventive Maßnahmen diskutiert.
Gamification mit Unterstützung von Augmented Reality und Navigation am Beispiel des Einzelhandels
(2021)
Gamification bezeichnet die Integrierung von spielebasierten Elementen in spielfernen Kontext und strebt an die Motivation des Users zu erhöhen und Verhaltensweisen zu beeinflussen. Diese Arbeit befasst sich mit dem Potenzial, dass Augmented Reality (AR) und Navigation für Gamification mit sich bringt. Dabei werden am Beispiel des Einzelhandels, sowohl in Anlehnung an bewährte Anwendungen, als auch durch die Ableitung belegter Grundlagen aus Games und Verhaltenspsychologie, Gamification-Elemente konzeptioniert. Mithilfe der Einbindung von AR und Navigation werden dabei neue Möglichkeiten eröffnet, Gamification-Elemente zu erweitern. Ein dazu implementierter Prototyp dient zur Veranschaulichung und als Proof of Concept.
In this work, a transgenic zebrafish line that expresses the fluorophore dsRed under the endogenous zebrafish cochlin promotor is supposed to be established, using the CRISPR/Cas9 system. dsRed was cloned into a pBluescript vector, followed by the cloning of the cochlin locus into this vector. This bait construct was then supposed to be micro injected into wild type AB zebrafish embryos. The micro injection of Cas9 mRNA, single guide RNA and a bait construct was practiced with the tyrosinase gene, which was disrupted using CRISPR/Cas9.
Cryptorchidism is the most common disorder of sex development in dogs. It describes a failure of one or both testes to descend into the scrotum in due time. It is a heritable multifactorial disease. In this work, selected dogs of a german sheep poodle breed were sequenced with nanopore sequencing and subsequently examined for genetic variations correlating with cryptorchidism. The relationships of the studied dogs were also analyzed and visually processed.
Der Videospielmarkt weltweit wächst immer weiter. Durch die hohe Nachfrage und das entsprechend große Angebot wird die Aufgabe des Marketings in der Videospielentwicklung immer wichtiger. Die meisten jungen Entwicklerstudios achten allerdings wenig auf das Marketing. Durch den übersättigten Markt sind gute Marketingmaßnahmen unverzichtbar für den Erfolg des Spiels geworden. Die vorliegende Arbeit zeigt auf, wie sich Maßnahmen mit dem Game Design verbinden lassen, um die erfolgreiche Vermarktung des Produkts zu gewährleisten. Diese Handlungsempfehlung wurde verfasst, um jungen Entwicklern eine Hilfestellung zu geben, wie sich das Marketing bereits während der Entwicklung in diesen Prozess integrieren lässt.
In vielen Fällen der Kriminalistik steht die Eingrenzung eines Verdächtigenkreises im Vordergrund. Doch zur Verfügung stehen oftmals nur Zeugenaussagen oder Videomaterial, mit denen ein Phantombild oder eine grobe Beschreibung des Verdächtigen erstellt werden kann. Um anhand von Video- oder Fotomaterial eine Person besser beschreiben zu können, ist es Ziel dieser Arbeit ein statistisches Modell zur Beschreibung von Korrelationen in anthropometrischen Maßen und Pose Estimations herzuleiten.
Bei einer ersten Untersuchung wird geprüft, ob es möglich ist, Individuen der Körperhöhe 175 cm und 185 cm anhand sonstiger anthropometrischer Maße zu unterscheiden. Die positiven Resultate werden genutzt, um Möglichkeiten zu finden, eine Trennung der beiden Körperhöhengruppen auch mittels Pose Estimations vorzunehmen. Dazu wird ein erstes Regressionsmodell aufgestellt. Außerdem werden andere Charakteristiken des menschlichen Körpers genauer betrachtet, weitere Körpergruppen definiert und jene versucht mittels Pose Estimations vorherzusagen. Dabei können jedoch keine qualitativen statistischen Modelle zur Beschreibung von Korrelationen in anthropometrischen Maßen und Pose Estimations hergeleitet werden. Aufgrund dessen wird die direkte Vergleichbarkeit zwischen anthropometrischen Maßen und definierten Strecken der Pose Estimations untersucht. Diese kann jedoch nicht bestätigt werden. Daher wird an der Einteilung in Körpergruppen festgehalten. Um jene besser vorhersagen zu können, werden für alle Individuen weitere Aufnahmen aus wohl definierten Perspektiven gefertigt und anschließend mittels OpenPose verarbeitet. Die resultierenden Pose Estimations werden genutzt um dreidimensionale Rigs zu erzeugen. Dadurch sollen mit einer frontalen Betrachtung einhergehende Fehlerquellen, wie Drehungen oder Beugungen einzelner Körperteile, eliminiert werden. Um zu prüfen, welche Verbesserungen die dreidimensionalen Rigs mit sich bringen, werden die Untersuchungen aus dem ersten Teil dieser Arbeit wiederholt. Dabei wird festgestellt, dass mit wenigen Ausnahmen alle Ergebnisse verbessert werden können. Jedoch bleibt die Qualität einiger statistischer Modelle bei den durchgeführten Kreuzvalidierungen zu optimieren.
RNA tertiary contact interactions between RNA tetraloops and their receptors stabilize the folding of ribosomal RNA and support the maturation of the ribosome. Here we use FRET assisted structure prediction to develop structural models of two ribosomal tertiary contacts, one consisting of a kissing loop and a GAAA tetraloop and one consisting of the tetraloop receptor (TLR) and a GAAA tetraloop. We build bound and unbound states of the ribosomal contacts de novo, label the RNA in silico and compute FRET histograms based on MD simulations and accessible contact volume (ACV) calculations. The predicted mean FRET efficiency from molecular dynamics (MD) simulations and ACV determination show agreement for the KL-TLGAAA construct. The KL construct revealed too high FRET efficiency and artificial dye behavior, which requires further investigation of the model. In the case of the TLR, the importance of the correct dye and construct parameters in the modeling was shown, which also leads to a renewed modeling. This hybrid approach of experiment and simulation will promote the elucidation of dynamic RNA tertiary contacts and accelerate the discovery of novel RNA interactions as potential future drug targets.
In dieser Arbeit wurde die Entwicklung eines neuen Extraktionsverfahrens für Cannabinoide in Aufgüssen von hanfhaltigen Teeerzeugnissen beschrieben. Es wurden Aufgüsse, welche ausschließlich durch den Zusatz von Wasser hergestellt wurden und Aufgüsse, welche durch den Zusatz von fetthaltigen Zutaten wie Sahne und Speiseöl hergestellt wurden, betrachtet. Des Weiteren wurde der Einfluss fetthaltiger Komponenten auf die in hanfhaltigen Tees enthaltenen Cannabinoide Δ9-Tetrahydrocannabinol und Δ9-Tetrahydrocannabinol-9 -Carbonsäure A untersucht.
Ein Maus-Infektionsmodell wurde genutzt um neutralisierende Antikörper gegen SARS-CoV-2 zu untersuchen. Nach Beendigung des Infektionsexperimentes wurden Lungen- und Gehirnpräparate fixiert und histologische Färbungen des SARS-CoV-2 Nukleokapsids und von Zellen der angeborenen Immunantwort vorgenommen. Der Nachweis von humanem ACE2 wurde untersucht und in Organhomogenaten bestätigt. Ein Bewertungsschema zur Validierung eingesetzter neutralisierender Antikörper wurde mit einer vergleichenden Hämatoxylin und Eosin Färbung erstellt und interpretiert.
Learning Vector Quantization ist ein Klassifikator, der in seiner Urform im euklidischen Raum lernt. Für Zeitreihendaten benötigt es ein gesondertes Distanzmaß, nicht nur wegen der Relation der Zeitpunkte untereinander, sondern auch wegen der unterschiedlichen Längen dieser Zeitreihendaten. Als solches Distanzmaß wird Dynamic Time Warping eingesetzt. Diese Arbeit untersucht die Implementierung und dessen Zeit- und Raumkomplexität.
Die vorliegende Arbeit beschäftigt sich mit den Fragen, welche Indikatoren für einer Kompromittierung (IoC) in Active Directory gefunden werden können, wo sich diese befinden und mit welchen Werkzeugen sie offline erfasst werden können. Das Ziel ist, diese Fragen mittels einer Übersicht über die Indikatoren einer Kompromittierung und einer Übersicht über relevante Dateien für eine forensische Untersuchung zu beantworten.
Für die Erstellung der Übersichten wurden Angriffsmethoden auf Active Directory nach relevanten Ereignissen analysiert. Diese Ereignisse wurden in einer Testumgebung nachgestellt und anschließend offline mit den recherchierten Werkzeugen analysiert.
Durch die Ergebnisse der Arbeit konnte gezeigt werden, welche IoCs in Active Directory grundsätzlich existieren können, wo sich diese befinden und mit welchen Werkzeugen die Indikatoren offline erhoben werden. Es wird ebenfalls ersichtlich, welche Indikatoren nicht erhoben werden können und warum dies so ist.
Der Grund für die eingeschränkte Offline-Erhebung von gewissen IoCs ist das Fehlen von Werkzeugen, die bestimmte Informationen aus der Datenbank offline extrahieren können.
Introducing natural adversarial observations to a Deep Reinforcement Learning agent for Atari Games
(2021)
Deep Learning methods are known to be vulnerable to adversarial attacks. Since Deep Reinforcement Learning agents are based on these methods, they are prone to tiny input data changes. Three methods for adversarial example generation will be introduced and applied to agents trained to play Atari games. The attacks target either single inputs or can be applied universally to all possible inputs of the agents. They were able to successfully shift the predictions towards a single action or to lower the agent’s confidence in certain actions, respectively. All proposed methods had a severe impact on the agent’s performance while producing invisible adversarial perturbations. Since natural-looking adversarial observations should be completely hidden from a human evaluator, the negative impact on the performance of the agents should additionally be undetectable. Several variants of the proposed methods were tested to fulfil all posed criteria. Overall, seven generated observations for two of three Atari games are classified as natural-looking adversarial observations.
Since its foundation as an application of algebra, coding theory is obtaining a day by day increasing importance. For instance, any communication system needs the concepts of coding theory to function efficiently. In this thesis, reader will find an introductory explanation to linear codes and binary hamming codes including some of the algebraic tools devised in their applications. All the described software applications are verified using SageMath 9.0 using Hochschule Mittweida’s JupyterHub.
A classical topic in the theory of random graphs is the probability of at least one isolated vertex in a given random graph. An isolated node has a huge impact on social networks which can be given by a random graph. We present a distribution on the number of isolated vertex using the probability generating function. We discuss the relationship between isolated edges and extended cut polynomials, extended matching polynomials using the principle of inclusion exclusion. We introduce an algorithm based on colored graphs for general graphs. We apply this to the components of a graph as well. Finally, we implement the idea on a special class of graphs like cycle, bipartite graph, path, and others. We discuss recursive procedure based on the analogous coloring rules for ladder and fan graphs.
Die vorliegende Arbeit beschäftigt sich mit der KI-gestützten Klassifikation von Flügelbildern verschiedener Spezies der Familie Calliphoridae, auch Schmeißfliege genannt. Hauptziel soll dabei die Klassifikation nach Gattung sowie nach Spezies sein. Außerdem soll eine automatische Landmarkendetektion auf Fliegenflügeln entwickelt werden und anschließend als Merkmalsextraktor für das Klassifikationsmodell dienen. Dabei werden unterschiedliche Methoden der Bildverarbeitung sowie des maschinellen Lernens angewandt, kombiniert und bezüglich der Ergebnisse analysiert und verglichen.
Einer der Leitsätze der Fitnesstrainingsmethode CrossFit ist prepare for the known & unknowable – bereite dich auf das Bekannte und das Unvorhersehbare vor. Dem Unvorhersehbaren sah sich die Welt ab 2020 in Form der Corona Krise gegenüberstehen und nahezu alle Branchen sollten erfahren, wie wichtig es ist, über die bestehende Geschäftstätigkeit hinaus zu denken. An diesem Weiter- und Umdenken hing für zahlreiche Unternehmen das eigene Überleben und es mussten Wege gefunden werden, um das eigene Angebot in den digitalen Raum zu transportieren. Ziel dieser Arbeit ist es, Wege zum Erschließen dieses Marktes aufzuzeigen – und das insbesondere für Firmen, deren Kernprodukt sonst typischerweise auf der persönlichen Anwesenheit und physischen Wirkung besteht. Für vier Vertreter der Fitnessbranche werden Möglichkeiten und Ansätze aufgezeigt, wie sich auch hier Produkte digital vermarkten lassen. Um diesem Ansatz evidenzbasiert zu begegnen, wurde eine Umfrage erstellt und unter CrossFit Geschäftsführern verteilt. Diese Umfrage ermittelt unter anderem die Schwere der Pandemieeinflüsse und den Willen der Betriebe, in die Digitalisierung und somit in die Ungewissheit zu investieren. Zum Zeitpunkt der Erstellung der Arbeit ist der Autor selbst seit 2,5 Jahren Geschäftsführer einer CrossFit Box in Gera und Teil eines im November 2020 gegründeten Interessenverbandes, der sich mit der Bereitstellung von digitalen Produkten an die Endkunden beschäftigt.
Das Ziel der Bachelorarbeit war es, die Implementation und Entwicklung eines FORMCYCLEPlugins aufzuzeigen und aufgrund dessen Informationen einen Leitfaden zu erstellen zur Entwicklung eines FORMCYCLE-Plugins. Dafür wurde eine Anforderungsanalyse mit anschließender Konzeptphase erarbeitet. Die Umsetzung der Implementation wurde anhand von Quellcode-Ausschnitten verdeutlicht und erklärt.
In der vorliegenden Bachelor-Thesis wird der Einsatz der Containerisierungssoftware Docker auf Arm-Einplatinencomputer anhand einer praktischen Beispielumgebung untersucht. Dabei werden individuelle und allgemeine Fragen über die Verwendung von Docker aufgeworfen und beantwortet. Es wird auf die Besonderheiten der Plattform sowie die Fallstricke bei der Verwendung von Docker eingegangen. Weiter wurde die Tauglichkeit ausgewählter externer Sensorik unter der Verwendung von Docker geprüft. Im Rahmen der Arbeit wurden Docker-Container konzipiert, um den Einsatz von Docker praktisch aufzuzeigen.
In dieser Bachelorarbeit wird die theoretische Planung einer digitalen Windows-Laborumgebung beschrieben, welche zur Untersuchung von Schadsoftware genutzt werden soll. Mithilfe von virtuellen Maschinen wird ein Modell eines Firmennetzwerkes konzipiert. Es wird sich unter anderem mit den Themen Virtualisierung, Microsoft Active Directory, Microsoft Exchange Server und Malwareanalyse befasst.
Diese Arbeit thematisiert die Konzeption und Durchführung einer Studie, welche die inner- und interpersonellen Koordinationsmuster in Videospielen mit multipler Eingabe anhand eines lokalen Softwareprototypen untersucht. Im Rahmen dieses Projekts dient ein konzipierter Softwareprototyp mit einem angepassten Gamedesign auf Koordinationsherausforderung als Prototyp für die Studie mit einer Einzelspielergruppe und einer Multiplayergruppe. Die Koordinationsmuster werden in einer Studie durch einen Fragebogen und einen Probandentest mit drei Durchläufen der Level des Softwareprototypen ermittelt und analysiert. Die Ergebnisse zeigen, dass die interpersonellen Koordinationsmuster der Multiplayer nach dem ersten Durchlauf den innerpersonellen Koordinationsmustern unterlegen sind. Die Kommunikation als interpersonelles Koordinationsmuster scheint eine verlangsamende Wirkung im ersten Durchlauf zu besitzen. Beide Gruppen weisen Vermeidungsstrategien und Vereinfachungsstrategien der koordinatorischen Herausforderungen auf. Hinsichtlich der gesammelten Erfahrungen bezüglich der koordinatorischen Aufgaben zeigt sich über die Durchläufe hinweg eine Verbesserung, insbesondere beim Zeitaspekt sowie eine Annäherung der Werte beider Gruppen aneinander.
In der vorliegenden Masterarbeit wird der, im Jahr 2018 im Application Center Microcontroller entwickelte, forensische Demonstrator für das Controller Area Network (CAN) analysiert und auf Basis dessen ein Redesign konzipiert, entwickelt und getestet. Gemäß der in dieser Arbeit vermittelten Grundlagen zu aktuellen Bussystemen der Automobilindustrie und ihrer Datenübertragung, werden entsprechende CAN-Nachrichten implementiert und auf den CAN-Bus gesandt. Die Auswertung dieser Botschaften erfolgt durch die CAN-Analysesoftware BUSMASTER. Eine entsprechende Visualisierung der Daten wird durch die, für den BUSMASTER entwickelte, grafische Oberfläche realisiert.
In dieser Arbeit geht es um die Konzeption und Implementierung eines Softwaretools für die Annotation von Spielpartieabläufen selektierter Automatic Battle- Spiele. Es werden drei Spiele dieser Art, auch als Vertreter des Auto-Battler-Genres klassizierbar, auf Gemeinsamkeiten und Unterschiede untersucht und im Anschluss ein Konzept für ein allgemein anwendbares Annotationstool erstellt. Anschließend erfolgt eine Implementierung für jenes Tool und ein Vergleich zum Annotationsprozess, bei welchem keine Unterstützung durch ein dafür entwickeltes Softwaretool erfolgt. Es konnten Erkenntnisse gewonnen werden zur potenziellen Verbesserung der Annotation von Automatic Battle-Spielen durch Verwendung einer Software, welche speziell für diesen Zweck ausgelegt ist.
Im Rahmen der vorliegenden Masterarbeit wurden zwei CAN-Bus-Steuergeräte konzeptioniert und entwickelt, welche auf einem forensischen Demonstrator verbaut wurden. Die Funktionen der Steuergeräte sind zum einen die Steuerung einer Beleuchtungseinheit, zum anderen die Abstandsmessung sowie die Akkustandsüberwachung. Als Steuergeräte fungieren Arduino Nanos, welche über SPI mit CAN-Modulen kommunizieren können. Mit Hilfe der Analysesoftware BUSMASTER können CAN-Botschaften auf den CAN-Bus des Demonstrators gesendet werden. Der Demonstrator dient dabei als Grundlage für spätere forensische Untersuchungen des Controller Area Networks.
Diese Arbeit stellt verschiedene Datenbankmanagementsysteme vor und vergleicht diese, um ein, für die Aufgabenstellung geeignetes, Datenbanksystem auszuwählen. Die Aufgabenstellung umfasst die Erstellung einer Datenbank zur Speicherung und Suche nach Login Daten, welche aus DatenLeaks stammen. Zum durchsuchen der Datenbank soll eine Oberfläche in Form einer Webseite Programmiert werden, die es zudem auch erlaubt entsprechende Textdateien mit Login Daten hochzuladen. Die hochgeladenen Dateien sollen automatisiert Analysiert werden und die so extrahierten Passwörter und Nutzernamen in die Datenbank zu schreiben.
Konzeption und prototypische Implementierung eines Event-und Audio-Systems für eine Game Engine
(2021)
Genau wie jedes Auto zum Fahren einen Motor und jeder Mensch zum Leben ein
Herz benötigt, hat fast jedes Videospiel eine genauso essentielle Komponente - die Game Engine. Sie besteht aus weiteren vielen kleinen Teilen, deren Aufbau wohl überlegt sein sollte. Diese Arbeit hat es sich zum Ziel gemacht, die Konzeption zweier Komponenten für ein bereits vorhandenes System vorzunehmen. Dabei inbegriffen sind softwaretechnische Diagramme, Erweiterungen bekannter und existenter Systeme sowie vorausschauende Überlegungen. Die betreffende Engine wurde im Rahmen eines Projekts der Hochschule Mittweida entworfen. Das Ziel dabei war es, eine modulare und erweiterbare Architektur zu schaffen, an welche nun mit zwei konkreten Komponenten exemplarisch angeknüpft werden soll. Es werden Wissensgrundlagen geschaffen, Konzepte für ein Event- und Audio-Subsystem entworfen sowie diese teilweise umgesetzt. Ein Inbetriebnehmen sowie Testen beider Systeme wurde vorgenommen. Dadurch sind ehemalige Schwachstellen und Ansatzpunkte für die Weiterentwicklung ersichtlich.
Die Frage, ob MOBAs wie League of Legends für eine erhöhte Selbstwirksamkeit sorgen können, ist nicht nur für die Videospielindustrie interessant, sondern hat aufgrund der hohen Verbreitung von Videospielen gesamtgesellschaftliche
Relevanz. Aufgrund der jährlich steigenden Zahlen von depressiven Erkrankungen in Europa ergibt sich insbesondere für Spiele, die in großen Teilen der Bevölkerung verbreitet sind, eine Chance das Problem neu zu adressieren. Da es, insbesondere was MOBAs betrifft, Hinweise darauf gibt, dass diese zur kurzfristigen Steigerung der bei Depressiven verminderten Selbstwirksamkeit beitragen können, wurde anhand von „League of Legends“ der Versuch unternommen diese Effekte über die Spielmechanik zurückzuverfolgen und mit einer Umfrage die tatsächliche Kurzzeitwirkung des Spiels auf seine Anwender nachzuweisen. Es ließ sich darüber feststellen, dass League of Legends-Spieler in der Tat eine durchschnittlich höhere Selbstwirksamkeit aufweisen und diese über eine Spielrunde noch gesteigert werden kann. Damit hat diese Arbeit einen Beitrag dazu geleistet die Nützlichkeit von MOBAs für therapeutische Zwecke zu untersuchen.
In dieser Masterthesis wird evaluiert, wie gut sich Deep-Learning-Modelle für eine Toxizitätsbestimmung im digitalen Raum eignen. Hierfür wird die Transformer-Architektur anhand verschiedener Pre-Trainings auf BERT-, DistilBERT-, RoBERTa- und GPT-2-Basis mithilfe der toxisch-binär annotierten GermEval-Datensätze aus den Jahren 2018, 2019 und 2021 angepasst. Das Feintuning der Modelle findet sowohl mit Supervised-, als auch mit Semi-Supervised-Learning via GAN statt. Im Anhang dieser Arbeit steht der genutzte Programmcode zur Verfügung.
Das Feintuning via GAN stellt eine Besonderheit in der Herangehensweise automatisierter NLP-Aufgaben darf. Als Ergebnis dieser Arbeit kann deren Wirksamkeit in binären Textklassifizierungsaufgaben im deutschen Sprachraum bestätigt werden.
Onlinequellen wurden zum Zeitpunkt des Abrufs mithilfe des Firefox-Addons “SingleFile” in eine HTML-Datei gespeichert. Sowohl der HTML-Teil, als auch die Mediendateien, Stylesheets und Skriptdateien befinden sich komprimiert in der Datei. Jede Onlinequelle wurde während des Speichervorgangs bei woleet.io registriert, sodass später die Integrität der HTML-Datei geprüft werden kann. Hierfür speichert Woleet die Signatur und Zeitstempel einer Datei innerhalb der Bitcoin-Blockchain. Soll die Integrität einer Datei geprüft werden, kann dies über gildas-lormeau.github.io/singlefile-woleet/index.html erfolgen.
Die vorliegende Arbeit beschäftigt sich mit der Anwendung der erweiterten DNA-Analyse innerhalb der Strafverfolgung. Dadurch ergeben sich sowohl Chancen als auch Risiken, welche vorgestellt werden. Dazu erfolgt die Betrachtung
verschiedener Testsysteme zur Bestimmung der phänotypischen Merkmale aus einer anonymem DNA-Spur und deren Genauigkeiten. Außerdem wird die Altersbestimmung von unbekannten DNA-Spuren beschrieben. Des Weiteren erfolgt die Prüfung des § 81 e Ⅱ 2 StPO auf seine Verhältnismäßigkeit. Anschließend leitet sich aus den verschiedenen Betrachtungsweisen eine persönliche Stellungnahme ab.
Möglichkeiten der technischen Umsetzbarkeit für die Erstellung eines digitalen Leichenmodells
(2021)
Diese Machbarkeitsstudie beschäftigt sich mit der Prüfung von Möglichkeiten der technischen Umsetzbarkeit für die Erstellung eines digitalen Leichenmodells. Anhand von Informationen der forensischen Bildgebung sowie der Oberfläche des Leichnams, soll die Anfertigung eines digitalen Leichenmodells erfolgen. Dafür wird zunächst der Leichnam durch eine postmortale Computertomografie sowie eine Angiografie basierend auf der Computertomografie dargestellt. Darauffolgend wird die Oberfläche durch Informationen eines handgeführten Laserscanners rekonstruiert. Unter Verwendung verschiedener Methoden lassen sich die erhobenen Daten mit denen der forensischen Bildgebung anreichern und kombinieren. Das Vorgehen sowie Herstellung des digitalen Leichenmodells wird näher betrachtet und eingehend erläutert. Abschließend soll das digitale Leichenmodell animiert in den rekonstruierten Tatort eingefügt werden, um den Tathergang bestmöglich wiederzugeben. Die Erkenntnisse der möglichen Abläufe werden folgend in der Machbarkeitsstudie diskutiert und beurteilt. Letztendlich erfolgt der Vergleich des verwendeten Laserscanners mit einem neueren Modell der gleichen Marke sowie des Laserscanverfahrens mit der Fotogrammmetrie.
Computationally solving eigenvalue problems is a central problem in numerical analysis and as such has been the subject of extensive study. In this thesis we present four different methods to compute eigenvalues, each with its own characteristics, strengths and weaknesses. After formally introducing the methods we use them in various numerical experiments to test speed of convergence, stability as well as performance when used to compute eigenfaces, denoise images and compute the eigenvector centrality measure of a graph.
Diese Diplomarbeit zeigt zu Beginn die Risiken, die moderne Angriffe auf ein Produktionsnetzwerk darstellen, in mehreren Facetten auf. Um diesen möglichen Schaden für Unternehmen abzuwenden, wird eine mögliche Lösung vorgestellt, die diese Angriffe, die trotz bereits vorhandener Sicherheitsmaßnahmen erfolgreich sein können, erkennen kann. Diese Lösung wird planmäßig durch die Einbindung in die Infrastruktur eines Produktionsnetzwerkes umgesetzt. Um die volle Funktionalität sicherstellen zu können, wird die Lösung auch in einem separatem Testnetzwerk durch Powershell-Scripte und Pentesting-Tools, die in Kali Linux gebündelt sind, überprüft. Dies soll dem Schutz der vorhandenen, teils überholten Infrastruktur in der Produktion dienen, die durch ihr teilweise hohes Alter durch dieses Pentesting ausfallen könnten. Abschließend werden die ermittelten Ergebnisse bewertet. Ein Fazit über die Möglichkeiten der Optimierung sowie ein Ausblick in eine mögliche Zukunft runden diese Diplomarbeit ab.
Die Arbeit beschäftigt sich mit der orientierenden Untersuchung von Abwasserprobenahmestellen in Abwasseraufbereitungsanlagen des ZWA Hainichens auf den Parameter Legionella spec.. Es sollen eventuelle Gefährdungspotentiale aufgedeckt werden, um die Arbeitssicherheit vor Ort zu gewährleisten. Weiterhin soll eine Aussage darüber getroffen werden, welche der beiden angewandten Methoden besser für den Nachweis der Legionellen in den Anlagen geeignet ist. Der Nachweis erfolgt nach der DIN 11731:2017 und dem Legiolert®-Verfahren.
Diese Arbeit behandelt das Thema der Sichtbarmachung von Fingerabdrücken, sowie deren photogrammetrische Aufnahme. Dabei wird die Frage geklärt, ob der Qualitätsverlust eines photogrammetrischen Scans das Erkennen des Grundmusters, einzelner Minuten und eventuell auch kleineren Strukturen beeinträchtigt. Es werden die angewandten Methoden zur Sichtbarmachung, Sicherung und Photogrammmetrie präsentiert, sowie die daraus resultierenden Ergebnisse.