Refine
Document Type
- Bachelor Thesis (88)
- Master's Thesis (37)
- Diploma Thesis (6)
Year of publication
- 2021 (131) (remove)
Keywords
- Maschinelles Lernen (9)
- Softwareentwicklung (9)
- Videospiel (9)
- Computerforensik (8)
- Computersicherheit (8)
- Blut (4)
- Datensicherung (4)
- Altersbestimmung (3)
- Android <Systemplattform> (3)
- Datenschutz (3)
- Deep learning (3)
- Digitalisierung (3)
- RNS (3)
- Virtuelle Realität (3)
- App <Programm> (2)
- Bildverarbeitung (2)
- Biomarker (2)
- CAN-Bus (2)
- CRISPR/Cas-Methode (2)
- Computerkriminalität (2)
- Computersimulation (2)
- Daktylogramm (2)
- Datenbanksystem (2)
- Deutschland (2)
- Forensik (2)
- Genetischer Fingerabdruck (2)
- Graphentheorie (2)
- Kollagen (2)
- Kriminalität (2)
- Mobiles Endgerät (2)
- Neuronales Netz (2)
- Programmierung (2)
- Rechtsmedizin (2)
- SARS-CoV-2 (2)
- Sequenzanalyse <Chemie> (2)
- Social Media (2)
- Stammzelle (2)
- Steuergerät (2)
- Tatrekonstruktion (2)
- Vektorquantisierung (2)
- Zelle (2)
- Abwasseraufbereitung (1)
- Active Directory (1)
- Algorithmus (1)
- Angriffsvektor (1)
- Anthropometrie (1)
- Antigenrezeptor (1)
- Antikörper (1)
- Anwendungssoftware (1)
- App Inventor (1)
- Arthrose (1)
- Authentifikation (1)
- Bewegungsapparat (1)
- Bildmaterial (1)
- Biogas (1)
- Biogastechnik (1)
- Biomasseproduktion (1)
- Biometrie (1)
- Blockchain (1)
- Blutuntersuchung (1)
- C <Programmiersprache> (1)
- COVID-19 (1)
- Cannabinoide (1)
- Cellulasen (1)
- Cloud Computing (1)
- Cluster <Datenanalyse> (1)
- Codierungstheorie (1)
- Computerlinguistik (1)
- Computertomografie (1)
- Container (1)
- Container <Informatik> (1)
- Cytologie (1)
- Cytotoxizität (1)
- DNA Barcoding (1)
- Daktyloskopie (1)
- Data Mining (1)
- Data-Warehouse-Konzept (1)
- Datenanalyse (1)
- Dimethoat (1)
- Diskrete Mathematik (1)
- Docker <Software> (1)
- Dreidimensionale Rekonstruktion (1)
- Dunkelziffer (1)
- E-Scooter (1)
- Eigendynamik (1)
- Eigenwertproblem (1)
- Elektrizitätserzeugung (1)
- Endokrin wirksamer Stoff (1)
- Erweiterte Realität <Informatik> (1)
- Erzähltechnik (1)
- Extraktion (1)
- Firewall (1)
- Firmware (1)
- Fitness (1)
- Fluoreszenz-Resonanz-Energie-Transfer (1)
- Fluoreszenzmarkierung (1)
- Flüssigkeit (1)
- Fortpflanzung (1)
- Fotogrammetrie (1)
- Futtermittel (1)
- Gamification (1)
- Gebäudeleittechnik (1)
- Gelatine (1)
- Gentechnologie (1)
- Gerichtliche Entomologie (1)
- Gerichtliche Wissenschaften (1)
- Geschäftsmodell (1)
- Graph (1)
- Großfamilie (1)
- Hassrede (1)
- Holografie (1)
- IP (1)
- Identität (1)
- Identitätsverwaltung (1)
- Immunohistologie (1)
- Immuntherapie (1)
- Implementation (1)
- Infrastruktur (1)
- Insektizid (1)
- Internet (1)
- Internet der Dinge (1)
- Internetkriminalität (1)
- Java <Programmiersprache> (1)
- Kinderpornografie (1)
- Kommunikation (1)
- Kommunikationsprotokoll (1)
- Kraftfahrzeugbau (1)
- Krebs <Medizin> (1)
- Kriminelle Vereinigung (1)
- Kriminologie (1)
- Kryptorchismus (1)
- Kunst (1)
- Künstliche Intelligenz (1)
- Legionella (1)
- Lernendes System (1)
- Lernsoftware (1)
- Linearer Code (1)
- Logdatei (1)
- Manipulation (1)
- Marketing (1)
- Massively Multiplayer Online Role-Playing Game (1)
- Medizin (1)
- Mehrprozessorsystem (1)
- Mensch (1)
- Metadaten (1)
- Mobilfunk (1)
- Molekularbiologie (1)
- Mundschleimhaut (1)
- Nanopartikel (1)
- Naturstein (1)
- Netzwerktopologie (1)
- Nichtverbale Kommunikation (1)
- Nucleocapsid (1)
- Numerische Mathematik (1)
- Online-Spiel (1)
- Optische Spektroskopie (1)
- Organisiertes Verbrechen (1)
- Penetrationstest (1)
- Periphere Stammzellentransplantation (1)
- Politische Kommunikation (1)
- Priming (1)
- Produktion (1)
- Programm (1)
- Projektmanagement (1)
- Prostatakrebs (1)
- Proteasen (1)
- Pupillenreaktion (1)
- Puppet <Software> (1)
- Rauigkeit (1)
- Rechnernetz (1)
- Regenerative Medizin (1)
- Rekonstruktion (1)
- Routing (1)
- Rust <Programmiersprache> (1)
- Schimmelpilze (1)
- Schnittstelle (1)
- Schutzmaßnahme (1)
- Selbstwirksamkeit (1)
- Semantik (1)
- Serious game (1)
- Server (1)
- Simulation (1)
- Single-page-Webanwendung (1)
- Skelett (1)
- Smartphone (1)
- Smiley (1)
- Smoothed Particle Hydrodynamics (1)
- Software (1)
- Softwaretest (1)
- Soziales Netzwerk (1)
- Speicher <Informatik> (1)
- Spiel-Engine (1)
- Sprache (1)
- Sprachgebrauch (1)
- Spurenauswertung (1)
- Spurensicherung (1)
- Statistisches Modell (1)
- Strafverfolgung (1)
- Taphonomie (1)
- Tee (1)
- Textanalyse (1)
- Transkriptionsfaktor (1)
- Transplantation (1)
- Twitter <Softwareplattform> (1)
- Ultraviolettspektroskopie (1)
- Unternehmen (1)
- Vektor (1)
- Verdaulichkeit (1)
- Verwitterung (1)
- Video (1)
- Visuelle Wahrnehmung (1)
- WINDOWS <Programm> (1)
- Wahrnehmung (1)
- Wahrscheinlichkeitsrechnung (1)
- Whatsapp (1)
- Wiederkäuer (1)
- Zeitreihe (1)
- Zeitreihenanalyse (1)
- Zephyr <Programm> (1)
- Zufallsgraph (1)
Institute
- Angewandte Computer‐ und Biowissenschaften (131) (remove)
There are multiple ways to gain information about an individual and its health status, but an increasingly popular field in medicine has become the analysis of human breath, which carries a lot of information about metabolic processes within the individuals body. The information in exhaled breath consists of volatile (organic) compounds (VOCs). These VOCs are products of metabolic processes within the individuals body, thus might be an indicator for diseases disturbing those processes. The compounds are to be detected by mass-spectrometric (MS) or ion-mobility spectrometric (IMS) techniques, making the analysis of these compounds not only bounded to exhaled breath. The resulting data is spectral data, capturing concentrations of the VOCs indirectly through intensities. However, a number of about 3000 VOCs [1] could already be determined in human exhaled breath. The number of research paper about VOC-analysis and detection had risen nearly constantly over the last decade 1. Furthermore, the technique to identify VOCs could also be used to capture biomarker from alien species within the individuals body. Extracting VOCs from an individual can be done by non- or minimal invasive techniques. However, the manual identification of VOCs and biomarkers related to a certain disease or infection is not feasible due to the complexity of the sample and often unknown metabolic products, thus automized techniques are needed. [1–4] To establish breath analysis as a diagnosis tool, machine learning methodes could be used. Machine learning has become a popular and common technique when dealing with medical data, due to the rapid analysis. Taking this advantage, breath analysis using machine learning could become the model of choice for diagnosis, keeping in mind that conventional methodes are laboratory based and thus when trying detect bacterial infection need sometimes several days to identify the organism. [5]
The games industry has significantly grown over the last 30 years. Projects are getting bigger and more expensive, making it essential to plan, structure and track them more efficiently.
The growth of projects has increased the administrative workload for producers, project managers and leads, as they have to monitor and control the progress of the project in order to keep a permanent overview of the project. This is often accompanied by a lack of insight into the project and basic communication within the team. Therefore, the goal of this thesis is to enhance conventional project management methods with process structures that occur frequently in game development.
This thesis initially elaborates on what project management in the game industry actually is: Here, methods are considered, especially agile methods and progress tracking prac-tices, which were created for software development and have become a standard in game development. Subsequently, an example is used to demonstrate how process management can function within the development of video games. Based on this, the ideal is depicted, which is implemented and used in a tool at the German games studio KING Art GmbH. This ideal is compared with expert interviews in order to verify its gen-eral validity in the industry.
By integrating process structures, the administrative effort can be reduced, communica-tion within game development can be simplified, while the current project status can be permanently presented. This benefits both project management and leads, as well as the entire team. Further application tests of this theory would have to be organized to check scalability and to draw comparisons to other applications.
In dieser Bachelorarbeit werden die Artefakte im Arbeitsspeicher unter den Betriebssystemen Microsoft Windows und Linux der Web Clients der Instant-Messengerdienste WhatsApp und Telegram aus forensischer Perspektive beleuchtet. Hierfür werden die technischen Aspekte der Funktionsweise sowie von der Anwendung auf dem Gerät im Internetcache enthaltene Artefakte digital forensisch analysiert und diskutiert. Die gewonnenen Erkenntnisse sollen zukünftige forensische Untersuchungen, bei denen Instant-Messengerdienste wie WhatsApp oder Telegram eine Rolle spielen, vereinfachen und die Interpretation der gefundenen Artefakte unterstützen.
Menschen hinterlassen bei jeder Berührung eines Gegenstandes Fingerabdrücke, durch die sie eindeutig identifiziert werden können, sofern die Qualität dieser aus-reichend ist. Geachtet wird dabei vor allem auf das Grundmuster und den Papillarleisten eines Fingerabdrucks, in denen sich individuell angeordnete Minuzien wiederfinden. Die Qualität dieser Spuren hängt nicht nur von der Person selbst ab, sondern wird u.a. auch durch äußere Gegebenheiten beeinflusst. In dieser Arbeit wird speziell auf den Einfluss filmischer Verunreinigungen auf daktyloskopischer Spuren eingegangen. Zum Einsatz kommen dabei sowohl feste, als auch flüssige Verunreinigungen, die für festgelegte Zeitintervalle auf die Fingerabdrücke einwirken. Die Qualität der verunreinigten Fingerspuren wird analysiert, im jeweiligen Kontext ausgewertet und kann dabei zukünftigen Arbeiten eine Grundlage bieten. Filmisch verunreinigte Fingerabdrücke können sich durchaus auch nach längerer Einwirkzeit sichern lassen, sofern die Sicherungsmethoden passend ausgewählt und angewendet werden.
Die Biometrie ist eine Methode für die Zugriffssicherung auf sensible Daten, welche sich seit dem letzten Jahrzehnt immer mehr durchgesetzt hat. Sie wird vor allem in dem Bereich mobiler Endgeräte verbreitet eingesetzt, da die Implementierung kostengünstig ist. Außerdem muss sich der Benutzer keine Zugangsdaten merken, um Zugriff zu erlangen. Mit dem zunehmenden Nutzen werden jedoch auch Ansätze evaluiert, um diese Sicherheitsbeschränkungen von biometrischen Systemen zu umgehen.
In dieser Arbeit werden Ansätze evaluiert, um Zugang zu gesicherten Daten für forensische Zwecke zu erhalten. Bei Straftaten ist es entscheidend, in kurzer Zeit an die benötigten Daten zu kommen. Mit einem Brute-Force-Angriff kann es jedoch mehrere Jahre dauern, Passwörter zu knacken. Daher kann die Biometrie eine schnellere Lösung sein, um mobile Geräte zu entsperren. Hier liegt der Fokus auf der Erstellung von Fingerabdruck-Artefakten, um sich Zugang zu verschaffen.
Um diese These zu überprüfen, werden Experimente mit verschiedenen Ansätzen durchgeführt, um gängige Typen von Fingerabdrucksensoren zu umgehen. Zu Beginn wurden 2D-Ansätze evaluiert. Hierbei werden Fingerabdrücke mit einem Laserdrucker auf verschiedenste Materialien gedruckt. Als nächstes werden 3D-Ansätze getestet, wozu ein SLA Drucker verwendet wird. Darüber hinaus sind Hilfsmittel evaluiert worden, um die Eigenschaften der Fingerabdruckartefakte zu verbessern, damit sie sich mehr wie ein menschlicher Finger verhalten.
Die Experimente zeigen, dass es möglich ist, Fingerabdrucksensoren mit Artefakten zu umgehen, um an gesicherte Daten zu gelangen. Optische Sensoren akzeptieren 2D gedruckte Fingerabdrücke. Im Gegensatz dazu benötigen kapazitive und ultraschallbasierte Sensoren andere Artefakte. Wir konnten die Sicherheitssperre mit 3D Fingerabdrücken überwinden. Darüber hinaus sind Hilfsmittel nützlich, wenn eine Lebenderkennung integriert ist.
Analyse dezentraler Identifikation mittels Sidetree-Protokolls, am Beispiel von Microsoft ION
(2021)
This master thesis deals with the field of decentralized identification, using the example of the Microsoft Identity Overlay Network (ION). In the introduction, basic terms such as identity and identification are described. A special emphasis is placed on the explaining of the principle of decentralized identifiers (DIDs) and the SSI concept. ION is an implementation of the Sidetree protocol and uses its core components. This is the reason why more details and special parts of Sidetree are described in the methods chapter. Afterwards the ION history and network topology is typify more in detail. An ION node will be installed and operated on top of the Bitcoin blockchain. The installation process and the problems that arise are recorded. Then the ION tools (a programming library and its values) will be explained and the example program code is shown. As a practical addition of the ION tools, a verifiable credential solution is scripted. This solution shows the creation of ION-DID and the signature options of these identifiers. In the results chapter the knowledge acquired via the decentralized identification is evaluated. A theoretical security analysis for ION is implemented. Furthermore, a list of the currently possible uses for the network is enumerated. A discussion is initiated that compares the advantages and disadvantages of ION. The thesis ends with a conclusion and an outlook for ION and decentralized identification.
Das Ziel dieser Arbeit ist die Untersuchung der in Blender vorhandenen Tools zur Erstellung einer Fallsimulation mit einfachen Objekten und Menschmodellen. Nach einem kurzen Überblick über die Theorie werden verschiedene Kräfte in mehreren Testreihen untersucht und schlussendlich kombiniert. Diese Testreihen werden mit dem Programm Blender durchgeführt. Zusätzlich wurde eine Anleitung zur Erstellung einer Ragdoll in Blender 2.8 an-gefertigt.
Das Testen von Software ist unabdingbar und wird nicht nur für Desktop Applikationen, sondern auch für Applikationen auf mobilen Geräten benötigt. Der Prozess des Testens ist aufwändig. Es gibt durch künstliche Intelligenz gestützte Lösungen, welche Systemtests zu großen Teilen eigenständig generieren und dem Entwickler das Testen erleichtern, zum Beispiel das AI4Test Projekt der Systems Multimedia Solutions GmbH.
Das Ziel dieser Bachelorarbeit besteht darin, das AI4Test Projekt zu analysieren und die bestehende Struktur so zu erweitern, dass iOS-Geräte neben Android und Desktop Geräten unterstützt werden. Dabei wird eine generalisierte Schnittstelle zur Interaktion mit Geräten geschaffen.
Das Ziel der Bachelorarbeit wird erreicht. Das AI4Test Projekt wird vorgestellt, die Schnittstelle generalisiert und die Plattform iOS wird prinzipiell unterstützt.
Das Ziel der vorliegenden Arbeit war es, den Deliktbereich Cybercrime auf Vorhersagbarkeit seiner Verbrechensrate zu testen. Diese Testung erfolgte, indem nach Trends und Gesetzmäßigkeiten innerhalb der bisherigen Geschehnisse des
Deliktbereichs gesucht wurde, wozu Daten der Polizeilichen Kriminalstatistik herangezogen wurden. Die Suche nach Trends und Gesetzmäßigkeiten erfolgte, indem versucht wurde, auf Basis eines Hidden-Markov-Modells diejenigen Parameter zu identifizieren, anhand derer sich die aussagekräftigsten Gesetzmäßigkeiten bilden ließen. Die Arbeit basiert auf PUX, eine vom Autor erstellte Webtechnologie-basierte Anwendung, mit der PKS-Daten gespeichert und mit Hilfe von Visualisierung und Simulation erforscht werden können.
Soziale Medien ermöglichen den öffentlichen Austausch von Nachrichten im digitalen Raum. Viele Personen missbrauchen diese Plattformen jedoch für die Verbreitung von Hass. Die Bestimmung und die Prävention derartiger Kommentare stellt eine große Herausforderung dar. In dieser Arbeit werden Möglichkeiten zur Bestimmung und Prognose von Toxizität als Kennzahl
für die sentimentale Ausdrucksform des Hasses aufgezeigt. Nach der begründeten Auswahl der Perspective API als Werkzeug zur Bestimmung von Toxizität werden mit diesem Werkzeug über 600.000 deutschsprachigen Twitter-Kommentare aus dem Frühjahr 2021 annotiert. Die Annotation bildet die Grundlage für die Untersuchung der Ausbreitung toxischer deutscher Sprache.
Mit Methoden der intelligenten Datenanalyse werden im Datensatz Einflussfaktoren ermittelt, die das Absetzen eines toxischen Kommentars begünstigen. Die gefundenen Einflussfaktoren werden final dazu verwendet, um die Toxizität von Antworten, ohne ein Wissen über deren Inhalt,
mit Hilfe künstlicher Intelligenz zu prognostizieren.