Refine
Document Type
- Bachelor Thesis (19) (remove)
Year of publication
Keywords
- Algorithmus (19) (remove)
In dieser Arbeit wird der Einsatz des Wave Function Collapse Algorithmus untersucht. Dazu werden Anforderungen an das Leveldesign für das Videospiel Counter Strike: Global Offensive als Vorlage genutzt. Der Algorithmus wird in der Unity Engine implementiert und evaluiert. Es werden drei Versuchsreihen durchgeführt. Jede Versuchsreihe nutzt andere Einstellungen für die Levelgenerierung und analysiert welche Anforderungen erfüllt werden können. Die Ergebnisse werden verglichen und es werden Rückschlüsse auf die Anwendbarkeit des Algorithmus für die Erstellung von Multiplayer Level mit Ähnlichkeit zu Counter Strike: Global Offensive gezogen.
Empirischer Vergleich der Realitätsnähe verschiedener Algorithmen zur Simulation von Flüssigkeiten
(2021)
In dieser Bachelorarbeit werden die beiden FluidSimulation Solver SPH (Smoothed Particle Hydrodynamics) und PBD (Position Based Dynamics) unter dem Aspekt des Realismus miteinander verglichen. Im ersten Teil werden die theoretischen Grundlagen vermittelt, die für das Verhalten von Wasser verantwortlich sind. Dadurch wird dann eine Liste mit Kriterien erstellt, um die einzelnen Versuche zu bewerten. Schließlich werden sechs Versuche durchgeführt, welche durch jene Liste bewertet werden. Schlussendlich werden diese Ergebnisse zusammengefasst, und der Schluss gezogen, dass SPH mehr für eine realistische Wassersimulation geeignet ist.
Die Arbeit untersucht das Problem, der Named Entity Recognition in großen Textkorpora. Für klassische Modelle sind meist große gelabelte Datenmengen nötig, die häufig aber nicht zur Verfügung stehen, weil manuelle Annotation sehr zeitaufwendig ist. Deshalb wurde ein Halbüberwachtes
(Semi-Supervised) Verfahren untersucht, um ausgehend von einer kleinen Menge manuell annotierter Daten iterativ mit möglichst wenig Annotationsaufwand ein solides Modell zu trainieren. Das Verfahren nutzt gezielte manuelle Annotation, um den Lerneffekt durch Self-Training zu erhöhen. Die Untersuchungen haben jedoch gezeigt, dass durch Self-Training in diesem Fall keine Verbesserung erzielt werden konnte. Es kann aber eine erhebliche Menge
manueller Annotation durch die gezielte Auswahl von statistisch unsicheren Sätzen für die manuelle Annotation eingespart werden und dadurch effizienter eine bessere Performance erreicht werden.
In this work a second version for the Python implementation of an algorithm called Probabilistic Regulation of Metabolism (PROM) was created and applied to the metabolic model iSynCJ816 for the organism Synechocystis sp. PCC 6803. A crossvalidation was performed to determine the minimal amount of expression data needed to produce meaningful results with the PROM algorithm. The failed reproduction of the results of a method called Integrated and Deduced Regulation of Metabolism (IDREAM) is documented and causes for the failed reproduction are discussed.
Das Ziel der vorliegenden Arbeit war es, Algorithmen auf speicherprogrammierbaren Steuerungen (SPSen) und Linx-basierten Systemen umzusetzen und dabei einer möglichst einheitlichen Implementierungsstrategie zu folgen. Dabei wurde ein Algorithmus beispielhaft auf SPSSystemen von zwei Herstellern implementiert. Phoenix Contact unterstützt lediglich Sprachen, die durch den Standard IEC/EN 61131-3 spezifiziert sind. Beckhoff ermöglicht durch die Integration von C++ die Umsetzung auf einer gemeinsamen Codebasis mit dem Linux-System. Die gemeinsame Codebasis unterliegt allerdings Einschränkungen.
Innerhalb dieser Bachelorarbeit werden zuerst theoretische Grundlagen für das Balancing von Spielen erarbeitet, die sich im späteren Verlauf immer weiter auf rundenbasierte Strategiespiele spezialisieren. Diese dienen nach einer Analyse bekannter und erfolgreicher Beispiele von rundenbasierten Sammelkartenspielen im praktischen Teil dazu einen Algorithmus zu formulieren, welche wichtigen Aspekte beim Balancing eines Spiels in diesem eben diesem Genre zu beachten, und, wie diese grob umzusetzen sind. Schlussendlich wird dieses Verfahren Anhand von Statistiken eines dieser näher betrachteten Beispiele auf seine Genauigkeit hin untersucht, um Schlussendlich ein Fazit über die praktische Anwendbarkeit dieses Algorithmus ziehen zu können.
Gegenstand der vorliegenden Arbeit ist die Implementierung und Laufzeitoptimierung von Bildverarbeitungsalgorithmen in OpenCL. Es wird untersucht, wie viel Zeit die Algorithmen zur Bearbeitung von Bildern in Anspruch nehmen und wie stark diese gedrosselt werden kann. Dabei werden verschiedene Speicherbereiche von GPUs und unterschiedliche
Rechenmethoden hinsichtlich ihrer Performance beleuchtet. Die Laufzeit der jeweiligen Programmversion wird gemessen, den anderen Varianten gegenübergestellt und ausgewertet. Aus der Untersuchung geht hervor, dass die Laufzeiten der Programme auf bis zu einem Drittel der unbearbeiteten Algorithmen gesenkt werden können.
Workload Optimization Techniques for Password
Guessing Algorithms on Distributed Computing Platforms
(2019)
The following thesis covers several ways to optimize distributed computing platforms for cryptanalytic purposes. After an introduction on password storage, password guessing attacks and distributed computing in general, a set of inital benchmark results for a variety of different devices will be analyzed. The shown results are mainly based on utilization of the open source password recovery tool Hashcat. The second part of this work shows an algorithmic implementation for information retrieval and workload generation. This thesis can be used for the conception of a distributed computing system, inventory analysis of available hardware devices, runtime and cost estimations for specific jobs and finally strategic workload distribution.
Agenten in virtuellen Welten können sich mit Hilfe verschiedener Wegfindungsalgorithmen selbständig von einem Start- zu einem Zielpunkt bewegen. Dafür existieren zahlreiche Algorithmen, um beispielsweise im Rahmen eines Videospiels an die Agenten gestellten Anforderungen und Handlungssequenzen zu erfüllen. Eine solche Anforderung stellt häufig die Navigation durch einen Spielbereich dar. Bei der Anwendung auf Videospiele müssen besondere Voraussetzungen erfüllt werden. Hierzu gehört ein besonders effizienter Umgang mit den zur Verfügung stehenden Ressourcen, um echtzeitfähige Entscheidungen zu ermöglichen und eine nahtlose Integration ins Spielgeschehen zu gewährleisten.
Zu diesem Zweck sind verschiedene klassische Wegfindungsalgorithmen zu implementieren und auf ihre Qualität und Effizienz zu prüfen. Mithilfe der Unity Engine lassen sich verschiedene Szenarien kreieren, die Herausforderungen für unterschiedliche Agenten bilden. Dabei werden die zurückgelegten Wege und Zeiten, aber auch die benötigten Ressourcen mithilfe eines Logging-Systems aufgezeichnet, miteinander verglichen und deren Gute in Abhängigkeit zur Anwendungsdomäne evaluiert.
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.