Refine
Document Type
- Bachelor Thesis (19)
- Master's Thesis (10)
- Diploma Thesis (1)
Year of publication
Keywords
- Algorithmus (30) (remove)
Implementierung und Analyse von Bildverarbeitungsalgorithmen zur Überwachung von Carbonbändern
(2015)
Diese Arbeit dokumentiert die Betrachtungen und Erkenntnisse, welche bei der Erstellung eines Versuchsstandes zur Überwachung eines bewegten Carbonfaserbandes mittels eines Zeilenkamerasystems und speziell bei der Entwicklung passender Bildverarbeitungsalgorithmen angestellt wurden. In den Kapiteln dieses Dokuments wird dabei im Einzelnen auf Rahmenbedingungen und konkrete Anforderungen, die Charakterisierung der Komponenten des Bildverarbeitungsaufbaus, die detaillierte Analyse der durch das Kamerasystem aufgenommenen Bilder von dem Band sowie Umsetzung, Eigenschaften und Vergleich verschiedener, an die Bedingungen angepasster Bildverarbeitungslösungen eingegangen. Ergebnis wird ein Beispielprogramm sein, welches abschließend vorgestellt und eingeschätzt wird.
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.
Durch die zunehmende Nutzung mobiler Endgeräte fallen im alltäglichen Leben zahlreiche personenbezogene Daten an. Zu diesen Daten gehören unter anderem auch GPS-Positionen, die von handelsüblichen Smartphones erhoben werden. Besonders Android-Geräte sammeln eine große Menge an Positionsdaten, die für verschiedene Wissenschafts-Domänen, wie beispielsweise Medizin oder Forensik, eine Rolle spielen. Für verschiedene Anwendungsfälle kann eine Aggregation der einzelnen GPS-Positionen zu Orten und verbindenden Strecken relevant sein.
Ziel der Arbeit ist die Entwicklung eines Algorithmus zur Aggregation von GPS-Standorten zu Orten, deren Besuchen und Verbindungen. Nach Implementierung des Algorithmus wurde dieser in eine Java-Applikation eingebettet, die unter anderem der Visualisierung der erzielten Ergebnisse dient. Für die Evaluation des Algorithmus wurden über einen Zeitraum von zwei Monaten Standortdaten mit Hilfe eines Android-Smartphones erhoben, welche unter Verwendung des implementierten Algorithmus ausgewertet wurden. Die Evaluation resultierte in einem Parameterset, welches sich für die Auswertung des vorliegenden Testdatensatzes als geeignet herausstellte. Das Ergebnis der Arbeit ist ein funktionstüchtiger Algorithmus, der vielfältige Anwendungsmöglichkeiten aufweist und dessen Erweiterung ein hohes Potenzial für Folgeprojekte bietet.
In this work a second version for the Python implementation of an algorithm called Probabilistic Regulation of Metabolism (PROM) was created and applied to the metabolic model iSynCJ816 for the organism Synechocystis sp. PCC 6803. A crossvalidation was performed to determine the minimal amount of expression data needed to produce meaningful results with the PROM algorithm. The failed reproduction of the results of a method called Integrated and Deduced Regulation of Metabolism (IDREAM) is documented and causes for the failed reproduction are discussed.
Workload Optimization Techniques for Password
Guessing Algorithms on Distributed Computing Platforms
(2019)
The following thesis covers several ways to optimize distributed computing platforms for cryptanalytic purposes. After an introduction on password storage, password guessing attacks and distributed computing in general, a set of inital benchmark results for a variety of different devices will be analyzed. The shown results are mainly based on utilization of the open source password recovery tool Hashcat. The second part of this work shows an algorithmic implementation for information retrieval and workload generation. This thesis can be used for the conception of a distributed computing system, inventory analysis of available hardware devices, runtime and cost estimations for specific jobs and finally strategic workload distribution.
Gegenstand der vorliegenden Arbeit ist die Implementierung und Laufzeitoptimierung von Bildverarbeitungsalgorithmen in OpenCL. Es wird untersucht, wie viel Zeit die Algorithmen zur Bearbeitung von Bildern in Anspruch nehmen und wie stark diese gedrosselt werden kann. Dabei werden verschiedene Speicherbereiche von GPUs und unterschiedliche
Rechenmethoden hinsichtlich ihrer Performance beleuchtet. Die Laufzeit der jeweiligen Programmversion wird gemessen, den anderen Varianten gegenübergestellt und ausgewertet. Aus der Untersuchung geht hervor, dass die Laufzeiten der Programme auf bis zu einem Drittel der unbearbeiteten Algorithmen gesenkt werden können.
Empirischer Vergleich der Realitätsnähe verschiedener Algorithmen zur Simulation von Flüssigkeiten
(2021)
In dieser Bachelorarbeit werden die beiden FluidSimulation Solver SPH (Smoothed Particle Hydrodynamics) und PBD (Position Based Dynamics) unter dem Aspekt des Realismus miteinander verglichen. Im ersten Teil werden die theoretischen Grundlagen vermittelt, die für das Verhalten von Wasser verantwortlich sind. Dadurch wird dann eine Liste mit Kriterien erstellt, um die einzelnen Versuche zu bewerten. Schließlich werden sechs Versuche durchgeführt, welche durch jene Liste bewertet werden. Schlussendlich werden diese Ergebnisse zusammengefasst, und der Schluss gezogen, dass SPH mehr für eine realistische Wassersimulation geeignet ist.
Die vorliegende Arbeit beschäftigt sich mit dem Entwurf eines Algorithmus für das selbstständige Fahren eines Roboterfahrzeugs von einem Start- zu einem Zielpunkt innerhalb eines begrenzten Raumes unter Zuhilfenahme von neuronalen Netzen zur Kameradatenauswertung. Dabei soll der Fokus auf die Behandlung von Umfeld-Änderungen liegen. Ebenfalls wird die Implementierung für das Modellfahrzeug "JetRacer" beschrieben.
Innerhalb dieser Bachelorarbeit werden zuerst theoretische Grundlagen für das Balancing von Spielen erarbeitet, die sich im späteren Verlauf immer weiter auf rundenbasierte Strategiespiele spezialisieren. Diese dienen nach einer Analyse bekannter und erfolgreicher Beispiele von rundenbasierten Sammelkartenspielen im praktischen Teil dazu einen Algorithmus zu formulieren, welche wichtigen Aspekte beim Balancing eines Spiels in diesem eben diesem Genre zu beachten, und, wie diese grob umzusetzen sind. Schlussendlich wird dieses Verfahren Anhand von Statistiken eines dieser näher betrachteten Beispiele auf seine Genauigkeit hin untersucht, um Schlussendlich ein Fazit über die praktische Anwendbarkeit dieses Algorithmus ziehen zu können.
Diese Arbeit führt eine Analyse und Vergleich von Handelsstrategien durch, insbesondere von kurzfristigem Momentum, Mean Reversion und Paar-Arbitrage im Kontext der Bitcoin-, Ethereum- und BNB-Märkte. Eine vergleichende Bewertung wird mit der Buy-and-Hold-Strategie vorgenommen. Die unter die Lupe genommenen Handelsstrategien umfassen Ehlers Moving-Average-Crossover-Paare, einen auf Standardabweichung basierenden Mean-Reversion-Ansatz und Paarhandel. Verschiedene algorithmische Handelsframeworks werden untersucht, und die Entwicklungs- und Verbesserungsprozesse werden detailliert beschrieben.
Um die Handelsbedingungen der realen Welt so genau wie möglich zu replizieren, werden Transaktionsgebühren und Slippage in die Berechnungen einbezogen. Die Ergebnisse verdeutlichen die Herausforderung, eine Buy-and-Hold-Strategie zu übertreffen, zeigen jedoch auch die Machbarkeit, dies mit Momentum-Strategien zu erreichen, selbst unter Berücksichtigung von Transaktionskosten.
In this thesis, we focus on using machine learning to automate manual or rule-based processes for the deduplication task of the data integration process in an enterprise customer experience program. We study the underlying theoretical foundations of the most widely used machine learning algorithms, including logistic regression, random forests, extreme gradient boosting trees, support vector machines, and generalized matrix learning vector quantization. We then apply those algorithms to a real, private data set and use standard evaluation metrics for classification, such as confusion matrix, precision, and recall, area under the precision-recall curve, and area under the Receiver Operating Characteristic curve to compare their performances and results.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
In dieser Arbeit wird die Klasse der Chordalen Graphen vorgestellt. Dafür werden zunächst einige Grundlagen zu den Chordalen Graphen vorgestellt wie wichtige Definitionen, Eigenschaften, einige Sätze zu dieser Graphenklasse und ein Überblick über wichtige Literatur. Anschließend wird beschrieben, wie man Chordale Graphen erkennen kann und mit welchen anderen Graphenklassen sie im Zusammenhang stehen. Abschließend wird noch auf zwei der bekanntesten Algorithmen für Chordale Graphen eingegangen.
In der vorliegenden Masterarbeit werden Daten der Kriminalstatistik Berlins in Bezug auf die Entwicklung erfasster Straftaten statistisch analysiert und hinsichtlich kausaler Zusammenhänge ausgewertet. Der Hauptaspekt der Arbeit bildet ein neuer Modellierungsansatz für den Bereich des Predictive Policing, welcher sich auf Erkenntnissen über Bayesian Belief Networks stützt. Durch die präsentierten Ansätze soll die grundsätzliche Anwendbarkeit von gerichteten Graphen für die Problemstellungen des Predictive Policing aufgezeigt werden, da diese aufgrund ihres Potenzials in der Abbildung von Informationsflüssen sowie Eigenschaften der Inferenz zukünftig neue Möglichkeiten in der Modellierung der Ausbreitung von Kriminalität bieten können.
Agenten in virtuellen Welten können sich mit Hilfe verschiedener Wegfindungsalgorithmen selbständig von einem Start- zu einem Zielpunkt bewegen. Dafür existieren zahlreiche Algorithmen, um beispielsweise im Rahmen eines Videospiels an die Agenten gestellten Anforderungen und Handlungssequenzen zu erfüllen. Eine solche Anforderung stellt häufig die Navigation durch einen Spielbereich dar. Bei der Anwendung auf Videospiele müssen besondere Voraussetzungen erfüllt werden. Hierzu gehört ein besonders effizienter Umgang mit den zur Verfügung stehenden Ressourcen, um echtzeitfähige Entscheidungen zu ermöglichen und eine nahtlose Integration ins Spielgeschehen zu gewährleisten.
Zu diesem Zweck sind verschiedene klassische Wegfindungsalgorithmen zu implementieren und auf ihre Qualität und Effizienz zu prüfen. Mithilfe der Unity Engine lassen sich verschiedene Szenarien kreieren, die Herausforderungen für unterschiedliche Agenten bilden. Dabei werden die zurückgelegten Wege und Zeiten, aber auch die benötigten Ressourcen mithilfe eines Logging-Systems aufgezeichnet, miteinander verglichen und deren Gute in Abhängigkeit zur Anwendungsdomäne evaluiert.
Das Ziel der Arbeit besteht in der Auswahl, Konzeption und Implementierung eines geeigneten Verfahrens zur Pfadberechnung und Kollisionsvermeidung in einem 3D-Simulations-System zur Planung und Visualisierung menschlicher Arbeit. Dabei werden verschiedene Datenstrukturen und Algorithmen anhand ihrer Laufzeit und ihres Speicherbedarfs untersucht. Im Anschluss werden die für geeignet befundenen Datenstrukturen und Algorithmen für die Implementierung eines Systems zur Pfadndung verwendet.
Im Rahmen dieser Arbeit werden Algorithmen zur Messung der Grundtonfrequenz von diskreten Signalen auf ihre Tauglichkeit zur Bestimmung der Tonhöhe von Orgelpfeifen untersucht. Dabei werden Genauigkeit und Störsicherheit unter dem Aspekt der Implementierung auf einem Embedded Linux System betrachtet.
In dieser Arbeit werden die Verfahren GLVQ und GRLVQ mit der Sobolev-Metrik erweitert und an verschiedene Datensätze mit funktionalen Daten getestet. Außerdem wird ein Ansatz vor-gestellt, die Prototypen durch Überlagerungen von Basisfunktionen darzustellen. Dieser Ansatz wird zusätzlich noch auf den GMLVQ angewendet. Hierfür betrachtete man die Gaußfunktio-nen und Sigmoidfunktionen als Basisfunktionen. Dabei wurden mit der Sobolev-Metrik sehr gute Resultat erzielt.