Refine
Document Type
- Bachelor Thesis (19)
- Master's Thesis (10)
- Diploma Thesis (1)
Year of publication
Keywords
- Algorithmus (30) (remove)
Diese Arbeit führt eine Analyse und Vergleich von Handelsstrategien durch, insbesondere von kurzfristigem Momentum, Mean Reversion und Paar-Arbitrage im Kontext der Bitcoin-, Ethereum- und BNB-Märkte. Eine vergleichende Bewertung wird mit der Buy-and-Hold-Strategie vorgenommen. Die unter die Lupe genommenen Handelsstrategien umfassen Ehlers Moving-Average-Crossover-Paare, einen auf Standardabweichung basierenden Mean-Reversion-Ansatz und Paarhandel. Verschiedene algorithmische Handelsframeworks werden untersucht, und die Entwicklungs- und Verbesserungsprozesse werden detailliert beschrieben.
Um die Handelsbedingungen der realen Welt so genau wie möglich zu replizieren, werden Transaktionsgebühren und Slippage in die Berechnungen einbezogen. Die Ergebnisse verdeutlichen die Herausforderung, eine Buy-and-Hold-Strategie zu übertreffen, zeigen jedoch auch die Machbarkeit, dies mit Momentum-Strategien zu erreichen, selbst unter Berücksichtigung von Transaktionskosten.
In dieser Arbeit wird der Einsatz des Wave Function Collapse Algorithmus untersucht. Dazu werden Anforderungen an das Leveldesign für das Videospiel Counter Strike: Global Offensive als Vorlage genutzt. Der Algorithmus wird in der Unity Engine implementiert und evaluiert. Es werden drei Versuchsreihen durchgeführt. Jede Versuchsreihe nutzt andere Einstellungen für die Levelgenerierung und analysiert welche Anforderungen erfüllt werden können. Die Ergebnisse werden verglichen und es werden Rückschlüsse auf die Anwendbarkeit des Algorithmus für die Erstellung von Multiplayer Level mit Ähnlichkeit zu Counter Strike: Global Offensive gezogen.
Implementierung und Analyse von Bildverarbeitungsalgorithmen zur Überwachung von Carbonbändern
(2015)
Diese Arbeit dokumentiert die Betrachtungen und Erkenntnisse, welche bei der Erstellung eines Versuchsstandes zur Überwachung eines bewegten Carbonfaserbandes mittels eines Zeilenkamerasystems und speziell bei der Entwicklung passender Bildverarbeitungsalgorithmen angestellt wurden. In den Kapiteln dieses Dokuments wird dabei im Einzelnen auf Rahmenbedingungen und konkrete Anforderungen, die Charakterisierung der Komponenten des Bildverarbeitungsaufbaus, die detaillierte Analyse der durch das Kamerasystem aufgenommenen Bilder von dem Band sowie Umsetzung, Eigenschaften und Vergleich verschiedener, an die Bedingungen angepasster Bildverarbeitungslösungen eingegangen. Ergebnis wird ein Beispielprogramm sein, welches abschließend vorgestellt und eingeschätzt wird.
Empirischer Vergleich der Realitätsnähe verschiedener Algorithmen zur Simulation von Flüssigkeiten
(2021)
In dieser Bachelorarbeit werden die beiden FluidSimulation Solver SPH (Smoothed Particle Hydrodynamics) und PBD (Position Based Dynamics) unter dem Aspekt des Realismus miteinander verglichen. Im ersten Teil werden die theoretischen Grundlagen vermittelt, die für das Verhalten von Wasser verantwortlich sind. Dadurch wird dann eine Liste mit Kriterien erstellt, um die einzelnen Versuche zu bewerten. Schließlich werden sechs Versuche durchgeführt, welche durch jene Liste bewertet werden. Schlussendlich werden diese Ergebnisse zusammengefasst, und der Schluss gezogen, dass SPH mehr für eine realistische Wassersimulation geeignet ist.
This thesis investigates the efficacy of four machine learning algorithms, namely linear regression, decision tree, random forest and neural network in the task of lead scoring. Specifically, the study evaluates the performance of these algorithms using datasets without sampling and with random under-sampling and over-sampling using SMOTE. The performance of each algorithm is measure using various performance metrics, including accuracy, AUC-ROC, specificity, sensitivity, precision, recall, F1 score, and G-mean. The results indicate that models trained on the dataset without sampling achieved higher accuracy than those trained on the dataset with either random under-sampling or random over-sampling using SMOTE. However, the neural network demonstrated remarkable results on each dataset compared to the other algorithms. These findings provide valuable insights into the effectiveness of machine learning algorithms for lead scoring tasks, particularly when using different sampling techniques. The findings of this study can aid lead management practices in selecting the most suitable algorithm and sampling technique for their needs. Furthermore, the study contributes to the literature by providing a comprehensive evaluation of the performance of machine learning algorithms for lead scoring tasks. This thesis has practical implications for businesses looking to improve their lead management practices, and future research could extend the analysis to other machine learning algorithms or more extensive datasets.
In der vorliegenden Masterarbeit werden Daten der Kriminalstatistik Berlins in Bezug auf die Entwicklung erfasster Straftaten statistisch analysiert und hinsichtlich kausaler Zusammenhänge ausgewertet. Der Hauptaspekt der Arbeit bildet ein neuer Modellierungsansatz für den Bereich des Predictive Policing, welcher sich auf Erkenntnissen über Bayesian Belief Networks stützt. Durch die präsentierten Ansätze soll die grundsätzliche Anwendbarkeit von gerichteten Graphen für die Problemstellungen des Predictive Policing aufgezeigt werden, da diese aufgrund ihres Potenzials in der Abbildung von Informationsflüssen sowie Eigenschaften der Inferenz zukünftig neue Möglichkeiten in der Modellierung der Ausbreitung von Kriminalität bieten können.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
In this thesis, we focus on using machine learning to automate manual or rule-based processes for the deduplication task of the data integration process in an enterprise customer experience program. We study the underlying theoretical foundations of the most widely used machine learning algorithms, including logistic regression, random forests, extreme gradient boosting trees, support vector machines, and generalized matrix learning vector quantization. We then apply those algorithms to a real, private data set and use standard evaluation metrics for classification, such as confusion matrix, precision, and recall, area under the precision-recall curve, and area under the Receiver Operating Characteristic curve to compare their performances and results.
Die vorliegende Arbeit beschäftigt sich mit dem Entwurf eines Algorithmus für das selbstständige Fahren eines Roboterfahrzeugs von einem Start- zu einem Zielpunkt innerhalb eines begrenzten Raumes unter Zuhilfenahme von neuronalen Netzen zur Kameradatenauswertung. Dabei soll der Fokus auf die Behandlung von Umfeld-Änderungen liegen. Ebenfalls wird die Implementierung für das Modellfahrzeug "JetRacer" beschrieben.
Viele soziale Netzwerke gewähren oft keine Transparenz, wenn die Rede von Algorithmen ist. Es scheint nur ein sehr begrenztes Verständnis zu geben, wie die Algorithmen von sozialen Netzwerken arbeiten. Ausnahmslos wäre ein solches Verständnis für die IT-Forensik von großer Bedeutung. Demnach ist das Ziel dieser Arbeit die Entwicklung eines mathematisches Modells, welches den people you may know-Algorithmus von Facebook beschreiben könnte. Da nur wenig
Literatur zu dieser Thematik existiert, wurde der Algorithmus empirisch untersucht. Es wurde ein Botnetzwerk geschaffen, bestehend aus elf Facebook-Profilen, denen unterschiedliche Aufgaben zugeteilt wurden. Die Freundschaftsvorschläge der Bots wurden mit Hilfe eines Web Crawlers extrahiert und im Anschluss ausgewertet. Aus der Analyse der Datensätze ging hervor, dass das Erzeugen eines Freundschaftvorschlages zwischen Bots durch eine Anzahl unterschiedlicher Parametern möglich ist. Im mathematischen Modell wurde Bezug auf die Parameter genommen und für jeden dieser eine Gewichtung zugeteilt, um ihre Relevanz zum Generieren eines Freundschaftvorschlages zwischen zwei Profilen darzustellen. Welche Parameter verwendet wurden und wie die Gewichtungen dieser ausgefallen sind, wird ausführlich in dieser Arbeit erläutert.