Refine
Document Type
- Bachelor Thesis (19)
- Master's Thesis (10)
- Diploma Thesis (1)
Year of publication
Keywords
- Algorithmus (30) (remove)
Die Zuverlässigkeitstheorie ist ein praxisnahes Forschungsgebiet. In dieser Arbeit wird ein erster Einblick in dieses Themengebiet gegeben und Hilfsmittel zur effektiven Berechnung der K-Zuverlässigkeit vorgestellt. Die vorgestellten Möglichkeiten wurden algorithmisch erfasst, implementiert und anhand der Implementierung einige Test hinsichtlich der K-Zuverlässigkeit durchgeführt.
Implementierung und Untersuchung von Algorithmen der Sprachsignalcodierung auf dem TMS320DM6446
(2010)
Ziel der vorliegenden Diplomarbeit ist es, den digitalen Signalprozessor des Typs „TMS320DM6446“ der Firma Texas Instruments und dessen Softwareumgebung zu untersuchen. Zu diesem Zweck soll eine umfassende Dokumentation von der Installation, über die Benutzung, bis hin zur Entwicklung eigener Programme erstellt werden. Die Arbeit umfasst detaillierte Vorschriften zur Verwendung der Softwarekomponenten, sowie selbst erstellte Beispiele und darüber hinaus einen Praktikumsversuch für Studenten.
Zeitintensive Algorithmen stellen in Echtzeitanwendungen wie beispielsweise Videospielen ein großes Problem dar, da sie die restliche Code-Ausführung verzögern. Multithreading verhindert dies mit Hilfe der Auslagerung solcher Algorithmen in einen separaten Thread. ActionScript R stellt mit Workern eine ähnliche Möglichkeit zur Verfügung. Diese Arbeit dient der Konzeption und Entwicklung eines benutzerfreundlichen Frameworks zur Verwendung von Workern. Es soll die komplizierte Konfiguration und Kommunikation übernehmen, jedoch keinen Ersatz bei fehlender Unterstützung der Worker bieten. Im Laufe der Arbeit werden verschiedene Konzepte aufgezeigt und verglichen. Ein Entwurf wird erstellt und implementiert. Abschließend erfolgt die Vorstellung der Ergebnisse der durchgeführten Tests hinsichtlich der Benutzerfreundlichkeit und Performance.
This thesis investigates the efficacy of four machine learning algorithms, namely linear regression, decision tree, random forest and neural network in the task of lead scoring. Specifically, the study evaluates the performance of these algorithms using datasets without sampling and with random under-sampling and over-sampling using SMOTE. The performance of each algorithm is measure using various performance metrics, including accuracy, AUC-ROC, specificity, sensitivity, precision, recall, F1 score, and G-mean. The results indicate that models trained on the dataset without sampling achieved higher accuracy than those trained on the dataset with either random under-sampling or random over-sampling using SMOTE. However, the neural network demonstrated remarkable results on each dataset compared to the other algorithms. These findings provide valuable insights into the effectiveness of machine learning algorithms for lead scoring tasks, particularly when using different sampling techniques. The findings of this study can aid lead management practices in selecting the most suitable algorithm and sampling technique for their needs. Furthermore, the study contributes to the literature by providing a comprehensive evaluation of the performance of machine learning algorithms for lead scoring tasks. This thesis has practical implications for businesses looking to improve their lead management practices, and future research could extend the analysis to other machine learning algorithms or more extensive datasets.
In dieser Arbeit wird der Einsatz des Wave Function Collapse Algorithmus untersucht. Dazu werden Anforderungen an das Leveldesign für das Videospiel Counter Strike: Global Offensive als Vorlage genutzt. Der Algorithmus wird in der Unity Engine implementiert und evaluiert. Es werden drei Versuchsreihen durchgeführt. Jede Versuchsreihe nutzt andere Einstellungen für die Levelgenerierung und analysiert welche Anforderungen erfüllt werden können. Die Ergebnisse werden verglichen und es werden Rückschlüsse auf die Anwendbarkeit des Algorithmus für die Erstellung von Multiplayer Level mit Ähnlichkeit zu Counter Strike: Global Offensive gezogen.
Die Arbeit untersucht das Problem, der Named Entity Recognition in großen Textkorpora. Für klassische Modelle sind meist große gelabelte Datenmengen nötig, die häufig aber nicht zur Verfügung stehen, weil manuelle Annotation sehr zeitaufwendig ist. Deshalb wurde ein Halbüberwachtes
(Semi-Supervised) Verfahren untersucht, um ausgehend von einer kleinen Menge manuell annotierter Daten iterativ mit möglichst wenig Annotationsaufwand ein solides Modell zu trainieren. Das Verfahren nutzt gezielte manuelle Annotation, um den Lerneffekt durch Self-Training zu erhöhen. Die Untersuchungen haben jedoch gezeigt, dass durch Self-Training in diesem Fall keine Verbesserung erzielt werden konnte. Es kann aber eine erhebliche Menge
manueller Annotation durch die gezielte Auswahl von statistisch unsicheren Sätzen für die manuelle Annotation eingespart werden und dadurch effizienter eine bessere Performance erreicht werden.
Path decomposition of a graph has received an important amount of interest over the past decades because of its applications in algorithmic graph theory and in real life problems. For the computation of a path decomposition of small width, we use different heuritics approaches. One of the most useful method is by Bodlaender and Kloks. In this thesis, we focus on the computation, applications, transformation and approximation of a path decomposition of small width.
It is easy to convert a path decomposition in to nice path decomposition with same width, which is more convinent to use to find the graph parameters like independent sets, chromatic polynomials etc. Inspired by [28], we find an algorithm to compute the chromatic polynomial of a graph via nice path decomposition with small width.
Prototype-based classification methods like Generalized Matrix Learning Vector Quantization (GMLVQ) are simple and easy to implement. An appropriate choice of the activation function plays an important role in the performance of (deep) multilayer perceptrons (MLP) that rely on a non-linearity for classification and regression learning. In this thesis, successful candidates of non-linear activation functions are investigated which are known for MLPs for application in GMLVQ to realize a non-linear mapping. The influence of the non-linear activation functions on the performance of the model with respect to accuracy, convergence rate are analyzed and experimental results are documented.
Das Ziel der vorliegenden Arbeit war es, Algorithmen auf speicherprogrammierbaren Steuerungen (SPSen) und Linx-basierten Systemen umzusetzen und dabei einer möglichst einheitlichen Implementierungsstrategie zu folgen. Dabei wurde ein Algorithmus beispielhaft auf SPSSystemen von zwei Herstellern implementiert. Phoenix Contact unterstützt lediglich Sprachen, die durch den Standard IEC/EN 61131-3 spezifiziert sind. Beckhoff ermöglicht durch die Integration von C++ die Umsetzung auf einer gemeinsamen Codebasis mit dem Linux-System. Die gemeinsame Codebasis unterliegt allerdings Einschränkungen.
Ziel der Bachelorarbeit ist es, ein Programm zur Auswertung von bestimmten Genetikexperimenten zu entwickeln. Durch die Automatisierung der Auswertung solcher Experimente wird die Forschung vorangetrieben und die Chance auf Fehler wird dezimiert. Um die Arbeit für alle verständlich zu machen, werden zu Beginn die biologischen Hintergründe, die der Arbeit zu Grunde liegen, erläutert, um danach auf die aus den Experimenten gewonnenen Dateien einzugehen. Anschließend wird das Konzept sowie die Realisierung näher betrachtet. Zum Schluß erfolgt eine Zusammenfassung und ein Ausblick auf mögliche Programmerweiterungen.
In dieser Arbeit werden die Verfahren GLVQ und GRLVQ mit der Sobolev-Metrik erweitert und an verschiedene Datensätze mit funktionalen Daten getestet. Außerdem wird ein Ansatz vor-gestellt, die Prototypen durch Überlagerungen von Basisfunktionen darzustellen. Dieser Ansatz wird zusätzlich noch auf den GMLVQ angewendet. Hierfür betrachtete man die Gaußfunktio-nen und Sigmoidfunktionen als Basisfunktionen. Dabei wurden mit der Sobolev-Metrik sehr gute Resultat erzielt.
Im Rahmen dieser Arbeit werden Algorithmen zur Messung der Grundtonfrequenz von diskreten Signalen auf ihre Tauglichkeit zur Bestimmung der Tonhöhe von Orgelpfeifen untersucht. Dabei werden Genauigkeit und Störsicherheit unter dem Aspekt der Implementierung auf einem Embedded Linux System betrachtet.
Das Ziel der Arbeit besteht in der Auswahl, Konzeption und Implementierung eines geeigneten Verfahrens zur Pfadberechnung und Kollisionsvermeidung in einem 3D-Simulations-System zur Planung und Visualisierung menschlicher Arbeit. Dabei werden verschiedene Datenstrukturen und Algorithmen anhand ihrer Laufzeit und ihres Speicherbedarfs untersucht. Im Anschluss werden die für geeignet befundenen Datenstrukturen und Algorithmen für die Implementierung eines Systems zur Pfadndung verwendet.
Agenten in virtuellen Welten können sich mit Hilfe verschiedener Wegfindungsalgorithmen selbständig von einem Start- zu einem Zielpunkt bewegen. Dafür existieren zahlreiche Algorithmen, um beispielsweise im Rahmen eines Videospiels an die Agenten gestellten Anforderungen und Handlungssequenzen zu erfüllen. Eine solche Anforderung stellt häufig die Navigation durch einen Spielbereich dar. Bei der Anwendung auf Videospiele müssen besondere Voraussetzungen erfüllt werden. Hierzu gehört ein besonders effizienter Umgang mit den zur Verfügung stehenden Ressourcen, um echtzeitfähige Entscheidungen zu ermöglichen und eine nahtlose Integration ins Spielgeschehen zu gewährleisten.
Zu diesem Zweck sind verschiedene klassische Wegfindungsalgorithmen zu implementieren und auf ihre Qualität und Effizienz zu prüfen. Mithilfe der Unity Engine lassen sich verschiedene Szenarien kreieren, die Herausforderungen für unterschiedliche Agenten bilden. Dabei werden die zurückgelegten Wege und Zeiten, aber auch die benötigten Ressourcen mithilfe eines Logging-Systems aufgezeichnet, miteinander verglichen und deren Gute in Abhängigkeit zur Anwendungsdomäne evaluiert.
In der vorliegenden Masterarbeit werden Daten der Kriminalstatistik Berlins in Bezug auf die Entwicklung erfasster Straftaten statistisch analysiert und hinsichtlich kausaler Zusammenhänge ausgewertet. Der Hauptaspekt der Arbeit bildet ein neuer Modellierungsansatz für den Bereich des Predictive Policing, welcher sich auf Erkenntnissen über Bayesian Belief Networks stützt. Durch die präsentierten Ansätze soll die grundsätzliche Anwendbarkeit von gerichteten Graphen für die Problemstellungen des Predictive Policing aufgezeigt werden, da diese aufgrund ihres Potenzials in der Abbildung von Informationsflüssen sowie Eigenschaften der Inferenz zukünftig neue Möglichkeiten in der Modellierung der Ausbreitung von Kriminalität bieten können.
In dieser Arbeit wird die Klasse der Chordalen Graphen vorgestellt. Dafür werden zunächst einige Grundlagen zu den Chordalen Graphen vorgestellt wie wichtige Definitionen, Eigenschaften, einige Sätze zu dieser Graphenklasse und ein Überblick über wichtige Literatur. Anschließend wird beschrieben, wie man Chordale Graphen erkennen kann und mit welchen anderen Graphenklassen sie im Zusammenhang stehen. Abschließend wird noch auf zwei der bekanntesten Algorithmen für Chordale Graphen eingegangen.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
In this thesis, we focus on using machine learning to automate manual or rule-based processes for the deduplication task of the data integration process in an enterprise customer experience program. We study the underlying theoretical foundations of the most widely used machine learning algorithms, including logistic regression, random forests, extreme gradient boosting trees, support vector machines, and generalized matrix learning vector quantization. We then apply those algorithms to a real, private data set and use standard evaluation metrics for classification, such as confusion matrix, precision, and recall, area under the precision-recall curve, and area under the Receiver Operating Characteristic curve to compare their performances and results.
Diese Arbeit führt eine Analyse und Vergleich von Handelsstrategien durch, insbesondere von kurzfristigem Momentum, Mean Reversion und Paar-Arbitrage im Kontext der Bitcoin-, Ethereum- und BNB-Märkte. Eine vergleichende Bewertung wird mit der Buy-and-Hold-Strategie vorgenommen. Die unter die Lupe genommenen Handelsstrategien umfassen Ehlers Moving-Average-Crossover-Paare, einen auf Standardabweichung basierenden Mean-Reversion-Ansatz und Paarhandel. Verschiedene algorithmische Handelsframeworks werden untersucht, und die Entwicklungs- und Verbesserungsprozesse werden detailliert beschrieben.
Um die Handelsbedingungen der realen Welt so genau wie möglich zu replizieren, werden Transaktionsgebühren und Slippage in die Berechnungen einbezogen. Die Ergebnisse verdeutlichen die Herausforderung, eine Buy-and-Hold-Strategie zu übertreffen, zeigen jedoch auch die Machbarkeit, dies mit Momentum-Strategien zu erreichen, selbst unter Berücksichtigung von Transaktionskosten.