Refine
Document Type
- Master's Thesis (3)
- Diploma Thesis (2)
- Bachelor Thesis (1)
- Conference Proceeding (1)
Keywords
- Datenanalyse (7) (remove)
Der Beitrag untersucht die automatisierte Datenqualifizierung von Bauwerksdaten in der Talsperrenwirtschaft, insbesondere die Verbindung zwischen dem SICA-Algorithmus von Okeanos und der Messdatenhaltung Aquarius von Aquatic Information. Die zuverlässige Erfassung und Auswertung dieser Daten sind entscheidend für die Sicherheit und Effizienz von Talsperren. Der Fokus liegt auf den neuesten Entwicklungen im Bereich der automatisierten Datenqualifizierung, einschließlich künstlicher Intelligenz und maschinellem Lernen zur Fehlererkennung und -korrektur. Der SICA-Algorithmus zeichnet sich durch den Einsatz unbewachten Lernens aus, was eine flexible und adaptive Lösung für die Bauwerksanalyse ermöglicht. Ein praktisches Beispiel illustriert die Anwendung des SICA-Algorithmus in Verbindung mit Aquarius und liefert Einblicke zur Weiterentwicklung der automatisierten Datenqualifizierung in der Talsperrenwirtschaft.
Influenza Viren sind einzelsträngige RNA Viren, welche in drei unterschiedliche Typen unterteilt werden: A, B und C. Sie alle besitzen ein in acht Segmente unterteiltes Genom. Während Viren vom Typ B und C eher langsam im Menschen evolvieren, evolvieren Viren vom Typ A sehr schnell und verursachen milde bis schwere Erkrankungen. Sie sind daher eine ständige Gefahr für den Menschen. Neben den üblichen genetischen Mutationen zur Veränderung des Erbguts hat Influenza die Fähigkeit zur Reassortierung. In diesem Fall muss eine Wirtszelle gleichzeitig von zwei (oder mehr) unterschiedlichen Influenza Viren befallen sein, welche als neuer Virus von der Wirtszelle hervorgebracht werden und Segmente von beiden (allen) gleichzeitig infizierenden Vieren enthalten. Neben diesem speziellen Fall von Reassortierungen haben Influenza A Viren bereits eine hohe Mutationsrate. Ursache für die schnelle genetische Veränderung und die damit verbundene Umgehung des Immunsystems des Wirts, ist eine Polymerase der eine proofreading-Untereinheit fehlt. Speziell genetische Veränderungen in einem der beiden Oberflächenglykoproteinen - Hämagglutinin (HA) - können massive Auswirkungen auf die Fähigkeit des Virus haben, Menschen zu infizieren. Dieses Protein zeigt bevorzugte Aminosäuren auf, welche unter extremen Selektionsdruck stehen. Genetische Veränderungen in diesem Proteinen ist einer der Hauptgründe dafür, dass Influenza A Viren das Immunsystems des Wirts umgehen können, da dieses bevorzugt von Antikörpern erkannt wird. Exogenes Material wird sehr spezifisch durch das Immunsystem erkannt und ist sehr speziell auf die Oberfläche einiger Aminosäuren und deren Eigenschaften angepasst. Schon kleine Veränderungen an bekannten, wichtigen Stellen können zum Umgehen der Immunantwort des Wirts führen, da die Bindung und damit die Markierung durch Antikörper beeinträchtigt ist. Die hohe Mutationsrate von Influenza A Viren, speziell im HA protein, ist der Grund für die Notwendigkeit von jährlichen Impfungen.
Im Prozess der Masterarbeit und des vorangegangenen Forschungsmoduls wurden drei verschiedenartige Anbieter*innen von Escape Spielen untersucht. Zu diesem Zweck wurden Vor-Umfragen eingeholt, um Informationen über populäre und bekannt Reihen dieser Art zu erkennen. Aufbauend auf diesen Fragebögen wurden anschließend drei Anbieter*innen gewählt, welche eine möglichst unterschiedliche Herangehensweise an die Umsetzung eines Escape-Raumes mit minimalistischen Mitteln haben. Nachdem diese ausgemacht wurden, konnten die Proband*innen-Gruppen eingeteilt werden, um, basierend auf diesen Konstellationen, verschiedene Boxen der Herausgeber einer Reihe auszuwählen. Auch bei diesen lag ein besonderer Schwerpunkt auf der Vergleichbarkeit, wodurch auf mögliche Zusammenhänge der Storylines geachtet wurde. Um die folgende Testphase planen zu können, musste jede der vierzehn Ausgaben zunächst selbst getestet und analysiert werden. Hierzu wurden alle Rätsel versucht zu lösen und zu verstehen, um den Kern der Aufgabenstellung erfassen zu können. Zudem wurde ein Zusammenhang zwischen den Karten in Form von Ablauf-Diagrammen ermittelt, wobei festgestellt werden konnte, dass mit zunehmender, ausgeschriebener Schwierigkeit diese breiter werden. Das bedeutet, dass zu Rätseln, welche als schwerer markiert waren, mehr Karten gegeben wurden. Eine der Herausforderungen lag darin, die benötigten Karten auszumachen. Da diese Methodik jedoch nicht zwingend mit der Art der Rätsel und den Hindernissen diese zu Lösen verknüpft ist, sondern als unterstützendes Element angesehen werden kann, wurde sie in der vorliegenden Arbeit nicht berücksichtigt. Nachfolgend konnten aufgrund der gewonnenen Erkenntnisse Fragebögen erstellt werden, welche sowohl allgemein auf die gesamte Box, als auch speziell auf die einzelnen Rätsel eingehen. Hierbei wurden klare Ziele gesteckt, welche Informationen erhoben werden sollten. Anhand dieser Strukturierung war es möglich eine umfassende Sammlung an sehr verschiedenartigen Fragen zu erstellen, wodurch im Verlauf der Tests eine Vielzahl an Informationen gewonnen werden konnte. Zusätzlich zu dieser Erhebung wurden Videodateien während des laufenden Tests erstellt, welche eine detailliertere und unabhängigere Betrachtung der Proband*innen ermöglichen. Nachdem diese Datenerhebungsphase abgeschlossen werden konnte, also alle Boxen verwendet wurden, begann die Vorverarbeitung der Daten. Hierzu wurden zunächst die Videodateien gesichtet und strukturiert und die Fragebögen in eine einheitliche Form gebracht. Es lagen nach dieser Phase strukturierte Videodateien vor, welche den gesamten Prozess des Lösens abbildeten, aber auch Dateien zu den einzelnen, definierten Rätseln. Diese einzelnen Rätsel wurden weitergehend kategorisiert und in ein vergleichbares Schema eingeordnet. Diese einzelnen Rätselvideos konnten zudem durch einen Algorithmus verarbeitet werden, welcher die unterschiedlichen Gesichter der Proband*innen erfassen, analysieren und in sieben Emotionen unterteilen kann. Aus diesem Verarbeitungsschritt entstanden zu jedem Rätsel drei CSV Dateien, welche diese Wahrscheinlichkeiten in Abhängigkeit des aktuellen Bildes wiedergeben. In Bezug auf die Fragebögen wurden Tabellenstrukturen erreicht, welche die unterschiedlichen Arten und Teile dieser in einer einheitlichen Struktur wiedergeben. Nach diesem Schritt war es möglich die Daten auf eine sinnvolle Weise zu kombinieren und aus diesen Rückschlüsse auf Korrelationen zu ziehen. Auch eine Analyse mit umfangreicheren Anwendungen, wie „Rapid Miner“ sind denkbar, jedoch haben die beschriebenen Methoden für die anvisierten Fragestellungen genügt. Auch andere Hypothesenuntersuchungen können aufgrund der aufgearbeiteten Daten erreicht werden, da sicherlich noch andere Zusammenhänge in dieser Masse an Informationen stecken. Jedoch wurde mit dieser Aufnahme und diesen Auswertungen die Fragestellungen beantwortet, welche am Anfang des Praxismoduls aufgekommen waren
Die Strafverfolgungsbehörden verwenden zunehmend Mobilfunkdaten, um Tathergänge zu rekonstruieren und daraufhin Tatverdächtige überführen zu können. Die Mobilfunkdaten erhalten die Strafvervolgungsbehörden auf Anfrage und richterlichen Beschluss von den Telekommunikationsanbietern. Die Anfragen sind sowohl zeitlich als auch regional stark eingegrenzt. Trotzdem ist das Datenvolumen erheblich. Auf Grund des Datenvolumens und der Heterogenität der Datenformate zwischen den Mobilfunkanbietern, gestaltet sich die Auswertung der Daten sehr aufwändig. Diese Masterarbeit adressiert die genannten Aspekte mit einer auf die Mobilfunkdaten abgestimmten Datenintegrations- und -analyse-Pipeline. Die Pipeline überführt die Mobilfunkdaten in ein harmonisiertes Datenformat und reichert sie mit einer Annotation zur Bodennutzungsklassifizierung an. Letztere sind für die Datenanalyse relevant. Grundlegend greift die Pipeline auf eine Graphdatenbank zurück, in die die Daten eingefügt werden. Anhand der Anfragesprache Cypher können relevante Daten für diverse Auswertungsfragen selektiert und zur Verfügung gestellt werden. Diese Grundlage ermöglicht eine iterative Vorgehensweise bei der Datenauswertung, so dass aus Ergebnissen einer vorangegangenen Frage, neuen Auswertungszielen schnellstmöglichst begegnet werden kann. Die in der Arbeit gezeigten Auswertungen stehen beispielhaft für das große Spektrum an Auswertungsmöglichkeiten. Insbesondere wurden Personenkreise mit speziellen Bewegungsprofilen anhand der den Funkmasten zugeordneten Landnutzungsklassen ermittelt. Die in der Arbeit verwendeten Daten wurden mit diesem Ansatz um 99% reduziert. Damit können Analyst:innen sich auf die relevanten Aussagen konzentrieren. Zudem konnte eine Korrelation zwischen Mobilität und dem Nutzungsverhalten hergestellt werden. Jedoch zeigt sich auch, dass die hohe Variabilität und Individualität der Personen in einem zeitlich und regional eng begrenzten Datenraum, der Ermittlung von allgemeinen Bewegungsprofilen entgegensteht.
Big Data im Profifußball
(2018)
Heutzutage lässt sich im Fußball alles bis ins kleinste Detail messen und analysieren. Die Stärken und Schwächen einzelner Spieler und von ganzen Mannschaften. Welche Räume kontrolliert werden, wie aggressiv die Spieler und Mannschaften die Gegenspieler anlaufen oder wie effektiv die Spieler und Mannschaften mit ihren Aktionen agieren Ziel der vorliegenden Arbeit ist es zu erörtern, inwiefern Big Data heutzutage im Profifußball angewendet wird, worauf der Fokus bei der Datenanalyse gelegt wird und worin die Chancen und die Risiken dessen bestehen.
The objective of this diploma thesis is to analyse the results of functional tests carried out on hydraulic valve blocks at Wujin Plant of Bosch Rexroth (Chang-zhou) Co., Ltd., (China). Based on this analysis, tests could be checked for systematic errors and root causes of failures be identified. Finally, this helped i n-crease the first pass yield of testing to release resources so far bound in inefficient testing processes. Furthermore, a tracking mechanism was established to monitor the function of crucial sensors at test benches.