Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
In der vorliegenden Bachelorarbeit wurde ein Prototyp einer Software konzipiert und implementiert, die es ermöglicht, eine Active Directory Domain nach potenziellen Schwachstellen zu durchsuchen und deren Ausnutzbarkeit zu testen. Dabei simuliert die Software das Vorgehen eines Penetrationstesters, um zu erörtern, ob ein solches Tool diesen ersetzen kann. Die Arbeit beschreibt das Vorgehen des Autors während der Programmierung dieser Software sowie die Funktionsweise des Programms. Durch die Entwicklung und Reflektion dieses Tools konnte gezeigt werden, dass menschliche Penetrationstester deutliche Vorteile gegenüber automatisierten Programmen aufweisen und solche Tools aufgrund einiger Faktoren nur unterstützend, aber nicht ersetzend, verwendet werden können.
Die vorliegende Arbeit befasst mit der Entwicklung eines Prüfstandes zur Absicherung einer Softwarefunktion. Dabei wird die Umgebung, der Hochintegrationsrechner in der Fahrzeugentwicklung, sowie verschiedene Prüfstandskonzepte betrachtet. Die Anforderung und Testspezifikationen werden analysiert und teilweise revidiert. Als Lösung wird eine drei Teilige dargestellt: Testwürfel, G-HiL und Sys-HiL. Diese Synergie liefert zu jedem Verbundreleases einen SmokeTest und kann zu den Gesamtintegrationstest einen Volltest durchführen.
Die vorliegende Bachelorarbeit befasst sich mit dem modernen Fahrzeug, das sich im Wandel der Digitalisierung zu einem datenverarbeitenden und stark mit der Umwelt vernetzten System entwickelt hat. Besonders durch die Auswertung von Literatur wird aufgezeigt, welche Risiken mit der zunehmenden Digitalisierung eines Fahrzeugs einhergehen
Die vorliegende Arbeit betrachtet die Möglichkeiten zur Sicherung von Foto- und Videobeiträgen aus sozialen Netzwerken, um diese im Rahmen der Strafverfolgung als Beweismittel nutzbar zu machen. Vier ausgewählte Sicherungsmethoden werden in einem Sicherungsversuch angewendet und im Anschluss miteinander verglichen. Schließlich wird aus den so ermittelten positiven Eigenschaften der Methoden eine hypothetische optimale Methode formuliert, welche für eine zukünftige Anwendung implementiert werden könnte.
The endogen steroid hormone 17b-estradiol is a central player in a wide range of physiologic, behavioral processes and diseases in vertebrates. As a consequence, it is a main target for molecular design and drug discovery efforts in medicine and environmental sciences, which requires in-depth knowledge of protein-ligand binding processes. This work develops a bioinformatic framework based on local and global structure similarity for the characterization of E2-protein interactions in all 35 publicly available three-dimensional structures of estradiol-protein complexes. Subsequently, it uses gained data to identify four geometrically conserved estradiol binding residue motifs, against which the Protein Data Bank is queried. As result of this database query, 15 hits present in seven protein structures are found. Five of these structures do not contain E2 as ligand and had thus not been included in this work’s initial data set. One of these newly detected structures is structurally and functionally dissimilar, as well as evolutionarily distant from all other proteins analyzed in this work. Nevertheless, the ability of this protein to actually bind estradiol must be further analyzed. Finally, geometrically conserved E2-protein interactions are identified and a new research direction using these conserved interaction ensembles for the detection of novel estradiol targets is proposed.
Die Bachelorarbeit behandelt die automatische Überprüfung hinsichtlich "Indicators of Compromisse" auf Linux-Systemen.
Sie beschreibt die Anfertigung eines forensischen Hilfstools welches die Aufgabe der automatisierten Überprüfung so weit wie möglich übernehmen soll. Hierbei waren 26 Indicators of Compromise als Grundlage gegeben, welche im Rahmen der Arbeit betrachtet werden. Das forensische Hilfstool setzt sich im Ergebnis aus zwei Hauptskripten zusammen, wovon eines zur Datenerhebung auf dem zu untersuchenden System dient, das andere zur Datenanalyse auf einem separaten Analysesystem. Die Arbeit stellt für jeden der betrachteten Indikatoren ausführlich dar wie eine automatisierte Überprüfung erfolgt, und falls nicht möglich ist, wodurch diese eingeschränkt wird und welche Schritte manuell erfolgen müssen. Als Endergebnis der Arbeit wird festgehalten, dass für alle Indikatoren mindestens eine Teilautomatisierung umsetzbar ist. Eine komplette Automatisierung für alle Indikatoren ist nicht möglich. Jedoch gelingt es durch das Hilfstool die manuelle Arbeit entscheidend zu verkürzen und zu erleichtern.
Fermat proposed fermat’s little theorem in 1640, but a proof was not officially published until 1736. In this thesis paper, we mainly focus on different proofs of fermat’s little theorem like combinatorial proof by counting necklaces, multinomial proofs, proof by modular arithmetic, dynamical systems proof, group theory proof etc. We also concentrate on the generalizations of fermat’s little theorem given by Euler and Laplace. Euler was the first scientist to prove the fermat’s little theorem. We will also go through three different proofs given by Euler for fermat’s little theorem. This theorem has many applications in the field of mathematics and cryptography. We focus on applications of fermat’s little theorem in cryptography like primality testing and publickey cryptography. Primality test is used to determine if the given number n is a prime number or composite number. In this paper, we also concentrate on fermat primality test and Miller-Rabin primality test, which is an extension of fermat primality test. We also discuss the most widely used public-key cryptosystem i.e, the RSA Algorithm, named after its developers R. Rivest, A. Shamir, and L. Adleman. The algorithm was invented in 1978 and depends heavily on fermat’s little theorem.
Leichte Sprache bietet Menschen mit eingeschränktem Leseverständnis die Möglichkeit der selbstständigen Informationsbeschaffung. Der Übersetzungsprozess verläuft überwiegend intellektuell und ohne technische Unterstützung. Die vorliegende Arbeit beschäftigte sich mit der Optimierung
eines zur Unterstützung des Übersetzungsprozesses entwickelten Annotationstools für Leichte Sprache. Dabei sollte geprüft werden, ob anhand von UI-Designpattern sowie visuellen Anpassungen Verbesserungen der User Experience hervorgerufen werden konnten.
Diese Bachelorarbeit beschäftigt sich mit der Analyse des Bussystems FlexRay. Dieses System wird vor allem für sicherheitskritische Aspekte im Fahrzeug eingesetzt. Somit kann das FlexRay über das Leib und Leben des Fahrers und aller Verkehrsteilnehmer mitwirken. Gerade in heu-tigen Zeiten, wo immer mehr Technologie zur Sicherheit des Verkehrs beitragen soll, wird vor allem in die Sicherheit des Systems im Bezug zur Zuverlässigkeit geforscht. Die Absicherung vor Manipulationen oder Angriffen auf den Bus wird jedoch nur wenig untersucht. Daher soll diese Ausarbeitung zur Analyse des Bussystems, bezüglich der IT-Sicherheit dienen. Dabei ist die Thematik dieser Arbeit noch nicht abgeschlossen, sie bildet jedoch eine gute Grundlage für weiterführende Versuche.
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung einer Schädelfraktur in einem archäologischen Fund. Es werden Hypothesen über die Ursache diskutiert und in Teilen experimentell überprüft. Aufgrund von zeitlichen Einschränkungen und fehlenden Materialien wurde eine andere Hypothese getestet, als ursprünglich vorgesehen: Es wurde versucht, die Krafteinwirkung eines Grabungswerkzeuges auf einen archäologischen Schädel durch Versuche mit künstlich "gealterten" Schweineschädeln nachzustellen. Da nur eine kleine Testgruppe an Schädeln zur Verfügung stand und keine originalen Werkzeuge verwendet wurden, konnten die Versuche die Hypothese nicht eindeutig belegen oder wiederlegen. Die in dieser Arbeit angestellten Überlegungen und Erfahrungen können aber als Grundlage für weiterführende Arbeiten dienen.
Diese Arbeit behandelt die Entwicklung der Daktyloskopie als Instrument der Personenidentifizierung sowie der Bestimmung weiterer Informationen aus Fingerabdrücken. Unter Berücksichtigung des technischen Fortschritts des digitalen Zeitalters wird im Laufe der Arbeit nicht nur auf neue Methoden in der Daktyloskopie, sondern auch auf die Herausforderungen der Sichtbarmachung daktyloskopischer Spuren eingegangen. Daraus resultieren die Möglichkeiten Informationen zum Spurenverursacher zu erfahren, das Alter eines Abdrucks einzuschätzen und mittels der neuen Verfahren Abdrücke auf problematischen Oberflächen sichtbar zu machen. Auch die Entstehung des Fingerabdruck-Klassifizierungssystems wird in der Arbeit beschrieben. Durch die Auseinandersetzung mit jeglichen Entwicklungen in der Daktyloskopie soll schließlich geklärt werden, ob diese erfolgsversprechender sind, herkömmliche Mittel zur Sichtbarmachung daktyloskopischer Spuren ersetzen werden und ob in der Zukunft eine Automatisierung sowie Digitalisierung der Spurensuche stattfinden wird.
In der vorliegenden Arbeit werden geeignete Kriterien zur Beurteilung von Bienenvölkern in der Bienenhaltung (Imkerei) ermittelt. Für die datentechnische Erfassung dieser Kriterien wird prototypisch ein Internet of Things (kurz: IoT) System konzeptioniert und implementiert. Dieses System nutzt zur drahtlosen Datenübertragung die Technologie LoRa/LoRaWan. Eine Darstellung der Informationen erfolgt abschließend in einer IoT Plattform. Für diese Gesamtlösung wer-den dazu geeignete Hard- und Softwarelösungen verglichen und prototypisch implementiert. Eine Inbetriebnahme erfolgt an einem Referenzbienenstock
Das Testen von Software ist unabdingbar und wird nicht nur für Desktop Applikationen, sondern auch für Applikationen auf mobilen Geräten benötigt. Der Prozess des Testens ist aufwändig. Es gibt durch künstliche Intelligenz gestützte Lösungen, welche Systemtests zu großen Teilen eigenständig generieren und dem Entwickler das Testen erleichtern, zum Beispiel das AI4Test Projekt der Systems Multimedia Solutions GmbH.
Das Ziel dieser Bachelorarbeit besteht darin, das AI4Test Projekt zu analysieren und die bestehende Struktur so zu erweitern, dass iOS-Geräte neben Android und Desktop Geräten unterstützt werden. Dabei wird eine generalisierte Schnittstelle zur Interaktion mit Geräten geschaffen.
Das Ziel der Bachelorarbeit wird erreicht. Das AI4Test Projekt wird vorgestellt, die Schnittstelle generalisiert und die Plattform iOS wird prinzipiell unterstützt.
Die vorliegende Bachelorarbeit setzt sich mit der Fragestellung auseinander, ob langfristige Verhaltensveränderung durch Gamification erreicht werden kann. Dazu werden in dieser Arbeit die erfolgreiche Implementation von Gamification, die Faktoren der Langzeitbindung in Spielen und die verhaltensbeeinflussenden Methodiken der Verhaltenstherapie untersucht. Die erarbeiteten Faktoren der verschiedenen Bereiche werden abschließend auf Schnittmengen überprüft und zu einem theoretischen Modell zusammengefügt.
Die vorliegende Bachelorarbeit beschäftigt sich mit maschinellem Lernen im Kontext des autonomen Fahrens. Das Ziel dieser Arbeit ist das Anlernen eines Steuerungsmechanismus eines simulierten Fahrzeugs, auf Grundlage maschineller Lernverfahren, speziell dem Deep Reinforcement Learning. Dazu werden zunächst die Grundlagen des autonomen Fahrens und des maschinellen Lernens geklärt. Mit der Unity-Engine und dem ML-Agents Toolkit wurden Szenen erstellt, in denen Agenten trainiert werden. In verschiedenen Szenen mit unterschiedlichen Komplexitäten und Aufgaben sollen die Agenten lernen ein simuliertes Fahrzeug zu steuern und die jeweilige Aufgabe zu erfüllen. Um das Fahrzeug zu steuern muss der Agent die Längs- und Querführung übernehmen. Die Aufgaben können zum Beispiel anhalten in einem Zielbereich, ausweichen vor Hindernissen oder folgen eines bestimmten Streckenverlaufs umfassen. Die Ergebnisse zeigten, dass es möglich ist ein simuliertes Fahrzeug, mit einem durch Deep Reinforcement Learning angelernten Steuerungsmechanismus, zu steuern. In den meisten Szenen zeigten die Agenten ein gutes Verhalten. Durch die Ergebnisse konnten Erkenntnisse gewonnen werden, welche Faktoren bei Lernvorgängen besonders wichtig sind. Es zeigte sich, dass unter anderem die Wahl einer guten Belohnungsfunktion ausschlaggebend war.
Das Ziel dieser Arbeit ist es die bestehende ALP, um ein Analysetool zu ergänzen. Dieses Analysetool soll Dozenten einen Anhaltspunkt geben, ob die Lernenden Lernerfolge erzielen oder, ob es in bestimmten Bereichen Probleme gibt. Dazu werden die Grundlagen von Lernerfolg und Learning Analytics analysiert. Zusätzlich werden ähnliche Tools analysiert, um von diesen Inspiration und Anforderungen zu beziehen. Diese Anforderungen und die Anforderungen der ALP gehen in ein zu erstellendes Konzept ein, mit dem, unter anderem, der Lernerfolg von Lernenden durch das Analysetool gemessen werden soll. Anhand des Konzeptes wird die bestehende Architektur angepasst und erweitert. Dabei gilt es beim Umsetzen des Konzeptes nicht nur das Analysetool zu entwickeln, sondern auch nötige Änderungen an anderen Bestandteilen der ALP, wie der mobilen Applikation vorzunehmen. Zum Evaluieren wird zunächst die mobile Applikation durch eine Probandengruppen getestet, um Daten für das Analysetool zu generieren. Mit diesen Daten wird das Analysetool von Lehrenden auf seine User Experience und Nützlichkeit getestet.
Phishing Bedrohungen in Unternehmen : eine Untersuchung von Angriffstrends und Schutzmaßnahmen
(2023)
Diese Bachelorarbeit befasst sich mit Phishing Bedrohungen für Unternehmen, sowohl Angriffstrends als auch Schutzmaßnahmen.
Ziel der vorliegenden Arbeit ist es, bisher getroffene Schutzmaßnahmen zu analysieren und ihre Wirksamkeit anhand von zwei ausgewählten Fallbeispiele zu untersuchen. Dafür werden die Phishing Angriffe auf die amerikanischen Unternehmen „Twitter“ und „Uber“ genauer betrachtet und warum diese erfolgreich waren. Es soll beurteilt werden, ob die vorgestellten Leitfäden und Schutzmaßnahmen diese beiden Phishing Angriffe hätten verhindern können. Die Untersuchung zeigte, dass die gängigen Schutzmaßnahmen und das Einhalten von Leitfäden nicht ausgereicht haben, um die Unternehmen vor einem erfolgreichen Phishing Angriff zu schützen. Außerdem kommt dem Mensch bei der Bekämpfung von Phishing eine viel zu große Bedeutung zu und vernachlässigt das Handeln auf Managementebene.
A classical topic in the theory of random graphs is the probability of at least one isolated vertex in a given random graph. An isolated node has a huge impact on social networks which can be given by a random graph. We present a distribution on the number of isolated vertex using the probability generating function. We discuss the relationship between isolated edges and extended cut polynomials, extended matching polynomials using the principle of inclusion exclusion. We introduce an algorithm based on colored graphs for general graphs. We apply this to the components of a graph as well. Finally, we implement the idea on a special class of graphs like cycle, bipartite graph, path, and others. We discuss recursive procedure based on the analogous coloring rules for ladder and fan graphs.
Entwicklung einer CRISPRCas9 basierten Methode zur chromogenen in situ-Markierung spezifischer DNS
(2020)
Ziel der Arbeit war es, die Möglichkeit der in‒situ Markierung (ISH) durch das CRISPRCas9-System aus Streptococcus pyogenes zu nutzen, um damit ein chromogenes Detektionsverfahren für spezifische DNS-Sequenzen zu entwickeln (chromogene CRISPR-ISH). Das bisherige CRISPR-FISH-Verfahren von [Ishii et al. 2019] nutzte als Signalgeber Fluoreszenzfarbstoffe. Nachteilig ist, dass die für den Nachweis von Fluoreszenzsignalen nötige Technik wie Fluoreszenzmikroskop und -kamera kostenintensiv ist. Dadurch sind diese technischen Voraussetzungen für kleine Labore oder Bildungseinrichtungen häufig nicht erschwinglich. Weiterhin werden Fluoreszenzsignale nach wiederholtem Lichtkontakt instabil, wodurch die so markierten Präparate nicht mehrmals betrachtet werden können und für den wiederholten Gebrauch nicht geeignet sind. Die in dieser Arbeit entwickelte Methode sollte es ermöglichen, das Prinzip der CRISPR-Cas-basierten Markierung zu nutzen, ohne den Nachteilen der Fluoreszenz zu unterliegen. Um dieses Ziel zu erreichen, wurde die
CRISPR-FISH Methode sukzessive umgestaltet. Die bisher eingesetzten Fluoreszenzfarbstoffe wurden ersetzt. Die Zellkernfärbung (bisher durch DAPI) und die Visualisierung der Ribonukleoproteine (bisher durch Atto550) sollte mit nicht-fluoreszenten Farben realisiert werden. Die Ergebnisse sollten als Dauerpräparte so konserviert werden, dass diese beliebig häufig mit einem Lichtmikroskop betrachtet werden können.
In Zeiten, in denen Unternehmen rechenintensive Anwendungen auf externe Server auslagern, gewinnt Cloudcomputing immer mehr an Bedeutung. Das Problem dabei ist, um Operationen auf herkömmlichen, verschlüsselten, ausgelagerten Daten ausführen zu können, müssen diese zuerst entschlüsselt werden. Vertrauliche Daten liegen in dem Zeitraum der Bearbeitung unverschlüsselt vor, was zu einem Datenschutz- und Sicherheitsproblem führt. Dieses Problem kann durch vollständig homomorphe Verschlüsselungen gelöst werden. Diese moderne Verschlüsselungstechnik erlaubt das Ausführen von Operationen auf verschlüsselten Daten und wird in dieser Arbeit grundlegend vorgestellt. Weiterhin werden Bibliotheken, die homomorphe Verschlüsselungen implementieren, vorgestellt und mittels Benchmarking miteinander verglichen. Anschließend wird ein Anwendungsbeispiel formuliert, das die Vor- und Nachteile homomorpher Verschlüsselungen simulieren soll. Die Implementierung des Anwendungsbeispiels erfolgt mithilfe der im Benchmarking ermittelten leistungsstärksten Bibliothek - der Microsoft SEAL Bibliothek. Mit den in dieser Arbeit erlangten Erkenntnissen soll der Einstieg in die komplexe Thematik der homomorphen Verschlüsselungen vereinfacht werden und gleichzeitig zur Auseinandersetzung mit dieser Verschlüsselungsmethodik angeregt werden.
Learning Vector Quantization ist ein Klassifikator, der in seiner Urform im euklidischen Raum lernt. Für Zeitreihendaten benötigt es ein gesondertes Distanzmaß, nicht nur wegen der Relation der Zeitpunkte untereinander, sondern auch wegen der unterschiedlichen Längen dieser Zeitreihendaten. Als solches Distanzmaß wird Dynamic Time Warping eingesetzt. Diese Arbeit untersucht die Implementierung und dessen Zeit- und Raumkomplexität.
Machine learning models for timeseries have always been a special topic of interest due to their unique data structure. Recently, the introduction of attention improved the capabilities of recurrent neural networks and transformers with respect to their learning tasks such as machine translation. However, these models are usually subsymbolic architectures, making their inner working hard to interpret without comprehensive tools. In contrast, interpretable models such learning vector quantization are more transparent in the ability to interpret their decision process. This thesis tries to merge attention as a machine learning function with learning vector quantization to better handle timeseries data. A design on such a model is proposed and tested with a dataset used in connection with the attention based transformers. Although the proposed model did not yield the expected results, this work outlines improvements for further research on this approach.
Das Ziel der vorliegenden Arbeit ist die Evaluation von Methoden zur Erzeugung von Körpermustern im Kontext der forensischen 3D-Rekonstruktion. Dabei wurde die Hypothese verfolgt, dass eine Photogrammetrie-CAVE für diese Anwendung die besten Ergebnisse erzielen kann. Um diese Hypothese zu untersuchen, wurde in dieser Arbeit hinterfragt, welche Methoden für diese Anwendung infrage kommen, wie effizient und genau diese sind und welche Unterschiede zwischen den Methoden zu erkennen sind. Um diese Fragen zu beantworten, wurden im Rahmen der Arbeit mehrere Modelle von verschiedenen Probanden unter Nutzung drei verschiedener Softwares erzeugt und evaluiert. Die Evaluation zeigt dabei große Unterschiede im Zeitaufwand und der Genauigkeit der Modelle. Weitere Forschung auf diesem Gebiet könnte die Nutzung der in dieser Arbeit verwendeten Software verfeinern, aber auch neue Ansätze und Softwaretypen auf ihre Tauglichkeit für diesen Anwendungsbereich testen.
Diese Arbeit beschäftigt sich mit der Altersbestimmung der forensisch relevanten Schmeißfliegenart Lucilia sericata anhand der Augenfärbung während der Puppenentwicklung. Das Puppenstadium macht ca. 50 % der Gesamtentwicklung vom Ei bis zur Fliege aus, eine geeignete Methode zur differenzierten Altersbestimmung von Puppen findet derzeit allerdings noch keine Anwendung. Durch vorangegangene Studien zur Puppenentwicklung ist die Augenfärbung zunehmend als Merkmal aufgefallen, sodass in dieser Arbeit untersucht werden soll, ob anhand der Augenfärbung eine Altersbestimmung möglich ist und ob diese in Zukunft als Marker eingesetzt werden kann. Hierfür wurde die Färbung mithilfe des RGB-Farbmodells analysiert. Die Augenfärbung von Lucilia sericata ändert sich über die komplette Metamorphose hinweg hoch signifikant (p<0,0001). Des Weiteren konnte die Färbung in drei Phasen unterteilt werden: larvale Färbung, Rotfärbung und Braunfärbung. Eine Altersbestimmung mithilfe der linearen Regression ist durch sprunghafte Farbänderungen derzeit noch nicht möglich.
Die vorliegende Arbeit beschäftigt sich mit den Fragen, welche Indikatoren für einer Kompromittierung (IoC) in Active Directory gefunden werden können, wo sich diese befinden und mit welchen Werkzeugen sie offline erfasst werden können. Das Ziel ist, diese Fragen mittels einer Übersicht über die Indikatoren einer Kompromittierung und einer Übersicht über relevante Dateien für eine forensische Untersuchung zu beantworten.
Für die Erstellung der Übersichten wurden Angriffsmethoden auf Active Directory nach relevanten Ereignissen analysiert. Diese Ereignisse wurden in einer Testumgebung nachgestellt und anschließend offline mit den recherchierten Werkzeugen analysiert.
Durch die Ergebnisse der Arbeit konnte gezeigt werden, welche IoCs in Active Directory grundsätzlich existieren können, wo sich diese befinden und mit welchen Werkzeugen die Indikatoren offline erhoben werden. Es wird ebenfalls ersichtlich, welche Indikatoren nicht erhoben werden können und warum dies so ist.
Der Grund für die eingeschränkte Offline-Erhebung von gewissen IoCs ist das Fehlen von Werkzeugen, die bestimmte Informationen aus der Datenbank offline extrahieren können.
Die folgende Arbeit lehnt sich an die Hypothesen von Franz und Behringer et al. 2017 an. Zum einen wurde die Hypothese über die möglichen Funktionen des Blebbens von Skelettmuskelzellen dargelegt und zum anderen die Neuinterpretation über die Expression der Kreatinkinase unter ischämischen Dispositionen. Das Blebben, also die Bildung von Vesikeln unter Exozytose, ist in der Biologie bereits allseits bekannt. Die wichtigste Funktion ist die Übertragung von Signalstoffen zu den benachbarten Zellen oder auch Organen. Hier wird die Hypothese aufgestellt, dass das Blebben ein Schutzmechanismus vor der Nekrose bzw. Apoptose darstellen könnte.
Die Kreatinkinase ist bis dato als Biomarker für Myokardinfarkte bekannt. Jedoch wird vermutet, dass dieses Protein ebenfalls zum Schutzmechanismus beitragen könnte. In unseren Untersuchungen werden neben der Kreatinkinase auch die muskelspezifischen Biomarker Myostatin, Atrogin1 und MuRF1 mit einbezogen.
Zu Beginn des Versuches wurde eine primäre Muskelzellkultur etabliert und anschließend zu definierten Zeiten hypoxischen Bedingungen ausgesetzt. Im Zuge dessen wurde die RNA isoliert und die relativen Expressionen der oben genannten Biomarker mittels qRT-PCR ermittelt. Die Ergebnisse zeigen zwar eine Abhängigkeit zwischen der Expression und der Hypoxiedauer, jedoch sind diese teilweise von Probe zu Probe so unterschiedlich, dass bisher keine signifikante Aussage getätigt werden kann.
Da anhand einer Desminfärbung dargestellt werden konnte, dass die Zellkulturen eine enorm unterschiedliche prozentuale Anzahl an Muskelzellen besitzen, wird das möglicherweise ein Grund dafür sein, dass die Ergebnisse stark voneinander abwichen.
Der Einsatz von künstlicher Intelligenz soll in der Zukunft auch die Verbrechensaufklärung unterstützen. Ein Teilgebiet dessen ist die Bewegungsanalyse von Menschen. Ein wichtiger Aspekt dabei ist die Verformung und Bewegung der Wirbelsäule, mit der Frage, wie viele Wirbel als digitale Knochen einzeln benötigt werden, um eine Bewegung noch möglichst natürlich und anatomisch korrekt darstellen zu können. Diese Arbeit befasst sich mit der Reduktion der Wirbelsäule bzw. einzelner Wirbel anhand der Erstellung und Posierung von 3DSkeletten, welche je über anders zusammengefasste Wirbel verfügen.
Das Berechtigungssystem ist ein grundlegender Sicherheitsmechanismus der Android-Plattform. Diese Arbeit widmet sich diesem im Kontext der speziellen Bedrohung durch Android-Trojaner, welche durch die Modifikation legitimer Applikationen erstellt werden. Unter den Fragestellungen, inwiefern Android-Trojaner Systemberechtigungen benötigen und wie sie diese als trojanisierte Applikationen auf Applikationsebene erhalten können, werden die beiden Aspekte zusammengeführt und untersucht. Dazu erfolgt eine Analyse der Funktionsweise des Berechtigungssystems in aktuellen AndroidVersionen, welche sich auf die Dokumentation, den Android-Quelltext und praktische Versuche stützt.
Neben bestehender Literatur, die zur Beantwortung der Fragestellungen herangezogen wird, ist die Analyse der Verwendung von Berechtigungen in den Open-Source Trojanern AndroRAT und dem Metasploit-Android-Payload Teil der Arbeit. Die beiden Schadprogramme werden außerdem für die Trojanisierung existierender Applikationen verwendet. Dabei werden Möglichkeiten aufgezeigt, wie bei der Modifikation einer legitimen Applikation Berechtigungsanfragen hinzugefügt werden können. Zudem wird gezeigt, wie die Manipulation einer Kompatibilitätsangabe im Rahmen der Trojanisierung zu dem Erhalt der Berechtigungen führt.
Die Arbeit untersucht das Problem, der Named Entity Recognition in großen Textkorpora. Für klassische Modelle sind meist große gelabelte Datenmengen nötig, die häufig aber nicht zur Verfügung stehen, weil manuelle Annotation sehr zeitaufwendig ist. Deshalb wurde ein Halbüberwachtes
(Semi-Supervised) Verfahren untersucht, um ausgehend von einer kleinen Menge manuell annotierter Daten iterativ mit möglichst wenig Annotationsaufwand ein solides Modell zu trainieren. Das Verfahren nutzt gezielte manuelle Annotation, um den Lerneffekt durch Self-Training zu erhöhen. Die Untersuchungen haben jedoch gezeigt, dass durch Self-Training in diesem Fall keine Verbesserung erzielt werden konnte. Es kann aber eine erhebliche Menge
manueller Annotation durch die gezielte Auswahl von statistisch unsicheren Sätzen für die manuelle Annotation eingespart werden und dadurch effizienter eine bessere Performance erreicht werden.
Analysis of Continuous Learning Strategies at the Example of Replay-Based Text Classification
(2023)
Continuous learning is a research field that has significantly boosted in recent years due to highly complex machine and deep learning models. Whereas static models need to be retrained entirely from scratch when new data get available, continuous models progressively adapt to new data saving computational resources. In this context, this work analyzes parameters impacting replay-based continuous learning approaches at the example of a data-incremental text classification task using an MLP and LSTM. Generally, it was found that replay improves the results compared to naive approaches but achieves not the performance of a static model. Mainly, the performances increased with more replayed examples, and the number of training iterations has a significant influence as it can partly control the stability-plasticity-trade-off. In contrast, the impact of balancing the buffer and the strategy to select examples to store in the replay buffer were found to have a minor impact on the results in the present case.
Diese Arbeit befasst sich mit dem Vergleich der forensischen Analyse von mobilen Endgeräten zwischen der Software Cellebrite Physical Analyzer, der Software Autopsy Digital Forensics und den Skripten aLEAPP und iLEAPP. Hierzu wurden zwei mobile Endgeräte mit den Betriebssystemen Android und iOS mit unterschiedlichen Anwendungen und Testdatensätzen versehen. Im Anschluss wurden die forensischen Datensicherungen durch die Softwareprodukte automatisiert aufbereitet. Die Ergebnisse der automatisierten Datenaufbereitungen wurden miteinander und mit den zu erwartenden Informationen verglichen. Hierbei konnte festgestellt werden, dass die Software Autopsy Digital Forensics und die Skripte aLEAPP und iLEAPP im Bereich der Aufbereitung mobiler Endgeräte, zum jetzigen Zeitpunkt, nicht die Ergebnisse der kommerziellen Software Cellebrite Physical Analyzer liefert.
Konfiguration IT-forensischer Untersuchungspläne mittels wiederverwendbarer Methodenbausteine
(2017)
Das Ziel der vorliegenden Bachelorarbeit war es, die in meinem hochschulinternen Praxisprojekt, eingereicht am 12.05.2017, generierten Bausteine zur automatischen Erstellung von IT-forensischen Untersuchungsplänen zu verbessern und weiterzuentwickeln, um so eine höhere Abdeckung von Fällen zu erreichen. Dazu wurde Literatur gesichtet und ein Interview mit Herrn Alexander Sigel, DigiTrace GmbH Köln, geführt. Das Praxisprojekt wurde ebenfalls von Herrn Sigel betreut.
In dieser Arbeit konnten erfolgreich neue Bausteine konfiguriert und bereits vorhandene Attribute von bestehenden Bausteinen sinnvoll erweitert werden. Die automatisch generierten Untersuchungspläne, ausgehend von diesen Bausteinen, können als Gedankenstütze oder Checkliste dienen und Fehler während der Untersuchung oder während der Erstellung des Untersuchungsplans minimieren. Durch die zielgerichtete Abfrage nach bestimmen Untersuchungszielen auf bestimmten zu untersuchenden IT-forensischen Geräten, Objekten, auf denen ein bestimmtes Betriebssystem installiert ist, können die ausgegebenen Untersuchungsschritte gezielt an den Untersuchungsauftrag angepasst werden.
Die Bachelorarbeit ist sowohl für Studierende als auch für selbstständige oder angestellte IT-Forensiker interessant, die im Zuge ihrer Arbeit Untersuchungspläne erstellen, um die Untersuchung systematisch zu gestalten.
Stability of control systems is one of the central subjects in control theory. The classical asymptotic stability theorem states that the norm of the residual between the state trajectory and the equilibrium is zero in limit. Unfortunately, it does not in general allow computing a concrete rate of convergence particularly due to algorithmic uncertainty which is related to numerical imperfections of floating-point arithmetic. This work proposes to revisit the asymptotic stability theory with the aim of computation of convergence rates using constructive analysis which is a mathematical tool that realizes equivalence between certain theorems and computation algorithms. Consequently, it also offers a framework which allows controlling numerical imperfections in a coherent and formal way. The overall goal of the current study also matches with the trend of introducing formal verification tools into the control theory. Besides existing approaches, constructive analysis, suggested within this work, can also be considered for formal verification of control systems. A computational example is provided that demonstrates extraction of a convergence certificate for example dynamical systems.
In Machine Learning, Learning Vector Quantization(LVQ) is well known as supervised learning method. LVQ has been studied to generate optimal reference vectors because of its simple and fast learning algorithm [12]. In many tasks of classification, different variants of LVQ are considered while training a model. In this thesis, the two variants of LVQ, Generalized Matrix Learning Vector Quantization(GMLVQ) and Generalized Tangent Learning Vector Quantization(GTLVQ) have been discussed. And later, transfer learning technique for different variants of LVQ has been implemented, visualized and we have compared the results using different datasets.
Path decomposition of a graph has received an important amount of interest over the past decades because of its applications in algorithmic graph theory and in real life problems. For the computation of a path decomposition of small width, we use different heuritics approaches. One of the most useful method is by Bodlaender and Kloks. In this thesis, we focus on the computation, applications, transformation and approximation of a path decomposition of small width.
It is easy to convert a path decomposition in to nice path decomposition with same width, which is more convinent to use to find the graph parameters like independent sets, chromatic polynomials etc. Inspired by [28], we find an algorithm to compute the chromatic polynomial of a graph via nice path decomposition with small width.
Erhöhung stickstoffreicher Substratanteile bei der Vergärung landwirtschaftlicher Biogassubstrate
(2021)
In der vorliegenden Arbeit sollte die Erhöhung von stickstoffreichen Substratanteilen bei der Vergärung landwirtschaftlicher Biogassubstrate untersucht werden. Der Abbau von Stickstoff während der anaeroben Vergärung führt zu der Bildung von Ammoniumstickstoff bzw. Ammoniak. Dieser kann die Methanproduktion hemmen und den Biogasprozess instabilisieren. Für den Versuch dienten drei Biogasanlagen alsFallbeispiele und wurden in den Labormaßstab als Reaktor A, B und C übertragen. Anschließend wurde der Anteil an Maissilage im Substratinput der Reaktoren reduziert und durch Wirtschaftsdünger ersetzt. Bei Reaktor A konnte der Anteil an Maissilage am Gesamtsubstrat um 6% reduziert werden. Dies hatte einen Rückgang von 2% in der spezifischen Methangproduktion zur Folge. Bei Reaktor B wurde der Anteil an Maissilage um 10% reduziert, was mit einer Verminderung von 18% in der spezifischen Methanproduktion einherging. Bei Reaktor C konnte der Maissilageanteil um 12% reduziert werden. Die spezifische Methanproduktion ging dabei um 13% zurück. In einer weiteren Versuchsphase sollte bei Reaktor B durch eine Steigerung der Raumbelastung die Methanproduktion wieder gesteigert werden. Erste Ergebnisse zeigen einen leichten Anstieg in der Methanproduktion. Bei Reaktor C sollte durch den Einsatz von stickstoffreduziertem Rezirkulat die Methanproduktion und Prozessstabilität verbessert werden. Erste Ergebnisse deuten auf einen Erfolg dieser Maßnahme hin.
Evaluation softwarespezifischer Physik Engines hinsichtlich
der Verwendung im forensischen Kontext
(2020)
Das Ziel dieser Arbeit ist die Überprüfung der Bullet Physik Engine und der PhysX Engine hinsichtlich ihrer Tauglichkeit im Kontext der forensischen Fallsimulationen. Nach dem Behandeln der Theorie werden dafür experimentelle Ansätze in Form von Ragdollsimulationen genutzt, um die beiden Engines miteinander zu vergleichen und zu bewerten. Diese Versuche werden in den Programmen Blender und Unreal Engine 4 durchgeführt, welche die beiden Physikalgorithmen einbinden und so ebenfalls miteinander verglichen werden können. Zusätzlich wurde eine Standard Operating Procedure für die Erstellung von Ragdolls in Blender angefertigt.
Das Vitamin Biotin ist als Coenzym in verschiedene Vorgänge im Körper involviert und beeinflusst zudem auch das Wachstum und die Erhaltung von Epidermiszellen. Besonders bei der Stabilität und Gesundheit von Rinderklauen spielt dies eine große Rolle - ein Biotinstatus der Rinder könnte also der Prävention von diversen Klauenerkrankungen dienen. Die vorliegende Bachelorarbeit beschäftigt sich daher mit der Validierung eines ELISAs zur Bestimmung von Biotin in Rinderblut. Dafür wurden die Leistungsmerkmale Präzision, Richtigkeit, Wiederfindung, Linearität und Robustheit untersucht und die Ergebnisse diskutiert.
Soziale Medien ermöglichen den öffentlichen Austausch von Nachrichten im digitalen Raum. Viele Personen missbrauchen diese Plattformen jedoch für die Verbreitung von Hass. Die Bestimmung und die Prävention derartiger Kommentare stellt eine große Herausforderung dar. In dieser Arbeit werden Möglichkeiten zur Bestimmung und Prognose von Toxizität als Kennzahl
für die sentimentale Ausdrucksform des Hasses aufgezeigt. Nach der begründeten Auswahl der Perspective API als Werkzeug zur Bestimmung von Toxizität werden mit diesem Werkzeug über 600.000 deutschsprachigen Twitter-Kommentare aus dem Frühjahr 2021 annotiert. Die Annotation bildet die Grundlage für die Untersuchung der Ausbreitung toxischer deutscher Sprache.
Mit Methoden der intelligenten Datenanalyse werden im Datensatz Einflussfaktoren ermittelt, die das Absetzen eines toxischen Kommentars begünstigen. Die gefundenen Einflussfaktoren werden final dazu verwendet, um die Toxizität von Antworten, ohne ein Wissen über deren Inhalt,
mit Hilfe künstlicher Intelligenz zu prognostizieren.
Ziel dieser Arbeit ist die Einführung und Implementierung eines Konzeptes, das diese hochsensiblen Daten trennt und unabhängig voneinander verwaltet. Auf diese Weise soll verhindert werden, dass ein Angreifer, bei unautorisiertem Zugriff auf eine Datenbank, keinen Zugang zu allen Sensor- und Identitätsdaten hat. Zu diesem Zweck wird ein Service vorgestellt, der die aufgezeichneten Daten in mehrere Komponenten aufteilt und unabhängig voneinander speichert. Damit die Anwendung keine Kenntnis über den Datenspeicherort besitzen muss, soll außerdem sichergestellt werden, dass die Anwendung und die Datenquellen nicht selbst miteinander kommunizieren müssen.
Prototype-based classification methods like Generalized Matrix Learning Vector Quantization (GMLVQ) are simple and easy to implement. An appropriate choice of the activation function plays an important role in the performance of (deep) multilayer perceptrons (MLP) that rely on a non-linearity for classification and regression learning. In this thesis, successful candidates of non-linear activation functions are investigated which are known for MLPs for application in GMLVQ to realize a non-linear mapping. The influence of the non-linear activation functions on the performance of the model with respect to accuracy, convergence rate are analyzed and experimental results are documented.
Ziel dieser Arbeit ist es, Cyberangriffe auf die verschiedenen Differenzierungs- und Klassifizierungsmöglichkeiten zu untersuchen. Dabei wird sich besonders mit Täterschäften, Tätermotivation und der Vorgehensweise bei Angriffen beschäftigt. Anschließend werden zehn im Zeitraum 2016 bis 2020 vorgefallene Cyberangriffe voneinander differenziert und in die beschriebenen Klassifikationen eingeordnet.
Wirksamkeitstestung des Helikase-Primase Inhibitors PXI26250 gegen das Herpes simplex Virus Typ 1
(2018)
Die vorliegende Arbeit thematisiert die Wirkstofftestung des neuartigen Helikase-Primase Inhibitors PXI26250 gegen eine HSV-1 Infektion in einer in vitro Untersuchung der Zelllinie A549-Luc. Dabei werden insbesondere die Einflüsse verschiedener Konzentrationen des Medikaments und die zeitlichen Auswirkungen unterschiedlicher Inkubationszeiten auf die Infektionsintensität analysiert. Neben einer Antikörpermarkierung infizierter Zellen mittels Immunocytochemie werden für die Quantifizierung der Ergebnisse weiterhin ein Cytotoxizitäts - sowie Zellviabilitäts Assay hinzugezogen.
Das Ziel der Bachelorarbeit war es, die Implementation und Entwicklung eines FORMCYCLEPlugins aufzuzeigen und aufgrund dessen Informationen einen Leitfaden zu erstellen zur Entwicklung eines FORMCYCLE-Plugins. Dafür wurde eine Anforderungsanalyse mit anschließender Konzeptphase erarbeitet. Die Umsetzung der Implementation wurde anhand von Quellcode-Ausschnitten verdeutlicht und erklärt.
Im Rahmen dieser Arbeit wird die Herstellung, Evaluierung und in vitro-Charakterisierung Luciferase-exprimierender Candida albicans-Stämme gezeigt, welche in einem späteren Brandwundeninfektionsmodell an Ratten eingesetzt werden, um den Infektionsverlauf nach Applikation von Candida albicans in vivo zu untersuchen.
In dieser Arbeit wurde mittels grafischer Bildanalyse die Fließrichtung deutscher Oberflächengewässer bestimmt. Die Bestimmung beruht auf der einfachen Logik, dass jede Quelle in einem Einzugsgebiet, zu einem eindeutigen Gebietsausfluss führt. Dazu wurde ein Java Programm geschrieben, welches in ImageJ eingebunden wurde und als Plug-in fungiert. Mit dem Programm ist es möglich, für jede geografisch erfasste Flusskoordinate die Quell- und Senkenentfernung zu erhalten, die Anzahl an Verzweigungen zu bestimmen sowie die Koordinaten des gesamten oder wahlweise in km abgestuften Oberlaufs an Zielkoordinaten zu erfassen. Das Programm wurde genutzt, um für Makrozoobenthos-Messstellen die Landnutzung im Oberlauf 100 m rechter- und linkerhand des Zielflusses zu berechnen, um daraus Rückschlüsse auf mögliche Eintragspfade von Pflanzenschutzmitteln zu ziehen. Desweiterem wurden aus dem deutschlandweiten Datensatz von knapp 21.000 Messstellen weitgehend naturbelassene Flussabschnitte selektiert, welche als Referenzgewässer fungieren.
In dieser Arbeit wurde das Insektizid Imidacloprid hinsichtlich seiner Toxizität auf die Kompostwurmarten Eisenia fetidaund Eisenia andreiuntersucht. Zur Ermittlung der akuten und chronischen Toxizität wurden standardisierte Labortests nach den Richtlinien der OECD und ISO verwendet. Unter Exposition von Imidacloprid mit verschiedenen Konzentrationsstufen wurden Verhaltensänderungen, Biomasseverlust, Verringerung der Reproduktionsleistung und die Mortalitätsrate untersucht. Nach statistischer Auswertung wurden damit verschiedene Dosis-Wirkungs Kurven erstellt und die toxikologischen Kennwerte LC50, EC50, NOEC und LOEC ermittelt.
Das Fluorchinolon Levofloxacin hemmt die Gyrase in Mitochondrien, wodurch die mitochondriale DNA in der supercoiled-Form repliziert wird. Dabei entstehen Katenate, die bei einer Zellteilung nur an ein Tochtermolekül weitergegeben werden. Dies hat zur Folge, dass Zellen ohne mtDNA, sogenannte ρ0-Zellen, entstehen.
Diese Eigenschaft von Levofloxacin sollte genutzt werden, um ρ0-Zellen zweier Krebszelllinien (HeLa und PC 3) herzustellen. Zusätzlich wurde die Wirkung von Levofloxacin auf diese Krebszellen untersucht, um einen neuen möglichen Therapieansatz zu finden. Überprüft wurde dies mit Hilfe von Fluoreszenzmikroskopie, einem metabolischen Test und einer relativen Quantifizierung mittels qPCR.
Anhand der Ergebnisse konnten Unterschiede zwischen den beiden Zelllinien beobachtet werden. Levofloxacin bewirkte eine Proliferationshemmung und die Induzierung einer Apoptose bei höheren Konzentrationen, was eine toxische Wirkung auf die Krebszellen beweist. Es war jedoch nicht möglich, ρ0-Zellen herzustellen. Bei den HeLa-Zellen konnte eine Abnahme der mtDNA beobachtet werden, bei den PC 3-Zellen kam es dagegen zu einem Anstieg, was auf eine Überproduktion an mitochondrialer DNA zurückzuführen wäre. Die Herstellung von ρ0-HeLa-Zellen wäre mit Levofloxacin bei einer längeren Antibiotikabehandlung möglich.
Bioaerosole kommen ubiquitär in der Atmosphäre vor. Sie sind meist ungefährlich, aber sie können auch Bestandteile enthalten, welche eine gesundheitliche Gefahr für den Menschen darstellen. Um ihre Inhaltsstoffe zu ermitteln werden sie beprobt. Die biologische Untersuchung dieser Proben erfolgt über Kulturen und molekularbiologisch. In den Fokus der molekularbiologischen Auswertung rückt zurzeit das third generation sequencing via Nanopore. Ziel dieser Arbeit ist es zu prüfen, ob die durch den Coriolis μ generierten Luftproben zur molekularbiologischen Analyse mit Nanopore Sequenzierung nutzbar sind. Dazu werden kulturbasierte und molekularbiologische Untersuchungsmethoden angewendet und miteinander verglichen. Es wird gezeigt, dass die Proben für eine weitere Nutzung durch Nanopore Sequenzierung geeignet sind.
Diese Arbeit befasst sich mit der Entwicklung von digitalen Brettspielumsetzungen analoger Brettspiele. Dabei werden allgemeine Probleme erörtert und Lösungsansätze geboten, sowie am Beispiel von „Five Tribes“ eine eigene Implementierung genauer beschrieben. Erkenntnisse, die aus dem Entwicklungsprozess hervorgegangen sind, werden in allgemeiner Form festgehalten, sodass sie sich auf andere Projekte dieser Art übertragen ließen.
Analyse dezentraler Identifikation mittels Sidetree-Protokolls, am Beispiel von Microsoft ION
(2021)
This master thesis deals with the field of decentralized identification, using the example of the Microsoft Identity Overlay Network (ION). In the introduction, basic terms such as identity and identification are described. A special emphasis is placed on the explaining of the principle of decentralized identifiers (DIDs) and the SSI concept. ION is an implementation of the Sidetree protocol and uses its core components. This is the reason why more details and special parts of Sidetree are described in the methods chapter. Afterwards the ION history and network topology is typify more in detail. An ION node will be installed and operated on top of the Bitcoin blockchain. The installation process and the problems that arise are recorded. Then the ION tools (a programming library and its values) will be explained and the example program code is shown. As a practical addition of the ION tools, a verifiable credential solution is scripted. This solution shows the creation of ION-DID and the signature options of these identifiers. In the results chapter the knowledge acquired via the decentralized identification is evaluated. A theoretical security analysis for ION is implemented. Furthermore, a list of the currently possible uses for the network is enumerated. A discussion is initiated that compares the advantages and disadvantages of ION. The thesis ends with a conclusion and an outlook for ION and decentralized identification.
Die vorliegende Arbeit befasst sich mit der Analyse der Microservice-Architektur
und wie diese in heterogene Infrastrukturen integriert werden kann. Dazu wird
neben der theoretischen Betrachtung auch ein Konzept auf Grundlage einer Erstimplementierung von Microservices erstellt. Zudem beinhaltet die Arbeit eine prototypische Lösung am praktischen Beispiel.
Die Zahl der Webapplikationen ist in den letzten Jahren stetig gestiegen. Da sie immer komplexer werden, ändert sich auch die Art der Bedienung. Eine moderne Webapplikation sollte bei der Verwendung das Gefühl einer nativen Applikation vermitteln. Das Konzept der Single Page Application trägt diesem Anspruch Rechnung. Heutige Prestige-Beispiele für solche Anwendungen sind unter anderem Gmail oder Slack. Die entsprechenden Apps sind meist mit bekannten Single Page Application Frameworks wie Angular, React oder VueJS umgesetzt. Im letzten Jahr gesellte sich das Framework Blazor von Microsoft dazu. Der große Unterschied zu allen bereits existieren Frameworks besteht hier darin, dass für den Client kein JavaScript, sondern C# verwendet wird. Dies erlaubt es, komplexe Webanwendungen ohne JavaScript zu entwickeln. Gerade für .NET-Desktop-Entwickler könnte dieses Framework ansprechend sein. Die vorliegende Arbeit soll einen Vergleich zwischen Blazor und den bereits etablierten Frameworks Angular, React und VueJS liefern. Anschließend soll noch der Prototyp einer Blazor-Applikation designed und einige wichtige Funktionen sollen vorgestellt werden.
Die vorliegende Diplomarbeit befasst sich mit der Analyse, Kontrolle und Optimierung der Videoaufzeichnung bei LinkedIn Austria. Anhand der Problemstellung wurde ein Tool (video-detective) programmiert. Daten zu sammeln und zu analysieren ist das Hauptziel des video-detective. Anhand der Analyse wird der gesamte Workflow der Videokontrolle beschleunigt und vereinfacht. Auf die Bedienbarkeit wird besonders Wert gelegt. Für eine schnelle Übersicht werden die gesammelten Daten grafisch dargestellt. Ein weiteres Ziel dieser Arbeit ist, fehlerhafte Video-Files so schnell wie möglich zu erkennen und richtige Gegenmaßnahmen einzuleiten. Die Kontrolle der Files soll möglichst im Hintergrund stattfinden und den Dozenten nicht bei den Aufzeichnungen stören.
Die vorliegende Arbeit befasst sich mit der Erstellung eines Patch Management-Konzeptes für Linux Server. Die Erstellung des Konzeptes basiert am Beispiel der Tirol Kliniken GmbH und soll in weiterer Folge im Unternehmen umgesetzt werden. In Zusammenhang mit den IT-Schutzzielen wird die Notwendigkeit dieser Schutzmaßnahme Patch Management erläutert und unter Berücksichtigung unternehmensspezifischer Gegebenheiten, eine geeignete Lösung erarbeitet. Ziel soll dabei sein, eine möglichst automatisierte Patch Management-Lösung zu realisieren.
Die vorliegende Arbeit befasst sich mit der Erarbeitung von konkreten Herangehensweisen und Software-Architekturen für die Entwicklung der Software von eingebetteten Systemen. Es werden die Themen Objektorientiertes Programmieren, Programmablauf, Konfiguration, Persistenz, Benutzerschnittstelle, Berichte, Kommunikation, und Fehlermanagement behandelt.
Die Arbeit behandelt das Zephyr Echtzeitbetriebssystem. Im Rahmen der Arbeit wird besprochen wie ein System-on-a-Module (SoM) in Zephyr umgesetzt werden kann, und welche Optionen das Konfigurationssystem bietet um die Zephyrapplikation an Hardware- und Systemänderungen anzupassen ohne den Quellcode für den jeweiligen Build verändern zu müssen. Dafür wurde eine Beispielapplikation auf Basis des i.MX RT1170 Prozessors von NXP erstellt. Dieser Chip soll beim Projektpartner in Zukunft die Grundlage für ein System-on-a-Module bilden, welches in die Grundplatinen der verschiedenen Geräte eingesetzt wird. Zum Schluss der Arbeit wird außerdem besprochen wie ein Bootloader verwendet werden kann um Updates in ein laufendes System einzuspielen.
Die vorliegende Arbeit beschäftigt sich mit der Analyse von
Festplattenverschlüsselungssoftware. Dabei werden BitLocker von Microsoft, FileVault von Apple unter MacOS und LUKS unter Linux betrachtet. Des Weiteren wird die Verschlüsselung Data Protection der iPhones und Android Encryption von Googles Betriebssystem analysiert. Bei der Untersuchung werden die verwendeten kryptographischen Algorithmen, die Schlüsselhierarchie und hardwarebasierenden Technologien behandelt. Zudem werden Angriffsmöglichkeiten präsentiert, die bei einer forensischen Analyse verwendet werden können, um die Verschlüsselung zu umgehen.
In dieser Arbeit wird der Bootvorgang der i.MX RT117x-Prozessorfamilie sowie die Interprozessorkommunikation und -synchronisation zwischen den beiden Prozessoren dargestellt. Auf dieser Basis wird ein Beispielprogrammm, welches das Betriebssystem Zephyr einsetzt und auf dem Cortex-M7 läuft, erstellt. Dieses Programm soll mit einem Programm, welches in einer Baremetal-Umgebung eingesetzt wird, kommunizieren.
In dieser Masterarbeit wird erforscht, ob und wie Funktionalität von einem Mikrocontroller auf ein leistungsstarkes externes Gerät portiert werden kann. Dabei sollen die ausgelagerten Funktionalitäten WebAssembly nutzen, um eine Vielzahl von externen Geräten zu unterstützen. Zusätzlich wird evaluiert, wie das leistungsstarke Gerät den Mikrocontroller steuern soll, bzw. wie ein Datenaustausch hergestellt wird und wie Eingaben im leistungsstarken Gerät vollzogen werden.
Diese Arbeit behandelt das Thema der Sichtbarmachung von Fingerabdrücken, sowie deren photogrammetrische Aufnahme. Dabei wird die Frage geklärt, ob der Qualitätsverlust eines photogrammetrischen Scans das Erkennen des Grundmusters, einzelner Minuten und eventuell auch kleineren Strukturen beeinträchtigt. Es werden die angewandten Methoden zur Sichtbarmachung, Sicherung und Photogrammmetrie präsentiert, sowie die daraus resultierenden Ergebnisse.
Die Aufgabe der V2X-Kommunikation ist es, zukünftig die Sicherheit und Effizienz im Straßenverkehr zu erhöhen. Das Ziel dieser Arbeit besteht darin, sicherheitsrelevante Aspekte von Car2X Protokollen zu analysieren. Grundlage bildet hier der europäischen ETSI-Standard. Da es sich bei dieser Arbeit um eine Literaturrecherche handelt, werden zu diesem Zweck die Veröffentlichungen des Standards herangezogen. Zunächst wird das Netzwerk aufgezeigt, in dem die Kommunikation zwischen den Fahrzeugen und der Infrastruktur stattfindet. Anschließend werden wichtige Protokolle analysiert und verschiedene Angriffspunkte untersucht. Die verschiedenen Angriffe werden mit anderen Forschungsarbeiten verglichen und analysiert. In dieser Arbeit wurde festgestellt, dass trotz spezieller Sicherheitsvorkehrungen, Angriffe auf das Netzwerk und die Protokolle möglich sind.
Die Analyse von Logdateien bietet in der Mobil-Forensik die Möglichkeit herauszufinden, wann welche Aktionen am Handy stattgefunden haben. Das Thema dieser Bachelorarbeit ist die Analyse bestimmter Protokolldateien unter Android. Der Schwerpunkt liegt in der Untersuchung der Ordner usagestats, recent_images und com.whatsapp, welche auf der Datenpartition liegen. In der Zielfragestellung dieser Studie gilt es festzustellen, ob die Protokolldateien in den jeweiligen Ordnern einen Hinweis auf die letzten Aktivitäten des Nutzers geben. Da sich bisher wenige Studien genauer mit der Protokollierung dieser Logdateien auseinandergesetzt haben, werden zu diesem Zwecke verschiedene Szenarien mit einem Android-Smartphone durchgeführt, um zu verstehen, was in den jeweiligen Dateien protokolliert wird. Dazu werden dieselben Szenarien auf drei unterschiedlichen Betriebssystemversionen getestet, um mögliche Unterschiede festzustellen und wesentliche Rückschlüsse für die Forensik zu folgern. Es ist zu beobachten, dass sich einige der untersuchten Dateien zur Beantwortung der Ausgangsfrage eignen, während andere Protokolldateien eher als kritisch zu betrachten sind.
Ziel der vorliegenden Arbeit war es, ein Qualitätssicherungssystem von Tierarzneimittel – Standardsubstanzen zu erstellen, indem die chromatographischen Eigenschaften der Wirkstoffe, die zur Überprüfung der Arzneimittelrückstände in Lebensmitteln dienen, erfasst und dokumentiert wurden. Der Bestand der internen Datenbank, die zum Untersuchungsspektrum der „Landesuntersuchungsanstalt für das Gesundheits- und Veterinärwesen“(LUA) Chemnitz gehören, umfasst derzeit 745 Wirkstoffe, hierbei konnten 437 Wirkstoffe in die Stabilitätsprüfung aufgenommen werden. Es wurden 103 Substanzen mittels GC-MS und 334 Wirkstoffe mittels HPLC-DAD erfasst und dokumentiert. Es wurde mittels einer Dreifachmessung ein geeignetes Verfahren zur Überprüfung der chromatographischen Eigenschaften und zur Kontrolle der Stabilität gefunden.
Die vorliegende Bachelorarbeit ist eine Machbarkeitsstudie mit dem Ziel, die Umsetzbarkeit von Projekten mit Methoden aus der Modellgetriebener Softwarearchitektur (MDSD) in kleineren agilen Gruppen nachzuweisen. Wegen der vielen Kombinationsmöglichkeiten aus agilen und MDSD Methoden werden für das Pilotprojekt zur Organisation Kanban, Test Driven Development als agile Arbeitsmethode und als MDSD Methode die Entwicklung einer Domain Specific Language gewählt. Das Ziel des Pilotprojekts ist die Entwicklung einer neuen Domain Specific Language für das Programmieren von Incremental Game Prototypen.
Die Resultate der Arbeit sind: a) Ein nichtlinearer multivarianter Entscheidungsbaum zur Auswahl der geeigneten Rahmenbedingungen bei der Planung und Umsetzung von Domain Specific Languages, b) eine neue Methode zur agilen Entwicklung von Domain Specific Languages, nämlich die „Domain Specific Prototype Methode“ sowie c) der Beweis, dass die Verwendung von MDSD, zumindest von Domain Specific Languages, für die Arbeit in agiler Teams nicht nur möglich, sondern vorteilhaft ist.
Die Umsetzung der „Domain Specific Prototype Methode“ wird anhand des
Pilotprojektes sowohl in der Theorie als auch in der Praxis beschrieben.
Im Rahmen dieser Arbeit wurde ein Arbeitsablauf entwickelt, welcher es ermöglicht daktyloskopische Spuren aus photogrammetrischen 3D-Modellen abzulösen. In der anschließenden Evaluation wird geklärt, ob diese digital abgelösten Spuren denselben Informationsgehalt haben wie real abgelöste Spuren. Dargestellt werden daktyloskopische Grundlagen, Methoden aus der 3D-Modellierung sowie die Photogrammmetrie. Außerdem werden die verwendeten Methoden sowie die daraus resultierenden Ergebnisse präsentiert.
In dieser Arbeit wird der Probenahmeplan der Trinkwasseranlage im Versorgungsgebiet Oechsetal, die TWA Schorngraben, und der Probenahmeplan des Versorgungsgebietes Vacha auf lokale Risiken untersucht, um daraufhin eine risikobewertungsbasierte Anpassung des Probenahmeplans vorzuschlagen. Hierbei wird eine Beschreibung des Systems angefertigt und mit Hilfe der Trinkwasserdaten können schließlich bestimmte chemische Parameter mit Grenzwert darauf untersucht werden, ob sie vom Probenahmeplan gestrichen oder die Probenahmehäufigkeit reduziert werden soll.
Das Ziel der vorliegenden Bachelorarbeit ist es zu beantworten, inwieweit Chatbots die Aufgaben von Projektmitgliedern vor allem im Bereich Projektmanagement optimieren können. Dabei wird auf theoretische Grundlagen aufbauend, eine Analyse zur Umsetzung eines solchen Systems durchgeführt, die vor allem auf die Anforderungen innerhalb eines Projektmanagements Bezug nimmt. Im Ergebnis der Ausarbeitung soll mithilfe eines entwickelten Prototyps belegt werden, ob die genannten künstlich intelligenten Systeme es möglich machen können, gewisse Arbeitsabläufe zu erleichtern beziehungsweise diese den Projektmanagern komplett abzunehmen. Innerhalb eines abschließenden Probandentests soll demonstriert werden, dass der Einsatz des Prototyps in einem größeren Projekt sinnvoll sein kann. Weiterhin soll ebenfalls gezeigt werden, dass eine Moral- sowie Arbeitssteigerung aller Projektmitglieder durch den Prototyp möglich ist.
Das Ziel der vorliegenden Bachelorarbeit ist es, digitale Spuren im Speicher eines elektrischen Tretrollers zu untersuchen. Der Roller stammt aus einem ehemaligen Verleihsystem und es existiert von Beginn dieser Arbeit an keine Kenntnis darüber, ob digitale Informationen auf dem Speicher zugänglich und überhaupt vorhanden sind. Es wird resultierend aus der vergangenen Nutzung des Rollers innerhalb des „Sharing-Angebotes“ davon aus gegangen, dass entsprechende Daten erzeugt worden sind. Dazu können Informationen zählen, die z.B. Aufschluss über die zurückgelegte Strecke geben. Es gilt herauszufinden, ob sich diese und auch andere Daten auf dem Speicher der „IoT-Elektronik“ des Rollers befinden. In Abhängigkeit des Resultates liegt der Fokus auf entsprechender Rekonstruktion dieser Daten. Soweit es machbar erscheint, obliegt ein weiterer Analyseaspekt der Firmware des E-Scooters, um das Zusammenspiel der lokalen Hardware-Komponenten und des entfernten „Backends“ nachvollziehen zu können. Der Roller wird für diese Bachelorarbeit physisch zerlegt und es kommen unterschiedliche, software-basierte Werkzeuge für die Analyse zum Einsatz.
Das Ziel der vorliegenden Arbeit war es, Algorithmen auf speicherprogrammierbaren Steuerungen (SPSen) und Linx-basierten Systemen umzusetzen und dabei einer möglichst einheitlichen Implementierungsstrategie zu folgen. Dabei wurde ein Algorithmus beispielhaft auf SPSSystemen von zwei Herstellern implementiert. Phoenix Contact unterstützt lediglich Sprachen, die durch den Standard IEC/EN 61131-3 spezifiziert sind. Beckhoff ermöglicht durch die Integration von C++ die Umsetzung auf einer gemeinsamen Codebasis mit dem Linux-System. Die gemeinsame Codebasis unterliegt allerdings Einschränkungen.
Die vorliegende Arbeit hat die Erstellung eines Konzeptes und die prototypische Umsetzung von Maßnahmen zur Verbesserung der Client-Sicherheit mit EOL-Betriebssystemen zum Ziel. Die Erstellung des Konzeptes basiert auf dem Beispiel der Tirol Kliniken GmbH. Im theoretischen Teil werden die Grundlagen zur IT-Sicherheit und das Gefahrenpotential betrachtet. Im praktischen Teil wird ein allgemeines Konzept ausgearbeitet, mit Hilfe dessen analysiert werden kann, inwiefern die EOL-Clients im Unternehmen geschützt sind und ob es weiterer Maßnahmen bedarf. Dies wird am Beispiel der Tirol Kliniken, mit besonderem Fokus auf McAfee Application Control, dargestellt.
Biologische Prozesse können mithilfe von Modellen mathematisch analysiert werden und durch Visualisierungsapplikationen können die Ergebnisse der Modelle interpretierbar dargestellt werden.
Das Modell befasst sich mit der Wasserrückführung in renalen Hauptzellen. Dabei wurden die primäre Hormonantwort, die Bewegung von Vesikeln sowie die Exozytose als auch die Endozytose modelliert und simuliert. Diese Arbeit beschreibt die Entwicklung einer Webapplikation um Simulationstrajektorien zu visualisieren. Es wurde eine räumliche Darstellung des Modells entwickelt, welche Kompartimente anordnet und Konzentrationen einzelner Moleküle farblich darstellt. Durch die Positionierung von Kompartimenten erhält man eine Vorstellung der Topologie des Systems. Durch die Darstellung der Konzentrationen kann das Verhalten einzelner Moleküle im Modell untersuchen werden. Auch die Bewegungen von Vesikeln können abgebildet werden. Liniendiagramme einzelner Moleküle zeigen Konzentrationen über den gesamten Zeitraum. Das Tool bietet die Möglichkeiten, die Trajektorien zu reduzieren durch eine Filterfunktion, welche die gefilterten Daten summiert zurückgibt. Durch interaktive Elemente, einfache Bedienung und die Verfügbarkeit im Internet entspricht das Tool heutigen Standards für Visualsierungstools. Zukünftig sollte an der Darstellung von Zahlen und Einheiten gearbeitet und Moleküle mit Datenbanken crossverlinkt werden.
RNA tertiary contact interactions between RNA tetraloops and their receptors stabilize the folding of ribosomal RNA and support the maturation of the ribosome. Here we use FRET assisted structure prediction to develop structural models of two ribosomal tertiary contacts, one consisting of a kissing loop and a GAAA tetraloop and one consisting of the tetraloop receptor (TLR) and a GAAA tetraloop. We build bound and unbound states of the ribosomal contacts de novo, label the RNA in silico and compute FRET histograms based on MD simulations and accessible contact volume (ACV) calculations. The predicted mean FRET efficiency from molecular dynamics (MD) simulations and ACV determination show agreement for the KL-TLGAAA construct. The KL construct revealed too high FRET efficiency and artificial dye behavior, which requires further investigation of the model. In the case of the TLR, the importance of the correct dye and construct parameters in the modeling was shown, which also leads to a renewed modeling. This hybrid approach of experiment and simulation will promote the elucidation of dynamic RNA tertiary contacts and accelerate the discovery of novel RNA interactions as potential future drug targets.
Kreation von glaubwürdigen und interessanten Spielwelten mit dem Fokus auf Immersion und Leveldesign
(2016)
Diese Bachelorarbeit bietet einen Leitfaden für die Produktion von glaubwürdigen und interessanten offenen Spielwelten. Dabei werden im theoretischen Teil Schwerpunkte für die Produktion von offenen Spielwelten ermittelt. Im praktischen Teil wird mithilfe einer Umfrage versucht, den theoretischen Teil zu bestätigen.
Im Rahmen dieser Arbeit werden existierende Taxonomien und Ergebnisse weiterer wissenschaftlicher Arbeiten, welche sich mit der Aufnahme und Verarbeitung auditiver Reize, sowie möglichen Reaktionen auf diese, beschäftigen, miteinander verknüpft. Zudem werden die Erfahrung eines Videospiels im Spieler, die dafür von ihm benötigten, mentalen Fähigkeiten, als auch Funktionen von Audio hinsichtlich der Anwendung in der Mensch-Maschine-Interaktion, zu besagten Kategorisierungen in Relation gesetzt, um eine Kategorisierung zu erschließen, welche bei der Arbeit mit auditiven Reizen angewandt werden kann. Das Ziel hierbei ist das Streben nach einer idealen Erfahrung im Spieler eines Videospiels zu unterstützen, sowie das Schaffen eines vollständigen Leitfadens zum Sound Design von Videospielen weiter voranzutreiben
AVL entwickelt aktuell einen neuen Ladungsverstärker, der sich von Vorgängermodellen dadurch unterscheidet, dass zusätzlich zur Ausgabe der verstärkten und gefilterten Signale auch deren Digitalisierung und Verarbeitung in einem Signalprozessor vorgesehen sind. Für diese Hardware soll im Signalprozessor ein intelligenter Algorithmus zur Driftregelung als auch eine Ermittlung und statistische Bewertung der Signalspitzenwerte konzipiert und als Firmwarekomponenten umgesetzt werden. Aufgrund seines Aufbaus benötigt ein Ladungsverstärker eine permanente Kompensation der auftretenden Drifteffekte, um den Signalnullpunkt stabil zu halten. Solche Drifterscheinungen kommen sowohl durch die nicht idealen Komponenten, zu geringe Isolation der Signalwege als auch durch diverse Effekte der verwendeten Quarzdruckaufnehmer zustande. Durch Analyse des digitalisierten Messsignals soll laufend die Nullpunktsdrift ermittelt und durch Abgabe einer Korrekturspannung an einen DAC, aus der wiederum ein Kompensationsstrom für den Ladungs-/Spannungskonverter erzeugt wird, vollständig ausgeregelt werden. Die für die Driftregelung erforderliche Signalanalyse, soll gleichzeitig auch dazu verwendet werden, laufend den Spitzenwert des Signals zu ermitteln und diesen einer von 5 Klassen zuzuordnen und die Häufigkeiten in den Klassen zu kumulieren. Auf diese Weise kann dem Anwender ein Maß für die vom Sensor wahrgenommene Belastung, übermittelt, und somit ein Kriterium zur Entscheidung für einen eventuellen Sensoraustausch geboten werden.
Die tägliche Arbeit von Softwareentwicklern ist es, Software so zu schreiben, dass sie auch in Zukunft so schnell und flexibel entwickelt werden kann wie am ersten Tag. Dafür stehen ihnen zahlreiche Methoden und Tools zur Unterstützung zur Verfügung. Jedoch stellt die Einrichtung und erstmalige Anwendung solcher Hilfsmittel oftmals eine Hürde dar, vor allem, wenn man selbst in diesem Bereich noch keine Erfahrung gesammelt hat. In dieser Arbeit wird dieser Ansatz durch die Entwicklung und Anwendung einer statischen Code-Analyse und Modultests auf eine bestehende NodeJS-Software verfolgt. Diese Software ist Teil einer übergeordneten Projektinfrastruktur, auf deren Komponenten diese Testverfahren später ebenfalls angewendet werden sollen. Für die Evaluation werden etablierte Tools zur Implementierung und Automatisierung der Testprozesse ausgewählt. Der Vergleich dieser Tools erfolgt dann auf der Grundlage gewichteter Kriterien die anhand einer subjektiven Einschätzung bewertet werden. Zunächst werden die Tools JSLint, JSHint und ESLint für die statische Codeanalyse evaluiert. Dann werden Unit-Tests entworfen und definiert und anschließend mit den Unit-Test-Frameworks Mocha, Jest und Vitest implementiert. Schließlich werden die Tests mit einem CI-Tool automatisiert. Aus der Vielzahl an Plattformen wurden BitBucket Pipelines, CirleCI und Buddy als Testobjekte ausgewählt. Es stellte sich heraus, dass eine Vielzahl projektspezifischer Faktoren bei der Auswahl der CI Tools eine Rolle spielen. Die Evaluierung der Tools lieferte eine solide Grundlage für weitere Tests und damit Vertrauen und Sicherheit in die Zukunft von EnjineIO. Diese Arbeit ist besonders für Softwareentwickler interessant, die noch keine Erfahrung mit Softwaretests gemacht haben und einen Einblick in dieses Thema erhalten möchten. Zudem dient sie dazu, einen Einblick in die Besonderheiten der genannten Softwaretest-Tools zu erhalten, wenn ein Team den Wechsel auf eines davon plant.
Im Folgenden wird sich mit der Blutspurenmusteranalyse beschäftigt. Hierzu werden in der folgenden Arbeit drei Experimente vorgestellt bei denen verschiedene Arten von Blutspuren hergestellt werden und somit eine große Datenbank an fotographisch festgehaltenen Blutspuren erstellt wird. Diese Datenbank hilft dann den Prozess der Analyse von Blutspuren zu automatisieren. Die Bilder werden dazu benutzt ein neuronales Netz zu trainieren und anhand des Trainings wird evaluiert, wie präzise das Netz ist.
Entwicklung einer Methode zur Empfehlung von Suchbegriffen
und -phrasen im forensischen Kontext
(2021)
Diese Arbeit befasst sich mit der Entwicklung einer Methode zur Empfehlung von Suchbegriffen und -phrasen im forensischen Kontext. In der forensischen Fallarbeit stellen Kurznachrichten auf mobilen Endgeräten eine zentrale Beweisquelle dar. Häufig sind Ermittler hierbei mit umfangreichen Chatverläufen konfrontiert. Das Ziel besteht darin, den Ermittler bestmöglich bei der Arbeit mit der enormen Datenmenge zu unterstützen, indem ihm die relevantesten Begriffe des Datensatzes vorgeschlagen werden. Hierfür wurden unter anderem Algorithmen der Keyword Extraction, der explorativen Datenanalyse sowie des Word Association Minings untersucht. Als erfolgversprechendste Ansätze erwiesen sich das Topic Modeling mit einer Term-Kookkurrenzmatrix als Eingabe, die Vorhersage von thematisch ähnlichen Begriffen mittels der Latent Dirichlet Allocation sowie die Analyse von paradigmatischen Relationen.
Die Auswertung von Kurznachrichten, die auf mobilen Endgeräten gespeichert sind, nimmt bei strafrechtlichen Ermittlungen immer mehr an Bedeutung zu. Häufig sind Ermittler hierbei mit umfassenden Nachrichtenmengen konfrontiert. Um einen Überblick zu erhalten, wäre eine kompakte Zusammenfassung der zahlreichen Nachrichten hilfreich. Eine Möglichkeit diese automatisiert zu erhalten, stellt die Themenmodellierung dar. Diese ist allerdings bei forensischen Kommunikationsdaten mit besonderen Herausforderungen verbunden. Zu diesen zählt die Tatsache, dass der Ermittler oft eine Erwartungshaltung an die Themen hat, wobei die für ihn interessanten Themen häufig nur zu einem geringen Anteil in den Daten vertreten sind. Um ihn bei dem Finden von Beweisen zu diesen Themen zu unterstützen, wurden zwei Methoden der halbüberwachten Themenmodellierung und Erweiterungen basierend auf Word Embeddings und paradigmatischen Relationen miteinander verglichen. Insbesondere für umgangssprachliche Kurznachrichten ist die Evaluierung der Themenmodellierung als schwierig anzusehen, da bisherige Studien gezeigt haben, dass gängige quantitative Evaluierungsmaße bei diesen nicht unbedingt die tatsächliche Interpretierbarkeit der Themen widerspiegeln. Daher bestand ein weiteres Ziel der Arbeit darin zu untersuchen, inwieweit die Ergebnisse einer regelmäßig angewendeten automatischen Evaluierungsmethode durch eine Nutzerstudie wiedergegeben werden. Insgesamt konnte festgestellt werden, dass nach der quantitativen Evaluierung die halbüberwachte Themenmodellierung unter Einbeziehung von paradigmatischen Relationen als besonders erfolgversprechend angesehen werden kann, während nach der Nutzerstudie vor allem die Word Embeddings die Ergebnisse der halbüberwachten Themenmodellierung verbessern konnten. Des Weiteren zeigte sich, dass keine Korrelation zwischen den Resultaten der automatischen Evaluierung und der Nutzerstudie vorlag.
Die vorliegende Arbeit befasst sich mit der dynamischen Speicherung und visuellen Darstellung von Metainformationen im Data Warehouse und Business Intelligence Umfeld. Ziel der Diplomarbeit ist es, eine Softwarelösung zu entwickeln, die es ermöglicht, Metainformationen dynamisch zu speichern und in Form von Graphen schnell und einfach zu visualisieren.
Im Data Warehouse und Business Intelligence Umfeld gibt es eine Vielzahl von Metainformationen, die in strukturierter Form (XML/CSV-Dateien, Datenbank-Tabellen usw.) vorliegt, aber über keine visuelle Darstellung verfügt. Auf Basis der geplanten visuellen Darstellung in Form von Graphen im Rahmen der Diplomarbeit kann die „Data-Lineage“ dargestellt werden und „Impact Analysen“ sind dadurch möglich.
Die Softwarelösung ermöglicht den Benutzern, mittels der graphischen Darstellung auf die benötigten Informationen zuzugreifen.
Standardsoftware wie Enterprise Resource Planning Systeme bieten eine ganzheitliche Unterstützung der Wertschöpfungsprozesse eines Anwenderunternehmens. Die darüber abgebildeten Geschäftsprozesse spiegeln im Allgemeinen das Wissen eines Entwicklerunternehmens über die Vorgehensweisen und Methoden innerhalb einer bestimmten Branche wider. In der heutigen Zeit gehören Enterprise Resource Planning Systeme zur softwaretechnischen Grundausstattung für die überwiegende Mehrzahl Kleiner und Mittlerer Unternehmen. Deren primärer Wettbewerbsvorteil liegt hierbei vor allem in ihrer Individualität, welche durch ein Enterprise Resource Planning System zu unterstützen ist. Diesbezügliche Anpassungen des Systems sind aufgrund seiner Komplexität häufig sehr kostenintensiv und übersteigen nicht selten das Budget eines Kleinen und Mittleren Unternehmens.
Workflow-Management-Systeme bieten eine einfache Möglichkeit die internen Geschäftsprozesse eines Anwenderunternehmens kostengünstig über ein Enterprise Resource Planning Systems abzubilden. Gleichzeitig erlauben sie die Steuerung der modellierten Arbeitsabläufe.
Diese Arbeit beschäftigt sich daher mit der Integration eines Workflow-Management-Systems in ein bestehendes Enterprise Resource Planning System. Das Integrationskonzept bezieht sich dabei ausschließlich auf Client-Server- Architekturen. Auf Basis einer IST-Analyse wird dabei ein Integrationskonzept für eine lose Kopplung beider Systeme entwickelt. Im Ergebnis soll dies einen einfachen Austausch des Workflow-Management-Systems garantieren und dessen Funktionen innerhalb des Enterprise Resource Planning System bereitstellen.
Schlüsselwörter: Workflow Management, Workflow-Management-System, Enterprise Resource Planning, Integration, Integrationskonzept, Kleine und Mittlere Unternehmen
Ein Compiler oder Assembler wandelt Quellcode in ein ausführbares Programm um. Das resultierende Binary besteht aus Befehlen und Ressourcen, wie Bilder, Sounds oder anderen Informationen. Ohne den Ausführungskontext kann jedoch nicht im Vorhinein mit absoluter Sicherheit eine Angabe gemacht werden, bei welchen Bytes es sich um Anweisungen und bei welchen Abschnitten im Programm es sich um Ressourcen handelt. Bei einer Untersuchung oder einem
Dekompilierungsvorgang der binären Datei gestaltet sich diese bzw. dieser ohne vorliegenden Quellcode sehr schwierig. Als Beispiel für eine Von-Neumann-Architektur wurde in dieser Arbeit der Game Boy mit seiner
Sharp-LR35902-CPU gewählt. Mit Banking verwendet die Architektur sowohl historische Technologien, ähnelt aber dennoch sehr den derzeit häufig genutzten x86-64-CPUs von Intel oder AMD. Außerdem bieten die kleinen Programme von maximal zwei Mebibyte die Möglichkeit, auch in ineffiziente Ansätze auszuprobieren. In dieser Arbeit wurde anhand der folgenden sieben Lösungsansätze erläutert, wie man eine Befehl-Ressourcen-Trennung erzielen kann.
Manueller Ansatz (siehe Kapitel 3.1)
Metadaten-Ansatz (siehe Kapitel 3.2)
Alles-Befehle-Ansatz (siehe Kapitel 3.3)
Statistischer Ansatz (siehe Kapitel 3.4)
Emulationsansatz (siehe Kapitel 3.5)
Programmflussansatz (siehe Kapitel 3.6)
Brute-Force-Ansatz (siehe Kapitel 3.7)
Insbesondere wurden drei automatisierte bzw. teilautomatisierte Ansätze implementiert und anschließend
mit einer manuellen Trennung als Referenzwert verglichen. Dabei erzielte, bei dem verwendeten Kontrollprogramm ”StefaN”, der Programmflussansatz ein gutes Ergebnis.
Das mittels Emulationsansatz gewonnene Ergebnis schloss etwas schlechter ab. Der Brute-Force-Ansatz scheiterte an exponentiellen Wachstum und erzielte damit das schlechteste Ergebnis. Eine korrekte Trennung konnte nur mit dem manuellen Ansatz erreicht werden. In dieser Arbeit konnte keine vollautomatisierte Lösung für das Problem gefunden werden. Grundsätzlich kann festgehalten werden, dass eine Befehl-Ressourcen-Trennung einer ausführbaren Binärdatei auch in Zukunft eine Herausforderung darstellt.
Diese Masterarbeit prüft forensische Ansätze zur Analyse von Mesh-Netzwerken am Beispiel eines Meshtastic®-Netzes. Hierzu wurden Daten des Funknetzwerkes extern, sowie durch Aufzeichnung des internen Nachrichtenverkehrs erhoben. Mit diesen Daten konnte die Existenz des Netzwerkes nachgewiesen, dessen Teilnehmer identifiziert, sowie deren geographische Positionen offengelegt werden. Darüber hinaus konnte die Netzwerkstruktur partiell rekonstruiert und der Nachrichteninhalt protokolliert werden. Schließlich konnten Maßnahmen identifiziert werden, sich einer Analyse zu entziehen, was einerseits Perspektiven der Sicherheitsintensivierung offenbart und andererseits fortführende forensische Untersuchungen bedingt.
Bei der Aufbereitung von digitalen Daten kann in der Forensik zwischen verschiedenen Tools gewählt werden. Diese müssen immer größer werdenden Datenmengen entgegenstehen und möglichst schnell und effizient Daten aufbereiten. Das Ziel dieser Arbeit ist es, forensische Tools zu Vergleichen und einen Überblick über die Funktionen zu geben. Dazu wird folgende Forschungsfrage gestellt: Welche Software ist für welches forensische Problem am besten geeignet? Um diese Frage zu beantworten, wurden Softwaretests durchgeführt. Hierfür wurden im ersten Schritt Images von einem Windows und Linux System und von einem Android Smartphone erstellt. Daraufhin wurden X-Ways Forensics, Axiom, Autopsy und Nuix auf diesen Images getestet und die Ergebnisse dokumentiert. Betrachtet wurden dabei Laufzeiten und die verschiedenen Aufbereitungs- und Suchergebnisse. Die Ergebnisse haben gezeigt, dass es deutliche Unterschiede in der Aufbereitung gibt. Axiom konnte besonders in der Aufbereitung des Windows und Android Images überzeugen. Bei der Aufbereitung des Linux Images konnten keine so klaren Ergebnisse erzielt werden.
Die vorliegende Bachelorarbeit befasst sich mit der Rauheitsanalyse von Knochen auf Basis von Schräglichtaufnahmen. Die Schräglichtaufnahmen wurden mit Hilfe der Skelettbestände und dem Equipment der Hochschule Mittweida erstellt. Die entstanden Bilder wurden einer Hauptkomponentenanalyse unterzogen. Anhand der Ergebnisse wurden die Maxima und Wendepunkte jedes Knochens bestimmt und innerhalb eines Skeletts sowie über mehrere Zeitstellungen miteinander verglichen. Es wurden zwei Skelette aus dem Gräberfeld Görzig, zwei Skelette aus dem Gräberfeld Rödelheim und elf rezente Knochen untersucht. Die Zeitstellungen teilten sich in ca. 300 n. Chr., das Jahr 1813 und die 1980er Jahre. Die Erkenntnisse aus dieser Arbeit können die Rauheitsanalyse und Altersschätzung vereinfachen und digitalisieren.
In dieser Arbeit wird das Verhältnis des Datenschutzes in Europa im Jahr 2015 während der Euro Krise anhand der bevorstehenden Einführung der Datenschutz-Grundverordnung
verglichen. Es wird ein Vergleichsrahmen aus der geltenden Richtlinie und der zukünftigen Datenschutzgrundverordnung erstellt und eine Auswahl an Ländern mit dieser Richtlinie verglichen. Ziel ist es den Stand der einzelnen Länder im Europäischen Kontext zu vergleichen.
Liegt in menschlichen Zellen eine Mutation im Enzym Isocitrat-Dehydrogenase 1 (IDH1) vor, kommt es zur einer erhöhten Produktion des Metaboliten D-2-Hydroxyglutarat (D2HG), wodurch die Entstehung weiterer Mutationen begünstigt wird. Um das IDH1-Enzym zu inhibieren und damit die D2HG-Konzentration in den Zellen zu verringern, sollten die Wirkstoffe AGI-5198 und FMLW-12 getestet werden. Dabei wurde zum einen die Zelllinie HT1080 mit der IDH1-Mutation R132C und zum anderen die Referenzzelllinien HeLa und 143B, die den Wildtyp aufweisen, verwendet.
Bei der Kultivierung der Zelllinie HT1080 mit AGI-5198 konnte neben einer langsameren Proliferation der Zellen auch eine Verringerung der D2HG-Konzentration beobachtet werden, was zeigt, dass AGI-5198 das mutierte IDH1 inhibiert. Bei HeLa und 143B zeigte sich keine Veränderung der D2HG-Konzentration, allerdings wirkte AGI-5198 in höheren Konzentrationen toxisch auf 143B.
Auch der Wirkstoff FMLW-12 konnte die D2HG-Konzentration in der Zelllinie HT1080 senken, während HeLa und 143B nicht beeinflusst wurden. Jedoch musste das Detergens Digitonin zur Permeabilisierung der Zellmembran eingesetzt werden, da FMLW-12 diese ansonsten nicht passieren konnte.
Vergleich von Grid Computing und Cloud Computing anhand Regeln und Ziele im IT-Governance Prozess
(2023)
Diese wissenschaftliche Arbeit leistet einen Beitrag zum Thema „Cloud-Computing“, welches unterschiedliche Möglichkeiten und Dienste bietet. Im Gegensatz dazu befasst sich dieser Forschungsbericht zusätzlich mit dem Konzept des Grid-Computing. Zu Beginn werden die IT-Governance-Regeln verglichen, die im Cloud- und Grid-Computing eines Unternehmens eine große Rolle spielen. Dabei werden zwei Varianten der der IT zur Verfügung stehenden Infrastrukturen für ausgewählte Dienste eingerichtet, welche den Regeln der IT-Governance folgen müssen. Die in dieser Arbeit ermittelten Informationen bieten einen guten Ausgangspunkt für die Umstellung der IT auf Cloud- bzw. Grid-Computing
Die Bachelorarbeit umfasst eine Auseinandersetzung mit dem aktuellen Straftatphänomen Cybertrading. In Zusammenarbeit mit Beteiligten des Strafverfolgungsprozesses und entsprechender Literatur wird das Phänomen aus den Gesichtspunkten der Wirtschaft, des Bankwesens, des Rechts, der Psychologie und der Polizei näher beleuchtet. Mithilfe dieser Erkenntnisse werden die Problemfelder im Umgang mit der Betrugsstraftat aufgedeckt.
Der Inhalt dieser Arbeit befasst sich mit der Verbesserung und somit Optimierung einer Multiplex-Färbung für die Metastasen des malignen Melanoms, wobei das sogenannte CODEX-System verwendet wird. Wie bei vielen anderen Krebserkrankungen ist die Metastasierung ausschlaggebend für eine hohe Mortalität. Um besser gegen die Metastasen vorgehen zu können, ist ein Verständnis ihrer Mikroumgebung und somit auch die Wechselwirkungen zwischen Tumor und Normalgewebe notwendig. Mithilfe der Multiplex-Technologie kann diese Mikroumgebung durch die Markierung von bis zu 50 Markern gleichzeitig in einem Gewebeschnitt weitreichend dargestellt werden. Anhand von Markern für Phosphoproteine kann zudem die Aktivierung bestimmter Signalwege nachgewiesen werden, wie zum Beispiel die des MAPK-Signalwegs, welcher in malignen Melanomen aufgrund bestimmter Mutationen in diesem Signalweg oftmals hochreguliert ist.
Die Arbeit beschäftigt sich mit der orientierenden Untersuchung von Abwasserprobenahmestellen in Abwasseraufbereitungsanlagen des ZWA Hainichens auf den Parameter Legionella spec.. Es sollen eventuelle Gefährdungspotentiale aufgedeckt werden, um die Arbeitssicherheit vor Ort zu gewährleisten. Weiterhin soll eine Aussage darüber getroffen werden, welche der beiden angewandten Methoden besser für den Nachweis der Legionellen in den Anlagen geeignet ist. Der Nachweis erfolgt nach der DIN 11731:2017 und dem Legiolert®-Verfahren.
Die Bachelorarbeit erläutert, was Deepfakes sind und inwiefern solche, unter Zuhilfenahme von maschinellem Lernen erzeugten, Bild- und Videomanipulationen in juristischen Zusammenhängen in Erscheinung treten oder Einfluss auf Vorgänge im Bereich des Rechtsverkehrs haben können. Dies wird unter anderem anhand dreier ausgewählter Szenarien verdeutlicht.
Basierend auf dem aktuellen Verständnis über die olfaktorische Perzeption der Hundenase, der Definition des menschlichen Individualgeruchs und dem Einfluss von Wetterparametern und weiteren Faktoren, welche im Zusammenhang mit einer urbanen Umgebung auf eine molekulare Geruchsspur einwirken können, soll diese Arbeit den derzeitigen wissenschaftlichen Stand verdeutlichen und Wiedersprüche aufgreifen. Es wird eine umfangreiche Literatursammlung zum gegenwärtigen Wissensstand dargestellt, sowie bestehende Probleme polizeilicher Mantrail-Einsätze aufgezeigt. Die Arbeit bietet eine differente Betrachtungsweise im Umgang mit der Dokumentation dieser Einsätze und gibt erste Einblicke für die Entwicklung einer computergestützten Simulation, basierend auf statistischen Modellen. Eine daraus resultierende Software soll eine juristisch verwertbare Wahrscheinlichkeitsaussage zum Verhalten des Hundes in seiner urbanen Umgebung auf der Grundlage einer molekularen Spur ermöglichen und kann als Werkzeug zur Dokumentation, sowie zur Plausibilitätsbetrachtung von Mantrail-Einsätzen Verwendung finden. Basis für diese Ansätze bildet das Verständnis der Geruchswahrnehmung durch den Hund, sein Verhalten während eines Trails sowie die Kenntnisse über die Ausbreitung einer Geruchswolke in der Umwelt. Diese Aspekte, sowie deren Beeinflussung durch äußere Faktoren und die Mensch-Hund Beziehung die maßgeblich zum Erfolg beiträgt, werden in der vorliegenden Arbeit ausführlich diskutiert und erste Ansätze zur Demo-Software vorgestellt.