Refine
Document Type
- Bachelor Thesis (108)
- Master's Thesis (31)
- Diploma Thesis (3)
Year of publication
- 2020 (142) (remove)
Keywords
- Computerforensik (11)
- Computersicherheit (11)
- Maschinelles Lernen (7)
- Softwareentwicklung (7)
- Videospiel (7)
- Blockchain (5)
- Künstliche Intelligenz (5)
- Bildverarbeitung (4)
- Bioinformatik (4)
- Digitalisierung (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (142) (remove)
Die folgende Arbeit bezieht sich auf die Werke von Hermann Helbig und Dewald und Freiling. Es soll die Verbindung zwischen einem Objekt, definiert nach Helbig, und einer Spur im kriminalistischen Sinne aufzeigen. Es wird zudem eine neue Repräsentation des Weges einer Spur von dessen Sicherung hin zu der Assoziation mit dem Objekt, das die Spur verursacht hat, entwickelt. Ein Objekt als semantische Entität mit dessen Eigenschaften als Charakterisierung soll in einen Zusammenhang mit kriminalistischen Untersuchungen, wie Klassifizierung und Individualisierung, durch eine Ontologie gebracht werden. Beginnend mit physischen Spuren stellt sich die Frage, ob sich die Darstellung auch auf digitale Spuren übertragen lässt. Eine neue Grafik, die sowohl für physische als auch für digitale Suren funktioniert, soll erzielen werden.
Aufgrund der bedeutenden Fortschritte im Bereich der Hochdurchsatzsequenzierungstechnologien und folglich dem exponentiellen Wachstum biologischer Daten entstehen in der Bioinformatik Herausforderungen bei der Speicherung und Analyse großer Datenmengen. Die umfangreichen
Genotypisierungsdaten der Gerste, welche als Referenzdatensatz vorlagen, wurden am Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung (IPK) durch Genotyping by Sequencing (GBS) erstellt. Zur effektiven Speicherung sowie Analyse dieser Daten wurden verschiedene Datenstrukturen erstellt und hinsichtlich Performance und Speicherbedarf evaluiert. Die Entwicklung verschiedener Java-Tools ermöglichte dabei das Einlesen, die Verarbeitung, sowie die Ausgabe dieser Daten zur effektiven Strukturierung und Analyse. Um die Anwendung dieser Java-Tools über Edge-Computing zu ermöglichen, wurde an der Erstellung von Datencontainern gearbeitet.
Die Bachelorarbeit untersucht, welche Auswirkungen die semantische Bildsegmentierung als Vorverarbeitungsschritt für Eingabebilder auf die Klassifikationsfähigkeit eines Convolutional Neural Networks (CNN) hat. Zu diesem Zweck werden Experimente mit verschiedenen Visualisierungstechniken gemacht, die geeignet sind, relevante Aspekte des Datenflusses im CNN während des Klassifikationsprozesses (wie z.B. den für die Klassifikationsentscheidung relevantesten Bildausschnitt) intuitiv zu veranschaulichen. Hierzu sollen verschiedene bereits existierende Ansätze wie GradCAM, Taylor Decomposition, Activation Maximization auf ihre Anwendbarkeit anhand von synthetischen Bilddaten systematisch untersucht werden. Hierzu werden
Daten- und Kontrollschnittstellen zu den anvisierten CNN-Verfahren umgesetzt und Vergleichsexperimente mit unbehandelten und auf verschiedene Weise vorsegmentierten Bilddaten konzipiert und durchgeführt. Die Arbeit soll ein intuitives Verständnis bzgl. der Fragestellung fördern, welchen Effekt eine vorherige Bildsegmentierung auf das Klassifikationsresultat und die CNN-interne Repräsentation von bildbasierten Daten hat
Mittels GPM3 können komplexe DNA- Mischspuren analysiert und STR- Profile ausgewertet werden. Zudem können durch Berechnungen die Genotypen, die in einer Mischung vorliegen, voneinander differenziert werden. Vor allem komplexe Mischspuren stellen einen Schwerpunkt bei der Spurenuntersuchung dar. Eine Anwendung von GPM3 ist die komponentenweise Dekonvolution von DNA- Mischspuren, bei der die Profile der beteiligten Personen aufgetrennt und die Wichtungen aller möglichen Genotypen ausgezählt werden. Dabei werden die Genotypkonstellationen (GTK) basierend auf den Peakhöhen, der Degradationsstärke und stochastischen Effekten bei Einsetzten von geringen DNA- Mengen modelliert. Der von der Firma Qualitype vorgegebene Grenzwert für die Wichtung, ab welcher mit einer hohen Wahrscheinlichkeit angenommen werden kann, dass es sich bei dieser GTK um den richtigen Genotyp der beteiligten Person handelt, liegt bei 90 %. Folglich werden Untersuchungen im Rahmen dieser Arbeit zu diesem Grenzwert anhand von verschiedenen 2- Personen- Mischungen in unterschiedlichen Konzentrationen mittels der Dekonvolution mit dem vollständig- kontinuierlichen Modell durchgeführt.
In der Arbeit werden dazu die jeweiligen Abstände der Wichtungen in Prozent der GTK der beteiligten Personen jeder Mischung berechnet und überprüft, ob die am höchsten gewichteten Genotypen in GPM3 den richtigen Allelkombinationen der jeweiligen Person entsprechen. Hierbei wird der Abstand der Konstellation mit der größten Wichtung zur „wahren“ Konstellation berechnet. Aus den Mittelwerten der prozentualen Abstände soll anschließend der Ähnlichkeitswert der Wichtung, ab welchem noch mit sehr hoher Wahrscheinlichkeit die richtige GTK ausgegeben wird, ermittelt werden.
Das Ziel der Bachelorarbeit ist es, die Möglichkeiten und Grenzen der Dekonvolution von Mischspuren mit der GPM3- Software bei verschiedenen Analysebedingungen zu bewerten und einen Auswerteparameter in Abhängigkeit von den Abständen der Wichtungen in Prozent und den Konzentrationen der einzelnen Mischungen zu validieren. Zudem soll die Nachweisgrenze der Analysemethode untersucht werden, um eine Aussage über die Minimalmenge an einzusetzender DNA treffen zu können
Das Thema IT-Sicherheit wird durch zunehmende Vernetzung, neue Anforderungen an Systeme und Industrie 4.0 auch für industrielle Netzwerke wie SCADA und ICS immer wichtiger.
Finanzielle Schäden durch Angriffe steigen von Jahr zu Jahr. Deswegen ist es wichtig, diese Netzwerke zu schützen und Angriffe frühzeitig zu erkennen, um zeitnah auf diese reagieren zu können und größere Schäden zu vermeiden. Da klassische Methoden ICS Systeme zum Teil behindern können und um einen zusätzlichen Schutz zu den normalen Intrusion Detection Systemen und Firewalls zu bieten, ist das Ziel dieser Arbeit, die Entwicklung einer Plattform, zur
verhaltensbasierten Detektion von Angriffen in solchen Netzwerken. Dafür werden Honeypots im Netzwerk verteilt, welche dazu dienen, Angriffe, die das normale IDS oder Firewalls umgangen haben, oder gar von Internen durchgeführt werden, zu erkennen. Die Honeypots sind in der Lage, Zugriffe auf die von ihnen verwendeten Protokolle zu erkennen und senden in diesem Fall Meldungen an einen zentralen Server, welcher diese in einer Datenbank speichert und in einem Dashboard visualisiert. Das in dieser Arbeit beschriebene Konzept und seine detailliert beschriebene Umsetzung sollen den Einstieg für Unternehmen in dieses Thema erleichtern und zu weiterer Forschung auf diesem Gebiet anregen.
Ziel dieser Masterarbeit ist eine Analyse des Voice-over-LTE-Netzwerkes auf Sicherheitsschwachstellen. Zuerst findet dafür eine theoretische Untersuchung des VoLTE-Protokolls mit einer Fokussierung auf seine sicherheitsrelevanten Merkmale statt. Anschließend wird das Session-Initiation-Protokoll (SIP) als Element für die praktische Untersuchung ausgewählt. Praktisch wird zuerst gezeigt, dass VoLTE-SIP-Pakete sensitive Daten enthalten, die auf den Endgeräten mitgelesen werden können. Anschließend werden manipulierte SIP-Pakete in das Netzwerk gesendet, die das Abfragen von Informationen und den Datenaustausch mit anderen VoLTE-Nutzern ermöglichen. Durch einen Vergleich der Arbeit mit anderen Veröffentlichungen wird gezeigt, dass es bereits ähnliche Ansätze gibt, die in dieser Arbeit verwendeten SIP-Pakete aber noch nicht für ein Auslösen unautorisierter Prozesse verwendet wurden. Zum Schluss wird dargestellt, in welchen Bereichen auf Basis dieser Arbeit weiter geforscht werden kann und welche Konsequenzen die gefundenen Ergebnisse für die VoLTE-Nutzer haben.
In dieser Masterarbeit werden verschiedene Angriffsverfahren auf LTE-Systeme vorgestellt und deren Funktionsweise erläutert. Eine Auswahl dieser Verfahren, welche für Downgrading-Attacks nutzbar sind, werden im Rahmen dieser Arbeit implementiert und in einer definierten Testumgebung auf Funktion getestet und ausgewertet. Ziel ist es dabei die Grundlage für ein Testsetup zu schaffen, bzw. existierende Testsetups zu erweitern, um so effektiv LTE-Systeme Testen zu können.
In der letzten Dekade hat sich die Verwendung von Cloud-Computing für das verlässliche und kostengünstige Betreiben von IT-Ressourcen und Applikationen weitgehend etabliert. Für Anwendungsszenarien mit hochsensitiven Daten können jedoch inakzeptable Restrisiken in Bezug auf deren Vertraulichkeit und Integrität – insbesondere während der eigentlichen Datenverarbeitung – verbleiben. Mit Hilfe von Intel SGX ist die Entwicklung dahingehend abgesicherter Anwendungen möglich, eine Nutzung dessen Funktionalität durch bereits bestehende Applikationen dagegen nicht ohne Weiteres. Um diese vor Angriffen auf die Vertraulichkeit oder Integrität mittels SGX zu schützen, wurden in der Forschung verschiedene Ansätze zur Migration entwickelt. Insbesondere serviceorientierte, aus mehreren Einzeldiensten bestehende, Anwendungen bedürfen dafür jedoch einer ausführlichen Planung und strukturierten Vorgehens. Die vorliegende Masterarbeit hat das Ziel, ein grundlegendes Verständnis für SGX zu vermitteln und die Migration solcher Anwendungen zu vereinfachen. Dafür wird eine generische Methodik vorgestellt sowie anhand des Beispiels einer populären Webanwendung hinsichtlich ihrer Funktionalität, Sicherheit und Performanz evaluiert. Zusätzlich erfolgt die Diskussion der Migration von Container-Anwendungen sowie deren Besonderheiten und Möglichkeiten zur Orchestrierung.
In der heutigen Gesellschaft finden zunehmend Fitnesstracker Anwendung. Viele Menschen sind daran interessiert ihre körperlichen Aktivitäten über den Alltag hinweg aufzuzeichnen, um einen Überblick über ihre Gesundheit oder Fitness zu erhalten. Aufgezeichnete körperliche Aktivitäten sollen in dieser Arbeit speziell mit GPS-Positionen, die auf einem separaten Gerät von derselben Person generiert wurden, in Verbindung gesetzt werden. Konkret wird eine Datenkopplung innerhalb eines Aggregationsalgorithmus für Geo-Positionen integriert. Die Aktivitätsdaten werden ausgewertet und über eine Java-Applikation dem Anwender zur Verfügung gestellt. Als Anwender kommen z.B. IT-Forensiker infrage. Um die Tauglichkeit zu testen, wurden über einen Zeitraum von zwei Wochen Testdatensätze mit einem Garmin vívosmart 4 und einem Android-Smartphone erho-ben. Das Ergebnis der in dieser Arbeit durchgeführten Implementierung ermöglicht eine Zusammenführung und Analyse dieser Daten auf Anwendungsebene.
Diese Arbeit thematisiert die digitale 3D-Modellierung des zur Hochschule Mittweida gehörenden Richard-Stücklen Baus. Hauptaugenmerk wird dabei auf die historische Entwicklung der veränderten Außenfassade und die einhergehende Frage, ob und inwieweit das das Gebäude umschließende Gitter performant umgesetzt werden kann, gelegt. Die Untersuchung der Frage erfolgt durch die Entwicklung eines beispielhaften Anwendungsfalls in Form einer interaktiven Software. Die Evaluation durch Performanztests legt dar, dass mit dieser Arbeit ein Weg gefunden wurde, den Richard-Stücklen Bau und sein Gitter durch eine eigens entwickelte Anwendung
performant darzustellen.
Der Autor dieser Arbeit gibt einen kurzen Überblick über die in der Industrie gültigen Richtlinien sowie üblichen Methoden zur Bewertung von der Reinigungseffizienz. Das Ziel dieser Arbeit ist die Entwicklung und Optimierung eines mikrobiologischen sowie makroskopischen Tests, der an dem Verfahren von EHEDG orientiert ist und für 3D-gedrucke Bauteile aus Edelstahl eingesetzt werden kann. Bei dem Verfahren für den makroskopischen Test wird das jeweilige Teststück zuerst verschmutzt, gereinigt und anschließend mithilfe von Fluoreszenzbildern ausgewertet. Für die Entwicklung eines mikrobiellen Tests wird die Modellverschmutzung auf Sauermilchbasis mit Endosporen eines Bioindikators Geobacillus stearothermophilus beimpft. Die Teststücke werden verschmutzt, gereinigt und mithilfe eines MSH-Agars ausgewertet.
Das Ziel der vorliegenden Bachelorarbeit war es, einen Einblick in die kostenlosen Application-Performance-Management-Software „Pinpoint“, „InspectIT Ocelot“ und „Elastic APM“ für die Analyse von Java-Applikationen anhand einer Java-Referenz-Anwendung zu gewinnen und diese mit der kosten-pflichtigen APM-Software „Dynatrace“ zu vergleichen. Dafür wurden Architektur, Funktionen, Erweiterungsmöglichkeiten, Performance und Support von „Dynatrace“ analysiert und auf Basis der Ergebnisse eine Bewertungsmatrix auf-gestellt. Auf Basis dieser Grundlage wurden die kostenlosen APM-Tools analysiert und bewertet. Es stellte sich heraus, dass „Elastic APM“ eine gute kosten-lose Alternative zu „Dynatrace“ ist.
Im Rahmen der Abschlussarbeit soll untersucht werden, inwiefern die Kombination von live objects der Realm Database auf der einen Seite und Combine und SwiftUI auf der anderen, die entstehende Komplexität und Fehleranfälligkeit bei der App-Entwicklung in iOS reduzieren kann. Es soll ein durchführbarer praktischer Teil in Form einer Chat-App entstehen und getestet werden, die die Vor- und Nachteile der genannten Techniken verdeutlicht.
Diese Arbeit beschäftigt sich mit der Problematik der Verbreitung von Keimen und den damit verbundenen nosokomialen Infektionen durch den Siphon. Es wird die Wirksamkeit einer Sperre untersucht, die die Biofilmbildung im Siphon und damit die Verbreitung von Keimen verhindern soll. Dazu werden durch Puls-Magnetron-Sputtern Flachproben mit einer Titandioxidbeschichtung beschichtet. Die Aktivität und Stabilität der Titandioxidbeschichtung wird oberflächenanalytisch und mikrobiolgisch untersucht, sowie für die Bewertung der Wirksamkeit Versuchsregime etabliert.
Diese Arbeit beschäftigt sich mit einer theoretischen Auseinandersetzung des Modells der moralischen Entwicklung von Lawrence Kohlberg (1963), welches auf dem Konstrukt Piagets zum logischen Denken aufbaut. Als literarische Arbeit wurde versucht eine Übertragung des Modells aus dem realen Raum in den Virtuellen zu schaffen. Die zentrale Frage war, ob Deviante des realen Raumes die gleichen moralischen Stufen wählen, wie Deviante im virtuellen Raum. Weiterhin wurden die Big-Five der Persönlichkeit mit einbezogen.
Als zentrales Ergebnis zeigt sich die Kenntnis der geltenden Normen, sowie nicht geahndetes Übertreten vermeintlicher Grenzen. Weiterhin konnte festgestellt werden, dass es weniger um die moralische Entwicklung als starre Form, sondern um die Herausbildung einer moralischen Identität geht. Die Verschiebung der moralischen Wahl ist demnach keine räumliche, sondern eine zeitliche.
Ziel dieser Arbeit ist es, ein Software-Architektur-Konzept zu entwickeln, umzusetzen und zu evaluieren, dessen Fokus auf die Kombination einer Smartwatch-Anwendung mit einer AR-Brille-Anwendung gerichtet ist. Dazu wurde ein Patent untersucht, dessen Schwerpunkt auf der Kombination von AR-Brille und Smartwatch liegt, um Anforderungen an solch eine Software-Architektur zu erstellen. Im Anschluss entstand unter Einbeziehung der recherchierten Informationen ein Architektur-Konzept. Für die darauffolgende Umsetzung wurden Anwendungsfälle entwickelt, die zeigen sollen, wie ausgewählte Software-Qualitätsmerkmale bei Verwendung der
Architektur erreicht werden können. Bei der anschließenden Evaluation zeigte sich, dass die Architektur zur Erfüllung wichtiger Software-Qualitätsmerkmale beiträgt, aber auch Optimierungspotenzial besitzt.
In der vorliegenden Arbeit werden Bildanalysemethoden für die Lokalisation und Klassifikation von Eingabefeldern untersucht. Bei den Eingabefeldern liegt der Schwerpunkt auf den Benutzererkennungs- und Passwortfeldern, da die Verwendung der Bildanalysemethoden für eine Single Sign-On Lösung gedacht ist. Neben traditionellen Bildverarbeitungsmethoden, wie Segmentierung und Hough-Transformation, wird auch die Verwendung von neuronalen Netzen betrachtet.
Ziel dieser Arbeit ist der Entwurf einer Komponente, welche in der Lage ist Entscheidungsbäume in den 3D-Raum zu projizieren. Dazu ist es erforderlich, diese erweiterbar zu gestalten. Im Speziellen muss sie dafür verschiedene Arten von Knoten und Entscheidungsregeln mithilfe einer erweiterbaren Schnittstelle unterstützen.
Die Schnittstelle ist als Teil der Arbeit zu definieren und zu dokumentieren. Die Komponente soll prototypisch Interaktionen des Nutzers registrieren, wie das Anwählen einzelner Bestandteile des Modells. Um die Verwendbarkeit in Folgeprojekten sicherzustellen muss zu diesem Zweck im Rahmen der Arbeit eine API definiert werden
In dieser Bachelorarbeit soll festgestellt werden, ob die Erkennung von KFZ-Kennzeichen mittels künstlicher Intelligenz insoweit möglich ist, dass eine digitale Manipulation derer, im Anschluss denkbar ist. Dazu werden zunächst äußerliche Eigenschaften von KFZ-Kennzeichen ausgearbeitet und herkömmliche Kamerasysteme vorgestellt. Anschließend wird eine Anwendung für automatisierte Kennzeichenerkennung getestet, um einzuschätzen, ob die Erkennungsfunktion die Erfolgsrate ausweist, die für eine digitale Manipulation von Nöten ist. Die Arbeit richtet sich an Personen mit Verständnis von Computern sowie der Arbeitsweise neuronaler Netze im Speziellen.
Das Epitop-Mapping dient der Identifizierung von Epitopen eines Antigens. Dazu wurden Seren immunisierter Kaninchen zur Durchführung verwendet. Die Peptidsequenzen von Phagen wurden mittels des Peptid-Phage-Display selektiert und amplifiziert. Diese Sequenzen wurden anschließend mit LibDB analysiert. Es wurden 7 potentielle Epitope des Dengue-Virus Serotyp 2 Envelope (E)-Proteins identifiziert.
Glycans play an important role in the intracellular interactions of pathogenic bacteria. Pathogenic bacteria possess binding proteins capable of recognizing certain sugar motifs on other cells, which are found in glycan structures. Artificial carbohydrate synthesis allows scientists to recreate those sugar motifs in a rational, precise, and pure form. However, due to the high specificity of sugar-binding proteins, known as lectins, to glycan structures, methods for identifying suitable binding agents need to be developed. To tackle this hurdle, the Fraunhofer Institute for Cell Therapy and Immunology (Fraunhofer IZI) and the Max-Planck Institute of Colloids and Interfaces (MPIKG) developed a binding assay for the high throughput testing of sugar motifs that are presented on modular scaffolds formed by the assembly of four DNA strands into simple, branched DNA nanostructures. The first generation of this assay was used in combination with bacteria that express a fluorescent protein as a proof-of-concept. Here, the assay was optimized to be used with bacteria not possessing a marker gene for a fluorescent protein by staining their genomic DNA with SYBR® Green. For the binding assay, DNA nanostructures were combined with artificially synthesized mannose polymers, typical targets for many lectins on the surface of bacteria, presenting them in a defined constellation to bind bacteria strongly due to multivalent cooperativity. The testing of multiple mannose polymers identified monomeric mannose with a 5’-carbon linker and 1,2-linked dimeric mannose with linker as the best binding candidates for E. coli, presumably due to binding with the FimH protein on the surface. Despite similarities between the FimH proteins of E. coli and K. pneumoniae, binding was only observed between E. coli and the different sugar molecules on DNA structures. Furthermore, the degree of free movement seemed to affect the binding of mannose polymers to targeted proteins, since when utilizing a more flexible DNA nanostructure, an increase in binding could be observed. An alternative to the simple DNA nanostructures described above is the use of larger, more complex DNA origami structures consisting of several hundred strands. DNA origami structures are capable of carrying dozens of modifications at the same time. The results for the DNA origami structure showed a successful functionalization with up to 71 1,2-linked dimeric mannose with linker molecules. These results point towards a solution for the high-throughput analysis of potential binding agents for pathogenic bacteria e.g. as an alternative treatment for antibiotic-resistant.
Die vorliegende Arbeit beschäftigt sich mit den Änderungen der §§ 176 Abs. 6 und 184b Abs. 5 StGB, welche durch das 57. Gesetz zur Änderung des Strafgesetzbuchs - Versuchsstrafbarkeit des Cybergroomings am 13. März 2020 in Kraft traten [16]. § 176 Abs. 6 StGB regelt fortan die Strafbarkeit des Versuchs für Vorbereitungstaten nach § 176 Abs. 4 Nr. 3 StGB, worunter auch das sogenannte Cybergrooming zählt. Durch die Neufassung des § 184b Abs. 5 StGB wird Strafverfolgungsbehörden zukünftig die Verwendung von künstlich erzeugtem kinderpornografischen Material im Rahmen von verdeckten Ermittlungen und zur Aufdeckung von Straftaten ermöglicht. Im Rahmen dieser Arbeit wird der Einfluss dieser Änderungen auf die Arbeit von Ermittlern in Strafverfolgungsbehörden betrachtet und dabei auf eventuelle Vor- und Nachteile eingegangen. Die Arbeit soll aufzeigen, welche Probleme es in Deutschland bei der Bearbeitung von Kinderpornografie-Delikten gibt. Ziel ist die Veranschaulichung des derzeitigen Standes im Kampf gegen Kinderpornografie, nicht nur in Strafverfolgungsbehörden, sondern auch auf politischer Ebene. Zudem soll ein Ausblick erfolgen, inwiefern sich dies in Zukunft verändern könnte.
In this work a second version for the Python implementation of an algorithm called Probabilistic Regulation of Metabolism (PROM) was created and applied to the metabolic model iSynCJ816 for the organism Synechocystis sp. PCC 6803. A crossvalidation was performed to determine the minimal amount of expression data needed to produce meaningful results with the PROM algorithm. The failed reproduction of the results of a method called Integrated and Deduced Regulation of Metabolism (IDREAM) is documented and causes for the failed reproduction are discussed.
Anwendung moderner Bilderkennungsverfahren auf polizeiliche Problemstellungen, mit dem Ziel strafrechtlich relevante Inhalte herauszufiltern. Dabei werden die 3 Architekturen Faster R-CNN, SSD-ResNet und EfficientDet getestet. Anschließend soll eine Integration in den PA von Cellebrite
erfolgen, um die Verarbeitungspipeline innerhalb der Polizei bestmöglich zu ergänzen. Aufgrund von Systeminkompatibilitäten wurde eine eigenständige Lösung erarbeitet.
Vor der Etablierung neuer Versionen in D-LIMS, müssen diese erst auf ihre Funktionstüchtigkeit geprüft werden. In der Arbeit wird das D-LIMS im Sachbereich DNA-Analyse des Kriminaltechnischen Instituts des Landeskriminalamts Brandenburg und eine Versionskontrolle für die Software D-LIMS vorgestellt.
The Infinica product suite consists of multiple individual microservice applications, mainly gathered around Infinica Process Engine which allows the execution of highly individualised process definitions. For estimating process performance, a layered queuing network approach has been applied. In the first step this required the implementation of a basic modelling framework. Subsequently the implemented framework was used to evaluate the applicability of the approach by creating two models and comparing them with actual performance measurements. Although the calculated results deviated from the expected results, analysis showed that the differences may
derive from an inaccurate model. Nevertheless the general approach seems to be appropriate for the given application as well as for microservices in general, especially when extended with advanced modelling techniques, as the analysed modelled results appear consistent.
Die vorliegende Bachelorarbeit befasst sich mit der Charakterisierung der extrazellulären Matrix, die durch humane Fibroblasten in Form von Cell Sheets in Zellkultur produziert wurde. Die Untersuchungen sollten vergleichend für die Zellen der Zelllinie MRC-5 und Primärzellen adulte und fetale humane dermale Fibroblasten durchgeführt werden. Zur Beurteilung der Matrixausprägung kam das Metabolic Oligosaccharide Engineering zum Einsatz. Zwei Methoden zur Dezellularisierung wurden miteinander verglichen, der Erfolg dieser beurteilt und die zurückbleibende extrazelluläre Matrix betrachtet.
Weitere Analysen zur Untersuchung vor und nach der Dezellularisierung beinhalteten unter anderem Glykosaminoglykan- und Hydroxyprolinbestimmungen, Rasterkraftmikroskopie und Siriusrotfärbung.
Die vorliegende Arbeit beschäftigte sich mit einer Analyse von Methoden des maschinellen Lernens, mit Hinblick auf ihre unterstützende Wirkung für den intralingualen Übersetzungsprozess von deutschen standardsprachlichen zu Leichte Sprache Texten. Für diesen Zweck wurde ein Vergleich von relevanten Methoden, in diesem Fall die der statistischen maschinellen Übersetzung und die der neuronalen maschinellen Übersetzung aus dem Bereich des maschinellen Lernens und des Natural Language Processing aufgestellt. Dabei wurde der potenzielle Funktionsumfang, die Voraussetzungen sowie die Implementierbarkeit verglichen. Das Ergebnis dieses Vergleiches war es das, dass Potenzial durchaus gegeben ist mittels dieser Methoden den Übersetzungsprozess zu unterstützen. Jedoch bedingt das Fehlen eines Textkorpus für deutsche Standard Sprache und ein dazugehöriger Textkorpus der Leichten Sprache, das diese Methoden nicht implementiert, wurden konnten. Es konnten drei Funktionen umgesetzt werden, die den Übersetzungsprozess unterstützen. Zum einen die Funktion für die Anzeige von gebräuchlicheren Synonymen von Wörtern, eine Funktion für die automatische Generierung von
Zusammenfassungen und eine Funktion für Anzeige von Umformulierungen für Zahlen aus den Bereichen hohe Zahlen, alte Jahreszahlen und Prozent Zahlen. Die Evaluation der Funktionen mittels einer zufällig generierten Wortliste und ausgewählter Nachrichten für die Zusammenfassung und Zahlenbereiche ergab. Das diese Funktionen eine unterstützende Wirkung haben, jedoch stark fehleranfällig sind.
Die vorliegende Arbeit befasst sich mit der DNA-Phänotypisierung und wie sich deren Anwendung in Form der erweiterten DNA-Analyse auf den Strafprozess in Deutschland auswirken wird. Unter der Betrachtung aktueller wissenschaftlicher Publikationen werden die derzeitigen Möglichkeiten der DNA-Phänotypisierung beleuchtet. Angesichts der neuen Gesetzeslage werden häufig geäußerte Kritikpunkte aufgegriffen und im Kontext gesellschaftlicher und ermittlungstechnischer Aspekte weitergeführt. Abschließend werden Empfehlungen für die effektive Anwendung in Deutschland gegeben, sowie für die verantwortungsvolle Aufnahme der biogeografischen Herkunft in die erweiterte DNA-Analyse argumentiert.
Die vorliegende Arbeit beschäftigt sich mit dem Thema der Verbesserung narrativer Kontinuität in digitalen Spielen, welche auf einem anderen Medium basieren.
Im Fokus des Forschungsinteresse stand die Frage, ob es möglich ist, einen Katalog an Betrachtungsweisen zu erstellen, welcher einen Designer bei seiner Arbeit an einem solchen digitalen Spiel unterstützen kann und ihm hilft, die narrative Kontinuität zu wahren.
Weiterführende Fragen beschäftigten sich damit, ob narrative Kontinuität überhaupt erstrebenswert ist und welches Teammitglied zu welchem Zeitpunkt für die Sicherung die-ser zuständig ist.
Zu diesem Zweck wurde eine umfassende theoretische Recherche durchgeführt, um wichtige Grundbegriffe des narrativen Designs zu klären und für die weitere Arbeit zu definieren.
In der Folge wurden dann Gespräche mit Experten auf dem Gebiet des narrativen und Spieldesigns aus der deutschen Entwicklerszene geführt. Diese Gespräche wurden in der Folge dokumentiert und aufgearbeitet. Als Ergebnis dieser Arbeit hat sich schließlich ein Katalog von 28 Betrachtungsweisen ergeben, welcher so in der Zukunft in einem realen Anwendungsfall unterstützend ein-gesetzt werden könnte. Dessen vorläufige Beurteilung und ein Ausblick auf weiterführende Arbeiten daran und damit sind ebenfalls Teil dieser Arbeit.
Krebs zählt zu den häufigsten Todesursachen. Die Suche nach neuen Wirkstoffen führt immer häufiger zu natürlichen Quellen. Das Heilkraut Artemisia annua L. bzw. dessen Sekundärmetabolit Artemisinin stellt einen Kandidaten zur Entwicklung neuer Krebsmedikament dar. Ursprünglich wurde Artemisinin in den 1970er Jahren als Mittel gegen Malaria entdeckt. Wie Studien beweisen konnten, weist die Verbindung auch eine selektive Wirkung gegen verschiedene Krebsarten auf. In dieser Arbeit wird Artemisinin bezüglich seiner Wirkung auf fünf humane Zelllinien (HeLa, 143B.TK-, HT-29, MCF-7, PC-3) untersucht, mit dem Ziel einen spezifischen Wirkort in den Mitochondrien zu identifizieren. Dafür werden die jeweiligen Krebszellen in Medium ohne Pyruvat und Uridin sowie in Medium mit beiden Zusätzen kultiviert. Nach einem Vorversuch wird der eigentliche Versuch mit der optimalen Artemisinin-Konzentration über sieben Tage durchgeführt. Die Ergebnisse umfassen mehrtägige mikroskopische Bildaufnahmereihen, Aufzeichnungen der Zellvitalität und der Gesamtlebendzellzahl sowie die relative Quantifizierung des mtDNA-Gehalts und des Expressionsniveaus respiratorischer Gene. Anhand dieser Untersuchungen kann davon ausgegangen werden, dass Artemisinin eine wachstumshemmende sowie zytotoxische Wirkung besitzt und in einigen der Zelllinien ebenso spezifisch in den Mitochondrien wirkt. Die Verbindung besitzt ein breites Wirkspektrum, was mit mehreren zellulären und molekularen Mechanismen assoziiert ist. Somit steht die Antikrebsaktivität von Artemisinin auch zusätzlich damit in Zusammenhang. Zudem besitzt Artemisinin eine unterschiedliche Wirksamkeit auf verschiedenen Arten von Tumorzellen.
Diese Arbeit beleuchtet die Konzeption und subsequente Entwicklung eines Prototyp-Projekts, das zur praxisorientierten Vermittlung von Fähigkeiten und Kompetenzen im Bereich Audio, Animation und Implementierung im zusammengeführten Modul Animation, Rigging und Audio in digitalen Medien verwendet werden soll. Dieses Projekt soll zur Verfügung gestellt werden und unterrichtsbegleitend dazu genutzt werden, diverse Arbeitsschritte in den genannten Bereichen zu verstehen, zu erlernen und mit sicht- und hörbarem Ergebnis anzuwenden. Im Rahmen dieser Arbeit wird der Fokus der Bearbeitung und Analyste zunächst auf den Bereich Game Audio gelegt. Der Prototyp bildet aber bereits diverse praktische Ansatzpunkte auch für die Bereiche Rigging, Animation und Implementierung
Durch starkes Bevölkerungswachstum und den zunehmenden Mangel an landwirtschaftlich nutzbaren Flächen werden effektivere Pflanzen benötigt, um einer Hungersnot und Mangelernährung vorzubeugen. Diese können durch gezielte Eingriffe in das Genom optimiert und schließlich mittels Phänotypisierung analysiert werden. Während herkömmliche Verfahren Pflanzenparameter nur abschätzen können, ist eine genaue Bestimmung mithilfe von dreidimensionalen Modellen möglich. So bietet die Photogrammetrie, als Low-Cost-Anwendung, ein weites Einsatzspektrum. Die im mittleren Preissegment angesiedelten Structured-Light-Scanner können ebenfalls 3D-Pflanzenmodelle schnell, einfach und kostengünstig rekonstruieren. Ein 3D-Modell einer Pflanze bietet die Möglichkeit, Pflanzenparameter digital zu ermitteln und innerhalb kurzer Zeit unterschiedlichste Genotypen zu vergleichen. In dieser Arbeit wurden Pflanzenparameter von der Ackerschmalwand (Arabidopsis thaliana) und von Weizen (Poaceae) in einer 3D-Umgebung
mit Referenzdaten verglichen. Zur Evaluation der Performance der Scanning-Verfahren wurden verschiedene Parameter untersucht. Dabei wurden die Genauigkeit, Geschwindigkeit, Handhabbarkeit, Rechenanforderung und Flexibilität untersucht.
Diese Arbeit untersucht die Spielertypen Achiever und Explorer nach Bartle (1996) und ihre Reaktionen auf zeitinduzierten, psychischen Druck. Dazu wurde ein zweistufiges Experiment durchgeführt, in dem die 7 Probanden Irrgärten durchlaufen. Im ersten Irrgarten erfolgt zunächst eine Klassifizierung der beiden Spielertypen: Je nach Entscheidungsmuster innerhalb eines Irrgartens, werden die Probanden in Achiever und Explorer eingeteilt. Darauf aufbauend durchqueren die Spieler einen zweiten Irrgarten, der sich vom ersten unterscheidet, aber ähnliche Voraussetzungen bietet. Hierbei wird durch eine Uhr, die die verbrachte Zeit im Irrgarten misst, Zeitdruck induziert. Die Ergebnisse zeigen, dass diese intrinsische Motivation dazu führen kann, dass sich die Verhaltensweise der zuvor als Explorer idendifizieren Probanden, an die äußeren Umstände anpassen und sie ihr Spielverhalten ändern.
Active Learning (AL) ist eine besondere Trainingsstrategie im überwachten maschinellen Lernen, mit dem Ziel die Accuracy eines Klassifikators zu verbessern, indem ein Klassifikator mit nur wenig gelabelten, aber dafür hoch informativen Datenpunkten (DP) gelernt wird. In der medizinischen Forschung liegen oftmals nur wenig gelabelte DP vor. AL kann eine sinnvolle Strategie sein, um die Kosten und den Aufwand für das Labeln ungelabelter DP zu senken. Mit Pool-Based AL wurden bisher die größten Erfolge verzeichnet. In der vorliegenden Arbeit wurden zwei biologische, binäre Klassifikationsprobleme mit Uncertainty Sampling Pool-Based AL und Query by Bagging Comitee Pool-Based AL untersucht. Der Generalized Learning Vector Quantization (GLVQ) und ein Multilayer Perzeptron (MLP) wurden als Klassifikatoren verwendet. Anhand eines linear trennbaren und eines nicht linear trennbaren Datensatzes wurden die Auswirkungen der Anzahl an gelabelten DP, mit welcher die Klassifikatoren zu Beginn trainiert wurden, auf die Accuracy untersucht. Die AL-Accuracy näherte sich für das anfängliche Training der Klassifikatoren mit 10 % gelabelten DP bereits stark an die Accuracy im klassischen maschinellen Lernen an und war teilweise sogar größer. In einem weiteren Experiment wurden daher die Klassifikatoren anfänglich mit nur 1 % gelabelten DP trainiert. Es wurde die Auswirkung der Anzahl nachgelabelter DP, mit welcher die Klassifikatoren nachtrainiert wurden, auf die Accuracy untersucht. Für den linear trennbaren Datensatz war die Anwendung von AL mit dem GLVQ und 10 nachgelabelten DP sowie mit dem MLP und 50 nachgelabelten DP erfolgreich. Bei dem nicht linear trennbaren Datensatz wurde mit dem MLP zumindest eine Tendenz, dass AL die Accuracy verbessert, festgestellt. Jedoch reichten 50 nachgelabelte DP nicht aus.
Diese Arbeit widmet sich dem Vergleich forensischer Software in der mobilen Forensik. Das Ziel der Arbeit besteht darin, forensische Images mit mehreren Tools zu analysieren und die Ergebnisse gegenüberzustellen. Dabei wird insbe-sondere auf die Qualität der Ergebnisse und der auf die Analyse verwendete Zeitaufwand berücksichtigt. Der Vergleich schließt die Tools XRY von MSAB, Oxygen Forensic Detective von Oxygen Forensics und das Open-Source Tool Autopsy ein.
Diese Bachelorarbeit handelt von der Konzeptionierung und Entwicklung eines Datenmanagements von Fahrzeugversuchsdaten. Dabei wird zuerst eine Vorbetrachtung durchgeführt, in der alle Anwendungsfälle und Ausgangsbedingungen analysiert werden. Die Analyse stellt die Grundlage dar auf der das Konzept im nächsten Kapitel basiert. Im Konzept wird der gesamte Prozessablauf des Datenmanagements von Auslösung des Prozesses bis zur Übergabe an den Folgeprozess betrachtet. Dabei werden verschiedene Ausgangsfälle betrachtet und jeweils eine entsprechende Umsetzungsmöglichkeit dargestellt. Mithilfe verschiedener Lösungsansätze wird eine bestmögliche Lösung gefunden. Bei der anschließenden Implementierung wird ein Prototyp erstellt, der das Konzept berücksichtigt. Mithilfe der beschriebenen Testumgebung und der Testfälle wird der Prototyp anschließend getestet.
This thesis deals with the development of a methodology / concept to analyse targeted attacks against IIoT / IoT devices. Building on the established background knowledge about honeypots, fileless malware and injection techniques a methodology is created that leads to a concept of a honeypot analyzation system. The system is created to analyse and detect novel threats like fileless attacks which are often utilized by Advanced Persistent Threats. That system is partially implemented and later evaluated by performing a simulated attack utilizing fileless attacks. The effectiveness is discussed and rated based on the results.
Die vorliegende Bachelorarbeit vergleicht die zwei Honeypotsysteme T-Pot und Modern Honey Network miteinander. Hierfür zeigen Angriffsszenarien gegen die Honeypotsysteme, wie Angreifer diese wahrnehmen würden und wie die Honeypots die Angriffe protokollieren. Die ersten Kapitel dienen als Einführung in die Thematik der Honeypots und erläutern die Problemstellung und Vorgehensweise. Kapitel 4 und 5 beleuchten den Entwurf und die Durchführung der Angriffsszenarien. In Kapitel 7 wird der Vergleich anhand selbst aufgestellter Kriterien durchgeführt. Das Honeypotsystem T-Pot hat in diesem Vergleich knapp besser abgeschnitten. Jedoch lässt sich Schlussfolgern, das je nach individuellen Zielen und Einsatzzwecken beide Honeypotsysteme mit ihren Stärken überzeugen können.
Das Ziel der vorliegenden Bachelorarbeit war es, eine Software zu entwickeln, die plausible Abstreitbarkeit auf Grundlage einer Trennung der Metadaten von den Nutzdaten eines verschlüsselten Datenträgers erreicht. Beide Teile wurden auf unterschiedliche Weise mittels bildsteganografischer bzw. datenträgersteganografischer Methoden dahingehend verändert, um letztendlich
die Existenz verschlüsselter Daten verbergen zu können. Die als “Proof-of-Concept“ entwickelte Software für Linux-Betriebssysteme soll dabei für den Nutzer ein möglichst transparentes Arbeiten gewährleisten aber durch die steganografischen Komponenten einen möglichst niedrigen Mehraufwand aufweisen. Sie greift weitestgehend auf Standardwerkzeuge zurück, wurde in der Programmiersprache Python 3 implementiert und steht hinsichtlich des Open-Source-Gedankens unter der GNU General Public License.
Die in dieser Arbeit entwickelte Software trägt den Titel Inceptum, der bereits vorgegeben war und für Beginn oder ein Vorhaben steht. Die Software soll zukünftig als Stütze dienen, um nicht mehr viele unterschiedliche Softwarelösungen nutzen zu müssen, sondern nur noch eine zentrale, das reduziert das wiederholte Eingeben von kohärenten Daten. Jira und SAP sollen jedoch nicht ersetzt werden, Inceptum dient lediglich als Ergänzung und als Schnittstelle der unterschiedlichen Daten um daraus eine auswertbare Sammlung an Informationen zu erhalten, was zuvor in mühsamer Handarbeit in Excel-Tabellen erledigt werden musste. Somit soll viel Zeit und Arbeit eingespart werden, was immer mit hohen Kosten verbunden ist. Diese Art von individueller Verbindung hebt das Konzept der Software von den gängigen Projektmanagement-Softwarelösungen ab.
Der in dieser Arbeit entwickelte Grundstein der Software beinhaltet alle Vorkehrungen, um diese Schnittstellen später anbinden zu können. Kein Teil dieser Arbeit ist das Entwickeln der Schnittstellen an sich. Die Schnittstelle zu
der Ticketverwaltungssoftware Jira ist bereits fertig programmiert und deren Anbindung an die Software wird lediglich untersucht. Die Anbindung an SAP ist ebenfalls nicht in dieser Arbeit vorgesehen. Die Daten aus Excel sollen möglichst ersetzt werden, um später darauf nicht mehr zurückgreifen zu müssen. Die Positionierung der Software Inceptum wird in der Grafik 1.2 noch einmal visualisiert. Kein Bestandteil der Arbeit ist außerdem das Anlegen, Bearbeiten und Löschen von Mitarbeitern, sowie deren Verfügbarkeitsänderungen, die Software baut lediglich auf der Grundlage dessen auf. Auch die Tabelle zur Darstellung von Verfügbarkeiten der Mitarbeiter pro Zeiteinheit ist kein Bestandteil der Arbeit.
Drought is one of the most common and dangerous threats plants have to face, costing the global agricultural sector billions of dollars every year and leading to the loss of tons of harvest. Until people drastically reduce their consumption of animal products or cellular agriculture comes of age, more and more crops will need to be produced to sustain the ever growing human population. Even then, as more areas on earth are becoming prone to drought due to climate change, we may still have to find or breed plant varieties more suitable to grow and prosper in these changing environments.
Plants respond to drought stress with a complex interplay of hormones, transcription factors, and many other functional or regulatory proteins and mapping out this web of agents is no trivial task. In the last two to three decades or so, machine learning has become immensely popular and is increasingly used to find patterns in situations that are too complex for the human mind to overlook. Even though much of the hype is focused on the latest developments in deep learning, relatively simple methods often yield superior results, especially when data is limited and expensive to gather.
This Master Thesis, conducted at the IPK in Gatersleben, develops an approach for shedding light on the phenotypic and transcriptomic processes that occur when a plant is subjected to stress. It centers around a random forest feature selection algorithm and although it is used here to illuminate drought stress response in Arabidopsis thaliana, it can be applied to all kinds of stresses in all kinds of plants.
Steganographie und Steganalyse : Untersuchung moderner Methoden, Werkzeuge und Angriffsvektoren
(2020)
Diese Abschlussarbeit befasst sich mit Steganographie und Steganalyse. Es werden allgemeine Einblicke in beide Bereiche und detailliertere Beschreibungen verschiedener Methoden und Algorithmen gegeben. Den Ausarbeitungen liegen zwei Testreihen zugrunde, in denen speziell erzeugt Steganogramme mit verschiedenen Programmen und Methoden analysiert werden. Es wird die Möglichkeit der Einordnung der Bilddateien in unauffällig und auffällige Dateien thematisiert und anhand der Testobjekte überprüft und ausgewertet. Des Weiteren erfolgt ein Vergleich verschiedener Steganalyseprogramme und die Auswirkungen unterschiedlicher Faktoren, wie zum Beispiel das Ausgabeformat der Steganogramme, auf die Steganalyse. Auch der Faktor der Verschlüsselung wird im Laufe der Arbeit thematisiert.
This bachelor thesis aims for the creation of an add on to the open source software Blender, wich is capable of making a procedural texture, that resebles human skin. Its purpose lies in aiding the process of facial reconstruction in the forensic field.
The beginning covers the importance of facial reconstruction and its general workings. It is followed by the scientific backround of the human skin. The main part of the thesis covers the creation of the material and its integration into an add on. Finally its results are evaluated against photographs of real human skin. The Thesis concludes with a summary and speculatory look into the future.
Konzeption zum Aufbau einer Werkstatt 4.0 mit prototypischen
IoT Elementen, teilweise simuliert
(2020)
Bei dieser Arbeit wurden verschiedene Vergleiche zwischen Datenübertragungsarten gezogen und welche in einer Werkstatt 4.0 implementiert werden können. Die Vergleiche finden sich meist in Tabellenform wieder, da diese die beste Möglichkeit zur Gegenüberstellung bieten. Weiterhin wurde ein Konzept für eine Benutzerverwaltung erstellt. Dabei war die Vorgabe mit dem ASP.Net Framework „Razor Pages“ und WPF zu arbeiten. Diese Arbeit ist sowohl für studierende der Informatikstudiengänge als auch für Technik affine Studenten interessant.
Genetic sequence variations at the level of gene promoters influence the binding of transcription factors. In plants, this often leads to differential gene expression across natural accessions and crop cultivars. Some of these differences are propagated through molecular networks and lead to macroscopic phenotypes. However, the link between promoter sequence variation and the variation of its activity is not yet well understood. In this project, we use the power of deep learning in 728 genotypes of Arabidopsis thaliana to shed light on some aspects of that link. Convolutional neural networks were successfully implemented to predict the likelihood of a gene being expressed from its promoter sequence. These networks were also capable of highlighting known and putative new sequence motifs causal for the expression of genes. We tested our algorithms in various scenarios, including single and multiple point mutations, as well as indels on synthetic and real promoter sequences and the respective performance characteristics of the algorithm have been estimated. Finally, we showed that the decision boundary to classify genes as expressed and non-expressed depends on the sensitivity of the transcriptome profiling assay and changing it has an impact on the algorithm’s performance.
Immer häufiger greifen technikbegeisterte Personen zu Smart-Home Geräten für ihre eigenen vier Wänden. Durch diese Geräte, kann der Weg zur Tür abgenommen oder die Bestellung über eine Onlineplattform erleichtert werden. Der Nutzen dieser meist kleinen aber durchdachten komplexen Maschinen ist enorm. Um der Schnelllebigkeit entgegen zu wirken, werden immer kreativere Wege gesucht. IoT-Geräte ermöglichen das Ersetzen der lokalen Einstellung am Gerät selbst. Bspw. kann so die Heizungssteuerung auf dem Heimweg vorgenommen werden. Dadurch spielt eine klare Sicherheitsdefinition für den Umgang mit persönlichen Daten eine größer werdende Rolle. Hierbei stellt sich die Frage, wie anfällig solche Anlagen sind. Das Kernstück dieser Arbeit wird sich mit der Feststellung von möglichen Schwachstellen in Innogy Smart-Home-Geräten beschäftigen. Insbesondere werden Endgeräte untersucht, welche bereits Einzug in den Alltag gefunden haben. Ansätze der Informationssicherheit und der digitalen Forensik werden in realitätsnahen Szenarien aufgezeigt und analysiert. Es werden Richtlinien des Bundesamtes für Sicherheit in der Informationstechnik und gesetzliche Vorgaben berücksichtigt. Teile des Sicherheitskonzeptes werden transparent dargestellt.
In dieser Arbeit geht es um die Untersuchung eines auf wenige Kernmechaniken reduziertes Rollenspiel auf die Motivation des Spielers. Hierfür wurde anhand einer angefertigten Applikation eine quantitative Nutzerstudie mit sechs Probanden durchgeführt. Die Ergebnisse sind dabei gemischt ausgefallen und es konnte kein eindeutiger Beweis auf die Beeinflussung der Motivation durch das Testszenario festgestellt werden.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
Data streams change their statistical behaviour over the time. These changes can occur gradually or abruptly with unforeseen reasons, which may effect the expected outcome. Thus it is important to detect concept drift as soon as it occurs. In this thesis we chose distance based methodology to detect presence of concept drift in the data streams. We used generalized learning vector quantization(GLVQ) and generalized matrix learning vector quantization( GMLVQ) classifiers for distance calculation between prototypes and data points. Chi-square and Kolmogorov–Smirnov tests are used to compare the distance distributions of test and train data sets to indicate the drift presence.
Die vorliegende Bachelorarbeit befasst sich mit dem Pilzwachstum an zerlegten Schweinegliedmaßen. Es wurden 3 Bedingungen (lose/nackt, Jeansstoff/“Bekleidung“ und Plastiktüte) sowie 2 Auslegemöglichkeiten (Erdoberfläche und 20 cm tief im Boden) gewählt. Unter welchen dieser gewählten Bedingungen das Pilzwachstum startet oder das weiterführende Wachstum begünstigt oder behindert wird, ist Aufgabenstellung dieser Bachelorarbeit. Dazu wurden 90 Versuchsobjekte in die Natur verbracht und für ungefähr 6 Monate beobachtet.
Convolutional Neural network (CNN) has been one of most powerful and popular preprocessing techniques employed for image classification problems. Here, we use other signal processing techniques like Fourier transform and wavelet transform to preprocess the images in conjunction with different classifiers like MLP, LVQ, GLVQ and GMLVQ and compare its performance with CNN.
Die folgende Arbeit behandelt die Methoden digitaler Bildmanipulationen sowie die Erkennung solcher Manipulationen anhand etablierter Detektionsverfahren. Das Hauptaugenmerk liegt dabei auf der Planung und Implementierung einer Software zur automatisierten Detektion duplizierter Regionen innerhalb eines digitalen Bildes. Anschließend an diese Implementierung folgt eine detaillierte Auswertung der Detektionsergebnisse sowie eine Bewertung der Qualität der Software gegenüber bestehenden Verfahren.
Diese Arbeit beschäftigt sich mit der Methode der automatisierten Geschlechtsbestimmung über Abbilder des daktyloskopischen Fingerabdrucks und der deren Umsetzung als Programm zur praktischen Anwendung. Die theoretischen Grundlagen hierfür liefern mehrere Studien, die bereits im Rahmen zweier wissenschaftlicher Arbeiten betrachtet und in die praktische Anwendung in Form einer Software umgesetzt wurden.
Ziel dieser Arbeit war es, die Software zur automatisierten Geschlechtsbestimmung weiter um Prozesse der Bildverarbeitung zu erweitern, um die Genauigkeit und die Effizienz zu steigern.
Sowohl diese Veränderungen, als auch die gesamte Software an sich, sollte im Anschluss evaluiert werden, um deren Funktionsleistungen in messbaren Ergebnissen aufzuzeigen. Die daraus gezogenen Erkenntnisse sollen anschließend Ausblicke zur weiteren Verwendung geben.
Des Weiteren gibt die Arbeit Aufschluss über die Zusammenhänge des genetisch zufälligen Determinismus bei der Entstehung des Fingerabdrucks mit den zu beobachteten Phänomenen des scheinbaren Geschlechtsdeterminismus.
Aus Gründen der besseren Lesbarkeit wird in dieser Bachelorarbeit die Sprachform des generischen Maskulinums angewandt. Es wird an dieser Stelle darauf hingewiesen, dass die ausschließliche Verwendung der männlichen Form geschlechtsunabhängig zu verstehen ist.
Diese Arbeit liefert einen Überblick über verschiedene elektronische Zutrittskontrollsysteme und deren Funktionsweise. Des Weiteren werden Angriffstechniken erläutert, mit denen diese Systeme angegriffen und umgangen werden können. Dabei wird besonders auf RFID und biometrische Systeme eingegangen. Die Angriffstechniken sind allgemein formuliert um einen möglichst großen Überblick über mögliche Angriffstechniken und -vektoren geben zu können.
Konzeption und Umsetzung eines Komplexpraktikums zur Erstellung einer WebApp für Mobile Endgeräte
(2020)
Die vorliegende Arbeit befasst sich mit der Erstellung eines Komplexpraktikums zur Entwicklung einer WebApp für mobile Endgeräte. Ziel der Arbeit ist es, den aktuellen Stand der Technik im Bereich der Entwicklung von Webanwendungen zu analysieren und auf Grundlage der daraus gewonnenen Erkenntnisse selbst eine Webanwendung zu konzipieren und umzusetzen. Diese Anwendung dient ihrerseits als Basis für die Erstellung von 4 Seminaren für die Studenten des 2. Semesters im Studiengang Medieninformatik und Interaktives Entertainment der Hochschule Mittweida, in deren Rahmen sie diese nachprogrammieren und dadurch mit den Technologien und Konzepten vertraut gemacht werden.
Die Kreatur des Aliens aus dem gleichnamigen Science-Fiction/-Horrorfilm ist seit Jahren ein fester Bestandteil der modernen Medienkultur. Ausgehend von der Frage „Warum wirkt die Figur des furchteinflößenden Aliens so gut?“ wird in der vorliegenden Arbeit eine Analyse der körperlichen aber auch sozialen Merkmale des Film-Aliens sowie ähnlicher Kreaturen aus der Medienwelt vorgelegt, die auf die Ursachen der starken psychischen und emotionalen Wirkung dieser Figuren abzielt. Dabei zeigt sich, dass es eine spezifische Kombination von Merkmalen gibt, die sich auf eine konstruierte Alien-Figur übertragen lassen und eine starke emotionale Wirkung beim Menschen erzielen kann.
Die Blutaltersbestimmung kann Aufschluss über die Tatzeit eines Verbrechens geben und ist damit von hohem forensischem Wert. Bisher gibt es noch keine etablierte Methode, um das Alter von ausgetretenem Blut zu bestimmen, da sie meistens sehr kostenaufwendig oder unzuverlässig sind. Das Einbeziehen der Umweltfaktoren stellt dabei eine weitere große Herausforderung dar. In dieser Bachelorarbeit wird mittels UV/VIS-Spektroskopie die Alterung von Blut im Zeitraum von 21 Tagen unter dem Einfluss der Luftfeuchtigkeit untersucht. Hierbei werden besonders die alterskorrelierenden Features analysiert. Zu den alterskorrelierenden Features zählen die Oxyhämoglobin- und Methämoglobin-Peaks und die hypsochrome Verschiebung der Soret-Bande. Die Luftfeuchtigkeit wurde mit Hilfe eines Raspberry Pi’s gesteuert. Bei der Auswertung der Ergebnisse konnte festgestellt werden, dass das Oxyhämoglobin bei höherer Luftfeuchtigkeit zunächst langsamer oxidiert und dass die Verschiebung der Soret-Bande langsamer verläuft. Nach 21 Tagen ist jedoch kein Unterschied mehr zu erkennen.
In response to prevailing environmental conditions, Arabidopsis thaliana plants must increase their photosynthetic capacity to acclimate to potential harmful environmental high light stress. In order to measure these changes in acclimation capacity, different high throughput imaging-based methods can be used. In this master thesis we studied different Arabidopsis thaliana knockout mutants-and accessions in their capacity to acclimate to potential harmful environmental high light and cold temperature conditions using a high throughput phenotyping system with an integrated chlorophyll fluorescence measurement system. In order to determine the acclimation capacity, Arabidopsis thaliana knockout mutants of previously not high light assigned genes as well as accessions of two different haplotype groups with a reference and alternative allele from different countries of origin were grown under switching high light and temperature environmental conditions. Photosynthetic analysis showed that knockout mutant plants did differ in their Photosystem II operating efficiency during an increased light irradiance switch but did not significantly differ a week later under the same circumstances from the wildtype. High throughput phenotyping of haplotype accessions revealed significant better acclimation capacity in non-photochemical quenching and steady-state photosynthetic efficiency in Russian domiciled accessions with an altered SPPA gene during high light and cold stress.
Die vorliegende Arbeit befasst sich mit der Konzipierung und Realisierung einer Augmented Reality Web Applikation für die Staatlichen Kunstsammlungen Dresden.
Dabei wird der Nutzen von Augmented Reality im Museum anhand eines erarbeiteten Konzepts evaluiert und die Möglichkeiten der technischen Umsetzung eines solchen Konzepts, mittels moderner Webtechnologien geprüft.
Mathematics Behind the Zcash
(2020)
Among all the new developed cryptocurrencies from Bitcoin, Zcash comes out to be the strongest cryptocurrency providing both transparency and anonymity to the transactions and its users by deploying the strong mathematics of zk-SNARKs.
We discussed the zero knowledge proofs which is a basic building block for providing the functionality to zk-SNARKs. It offers schnorr and sigma protocols with interactive and noninteractive versions. Non-interactive proofs are further used in Zcash transactions where the validation of sent transaction is proved by cryptographic proof.
Further, we deploy zk-SNARKs proofs following common reference string as public parameter when transaction is made. The proof allows sender to prove that she knows a secret for an instance such that the proof is succinct, can be verified very efficiently and does not leak the
secret. Non-malleability, small proofs and very effective verification make zk-SNARKs a classic tool in Zcash. Since we deal with NP problems therefore we have considered the elliptic curve cryptography to provide the same security like RSA but with smaller parameter size.
Lastly, we explain Zcash transaction process after minting the coin, the corresponding transaction completely hides the sender, receiver and amount of transaction using zero knowledge proof.
As future considerations, we talk about the improvements that can be done in term of decentralization, efficiency by comparing with top ranked cryptocurrencies namely Ethereum and Monero, privacy preserving against the thread of quantum computers and enhancements in shielded transactions.
Diese Arbeit untersucht die Bedeutung der neuen de novo Mutation JAK2 c.2765G>C, p. R922P, die bei einem Kind mit den klinischen Anzeichen eines myelodysplastischen Syndroms identifiziert wurde. Dazu sollte die Mutante zunächst kloniert und anschließend in murine Pro-B-Zellen transfiziert werden, die nur in Anwesenheit des Zytokins IL-3 lebensfähig sind. Durch Entzug des Zytokins sollte das onkogene Potential der Mutante untersucht werden, da bei konstitutiv aktiver Januskinase2 (JAK2) eine Interleukin-unabhängige Proliferation der Zellen weiterhin stattfindet.
IT-Forensische Analyse moderner Android Betriebssysteme : Sicherheitsbericht zu Android Trojanern
(2020)
In der vorliegenden Bachelorarbeit soll ein Überblick über die Anfälligkeit moderner Android Betriebssysteme auf Trojaner gegeben werden. Dieser Trojaner, welcher während der Bachelorarbeit erstellt wurde, soll eine Backdoor enthalten, wodurch dieser eine HTTPS-Verbindung zum Ziel-System aufbaut. Über diese Verbindung soll an-schließend eine Meterpreter Session auf dem Ziel-System etabliert werden, um Zu-gang zu dem infizierten System zu erlangen.
In der vorliegenden Bachelorarbeit wird auf den Nutzen sowie aktuelle Möglichkeiten bei der IT-forensischen Analyse des Arbeitsspeichers aktueller Computersysteme mit DDR4- Speichermodulen eingegangen. Es wird sich dabei sowohl auf generelle, als auch im Zuge der DDR4-Technik eingeführte, Funktionalitäten des physischen Arbeitsspeichers bezogen. Die Auswertbarkeit des Arbeitsspeichers wird aus IT-forensischer Sicht betrachtet und damit auftretende Problematiken für die IT-Forensik evaluiert. In der vorliegenden Arbeit wird vorrangig auf Methodiken der Analyse verschiedener Windows Hibernation Files, sowie den Cold Boot Ansatz eingegangen. Bei letzterem liegt der Schwerpunkt auf der Analyse verschleierter (gescrambelter) Arbeitsspeicherinhalte, sowie einem möglichen Ansatz effektiv Scrambler-Schlüssel aus diesen zu ermitteln.
Heutzutage werden digitale Geräte weitestgehend in allen Lebensbereichen genutzt. Die Bedeutung dieser Geräte nimmt ebenfalls für Straftäter und Kriminelle zu. Aus diesem Grund existieren gesetzliche Maßnahmen zur Durchführung von Online-Durchsuchungen. In dieser Arbeit wird sowohl auf den § 49 BKAG als auch auf den § 100b StPO eingegangen. Speziell der § 100b StPO soll bezüglich des Opferschutzes beleuchtet werden. Die Opferschutzrichtlinie der EU sowie die Grundrechtseingriffe der Maßnahme werden in diesem Zusammenhang untersucht. Weiterhin erfolgt in dieser Arbeit eine Prüfung des § 100b StPO mit den dazugehörigen Grundrechtseingriffen im Sinne des Verhältnismäßigkeitsgrundsatzes.
Kläranlagen sollten nach Möglichkeit dem neusten Stand der Technik entsprechen, um die Betriebskosten so gering wie möglich zu halten. Bei älteren Kläranlagen besteht neben der Erneuerung die Möglichkeit, den Prozess der Abwasserbehandlung durch bestimmte Verfahren der Vor- bzw. Nachbehandlung zu ergänzen. Dies kann zu einer besseren Wirtschaftlichkeit und Nachhaltigkeit führen. In dieser Arbeit wurde die Optimierung der werksinternen Kläranlage der Molkerei Hainichen-Freiberg GmbH & Co. KG mithilfe einer vorgeschalteten Druckentspannungsflotationsanlage untersucht. Durch die Flotation werden suspendierte Stoffe im Abwasser abgeschieden. Die Reduktionsraten hinsichtlich des chemischen Sauerstoffbedarfs, des Gesamtstickstoffs und des Gesamtphosphats wurden bei verschiedenen Flock- und Fällmitteldosierungen ermittelt. Anschließend wurden die einzelnen Varianten hinsichtlich der Optimierung der werksinternen Kläranlage und der Wirtschaftlichkeit auf die spezifische Abwassermenge der Molkerei Hainichen-Freiberg GmbH & Co. KG beurteilt.
Eine Optimierung führt einerseits zu einer besseren Wirtschaftlichkeit der Anlage, andererseits kann der Prozess der Abwasserbehandlung nachhaltiger gestaltet werden, beispielsweise durch ein anaerobes Verfahren bei dem Biogas erzeugt wird.
Die Kryokonservierung gibt die Möglichkeit, Pflanzen als genetische Ressourcen über einen langen Zeitraum zu lagern. Dabei stellt sie eine sichere und kostengünstige Methode dar, die zudem frei von äußeren Umweltfaktoren ist. Die optimierte PVS2 Methode Dresden hat sich bei Fragaria bereits bewährt und wird fortan für diese Obstart im Julius Kühn-Institut Dresden verwendet. Bei Erstversuchen mit Wildbirnen 2019 zeigte sich für die Kryokonservierung noch deutliches Optimierungspotenzial. Die Regenerationsraten konnten in der vorliegenden Arbeit durch eine veränderte Präparationsweise signifikant gesteigert werden. Dabei lag der Fokus auf die unterschiedliche Anzahl der Hüllblätter des Primordien Gewebes. Zusätzlich wurde die Methode des slow coolings mit dormanten Knospen als Alternativmethode zur Anwendung von PVS2 getestet.
Diese Arbeit thematisiert die Evaluation von Unterschieden bei interaktivem linearem und nichtlinearem Storytelling. Es stellte sich die Frage, welche der beiden Erzählweisen in einem Videospiel bei Nutzern beliebter ist und wie dieses praktisch überprüft werden kann. Dazu wurde ein Videospiel entwickelt, das dieselbe Geschichte sowohl in einer linearen als auch in einer nichtlinearen Erzählweise erzählt. So sollen Unterschiede der beiden Varianten deutlich gemacht werden. Durch einen Probandentest wurde dann mithilfe des Videospiels und eines Fragebogens die Untersuchung durchgeführt. Diese ergab, dass nichtlineares Storytelling als Erzählweise bevorzugt wird, da es dem Spieler mehr Entscheidungsmöglichkeiten bietet und somit interaktive Spielerlebnisse fördert. Ebenfalls konnten Probleme aufgezeigt und bestätigt werden, die dadurch auftreten, dass interaktives und nichtlineares Storytelling nicht wirklich vom linearen Pfad abweicht. Das steht konträr zu einer Interaktivität, die Videospiele eigentlich bieten sollten.
Die Einführung eines IT-Notfallmanagement kann auf freiwilligen Basis oder durch rechtliche Verpflichtungen erfolgen. Hierbei ist die Verwendung von etablierten Standards und Normen gerade für kleine und mittelständische Unternehmen (KMU) empfehlenswert, aber herausfordernd. In der vorliegenden Bachelorarbeit werden einschlägige gesetzliche Verpflichtungen für KMU betrachtet. Es wird sodann auf bekannte Normen und Standards des IT-Notfallmanagements eingegangen. Mit einer selbstentwickelten Methode werden diese auf ihre KMU-Tauglichkeit geprüft. Das Ziel besteht darin, den verpflichteten KMU den für sie geeignetsten der betrachten Standards und Normen aufzuzeigen.
Eine Vielzahl der heutigen Cyber Angriffe auf Unternehmen haben das Ziel sich in deren Netzwerk auszubreiten, um so an kritische Informationen zu gelangen oder das Unternehmen anderweitig zu schädigen. Eine Betrachtung dieses als Lateral Movement bezeichnete Vorgehen ist Thema der vorliegenden Bachelorarbeit. Hauptaugenmerk wird auf die forensische Analyse wahrscheinlich auftretender Methoden und den dabei anfallenden Spuren gelegt. Bei den Spuren wurde sich größtenteils auf Ereignisse in Protokolldateien, sowie auf Registry- und Programmausührungs-Artefakte bezogen. Als Ergebnis wurde eine tabellarische Übersicht der zu priorisierenden Spuren erstellt, die Ermittlern zu einer effektiveren forensischen Analyse solcher IT Vorfälle verhelfen soll.
Im Rahmen dieser Arbeit wird die metrische Analyse des menschlichen Kiefers erforscht. Dies beinhaltet das Themengebiet der Bissspurenanalyse, um den Beweiswert der Kiefervermessung vor Gericht feststellen zu können. Es sollen anschließend folgende Fragen beantwortet werden können: „Wie funktioniert die Vermessung?“, „Ist diese objektiv und reproduzierbar?“ und „Was wird für die gerichtliche Verwertbarkeit benötigt?“. Letzteres bezieht sich insbesondere auf die Art und Anzahl identifizierender Merkmale. Über dem Thema steht die These, dass das menschliche Gebiss einzigartig ist.
In der vorliegenden Arbeit wird ein bereits bestehendes Annotationstool für die Übersetzung von Standardsprache in Leichte Sprache hinsichtlich seiner Usability analysiert. Anschließend werden, unter Verwendung von UI Design Patterns, Komponenten entwickelt, welche die Usability des Systems verbessern sollen. In einer Evaluation werden die Annahmen bezüglich der Usability-Verbesserungen geprüft.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
In dieser Arbeit wurden Thermistorelektroden aus einer Kombination eines kalibrierten Heizwiderstandes (Pt100) und einer Goldelektrode entwickelt. Diese sollen thermodynamische Untersuchungen an elektroaktiven Mikroorganismen ermöglichen. Die Thermistorelektroden wurden in einen Doppelwandreaktor fixiert, der über einen Thermostaten temperiert wurde. Anschließend wurde dieser Reaktor auf sein Temperaturverhalten untersucht, indem über einen Heizdraht definierte Wärmepulse in das System geleitet wurden und die resultierenden Temperaturäderungen gemessen wurden. Daraufhin wurde das Systems validiert, indem die elektrochemische Peltier Wärme für das Redoxpaar K3[Fe(CN)6]/K4[Fe(CN)6] mit +28±1,5 𝑘𝐽𝑚𝑜𝑙 für die Reduktion und 31±3,8 𝑘𝐽𝑚𝑜𝑙 für die Oxidation ermittelt wurde. Außerdem wurde ein sekundärer Geobacter Anreicherungsbiofilm auf den Thermistorelektroden kultiviert. Durch die Methode TRFLP wurde dabei gezeigt, dass Geobacter die dominierende Spezies auf der Elektrode zu Beginn und zum Ende der Kultivierung darstellt. Zukünftig sollen die entwickelten Thermistorelektroden für thermodynamische Untersuchungen an elektroaktiven Mikroorganismen verwendet und die mikrobielle elektrochemische Peltier Wärme gemessen werden.
In der vorliegenden Arbeit wird eine Methodik entwickelt, mit der ausgewählte forensische Software-Tools miteinander verglichen werden können. Dieser Ver-gleich basiert auf einem erstellten Image, welches diverse Artefakte beinhaltet. Auf Grundlage dieser Artefakte wird eine Bewertungsmatrix erzeugt, welche für den Vergleich der ausgewählten Forensik-Tools X-Ways, Axiom und Autopsy genutzt wird. Anhand der Ergebnisse, die durch die Matrix generiert wurden, lässt sich Axiom als bestes der drei getesteten Tools herausstellen. Hierbei muss allerdings berücksichtigt werden, dass die Beurteilung nach subjektiven Kriterien geschehen ist und keine eindeutige Aussage getroffen werden kann, ob ein forensisches Tool eine erfolgreiche Auswertung liefert
The number of Internet of Things (IoT) devices is increasing rapidly. The Trustless Incentivized Remote Node Network, in short IN3 (Incubed), enables trustworthy and fast access to a blockchain for a large number of low-performance IoT devices. Although currently IN3 only supports the verification of Ethereum data, it is not limited to one blockchain due to modularity. This thesis describes the fundamentals, the concept and the implementation of the Bitcoin verification in IN3.
Käufer haben häufig das Problem die Sicherheit von Produkte einzuschätzen. In der Bachelorarbeit möchte ich darauf eingehen, welche Zertifizierungsmöglichkeiten existieren und in welche Branchen sie sich einordnen. Daraufhin wird eine Klassifizierung und Einordnung der Zertifikate zur IT-Sicherheit durchgeführt. Im Schwerpunkt liegen hierbei die Produktzertifizierungen. Die Transparenz wird für den Verbraucher übergreifend betrachtet. Die Ergebnisse zeigen auf, ob sich Zertifikate gut oder weniger gut für die unterschiedlichen Branchen eigenen und ob gegebenenfalls Risiken damit verbunden sind.
Robust soft learning vector quantization (RSLVQ) is a probabilistic approach of Learning vector quantization (LVQ) algorithm. Basically, the RSLVQ approach describes its functionality with respect to Gaussian mixture model and its cost function is defined in terms of likelihood ratio. Our thesis work involves an approach of modifying standard RSLVQ with non-Gaussian density functions like logistic, lognormal, and Cauchy (referred as PLVQ). In this approach, we derive new update rules for prototypes using gradient of cost function with respect to non-Gaussian density functions. We also derive new learning rules for the model parameters like s and s, by differentiating the cost function with respect to parameters. The main goal of the thesis is to compare the performance results of PLVQ model with Gaussian-RSLVQ model. Therefore, the performance of these classification models have been tested on the Iris and Seeds dataset. To visualize the results of the classification models in an adequate way, the Principal component analysis (PCA) technique has been used.
Keiner schaut mehr Fernsehen. Die Benutzung von Videostreaming ist beim Großteil der digital vertrauten Bevölkerung in Fleisch und Blut übergegangen und erstreckt sich über den gesamten Globus. Die Giganten der Streaming-Anbieter sind YouTube, Amazon und Netflix und sie sind dem Modell des Fernsehens meilenweit voraus. Mit komplex verstrickten Algorithmen sollen uns, den Nutzern, die Inhalte geboten werden, die uns dazu bringen, noch mehr zu konsumieren. Wie weit und auf welche Weise muss ein System entwickelt sein, um jedem Nutzer Inhalte anzubieten, die unheimlich oder faszinierende Weise auf uns zugeschnitten sind?
Das Ziel dieser Forschung ist es, das System der Vorschläge von Netflix auf die Qualität, Passgenauigkeit und Effizienz im Hinblick auf Präferenzen und Bedürfnisse zu bestimmen, die die Nutzer in Verbindung mit Netflix aufweisen.
Um die Forschungsfrage zu beantworten, wurden innerhalb einer mehrteiligen, iterativen Meinungsumfrage Bewertungen von Vorschlägen von Freunden, Bekannten und Familie mit den Vorschlägen von Netflix in den Zusammenhang mit dem eigenen Filmgeschmack, Präferenzen, Nutzung des Accounts und Verhalten beim Streaming gebracht. Dabei wurde bestätigt, dass die Vorschläge von Netflix stärker zum Filmgeschmack passen, hierbei jedoch Differenzierungen bei der Popularität und Unterhaltsamkeit des Vorschlags zu beobachten sind. Des Weiteren zeigte die empirische Untersuchung auf, dass verhaltenspsychologische und sozialwissenschaftliche Aspekte Einflüsse auf die Effizienz einer künstlichen Intelligenz haben und noch nicht voll ständig in die Optimierung in das System der Netflix Vorschläge eingeflossen sind.
Das Alter eines Blutflecks an einem Tatort kann bei der Verfolgung einer Straftat Informationen über den Tatzeitpunkt liefern und für eine Rekonstruktion des Tatgeschehens dienen. Jedoch existiert in der heutigen Zeit keine anwendbare Methode, um eine exakte Aussage über das Blutalter zu tätigen, wenn man die herrschenden Umweltbedingungen mit einberechnen will.
In dieser Arbeit wird die Blutalterung ex vivo mit Hilfe der UV-VIS- Spektroskopie unter dem Einfluss der Luftfeuchte und Sonneneinstrahlung analysiert. Dazu wurden bekannte Features, welche alterskorrelierende Veränderungen zeigen, zur Untersuchung herangezogen.
Zur Umweltsteuerung konnte mit Hilfe eines Raspberry Pi’s 4 Model B und einem USBLuftbefeuchter eine Methode entwickelt werden, um einen angegebenen Luftfeuchtewert über einen gewünschten Zeitraum zu halten und aufzuzeichnen.
Es zeigten sich deutliche Unterschiede bei der Umsetzung von Oxyhämoglobin zu Met-Hämoglobin bei unterschiedlichen Luftfeuchtewerten. Die Sonneneinstrahlung hingegen
zeigt keinen signifikanten Einfluss auf die alterskorrelierenden Features.
In this thesis two novel methods for removing undesired background illumination are de-veloped. These include a wavelet analysis based approach and an enhancement of a deep learning method. These methods have been compared with conventional methods, using real confocal microscopy images and synthetic generated microscopy images. These synthetic images were created utilizing a generator introduced in this thesis.
Anlegen und Charakterisieren von Anreicherungskulturen aus Oberflächengewässern im Norden Finnlands
(2020)
Es wurden Wasserproben aus Finnland biochemisch charakterisiert. So wurden EcoPlates von BIOLOG benutzt, um die Wasserproben von heterotrophen mikrobiellen Gemeinschaften zu charakterisieren und klassifizieren. Zudem wurden Anreicherungskulturen erstellt und auf ihre Verwertung von Stickstoffquellen durch Phänotyp Mikroarray und auf ihre Zellwandzusammensetzung mit Gram-Färbung untersucht. Die daraus resultierenden Ergebnisse werden für die Bestimmung und Charakterisierung von den Anreicherungskulturen verwendet.
Financial fraud for banks can be a reason for huge monetary losses. Studies have shown that, if not mitigated, financial fraud can lead to bankruptcy for big financial institutions and even insolvency for individuals. Credit card fraud is a type of financial fraud that is ever growing. In the future, these numbers are expected to increase exponentially and that’s why a lot of researchers are focusing on machine learning techniques for detecting frauds. This task, however, is not a simple task. There are mainly two reasons
• varying behaviour in committing fraud
• high level of imbalance in the dataset (the majority of normal or genuine cases largely outnumbers the number of fraudulent cases)
A predictive model usually tends to be biased towards the majority of samples, in an unbalanced dataset, when this dataset is provided as an input to a predictive model.
In this Thesis this problem is tackled by implementing a data-level approach where different resampling methods such as undersampling, oversampling, and hybrid strategies along with bagging and boosting algorithmic approaches have been applied to a highly skewed dataset with 492 idetified frauds out of 284,807 transactions.
Predictive modelling algorithms like Logistic Regression, Random Forest, and XGBoost have been implemented along with different resampling techniques to predict fraudulent transactions.
The performance of the predictive models was evaluated based on Receiver Operating CharacteristicArea under the curve (AUC-ROC), Precision Recall Area under the Curve (AUC-PR), Precision, Recall, F1 score metrics.
Ziel dieser Arbeit ist die Entwicklung eines Konzepts und einer Erstimplementation zur Benutzerdatenerfassung, um verschiedene Digitalisierungsprozesse messen zu können. Die durch die Benutzerdatenerfassung gesammelten objektiven Interaktionsdaten sollen weitere Daten, wie z. B. eine Benutzerakzeptanzstudie bei einer vergleichenden Evaluation von Prozessen zur Dokumentenerfassung hinsichtlich der Benutzbarkeit ergänzen und unterstützen.
Footage of organoids taken by means of fluorescence microscopy and segmented as well as triangulated by image analysis software like LimeSeg and Mastodon often needs to be visualized in aesthetic manner for presentation of the results in scientific papers, talks and demonstrations. The goal of this work was to create a simple to use addon “Biobox” for the open source 3D – visualization package “Blender” which would allow to import triangulated 3D data with animation over time (4D), produced by image analysis software, and optimize it for efficient usage. ”Biobox” offers several visualization tools for the creation of rendered images and animation videos by biologists.
The optimization of imported data was performed by using Blender intern modifiers. The optimized data can then be visualized by using several tools built for visualizing the organoid in frozen, animated and semi-transparent manners. A dynamic link for object selection and dynamic data exchange between Blender and Mastodon was developed. Additionally, a user interface was developed for manual correction errors of segmentation and steering the object detection algorithms of LimeSeg. The benchmark of the developed addon “Biobox” was performed on real scientific data. The benchmark test demonstrated that developed optimization result in significant (~5 fold) decrease of RAM usage and acceleration of visualization more than 160 times.
Die Arbeit beschäftigt sich mit der Weiterentwicklung eines LIMS für die AUD-GmbH in Chemnitz. Als Orientierung dient eine vorangegangene Bachelorarbeit („Entwicklung eines Plans für ein LIMS auf Grundlage des Baukastensystems Nuclos“ von Florian Quellmalz), welche sich mit einem ähnlichen Thema beschäftigt hat. Mithilfe des Open Source Programms „Nuclos“ soll die Grundlage für ein funktionierendes LIMS geschaffen werden. Hierfür werden Informationen über Datenbankerstellung, die internen Laborprozesse und relevante Arbeitsschritte gesammelt, verarbeitet und anhand dessen in das LIMS einbezogen.
Konzept, Entwurf und prototypische Implementierung einer Web-Oberfläche für einen Roboadvisor
(2020)
Die vorliegende Arbeit thematisiert die prototypische Entwicklung einer Web-Oberfläche zur Datenpflege für das Unternehmen Franke-Media.net. Im Zuge der Entwicklung wurde ein/e Datenformular/Eingabemaske nach Anforderungen der zuständigen Fachredaktion und eine Navigationsoberfläche nach den Anforderungen des Unternehmens geschaffen. Anschließend wurde die Web-Oberfläche nach zwei Methoden des Usability-Testings getestet und evaluiert. Im Verlauf der Arbeit wird auf Grundwissen über Finanzdienstleistungen, Vergleichsportale und Web-Anwendungen eingegangen. Es werden zudem verschiedene Techniken zum Erreichen des Ziels betrachtet. Anschließend folgen die Konzipierung und das Erstellen einer ersten prototypischen Oberfläche. Den Abschluss der Arbeit bilden die Usability-Tests sowie die Auswertung der Ergebnisse dieser.
Aufgrund der unvorhergesehenen Corona-Krise, dadurch entstandener Komplikationen und den daraus resultierenden zeitlichen Problemen konnten nicht alle Funktionen implementiert werden.
Die Erkenntnisse und Ergebnisse der Bachelorarbeit dienen als Ausblick für darauf auf-bauende Arbeiten.
Diese Arbeit befasst sich mit der forensischen Untersuchung von Systemen mit dem Trusted Plattform Module (TPM) von Apple, dem T2 Chip. Mittelpunkt ist die
physische Datensicherung über das Forensik Analysewerkzeug MacQuisition von BlackBag Technologies. Die Sicherheitsrichtlinien von den Apple Geräten mit verbautem TPM verhindern solche Sicherungen und schützen die Daten auf dem System. MacQuisition ist die erste Lösung für die Forensik, um dennoch ein physisches und gleichzeitig entschlüsseltes Abbild zu erzeugen. Dafür schafft es MacQuisition auf den Direct Memory Access (DMA) fähigen Enhanced Serial Peripheral Interface (eSPI) Bus zu gelangen und die Sicherheitsvorkehrungen zu umgehen.
In der vorliegenden Bachelorarbeit wird die Wahrnehmung von übermäßiger Polizeigewalt mit der tatsächlichen Vorgehensweise der Polizeibeamten abgestimmt und mit der gesetzlichen Vorgabe zur Herangehensweise verglichen. Gemäß der in dieser Arbeit vermittelten Grundlagen zu Hellfeld und Dunkelfeld sowie der Anzeigebereitschaft wird ein grundlegendes Verständnis für die beschriebene Problematik fundiert. Die aufgeführten Beispiele dienen der Untersuchung des Problems und zur differenzierten Auseinandersetzung mit der Thematik, zum einen der Analyse des jeweiligen Falles und deren beschriebene Situation zur Lage und zum anderen der angeschnittene Umriss zur juristischen Sachlage dieser.
Diese Arbeit befasst sich mit der Entwicklung eines epochenübergreifenden Aufgaben- und Objektmanagementsystems zur prozeduralen Generierung von Narrativen. Dabei wurde ein Questsystem als Managementinstanz für Aufgaben und Objekte entwickelt sowie ein auf L-Systemen und der Graphentheorie basierender Algorithmus zur prozeduralen Generierung Narrativen entwickelt.
Erstellen eines Leitfadens zur Sicherstellung der gestalterischen Kontinuität von Concept Art
(2020)
Das Ziel dieser Arbeit ist es einen Leitfaden zur Sicherstellung der gestalterischen Kontinuität von Concept Art zu erstellen. Um das zu erreichen wurden zuerst die essenziellen Begriffe Concept Art und Kontinuität definiert. Aus diesen Definitionen wurden anschließend Methoden abgeleitet die eine Sicherstellung der Kontinuität gewährleisten können. Schlussendlich wurde eine Expertenumfrage durchgeführt und analysiert. Die Analyseergebnisse wurden mit den theoretischen Erkenntnissen in einem Leitfaden zusammengefasst
Verschiedene Videospiele bieten einen unterschiedlichen Grad an Herausforderung und Schwierigkeit. Die meisten von ihnen verfügen trotz unterschiedlicher Schwierigkeitsgrade über keine Möglichkeit dem Spieler eine passende Herausforderung zu schaffen. In dieser Arbeit soll sich damit beschäftigt werden, basierend auf den spielerischen Fähigkeiten der Person, eine passende Herausforderung im Spiel zu schaffen. Dazu wird die folgende Forschungsfrage gestellt: Ist es möglich durch eine adaptive Anpassung von Parametern in Videospielen für Spieler jedes Leistungsniveaus eine ähnlich anspruchsvolle Herausforderung zu erzeugen?' Diese wird durch die Entwicklung und Umsetzung von Fähigkeitentests realisiert, dessen Ergebnisse einen Bossfight beeinflussen. Um die Forschungsfrage zu beantworten, wird die entwickelte Testreihe mit einigen Probanden absolviert und deren Feedback vernommen. Dieses Feedback führt zu dem Schluss, dass die Tests geeignet sind für die Leistungsermittlung, aber der Bossfight und die Umgebung nicht für ein spielerisches Umfeld sorgen, was die Forschungsfrage unvollständig beantwortet lässt. Weitere Arbeiten könnten sich mit der Umsetzung einer besseren Testumgebung und einem besseren Anwendungsfall beschäftigen.
Tokenization projects are currently very present when it comes to new blockchain technologies. After explaining the fundamentals of cross-chain interaction, the bachelor thesis will focus on tokenizing technology for Bitcoin on Ethereum. To get a more practical context, implementing the currently most successful decentralized tokenization project is described.
Das Ziel der vorliegenden Bachelorarbeit besteht darin, die technischen und rechtlichen Aspekte von Cloudsicherungen für Strafverfolgungsbehörden zu beleuchten,um die aktuellen Gegebenheiten und somit eventuelle Defizite auf zu zeigen. Daher werden zu Beginn grundlegende Fakten benannt. Im Anschluss erfolgen praktische Untersuchungen bezüglich forensischer Sicherungsmethoden an PC und Mobiltelefon. Das Hauptaugenmerk liegt auf dem Zusammenschluss von Recht und Technik. Das Ergebnis bildet die Erarbeitung einer Handlungsempfehlung, bestehend aus Checkliste und Fragenkatalog.
Diese Arbeit zielt darauf ab, ein modernes Konzept für eine offene, webbasierte Notizsoftware vorzustellen, die auf einem gemieteten oder Heimserver installiert werden kann. Dabei steht im Vordergrund, dass die eigenen Daten bei einem selbst bleiben. Ein solches Konzept hat, anhand des Vergleiches mit existierenden Lösungen und aus gewonnenen Erkenntnissen bei der Entwicklung des Prototyps, eine gute Zukunft, da es sich auch genug sinnvoll von existierenden Lösungen abhebt, so dass eine weiterführende Entwicklung lohnenswert scheint.
Geeignet ist diese Arbeit für Personen, die sich für die Entstehung eines Softwareprototyps im Rahmen einer Bachelorarbeit interessieren und für die, die das Konzept interessant finden.
Das Konzept wurde klar definiert und kompakt mit existierenden Lösungen verglichen, daraufhin wurden die gewählten Technologien aufgeschlüsselt und anschließend der Prototyp und die Erkenntnisse vorgestellt.
Im Jahr 2019 verzeichnete das Bundeskriminalamt in der Polizeilichen Kriminalstatistik einen neuen Höchststand an erfassten Fällen der Computerkriminalität. Zeitgleich lag die Aufklärungsquote für diesen Bereich der Kriminalität auf dem zweitniedrigsten Stand seit Beginn der Erfassung im Jahr 1987. Die digitale Forensik steht vor der Herausforderung, dass eine Ermittlung eine stetig wachsende Menge an heterogenen Daten umfasst. Eine Quelle für diese Daten bildet das Microsoft Betriebssystem Windows 10.
Diese Bachelorarbeit beschäftigt sich mit Artefakten eines Windows 10 Systems und damit, wie diese miteinander korreliert werden können. Ziel ist es eine Möglichkeit zu finden, den Forensiker bei einer forensischen Untersuchung zu unterstützen. Für diesen Zweck wurde eine Ontologie entwickelt, welche anhand ähnlicher Artefaktattribute eine Korrelation ermöglicht. Die praktische Umsetzung der Ontologie erfolgte mithilfe der Graphdatenbank Neo4j. Die Möglichkeiten der Datenbank wurde anhand von, für den Forensiker interessanten, Abfragen demonstriert.