Refine
Document Type
- Master's Thesis (180) (remove)
Year of publication
Keywords
- Maschinelles Lernen (27)
- Blockchain (13)
- Vektorquantisierung (8)
- Algorithmus (7)
- Computersicherheit (7)
- Deep learning (6)
- Kryptologie (5)
- Neuronales Netz (5)
- Virtuelle Währung (5)
- Bioinformatik (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (180) (remove)
Nutzung von CYTOF zur Detektion von ILC-Subpopulationen in der Haut von Patienten mit Psoriasis
(2022)
Psoriasis ist eine durch exogene und endogene Stimuli auslösbare, T-Zellen vermittelte Autoimmunerkrankung, die gekennzeichnet ist durch Hyperproliferation und veränderten Differenzierung von Keratinozyten in der Epidermis. Bei den Betroffenen bilden sich auf der Haut scharf begrenzte, rote oder mit weißen Schuppen bedeckte Papeln oder Plaques.
Man fand in den letzten Jahren heraus, dass eine neu entdeckte Lymphozyten Population, die sogenannten angeborenen lymphatischen Zellen (innate lymphoid cells (ILC)), einen Einfluss auf die Pathogenese der Erkrankung haben.
ILCs lassen sich anhand ihrer Oberflächenmarker in drei Gruppen einteilen. Besonders die Gruppe 3 der ILCs (ILC3) wurde in der Haut von Psoriasis-Patienten angereichert gefunden. Zum jetzigen Zeitpunkt ist jedoch nicht vollständig geklärt wie die ILCs vom Blut in das Gewebe migrieren.
Um ein besseres Verständnis über das Migrationsverhalten von ILCs bei Psoriasis zu erlangen, ist das Ziel der Arbeit, neue Subpopulation von ILCs zu identifizieren, die sowohl im Blut als auch auf dem Hautgewebe zu finden sind. Für die Etablierung dieser Methode wurden zuerst die im Blut von Psoriasis-Patienten und gesunden Patienten befindlichen ILCs durch Durchflusszytometrie von anderen Immunzellen getrennt. Mittels t-SNE-Algorithmus wurde anschließend innerhalb der ILC-Population nach Subpopulationen gesucht. Anhand von Oberflächenmarkern und fünf Chemokinrezeptoren, die unter anderem an der Migration beteiligt sind, konnten verschiedene ILC-Subpopulation identifiziert werden.
Um zu überprüfen, ob diese ILC-Subpopulation vom Blut ins Gewebe migrieren, sollten die ILC-Subpopulationen vom Blut anhand des Antikörperpanels der Durchflusszytometrie mittels „Imaging Mass Cytometry“ (IMC) im Gewebe von Psoriasis-Patienten identifiziert und lokalisiert werden. Vorteil von IMC gegenüber herkömmlicher Immunhistologie, ist die Nutzung von bis zu 40 parallel nutzbaren Markern im Gewebe. Dies ermöglicht die Suche nach ILC-Subpopulation durch die gleichzeitige Identifizierung von ILCs anhand von Oberflächenmarkern, als auch ihrer Chemokinrezeptoren.
In dieser Arbeit, konnte ein Antikörperpanel mit 30 Markern auf einem Gewebeschnitt untersucht und mittels der Programmiersprache R eine Analyse erstellt werden, die es erlaubt ILCs auf dem untersuchten Gewebe sichtbar zu machen, sowie die ILCs hinsichtlich der Expression ihrer Chemokinrezeptoren zu untersuchen.
Community acquired pneumonia (CAP) is a very common, yet infectious and sometimes lethal disease. Therefor, this disease is connected to high costs of diagnosis and treatment. To actually reduce the costs for health care in this matter, diagnosis and treatment must get cheaper to conduct with no loss in predictive accuracy. One effective way in doing so would be the identification of easy detectable and highly specific transcriptomic markers, which would reduce the amount of work required for laboratory tests by possibly enhanced diagnosis capability.
Transcriptomic whole blood data, derived from the PROGRESS study was combined with several documented features like age, smoking status or the SOFA score. The analysis pipeline included processing by self organizing maps for dimensionality and noise reduction, as well as diffusion pseudotime (DPT). Pseudotime enabled modelling a disease run of CAP, where each sample represented a state/time in the modelled run. Both methods combined resulted in a proposed disease run of CAP, described by 1476 marker genes. The additional conduction of a geneset analysis also provided information about the immune related functions of these marker genes.
Differentiation is ubiquitous in the field of mathematics and especially in the field of Machine learning for calculations in gradient-based models. Calculating gradients might be complex and require handling multiple variables. Supervised Learning Vector Quantization models, which are used for classification tasks, also use the Stochastic Gradient Descent method for optimizing their cost functions. There are various methods to calculate these gradients or derivatives, namely Manual Differentiation, Numeric Differentiation, Symbolic Differentiation, and Automatic Differentiation. In this thesis, we evaluate each of the methods mentioned earlier for calculating derivatives and also compare the use of these methods for the variants of Generalized Learning Vector Quantization algorithms.
Die Bedeutung mobiler Geräte wächst, aufgrund des zunehmenden Funktionsumfanges sowie deren Leistungsfähigkeit, seit ihrer Einführung stetig. Eine Kernkomponente dieser Geräte bildet das Betriebssystem. Hierbei stellt das Android die populärste und am Markt weit verbreitetste mobile Plattform dar. Damit verbunden bilden Android-basierte Geräte de facto das Hauptangriffsziel von Cyberkriminellen, wobei die Systeme in Form von Malware kompromittiert werden. Hieraus erwächst das Erfordernis, effiziente Maßnahmen zur Abwehr dieser Bedrohungen zu entwickeln. Grundlage dafür bildet die forensische Untersuchung dieser Schadanwendungen. Derzeit im Internet verfügbare Signatur-Analysen von Android-Paketen liefern hierbei nur begrenzte Informationen über das charakteristische Laufzeitverhalten dieser Applikationen bei Ausführung des maskierten Schadcodes. Die Zielsetzung dieser Arbeit ist die Schaffung einer hardwarebasierten Android-Analyse-Plattform – auf der Grundlage eines Wandboards –, um mobile Malware zur Laufzeit zu überwachen und, neben statischen Applikationsdaten, deren schadhaften Aktivitäten – gestartete Prozesse, nachgeladene Bibliotheken und Netzwerkverkehr – aufzuzeigen. Das Hauptaugenmerk liegt hierbei auf der Entwicklung und systemischen Integration einer forensischen Methodik zur automatisierten Sammlung und Bereitstellung dieser Daten. Um ein prinzipielles Verständnis für den Themenkomplex zu erhalten, werden elementare Grundlagen und Spezifika der Android-Plattform sowie Aspekte der IT-Forensik ausgeführt. Der Detaillierung der entwickelten Vorgehensweise folgt die veranschaulichte Darstellung des Aufbaus und der Konfiguration der Android -Analyse-Plattform. Die Anwendbarkeit der geschaffenen Methodik wird, in Form eines exemplarischen Untersuchungsablaufes, an einer Android-Malware demonstriert.
We investigate the folding and thermodynamic stability of a tertiary contact of baker's yeast ribosomal ribonucleic acid (rRNA), which is supposed to be essential for the maturation process of ribosomes in eukaryotes at lower temperatures1. Ribosomes are cellular machines essential for all living organisms. RNA is at the center of these machines and responsible for translation of genetic information into proteins2,3. Only recently, the rRNA tertiary contact of interest was discovered in Zurich by the research group of Vikram Govind Panse. Gerhardy et al.1 showed in vitro that within the 60s-preribosome under defined metal ion concentrations the tertiary contact become visible between a GAAA-tetraloop and a kissing loop motif. Our aim is now to understand this RNA structure, especially the formation of the rRNA tertiary contact, in terms of thermodynamics and kinetics at various experimental conditions, such as temperature and metal ion concentration of K(I), Na(I) and Mg(II). Therein, we use optical spectroscopy like UV/VIS spectroscopy and ensemble Förster or Fluorescence Resonance Energy Transfer (FRET) folding studies. Our findings will help to further characterize this newly discovered ribosomal RNA contact and to elucidate its function within the ribosomal maturation process.
Das Thema IT-Sicherheit wird durch zunehmende Vernetzung, neue Anforderungen an Systeme und Industrie 4.0 auch für industrielle Netzwerke wie SCADA und ICS immer wichtiger.
Finanzielle Schäden durch Angriffe steigen von Jahr zu Jahr. Deswegen ist es wichtig, diese Netzwerke zu schützen und Angriffe frühzeitig zu erkennen, um zeitnah auf diese reagieren zu können und größere Schäden zu vermeiden. Da klassische Methoden ICS Systeme zum Teil behindern können und um einen zusätzlichen Schutz zu den normalen Intrusion Detection Systemen und Firewalls zu bieten, ist das Ziel dieser Arbeit, die Entwicklung einer Plattform, zur
verhaltensbasierten Detektion von Angriffen in solchen Netzwerken. Dafür werden Honeypots im Netzwerk verteilt, welche dazu dienen, Angriffe, die das normale IDS oder Firewalls umgangen haben, oder gar von Internen durchgeführt werden, zu erkennen. Die Honeypots sind in der Lage, Zugriffe auf die von ihnen verwendeten Protokolle zu erkennen und senden in diesem Fall Meldungen an einen zentralen Server, welcher diese in einer Datenbank speichert und in einem Dashboard visualisiert. Das in dieser Arbeit beschriebene Konzept und seine detailliert beschriebene Umsetzung sollen den Einstieg für Unternehmen in dieses Thema erleichtern und zu weiterer Forschung auf diesem Gebiet anregen.
Durch die zunehmende Nutzung mobiler Endgeräte fallen im alltäglichen Leben zahlreiche personenbezogene Daten an. Zu diesen Daten gehören unter anderem auch GPS-Positionen, die von handelsüblichen Smartphones erhoben werden. Besonders Android-Geräte sammeln eine große Menge an Positionsdaten, die für verschiedene Wissenschafts-Domänen, wie beispielsweise Medizin oder Forensik, eine Rolle spielen. Für verschiedene Anwendungsfälle kann eine Aggregation der einzelnen GPS-Positionen zu Orten und verbindenden Strecken relevant sein.
Ziel der Arbeit ist die Entwicklung eines Algorithmus zur Aggregation von GPS-Standorten zu Orten, deren Besuchen und Verbindungen. Nach Implementierung des Algorithmus wurde dieser in eine Java-Applikation eingebettet, die unter anderem der Visualisierung der erzielten Ergebnisse dient. Für die Evaluation des Algorithmus wurden über einen Zeitraum von zwei Monaten Standortdaten mit Hilfe eines Android-Smartphones erhoben, welche unter Verwendung des implementierten Algorithmus ausgewertet wurden. Die Evaluation resultierte in einem Parameterset, welches sich für die Auswertung des vorliegenden Testdatensatzes als geeignet herausstellte. Das Ergebnis der Arbeit ist ein funktionstüchtiger Algorithmus, der vielfältige Anwendungsmöglichkeiten aufweist und dessen Erweiterung ein hohes Potenzial für Folgeprojekte bietet.
Ziel dieser Masterarbeit ist eine Analyse des Voice-over-LTE-Netzwerkes auf Sicherheitsschwachstellen. Zuerst findet dafür eine theoretische Untersuchung des VoLTE-Protokolls mit einer Fokussierung auf seine sicherheitsrelevanten Merkmale statt. Anschließend wird das Session-Initiation-Protokoll (SIP) als Element für die praktische Untersuchung ausgewählt. Praktisch wird zuerst gezeigt, dass VoLTE-SIP-Pakete sensitive Daten enthalten, die auf den Endgeräten mitgelesen werden können. Anschließend werden manipulierte SIP-Pakete in das Netzwerk gesendet, die das Abfragen von Informationen und den Datenaustausch mit anderen VoLTE-Nutzern ermöglichen. Durch einen Vergleich der Arbeit mit anderen Veröffentlichungen wird gezeigt, dass es bereits ähnliche Ansätze gibt, die in dieser Arbeit verwendeten SIP-Pakete aber noch nicht für ein Auslösen unautorisierter Prozesse verwendet wurden. Zum Schluss wird dargestellt, in welchen Bereichen auf Basis dieser Arbeit weiter geforscht werden kann und welche Konsequenzen die gefundenen Ergebnisse für die VoLTE-Nutzer haben.
A relatively new research field of neurosciences, called Connectomics, aims to achieve a full understanding and mapping of neural circuits and fine neuronal structures of the nervous system in a variety of organisms. This detailed information will provide insight in how our brain is influenced by different genetic and psychiatric diseases, how memory traces are stored and ageing influences our brain structure. It is beyond question that new methods for data acquisition will produce large amounts of neuronal image data. This data will exceed the zetabyte range and is impossible to annotate manually for visualization and analysis. Nowadays, machine learning algorithms and specially deep convolutional neuronal networks are heavily used in medical imaging and computer vision, which brings the opportunity of designing fully automated pipelines for image analysis. This work presents a new automated workflow based on three major parts including image processing using consecutive deep convolutional networks, a pixel-grouping step called connected components and 3D visualization via neuroglancer to achieve a dense three dimensional reconstruction of neurons from EM image data.
Die vorliegende Masterarbeit befasst sich mit der Thematik der vergleichenden Untersuchung zur Ausprägung sehnenspezifischer Marker in Scaffold- versus Sphäroid-basierten Tissue Engineering Konstrukten. Dafür sollten humane aus dem Knochenmark stammende mesenchymale Stammzellen verwendet und tenogen differenziert werden und auf einem Kollagen-Scaffold oder als Sphäroid im Kollagen-Hydrogel kultiviert werden. Aussagen über eine mögliche Differenzierung sollten durch mikroskopische Untersuchungen und durch qPCR ermittelt werden.
Die Bildung von Sphäroiden sollte durch die Kultivierung im Hanging-Drop mit der Kultivierung in Mikrotiterplatten mit zellabweisender Oberfläche vergleichend untersucht werden. Dafür wurden neben mikroskopischen Untersuchungen, Färbemethoden und Gefriermikrotomschnitte herangezogen.
Als Positivkontrolle wurden humane Tenozyten (Sehnenzellen) verwendet.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Streifentestsystems, mit einer integrierten Amplifikationsmethode und Read-out-System, zum Nachweis pathogener Bakterien in Wunden. Dabei wird als Amplifikationsmethode die Rekombinase-Polymerase-Amplifikation (RPA) unter Verwendung des TwistAmp® nfo Kits, der Firma TwistDX Ltd., gewählt. Zur Detektion sollen Milenia HybriDetect Streifentests, der Firma Milenia Biotec GmbH, verwendet werden, da diese mit dem TwistAmp® nfo Kit kombiniert werden können. Diese zwei Methoden sollen in die onsite.flow Kartusche, der Firma BiFlow Systems GmbH, eingebracht werden. Um dies zu realisieren, sollen thermographische Charakterisierungen mit der onsite.flow Kartusche durchgeführt werden. Wichtig ist dabei, vor allem die Temperatur bei 37° C, da die RPA hier ihr Optimum findet. Um dies zu testen, sollen zwei Regelungsarten der onsite.flow Kartusche untersucht werden. Zum einen die Regelung über die Stromstärke und zum anderen die Regelung über die Temperatur. Weiterhin soll die Nachregelung der Temperatur durch ein Offset untersucht werden und das Beheizen von Flüssigkeiten im Näpfchen mit der onsite.flow Kartusche. Zudem sollen mit dem TwistAmp® nfo Kit, mithilfe von Agarosegelen, erste Versuche unter verschiedenen Reaktionsbedingungen durchgeführt und in Hinblick auf eine quantitative Aussage, untersucht werden. Außerdem sollen die Milenia HybriDetect Streifentest auf verschiedene Bedingungen, die in der onsite.flow Kartusche vorliegen, im Reaktionsgefäß getestet werden. Anschließend soll die RPA im Näpfchen der onsite.flow Kartusche durchgeführt werden und mit den Streifentests das Amplifikationsprodukt detektiert werden. Zuletzt sollen der Streifentest und die Reaktionsbestandteile des TwistAmp® nfo Kits, in die onsite.flow Kartusche eingebracht werden.
It is possible to obtain a common updating rule for k-means and Neural Gas algorithms by using a generalized Expectation Maximization method. This result is used to derive two variants of these methods. The use of a similarity measure, specifically the gaussian function, provides another clustering alternative to the before mentioned methods. The main benefit of using the gaussian function is that it inherently looks for a common cluster center for similar data points (depending on the value of the parameter s ). In different experiments we report similar behaviour of batch and proposed variants. Also we show some useful results for the “alternative” similarity method, specifically when there is no clue about the number of clusters in the data sets.
Sequences are an important data structure in molecular biology, but unfortunately it is difficult for most machine learning algorithms to handle them, as they rely on vectorial data. Recent approaches include methods that rely on proximity data, such as median and relational Learning Vector Quantization. However, many of them are limited in the size of the data they are able to handle. A standard method to generate vectorial features for sequence data does not exist yet. Consequently, a way to make sequence data accessible to preferably interpretable machine learning algorithms needs to be found. This thesis will therefore investigate a new approach called the Sensor Response Principle, which is being adapted to protein sequences. Accordingly, sequence similarity is measured via pairwise sequence alignments with different sequence alignment algorithms and various substitution matrices. The measurements are then used as input for learning with the Generalized Learning Vector Quantization algorithm. A special focus lies on sequence length variability as it is suspected to affect the sequence alignment score and therefore the discriminative quality of the generated feature vectors. Specific datasets were generated from the Pfam protein family database to address this question. Further, the impact of the number of references and choice of substitution matrices is examined.
In dieser Masterarbeit werden verschiedene Angriffsverfahren auf LTE-Systeme vorgestellt und deren Funktionsweise erläutert. Eine Auswahl dieser Verfahren, welche für Downgrading-Attacks nutzbar sind, werden im Rahmen dieser Arbeit implementiert und in einer definierten Testumgebung auf Funktion getestet und ausgewertet. Ziel ist es dabei die Grundlage für ein Testsetup zu schaffen, bzw. existierende Testsetups zu erweitern, um so effektiv LTE-Systeme Testen zu können.
Das Ziel dieser Masterarbeit ist die Evaluierung des Realtime Multi-Person 2D Pose Estimation Frameworks OpenPose. Dazu wird die Forschungsfrage gestellt, bis zu welcher Pixelgröße ein Mensch allgemein von dem System mit einer Sicherheit von über 50% richtig detektiert und dargestellt wird. Um die Forschungsfrage zu beantworten ist eine Studie mit sieben Probanden durchgeführt wurden. Aus der Datenerhebung geht hervor, dass der gesuchte Confidence Value zwischen 110px und 150px Körpergröße in von Menschen digitalen Bildern erreicht wird.
Im Rahmen der vorliegenden Arbeit wurde die Modifizierung von Titanoberflächen mit Kalziumphosphatbeschichtungen unter Einbeziehung der biologisch aktiven Spurenelemente Strontium und Kupfer untersucht. Hierfür bildet die Methode der elektrochemisch gestützten Abscheidung (ECAD) von Kalziumphosphaten aus wässrigen Elektrolyten die Grundlage. Mit der Modifizierung der Kalziumphosphatbeschichtung soll die Einheilphase der Implantate verkürzt werden, indem durch sukzessive Degradation sowie der Phasenumwandlung der unter Bruschitbedingung abgeschiedenen Beschichtungszustände die immobilisierten Ionen in das Umgebungsgewebe freigesetzt werden. Für die Bruschitabscheidung mit bzw. ohne Strontium wurden drei unterschiedliche Beschichtungsstrategien zur Immobilisierung von Kupfer in die Kalziumphosphatbeschichtung angewendet. Diese spurenelementhaltigen Beschichtungen wurden hinsichtlich der Belegungsdichten der Hauptkomponenten der Kalziumphosphatmatrix sowie der eingelagerten Spurenelemente sowie der Morphologie der Beschichtungsoberfläche untersucht. Zur weiteren Oberflächencharakterisierung wurden der chemische Status von Kupfer und Strontium sowie die Phasenzusammensetzung der abgeschiedenen Beschichtung analysiert. Weiterhin wurde untersucht, inwieweit unterschiedliche Belegungsdichten bzw. die verschiedenen Beschichtungsvarianten das Freisetzungsverhalten der Spurenelemente unter annähernd physiologischen Verhältnissen beeinflusst. Die kupferhaltigen Beschichtungszustände wurden hinsichtlich ihres antimikrobiellen Potentials untersucht.
In der letzten Dekade hat sich die Verwendung von Cloud-Computing für das verlässliche und kostengünstige Betreiben von IT-Ressourcen und Applikationen weitgehend etabliert. Für Anwendungsszenarien mit hochsensitiven Daten können jedoch inakzeptable Restrisiken in Bezug auf deren Vertraulichkeit und Integrität – insbesondere während der eigentlichen Datenverarbeitung – verbleiben. Mit Hilfe von Intel SGX ist die Entwicklung dahingehend abgesicherter Anwendungen möglich, eine Nutzung dessen Funktionalität durch bereits bestehende Applikationen dagegen nicht ohne Weiteres. Um diese vor Angriffen auf die Vertraulichkeit oder Integrität mittels SGX zu schützen, wurden in der Forschung verschiedene Ansätze zur Migration entwickelt. Insbesondere serviceorientierte, aus mehreren Einzeldiensten bestehende, Anwendungen bedürfen dafür jedoch einer ausführlichen Planung und strukturierten Vorgehens. Die vorliegende Masterarbeit hat das Ziel, ein grundlegendes Verständnis für SGX zu vermitteln und die Migration solcher Anwendungen zu vereinfachen. Dafür wird eine generische Methodik vorgestellt sowie anhand des Beispiels einer populären Webanwendung hinsichtlich ihrer Funktionalität, Sicherheit und Performanz evaluiert. Zusätzlich erfolgt die Diskussion der Migration von Container-Anwendungen sowie deren Besonderheiten und Möglichkeiten zur Orchestrierung.
In meiner Masterarbeit habe ich mich mit Wasserlinsen als neuartige Energieträger für die Energiebranche beschäftigt. Dazu wurden im Labor Wasserlinsen in kleinen Becken angezüchtet und später dann als Substrat für die Biogasherstellung verwendet. Hierzu wurde ein Kleinfermentersystem im Labormaßstab aufgebaut, in dem erste Tests zur Erzeugung von Biogas aus Wasserlinsen erfolgten. Durch verschiedene Analysen wurde im Anschluss
bewertet, inwieweit sich Wasserlinsen zur Biogasproduktion eignen und welchen Einfluss Indol-3-Essigsäure auf die Synthese hatte.
Ziel dieser Arbeit die Bereitstellung von Sensordaten sowie dessen Auswertung und Weitergabe an Aktoren. Die Bereitstellung dieser Daten soll mittels Datenbank-Abfragen und einer nachrichtenorientierten Infrastruktur bereitgestellt werden. Nach dieser erfolgreichen Implementierung soll ein Datenformat sowie -standard erörtert werden.
Nur auf der Grundlage homogener Daten kann eine effektive Nutzung dieser Daten er-reicht und ein sinnvolles Zusammenarbeiten verschiedener Institute sichergestellt werden.
Ziel dieser Arbeit ist das Evaluieren der Klassifikationsfähigkeit eines MVCNN-Verfahrens am Teilproblem der Klassifikation von prozedural generierten, idealisierten Darstellungen von OCT-Scans. Zu diesem Zweck wird ein Tool für das Erstellen ¨solcher Szenen entwickelt sowie ein Algorithmus zur Volumenberechnung von sich überschneidenden Meshes, welcher für das automatische Labeling dieser Szenen verwendet wird.
Diese Arbeit beschäftigt sich mit der Problematik der Verbreitung von Keimen und den damit verbundenen nosokomialen Infektionen durch den Siphon. Es wird die Wirksamkeit einer Sperre untersucht, die die Biofilmbildung im Siphon und damit die Verbreitung von Keimen verhindern soll. Dazu werden durch Puls-Magnetron-Sputtern Flachproben mit einer Titandioxidbeschichtung beschichtet. Die Aktivität und Stabilität der Titandioxidbeschichtung wird oberflächenanalytisch und mikrobiolgisch untersucht, sowie für die Bewertung der Wirksamkeit Versuchsregime etabliert.
Ziel dieser Arbeit ist es, Konzepte zur Steigerung der intrinsischen Motivation innerhalb der Lernsimulation Finanzmars zu erstellen und zu untersuchen. Zur Erstellung dieser Konzepte sollen potentiell motivationsfördernde Elemente aus dem Bereich der Gamification sowie aus E-Commerce-Geschäftsmodellen kombiniert und verwendet werden. Dabei sollen zwei Belohnungssysteme entwickelt werden, bestehend aus einerseits klassischen Belohnungen digitaler Spiele sowie andererseits aus Belohnungen mit zufälliger Gewinnausschüttung, sogenannten Lootboxen. Als Forschungsobjekt dieser Arbeit wird die Lernsimulation Finanzmars verwendet, in welche die zu erstellenden Konzepte integriert werden. Diese werden sodann in einer anschließenden Evaluation auf potentielle Motivationssteigerungen untersucht. Diesbezüglich gilt es, für jedes zu untersuchende Konzept eine eigene Spielversion von Finanzmars zu entwickeln. Eine Probandengruppe soll während der Evaluation diese Spielversionen testen, sodass ihre Spielerdaten entsprechend untersucht werden können. Um Abseits der Spielerdaten auch die Probandenmeinungen hinsichtlich ihrer Motivation evaluieren zu können, gilt es, darauffolgende Fragebögen zu konzipieren und diese von Probanden bearbeitet werden zu lassen.
In dieser Masterarbeit wurde die Entwicklung des Erregerspektrums und der Resistenz der Erreger gegen spezielle Antibiotika von 2010-2017 untersucht. Die untersuchten Proben wurden vom Medizinischen Zentrallabor Altenburg ausgewertet und stammten dabei aus Urinen, pulmonalen Materialien oder Blutkulturen. Innerhalb der Arbeit wurden mit dem assoziativen Datenanalyse-Tool und Reporting-System QlikView die Labordaten der untersuchten Jahre hinsichtlich der Entwicklung der Erregeranteile und deren Resistenz ausgewertet. Es wurden die häufigsten bakteriellen Erreger bei klinisch relevanten Infektionen ermittelt und ihr Verhalten gegen leitliniengerechte Antibiotika untersucht. Das Auftreten von multiresistenten Erregern konnte detektiert und deren Entwicklung analysiert werden. Die Materialien wurden getrennt voneinander untersucht und deren Ergebnisse gegenübergestellt.
In today’s market, the process of dealing with textual data for internal and external processes has become increasingly important and more complex for certain companies. In this context,the thesis aims to support the process of analysis of similarities among textual documents by analyzing relationships among them. The proposed analysis process includes discovering similarities among these financial documents as well as possible patterns. The proposal is based on the exploitation and extension of already existing approaches as well as on their combination with well-known clustering analysis techniques. Moreover, a software tool has been implemented for the evaluation of the proposed approach, and experimented on the EDGAR filings, on the basis of qualitative criteria.
The occurence of prostate cancer (PCa) has been consistently rising since three decades and remains the third leading cause of cancer-related deaths after lung and bowel cancer in Germany. Despite of new methods of early detection, such as prostate-specific antigen (PSA) testing, it persists to be the most common cancer in german men with over 63,400 new diagnoses in Germany every year and exhibits high prevalence in other countries of Northern andWestern Europe as well [64]. Men over the age of 70 are most commonly affected by the lethal disease, whereas an indisposition before 50 is rare. The malignant prostate tumor can be healed through operation or irradiation while the cancer hasn’t reached the stage of metastasis in which other therapeutic methods have to be employed [14] [15]. In the metastatic phase, the patient usually exhibits symptoms when the tumors size affects the urethra or the cancer spreads to other tissue, often the bones [16].
The high prevalence of this disease marks the importance of further research into prognosis and diagnosis methods, whereby identification of further biomarkers in PCa poses a major topic of scientific analysis. For this task, the effectiveness of high-throughput RNA sequencing of the transcriptome (RNA molecules of an organism or specific cell type) is frequently exploited [66]. RNA sequencing or RNA-Seq in short, offers the possibility of transcriptome assessment, enabling the identification of transcriptional aberrations in diseases as well as uncharacterized RNA species such as non-coding RNAs (ncRNAs) which remain undetected by conventional methods [49]. To alleviate interpretation of the sequenced reads they are assembled to reconstruct the transcriptome as close to the original state as possible, thus enabling rapid detection of relevant biomolecules in the data [49]. Transcriptomic studies often require highly accurate and complete gene annotations on the reference genome of the examined organism. However, most gene annotations and reference genomes are far from complete, containing a multitude of unidentified protein-coding and non-coding genes and transcripts. Therefore, refinement of reference genomes and annotations by inclusion of novel sequences, discovered in high quality transcriptome assemblies, is necessary [24].
Diese Arbeit befasst sich mit der Bestimmung der minimalen Hemmkonzentration (MHK) im Titerplattenformat für Antibiotika und/oder Effluxpumpen-Inhibitoren anhand verschiedener klinischer Isolate von E. faecalis, E. faecum und S. aureus und dem Vergleich mit bereits vorhandener Literatur. Aufbauend auf den ermittelten MHK-Werten wurden dann Bestimmungen der minimalen Biofilm-inhibierenden Konzentration am konfokalen Laser-Scanning-Mikroskop durchgeführt. Die Klonalität der verwendeten Isolate wurde mittels Random Amplified Polymorphic DNA-PCR und den daraus erstellten Dendrogrammen geprüft.
Glycans play an important role in the intracellular interactions of pathogenic bacteria. Pathogenic bacteria possess binding proteins capable of recognizing certain sugar motifs on other cells, which are found in glycan structures. Artificial carbohydrate synthesis allows scientists to recreate those sugar motifs in a rational, precise, and pure form. However, due to the high specificity of sugar-binding proteins, known as lectins, to glycan structures, methods for identifying suitable binding agents need to be developed. To tackle this hurdle, the Fraunhofer Institute for Cell Therapy and Immunology (Fraunhofer IZI) and the Max-Planck Institute of Colloids and Interfaces (MPIKG) developed a binding assay for the high throughput testing of sugar motifs that are presented on modular scaffolds formed by the assembly of four DNA strands into simple, branched DNA nanostructures. The first generation of this assay was used in combination with bacteria that express a fluorescent protein as a proof-of-concept. Here, the assay was optimized to be used with bacteria not possessing a marker gene for a fluorescent protein by staining their genomic DNA with SYBR® Green. For the binding assay, DNA nanostructures were combined with artificially synthesized mannose polymers, typical targets for many lectins on the surface of bacteria, presenting them in a defined constellation to bind bacteria strongly due to multivalent cooperativity. The testing of multiple mannose polymers identified monomeric mannose with a 5’-carbon linker and 1,2-linked dimeric mannose with linker as the best binding candidates for E. coli, presumably due to binding with the FimH protein on the surface. Despite similarities between the FimH proteins of E. coli and K. pneumoniae, binding was only observed between E. coli and the different sugar molecules on DNA structures. Furthermore, the degree of free movement seemed to affect the binding of mannose polymers to targeted proteins, since when utilizing a more flexible DNA nanostructure, an increase in binding could be observed. An alternative to the simple DNA nanostructures described above is the use of larger, more complex DNA origami structures consisting of several hundred strands. DNA origami structures are capable of carrying dozens of modifications at the same time. The results for the DNA origami structure showed a successful functionalization with up to 71 1,2-linked dimeric mannose with linker molecules. These results point towards a solution for the high-throughput analysis of potential binding agents for pathogenic bacteria e.g. as an alternative treatment for antibiotic-resistant.
Diese Arbeit behandelt, wie in einem rundenbasierten Strategiespiel ein System zur Integration linearen Missionsdesigns implementiert wurde. Es erlaubt, Missionen anzulegen und in Szenarien zu gruppieren, welche sich wiederum in einer Kampagne zusammenfassen lassen. Dabei können beliebig viele Kampagnen gleichzeitig existieren, ohne dass sich deren Inhalte überschneiden. Die Implementierung des Systems ist umfangreich beschrieben und wird mit relevanten Code-Beispielen veranschaulicht. Das Spiel wurde hinsichtlich der Player Experience, Usability und User Experience mit den Fragebögen MEEGA+ und AttrakDiff evaluiert. Eine Evaluation der User Experience mit AttrakDiff wurde auch für den zum Spiel gehörenden Inhaltseditor durchgeführt. Die dabei ermittelten Ergebnisse zeigen, dass beide Anwendungen von den Probanden grundsätzlich gut bis sehr gut wahrgenommen werden. Durch eine Detailanalyse der einzelnen Wertungen sowie dem zusätzlich gegebenen Feedback konnten Stärken und Schwächen identifiziert werden. Um die Schwachpunkte in zukünftigen Entwicklungsbestrebungen effizient bearbeiten zu können, sind passende Vorschläge und detaillierte Erklärungen der Ursachen beigefügt worden. Der Mehrwert des Kampagnensystems hinsichtlich wahrgenommener Qualität und Motivation wird durch einen Vergleich mit Evaluationsergebnissen einer früheren Version bewiesen. Diese wurden in dem dieser Arbeit vorangegangenen Forschungsmodul, in welchem die damalige Spielversion ebenfalls mit MEEGA+ evaluiert wurde, ermittelt. Zum Verständnis der Arbeit wird Vorwissen mit der Game Engine Unity sowie ihrer grundlegenden Konzepte, bspw. GameObjects und daran angebundene Komponenten, vorausgesetzt. Da an verschiedenen Stellen Bezug auf das Forschungsmodul sowie den darin erlangten Erkenntnissen genommen wird, ist die Konsultation des zugehörigen Abschlussberichtes empfehlenswert. Er liegt dieser Arbeit als digitale Anlage F bei.
In dieser Arbeit wurde das SARS-CoV-2 Nukleokapsid-Protein sowie dessen N- und C-terminale Domäne kloniert und die darauf folgende Expression in E.coli und die Aufreinigung optimiert. Anschließend wurden die Proteine als Antigene für indirekte ELISAs verwendet. Die IgG-Antwort aus Seren von COVID-19 Patienten wurde bestimmt, um die Sensitivität und Spezifität hinsichtlich der Detektionsfähigkeit gegenüber den Varianten des N-Proteins zu vergleichen. Weiterhin wurde das Verhalten dieser Immunantworten über einen Zeitraum der akuten Infektion bis frühen Konvaleszenz mit einem Zeitraum von bis zu 10 Monaten nach Symptombeginn bei verschiedenen klinischen Schweregraden untersucht.
Die vorliegende Arbeit befasst sich mit dem Datenschutz allgemein und der DSGVO im Konkreten als Herausforderung für Unternehmen.
Die Einhaltung rechtlicher Vorschriften, vertraglicher Bestimmungen, externer sowie interner Regelwerke, im Begriff Compliance zusammengefasst, ist ein wichtiges Unternehmensziel. Die DSGVO, die am 25.05.2018 in
Kraft trat, bringt für Betriebe einige zu beachtende Änderungen mit sich, so beispielsweise die Rechenschaftspflicht des Verantwortlichen und die verschärften Sanktionen bei Verstößen.
Zusätzlich muss durch sie als Verordnung, aufgrund ihrer Vorrangstellung gegenüber nationalen Gesetzen, auch die Anwendbarkeit einiger bestehender Regelungen in Frage gestellt werden.
Cryptorchidism is the most common disorder of sex development in dogs. It describes a failure of one or both testes to descend into the scrotum in due time. It is a heritable multifactorial disease. In this work, selected dogs of a german sheep poodle breed were sequenced with nanopore sequencing and subsequently examined for genetic variations correlating with cryptorchidism. The relationships of the studied dogs were also analyzed and visually processed.
In dieser Masterthesis wird evaluiert, wie gut sich Deep-Learning-Modelle für eine Toxizitätsbestimmung im digitalen Raum eignen. Hierfür wird die Transformer-Architektur anhand verschiedener Pre-Trainings auf BERT-, DistilBERT-, RoBERTa- und GPT-2-Basis mithilfe der toxisch-binär annotierten GermEval-Datensätze aus den Jahren 2018, 2019 und 2021 angepasst. Das Feintuning der Modelle findet sowohl mit Supervised-, als auch mit Semi-Supervised-Learning via GAN statt. Im Anhang dieser Arbeit steht der genutzte Programmcode zur Verfügung.
Das Feintuning via GAN stellt eine Besonderheit in der Herangehensweise automatisierter NLP-Aufgaben darf. Als Ergebnis dieser Arbeit kann deren Wirksamkeit in binären Textklassifizierungsaufgaben im deutschen Sprachraum bestätigt werden.
Onlinequellen wurden zum Zeitpunkt des Abrufs mithilfe des Firefox-Addons “SingleFile” in eine HTML-Datei gespeichert. Sowohl der HTML-Teil, als auch die Mediendateien, Stylesheets und Skriptdateien befinden sich komprimiert in der Datei. Jede Onlinequelle wurde während des Speichervorgangs bei woleet.io registriert, sodass später die Integrität der HTML-Datei geprüft werden kann. Hierfür speichert Woleet die Signatur und Zeitstempel einer Datei innerhalb der Bitcoin-Blockchain. Soll die Integrität einer Datei geprüft werden, kann dies über gildas-lormeau.github.io/singlefile-woleet/index.html erfolgen.
In dieser Arbeit werden das Parameterbasierte Verfahren StyleFlow und das semantische System StyleClip untersucht um das StyleGan zu kontrollieren. Dabei sollen die gewählten Attribute bestmöglich editiert werden und sich dabei möglichst wenig gegenseitig beeinflussen. Zusätzlich Experimente auf realen Daten zeigen, dass durch die Invertierung in den Raum des StyleGan Fehler in den Attributen auftreten und bei der Editierung vermehrt Artefakte auftreten. In weiteren Untersuchungen werden die beiden Systeme genutzt, um zum einem Veränderungen entsprechend dem realen Verhalten durchzuführen und zum anderem eine Attributverteilung von Identitäten auf eine andere zu Übertragen. Dabei wird auch die Bildqualität allgemein und für eine Gesichtserkennung untersucht. Mit den untersuchten Systemen sind diese Operationen zu einem gewissen Maß möglich, dabei fällt die Bewertung aufgrund relativer Metriken schwierig.
Aufgrund einer immer älter werdenden Bevölkerung ist das Thema des gesunden
Alterns ein wichtiges Forschungsfeld. Dabei haben vor allem molekulare Prozesse eine bedeutende Rolle, weshalb auch die DNA ein bedeutendes Untersuchungsobjekt darstellt. Neben Mutationen auf Sequenzebene gibt es auch Veränderungen der DNA auf einer übergeordneten Ebene, welche die Sequenzabfolge selbst nicht verändern. Ein solcher Prozess ist die DNA-Methylierung, welche in allen höher entwickelten Eukaryonten von großer Bedeutung ist. Ein Modellorganismus, der in der Alternsforschung
immer mehr Beachtung fndet, ist der manuelle Fisch N. furzeri. Da zur
DNA-Methylierung im Organismus N. furzeri noch nichts bekannt ist, erfolgte im Rahmen dieser Masterarbeit eine Untersuchung der globalen DNA-Methylierung im Alterungsprozess des N. furzeri.
Die vorliegende Arbeit beschäftigt sich mit der Analyse, Konzeption, Implementation und Evaluation eines dezentralen Feedback-Systems für die Blockchain Academy Mittweida. Es wurde nach einer Lösung gesucht, das Feedback für die angebotenen Kurse auf der Seite der Blockchain Academy Mittweida erfassen zu können. Dabei sollte die Anonymität des Nutzers stets gewahrt bleiben, jedoch für den Betreiber die Möglichkeit gegeben sein, unberechtigtes oder doppeltes Feedback erkennen und aussortieren zu können. Diese Anforderungen konnten durch die Linkable-Ring-Signature gewährleistet werden. Bei diesem Verfahren kann der Nutzer stellvertretend für seine Gruppe eine Nachricht signieren. Der Betreiber kann überprüfen, ob eine signierte Nachricht aus dieser Gruppe stammt und ob es bereits eine Nachricht von einem Nutzer eingegangen ist, ohne die Anonymität des Nutzers aufzuheben. Das System wurde möglichst dezentral gestaltet, um keine zentrale Angriffsstelle bieten zu können und sicherheitsrelevante Teile abkapseln zu können. Es wurde ein Smart Contract angelegt, welcher die zum Signieren benötigten öffentlichen Schlüssel der Gruppenmitglieder eines Kurses bereithält. Die zweite Komponente stellt eine Browsererweiterung dar. Mit dieser kann der Nutzer sich in die Feedbackgruppe zu einem Kurs eintragen und seine Schlüsselpaare für die Signatur Generierung speichern lassen. Die dritte Komponente ist ein Plugin auf dem WordPress-System der Blockchain Academy Mittweida, mit welchem das Feedback auf Verknüpfbarkeit geprüft werden kann. Mittels eines funktionalen Testverfahrens und einer Probandengruppe wurde die erarbeitete Lösung untersucht. In beiden Fällen bestand die Lösung die an diese gestellten Anforderungen und wurde positiv von der Probandengruppe aufgenommen. Es wurde sich mehrheitlich für die vorgestellte Lösung und gegen eine Lösung mit einem Kennwort, welches der Nutzer eingeben muss, bevor er eine Umfrage ausfüllen kann, entschieden. Im Wintersemester 2022/2023 an der Hochschule Mittweida könnte die Anwendung zusammen mit dem Masterstudiengang Blockchain & Distributed Ledger Technologies (DLT) in einem größeren Praxistest eingesetzt und weiter erprobt und verbessert werden.
Our current research aims to establish a complete ribonucleic acid (RNA) production line from plasmid design to purification of in vitro transcribed RNA and labeling of RNA. RNA is the central molecule within the central dogma of molecular biology and is involved in most essential processes within a cell[1]. In many cases, only compact three-dimensional structures of the respective RNA are able to fulfill their function. In this context, RNA tertiary contacts such as kissing loops and pseudoknots are essential to stabilize three-dimensional folding[2]. We will produce a tertiary contact consisting of a kissing loop and a GAAA tetraloop that occurs in eukaryotic ribosomal RNA[3,4]. The RNA sequence is integrated into a vector plasmid. Subsequently, the plasmid is amplified in E. coli. After following plasmid purification steps, the RNA sequence will be transcribed in vitro[5,6]. In order for the RNA be used for Förster resonance energy transfer (FRET) experiments at the single molecule level, fluorescent dyes must be coupled to the RNA molecule[7].
In vielen Einsatzbereichen sind digitale Nachbildungen realer Gebäude von großer Wichtigkeit. Die Erstellung dieser Nachbildungen erfordert bei älteren bzw. historischen Gebäuden allerdings meist erheblichen Vermessungs- und Nachbearbeitungsaufwand mit großem Personal- und Zeitbedarf. Häufig wurde ein Gebäude stilistisch an die jeweilige Zeit angepasst, sodass einzelne Zustände nur mit historischem Bildmaterial reproduzierbar sind.
Am Beispiel mehrerer ausgewählter, aktuell existierender Gebäude der Stadt Mittweida sind realitätsnahe, digitale und veränderbare Modelle mittels eines möglichst automatisierten Workflows erstellt.
Die äußere Erscheinung dieser Modelle kann mit dem entwickelten System automatisiert an andere Stile anpasst werden, welche durch z.B. historisches Bildmaterials von Gebäuden vorgegeben sind. Aufgrund der vielfältigen Einsatzbereiche und weiten Verbreitung finden hierfür Verfahren der Photogrammetrie für die Erstellung und neuronale Netze für die Stilanpassung Anwendung, welche auf handelsüblicher Hardware eingesetzt werden können. Eine Evaluierung erfolgte durch bildlichen Vergleich der stilangepassten Modelle mit dem zugehörigen Bildmaterial.
There are multiple ways to gain information about an individual and its health status, but an increasingly popular field in medicine has become the analysis of human breath, which carries a lot of information about metabolic processes within the individuals body. The information in exhaled breath consists of volatile (organic) compounds (VOCs). These VOCs are products of metabolic processes within the individuals body, thus might be an indicator for diseases disturbing those processes. The compounds are to be detected by mass-spectrometric (MS) or ion-mobility spectrometric (IMS) techniques, making the analysis of these compounds not only bounded to exhaled breath. The resulting data is spectral data, capturing concentrations of the VOCs indirectly through intensities. However, a number of about 3000 VOCs [1] could already be determined in human exhaled breath. The number of research paper about VOC-analysis and detection had risen nearly constantly over the last decade 1. Furthermore, the technique to identify VOCs could also be used to capture biomarker from alien species within the individuals body. Extracting VOCs from an individual can be done by non- or minimal invasive techniques. However, the manual identification of VOCs and biomarkers related to a certain disease or infection is not feasible due to the complexity of the sample and often unknown metabolic products, thus automized techniques are needed. [1–4] To establish breath analysis as a diagnosis tool, machine learning methodes could be used. Machine learning has become a popular and common technique when dealing with medical data, due to the rapid analysis. Taking this advantage, breath analysis using machine learning could become the model of choice for diagnosis, keeping in mind that conventional methodes are laboratory based and thus when trying detect bacterial infection need sometimes several days to identify the organism. [5]
In dieser Arbeit werden acht Arten von Belohnungssysteme in Mobile Games auf deren Einfluss auf das Verhalten der Spieler und den daraus resultierenden Wiederspielwert eines Spiels untersucht. Zwei dieser Systeme werden für einen Praxistest ausgewählt und detailliert betrachtet. Dabei handelt es sich um das Punktestand System und das Level System. Die Konzeption der Systeme ist um- fangreich beschrieben und die Implementation ist anhand von relevanten Beispielen oder Grafiken aus der Spiele-Engine veranschaulicht. Diese Belohnungssysteme werden innerhalb eines sonst identischen Spiels separat integriert und in einem AB Test getestet. Für die Auswertung des Praxis- tests werden während der Testphase diverse Spieldaten der Spieler erhoben und im Anschluss an den Test wurde von jedem Nutzern ein Fragebogen beantwortet. Auf diese Weise werden objektive Spieldaten sowie subjektive wahrgenommene Faktoren des Spielverhaltens erfasst und konnten in der Auswertung miteinander verknüpft werden. Die dabei entstandenen Ergebnisse zeigen, dass beide Belohnungssysteme die Spieler zum spielen motiviert haben. Jedoch hat das Punktestand System einen höheren Wiederspielwert erzielen können, da hierbei die intrinsische Motivation der Spieler mittels direkter Beeinflussbarkeit der verwendeten Verstärkung angesprochen wird. Außer- dem haben die Tester innerhalb des Punktestand Systems im Median eine größere Reichweite erspielen können. Daraus lässt sich schlussfolgern, dass sie durch das Erhalten beziehungsweise Ausbleiben von Belohnungen dazu motiviert wurden das Spiel stetig weiter spielen zu wollen. Daher hat sich dieses Belohnugnssystem als das für das im Praxisbeispiel verwendete Spiel optimale Be- lohnungssystem herausgestellt. Der subjektiv vom Spieler empfundene Spaßfaktor war bei beiden Belohnungssystemen gleich gut. Das Ergebnis der durchgeführten Forschung besagt, dass durch das Belohnungssystem das Spielverhalten und daraus resultierend der Wiederspielwert eines Spiels sowohl positiv als auch negativ beeinflusst werden kann. Die Art der Belohnung muss in Abhän- gigkeit von der im Gamedesign im Vordergrund stehenden Tätigkeit gewählt werden. Zielen das Belohnungssystem und die Hauptaktion des Spiels auf die gleiche Handlung ab, so werden Spieler intrinsisch dazu motiviert diese vermehrt ausführen zu wollen. Die optimale Art der Belohnung muss daher die individuellen Charakteristika eines Spiels unterstützen.
Krebs zählt zu den häufigsten Todesursachen. Die Suche nach neuen Wirkstoffen führt immer häufiger zu natürlichen Quellen. Das Heilkraut Artemisia annua L. bzw. dessen Sekundärmetabolit Artemisinin stellt einen Kandidaten zur Entwicklung neuer Krebsmedikament dar. Ursprünglich wurde Artemisinin in den 1970er Jahren als Mittel gegen Malaria entdeckt. Wie Studien beweisen konnten, weist die Verbindung auch eine selektive Wirkung gegen verschiedene Krebsarten auf. In dieser Arbeit wird Artemisinin bezüglich seiner Wirkung auf fünf humane Zelllinien (HeLa, 143B.TK-, HT-29, MCF-7, PC-3) untersucht, mit dem Ziel einen spezifischen Wirkort in den Mitochondrien zu identifizieren. Dafür werden die jeweiligen Krebszellen in Medium ohne Pyruvat und Uridin sowie in Medium mit beiden Zusätzen kultiviert. Nach einem Vorversuch wird der eigentliche Versuch mit der optimalen Artemisinin-Konzentration über sieben Tage durchgeführt. Die Ergebnisse umfassen mehrtägige mikroskopische Bildaufnahmereihen, Aufzeichnungen der Zellvitalität und der Gesamtlebendzellzahl sowie die relative Quantifizierung des mtDNA-Gehalts und des Expressionsniveaus respiratorischer Gene. Anhand dieser Untersuchungen kann davon ausgegangen werden, dass Artemisinin eine wachstumshemmende sowie zytotoxische Wirkung besitzt und in einigen der Zelllinien ebenso spezifisch in den Mitochondrien wirkt. Die Verbindung besitzt ein breites Wirkspektrum, was mit mehreren zellulären und molekularen Mechanismen assoziiert ist. Somit steht die Antikrebsaktivität von Artemisinin auch zusätzlich damit in Zusammenhang. Zudem besitzt Artemisinin eine unterschiedliche Wirksamkeit auf verschiedenen Arten von Tumorzellen.
In dieser Arbeit wurden kulturelle Nachweisverfahren zur Detektion von Vaginitis Erregern mit molekularbiologischen Methoden verglichen und bewertet. Für diese Untersuchung standen Vaginalabstriche von Patientinnen zur Verfügung. Diese Vaginalabstriche wurden von Gynäkologen zur Untersuchung auf pathogene Keime in das Fachlabor „Diagnosticum“ nach Neukirchen geliefert. Es wurden folgende verschiedene Universal- und Selektionsnährmedien für den Nachweis verwendet: TSS-, MCK-, MRS-, PVX-, GAR- und CAN2-Agar. Außerdem erfolgte eine mikroskopische Beurteilung (Nugent-Score) der Abstriche. Dazu wurden die Proben nach der Gram-Färbung bei 1.000-facher Vergrößerung mikroskopisch betrachtet und bewertet. Nach der Identifizierung möglich pathogener Keime erfolgte die Resistenztestung, um für den behandelnden Gynäkologen die Auswahl des richtigen Antibiotikums zu erleichtern.
Die beiden Resistenztestungssysteme, VITEK2- (bioMérieux) und Phönix-System (Becton Dickinson), basieren auf der Bestimmung der Minimalen-Hemmkonzentration. An molekularen Nachweismethoden wurde ein DNA-Hybridisierungsverfahren, Affirm-Test (Becton Dickinson), verwendet. Ferner wurden zwei Nukleinsäuren-Amplifikationsmethoden genutzt. Zum einen wurde eine Multiplex Real-Time PCR (fast-track) und zum anderen eine TMA (Transcription Mediated Amplification) Methode verwendet. Die Multiplex Real-Time PCR ermöglicht den Nachweis verschiedener Erreger (Chlamydia trachomatis, Neisseria gonorrhoeae, Mycoplasma genitalium, Trichomonas vaginalis, Mycoplasma hominis, Ureaplasma urealyticum und Ureaplasma parvum). Für das TMA wurde ein Combo Assay zur Detektierung von Chlamydia trachomatis und Neisseria gonorrhoeae genutzt. Während der Masterarbeit wurden 251 Patientenproben untersucht und ausgewertet.
In this paper, we conduct experiments to optimize the learning rates for the Generalized Learning Vector Quantization (GLVQ) model. Our approach leverages insights from cog- nitive science rooted in the profound intricacies of human thinking. Recognizing that human-like thinking has propelled humankind to its current state, we explore the applica- bility of cognitive science principles in enhancing machine learning. Prior research has demonstrated promising results when applying learning rate methods inspired by cognitive science to Learning Vector Quantization (LVQ) models. In this study, we extend this approach to GLVQ models. Specifically, we examine five distinct cognitive science-inspired GLVQ variants: Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), and Loose Symme- try with Rarity (LSR). Our experiments involve a comprehensive analysis of the performance of these cogni- tive science-derived learning rate techniques across various datasets, aiming to identify optimal settings and variants of cognitive science GLVQ model training. Through this research, we seek to unlock new avenues for enhancing the learning process in machine learning models by drawing inspiration from the rich complexities of human cognition. Keywords: machine learning, GLVQ, cognitive science, cognitive bias, learning rate op- timization, optimizers, human-like learning, Conditional Probability (CP), Dual Factor Heuristic (DFH), Middle Symmetry (MS), Loose Symmetry (LS), Loose Symmetry with Rarity (LSR).
In vielen Fällen der Kriminalistik steht die Eingrenzung eines Verdächtigenkreises im Vordergrund. Doch zur Verfügung stehen oftmals nur Zeugenaussagen oder Videomaterial, mit denen ein Phantombild oder eine grobe Beschreibung des Verdächtigen erstellt werden kann. Um anhand von Video- oder Fotomaterial eine Person besser beschreiben zu können, ist es Ziel dieser Arbeit ein statistisches Modell zur Beschreibung von Korrelationen in anthropometrischen Maßen und Pose Estimations herzuleiten.
Bei einer ersten Untersuchung wird geprüft, ob es möglich ist, Individuen der Körperhöhe 175 cm und 185 cm anhand sonstiger anthropometrischer Maße zu unterscheiden. Die positiven Resultate werden genutzt, um Möglichkeiten zu finden, eine Trennung der beiden Körperhöhengruppen auch mittels Pose Estimations vorzunehmen. Dazu wird ein erstes Regressionsmodell aufgestellt. Außerdem werden andere Charakteristiken des menschlichen Körpers genauer betrachtet, weitere Körpergruppen definiert und jene versucht mittels Pose Estimations vorherzusagen. Dabei können jedoch keine qualitativen statistischen Modelle zur Beschreibung von Korrelationen in anthropometrischen Maßen und Pose Estimations hergeleitet werden. Aufgrund dessen wird die direkte Vergleichbarkeit zwischen anthropometrischen Maßen und definierten Strecken der Pose Estimations untersucht. Diese kann jedoch nicht bestätigt werden. Daher wird an der Einteilung in Körpergruppen festgehalten. Um jene besser vorhersagen zu können, werden für alle Individuen weitere Aufnahmen aus wohl definierten Perspektiven gefertigt und anschließend mittels OpenPose verarbeitet. Die resultierenden Pose Estimations werden genutzt um dreidimensionale Rigs zu erzeugen. Dadurch sollen mit einer frontalen Betrachtung einhergehende Fehlerquellen, wie Drehungen oder Beugungen einzelner Körperteile, eliminiert werden. Um zu prüfen, welche Verbesserungen die dreidimensionalen Rigs mit sich bringen, werden die Untersuchungen aus dem ersten Teil dieser Arbeit wiederholt. Dabei wird festgestellt, dass mit wenigen Ausnahmen alle Ergebnisse verbessert werden können. Jedoch bleibt die Qualität einiger statistischer Modelle bei den durchgeführten Kreuzvalidierungen zu optimieren.
Obesity is a major public health issue in many countries and its development leads to many severe conditions. Adipose tissue (AT) simply called fat, in males visceral adipose tissues (VAT) are dominant. Estrogens play an important role in many pathological processes.
In this study, one of the subtypes of the estrogen receptor ER-beta is activated using KB (Specific ligand) treatment on VAT.
In this study, I investigated the metabolism effectof KB treatment on VAT using bioinformatics methods.
In this thesis study, I applied several bioinformatics methods such as differential expression gene analysis, pathway analysis, RNA splicing analysis and SNPs callings to make the prediction of the effect of KB treatment on VAT. A list of candidate genes, pathways and SNPs were identified in this study, which could provide some clues to reveal the genetic mechanism underlying the KB treatment effect. The results of my study show that the KB treatment on VAT has caused significant effect.
Influenza A viruses are responsible for the outbreak of epidemics as well as pandemics worldwide. The surface protein neuraminidase of this virus is responsible, among other things, for the release of virions from the cell and is thus of interest in pharmacological research. The aim of this work is to gain knowledge about evolutionary changes in sequences of influenza A neuraminidase through different methods. First, EVcouplings is used with the goal of identifying evolutionary couplings within the protein sequences, but this analysis was unsuccessful. This is probably due to the great sequence length of neuraminidase. Second, the natural vector method will be used for sequence embedding purposes, in hopes to visualize sequential progression of the virus protein over time. Last, interpretable machine learning methods will be applied to examine if the data is classifiable by the different years and to gain information if the extracted information conform to the results from the EVcouplings analysis. Additionally to using the class label year, other labels such as groups or subtypes are used in classification with varying results. For balanced classes the machine learning models performed adequately, but this was not the case for imbalanced data. Groups and subtypes can be classified with a high accuracy, which was not the case for the years, continents or hosts. To identify the minimal number of features necessary for linear separation of neuraminidase group 1 subtypes, a logistic regression was performed at last, resulting in the identification of 15 combinations of nine amino acid frequencies. Since the sequence embedding as well as the machine learning methods did not show neuraminidase evolution over time, further research is necessary, for example with focus on one subtype with balanced data.
In dieser Arbeit wird die Entwicklung eines Tools beschrieben, welches diverse Schritte des digitalen Achterbahnbaus prototypisch kombiniert. Entwickelt wurden eine visuelle Bewegtbilddarstellung, ein prozeduraler Streckengenerator, eine automatische Rotationszuweisung und eine Präferenzeingabefläche zur Beeinflussung der zufälligen Streckenausgabe. Der Fokus liegt darauf, die zufälligen Streckenlayouts in einer Umfrage zu evaluieren, um zu ermitteln, ob diese Software einen potentiellen Mehrwert für professionelle Achterbahndesigner bietet. Im Rahmen der Evaluation wurden sieben Achterbahnen im Tool erbaut. Dabei handelt es sich um zwei zufällig generierte, zwei vom Autor erschaffene und drei Repliken realer Bahnen. Um eventuelle Streckentyppräferenzen von Probanden zu erkennen, wurden zwei verschiedene Achterbahntypen für die Evaluation verwendet. Diese sind als Videoaufnahme in einer Umfrage mit 26 Probanden untersucht und anschließend miteinander verglichen worden. Die Probanden zeigten in ihrer Erfahrung mit Achterbahnen einen geringen bis mittelmäßigen Wissensschatz, konnten aber gute Bahnen von schlechten unterscheiden. Es war ihnen nicht eindeutig möglich, die realen Strecken von den anderen zu unterscheiden. Die Ergebnisse zeigen, dass die zufällig generierten Strecken den realen Repliken im Bezug auf Kreativität ebenbürtig sind. Auch die Qualität des Streckenlayouts weist laut den Probanden kein erkennbares Defizit auf. Die prototypische Umsetzung der Ausgabe des Tools kann als zufriedenstellend eingeschätzt werden. Ob die Applikation einen positiven Einfluss auf die Arbeit eines brancheninternen Designers hat, muss in einer weiteren Studie untersucht werden.
Drought is one of the most common and dangerous threats plants have to face, costing the global agricultural sector billions of dollars every year and leading to the loss of tons of harvest. Until people drastically reduce their consumption of animal products or cellular agriculture comes of age, more and more crops will need to be produced to sustain the ever growing human population. Even then, as more areas on earth are becoming prone to drought due to climate change, we may still have to find or breed plant varieties more suitable to grow and prosper in these changing environments.
Plants respond to drought stress with a complex interplay of hormones, transcription factors, and many other functional or regulatory proteins and mapping out this web of agents is no trivial task. In the last two to three decades or so, machine learning has become immensely popular and is increasingly used to find patterns in situations that are too complex for the human mind to overlook. Even though much of the hype is focused on the latest developments in deep learning, relatively simple methods often yield superior results, especially when data is limited and expensive to gather.
This Master Thesis, conducted at the IPK in Gatersleben, develops an approach for shedding light on the phenotypic and transcriptomic processes that occur when a plant is subjected to stress. It centers around a random forest feature selection algorithm and although it is used here to illuminate drought stress response in Arabidopsis thaliana, it can be applied to all kinds of stresses in all kinds of plants.
In this work, a protocol for portable nanopore sequencing of DNA from pollen collected from honey bees, bumble bees, and wild bees was developed. DNA metabarcoding is applied to identify genera within the mixed DNA samples. The DNA extraction and ITS and ITS2 PCR parameters tested for this purpose were applied to the collected pollen sample and the amplicons were then decoded using the Flongle sequencer adapter from Oxford Nanopore Technologies. It is shown that the main pollinator resources at the different sites can be identified in percentage proportions. The protocol generated in this study can be used for further ecological questions.
Cryptorchidism describes a disease, in which one or both testes do not descend into the scrotum properly. With a prevalence of up to 10%, cryptorchidism is one of the most common birth defects of the male genital tract. Despite its associated health risks and accompanying economic damage, resulting from surgery and losses in breeding, studies on canine cryptorchidism and its causes are relatively rare. In this study a relational database for genetic causes of cryptorchidism was established and used as a basis for the identification of candidate genes. Associated regions were analysed by nanopore sequencing with the goal to identify genetic variants correlated with cryptorchidism in German Sheep Poodle.
Ziel dieser Arbeit ist die Entwicklung eines Modells, das über einen mehrstufigen Angriffsprozess das Passwort eines spezifischen Benutzers unabhängig von der Stärke des Passworts rekonstruiert. Der Fokus des Modells liegt auf dem benutzerspezifischen Angriff und dessen Präprozessor. Dieser soll unter Berücksichtigung der bisherigen Design- und Konstruktionsprinzipien des Benutzers sowie unter Einbeziehung seiner persönlichen Informationen die wahrscheinlichsten Passwort-Kandidaten generieren.
Diese Arbeit untersucht die Integration einer dezentralen autonomen Organisation (DAO) in eine bestehende Lernplattform. Dabei werden mögliche Schnittpunkte zwischen den beiden Konzepten gesucht und deren Potenziale und Herausforderungen analysiert. Zunächst werden die theoretischen Grundlagen von Blockchain-Technologie, DAO und Lernplattformen vorgestellt. Darauf basierend werden die Prozesse auf einer Lernplattform auf eine mögliche Integration einer DAO untersucht. Besonderer Fokus liegt dabei auf den Prozessen Bezahlung und Bewertung. Es stellt sich heraus, dass der Reviewprozess zum einen mehr Überschneidungspunkte hat und zum anderen viele weitere Prozesse auf diesen aufbauen. Im Hauptteil der Arbeit wird daher ein Konzept für die Integration einer DAO im Bewertungsprozess entwickelt und erste Grundlagen für eine Umsetzung gelegt. Dabei werden verschiedene Ansätze, die sich auch aus den Fallstudien ergeben, betrachtet und verglichen, um den Anforderungen der Lernplattform und der Blockchain gerecht zu werden. Die Arbeit zeigt die Potenziale einer DAO in einer Lernplattform auf, wie bspw. transparenten Reviewprozess für neue Inhalte. Gleichzeitig werden mögliche Herausforderungen bei der Integration identifiziert und geeignete Lösungsansätze entwickelt. Ein Ausblick auf zukünftige Entwicklungen beinhaltet den Einsatz von Künstlicher Intelligenz bei der Entwicklung von Lerninhalten und die weitere Integration der DAO in die Lernplattform.
Im Prozess der Masterarbeit und des vorangegangenen Forschungsmoduls wurden drei verschiedenartige Anbieter*innen von Escape Spielen untersucht. Zu diesem Zweck wurden Vor-Umfragen eingeholt, um Informationen über populäre und bekannt Reihen dieser Art zu erkennen. Aufbauend auf diesen Fragebögen wurden anschließend drei Anbieter*innen gewählt, welche eine möglichst unterschiedliche Herangehensweise an die Umsetzung eines Escape-Raumes mit minimalistischen Mitteln haben. Nachdem diese ausgemacht wurden, konnten die Proband*innen-Gruppen eingeteilt werden, um, basierend auf diesen Konstellationen, verschiedene Boxen der Herausgeber einer Reihe auszuwählen. Auch bei diesen lag ein besonderer Schwerpunkt auf der Vergleichbarkeit, wodurch auf mögliche Zusammenhänge der Storylines geachtet wurde. Um die folgende Testphase planen zu können, musste jede der vierzehn Ausgaben zunächst selbst getestet und analysiert werden. Hierzu wurden alle Rätsel versucht zu lösen und zu verstehen, um den Kern der Aufgabenstellung erfassen zu können. Zudem wurde ein Zusammenhang zwischen den Karten in Form von Ablauf-Diagrammen ermittelt, wobei festgestellt werden konnte, dass mit zunehmender, ausgeschriebener Schwierigkeit diese breiter werden. Das bedeutet, dass zu Rätseln, welche als schwerer markiert waren, mehr Karten gegeben wurden. Eine der Herausforderungen lag darin, die benötigten Karten auszumachen. Da diese Methodik jedoch nicht zwingend mit der Art der Rätsel und den Hindernissen diese zu Lösen verknüpft ist, sondern als unterstützendes Element angesehen werden kann, wurde sie in der vorliegenden Arbeit nicht berücksichtigt. Nachfolgend konnten aufgrund der gewonnenen Erkenntnisse Fragebögen erstellt werden, welche sowohl allgemein auf die gesamte Box, als auch speziell auf die einzelnen Rätsel eingehen. Hierbei wurden klare Ziele gesteckt, welche Informationen erhoben werden sollten. Anhand dieser Strukturierung war es möglich eine umfassende Sammlung an sehr verschiedenartigen Fragen zu erstellen, wodurch im Verlauf der Tests eine Vielzahl an Informationen gewonnen werden konnte. Zusätzlich zu dieser Erhebung wurden Videodateien während des laufenden Tests erstellt, welche eine detailliertere und unabhängigere Betrachtung der Proband*innen ermöglichen. Nachdem diese Datenerhebungsphase abgeschlossen werden konnte, also alle Boxen verwendet wurden, begann die Vorverarbeitung der Daten. Hierzu wurden zunächst die Videodateien gesichtet und strukturiert und die Fragebögen in eine einheitliche Form gebracht. Es lagen nach dieser Phase strukturierte Videodateien vor, welche den gesamten Prozess des Lösens abbildeten, aber auch Dateien zu den einzelnen, definierten Rätseln. Diese einzelnen Rätsel wurden weitergehend kategorisiert und in ein vergleichbares Schema eingeordnet. Diese einzelnen Rätselvideos konnten zudem durch einen Algorithmus verarbeitet werden, welcher die unterschiedlichen Gesichter der Proband*innen erfassen, analysieren und in sieben Emotionen unterteilen kann. Aus diesem Verarbeitungsschritt entstanden zu jedem Rätsel drei CSV Dateien, welche diese Wahrscheinlichkeiten in Abhängigkeit des aktuellen Bildes wiedergeben. In Bezug auf die Fragebögen wurden Tabellenstrukturen erreicht, welche die unterschiedlichen Arten und Teile dieser in einer einheitlichen Struktur wiedergeben. Nach diesem Schritt war es möglich die Daten auf eine sinnvolle Weise zu kombinieren und aus diesen Rückschlüsse auf Korrelationen zu ziehen. Auch eine Analyse mit umfangreicheren Anwendungen, wie „Rapid Miner“ sind denkbar, jedoch haben die beschriebenen Methoden für die anvisierten Fragestellungen genügt. Auch andere Hypothesenuntersuchungen können aufgrund der aufgearbeiteten Daten erreicht werden, da sicherlich noch andere Zusammenhänge in dieser Masse an Informationen stecken. Jedoch wurde mit dieser Aufnahme und diesen Auswertungen die Fragestellungen beantwortet, welche am Anfang des Praxismoduls aufgekommen waren
Ein Maus-Infektionsmodell wurde genutzt um neutralisierende Antikörper gegen SARS-CoV-2 zu untersuchen. Nach Beendigung des Infektionsexperimentes wurden Lungen- und Gehirnpräparate fixiert und histologische Färbungen des SARS-CoV-2 Nukleokapsids und von Zellen der angeborenen Immunantwort vorgenommen. Der Nachweis von humanem ACE2 wurde untersucht und in Organhomogenaten bestätigt. Ein Bewertungsschema zur Validierung eingesetzter neutralisierender Antikörper wurde mit einer vergleichenden Hämatoxylin und Eosin Färbung erstellt und interpretiert.
Genetic sequence variations at the level of gene promoters influence the binding of transcription factors. In plants, this often leads to differential gene expression across natural accessions and crop cultivars. Some of these differences are propagated through molecular networks and lead to macroscopic phenotypes. However, the link between promoter sequence variation and the variation of its activity is not yet well understood. In this project, we use the power of deep learning in 728 genotypes of Arabidopsis thaliana to shed light on some aspects of that link. Convolutional neural networks were successfully implemented to predict the likelihood of a gene being expressed from its promoter sequence. These networks were also capable of highlighting known and putative new sequence motifs causal for the expression of genes. We tested our algorithms in various scenarios, including single and multiple point mutations, as well as indels on synthetic and real promoter sequences and the respective performance characteristics of the algorithm have been estimated. Finally, we showed that the decision boundary to classify genes as expressed and non-expressed depends on the sensitivity of the transcriptome profiling assay and changing it has an impact on the algorithm’s performance.
Pollinating insects are of vital importance for the ecosystem and their drastic decline imposes severe consequences for the environment and humankind. The comprehension of their interaction networks is the first step in order to preserve these highly complex systems. For that purpose, the following study describes a protocol for the investigation of honey bee pollen samples from different agro-environmental areas by DNA extraction, PCR amplification and nanopore sequencing of the barcode regions rbcL and ITS. It was shown, that the most abundant species were classified consistently by both DNA barcodes, while species richness was enhanced by single-barcode detection of less abundant species. The analysis of the the different landscape variables exhibited a decline of species richness, Shannon diversity index, and species evenness with increasing organic crop area. However, sampling was only carried out in August and further investigations are suggested to display a more complete picture of honey bee foraging throughout the seasons.
Recently a deep neural network architecture designed to work on graph- structured data have been capturing notice as well as getting implemented in various domains and application. However, learning representation (feature embedding) from graphical data picking pace in research and constructing graph(s) from dataset remains a challenge. The ability to map the data to lower dimensions further makes the task easier while providing comfort in applying many operations. Graph neural network (GNN) is one of the novel neural network models that is catching attention as it is outperforming in various applications like recommender systems, social networks, chemical synthesis, and many more. This thesis discusses a unique approach for a fundamental task on graphs; node classification. The feature embedding for a node is aggregated by applying a Recurrent neural network (RNN), then a GNN model is trained to classify a node with the help of aggregated features and Q learning supports in optimizing the shape of neural networks. This thesis starts with the working principles of the Feedforward neural network, recurrent units like simple RNN, Long short-term memory (LSTM), and Gated recurrent unit (GRU), followed by concepts of Reinforcement learning (RL) and the Q learning algorithm. An overview of the fundamentals of graphs, followed by the GNN architecture and workflow, is discussed subsequently. Some basic GNN models are discussed in brief later before it approaches the technical implementation details, the output of the model, and a comparison with a few other models such as GraphSage and Graph attention network (GAN).
Immer häufiger greifen technikbegeisterte Personen zu Smart-Home Geräten für ihre eigenen vier Wänden. Durch diese Geräte, kann der Weg zur Tür abgenommen oder die Bestellung über eine Onlineplattform erleichtert werden. Der Nutzen dieser meist kleinen aber durchdachten komplexen Maschinen ist enorm. Um der Schnelllebigkeit entgegen zu wirken, werden immer kreativere Wege gesucht. IoT-Geräte ermöglichen das Ersetzen der lokalen Einstellung am Gerät selbst. Bspw. kann so die Heizungssteuerung auf dem Heimweg vorgenommen werden. Dadurch spielt eine klare Sicherheitsdefinition für den Umgang mit persönlichen Daten eine größer werdende Rolle. Hierbei stellt sich die Frage, wie anfällig solche Anlagen sind. Das Kernstück dieser Arbeit wird sich mit der Feststellung von möglichen Schwachstellen in Innogy Smart-Home-Geräten beschäftigen. Insbesondere werden Endgeräte untersucht, welche bereits Einzug in den Alltag gefunden haben. Ansätze der Informationssicherheit und der digitalen Forensik werden in realitätsnahen Szenarien aufgezeigt und analysiert. Es werden Richtlinien des Bundesamtes für Sicherheit in der Informationstechnik und gesetzliche Vorgaben berücksichtigt. Teile des Sicherheitskonzeptes werden transparent dargestellt.
Identity-Wallets für Android : Datensicherheit und Entwicklung eines Flutter-basierten Prototypen
(2022)
Das Modell der Selbst-Souveränen digitalen Identität (SSI) ist ein seit 2015 diskutiertes und entwickeltes Konzept zum Identitätsmanagement, das dem Nutzer die volle Kontrolle über seine digitale Identität verspricht. Um dies gewährleisten zu können, müssen u.a. Anwendungen, zumeist Apps für mobile Betriebssysteme entwickelt werden, die dem Nutzer dies ermöglichen. Diese Arbeit untersucht mit esatus Wallet, Lissi Wallet, ID-Wallet, Connect.Me und Jolocom SmartWallet fünf bereits bestehende Wallet-Anwendungen für das Betriebssystem Android hinsichtlich ihrer Datensicherheit. Als Grundlage für die Sicherheitsbewertung dient der Mobile Application Security Verification Standard (MASVS) des gemeinnützigen Open Web Application Projects (OWASP). Dabei wurden bei allen Apps, vor allem Connect.Me, Mängel festgestellt. Diese beziehen sich vornehmlich auf die zum Teil fehlende Verschlüsselung von Daten aber auch auf den Umgang mit zur Verschlüsselung verwendeten Passwörtern. Weiterhin wird gezeigt wie mittels dem Framework Flutter eine nach Stand der Technik sichere Wallet-Anwendung entwickelt werden kann.
Classification label security determines the extent to which predicted labels from classification results can be trusted. The uncertainty surrounding classification labels is resolved by the security to which the classification is made. Therefore, classification label security is very significant for decision-making whenever we are encountered with a classification task. This thesis investigates the determination of the classification label security by utilizing fuzzy probabilistic assignments of Fuzzy c-means. The investigation is accompanied by implementation, experimentation, visualization and documentation of the results.
Large bone defects are a major clinical problem affecting elderly disproportionally, particularly indeveloped countries where this population is the fastest growing. Current treatments include autologous and allogenous bone grafts, bone elongation with the Ilizarov technique, bone graft substitutes, and electrical stimulation. Each of these approaches enjoys varying degrees of success, however, each also has its associated problems and complications. A new, still experimental, treatment is Tissue Engineering that combines scaffolds, osteogenic stem cells and growth factors, and is showing encouraging early results in preclinical and initial clinical studies.
Electrical stimulation has been shown to enhance bone healing by promoting mesenchymal stem cell migration, proliferation, and differentiation. In the present study we combine Tissue Engineering with Electrical Stimulation and hypothesize that this combined approach will have a synergistic effect resulting in enhanced new bone formation. In our in vitro experiments we observed that the levels of electrical stimulation we tested had no cytotoxic effect, instead increased osteogenic differentiation, as determined by enhanced expression of the osteogenic marker, Alkaline Phosphatase. These findings support our hypothesis by demonstrating that in the tissue-engineering environment electrical stimulation promotes bone formation. The bioinformatics part of this project consisted of gene network analysis, identification of the top 10 osteogenic markers and analyzis of genegene interactions. We observed that in studies of stem cells from both human and rat the genes, BMPR1A, BMP5, TGFßR1, SMAD4, SMAD2, BMP4, BMP7, RUNX3, and CDKN1A, are associated with osteogenesis and interact with each other. We observed a total of 31 interactions for human and 29 interactions for rat stem cells. While this approach needs to be proven experimentally, we believed that these in vitro and in silico analyses could compliment each other and in doing so contribute to the field of bone healing research.
In dieser Masterarbeit werden sichere steganografische sowie kryptografische Methoden vorgestellt, erläutert, untersucht und innerhalb eines eigens entwickelten Software-Prototypen mit intuitiver Benutzerschnittstelle kombiniert. Noch immer werden Menschenrechtsverteidigende in totalitären Systemen und anderen Krisengebieten systematisch verfolgt, inhaftiert, gefoltert oder sogar exekutiert, weil ihre digital gespeicherten Daten eine antitotalitäre und investigative Tätigkeit beweisen. Die in dieser Arbeit gesammelten Erkenntnisse sowie der darauf basierende Prototyp sollen zu einem besseren Schutz dieser Menschen beitragen.
In this thesis, we focus on using machine learning to automate manual or rule-based processes for the deduplication task of the data integration process in an enterprise customer experience program. We study the underlying theoretical foundations of the most widely used machine learning algorithms, including logistic regression, random forests, extreme gradient boosting trees, support vector machines, and generalized matrix learning vector quantization. We then apply those algorithms to a real, private data set and use standard evaluation metrics for classification, such as confusion matrix, precision, and recall, area under the precision-recall curve, and area under the Receiver Operating Characteristic curve to compare their performances and results.
Assessment of COI and 16S for insect species identification ti determine the diet of city bats
(2023)
Despite the numerous benefits of urbanization to human living conditions, urbanization has also negatively affected humans, their environment, and other organisms that share urban habitats with humans. Undoubtedly adverse while some wild animals avoid living in urban areas, others are more tolerant or prefer life in urban habitats. There are more than 1,400 species of bats in the world.
Therefore, they have the potential to contribute significantly to the mammalian biodiversity in urban areas. Insectivorous bats species play a key role in agriculture by improving yields and reducing chemical pesticide costs. Using metabarcoding, it is possible to determine the prey consumed by these noctule mammals based on the DNA fragments in their fecal pellets. This study
aimed to evaluate COI and 16S metabarcodes for insect species identification to determine the diet of metropolitan bats. For this purpose, COI and 16S metabarcodes were extracted, amplified, and sequenced from 65 bat feces collected in the Berlin metropolitan areas. Following a taxonomic annotation, I found that 73% of all identified insects could only be detected using the COI method, while 15% could be recovered using the 16S approach. Just 12% of all detected insects were identified simultaneously by both markers. According to this result, COI is more suitable for the taxonomic identification of insects from bat feces. However, given the bias of COI primers, it is recommended to use both markers for a more precise estimation of species diversity. Additionally,based on the insect species identified, I noticed that urban bats fed mainly on Diptera, Coleoptera,and Lepidoptera. The bat species Nyctalus noctula was most abundant in the samples. His diet analysis revealed that 91% of the samples contained the insect species Chironomus plumosus. 14 pest insect species were also found in his diet.
Private Blockchain-Netzwerke können von Unternehmen für die Integritätssicherung von Produktionsdaten verwendet werden. Die Hochschule Mittweide entwickelt im Rahmen des Forschungsprojektes safe-UR-chain ein derartiges Blockchain-Netzwerk. Teil dieser Entwicklung ist die Auswahl und Optimierung eines Konsensverfahrens für das Netzwerk. Für diese Aufgabe fehlt es momentan an einem System, das den Vergleich von Konsensverfahren anhand ihrer Leistungsmetriken ermöglicht. Diese Arbeit befasst sich mit der Entwicklung eines derartigen Systems sowie der Implementierung dreier Konsensverfahren, die anhand ihrer vom System erfassten Leistungsmetriken verglichen werden.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
Data streams change their statistical behaviour over the time. These changes can occur gradually or abruptly with unforeseen reasons, which may effect the expected outcome. Thus it is important to detect concept drift as soon as it occurs. In this thesis we chose distance based methodology to detect presence of concept drift in the data streams. We used generalized learning vector quantization(GLVQ) and generalized matrix learning vector quantization( GMLVQ) classifiers for distance calculation between prototypes and data points. Chi-square and Kolmogorov–Smirnov tests are used to compare the distance distributions of test and train data sets to indicate the drift presence.
In the past few years Generative models have become an interesting topic in the field of Machine Learning (ML). Variational Autoencoder (VAE) is one of the popular frameworks of generative models based on the work of D.P Kingma and M. Welling [6] [7]. As an alternative to VAE the authors in [12] proposed and implemented Information Theoretic Learning (ITL) based Autoencoder. VAE and ITL Autoencoder are a combination of the neural networks and probabilistic graphical models (PGM) [7]. In modern statistics it is difficult to compute the approximation ofthe probability densities. In this paper we make use of Variational Inference (VI) technique from machine learning that approximate the distributions through optimization. The closeness between the distributions are measured by the information theoretic divergence measures such as Kullbach-Liebler, Euclidean and Cauchy Schwarz divergences. In this thesis, we study theoretical and experimental results of two different frameworks of generative models which generate images of MNIST handwritten characters [8] and Yale face database B [3]. The results obtained show that the proposed VAE and ITL Autoencoder are capable of generating the underlying structure of the example datasets
Neue Versionen einer Programmiersprache eröffnen neue Möglichkeiten, komplexe Zusammenhänge auszudrücken. So ermöglichte auch C++20 in dem dieser Arbeit vorausgegangenen Forschungsmodul eine Alternative zu Vererbung mit virtuellen Funktionen, welche sich in Microbenchmarks als performanter erwies. Eine Messung in einem vollwertigen Software-Projekt erfordert jedoch zunächst eine Modernisierung dessen. So ist u.a. die 3D-Engine OGRE lediglich auf dem Stand von C++11. Es stellt sich die Frage, ob der Arbeitsaufwand und die Risiken, die mit einer Modernisierung und anschließender Umsetzung der Alternative verbunden sind, letztlich zu rechtfertigen wären. Zumindest für den ersten Schritt kann dies auch unabhängig vom zweiten bestimmt werden. Detaillierte Beschreibungen und Microbenchmarks zu neuen Features können zwar oft gefunden werden, jedoch sind die exakten Hindernisse im konkreten Fall schwer einzuschätzen und die tatsächlichen Vorteile für ein vollwertiges Software-Projekt sind aus bloßen Microbenchmarks nicht direkt abzuleiten. Die vorliegende Arbeit beschreibt die mit der Umsetzung neuer Features verbundenen Hindernisse in der 3D-Engine OGRE. Anhand inkrementeller Messungen wird schließlich entschieden, welche Modernisierungen an und für sich lohnenswert sind und von welchen abzuraten ist.
Spektroskopische Featuredetektion
zur Altersbestimmung von Humanblutproben
im Labor und am Tatort
(2019)
In der Forensik sind Blutspurenanalysen ein wichtiges Mittel der Tatortermittlung.
Aus diesem Grund wäre die Altersbestimmung von Blut ein guter Ansatz, um die Aufklärungsrate noch zu verbessern.
In dieser Arbeit mit Fokus auf Grundlagenforschung wurden durch spektrophotometrische Analysen und statistischer Auswertung zwei große Komplexe untersucht. Vergleichende Analysen von Schweineblut mit Humanblut wurden durchgeführt und geprüft, ob sie in ihren Ergebnissen vergleichbar sind. So sollten Rückschlüsse auf die Übersetzung bereits vorhandener Studien mit Schweineblut ermöglicht werden, um die Eignung als Humanblutersatz zu diskutieren. Weiterhin wurde durch Vergleich der Absorptionsspektren über Zeit ermittelt, wie stark und auf welche Weise die Zugabe von Gerinnungshemmern wie Citrat Einfluss auf den Prozess der Blutalterung nimmt.
In einem zweiten Komplex wurde versucht, eine auf Spektro-Photometrie basierende statistische Methode zu etablieren, die den Prozess der Blutalterung nachvollziehen und mit möglichst geringen Abweichungen vorhersagen kann.
Dies sollte potentiell die Bestimmung des Alters einer Blutprobe ermöglichen. Im Zuge dessen wurden eine Hypothese zu den ex vivo ablaufenden chemischen Prozessen der Blutalterung erörtert und anhand der Spektraldaten diskutiert.
Charakterisiert wurde dies über die messbaren Anteile der Hämoglobin-Derivate im UV-Vis-Spektrum einer Vollblutprobe
Soft Learning Vector Quantisation (SLVQ) andRobust Soft Learning Vector Quantisation (RSLVQ) are supervised data classification methods, that have been applied successfully to real world classification problems. The performance of SLVQ and RSLVQ, however, reduces, when they are applied tomore complicated classification problems. In this thesis, we have introducedmodi-fications to SLVQand RSLVQ, in order to havemore capable versions of them. A few possibilities to modify SLVQ and RSLVQ are considered, some of them are not successful enough and they have been included for the sake of completeness. The fruits of the thesis are plenty, including Tangent Soft Learning Vector Quantisation-Strong (TSLVQ-S), together with its more stable version Tangent Robust Soft Learning Vector Quantisation-Strong (TRSLVQ-S), Attraction Soft Learning Vector Quantisation (ASLVQ) and Grassmannian Soft Learning Vector Quantisation (GSLVQ).
Classification of time series has received an important amount of interest over the past years due to many real-life applications, such as environmental modeling, speech recognition, and computer vision.
In my thesis, I focus on classification of time series by LVQ classifiers. To learn a classifiers, we need a training set. In our case, every data point in the training set contains a sequence (an ordered set) of feature vectors. Thus, the first task is to construct a new feature vector (or matrix) for each sequence.
Inspired by [2], I use Hankel matrices to construct the new feature vectors. This choice comes from a basic assumption that each time series is generated by a single or a set of unknown Linear Time Invariant (LTI) systems.
After generating new feature vectors by Hankel matrices, I use two approaches to learn a classifier: Generalized Learning Vector Quntization (GLVQ) and Median variant of Generalized Learning Vector Quantization (mGLVQ).
Convolutional Neural network (CNN) has been one of most powerful and popular preprocessing techniques employed for image classification problems. Here, we use other signal processing techniques like Fourier transform and wavelet transform to preprocess the images in conjunction with different classifiers like MLP, LVQ, GLVQ and GMLVQ and compare its performance with CNN.
Die folgende Arbeit behandelt die Methoden digitaler Bildmanipulationen sowie die Erkennung solcher Manipulationen anhand etablierter Detektionsverfahren. Das Hauptaugenmerk liegt dabei auf der Planung und Implementierung einer Software zur automatisierten Detektion duplizierter Regionen innerhalb eines digitalen Bildes. Anschließend an diese Implementierung folgt eine detaillierte Auswertung der Detektionsergebnisse sowie eine Bewertung der Qualität der Software gegenüber bestehenden Verfahren.
Die hier vorliegende Arbeit beschäftigt sich mit den methodischen Abläufen des Kriminalitätsphänomens Caller ID Spoofing, dessen technische Hintergründe, sowie der Detektion und den sich daraus ergebenden Maßnahmen der Abwehr seitens der Betroffenen. Dabei soll im theoretischen Teil sowohl auf das Phänomen des Caller ID Spoofing an sich und dessen Einordnung in den Deliktbereich Cybercrime als auch auf die technischen Hintergründe bei der Verschleierung der eigenen Telefon-Identität eingegangen werden. Des Weiteren wird der Faktor Mensch als Schwachstelle von IT-Systemen beleuchtet. Der methodische Teil der Arbeit legt den Fokus auf die Entwicklung effektiver Lösungen zur Erkennung und Abwehr von Caller ID Spoofing, sowohl aus technischer als auch aus soziologischer Sicht. Während für ersteres bereits eine Vielzahl von wissenschaftlichen Ansätzen existieren, soll sich bei zweiteren auf den Begriff der Security Awareness konzentriert werden.
DID-Methoden, Wallets, Agents und Verifiable-Credentials sind grundlegende Begriffe im Kontext von Self-Sovereign-Identity (SSI) und stellvertretend für neuartige Methoden der Identitätsverwaltung im Internet. Es werden gegenwärtig Entwürfe von Standards und Spezifikationen unterschiedlicher Gruppen und Gremien forciert, die dem Paradigma von SSI gerecht werden wollen. Aus der Vielzahl technologischer Ansätze, die bereits entstanden sind, werden einige wichtige näher betrachtet und hinsichtlich ihrer Interoperabilität untersucht. Ausganspunkt ist dabei der Trust-over-IP-Stack, wie er von gleichnamiger Organisation (Trust-over-IP-Foundation) vorangetrieben wird. Dabei spielen weitere Normungsgremien eine Rolle, wie z. B. die Decentralized-Identity-Foundation (DIF) oder das World-Wide-Web-Consortium (W3C). Gegenstand der Untersuchung ist der aktuelle Stand der Technik und dessen Implikationen hinsichtlich ihrer Interoperabilität, Portabilität sowie dem angestrebten Ziel der Dezentralisierung. Dabei stehen insbesondere die beiden Entwürfe zu den Standards der Decentralized-Identifiers und des Verifiable-Credentials-Data-Models im Mittelpunkt. Es werden aber auch weitere Spezifikationen betrachtet, die diese ergänzen und für derartige Identitätsverwaltungssysteme von Bedeutung sind.
Eine empirische Analyse von 19 DAO-Airdrops im Hinblick auf die Governance-Aktivität der Empfänger: Airdrops sind ein bekannter Incentive-Mechanismus bei Blockchain-Protokollen. In den letzten Jahren haben vor allem DAOs „retroaktive“ Airdrops für sich entdeckt, die frühe Nutzer eines Protokolls entlohnen. Diese Art der Verteilung von Token gilt allerdings auch als ein möglicher Lösungsansatz für Zentralisierung bzw. mangelnde Voting-Beteiligung in DAOs. Thema der Arbeit ist daher, welchen Effekt Airdrops auf die Governance-Aktivität in DAOs haben. Zu diesem Zweck wurden 19 DAOs empirisch untersucht. Wir vergleichen die Voting-Beteiligung der Airdrop-Empfänger auf Snapshot bzw. on-chain mit dem der Gesamtheit der Token-Halter. Außerdem wird die Verteilung der Airdrops, die Halte-Dauer und der Delegations-Anteil betrachtet. Wir stellen fest, dass die Beteiligung der Airdrop-Empfänger im Durchschnitt etwas höher ist als die von nicht-Airdrop-Empfängern. Ob Airdrops sich als Governance-Instrument eignen, ist allerdings im Einzelfall zu betrachten.
In dieser Arbeit werden drei Modelle entworfen und verglichen, mit welchen Meinungsführer in einem Twitter-Netzwerk erkannt werden können. Dazu wird ein Datensatz mit 600.000 Tweets von 100.000 Twitter-Nutzern von April bis Juni 2021 ausgewertet. Zur Bestimmung des Einflusses eines Nutzers werden sowohl topologische Informationen des Netzwerkes als auch Reaktionen auf einzelne Tweets einbezogen. Anschließend werden Korrelationen zwischen dem Grad der Meinungsführerschaft und der Toxizität der Tweets untersucht. Dafür wurde eine Recherche zu Software zur Analyse von Graphen durchgeführt und Neo4j als passendes Werkzeug ausgewählt. Es konnte gezeigt werden, dass der ArticleRank als Zentralitätsalgorithmus geeignet ist, Meinungsführer zu erkennen. Meinungsführer sind weniger toxisch als andere Nutzer, allerdings ist dies nur ein schwacher Indikator. Durch die Modellierung der Häufigkeit, wie oft Nutzer interagieren, können verschiedene Fragen beantwortet werden. Durch diesen Algorithmus können Konzepte der Kommunikationswissenschaft in Bezug auf Meinungsführer in sozialen Netzwerken nachgeweisen werden.
In response to prevailing environmental conditions, Arabidopsis thaliana plants must increase their photosynthetic capacity to acclimate to potential harmful environmental high light stress. In order to measure these changes in acclimation capacity, different high throughput imaging-based methods can be used. In this master thesis we studied different Arabidopsis thaliana knockout mutants-and accessions in their capacity to acclimate to potential harmful environmental high light and cold temperature conditions using a high throughput phenotyping system with an integrated chlorophyll fluorescence measurement system. In order to determine the acclimation capacity, Arabidopsis thaliana knockout mutants of previously not high light assigned genes as well as accessions of two different haplotype groups with a reference and alternative allele from different countries of origin were grown under switching high light and temperature environmental conditions. Photosynthetic analysis showed that knockout mutant plants did differ in their Photosystem II operating efficiency during an increased light irradiance switch but did not significantly differ a week later under the same circumstances from the wildtype. High throughput phenotyping of haplotype accessions revealed significant better acclimation capacity in non-photochemical quenching and steady-state photosynthetic efficiency in Russian domiciled accessions with an altered SPPA gene during high light and cold stress.
Mathematics Behind the Zcash
(2020)
Among all the new developed cryptocurrencies from Bitcoin, Zcash comes out to be the strongest cryptocurrency providing both transparency and anonymity to the transactions and its users by deploying the strong mathematics of zk-SNARKs.
We discussed the zero knowledge proofs which is a basic building block for providing the functionality to zk-SNARKs. It offers schnorr and sigma protocols with interactive and noninteractive versions. Non-interactive proofs are further used in Zcash transactions where the validation of sent transaction is proved by cryptographic proof.
Further, we deploy zk-SNARKs proofs following common reference string as public parameter when transaction is made. The proof allows sender to prove that she knows a secret for an instance such that the proof is succinct, can be verified very efficiently and does not leak the
secret. Non-malleability, small proofs and very effective verification make zk-SNARKs a classic tool in Zcash. Since we deal with NP problems therefore we have considered the elliptic curve cryptography to provide the same security like RSA but with smaller parameter size.
Lastly, we explain Zcash transaction process after minting the coin, the corresponding transaction completely hides the sender, receiver and amount of transaction using zero knowledge proof.
As future considerations, we talk about the improvements that can be done in term of decentralization, efficiency by comparing with top ranked cryptocurrencies namely Ethereum and Monero, privacy preserving against the thread of quantum computers and enhancements in shielded transactions.
In machine learning, Learning Vector Quantization (LVQ) is well known as supervised vector quantization. LVQ has been studied to generate optimal reference vectors because of its simple and fast learning algorithm [2]. In many tasks of classification, different variants are considered while training a model and a consideration of variants of large margin in LVQ helps to get significant
results [20]. Large margin LVQ (LMLVQ) is to maximize the distance between decision hyperplane and data points. In this thesis, a comparison of different variants of Generalized Learning Vector Quantization (GLVQ) and Large margin in LVQ is proposed along with visualization, implementation and experimental results.
Untersuchung der Themendynamik in sozialen Netzen am Beispiel deutschsprachiger Texte auf Twitter
(2021)
Die vorliegende wissenschaftliche Abschlussarbeit behandelt die Untersuchung von Themenentwicklungen in deutschsprachigen Texten. Dazu wurden Twitterdaten von Bundestagsparteien analysiert. Über verschiedene Vorverarbeitungsschritte wurde eine LDA an das Problem angepasst. Mittels verschiedener Distanz- und Ähnlichkeitsmaße wurde eine Beschreibung der Themendynamik durchgeführt. Weiterhin wurden verschiedene Rahmenbedingungen erprobt, die zu einer Verbesserung der Ergebnisse führten.
In der vorliegenden Masterarbeit werden Daten der Kriminalstatistik Berlins in Bezug auf die Entwicklung erfasster Straftaten statistisch analysiert und hinsichtlich kausaler Zusammenhänge ausgewertet. Der Hauptaspekt der Arbeit bildet ein neuer Modellierungsansatz für den Bereich des Predictive Policing, welcher sich auf Erkenntnissen über Bayesian Belief Networks stützt. Durch die präsentierten Ansätze soll die grundsätzliche Anwendbarkeit von gerichteten Graphen für die Problemstellungen des Predictive Policing aufgezeigt werden, da diese aufgrund ihres Potenzials in der Abbildung von Informationsflüssen sowie Eigenschaften der Inferenz zukünftig neue Möglichkeiten in der Modellierung der Ausbreitung von Kriminalität bieten können.
Bei Hodenhochstand, auch Kryptorchismus genannt, handelt es sich um eine der am häufigs- ten auftretenden Störungen der Geschlechtsentwicklung bei Hunden. Die Ursachen für diese Krankheit sind bisher unklar. Es wird davon ausgegangen, dass es multifaktorielle Auslöser gibt. Um den genetischen Hintergrund dieser Krankheit bei der Rasse Altdeutscher Schafpudel zu betrachten, wurden in dieser Studie ausgewählte Hunde einer Zucht untersucht. In diesem Zusammenhang wurde eine Visualisierung der Verwandtschaftsverhältnisse einer vorangegangenen Studie um die untersuchten Individuen ergänzt. Die Nanoporensequenzierungen wurde für die Analyse von sechs Genloci genutzt. Diese Sequenzdaten wurden anschließend auf Sequenz- und Strukturvarianten untersucht. Diese Arbeit vergleicht die Resultate mit vorausgegangenen Untersuchungen, um einen Zusammenhang zwischen Kryptorchismus und einer detektierbaren genetischen Veränderung zu ermitteln.
Over the past few years, wind and solar power plants have increasingly contributed to energy production. However, due to fluctuating energy sources, the energy production data contain disruption. Such disrupted data lead to the wrong prediction performance, and they need to be estimated by other values. In this thesis, we provide a comparative study to estimate the online disrupted data based on the data of similar groups of power plants, We apply three estimation techniques, e.g., mean, interpolation, and k-nearest neighbor to estimate the disruption on training data. We then apply four clustering algorithms, e.g., k-means, neural gas, hierarchical agglomerative, and affinity propagation, with two similarity measures, e.g., euclidean and dynamic time warping to form groups of power plants and compare the results. Experimental results show that when KNN estimation is applied to data, and neural gas and agglomerative with dtw are used to cluster the data, the cluster quality scores and execution time give better results compared to others. Therefore, we conclude and choose KNN estimation to reconstruct the online disrupted data on each group of a similar power plants.
In der vorliegenden Masterarbeit wird der, im Jahr 2018 im Application Center Microcontroller entwickelte, forensische Demonstrator für das Controller Area Network (CAN) analysiert und auf Basis dessen ein Redesign konzipiert, entwickelt und getestet. Gemäß der in dieser Arbeit vermittelten Grundlagen zu aktuellen Bussystemen der Automobilindustrie und ihrer Datenübertragung, werden entsprechende CAN-Nachrichten implementiert und auf den CAN-Bus gesandt. Die Auswertung dieser Botschaften erfolgt durch die CAN-Analysesoftware BUSMASTER. Eine entsprechende Visualisierung der Daten wird durch die, für den BUSMASTER entwickelte, grafische Oberfläche realisiert.
Die Bedeutung der mobilen Geräte im Leben des modernen Menschen nimmt stetig zu, wodurch große Mengen persönlicher Daten abgelegt sind. Zusätzlich ist das Betriebssystem Android durch die weit verbreitete Nutzung und die quelloffene Struktur ein lohnendes Ziel für Angreifer, die schadhafte Software einsetzen. Die steigende Zahl an verschiedenen Formen und Ausprägungen machen eine sichere und zuverlässige Auswertung und Klassifikation von Malware notwendig, besonders dann, wenn es sich um unbekannte Proben handelt. Das Ziel dieser Arbeit liegt in der Realisierung einer ganzheitlichen Auswertekomponente, die in der Lage ist, gesicherte Informationen über das Verhalten und die Zielabsicht von Malware zu generieren und eine entsprechende Einordnung anhand der Funktionalität vorzunehmen. Dazu sind robuste Merkmale unterschiedlicher Kategorien vonnöten, die eine sichere Detektion und Klassifikation ermöglichen. Die Verknüpfung verschiedener Methoden des maschinellen Lernens etabliert eine vollumfängliche automatische Entscheidung. Die genannten Grundsätze sind in einem Programm realisiert, welches aus vier Modulen zusammengesetzt ist. Die Rohdaten der Analyseergebnisse werden eingelesen und zu angereicherten Charakteristika verarbeitet. Die Erkennung des verdächtigen Verhaltens erfolgt über den Abgleich mit gewichteten Merkmalen. Die im Fall einer eindeutigen Entscheidung für Schadhaftigkeit erfolgende Klassifikation nimmt eine charakterliche Einordnung der zugehörigen Applikation vor. Ein Abschlussbericht nutzt die im letzten Modul visualisierten Ergebnisse zur Aufbereitung der einzelnen Merkmale. Anhand der Erprobung des Programms durch einen Datensatz aus schadhaften Applikationen konnte die Funktion der Methodik nachgewiesen werden, Android-Applikationen zuverlässig nach ihrem Verhalten charakterisieren zu können.
Für die switchSENSE®-Technologie der Firma Dynamic Biosensors sollen DNAOrigami-Konstrukte gefaltet werden. Da der einzelsträngige M13mp18-Virus-DNAStrang zu lang für die benötigten DNA-Origami-Strukturen ist, sollen aus diesem kürzere Gerüststränge generiert werden. Dafür gibt es zwei Strategien: den DNAStrang durch passende Restriktionsenzyme spalten zu lassen oder einen einzelsträngigen DNA-Strang durch eine asymmetrische PCR amplifizieren zu lassen. Beide Strategien wurden ausgetestet und auf ihre Wirtschaftlichkeit hin verglichen.
As new sensors are added to VR headsets, more data can be collected. This introduces a new potential threat to user privacy. We focused on the feasibility of extracting personal information from eye-tracking. To achieve this, we designed a preliminary user study focusing on the pupil response to audio stimuli. We used a variation of machine learning models to test the collected data to determine the feasibility of obtaining information such as the age or gender of the participant. Several of the experiments show promise for obtaining this information. We were able to extract with reasonable certainty whether caffeine was consumed and the gender of the participant. This demonstrates the unknown threat that embedded sensors pose to users. A further studies are planned to verify the results.
In dieser Arbeit wurde der Einfluss des orphanen Kernrezeptors Peroxisom-Proliferatoraktivierte Rezeptor des Subtyps Gamma (PPARγ) auf die kardiale Differenzierung in vitro untersucht. Hierfür wurde die murinen embryonale Stammzelllinie CGR8 und das Modellsystems Embryoid Body verwendet. Zur Beantwortung der Fragestellung wurden einerseits pharmakologische Inkubationsexperimente mit spezifischen Agonisten sowie Antagonisten realisiert. Andererseits wurde das Differenzierungsverhalten vergleichend in einer PPARγ-Knockdown-Zelllinie betrachtet, welche durch eine stabile Herunterregulation des Rezeptorsubtyps gekennzeichnet ist.
Neural networks have become one of the most powerful algorithms when it comes to learning from big data sets and it is used extensively for classification. But the deeper the network models, the lesser is the interpretability of such models. Although many methods exist to explain
the output of such networks, the lack of interpretability makes them black boxes. On the other hand, prototype-based machine learning algorithms are known to be interpretable and robust.
Therefore, the aim of this thesis is to find a way to interpret the functioning of the neural networks by introducing a prototype layer to the neural network architecture. This prototype layer will train alongside the neural network and help us interpret the model. We present architectures of neural networks consisting of autoencoders and prototypes that perform activity recognition from heart rates extracted from ECG signals. These prototypes represent the different activity groups that the heart rates belong to and thereby aid in interpretability.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
In dieser Arbeit wurden Thermistorelektroden aus einer Kombination eines kalibrierten Heizwiderstandes (Pt100) und einer Goldelektrode entwickelt. Diese sollen thermodynamische Untersuchungen an elektroaktiven Mikroorganismen ermöglichen. Die Thermistorelektroden wurden in einen Doppelwandreaktor fixiert, der über einen Thermostaten temperiert wurde. Anschließend wurde dieser Reaktor auf sein Temperaturverhalten untersucht, indem über einen Heizdraht definierte Wärmepulse in das System geleitet wurden und die resultierenden Temperaturäderungen gemessen wurden. Daraufhin wurde das Systems validiert, indem die elektrochemische Peltier Wärme für das Redoxpaar K3[Fe(CN)6]/K4[Fe(CN)6] mit +28±1,5 𝑘𝐽𝑚𝑜𝑙 für die Reduktion und 31±3,8 𝑘𝐽𝑚𝑜𝑙 für die Oxidation ermittelt wurde. Außerdem wurde ein sekundärer Geobacter Anreicherungsbiofilm auf den Thermistorelektroden kultiviert. Durch die Methode TRFLP wurde dabei gezeigt, dass Geobacter die dominierende Spezies auf der Elektrode zu Beginn und zum Ende der Kultivierung darstellt. Zukünftig sollen die entwickelten Thermistorelektroden für thermodynamische Untersuchungen an elektroaktiven Mikroorganismen verwendet und die mikrobielle elektrochemische Peltier Wärme gemessen werden.
In dieser Masterarbeit wird sowohl säurelösliches Kollagen, als auch Gelatine als Ausgangsmaterial verwendet. Dieser Ausgangsstoff wird anschließend funktionalisiert und verschieden photovernetzt, um verschiedene nanomechanischen Eigenschaften zu generieren. Diese werden durch statische Rasterkraftspektroskopie untersucht. Das modifizierte Kollagen und Gelatine werden dann nach DIN auf ihre Zytotoxizität getestet. Nach erfolgreicher Überprüfung werden Zellversuche vorgenommen um die Zellantwort auf die unterschiedlichen mechanischen Eigenschaften untersucht. Zuletzt wird in Gelatine die Oberflächenmorphologie von Kollagen gestempelt und eine Veränderung der Zellantwort zu nicht gestempelter Gelatine überprüft.
Der technologische Fortschritt ermöglicht das Speichern von größeren Datenmengen. Dies hat zur Folge, dass Daten mehr Platz auf einem Datenträger einnehmen und die Wahrscheinlichkeit des Aufteilens einer Datei auf mehrere auf dem Datenträger verteilte Positionen steigt. Von dieser sogenannten Fragmentierung sind auch JPEG-Dateien betroffen, wobei sich die Frage stellt, wie ein Zusammensetzen der Fragmente ohne die notwendigen Informationen aus dem Dateisystem möglich ist.
Ziel dieser Masterarbeit ist es, eine prototypische Implementierung eines intelligenten Carving Algorithmus zur Rekonstruktion fragmentierter JPEG-Dateien zu entwickeln, welcher durch erzeugte Testszenarien evaluiert wird.
Um dieses Ziel zu erreichen, wird ein Programm erstellt, welches sich an dem Smart Carving-Prinzip orientiert und diverse Carving-Methoden einbezieht. Für die anschließende Beurteilung der Lauffähigkeit des Prototyps werden Szenarien zum Testen von Stärken und Schwächen entwickelt. Die Ergebnisse aus diesen werden durch eine Evaluationsstrategie bewertet.
Anhand der Ergebnisse wird deutlich, dass der entwickelte Prototyp noch viele Schwächen aufweist. Bei manchen Szenarien können vollständig korrekte Ergebnisse geliefert werden und die JPEG-Dateien rekonstruiert werden, bei anderen Szenarien sind die Ergebnisse unzureichend. Diese Ergebnisse und der Fakt, dass der Prototyp lediglich für kleine Datenmengen konzipiert und erprobt wurde, zeigen, dass ein Einsatz des Programms in einer realen Umgebung noch nicht möglich ist.
As the cryptocurrency ecosystem rapidly grows, interoperability has become increasingly crucial, enabling assets and data to interact seamlessly across multiple chains. This work describes the concept and implementation of a trustless connection between the Bitcoin Lightning Network and EVM-compatible blockchains, allowing the transfer of assets between the two ecosystems. Establishing such a connection can significantly contribute to the growth of both ecosystems as they can benefit from each other’s advantages and emerge new pos- sibilities.
Robust soft learning vector quantization (RSLVQ) is a probabilistic approach of Learning vector quantization (LVQ) algorithm. Basically, the RSLVQ approach describes its functionality with respect to Gaussian mixture model and its cost function is defined in terms of likelihood ratio. Our thesis work involves an approach of modifying standard RSLVQ with non-Gaussian density functions like logistic, lognormal, and Cauchy (referred as PLVQ). In this approach, we derive new update rules for prototypes using gradient of cost function with respect to non-Gaussian density functions. We also derive new learning rules for the model parameters like s and s, by differentiating the cost function with respect to parameters. The main goal of the thesis is to compare the performance results of PLVQ model with Gaussian-RSLVQ model. Therefore, the performance of these classification models have been tested on the Iris and Seeds dataset. To visualize the results of the classification models in an adequate way, the Principal component analysis (PCA) technique has been used.