Refine
Document Type
- Master's Thesis (180) (remove)
Year of publication
Keywords
- Maschinelles Lernen (27)
- Blockchain (13)
- Vektorquantisierung (8)
- Algorithmus (7)
- Computersicherheit (7)
- Deep learning (6)
- Kryptologie (5)
- Neuronales Netz (5)
- Virtuelle Währung (5)
- Bioinformatik (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (180) (remove)
Cancer is one of the main causes of death in developed countries, and cancer treatment heavily depends on successful early detection and diagnosis. Tumor biomarkers are helpful for early diagnose. The goal of this discovery method is to identify genetic variations as well as changes in gene expression or activity that can be linked to a typical cancer state.
First, several cancer gene signaling pathways were introduced and then combined. 27 candidate genes were selected, through the analysis of several data sets in the GEO database, a few expression difference matrices were established. Those candidate genes were tested in the matrices and found five genes PLA1A, MMP14, CCND1, BIRC5 and MYC that have the potential to be tumor biomarkers. Two of these genes have been further discussed, PLA1A is a potential biomarker for prostate cancer, and MMP14 can be considered as a biomarker for NSC lung cancer.
Finally, the significance of this study and the potential value of the two genes are discussed, and the future research in this direction is a prospect.
Standardsoftware wie Enterprise Resource Planning Systeme bieten eine ganzheitliche Unterstützung der Wertschöpfungsprozesse eines Anwenderunternehmens. Die darüber abgebildeten Geschäftsprozesse spiegeln im Allgemeinen das Wissen eines Entwicklerunternehmens über die Vorgehensweisen und Methoden innerhalb einer bestimmten Branche wider. In der heutigen Zeit gehören Enterprise Resource Planning Systeme zur softwaretechnischen Grundausstattung für die überwiegende Mehrzahl Kleiner und Mittlerer Unternehmen. Deren primärer Wettbewerbsvorteil liegt hierbei vor allem in ihrer Individualität, welche durch ein Enterprise Resource Planning System zu unterstützen ist. Diesbezügliche Anpassungen des Systems sind aufgrund seiner Komplexität häufig sehr kostenintensiv und übersteigen nicht selten das Budget eines Kleinen und Mittleren Unternehmens.
Workflow-Management-Systeme bieten eine einfache Möglichkeit die internen Geschäftsprozesse eines Anwenderunternehmens kostengünstig über ein Enterprise Resource Planning Systems abzubilden. Gleichzeitig erlauben sie die Steuerung der modellierten Arbeitsabläufe.
Diese Arbeit beschäftigt sich daher mit der Integration eines Workflow-Management-Systems in ein bestehendes Enterprise Resource Planning System. Das Integrationskonzept bezieht sich dabei ausschließlich auf Client-Server- Architekturen. Auf Basis einer IST-Analyse wird dabei ein Integrationskonzept für eine lose Kopplung beider Systeme entwickelt. Im Ergebnis soll dies einen einfachen Austausch des Workflow-Management-Systems garantieren und dessen Funktionen innerhalb des Enterprise Resource Planning System bereitstellen.
Schlüsselwörter: Workflow Management, Workflow-Management-System, Enterprise Resource Planning, Integration, Integrationskonzept, Kleine und Mittlere Unternehmen
In dieser Arbeit wurde der Einfluss des orphanen Kernrezeptors Peroxisom-Proliferatoraktivierte Rezeptor des Subtyps Gamma (PPARγ) auf die kardiale Differenzierung in vitro untersucht. Hierfür wurde die murinen embryonale Stammzelllinie CGR8 und das Modellsystems Embryoid Body verwendet. Zur Beantwortung der Fragestellung wurden einerseits pharmakologische Inkubationsexperimente mit spezifischen Agonisten sowie Antagonisten realisiert. Andererseits wurde das Differenzierungsverhalten vergleichend in einer PPARγ-Knockdown-Zelllinie betrachtet, welche durch eine stabile Herunterregulation des Rezeptorsubtyps gekennzeichnet ist.
Large bone defects are a major clinical problem affecting elderly disproportionally, particularly indeveloped countries where this population is the fastest growing. Current treatments include autologous and allogenous bone grafts, bone elongation with the Ilizarov technique, bone graft substitutes, and electrical stimulation. Each of these approaches enjoys varying degrees of success, however, each also has its associated problems and complications. A new, still experimental, treatment is Tissue Engineering that combines scaffolds, osteogenic stem cells and growth factors, and is showing encouraging early results in preclinical and initial clinical studies.
Electrical stimulation has been shown to enhance bone healing by promoting mesenchymal stem cell migration, proliferation, and differentiation. In the present study we combine Tissue Engineering with Electrical Stimulation and hypothesize that this combined approach will have a synergistic effect resulting in enhanced new bone formation. In our in vitro experiments we observed that the levels of electrical stimulation we tested had no cytotoxic effect, instead increased osteogenic differentiation, as determined by enhanced expression of the osteogenic marker, Alkaline Phosphatase. These findings support our hypothesis by demonstrating that in the tissue-engineering environment electrical stimulation promotes bone formation. The bioinformatics part of this project consisted of gene network analysis, identification of the top 10 osteogenic markers and analyzis of genegene interactions. We observed that in studies of stem cells from both human and rat the genes, BMPR1A, BMP5, TGFßR1, SMAD4, SMAD2, BMP4, BMP7, RUNX3, and CDKN1A, are associated with osteogenesis and interact with each other. We observed a total of 31 interactions for human and 29 interactions for rat stem cells. While this approach needs to be proven experimentally, we believed that these in vitro and in silico analyses could compliment each other and in doing so contribute to the field of bone healing research.
Classification of time series has received an important amount of interest over the past years due to many real-life applications, such as environmental modeling, speech recognition, and computer vision.
In my thesis, I focus on classification of time series by LVQ classifiers. To learn a classifiers, we need a training set. In our case, every data point in the training set contains a sequence (an ordered set) of feature vectors. Thus, the first task is to construct a new feature vector (or matrix) for each sequence.
Inspired by [2], I use Hankel matrices to construct the new feature vectors. This choice comes from a basic assumption that each time series is generated by a single or a set of unknown Linear Time Invariant (LTI) systems.
After generating new feature vectors by Hankel matrices, I use two approaches to learn a classifier: Generalized Learning Vector Quntization (GLVQ) and Median variant of Generalized Learning Vector Quantization (mGLVQ).
Stability of control systems is one of the central subjects in control theory. The classical asymptotic stability theorem states that the norm of the residual between the state trajectory and the equilibrium is zero in limit. Unfortunately, it does not in general allow computing a concrete rate of convergence particularly due to algorithmic uncertainty which is related to numerical imperfections of floating-point arithmetic. This work proposes to revisit the asymptotic stability theory with the aim of computation of convergence rates using constructive analysis which is a mathematical tool that realizes equivalence between certain theorems and computation algorithms. Consequently, it also offers a framework which allows controlling numerical imperfections in a coherent and formal way. The overall goal of the current study also matches with the trend of introducing formal verification tools into the control theory. Besides existing approaches, constructive analysis, suggested within this work, can also be considered for formal verification of control systems. A computational example is provided that demonstrates extraction of a convergence certificate for example dynamical systems.
Die Bedeutung mobiler Geräte wächst, aufgrund des zunehmenden Funktionsumfanges sowie deren Leistungsfähigkeit, seit ihrer Einführung stetig. Eine Kernkomponente dieser Geräte bildet das Betriebssystem. Hierbei stellt das Android die populärste und am Markt weit verbreitetste mobile Plattform dar. Damit verbunden bilden Android-basierte Geräte de facto das Hauptangriffsziel von Cyberkriminellen, wobei die Systeme in Form von Malware kompromittiert werden. Hieraus erwächst das Erfordernis, effiziente Maßnahmen zur Abwehr dieser Bedrohungen zu entwickeln. Grundlage dafür bildet die forensische Untersuchung dieser Schadanwendungen. Derzeit im Internet verfügbare Signatur-Analysen von Android-Paketen liefern hierbei nur begrenzte Informationen über das charakteristische Laufzeitverhalten dieser Applikationen bei Ausführung des maskierten Schadcodes. Die Zielsetzung dieser Arbeit ist die Schaffung einer hardwarebasierten Android-Analyse-Plattform – auf der Grundlage eines Wandboards –, um mobile Malware zur Laufzeit zu überwachen und, neben statischen Applikationsdaten, deren schadhaften Aktivitäten – gestartete Prozesse, nachgeladene Bibliotheken und Netzwerkverkehr – aufzuzeigen. Das Hauptaugenmerk liegt hierbei auf der Entwicklung und systemischen Integration einer forensischen Methodik zur automatisierten Sammlung und Bereitstellung dieser Daten. Um ein prinzipielles Verständnis für den Themenkomplex zu erhalten, werden elementare Grundlagen und Spezifika der Android-Plattform sowie Aspekte der IT-Forensik ausgeführt. Der Detaillierung der entwickelten Vorgehensweise folgt die veranschaulichte Darstellung des Aufbaus und der Konfiguration der Android -Analyse-Plattform. Die Anwendbarkeit der geschaffenen Methodik wird, in Form eines exemplarischen Untersuchungsablaufes, an einer Android-Malware demonstriert.
Die ubiquitäre, anthropogene Ausbreitung von pharmazeutischen Substanzen in der Umwelt, stellt ein weitreichendes Problem für alle Lebewesen dar. Hormone, die auf unterschiedlichsten Wegen in den aquatischen Lebensraumgelangen, sind unter anderem verantwortlich für das Fischsterben. Da sich die Anwesenheit dieser Stoffe allgemein und besonders bei Hormonen in der Umwelt nur auf geringe Konzentrationen begrenzt und sie dabei dennoch ein großes Risiko darstellen, sind geeignete Methoden zum Nachweis und zur Entfernung dieser Stoffe aus dem aquatischen System notwendig. Diezbezüglich sollen bereits etablierte biosensorische Detektionsmethoden unter Einsatz von Aptameren untersucht werden, um niedermolekulare Substanzen zu detektieren. Das Zielmolekül stellt dabei das Hormon 17ß-Estradiol, dass auf der Beobachtungsliste der EU Wasserrahmenrichtlinie steht und zu welchem bereits spezifische Aptamere veröffentlich sind, dar.
It is possible to obtain a common updating rule for k-means and Neural Gas algorithms by using a generalized Expectation Maximization method. This result is used to derive two variants of these methods. The use of a similarity measure, specifically the gaussian function, provides another clustering alternative to the before mentioned methods. The main benefit of using the gaussian function is that it inherently looks for a common cluster center for similar data points (depending on the value of the parameter s ). In different experiments we report similar behaviour of batch and proposed variants. Also we show some useful results for the “alternative” similarity method, specifically when there is no clue about the number of clusters in the data sets.
In dieser Arbeit wurden kulturelle Nachweisverfahren zur Detektion von Vaginitis Erregern mit molekularbiologischen Methoden verglichen und bewertet. Für diese Untersuchung standen Vaginalabstriche von Patientinnen zur Verfügung. Diese Vaginalabstriche wurden von Gynäkologen zur Untersuchung auf pathogene Keime in das Fachlabor „Diagnosticum“ nach Neukirchen geliefert. Es wurden folgende verschiedene Universal- und Selektionsnährmedien für den Nachweis verwendet: TSS-, MCK-, MRS-, PVX-, GAR- und CAN2-Agar. Außerdem erfolgte eine mikroskopische Beurteilung (Nugent-Score) der Abstriche. Dazu wurden die Proben nach der Gram-Färbung bei 1.000-facher Vergrößerung mikroskopisch betrachtet und bewertet. Nach der Identifizierung möglich pathogener Keime erfolgte die Resistenztestung, um für den behandelnden Gynäkologen die Auswahl des richtigen Antibiotikums zu erleichtern.
Die beiden Resistenztestungssysteme, VITEK2- (bioMérieux) und Phönix-System (Becton Dickinson), basieren auf der Bestimmung der Minimalen-Hemmkonzentration. An molekularen Nachweismethoden wurde ein DNA-Hybridisierungsverfahren, Affirm-Test (Becton Dickinson), verwendet. Ferner wurden zwei Nukleinsäuren-Amplifikationsmethoden genutzt. Zum einen wurde eine Multiplex Real-Time PCR (fast-track) und zum anderen eine TMA (Transcription Mediated Amplification) Methode verwendet. Die Multiplex Real-Time PCR ermöglicht den Nachweis verschiedener Erreger (Chlamydia trachomatis, Neisseria gonorrhoeae, Mycoplasma genitalium, Trichomonas vaginalis, Mycoplasma hominis, Ureaplasma urealyticum und Ureaplasma parvum). Für das TMA wurde ein Combo Assay zur Detektierung von Chlamydia trachomatis und Neisseria gonorrhoeae genutzt. Während der Masterarbeit wurden 251 Patientenproben untersucht und ausgewertet.
Im Rahmen der vorliegenden Arbeit wurde die Modifizierung von Titanoberflächen mit Kalziumphosphatbeschichtungen unter Einbeziehung der biologisch aktiven Spurenelemente Strontium und Kupfer untersucht. Hierfür bildet die Methode der elektrochemisch gestützten Abscheidung (ECAD) von Kalziumphosphaten aus wässrigen Elektrolyten die Grundlage. Mit der Modifizierung der Kalziumphosphatbeschichtung soll die Einheilphase der Implantate verkürzt werden, indem durch sukzessive Degradation sowie der Phasenumwandlung der unter Bruschitbedingung abgeschiedenen Beschichtungszustände die immobilisierten Ionen in das Umgebungsgewebe freigesetzt werden. Für die Bruschitabscheidung mit bzw. ohne Strontium wurden drei unterschiedliche Beschichtungsstrategien zur Immobilisierung von Kupfer in die Kalziumphosphatbeschichtung angewendet. Diese spurenelementhaltigen Beschichtungen wurden hinsichtlich der Belegungsdichten der Hauptkomponenten der Kalziumphosphatmatrix sowie der eingelagerten Spurenelemente sowie der Morphologie der Beschichtungsoberfläche untersucht. Zur weiteren Oberflächencharakterisierung wurden der chemische Status von Kupfer und Strontium sowie die Phasenzusammensetzung der abgeschiedenen Beschichtung analysiert. Weiterhin wurde untersucht, inwieweit unterschiedliche Belegungsdichten bzw. die verschiedenen Beschichtungsvarianten das Freisetzungsverhalten der Spurenelemente unter annähernd physiologischen Verhältnissen beeinflusst. Die kupferhaltigen Beschichtungszustände wurden hinsichtlich ihres antimikrobiellen Potentials untersucht.
In meiner Masterarbeit habe ich mich mit Wasserlinsen als neuartige Energieträger für die Energiebranche beschäftigt. Dazu wurden im Labor Wasserlinsen in kleinen Becken angezüchtet und später dann als Substrat für die Biogasherstellung verwendet. Hierzu wurde ein Kleinfermentersystem im Labormaßstab aufgebaut, in dem erste Tests zur Erzeugung von Biogas aus Wasserlinsen erfolgten. Durch verschiedene Analysen wurde im Anschluss
bewertet, inwieweit sich Wasserlinsen zur Biogasproduktion eignen und welchen Einfluss Indol-3-Essigsäure auf die Synthese hatte.
Basierend auf dem aktuellen Verständnis über die olfaktorische Perzeption der Hundenase, der Definition des menschlichen Individualgeruchs und dem Einfluss von Wetterparametern und weiteren Faktoren, welche im Zusammenhang mit einer urbanen Umgebung auf eine molekulare Geruchsspur einwirken können, soll diese Arbeit den derzeitigen wissenschaftlichen Stand verdeutlichen und Wiedersprüche aufgreifen. Es wird eine umfangreiche Literatursammlung zum gegenwärtigen Wissensstand dargestellt, sowie bestehende Probleme polizeilicher Mantrail-Einsätze aufgezeigt. Die Arbeit bietet eine differente Betrachtungsweise im Umgang mit der Dokumentation dieser Einsätze und gibt erste Einblicke für die Entwicklung einer computergestützten Simulation, basierend auf statistischen Modellen. Eine daraus resultierende Software soll eine juristisch verwertbare Wahrscheinlichkeitsaussage zum Verhalten des Hundes in seiner urbanen Umgebung auf der Grundlage einer molekularen Spur ermöglichen und kann als Werkzeug zur Dokumentation, sowie zur Plausibilitätsbetrachtung von Mantrail-Einsätzen Verwendung finden. Basis für diese Ansätze bildet das Verständnis der Geruchswahrnehmung durch den Hund, sein Verhalten während eines Trails sowie die Kenntnisse über die Ausbreitung einer Geruchswolke in der Umwelt. Diese Aspekte, sowie deren Beeinflussung durch äußere Faktoren und die Mensch-Hund Beziehung die maßgeblich zum Erfolg beiträgt, werden in der vorliegenden Arbeit ausführlich diskutiert und erste Ansätze zur Demo-Software vorgestellt.
The endogen steroid hormone 17b-estradiol is a central player in a wide range of physiologic, behavioral processes and diseases in vertebrates. As a consequence, it is a main target for molecular design and drug discovery efforts in medicine and environmental sciences, which requires in-depth knowledge of protein-ligand binding processes. This work develops a bioinformatic framework based on local and global structure similarity for the characterization of E2-protein interactions in all 35 publicly available three-dimensional structures of estradiol-protein complexes. Subsequently, it uses gained data to identify four geometrically conserved estradiol binding residue motifs, against which the Protein Data Bank is queried. As result of this database query, 15 hits present in seven protein structures are found. Five of these structures do not contain E2 as ligand and had thus not been included in this work’s initial data set. One of these newly detected structures is structurally and functionally dissimilar, as well as evolutionarily distant from all other proteins analyzed in this work. Nevertheless, the ability of this protein to actually bind estradiol must be further analyzed. Finally, geometrically conserved E2-protein interactions are identified and a new research direction using these conserved interaction ensembles for the detection of novel estradiol targets is proposed.
Bereits 1886 entdeckte der Kinderarzt Theodor Escherich ein neuartiges Bakterium, welches später den Namen Escherichia (E.) coli bekommt, im Darm von Kleinkindern. Im Laufe der Jahre fand man heraus, dass E. coli sowohl probiotische, als auch pathogene Eigenschaften haben kann. Pathogene E. coli können eine ganze Reihe gefährlicher Durchfallerkrankungen auslösen, was eine sichere Diagnose der Erreger notwendig macht. Die zuverlässigste Analysemethode ist die Polymerase-Ketten-Reaktion (PCR). Dabei können kleinste Mengen DNA vervielfältigt und anschließend analysiert werden. Ziel dieser Arbeit ist die Entwicklung und Validation einer Multiplex-PCR, um insgesamt sieben verschiedene pathogenen E. coli nachweisen und unterscheiden zu können
Brassica oleracea like all crucifers plants have a defense mechanism against natural enemies, which are chemical compounds formed form the enzymatic degradation of glucosinolates. In the presence of epithiospecifier proteins (ESP), the hydrolysis of glucosinolates will form epithionitriles or nitriles depending on the glucosinolate structure, This research proved that three predicted sequences (ESP) taken from NCBI database has a role in the enzymatic hydrolysis of glucosinolates in Brassica oleracea.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Streifentestsystems, mit einer integrierten Amplifikationsmethode und Read-out-System, zum Nachweis pathogener Bakterien in Wunden. Dabei wird als Amplifikationsmethode die Rekombinase-Polymerase-Amplifikation (RPA) unter Verwendung des TwistAmp® nfo Kits, der Firma TwistDX Ltd., gewählt. Zur Detektion sollen Milenia HybriDetect Streifentests, der Firma Milenia Biotec GmbH, verwendet werden, da diese mit dem TwistAmp® nfo Kit kombiniert werden können. Diese zwei Methoden sollen in die onsite.flow Kartusche, der Firma BiFlow Systems GmbH, eingebracht werden. Um dies zu realisieren, sollen thermographische Charakterisierungen mit der onsite.flow Kartusche durchgeführt werden. Wichtig ist dabei, vor allem die Temperatur bei 37° C, da die RPA hier ihr Optimum findet. Um dies zu testen, sollen zwei Regelungsarten der onsite.flow Kartusche untersucht werden. Zum einen die Regelung über die Stromstärke und zum anderen die Regelung über die Temperatur. Weiterhin soll die Nachregelung der Temperatur durch ein Offset untersucht werden und das Beheizen von Flüssigkeiten im Näpfchen mit der onsite.flow Kartusche. Zudem sollen mit dem TwistAmp® nfo Kit, mithilfe von Agarosegelen, erste Versuche unter verschiedenen Reaktionsbedingungen durchgeführt und in Hinblick auf eine quantitative Aussage, untersucht werden. Außerdem sollen die Milenia HybriDetect Streifentest auf verschiedene Bedingungen, die in der onsite.flow Kartusche vorliegen, im Reaktionsgefäß getestet werden. Anschließend soll die RPA im Näpfchen der onsite.flow Kartusche durchgeführt werden und mit den Streifentests das Amplifikationsprodukt detektiert werden. Zuletzt sollen der Streifentest und die Reaktionsbestandteile des TwistAmp® nfo Kits, in die onsite.flow Kartusche eingebracht werden.
Obesity is a major public health issue in many countries and its development leads to many severe conditions. Adipose tissue (AT) simply called fat, in males visceral adipose tissues (VAT) are dominant. Estrogens play an important role in many pathological processes.
In this study, one of the subtypes of the estrogen receptor ER-beta is activated using KB (Specific ligand) treatment on VAT.
In this study, I investigated the metabolism effectof KB treatment on VAT using bioinformatics methods.
In this thesis study, I applied several bioinformatics methods such as differential expression gene analysis, pathway analysis, RNA splicing analysis and SNPs callings to make the prediction of the effect of KB treatment on VAT. A list of candidate genes, pathways and SNPs were identified in this study, which could provide some clues to reveal the genetic mechanism underlying the KB treatment effect. The results of my study show that the KB treatment on VAT has caused significant effect.
Für die switchSENSE®-Technologie der Firma Dynamic Biosensors sollen DNAOrigami-Konstrukte gefaltet werden. Da der einzelsträngige M13mp18-Virus-DNAStrang zu lang für die benötigten DNA-Origami-Strukturen ist, sollen aus diesem kürzere Gerüststränge generiert werden. Dafür gibt es zwei Strategien: den DNAStrang durch passende Restriktionsenzyme spalten zu lassen oder einen einzelsträngigen DNA-Strang durch eine asymmetrische PCR amplifizieren zu lassen. Beide Strategien wurden ausgetestet und auf ihre Wirtschaftlichkeit hin verglichen.
In dieser Arbeit wurde mittels grafischer Bildanalyse die Fließrichtung deutscher Oberflächengewässer bestimmt. Die Bestimmung beruht auf der einfachen Logik, dass jede Quelle in einem Einzugsgebiet, zu einem eindeutigen Gebietsausfluss führt. Dazu wurde ein Java Programm geschrieben, welches in ImageJ eingebunden wurde und als Plug-in fungiert. Mit dem Programm ist es möglich, für jede geografisch erfasste Flusskoordinate die Quell- und Senkenentfernung zu erhalten, die Anzahl an Verzweigungen zu bestimmen sowie die Koordinaten des gesamten oder wahlweise in km abgestuften Oberlaufs an Zielkoordinaten zu erfassen. Das Programm wurde genutzt, um für Makrozoobenthos-Messstellen die Landnutzung im Oberlauf 100 m rechter- und linkerhand des Zielflusses zu berechnen, um daraus Rückschlüsse auf mögliche Eintragspfade von Pflanzenschutzmitteln zu ziehen. Desweiterem wurden aus dem deutschlandweiten Datensatz von knapp 21.000 Messstellen weitgehend naturbelassene Flussabschnitte selektiert, welche als Referenzgewässer fungieren.
Aufgrund einer immer älter werdenden Bevölkerung ist das Thema des gesunden
Alterns ein wichtiges Forschungsfeld. Dabei haben vor allem molekulare Prozesse eine bedeutende Rolle, weshalb auch die DNA ein bedeutendes Untersuchungsobjekt darstellt. Neben Mutationen auf Sequenzebene gibt es auch Veränderungen der DNA auf einer übergeordneten Ebene, welche die Sequenzabfolge selbst nicht verändern. Ein solcher Prozess ist die DNA-Methylierung, welche in allen höher entwickelten Eukaryonten von großer Bedeutung ist. Ein Modellorganismus, der in der Alternsforschung
immer mehr Beachtung fndet, ist der manuelle Fisch N. furzeri. Da zur
DNA-Methylierung im Organismus N. furzeri noch nichts bekannt ist, erfolgte im Rahmen dieser Masterarbeit eine Untersuchung der globalen DNA-Methylierung im Alterungsprozess des N. furzeri.
Diese Arbeit befasst sich mit der Bestimmung der minimalen Hemmkonzentration (MHK) im Titerplattenformat für Antibiotika und/oder Effluxpumpen-Inhibitoren anhand verschiedener klinischer Isolate von E. faecalis, E. faecum und S. aureus und dem Vergleich mit bereits vorhandener Literatur. Aufbauend auf den ermittelten MHK-Werten wurden dann Bestimmungen der minimalen Biofilm-inhibierenden Konzentration am konfokalen Laser-Scanning-Mikroskop durchgeführt. Die Klonalität der verwendeten Isolate wurde mittels Random Amplified Polymorphic DNA-PCR und den daraus erstellten Dendrogrammen geprüft.
In dieser Masterarbeit wurde die Entwicklung des Erregerspektrums und der Resistenz der Erreger gegen spezielle Antibiotika von 2010-2017 untersucht. Die untersuchten Proben wurden vom Medizinischen Zentrallabor Altenburg ausgewertet und stammten dabei aus Urinen, pulmonalen Materialien oder Blutkulturen. Innerhalb der Arbeit wurden mit dem assoziativen Datenanalyse-Tool und Reporting-System QlikView die Labordaten der untersuchten Jahre hinsichtlich der Entwicklung der Erregeranteile und deren Resistenz ausgewertet. Es wurden die häufigsten bakteriellen Erreger bei klinisch relevanten Infektionen ermittelt und ihr Verhalten gegen leitliniengerechte Antibiotika untersucht. Das Auftreten von multiresistenten Erregern konnte detektiert und deren Entwicklung analysiert werden. Die Materialien wurden getrennt voneinander untersucht und deren Ergebnisse gegenübergestellt.
Path decomposition of a graph has received an important amount of interest over the past decades because of its applications in algorithmic graph theory and in real life problems. For the computation of a path decomposition of small width, we use different heuritics approaches. One of the most useful method is by Bodlaender and Kloks. In this thesis, we focus on the computation, applications, transformation and approximation of a path decomposition of small width.
It is easy to convert a path decomposition in to nice path decomposition with same width, which is more convinent to use to find the graph parameters like independent sets, chromatic polynomials etc. Inspired by [28], we find an algorithm to compute the chromatic polynomial of a graph via nice path decomposition with small width.
In this master thesis, we define a new bivariate polynomial which we call the defensive alliance polynomial and denote it by da(G; x; y). It is a generalization of the alliance polynomial and the strong alliance polynomial. We show the relation between da(G; x; y) and the alliance, the strong alliance, the induced connected subgraph polynomials as well as the cut vertex sets polynomial. We investigate information encoded about G in da(G; x; y). We discuss the defensive alliance polynomial for the path graphs, the cycle graphs, the star graphs, the double star graphs, the complete graphs, the complete bipartite graphs, the regular graphs, the wheel graphs, the open wheel graphs, the friendship graphs, the triangular book graphs and the quadrilateral book graphs. Also, we prove that the above classes of graphs are characterized by its defensive alliance polynomial. We present the defensive alliance polynomial of the graph formed of attaching a vertex to a complete graph. We show two pairs of graphs which are not characterized by the alliance polynomial but characterized by the defensive alliance polynomial.
Also, we present three notes on results in the literature. The first one is improving a bound and the other two are counterexamples.
In the following study we evaluated capabilities of how a simple autoencoder can be used to trainGeneralized Learning Vector Quantization classifier. Specifically, we proved that the bottlenecks of an autoencoder serve as an "information filter" which tries to best represent the desired output in that particular layer in the statistical sense of mutual information.
Autoencoder model was trained for purely unsupervised task and leveraged the advantages by learning feature representations. As a result, the model got the significant value of the accuracy. Implementation and tuning of the model was carried out using Tensor Flow [1].
An extra study has been dedicated to improve traditional GLVQ algorithm taken from sklearn-lvg [2] using the bottleneck from an autoencoder.
The study has revealed potential of bottlenecks of an autoencoder as pre-processing tool in improving the accuracy of GLVQ. Specifically, the model was capable to identify 75% improvements of accuracy in GLVQ comparing to original one, which has about 62%. Consequently, the research exposed the need for further improvement of the model in the present problem case.
Community acquired pneumonia (CAP) is a very common, yet infectious and sometimes lethal disease. Therefor, this disease is connected to high costs of diagnosis and treatment. To actually reduce the costs for health care in this matter, diagnosis and treatment must get cheaper to conduct with no loss in predictive accuracy. One effective way in doing so would be the identification of easy detectable and highly specific transcriptomic markers, which would reduce the amount of work required for laboratory tests by possibly enhanced diagnosis capability.
Transcriptomic whole blood data, derived from the PROGRESS study was combined with several documented features like age, smoking status or the SOFA score. The analysis pipeline included processing by self organizing maps for dimensionality and noise reduction, as well as diffusion pseudotime (DPT). Pseudotime enabled modelling a disease run of CAP, where each sample represented a state/time in the modelled run. Both methods combined resulted in a proposed disease run of CAP, described by 1476 marker genes. The additional conduction of a geneset analysis also provided information about the immune related functions of these marker genes.
Soft Learning Vector Quantisation (SLVQ) andRobust Soft Learning Vector Quantisation (RSLVQ) are supervised data classification methods, that have been applied successfully to real world classification problems. The performance of SLVQ and RSLVQ, however, reduces, when they are applied tomore complicated classification problems. In this thesis, we have introducedmodi-fications to SLVQand RSLVQ, in order to havemore capable versions of them. A few possibilities to modify SLVQ and RSLVQ are considered, some of them are not successful enough and they have been included for the sake of completeness. The fruits of the thesis are plenty, including Tangent Soft Learning Vector Quantisation-Strong (TSLVQ-S), together with its more stable version Tangent Robust Soft Learning Vector Quantisation-Strong (TRSLVQ-S), Attraction Soft Learning Vector Quantisation (ASLVQ) and Grassmannian Soft Learning Vector Quantisation (GSLVQ).
Many companies use machine learning techniques to support decision-making and automate business processes by learning from the data that they have. In this thesis we investigate the theory behind the most widely used in practice machine learning algorithms for solving classification and regression problems.
In particular, the following algorithms were chosen for the classification problem: Logistic Regression, Decision Trees, Random Forest, Support Vector Machine (SVM), Learning Vector Quantization (LVQ). As for the regression problem, Decision Trees, Random Forest and Gradient Boosted Tree were used. We then apply those algorithms to real company data and compare their performances and results.
The application described in this thesis has been created, built and designed to help nurses or any medical personnel all around the world in being able to access a real-time database to store patient records like Patient Name, Patient ID, Patient Age and Date of Birth, and the Symptoms that the patient is experiencing. A real-time database is a live database where all changes made to it are reflected across all devices accessing it. This application will be beneficial especially in countries where access to a computer or medical equipment is not always possible. A phone is always ready use and at the reach of the hand, users of this application will always be able to access the data at any given time and place. We will be able to add a new patient or search for existing patients. In addition, this application allows us to take RAW medical images that can be used to identify anomalies in the blood sample. RAW images are important for this application because they’re uncompressed, which means, they do not lose any quality or details. The users of this application are the medical personnel that will be taking care of the patients. These users will have to create a profile on the database in order to use the application, since their data, like user ID, will be used in order to control the behaviour of the data retrieved and stored. We will also discuss the current and future features of this application, as well as, the benefits of this application when it comes to the medical personnel, as well as patients. Finally, we will also go
over the implementation of such application from a hardware perspective, as well as a software one.
Durch verschiedene Industriezweige gelangen viele Chemiaklien in die Umwelt und lagern sich dort an. Dabei haben viele dieser Chemikalien für die Umwelt und den Menschen schädliche Nebenwirkungen. Diese sind einerseits von der Exposition der Substanzen und andernseits von Effekten auf den biologischen Kreislauf abhängig.
Um die genauen Auswirkungen dieser Verbindungen beurteilen zu können, ist es jedoch wichtig beide Bereiche zu betrachten. Im Rahmen dieser Arbeit wurde deswegen ein Ansatz entwickelt,mit dem die Daten der Exposition und die Daten der Auswirkungen mit einander verknüpft werden können. Dazu wurden zuerst Chemikalien für die Expositionsdaten und Chemikalien für die Wirkungsdaten bereitstehen aus öffentlich zugänglichen Datenbanken gesammelt. Mit Hilfe der Wirkungsdaten wurden anschließend Neuronale Netze trainiert. Es konnte gezeigt werden, dass mittels dieser Modelle die Auswirkungen auf Umwelt und Mensch für die Expositionschemikalien vorhergesagt werden kann.
Zudem wurden in mehreren Chemical Similarity Maps gezeigt, dass sich verschiedene Chemikaliencluster bilden, welche ähnliche chemische Eigenschaften besitzen. Dadurch könnte es möglich sein anhand der chemischen Ähnlichkeite bestimmte Wirkungsdaten für chemische Stoffe vorherzusagen.
Prototype-based classification methods like Generalized Matrix Learning Vector Quantization (GMLVQ) are simple and easy to implement. An appropriate choice of the activation function plays an important role in the performance of (deep) multilayer perceptrons (MLP) that rely on a non-linearity for classification and regression learning. In this thesis, successful candidates of non-linear activation functions are investigated which are known for MLPs for application in GMLVQ to realize a non-linear mapping. The influence of the non-linear activation functions on the performance of the model with respect to accuracy, convergence rate are analyzed and experimental results are documented.
Cryptorchidism describes a disease, in which one or both testes do not descend into the scrotum properly. With a prevalence of up to 10%, cryptorchidism is one of the most common birth defects of the male genital tract. Despite its associated health risks and accompanying economic damage, resulting from surgery and losses in breeding, studies on canine cryptorchidism and its causes are relatively rare. In this study a relational database for genetic causes of cryptorchidism was established and used as a basis for the identification of candidate genes. Associated regions were analysed by nanopore sequencing with the goal to identify genetic variants correlated with cryptorchidism in German Sheep Poodle.
Ziel dieser Arbeit die Bereitstellung von Sensordaten sowie dessen Auswertung und Weitergabe an Aktoren. Die Bereitstellung dieser Daten soll mittels Datenbank-Abfragen und einer nachrichtenorientierten Infrastruktur bereitgestellt werden. Nach dieser erfolgreichen Implementierung soll ein Datenformat sowie -standard erörtert werden.
Nur auf der Grundlage homogener Daten kann eine effektive Nutzung dieser Daten er-reicht und ein sinnvolles Zusammenarbeiten verschiedener Institute sichergestellt werden.
Die vorliegende Masterarbeit befasst sich mit der Thematik der vergleichenden Untersuchung zur Ausprägung sehnenspezifischer Marker in Scaffold- versus Sphäroid-basierten Tissue Engineering Konstrukten. Dafür sollten humane aus dem Knochenmark stammende mesenchymale Stammzellen verwendet und tenogen differenziert werden und auf einem Kollagen-Scaffold oder als Sphäroid im Kollagen-Hydrogel kultiviert werden. Aussagen über eine mögliche Differenzierung sollten durch mikroskopische Untersuchungen und durch qPCR ermittelt werden.
Die Bildung von Sphäroiden sollte durch die Kultivierung im Hanging-Drop mit der Kultivierung in Mikrotiterplatten mit zellabweisender Oberfläche vergleichend untersucht werden. Dafür wurden neben mikroskopischen Untersuchungen, Färbemethoden und Gefriermikrotomschnitte herangezogen.
Als Positivkontrolle wurden humane Tenozyten (Sehnenzellen) verwendet.
Es wurden laborbezogene Referenzbereiche für 25-Hydroxyvitamin D für Kinder und Jugendliche sowie Erwachsene erstellt. Für Erwachsene wurden zusätzlich laborbezogene Referenzbereiche mit Berücksichtigung der Jahreszeiten ermittelt. Des Weiteren wurde je 50 Patienten mit toxischen 25-Hydroxyvitamin D-Konzentrationen sowie 50 Patienten mit einem manifestierten Mangel analysiert.
Die vorliegende Arbeit befasst sich mit dem Datenschutz allgemein und der DSGVO im Konkreten als Herausforderung für Unternehmen.
Die Einhaltung rechtlicher Vorschriften, vertraglicher Bestimmungen, externer sowie interner Regelwerke, im Begriff Compliance zusammengefasst, ist ein wichtiges Unternehmensziel. Die DSGVO, die am 25.05.2018 in
Kraft trat, bringt für Betriebe einige zu beachtende Änderungen mit sich, so beispielsweise die Rechenschaftspflicht des Verantwortlichen und die verschärften Sanktionen bei Verstößen.
Zusätzlich muss durch sie als Verordnung, aufgrund ihrer Vorrangstellung gegenüber nationalen Gesetzen, auch die Anwendbarkeit einiger bestehender Regelungen in Frage gestellt werden.
In today’s market, the process of dealing with textual data for internal and external processes has become increasingly important and more complex for certain companies. In this context,the thesis aims to support the process of analysis of similarities among textual documents by analyzing relationships among them. The proposed analysis process includes discovering similarities among these financial documents as well as possible patterns. The proposal is based on the exploitation and extension of already existing approaches as well as on their combination with well-known clustering analysis techniques. Moreover, a software tool has been implemented for the evaluation of the proposed approach, and experimented on the EDGAR filings, on the basis of qualitative criteria.
A relatively new research field of neurosciences, called Connectomics, aims to achieve a full understanding and mapping of neural circuits and fine neuronal structures of the nervous system in a variety of organisms. This detailed information will provide insight in how our brain is influenced by different genetic and psychiatric diseases, how memory traces are stored and ageing influences our brain structure. It is beyond question that new methods for data acquisition will produce large amounts of neuronal image data. This data will exceed the zetabyte range and is impossible to annotate manually for visualization and analysis. Nowadays, machine learning algorithms and specially deep convolutional neuronal networks are heavily used in medical imaging and computer vision, which brings the opportunity of designing fully automated pipelines for image analysis. This work presents a new automated workflow based on three major parts including image processing using consecutive deep convolutional networks, a pixel-grouping step called connected components and 3D visualization via neuroglancer to achieve a dense three dimensional reconstruction of neurons from EM image data.
Durch die zunehmende Nutzung mobiler Endgeräte fallen im alltäglichen Leben zahlreiche personenbezogene Daten an. Zu diesen Daten gehören unter anderem auch GPS-Positionen, die von handelsüblichen Smartphones erhoben werden. Besonders Android-Geräte sammeln eine große Menge an Positionsdaten, die für verschiedene Wissenschafts-Domänen, wie beispielsweise Medizin oder Forensik, eine Rolle spielen. Für verschiedene Anwendungsfälle kann eine Aggregation der einzelnen GPS-Positionen zu Orten und verbindenden Strecken relevant sein.
Ziel der Arbeit ist die Entwicklung eines Algorithmus zur Aggregation von GPS-Standorten zu Orten, deren Besuchen und Verbindungen. Nach Implementierung des Algorithmus wurde dieser in eine Java-Applikation eingebettet, die unter anderem der Visualisierung der erzielten Ergebnisse dient. Für die Evaluation des Algorithmus wurden über einen Zeitraum von zwei Monaten Standortdaten mit Hilfe eines Android-Smartphones erhoben, welche unter Verwendung des implementierten Algorithmus ausgewertet wurden. Die Evaluation resultierte in einem Parameterset, welches sich für die Auswertung des vorliegenden Testdatensatzes als geeignet herausstellte. Das Ergebnis der Arbeit ist ein funktionstüchtiger Algorithmus, der vielfältige Anwendungsmöglichkeiten aufweist und dessen Erweiterung ein hohes Potenzial für Folgeprojekte bietet.
In the practice of software engineering, project managers often face the problem of software project management.
It is related to resource constrained project scheduling
problem. In software project scheduling, main resources are considered to be the employees with some skill set and required amount of salary. The main purpose of software
project scheduling is to assign tasks of a project to the available employees such that the total cost and duration of the project are minimized, while keeping in check that
the constraints of software project scheduling are fulfilled. Software project scheduling (SPSP) has complex combined optimization issues and its search space increases exponentially when number of tasks and employees are increased, this makes software project scheduling problem (SPSP) a NP-Hard problem. The goal of software project scheduling problem is to minimize total cost and duration of project which makes it multi-objective problem. Many algorithms are proposed up till now that claim to give near optimal results for NP-Hard problems, but only few are there that gives feasible set of solutions for software project scheduling problem, but still we want to get more efficient algorithm to get feasible and efficient results.
Nowadays, most of the problems are being solved by using nature inspired algorithms because these algorithms provide the behavior of exploration and exploitation. For solving
software project scheduling (SPSP) some of these nature inspired algorithms have been used e.g. genetic algorithms, Ant Colony Optimization algorithm (ACO), Firefly etc.
Nature inspired algorithms like particle swarm optimization, genetic algorithms and Ant Colony Optimization algorithm provides more promising result than naive and greedy algorithms. However there is always a quest and room for more improvement. The main purpose of this research is to use bat algorithm to get efficient results and solutions for software project scheduling problem. In this work modified bat algorithm is implemented where a different approach of random walk is used. The contributions of this thesis are to: (1) To adapt and apply modified multi-objective bat algorithm for solving software project scheduling (SPSP) efficiently, (2) to adapt and apply other nature inspired algorithms like genetic algorithms for solving software project scheduling (SPSP) and (3) to compare and analyze the results obtained by applied nature inspired algorithms and provide the conclusion.
Spektroskopische Featuredetektion
zur Altersbestimmung von Humanblutproben
im Labor und am Tatort
(2019)
In der Forensik sind Blutspurenanalysen ein wichtiges Mittel der Tatortermittlung.
Aus diesem Grund wäre die Altersbestimmung von Blut ein guter Ansatz, um die Aufklärungsrate noch zu verbessern.
In dieser Arbeit mit Fokus auf Grundlagenforschung wurden durch spektrophotometrische Analysen und statistischer Auswertung zwei große Komplexe untersucht. Vergleichende Analysen von Schweineblut mit Humanblut wurden durchgeführt und geprüft, ob sie in ihren Ergebnissen vergleichbar sind. So sollten Rückschlüsse auf die Übersetzung bereits vorhandener Studien mit Schweineblut ermöglicht werden, um die Eignung als Humanblutersatz zu diskutieren. Weiterhin wurde durch Vergleich der Absorptionsspektren über Zeit ermittelt, wie stark und auf welche Weise die Zugabe von Gerinnungshemmern wie Citrat Einfluss auf den Prozess der Blutalterung nimmt.
In einem zweiten Komplex wurde versucht, eine auf Spektro-Photometrie basierende statistische Methode zu etablieren, die den Prozess der Blutalterung nachvollziehen und mit möglichst geringen Abweichungen vorhersagen kann.
Dies sollte potentiell die Bestimmung des Alters einer Blutprobe ermöglichen. Im Zuge dessen wurden eine Hypothese zu den ex vivo ablaufenden chemischen Prozessen der Blutalterung erörtert und anhand der Spektraldaten diskutiert.
Charakterisiert wurde dies über die messbaren Anteile der Hämoglobin-Derivate im UV-Vis-Spektrum einer Vollblutprobe
Die Bedeutung der mobilen Geräte im Leben des modernen Menschen nimmt stetig zu, wodurch große Mengen persönlicher Daten abgelegt sind. Zusätzlich ist das Betriebssystem Android durch die weit verbreitete Nutzung und die quelloffene Struktur ein lohnendes Ziel für Angreifer, die schadhafte Software einsetzen. Die steigende Zahl an verschiedenen Formen und Ausprägungen machen eine sichere und zuverlässige Auswertung und Klassifikation von Malware notwendig, besonders dann, wenn es sich um unbekannte Proben handelt. Das Ziel dieser Arbeit liegt in der Realisierung einer ganzheitlichen Auswertekomponente, die in der Lage ist, gesicherte Informationen über das Verhalten und die Zielabsicht von Malware zu generieren und eine entsprechende Einordnung anhand der Funktionalität vorzunehmen. Dazu sind robuste Merkmale unterschiedlicher Kategorien vonnöten, die eine sichere Detektion und Klassifikation ermöglichen. Die Verknüpfung verschiedener Methoden des maschinellen Lernens etabliert eine vollumfängliche automatische Entscheidung. Die genannten Grundsätze sind in einem Programm realisiert, welches aus vier Modulen zusammengesetzt ist. Die Rohdaten der Analyseergebnisse werden eingelesen und zu angereicherten Charakteristika verarbeitet. Die Erkennung des verdächtigen Verhaltens erfolgt über den Abgleich mit gewichteten Merkmalen. Die im Fall einer eindeutigen Entscheidung für Schadhaftigkeit erfolgende Klassifikation nimmt eine charakterliche Einordnung der zugehörigen Applikation vor. Ein Abschlussbericht nutzt die im letzten Modul visualisierten Ergebnisse zur Aufbereitung der einzelnen Merkmale. Anhand der Erprobung des Programms durch einen Datensatz aus schadhaften Applikationen konnte die Funktion der Methodik nachgewiesen werden, Android-Applikationen zuverlässig nach ihrem Verhalten charakterisieren zu können.
Neural networks have become one of the most powerful algorithms when it comes to learning from big data sets and it is used extensively for classification. But the deeper the network models, the lesser is the interpretability of such models. Although many methods exist to explain
the output of such networks, the lack of interpretability makes them black boxes. On the other hand, prototype-based machine learning algorithms are known to be interpretable and robust.
Therefore, the aim of this thesis is to find a way to interpret the functioning of the neural networks by introducing a prototype layer to the neural network architecture. This prototype layer will train alongside the neural network and help us interpret the model. We present architectures of neural networks consisting of autoencoders and prototypes that perform activity recognition from heart rates extracted from ECG signals. These prototypes represent the different activity groups that the heart rates belong to and thereby aid in interpretability.
Diese Arbeit beschäftigt sich mit der Problematik der Verbreitung von Keimen und den damit verbundenen nosokomialen Infektionen durch den Siphon. Es wird die Wirksamkeit einer Sperre untersucht, die die Biofilmbildung im Siphon und damit die Verbreitung von Keimen verhindern soll. Dazu werden durch Puls-Magnetron-Sputtern Flachproben mit einer Titandioxidbeschichtung beschichtet. Die Aktivität und Stabilität der Titandioxidbeschichtung wird oberflächenanalytisch und mikrobiolgisch untersucht, sowie für die Bewertung der Wirksamkeit Versuchsregime etabliert.
Krebs zählt zu den häufigsten Todesursachen. Die Suche nach neuen Wirkstoffen führt immer häufiger zu natürlichen Quellen. Das Heilkraut Artemisia annua L. bzw. dessen Sekundärmetabolit Artemisinin stellt einen Kandidaten zur Entwicklung neuer Krebsmedikament dar. Ursprünglich wurde Artemisinin in den 1970er Jahren als Mittel gegen Malaria entdeckt. Wie Studien beweisen konnten, weist die Verbindung auch eine selektive Wirkung gegen verschiedene Krebsarten auf. In dieser Arbeit wird Artemisinin bezüglich seiner Wirkung auf fünf humane Zelllinien (HeLa, 143B.TK-, HT-29, MCF-7, PC-3) untersucht, mit dem Ziel einen spezifischen Wirkort in den Mitochondrien zu identifizieren. Dafür werden die jeweiligen Krebszellen in Medium ohne Pyruvat und Uridin sowie in Medium mit beiden Zusätzen kultiviert. Nach einem Vorversuch wird der eigentliche Versuch mit der optimalen Artemisinin-Konzentration über sieben Tage durchgeführt. Die Ergebnisse umfassen mehrtägige mikroskopische Bildaufnahmereihen, Aufzeichnungen der Zellvitalität und der Gesamtlebendzellzahl sowie die relative Quantifizierung des mtDNA-Gehalts und des Expressionsniveaus respiratorischer Gene. Anhand dieser Untersuchungen kann davon ausgegangen werden, dass Artemisinin eine wachstumshemmende sowie zytotoxische Wirkung besitzt und in einigen der Zelllinien ebenso spezifisch in den Mitochondrien wirkt. Die Verbindung besitzt ein breites Wirkspektrum, was mit mehreren zellulären und molekularen Mechanismen assoziiert ist. Somit steht die Antikrebsaktivität von Artemisinin auch zusätzlich damit in Zusammenhang. Zudem besitzt Artemisinin eine unterschiedliche Wirksamkeit auf verschiedenen Arten von Tumorzellen.
Das Ziel dieser Arbeit ist es die bestehende ALP, um ein Analysetool zu ergänzen. Dieses Analysetool soll Dozenten einen Anhaltspunkt geben, ob die Lernenden Lernerfolge erzielen oder, ob es in bestimmten Bereichen Probleme gibt. Dazu werden die Grundlagen von Lernerfolg und Learning Analytics analysiert. Zusätzlich werden ähnliche Tools analysiert, um von diesen Inspiration und Anforderungen zu beziehen. Diese Anforderungen und die Anforderungen der ALP gehen in ein zu erstellendes Konzept ein, mit dem, unter anderem, der Lernerfolg von Lernenden durch das Analysetool gemessen werden soll. Anhand des Konzeptes wird die bestehende Architektur angepasst und erweitert. Dabei gilt es beim Umsetzen des Konzeptes nicht nur das Analysetool zu entwickeln, sondern auch nötige Änderungen an anderen Bestandteilen der ALP, wie der mobilen Applikation vorzunehmen. Zum Evaluieren wird zunächst die mobile Applikation durch eine Probandengruppen getestet, um Daten für das Analysetool zu generieren. Mit diesen Daten wird das Analysetool von Lehrenden auf seine User Experience und Nützlichkeit getestet.
In Anbetracht des hohen Vernetzungsgrades der Wirtschaft stellen Cyberangriffe eine größere Gefahr dar denn je. Erfolgreiche Angriffe können heutzutage schwerwiegende Folgen haben und nicht nur die Wirtschaft, sondern auch die Politik beeinflussen. Somit werden gute Schutzmaßnahmen zunehmend wichtiger. Penetrationstests und Vulnerability Assessments helfen dabei Netzwerke sicherer zu gestalten und nach außen eine möglichst geringe Angriffsfläche zu bieten. Speziell Netzwerkscanner nehmen hier eine tragende Rolle ein, da sie automatisiert Schwachstellen finden und diese bewerten. Dennoch liefern nicht alle Netzwerkscanner die gleichen Resultate und bewerten Schwachstellen unterschiedlich. In dieser Arbeit sollen die vier der bekanntesten Netzwerkscanner hinsichtlich ihres Scanverhaltens, der Bewertung der Befunde, sowie der gefundenen False Positives und False Negatives verglichen werden. Letztendlich soll diese Arbeit dazu dienen, je nach Anwendungsfall den Scanner auszuwählen, der das beste Ergebnis liefert.
Ziel der Arbeit ist es, ein smartes IoT-Gerät mit Cloud-Anbindung auf Sicherheit und Datenschutz zu untersuchen. Als Untersuchungsobjekt wurde eine \smarte" Alarmananlage für den privaten Haushalt ausgewählt. Im Unterschied zu anderen \smarten" IoT-Geräten im täglichen Leben geht hier das Sicherheitsrisiko über den Ausfall ohne Konsequenzen bzw. den Verlust von Daten hinaus. Entsprechend hoch sind die Erwartungen an die Sicherheit. Ein solches Gerät soll schützen und nicht eine zusätzliche Gefährdung bzw. Schwachstelle darstellen. Als Produkt wurde die Einbruchmeldeanlage (EMA) der Firma Egardia gewählt. Hierbei handelt es sich um ein System im mittleren Preissegment für Alarmanlagen zum Selbsteinbau. Die Norm für die Zertifizierung von EMAs ist die DIN EN 50131.
Es gibt vier Sicherheitsgrade, nach denen EMAs und ihre Komponenten eingeteilt werden können. Besonders hochwertige Produkte besitzen den Grad 2. Das System von Egardia hat wie die meisten EMAs keine Zertifizierung, ist in dieser Hinsicht ebenfalls ein durchschnittliches EMA. Grund hierfür ist, dass auf den Webseiten von Onlinehändlern Produkte hauptsächlich mit Funktionen und Preis beworben werden. Zerttifizierungen, die niemand kennt oder einfordert, spielen für Kunden keine Rolle. Neben der konkreten Untersuchung dieses Geräts auf seine Sicherheit soll als Ergebnis der Arbeit geprüft werden, ob für mögliche, gefundene Schwachstellen Lösungen existieren.
Gleichzeitig soll gezeigt werden, wie die Entwicklung eines sicheren Produkts umgesetzt werden kann und welche Rahmenbedingungen in Gesellschaft, Wirtschaft und Politik eventuell die Sicherheit und Nachhaltigkeit von IoT-Geräten gefährden.
Vicia faba leaves and calli were transformed using CRISPR Cas RNP. Two kinds of CPP fused SpyCas9 were used with sgRNA7, sgRNA5 or sgRNA13 targeting PDS exon 1, PDS exon 2 or MgCh exon 3 respectively. RNP were applied using high pressure spraying, biolistic delivery, incubation in RNP solution and infiltration of leaf tissue. A PCR and restriction enzyme based approach was used for detection of mutation. Screening of 679 E. coli colonies containing the cloned fragments resulted in detection of 14 mutations. Most of the 14 mutations were deletions of sizes 150, 500 or 730 bp. 5 out of the 14 mutations were point mutations located two to three bp upstream of PAM.
In bioinformatics one important task is to distinguish between native and mirror protein models based on the structural information. This information can be obtained from the atomic coordinates of the protein backbone. This thesis tackles the problem of distinction of these conformations, looking at the statistics of the dihedral angles’ distribution regarding the protein backbone. This distribution is visualized in Ramachandran plots. By means of an interpretable machine learning classification method – Generalized Matrix Learning Vector Quantization – we are able to distinguish between native and mirror protein models with high accuracy. Further, the classifier model supplies supplementary information on the important distributional regions for distinction, like α-helices and β-strands.
A Protein is a large molecule that consists of a vast number of atoms; one can only imagine the complexity of such a molecule. Protein is a series of amino acids that bind to each other to form specific sequences known as peptide chains. Proteins fold into three-dimensional conformations (or so-called protein’s native structure) to perform their functions. However, not every protein folds into a correct structure as a result of mutations occurring in their amino acid sequences. Consequently, this mutation causes many protein misfolding diseases. Protein folding is a severe problem in the biological field. Predicting changes in protein stability free energy in relation to the amino acid mutation (ΔΔG) aids to better comprehend the driving forces underlying how proteins fold to their native structures. Therefore, measuring the difference in Gibbs free energy provides more insight as to how protein folding occurs. Consequently, this knowledge might prove beneficial in designing new drugs to treat protein misfolding related diseases. The protein-energy profile aids in understanding the sequential, structural, and functional relationship, by assigning an energy profile to a protein structure. Additionally, measuring the changes in the protein-energy profile consequent to the mutation (ΔΔE) by using an approach derived from statistical physics will lead us to comprehend the protein structure thoroughly. In this work, we attempt to prove that ΔΔE values will be approximate to ΔΔG values, which can lead the future studies to consider that the energy profile is a good predictor of protein binding affinity as Gibbs free energy to solve the protein folding problem.
he automatic comparison of RNA/DNA or rather nucleotide sequences is a complex task requiring careful design due to the computational complexity. While alignment-based models suffer from computational costs in time, alignment-free models have to deal with appropriate data preprocessing and consistently designed mathematical data comparison. This work deals with the latter strategy. In particular, a systematic categorization is proposed, which emphasizes two key concepts that have to be combined for a successful comparison analysis: 1) the data transformation comprising adequate mathematical sequence coding and feature extraction, and 2) the subsequent (dis-)similarity evaluation of the transformed data by means of problem specific but mathematically consistent proximity measures. Respective approaches of different categories
of the introduced scheme are examined with regard to their suitability to distinguish natural RNA virus sequences from artificially generated ones encompassing varying degrees of biological feature preservation. The challenge in this application is the limited additional biological information available, such that the decision has to be made solely on the basis of the sequences and their
inherent structural characteristics. To address this, the present work focuses on interpretable, dissimilarity based classification models of machine learning, namely variants of Learning Vector Quantizers. These methods are known to be robust and highly interpretable, and therefore,
allow to evaluate the applied data transformations together with the chosen proximity measure with respect to the given discrimination task. First analysis results are provided and discussed, serving as a starting point for more in-depth analysis of this problem in the future.
Convolutional Neural network (CNN) has been one of most powerful and popular preprocessing techniques employed for image classification problems. Here, we use other signal processing techniques like Fourier transform and wavelet transform to preprocess the images in conjunction with different classifiers like MLP, LVQ, GLVQ and GMLVQ and compare its performance with CNN.
Anomaly Detection is a very acute technical problem among various business enterprises. In this thesis a combination of the Growing Neural Gas and the Generalized Matrix Learning Vector Quantization is presented as a solution based on collected theoretical and practical knowledge. The whole network is described and implemented along with references and experimental results. The proposed model is carefully documented and all the further open researching questions are stated for future investigations.
Genetic sequence variations at the level of gene promoters influence the binding of transcription factors. In plants, this often leads to differential gene expression across natural accessions and crop cultivars. Some of these differences are propagated through molecular networks and lead to macroscopic phenotypes. However, the link between promoter sequence variation and the variation of its activity is not yet well understood. In this project, we use the power of deep learning in 728 genotypes of Arabidopsis thaliana to shed light on some aspects of that link. Convolutional neural networks were successfully implemented to predict the likelihood of a gene being expressed from its promoter sequence. These networks were also capable of highlighting known and putative new sequence motifs causal for the expression of genes. We tested our algorithms in various scenarios, including single and multiple point mutations, as well as indels on synthetic and real promoter sequences and the respective performance characteristics of the algorithm have been estimated. Finally, we showed that the decision boundary to classify genes as expressed and non-expressed depends on the sensitivity of the transcriptome profiling assay and changing it has an impact on the algorithm’s performance.
Data streams change their statistical behaviour over the time. These changes can occur gradually or abruptly with unforeseen reasons, which may effect the expected outcome. Thus it is important to detect concept drift as soon as it occurs. In this thesis we chose distance based methodology to detect presence of concept drift in the data streams. We used generalized learning vector quantization(GLVQ) and generalized matrix learning vector quantization( GMLVQ) classifiers for distance calculation between prototypes and data points. Chi-square and Kolmogorov–Smirnov tests are used to compare the distance distributions of test and train data sets to indicate the drift presence.
Immer häufiger greifen technikbegeisterte Personen zu Smart-Home Geräten für ihre eigenen vier Wänden. Durch diese Geräte, kann der Weg zur Tür abgenommen oder die Bestellung über eine Onlineplattform erleichtert werden. Der Nutzen dieser meist kleinen aber durchdachten komplexen Maschinen ist enorm. Um der Schnelllebigkeit entgegen zu wirken, werden immer kreativere Wege gesucht. IoT-Geräte ermöglichen das Ersetzen der lokalen Einstellung am Gerät selbst. Bspw. kann so die Heizungssteuerung auf dem Heimweg vorgenommen werden. Dadurch spielt eine klare Sicherheitsdefinition für den Umgang mit persönlichen Daten eine größer werdende Rolle. Hierbei stellt sich die Frage, wie anfällig solche Anlagen sind. Das Kernstück dieser Arbeit wird sich mit der Feststellung von möglichen Schwachstellen in Innogy Smart-Home-Geräten beschäftigen. Insbesondere werden Endgeräte untersucht, welche bereits Einzug in den Alltag gefunden haben. Ansätze der Informationssicherheit und der digitalen Forensik werden in realitätsnahen Szenarien aufgezeigt und analysiert. Es werden Richtlinien des Bundesamtes für Sicherheit in der Informationstechnik und gesetzliche Vorgaben berücksichtigt. Teile des Sicherheitskonzeptes werden transparent dargestellt.
In response to prevailing environmental conditions, Arabidopsis thaliana plants must increase their photosynthetic capacity to acclimate to potential harmful environmental high light stress. In order to measure these changes in acclimation capacity, different high throughput imaging-based methods can be used. In this master thesis we studied different Arabidopsis thaliana knockout mutants-and accessions in their capacity to acclimate to potential harmful environmental high light and cold temperature conditions using a high throughput phenotyping system with an integrated chlorophyll fluorescence measurement system. In order to determine the acclimation capacity, Arabidopsis thaliana knockout mutants of previously not high light assigned genes as well as accessions of two different haplotype groups with a reference and alternative allele from different countries of origin were grown under switching high light and temperature environmental conditions. Photosynthetic analysis showed that knockout mutant plants did differ in their Photosystem II operating efficiency during an increased light irradiance switch but did not significantly differ a week later under the same circumstances from the wildtype. High throughput phenotyping of haplotype accessions revealed significant better acclimation capacity in non-photochemical quenching and steady-state photosynthetic efficiency in Russian domiciled accessions with an altered SPPA gene during high light and cold stress.
Das Thema IT-Sicherheit wird durch zunehmende Vernetzung, neue Anforderungen an Systeme und Industrie 4.0 auch für industrielle Netzwerke wie SCADA und ICS immer wichtiger.
Finanzielle Schäden durch Angriffe steigen von Jahr zu Jahr. Deswegen ist es wichtig, diese Netzwerke zu schützen und Angriffe frühzeitig zu erkennen, um zeitnah auf diese reagieren zu können und größere Schäden zu vermeiden. Da klassische Methoden ICS Systeme zum Teil behindern können und um einen zusätzlichen Schutz zu den normalen Intrusion Detection Systemen und Firewalls zu bieten, ist das Ziel dieser Arbeit, die Entwicklung einer Plattform, zur
verhaltensbasierten Detektion von Angriffen in solchen Netzwerken. Dafür werden Honeypots im Netzwerk verteilt, welche dazu dienen, Angriffe, die das normale IDS oder Firewalls umgangen haben, oder gar von Internen durchgeführt werden, zu erkennen. Die Honeypots sind in der Lage, Zugriffe auf die von ihnen verwendeten Protokolle zu erkennen und senden in diesem Fall Meldungen an einen zentralen Server, welcher diese in einer Datenbank speichert und in einem Dashboard visualisiert. Das in dieser Arbeit beschriebene Konzept und seine detailliert beschriebene Umsetzung sollen den Einstieg für Unternehmen in dieses Thema erleichtern und zu weiterer Forschung auf diesem Gebiet anregen.
Die folgende Arbeit behandelt die Methoden digitaler Bildmanipulationen sowie die Erkennung solcher Manipulationen anhand etablierter Detektionsverfahren. Das Hauptaugenmerk liegt dabei auf der Planung und Implementierung einer Software zur automatisierten Detektion duplizierter Regionen innerhalb eines digitalen Bildes. Anschließend an diese Implementierung folgt eine detaillierte Auswertung der Detektionsergebnisse sowie eine Bewertung der Qualität der Software gegenüber bestehenden Verfahren.
Financial fraud for banks can be a reason for huge monetary losses. Studies have shown that, if not mitigated, financial fraud can lead to bankruptcy for big financial institutions and even insolvency for individuals. Credit card fraud is a type of financial fraud that is ever growing. In the future, these numbers are expected to increase exponentially and that’s why a lot of researchers are focusing on machine learning techniques for detecting frauds. This task, however, is not a simple task. There are mainly two reasons
• varying behaviour in committing fraud
• high level of imbalance in the dataset (the majority of normal or genuine cases largely outnumbers the number of fraudulent cases)
A predictive model usually tends to be biased towards the majority of samples, in an unbalanced dataset, when this dataset is provided as an input to a predictive model.
In this Thesis this problem is tackled by implementing a data-level approach where different resampling methods such as undersampling, oversampling, and hybrid strategies along with bagging and boosting algorithmic approaches have been applied to a highly skewed dataset with 492 idetified frauds out of 284,807 transactions.
Predictive modelling algorithms like Logistic Regression, Random Forest, and XGBoost have been implemented along with different resampling techniques to predict fraudulent transactions.
The performance of the predictive models was evaluated based on Receiver Operating CharacteristicArea under the curve (AUC-ROC), Precision Recall Area under the Curve (AUC-PR), Precision, Recall, F1 score metrics.
Drought is one of the most common and dangerous threats plants have to face, costing the global agricultural sector billions of dollars every year and leading to the loss of tons of harvest. Until people drastically reduce their consumption of animal products or cellular agriculture comes of age, more and more crops will need to be produced to sustain the ever growing human population. Even then, as more areas on earth are becoming prone to drought due to climate change, we may still have to find or breed plant varieties more suitable to grow and prosper in these changing environments.
Plants respond to drought stress with a complex interplay of hormones, transcription factors, and many other functional or regulatory proteins and mapping out this web of agents is no trivial task. In the last two to three decades or so, machine learning has become immensely popular and is increasingly used to find patterns in situations that are too complex for the human mind to overlook. Even though much of the hype is focused on the latest developments in deep learning, relatively simple methods often yield superior results, especially when data is limited and expensive to gather.
This Master Thesis, conducted at the IPK in Gatersleben, develops an approach for shedding light on the phenotypic and transcriptomic processes that occur when a plant is subjected to stress. It centers around a random forest feature selection algorithm and although it is used here to illuminate drought stress response in Arabidopsis thaliana, it can be applied to all kinds of stresses in all kinds of plants.
In dieser Masterarbeit werden verschiedene Angriffsverfahren auf LTE-Systeme vorgestellt und deren Funktionsweise erläutert. Eine Auswahl dieser Verfahren, welche für Downgrading-Attacks nutzbar sind, werden im Rahmen dieser Arbeit implementiert und in einer definierten Testumgebung auf Funktion getestet und ausgewertet. Ziel ist es dabei die Grundlage für ein Testsetup zu schaffen, bzw. existierende Testsetups zu erweitern, um so effektiv LTE-Systeme Testen zu können.
Mathematics Behind the Zcash
(2020)
Among all the new developed cryptocurrencies from Bitcoin, Zcash comes out to be the strongest cryptocurrency providing both transparency and anonymity to the transactions and its users by deploying the strong mathematics of zk-SNARKs.
We discussed the zero knowledge proofs which is a basic building block for providing the functionality to zk-SNARKs. It offers schnorr and sigma protocols with interactive and noninteractive versions. Non-interactive proofs are further used in Zcash transactions where the validation of sent transaction is proved by cryptographic proof.
Further, we deploy zk-SNARKs proofs following common reference string as public parameter when transaction is made. The proof allows sender to prove that she knows a secret for an instance such that the proof is succinct, can be verified very efficiently and does not leak the
secret. Non-malleability, small proofs and very effective verification make zk-SNARKs a classic tool in Zcash. Since we deal with NP problems therefore we have considered the elliptic curve cryptography to provide the same security like RSA but with smaller parameter size.
Lastly, we explain Zcash transaction process after minting the coin, the corresponding transaction completely hides the sender, receiver and amount of transaction using zero knowledge proof.
As future considerations, we talk about the improvements that can be done in term of decentralization, efficiency by comparing with top ranked cryptocurrencies namely Ethereum and Monero, privacy preserving against the thread of quantum computers and enhancements in shielded transactions.
Aufgrund der Vielzahl an angebotenen Dienste die auf unterschiedliche Systemen betrieben und miteinander verbunden sind, sowie sensible Informationen enthalten, ist die IT-Sicherheit enorm wichtig geworden. Heterogene IT-Infrastrukturen und interagierende Softwaresysteme verkomplizieren die Administration solcher Umgebungen. In diesem Zusammenhang wird „Automatisierung“ häufig als ein Lösungsansatz propagiert. In dieser Arbeit wird ein Automatisierungs-Referenzrahmen in Verbindung mit einer Konfigurationsverwaltungslösung eingeführt um eine abstrakte Sichtweise auf das Thema zu geben. Der BISS Automatisierungs-Referenzrahmen teilt einzelne Bestandteile, wie Entwicklung, Erweiterungsdienste,
Konfigurationsverwaltungslösung und IT-Infrastruktur in verschiedene Domänen ein. Die Kommunikation zwischen den Domänen ist reguliert und begrenzt um die Sicherheit der Umgebung zu gewährleisten. Eine praktische Anwendung des entworfenen Referenzrahmens und seinen Domänen wird mit Ansible als Konfigurationsverwaltungslösung in einer Software-Defined Netzwerkinfrastruktur von Cisco aufgezeigt. Mit der Einbindung von Sicherheitskomponenten, wie Check Point Firewalls und F5 Big-Ips, werden exemplarische Fallbeispiele einer Automatisierung heterogener Umgebungen demonstriert.
In der letzten Dekade hat sich die Verwendung von Cloud-Computing für das verlässliche und kostengünstige Betreiben von IT-Ressourcen und Applikationen weitgehend etabliert. Für Anwendungsszenarien mit hochsensitiven Daten können jedoch inakzeptable Restrisiken in Bezug auf deren Vertraulichkeit und Integrität – insbesondere während der eigentlichen Datenverarbeitung – verbleiben. Mit Hilfe von Intel SGX ist die Entwicklung dahingehend abgesicherter Anwendungen möglich, eine Nutzung dessen Funktionalität durch bereits bestehende Applikationen dagegen nicht ohne Weiteres. Um diese vor Angriffen auf die Vertraulichkeit oder Integrität mittels SGX zu schützen, wurden in der Forschung verschiedene Ansätze zur Migration entwickelt. Insbesondere serviceorientierte, aus mehreren Einzeldiensten bestehende, Anwendungen bedürfen dafür jedoch einer ausführlichen Planung und strukturierten Vorgehens. Die vorliegende Masterarbeit hat das Ziel, ein grundlegendes Verständnis für SGX zu vermitteln und die Migration solcher Anwendungen zu vereinfachen. Dafür wird eine generische Methodik vorgestellt sowie anhand des Beispiels einer populären Webanwendung hinsichtlich ihrer Funktionalität, Sicherheit und Performanz evaluiert. Zusätzlich erfolgt die Diskussion der Migration von Container-Anwendungen sowie deren Besonderheiten und Möglichkeiten zur Orchestrierung.
Ziel dieser Masterarbeit ist eine Analyse des Voice-over-LTE-Netzwerkes auf Sicherheitsschwachstellen. Zuerst findet dafür eine theoretische Untersuchung des VoLTE-Protokolls mit einer Fokussierung auf seine sicherheitsrelevanten Merkmale statt. Anschließend wird das Session-Initiation-Protokoll (SIP) als Element für die praktische Untersuchung ausgewählt. Praktisch wird zuerst gezeigt, dass VoLTE-SIP-Pakete sensitive Daten enthalten, die auf den Endgeräten mitgelesen werden können. Anschließend werden manipulierte SIP-Pakete in das Netzwerk gesendet, die das Abfragen von Informationen und den Datenaustausch mit anderen VoLTE-Nutzern ermöglichen. Durch einen Vergleich der Arbeit mit anderen Veröffentlichungen wird gezeigt, dass es bereits ähnliche Ansätze gibt, die in dieser Arbeit verwendeten SIP-Pakete aber noch nicht für ein Auslösen unautorisierter Prozesse verwendet wurden. Zum Schluss wird dargestellt, in welchen Bereichen auf Basis dieser Arbeit weiter geforscht werden kann und welche Konsequenzen die gefundenen Ergebnisse für die VoLTE-Nutzer haben.
Diese Arbeit befasst sich mit der Entwicklung eines epochenübergreifenden Aufgaben- und Objektmanagementsystems zur prozeduralen Generierung von Narrativen. Dabei wurde ein Questsystem als Managementinstanz für Aufgaben und Objekte entwickelt sowie ein auf L-Systemen und der Graphentheorie basierender Algorithmus zur prozeduralen Generierung Narrativen entwickelt.
Glycans play an important role in the intracellular interactions of pathogenic bacteria. Pathogenic bacteria possess binding proteins capable of recognizing certain sugar motifs on other cells, which are found in glycan structures. Artificial carbohydrate synthesis allows scientists to recreate those sugar motifs in a rational, precise, and pure form. However, due to the high specificity of sugar-binding proteins, known as lectins, to glycan structures, methods for identifying suitable binding agents need to be developed. To tackle this hurdle, the Fraunhofer Institute for Cell Therapy and Immunology (Fraunhofer IZI) and the Max-Planck Institute of Colloids and Interfaces (MPIKG) developed a binding assay for the high throughput testing of sugar motifs that are presented on modular scaffolds formed by the assembly of four DNA strands into simple, branched DNA nanostructures. The first generation of this assay was used in combination with bacteria that express a fluorescent protein as a proof-of-concept. Here, the assay was optimized to be used with bacteria not possessing a marker gene for a fluorescent protein by staining their genomic DNA with SYBR® Green. For the binding assay, DNA nanostructures were combined with artificially synthesized mannose polymers, typical targets for many lectins on the surface of bacteria, presenting them in a defined constellation to bind bacteria strongly due to multivalent cooperativity. The testing of multiple mannose polymers identified monomeric mannose with a 5’-carbon linker and 1,2-linked dimeric mannose with linker as the best binding candidates for E. coli, presumably due to binding with the FimH protein on the surface. Despite similarities between the FimH proteins of E. coli and K. pneumoniae, binding was only observed between E. coli and the different sugar molecules on DNA structures. Furthermore, the degree of free movement seemed to affect the binding of mannose polymers to targeted proteins, since when utilizing a more flexible DNA nanostructure, an increase in binding could be observed. An alternative to the simple DNA nanostructures described above is the use of larger, more complex DNA origami structures consisting of several hundred strands. DNA origami structures are capable of carrying dozens of modifications at the same time. The results for the DNA origami structure showed a successful functionalization with up to 71 1,2-linked dimeric mannose with linker molecules. These results point towards a solution for the high-throughput analysis of potential binding agents for pathogenic bacteria e.g. as an alternative treatment for antibiotic-resistant.
The emerging Internet of Things (IoT) technology interconnects billions of embedded devices with each other. These embedded devices are internet-enabled, which collect, share, and analyze data without any human interventions. The integration of IoT technology into the human environment, such as industries, agriculture, and health sectors, is expected to improve the way of life and businesses. The emerging technology possesses challenges and numerous
security threats. On these grounds, it is a must to strengthen the security of IoT technology to avoid any compromise, which affects human life. In contrast to implementing traditional cryptosystems on IoT devices, an elliptic curve cryptosystem (ECC) is used to meet the limited resources of the devices. ECC is an elliptic curve-based public-key cryptography which provides equivalent security with shorter key size compared to other cryptosystems such as Rivest–Shamir–Adleman (RSA). The security of an ECC hinges on the hardness to solve the elliptic curve discrete logarithm problem (ECDLP). ECC is faster and easier to implement and also consumes less power and bandwidth. ECC is incorporated in internationally recognized standards for lightweight applications due to the
benefits ECC provides.
Im Rahmen des Projekts "Historisches Mittweida" entsteht eine virtuelle Nachbildung der Stadt Mittweida Auf Basis der Unity-Engine. Der thematische Fokus liegt auf einer spielerischen Nachbildung der Entwicklungsgeschichte der Hochschule Mittweida. Der menschliche Spieler soll dieser selbst Hand anlegen dürfen und so seine eigene, aber immer noch an die historischen Vorgaben angelehnte Version dieser Geschichte erschaffen können.
Das Ziel dieser Arbeit besteht in der Erweiterung dieses Projekts um ein Multi- Agentensystem (MAS), welches die Spielwelt mit virtuellen Studenten belebt. Die virtuellen Studenten haben individuelle Fähigkeiten und Begabungen und steigern ihre Erfahrungen durch den Besuch von Lehrveranstaltungen. Die Dynamik dieser Abläufe soll spielerisch erlebbar sein. So soll der Spieler z.B. durch die Errichtung von Hochschulgebäuden und der Einstellung von Dozenten die Lehrumgebung für die Studenten aktiv gestalten. Dazu benötigt er Ressourcen, welche er aus Studiengebühren, Forschungsprojekten und anderen Quellen erhält.
Zur Abbildung des Lehrbetriebs der Hochschule Mittweida sollen Agenten in der Rolle von Studenten und Dozenten zur Interaktion miteinander befähigt werden, damit ein generalisierter Studienablauf abgebildet werden kann. Zu diesem Zweck soll zunächst ein generalisiertes Konzept dieser Agenten entwickelt werden. Dieses Konzept soll daraufhin in einem Prototypen umgesetzt werden, welcher dann auf Spielbarkeit hin evaluiert werden soll. Die abschließende Evaluation soll Rückschlüsse dazu liefern, wie der Prototyp ausbalanciert werden muss, um das Spielerlebnis und den Fluss des Spiels zu verbessern.
In dieser Arbeit wurden Thermistorelektroden aus einer Kombination eines kalibrierten Heizwiderstandes (Pt100) und einer Goldelektrode entwickelt. Diese sollen thermodynamische Untersuchungen an elektroaktiven Mikroorganismen ermöglichen. Die Thermistorelektroden wurden in einen Doppelwandreaktor fixiert, der über einen Thermostaten temperiert wurde. Anschließend wurde dieser Reaktor auf sein Temperaturverhalten untersucht, indem über einen Heizdraht definierte Wärmepulse in das System geleitet wurden und die resultierenden Temperaturäderungen gemessen wurden. Daraufhin wurde das Systems validiert, indem die elektrochemische Peltier Wärme für das Redoxpaar K3[Fe(CN)6]/K4[Fe(CN)6] mit +28±1,5 𝑘𝐽𝑚𝑜𝑙 für die Reduktion und 31±3,8 𝑘𝐽𝑚𝑜𝑙 für die Oxidation ermittelt wurde. Außerdem wurde ein sekundärer Geobacter Anreicherungsbiofilm auf den Thermistorelektroden kultiviert. Durch die Methode TRFLP wurde dabei gezeigt, dass Geobacter die dominierende Spezies auf der Elektrode zu Beginn und zum Ende der Kultivierung darstellt. Zukünftig sollen die entwickelten Thermistorelektroden für thermodynamische Untersuchungen an elektroaktiven Mikroorganismen verwendet und die mikrobielle elektrochemische Peltier Wärme gemessen werden.
Robust soft learning vector quantization (RSLVQ) is a probabilistic approach of Learning vector quantization (LVQ) algorithm. Basically, the RSLVQ approach describes its functionality with respect to Gaussian mixture model and its cost function is defined in terms of likelihood ratio. Our thesis work involves an approach of modifying standard RSLVQ with non-Gaussian density functions like logistic, lognormal, and Cauchy (referred as PLVQ). In this approach, we derive new update rules for prototypes using gradient of cost function with respect to non-Gaussian density functions. We also derive new learning rules for the model parameters like s and s, by differentiating the cost function with respect to parameters. The main goal of the thesis is to compare the performance results of PLVQ model with Gaussian-RSLVQ model. Therefore, the performance of these classification models have been tested on the Iris and Seeds dataset. To visualize the results of the classification models in an adequate way, the Principal component analysis (PCA) technique has been used.
A classical topic in the theory of random graphs is the probability of at least one isolated vertex in a given random graph. An isolated node has a huge impact on social networks which can be given by a random graph. We present a distribution on the number of isolated vertex using the probability generating function. We discuss the relationship between isolated edges and extended cut polynomials, extended matching polynomials using the principle of inclusion exclusion. We introduce an algorithm based on colored graphs for general graphs. We apply this to the components of a graph as well. Finally, we implement the idea on a special class of graphs like cycle, bipartite graph, path, and others. We discuss recursive procedure based on the analogous coloring rules for ladder and fan graphs.
Introducing natural adversarial observations to a Deep Reinforcement Learning agent for Atari Games
(2021)
Deep Learning methods are known to be vulnerable to adversarial attacks. Since Deep Reinforcement Learning agents are based on these methods, they are prone to tiny input data changes. Three methods for adversarial example generation will be introduced and applied to agents trained to play Atari games. The attacks target either single inputs or can be applied universally to all possible inputs of the agents. They were able to successfully shift the predictions towards a single action or to lower the agent’s confidence in certain actions, respectively. All proposed methods had a severe impact on the agent’s performance while producing invisible adversarial perturbations. Since natural-looking adversarial observations should be completely hidden from a human evaluator, the negative impact on the performance of the agents should additionally be undetectable. Several variants of the proposed methods were tested to fulfil all posed criteria. Overall, seven generated observations for two of three Atari games are classified as natural-looking adversarial observations.
Diese Arbeit stellt verschiedene Datenbankmanagementsysteme vor und vergleicht diese, um ein, für die Aufgabenstellung geeignetes, Datenbanksystem auszuwählen. Die Aufgabenstellung umfasst die Erstellung einer Datenbank zur Speicherung und Suche nach Login Daten, welche aus DatenLeaks stammen. Zum durchsuchen der Datenbank soll eine Oberfläche in Form einer Webseite Programmiert werden, die es zudem auch erlaubt entsprechende Textdateien mit Login Daten hochzuladen. Die hochgeladenen Dateien sollen automatisiert Analysiert werden und die so extrahierten Passwörter und Nutzernamen in die Datenbank zu schreiben.
Extraktion und Aufreinigung verschiedener Kollagentypen und deren Fähigkeit der Selbstassemblierung
(2021)
Ziel der Masterarbeit ist es, Kollagen aus verschiedenen Gewebearten zu extrahieren und nach Selbstassemblierung hinsichtlich ihrer Morphologie zu untersuchen. Zusätzlich sollten einzelne Typen mit Hilfe chromatographischer Methoden isoliert werden. Dabei wird der Fokus auf die Typen Ⅰ, Ⅱ und Ⅲ gelegt. Dafür wird zunächst das kollagenhaltige Gewebe verdaut und im Anschluss das Kollagen via Salzfällung extrahiert. Es wird mit Hilfe von Assemblierungskurven und der Darstellung mit einem Rasterkraftmikroskop untersucht, wie sich dieses Kollagen unter verschiedenen Bedingungen selbstassembliert. Das gewonnene Kollagen soll außerdem mit einer Zonenpräzipitationschromatographie in einzelne Typen unterteilt werden. Zuletzt folgt eine Evaluierung der angewendeten Methoden.
We investigate the folding and thermodynamic stability of a tertiary contact of baker's yeast ribosomal ribonucleic acid (rRNA), which is supposed to be essential for the maturation process of ribosomes in eukaryotes at lower temperatures1. Ribosomes are cellular machines essential for all living organisms. RNA is at the center of these machines and responsible for translation of genetic information into proteins2,3. Only recently, the rRNA tertiary contact of interest was discovered in Zurich by the research group of Vikram Govind Panse. Gerhardy et al.1 showed in vitro that within the 60s-preribosome under defined metal ion concentrations the tertiary contact become visible between a GAAA-tetraloop and a kissing loop motif. Our aim is now to understand this RNA structure, especially the formation of the rRNA tertiary contact, in terms of thermodynamics and kinetics at various experimental conditions, such as temperature and metal ion concentration of K(I), Na(I) and Mg(II). Therein, we use optical spectroscopy like UV/VIS spectroscopy and ensemble Förster or Fluorescence Resonance Energy Transfer (FRET) folding studies. Our findings will help to further characterize this newly discovered ribosomal RNA contact and to elucidate its function within the ribosomal maturation process.
Several algorithms have been proposed for the testing of series-parallel graphs in linear time. We give our alternate algorithms for testing series-parallel graphs, their tree decompositions, and the independence number when the input is undirected biconnected series-parallel graphs, which run (approximately) linearly in polynomial time.
VQ-VAE is a successful generative model which can perform lossy compression. It combines deep learning with vector quantization to achieve a discrete compressed representation of the data. We explore using different vector quantization techniques with VQ-VAE, mainly neural gas and fuzzy c-means. Moreover, VQ-VAE consists of a non-differentiable discrete mapping which we will explore and propose changes to the original VQ-VAE loss to fit the alternative vector quantization techniques.
There are multiple ways to gain information about an individual and its health status, but an increasingly popular field in medicine has become the analysis of human breath, which carries a lot of information about metabolic processes within the individuals body. The information in exhaled breath consists of volatile (organic) compounds (VOCs). These VOCs are products of metabolic processes within the individuals body, thus might be an indicator for diseases disturbing those processes. The compounds are to be detected by mass-spectrometric (MS) or ion-mobility spectrometric (IMS) techniques, making the analysis of these compounds not only bounded to exhaled breath. The resulting data is spectral data, capturing concentrations of the VOCs indirectly through intensities. However, a number of about 3000 VOCs [1] could already be determined in human exhaled breath. The number of research paper about VOC-analysis and detection had risen nearly constantly over the last decade 1. Furthermore, the technique to identify VOCs could also be used to capture biomarker from alien species within the individuals body. Extracting VOCs from an individual can be done by non- or minimal invasive techniques. However, the manual identification of VOCs and biomarkers related to a certain disease or infection is not feasible due to the complexity of the sample and often unknown metabolic products, thus automized techniques are needed. [1–4] To establish breath analysis as a diagnosis tool, machine learning methodes could be used. Machine learning has become a popular and common technique when dealing with medical data, due to the rapid analysis. Taking this advantage, breath analysis using machine learning could become the model of choice for diagnosis, keeping in mind that conventional methodes are laboratory based and thus when trying detect bacterial infection need sometimes several days to identify the organism. [5]
In dieser Masterthesis wird evaluiert, wie gut sich Deep-Learning-Modelle für eine Toxizitätsbestimmung im digitalen Raum eignen. Hierfür wird die Transformer-Architektur anhand verschiedener Pre-Trainings auf BERT-, DistilBERT-, RoBERTa- und GPT-2-Basis mithilfe der toxisch-binär annotierten GermEval-Datensätze aus den Jahren 2018, 2019 und 2021 angepasst. Das Feintuning der Modelle findet sowohl mit Supervised-, als auch mit Semi-Supervised-Learning via GAN statt. Im Anhang dieser Arbeit steht der genutzte Programmcode zur Verfügung.
Das Feintuning via GAN stellt eine Besonderheit in der Herangehensweise automatisierter NLP-Aufgaben darf. Als Ergebnis dieser Arbeit kann deren Wirksamkeit in binären Textklassifizierungsaufgaben im deutschen Sprachraum bestätigt werden.
Onlinequellen wurden zum Zeitpunkt des Abrufs mithilfe des Firefox-Addons “SingleFile” in eine HTML-Datei gespeichert. Sowohl der HTML-Teil, als auch die Mediendateien, Stylesheets und Skriptdateien befinden sich komprimiert in der Datei. Jede Onlinequelle wurde während des Speichervorgangs bei woleet.io registriert, sodass später die Integrität der HTML-Datei geprüft werden kann. Hierfür speichert Woleet die Signatur und Zeitstempel einer Datei innerhalb der Bitcoin-Blockchain. Soll die Integrität einer Datei geprüft werden, kann dies über gildas-lormeau.github.io/singlefile-woleet/index.html erfolgen.
Ein Maus-Infektionsmodell wurde genutzt um neutralisierende Antikörper gegen SARS-CoV-2 zu untersuchen. Nach Beendigung des Infektionsexperimentes wurden Lungen- und Gehirnpräparate fixiert und histologische Färbungen des SARS-CoV-2 Nukleokapsids und von Zellen der angeborenen Immunantwort vorgenommen. Der Nachweis von humanem ACE2 wurde untersucht und in Organhomogenaten bestätigt. Ein Bewertungsschema zur Validierung eingesetzter neutralisierender Antikörper wurde mit einer vergleichenden Hämatoxylin und Eosin Färbung erstellt und interpretiert.
In dieser Arbeit wird der SAUZEROR-Algorithmus für Nukleotidstrukturen angepasst und auf seine Funktionalität und Performanz überprüft. DNA- und RNA-Strukturen sind in jeder lebenden Zelle vorhanden. Bei den RNA Strukturen haben die ncRNA eine immer größer werdende Bedeutung und die Funktion der ncRNA liegt in ihren geometrischen Aufbau. Der SAUZERORAlgorithmus erzeugt durch 3D-Koordinaten einer RNA-Struktur eine zER-Profil, welches eine 1D Repräsentation des Moleküles wiederspiegelt. Die zER-Profile können mit dynamsicher Programmierung aligniert werden und durch verschiede Scorings (zER-Score, NORM-Score, RMSD, GDT-TS oder TM-Score) bewertet werden. Für die Funktionalitätsprüfung wurden einzelene t-RNAs herangezogen und verglichen. Bei der Performanz ist der balance-x-FSCOR Benchmark benutzt wurden. Das Ergebnis war, dass der SAUZEROR-Algorithmus die wenigste Zeit benötigt und die zweitbeste Performanz abliefert.
In this work, a protocol for portable nanopore sequencing of DNA from pollen collected from honey bees, bumble bees, and wild bees was developed. DNA metabarcoding is applied to identify genera within the mixed DNA samples. The DNA extraction and ITS and ITS2 PCR parameters tested for this purpose were applied to the collected pollen sample and the amplicons were then decoded using the Flongle sequencer adapter from Oxford Nanopore Technologies. It is shown that the main pollinator resources at the different sites can be identified in percentage proportions. The protocol generated in this study can be used for further ecological questions.
In vielen Fällen der Kriminalistik steht die Eingrenzung eines Verdächtigenkreises im Vordergrund. Doch zur Verfügung stehen oftmals nur Zeugenaussagen oder Videomaterial, mit denen ein Phantombild oder eine grobe Beschreibung des Verdächtigen erstellt werden kann. Um anhand von Video- oder Fotomaterial eine Person besser beschreiben zu können, ist es Ziel dieser Arbeit ein statistisches Modell zur Beschreibung von Korrelationen in anthropometrischen Maßen und Pose Estimations herzuleiten.
Bei einer ersten Untersuchung wird geprüft, ob es möglich ist, Individuen der Körperhöhe 175 cm und 185 cm anhand sonstiger anthropometrischer Maße zu unterscheiden. Die positiven Resultate werden genutzt, um Möglichkeiten zu finden, eine Trennung der beiden Körperhöhengruppen auch mittels Pose Estimations vorzunehmen. Dazu wird ein erstes Regressionsmodell aufgestellt. Außerdem werden andere Charakteristiken des menschlichen Körpers genauer betrachtet, weitere Körpergruppen definiert und jene versucht mittels Pose Estimations vorherzusagen. Dabei können jedoch keine qualitativen statistischen Modelle zur Beschreibung von Korrelationen in anthropometrischen Maßen und Pose Estimations hergeleitet werden. Aufgrund dessen wird die direkte Vergleichbarkeit zwischen anthropometrischen Maßen und definierten Strecken der Pose Estimations untersucht. Diese kann jedoch nicht bestätigt werden. Daher wird an der Einteilung in Körpergruppen festgehalten. Um jene besser vorhersagen zu können, werden für alle Individuen weitere Aufnahmen aus wohl definierten Perspektiven gefertigt und anschließend mittels OpenPose verarbeitet. Die resultierenden Pose Estimations werden genutzt um dreidimensionale Rigs zu erzeugen. Dadurch sollen mit einer frontalen Betrachtung einhergehende Fehlerquellen, wie Drehungen oder Beugungen einzelner Körperteile, eliminiert werden. Um zu prüfen, welche Verbesserungen die dreidimensionalen Rigs mit sich bringen, werden die Untersuchungen aus dem ersten Teil dieser Arbeit wiederholt. Dabei wird festgestellt, dass mit wenigen Ausnahmen alle Ergebnisse verbessert werden können. Jedoch bleibt die Qualität einiger statistischer Modelle bei den durchgeführten Kreuzvalidierungen zu optimieren.
Untersuchung der Themendynamik in sozialen Netzen am Beispiel deutschsprachiger Texte auf Twitter
(2021)
Die vorliegende wissenschaftliche Abschlussarbeit behandelt die Untersuchung von Themenentwicklungen in deutschsprachigen Texten. Dazu wurden Twitterdaten von Bundestagsparteien analysiert. Über verschiedene Vorverarbeitungsschritte wurde eine LDA an das Problem angepasst. Mittels verschiedener Distanz- und Ähnlichkeitsmaße wurde eine Beschreibung der Themendynamik durchgeführt. Weiterhin wurden verschiedene Rahmenbedingungen erprobt, die zu einer Verbesserung der Ergebnisse führten.
Over the past few years, wind and solar power plants have increasingly contributed to energy production. However, due to fluctuating energy sources, the energy production data contain disruption. Such disrupted data lead to the wrong prediction performance, and they need to be estimated by other values. In this thesis, we provide a comparative study to estimate the online disrupted data based on the data of similar groups of power plants, We apply three estimation techniques, e.g., mean, interpolation, and k-nearest neighbor to estimate the disruption on training data. We then apply four clustering algorithms, e.g., k-means, neural gas, hierarchical agglomerative, and affinity propagation, with two similarity measures, e.g., euclidean and dynamic time warping to form groups of power plants and compare the results. Experimental results show that when KNN estimation is applied to data, and neural gas and agglomerative with dtw are used to cluster the data, the cluster quality scores and execution time give better results compared to others. Therefore, we conclude and choose KNN estimation to reconstruct the online disrupted data on each group of a similar power plants.
Die vorliegende Arbeit befasst sich der Erforschung des Gebietes Gamecrime. Es wird erläutert, was Gamecrime ist und inwiefern es rechtlich geregelt ist. Darüber hinaus wird diskutiert, an welchen Stellen die Gesetze aktuell an ihre Grenzen stoßen. Um Gamecrime zu verstehen, werden die Wirkungstheorien der Mediengewaltforschung dargestellt. Ferner wird noch über die Darstellung von Gamecrime in den Medien sowie über präventive Maßnahmen diskutiert.
Ziel dieser Arbeit ist die Entwicklung eines Modells, das über einen mehrstufigen Angriffsprozess das Passwort eines spezifischen Benutzers unabhängig von der Stärke des Passworts rekonstruiert. Der Fokus des Modells liegt auf dem benutzerspezifischen Angriff und dessen Präprozessor. Dieser soll unter Berücksichtigung der bisherigen Design- und Konstruktionsprinzipien des Benutzers sowie unter Einbeziehung seiner persönlichen Informationen die wahrscheinlichsten Passwort-Kandidaten generieren.
Im Rahmen der vorliegenden Masterarbeit wurden zwei CAN-Bus-Steuergeräte konzeptioniert und entwickelt, welche auf einem forensischen Demonstrator verbaut wurden. Die Funktionen der Steuergeräte sind zum einen die Steuerung einer Beleuchtungseinheit, zum anderen die Abstandsmessung sowie die Akkustandsüberwachung. Als Steuergeräte fungieren Arduino Nanos, welche über SPI mit CAN-Modulen kommunizieren können. Mit Hilfe der Analysesoftware BUSMASTER können CAN-Botschaften auf den CAN-Bus des Demonstrators gesendet werden. Der Demonstrator dient dabei als Grundlage für spätere forensische Untersuchungen des Controller Area Networks.
In der vorliegenden Masterarbeit wird der, im Jahr 2018 im Application Center Microcontroller entwickelte, forensische Demonstrator für das Controller Area Network (CAN) analysiert und auf Basis dessen ein Redesign konzipiert, entwickelt und getestet. Gemäß der in dieser Arbeit vermittelten Grundlagen zu aktuellen Bussystemen der Automobilindustrie und ihrer Datenübertragung, werden entsprechende CAN-Nachrichten implementiert und auf den CAN-Bus gesandt. Die Auswertung dieser Botschaften erfolgt durch die CAN-Analysesoftware BUSMASTER. Eine entsprechende Visualisierung der Daten wird durch die, für den BUSMASTER entwickelte, grafische Oberfläche realisiert.
In machine learning, Learning Vector Quantization (LVQ) is well known as supervised vector quantization. LVQ has been studied to generate optimal reference vectors because of its simple and fast learning algorithm [2]. In many tasks of classification, different variants are considered while training a model and a consideration of variants of large margin in LVQ helps to get significant
results [20]. Large margin LVQ (LMLVQ) is to maximize the distance between decision hyperplane and data points. In this thesis, a comparison of different variants of Generalized Learning Vector Quantization (GLVQ) and Large margin in LVQ is proposed along with visualization, implementation and experimental results.