Angewandte Computer‐ und Biowissenschaften
Refine
Document Type
- Bachelor Thesis (90)
- Diploma Thesis (18)
- Master's Thesis (10)
Year of publication
- 2017 (118) (remove)
Keywords
- Softwareentwicklung (5)
- Altersbestimmung (3)
- DNS (3)
- Videospiel (3)
- Bioinformatik (2)
- Blockchain (2)
- Computerforensik (2)
- Computersicherheit (2)
- Computerspiel (2)
- Daktyloskopie (2)
Institute
Maskenentwurf parametrisierbarer optoelektronischer Bauelemente einschließlich Entwurfsregelprüfung
(2017)
In diesem Projekt wird die Erstellung eines Satzes lithographischer Masken für die Halbleiterbearbeitung behandelt. Als Basis dient ein gut verstandenes Bauelement aus dem Bereich der Optoelektronik, eine Fotodiode. Diese wird im Rahmen des Diplomprojektes parametrisierbar entwickelt und entworfen sowie programmiert. Der Entwurf wird dann auf der Grundlage zu definierender Regeln einer Entwurfsregelprüfung unterzogen. Ziel dieser Arbeit ist es, die technologischen sowie funktionalen Regeln im Programm abzubilden.
Brassica oleracea like all crucifers plants have a defense mechanism against natural enemies, which are chemical compounds formed form the enzymatic degradation of glucosinolates. In the presence of epithiospecifier proteins (ESP), the hydrolysis of glucosinolates will form epithionitriles or nitriles depending on the glucosinolate structure, This research proved that three predicted sequences (ESP) taken from NCBI database has a role in the enzymatic hydrolysis of glucosinolates in Brassica oleracea.
Untersuchungen zu Chancen und Limits von Texture Maps im Umfeld der Entwicklung digitaler 3D Spiele
(2017)
Der Fortschritt in Computerhard- und software ermöglicht der Spieleindustrie, immer technisch versiertere digitale Spiele zu entwickeln. Besonders der Bereich des 3D und 2D Designs profitiert davon, obgleich immer noch Grenzen vorzufinden sind, welche in Hinsicht auf die Generierung von Game Assets zu berücksichtigen sind. Die vorliegende Arbeit untersucht dabei den aktuellen Forschungsstand und analysiert diesbezüglich Chancen und Limits sogenannter Texture Maps zur Erzeugung von Detail auf dreidimensionalen Objekten. Die Resultate dieser Untersuchung sollen am ausgewählten Beispiel der Videospielreihe Tomb Raider aufgezeigt werden.
Innerhalb dieser Bachelorarbeit werden Adaptive Musik, unterschiedliche Techniken der Videospielmusik und Elemente der Musiktheorie vorgestellt. Um die adaptiven und klanglichen Fähigkeiten der unterschiedlichen Techniken, welche sich während der Entwicklung der Videospiele etabliert haben, aufzuzeigen, wird final eine Übersicht darüber erstellt.
Die vorliegende Arbeit befasst sich mit der Konzeption und Planung einer web-basierten und teilweise automatisierten Serviceplattform zur Erfassung und Durchführung von Serviceaufträgen einer Servicestelle für Musikinstrumente. Das Hauptziel ist, dass diese Serviceinformationen auch dem Kunden selbst zur Verfügung gestellt werden und Ihm eine Kommunikation zur Servicestelle ermöglicht wird. Um diese Sessionbezogenen Zugriffe zu beschränken, soll ein System entwickelt werden, das sowohl die Verwendbarkeit als auch die Sicherheit der Datenweitergabe bedenkt. Zusätzlich soll durch die Funktionalität für die Firma die Zusammenarbeit zwischen der örtlich getrennten Serviceannahme und Servicedurchführung verbessert werden. Die Schaffung dieser Serviceplattform erfolgt zusammen mit der Neuerstellung eines modernen Webauftrittes.
Modularität in 3D-Videospielumgebungen und Techniken zur Verwendung und Minimierung der Nachteile
(2017)
Diese Arbeit thematisiert die Vorteile und Nachteile der Verwendung von modularen Asset-Sets sowie den Arbeitsablauf bei der Erstellung dieser in einer Echtzeit-3D-Umgebung. Am Ende sollen der Produktionsaufwand der Assets sowie die zu erwartende Performance besser eingeschätzt werden können. Zudem soll der Leser Zugriff auf Techniken erhalten, mit denen sich die Nachteile durch die Verwendung von modularen Assets minimieren lassen.
The Blockchain is a technology which has the capabilities to change the way, the world operates. As promising as this may be, there are still many challenges which do not exist or are way simpler to solve in conventional software solutions. Services which are offered over the blockchain suffer from so called Block-confirmation-times where the customer simply has to wait till the transaction is confirmed. In this paper possible solutions to that problem will be examined and challenges that arise from the specific criteria of the Ethereum Blockchain will be analyzed.
Digitaler Fingerabdruck PC
(2017)
Die vorliegende Arbeit befasst sich mit der Grundlagenentwicklung zur Erzeugung digitaler Fingerabdrücke eines PC Nutzers. Über eine Herleitung durch digitale Spuren werden Features identifiziert, die durch einen Nutzer am PC individualisiert werden können. Mit Hilfe eines selbstentwickelten Demonstrators werden diese erhoben und anschließend mögliche Vergleichsprozesse vorgestellt.
In der vorliegenden Arbeit werden drei Verfahren zum Nachweis von Legionella spec. auf ihre Einsatzfähigkeit in belasteten Wässern untersucht. Es werden theoretische Aus-sagen zum Thema Legionellen gemacht sowie die prinzipiellen Grundlagen der Metho-den - Kulturverfahren, ScanVIT® Legionella-Test und LegiolertTM-Test - dargestellt. Die Ergebnisse von untersuchten Kühlwasser- und Abwasserproben werden anschlie-ßend gegenübergestellt.
Die vorliegende Bachelorarbeit hatte zum Ziel, die auf der Kläranlage Schönerlinde bestehende Aktivkohleanlage zur Reinigung schwefelwasserstoffbelasteter Abluft zu optimieren. Dafür wurden sechs Aktivkohlen, mit unterschiedlichen Eigenschaften, in einer Versuchsanlage getestet. Es konnten drei unimprägnierte, zwei imprägnierte und eine dotierte Aktivkohle für die Experimente ausgewählt werden. Über die Ermittlung der Standzeiten und der Konzentrationen an Schwefelwasserstoff, die in den knapp sechs Wochen über die Kohle strömten, wurden die Beladungen berechnet. Somit konnten alle Aktivkohlen miteinander verglichen werden. Die Ergebnisse zeigten, dass die derzeit in der Aktivkohleanlage verwendete imprägnierte Kohle, DGF 4 KI 2 Bio von der Firma Carbo Tech, nicht die beste ist. Mit Kosten von 77,6 Tsd. € pro Jahr ist die dotierte Aktivkohle Dopetac sulfo 100® von der Firma Adfis die wirtschaftlichste Kohle. Diese überzeugte mit langen Standzeiten, der höchsten Beladung an Schwefel und dem günstigsten Preis.
The endogen steroid hormone 17b-estradiol is a central player in a wide range of physiologic, behavioral processes and diseases in vertebrates. As a consequence, it is a main target for molecular design and drug discovery efforts in medicine and environmental sciences, which requires in-depth knowledge of protein-ligand binding processes. This work develops a bioinformatic framework based on local and global structure similarity for the characterization of E2-protein interactions in all 35 publicly available three-dimensional structures of estradiol-protein complexes. Subsequently, it uses gained data to identify four geometrically conserved estradiol binding residue motifs, against which the Protein Data Bank is queried. As result of this database query, 15 hits present in seven protein structures are found. Five of these structures do not contain E2 as ligand and had thus not been included in this work’s initial data set. One of these newly detected structures is structurally and functionally dissimilar, as well as evolutionarily distant from all other proteins analyzed in this work. Nevertheless, the ability of this protein to actually bind estradiol must be further analyzed. Finally, geometrically conserved E2-protein interactions are identified and a new research direction using these conserved interaction ensembles for the detection of novel estradiol targets is proposed.
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung einer Schädelfraktur in einem archäologischen Fund. Es werden Hypothesen über die Ursache diskutiert und in Teilen experimentell überprüft. Aufgrund von zeitlichen Einschränkungen und fehlenden Materialien wurde eine andere Hypothese getestet, als ursprünglich vorgesehen: Es wurde versucht, die Krafteinwirkung eines Grabungswerkzeuges auf einen archäologischen Schädel durch Versuche mit künstlich "gealterten" Schweineschädeln nachzustellen. Da nur eine kleine Testgruppe an Schädeln zur Verfügung stand und keine originalen Werkzeuge verwendet wurden, konnten die Versuche die Hypothese nicht eindeutig belegen oder wiederlegen. Die in dieser Arbeit angestellten Überlegungen und Erfahrungen können aber als Grundlage für weiterführende Arbeiten dienen.
Diese Arbeit behandelt die Entwicklung der Daktyloskopie als Instrument der Personenidentifizierung sowie der Bestimmung weiterer Informationen aus Fingerabdrücken. Unter Berücksichtigung des technischen Fortschritts des digitalen Zeitalters wird im Laufe der Arbeit nicht nur auf neue Methoden in der Daktyloskopie, sondern auch auf die Herausforderungen der Sichtbarmachung daktyloskopischer Spuren eingegangen. Daraus resultieren die Möglichkeiten Informationen zum Spurenverursacher zu erfahren, das Alter eines Abdrucks einzuschätzen und mittels der neuen Verfahren Abdrücke auf problematischen Oberflächen sichtbar zu machen. Auch die Entstehung des Fingerabdruck-Klassifizierungssystems wird in der Arbeit beschrieben. Durch die Auseinandersetzung mit jeglichen Entwicklungen in der Daktyloskopie soll schließlich geklärt werden, ob diese erfolgsversprechender sind, herkömmliche Mittel zur Sichtbarmachung daktyloskopischer Spuren ersetzen werden und ob in der Zukunft eine Automatisierung sowie Digitalisierung der Spurensuche stattfinden wird.
Die vorliegende Bachelorarbeit setzt sich mit der Fragestellung auseinander, ob langfristige Verhaltensveränderung durch Gamification erreicht werden kann. Dazu werden in dieser Arbeit die erfolgreiche Implementation von Gamification, die Faktoren der Langzeitbindung in Spielen und die verhaltensbeeinflussenden Methodiken der Verhaltenstherapie untersucht. Die erarbeiteten Faktoren der verschiedenen Bereiche werden abschließend auf Schnittmengen überprüft und zu einem theoretischen Modell zusammengefügt.
Konfiguration IT-forensischer Untersuchungspläne mittels wiederverwendbarer Methodenbausteine
(2017)
Das Ziel der vorliegenden Bachelorarbeit war es, die in meinem hochschulinternen Praxisprojekt, eingereicht am 12.05.2017, generierten Bausteine zur automatischen Erstellung von IT-forensischen Untersuchungsplänen zu verbessern und weiterzuentwickeln, um so eine höhere Abdeckung von Fällen zu erreichen. Dazu wurde Literatur gesichtet und ein Interview mit Herrn Alexander Sigel, DigiTrace GmbH Köln, geführt. Das Praxisprojekt wurde ebenfalls von Herrn Sigel betreut.
In dieser Arbeit konnten erfolgreich neue Bausteine konfiguriert und bereits vorhandene Attribute von bestehenden Bausteinen sinnvoll erweitert werden. Die automatisch generierten Untersuchungspläne, ausgehend von diesen Bausteinen, können als Gedankenstütze oder Checkliste dienen und Fehler während der Untersuchung oder während der Erstellung des Untersuchungsplans minimieren. Durch die zielgerichtete Abfrage nach bestimmen Untersuchungszielen auf bestimmten zu untersuchenden IT-forensischen Geräten, Objekten, auf denen ein bestimmtes Betriebssystem installiert ist, können die ausgegebenen Untersuchungsschritte gezielt an den Untersuchungsauftrag angepasst werden.
Die Bachelorarbeit ist sowohl für Studierende als auch für selbstständige oder angestellte IT-Forensiker interessant, die im Zuge ihrer Arbeit Untersuchungspläne erstellen, um die Untersuchung systematisch zu gestalten.
Im Rahmen dieser Arbeit wird die Herstellung, Evaluierung und in vitro-Charakterisierung Luciferase-exprimierender Candida albicans-Stämme gezeigt, welche in einem späteren Brandwundeninfektionsmodell an Ratten eingesetzt werden, um den Infektionsverlauf nach Applikation von Candida albicans in vivo zu untersuchen.
In dieser Arbeit wurde mittels grafischer Bildanalyse die Fließrichtung deutscher Oberflächengewässer bestimmt. Die Bestimmung beruht auf der einfachen Logik, dass jede Quelle in einem Einzugsgebiet, zu einem eindeutigen Gebietsausfluss führt. Dazu wurde ein Java Programm geschrieben, welches in ImageJ eingebunden wurde und als Plug-in fungiert. Mit dem Programm ist es möglich, für jede geografisch erfasste Flusskoordinate die Quell- und Senkenentfernung zu erhalten, die Anzahl an Verzweigungen zu bestimmen sowie die Koordinaten des gesamten oder wahlweise in km abgestuften Oberlaufs an Zielkoordinaten zu erfassen. Das Programm wurde genutzt, um für Makrozoobenthos-Messstellen die Landnutzung im Oberlauf 100 m rechter- und linkerhand des Zielflusses zu berechnen, um daraus Rückschlüsse auf mögliche Eintragspfade von Pflanzenschutzmitteln zu ziehen. Desweiterem wurden aus dem deutschlandweiten Datensatz von knapp 21.000 Messstellen weitgehend naturbelassene Flussabschnitte selektiert, welche als Referenzgewässer fungieren.
Die vorliegende Diplomarbeit befasst sich mit der Analyse, Kontrolle und Optimierung der Videoaufzeichnung bei LinkedIn Austria. Anhand der Problemstellung wurde ein Tool (video-detective) programmiert. Daten zu sammeln und zu analysieren ist das Hauptziel des video-detective. Anhand der Analyse wird der gesamte Workflow der Videokontrolle beschleunigt und vereinfacht. Auf die Bedienbarkeit wird besonders Wert gelegt. Für eine schnelle Übersicht werden die gesammelten Daten grafisch dargestellt. Ein weiteres Ziel dieser Arbeit ist, fehlerhafte Video-Files so schnell wie möglich zu erkennen und richtige Gegenmaßnahmen einzuleiten. Die Kontrolle der Files soll möglichst im Hintergrund stattfinden und den Dozenten nicht bei den Aufzeichnungen stören.
Ziel der vorliegenden Arbeit war es, ein Qualitätssicherungssystem von Tierarzneimittel – Standardsubstanzen zu erstellen, indem die chromatographischen Eigenschaften der Wirkstoffe, die zur Überprüfung der Arzneimittelrückstände in Lebensmitteln dienen, erfasst und dokumentiert wurden. Der Bestand der internen Datenbank, die zum Untersuchungsspektrum der „Landesuntersuchungsanstalt für das Gesundheits- und Veterinärwesen“(LUA) Chemnitz gehören, umfasst derzeit 745 Wirkstoffe, hierbei konnten 437 Wirkstoffe in die Stabilitätsprüfung aufgenommen werden. Es wurden 103 Substanzen mittels GC-MS und 334 Wirkstoffe mittels HPLC-DAD erfasst und dokumentiert. Es wurde mittels einer Dreifachmessung ein geeignetes Verfahren zur Überprüfung der chromatographischen Eigenschaften und zur Kontrolle der Stabilität gefunden.
Die vorliegende Arbeit hat die Erstellung eines Konzeptes und die prototypische Umsetzung von Maßnahmen zur Verbesserung der Client-Sicherheit mit EOL-Betriebssystemen zum Ziel. Die Erstellung des Konzeptes basiert auf dem Beispiel der Tirol Kliniken GmbH. Im theoretischen Teil werden die Grundlagen zur IT-Sicherheit und das Gefahrenpotential betrachtet. Im praktischen Teil wird ein allgemeines Konzept ausgearbeitet, mit Hilfe dessen analysiert werden kann, inwiefern die EOL-Clients im Unternehmen geschützt sind und ob es weiterer Maßnahmen bedarf. Dies wird am Beispiel der Tirol Kliniken, mit besonderem Fokus auf McAfee Application Control, dargestellt.
Im Rahmen dieser Arbeit werden existierende Taxonomien und Ergebnisse weiterer wissenschaftlicher Arbeiten, welche sich mit der Aufnahme und Verarbeitung auditiver Reize, sowie möglichen Reaktionen auf diese, beschäftigen, miteinander verknüpft. Zudem werden die Erfahrung eines Videospiels im Spieler, die dafür von ihm benötigten, mentalen Fähigkeiten, als auch Funktionen von Audio hinsichtlich der Anwendung in der Mensch-Maschine-Interaktion, zu besagten Kategorisierungen in Relation gesetzt, um eine Kategorisierung zu erschließen, welche bei der Arbeit mit auditiven Reizen angewandt werden kann. Das Ziel hierbei ist das Streben nach einer idealen Erfahrung im Spieler eines Videospiels zu unterstützen, sowie das Schaffen eines vollständigen Leitfadens zum Sound Design von Videospielen weiter voranzutreiben
AVL entwickelt aktuell einen neuen Ladungsverstärker, der sich von Vorgängermodellen dadurch unterscheidet, dass zusätzlich zur Ausgabe der verstärkten und gefilterten Signale auch deren Digitalisierung und Verarbeitung in einem Signalprozessor vorgesehen sind. Für diese Hardware soll im Signalprozessor ein intelligenter Algorithmus zur Driftregelung als auch eine Ermittlung und statistische Bewertung der Signalspitzenwerte konzipiert und als Firmwarekomponenten umgesetzt werden. Aufgrund seines Aufbaus benötigt ein Ladungsverstärker eine permanente Kompensation der auftretenden Drifteffekte, um den Signalnullpunkt stabil zu halten. Solche Drifterscheinungen kommen sowohl durch die nicht idealen Komponenten, zu geringe Isolation der Signalwege als auch durch diverse Effekte der verwendeten Quarzdruckaufnehmer zustande. Durch Analyse des digitalisierten Messsignals soll laufend die Nullpunktsdrift ermittelt und durch Abgabe einer Korrekturspannung an einen DAC, aus der wiederum ein Kompensationsstrom für den Ladungs-/Spannungskonverter erzeugt wird, vollständig ausgeregelt werden. Die für die Driftregelung erforderliche Signalanalyse, soll gleichzeitig auch dazu verwendet werden, laufend den Spitzenwert des Signals zu ermitteln und diesen einer von 5 Klassen zuzuordnen und die Häufigkeiten in den Klassen zu kumulieren. Auf diese Weise kann dem Anwender ein Maß für die vom Sensor wahrgenommene Belastung, übermittelt, und somit ein Kriterium zur Entscheidung für einen eventuellen Sensoraustausch geboten werden.
Das Ziel der vorliegenden Bachelorarbeit ist es, die wichtigsten theoretischen Konzepte zum kreativen Lernen zu vergleichen und empirisch zu überprüfen. Dazu wurde in zwei Kita eine teilnehmende Beobachtung durchgeführt. Die Ergebnisse sollen herausfinden, in welcher Weise Animationsfilme Lernhilfen für Kinder darstellen. Folgende Schlussfolgerungen gehen jedoch nach der Auswertung der teilnehmenden Beobachtung über die theoretischen Annahmen hinaus: vbL in Kitas ist möglich, erweist sich im Alltag allerdings Schwierig, Animationsfilme oder digitale Medien sollten im Kita-alltag sparsam eingesetzt werden und vbL sollte nur genutzt werden, wenn Kinder dabei selbst aktiv werden können.
Die vorliegende Arbeit befasst sich mit Verfahren und Methoden zur Optimierung der Performanz und Bedienbarkeit von Filtervorgängen. Hauptaugenmerk liegt auf der Konzeption und Implementierung eines Prototyps für die Filterung von Artefakten mit inhomogenen Attributen. Dazu erfolgt die Anbindung an ein Indexsystem, die Erzeugung einer Filtersprache mit zugehöriger Grammatik sowie die Bereitstellung von Filtervorschlägen
Die JavaScript-Bibliothek React ist inzwischen seit mehreren Jahren eine beliebte und weit verbreitete Technologie im Bereich der Frontend-Webentwicklung. In Kombination mit Redux ermöglicht React die Erstellung funktionaler Benutzeroberflächen selbst für komplexe Anwendungen. Es stellt sich die Frage, wie solche React-Anwendungen am besten zu testen sind. Zwei häufig genutzte Test-Frameworks für diesen Zweck sind Mocha und Jest. Diese werden in dieser Bachelorarbeit an Hand zuvor definierter Qualitätskriterien in mehreren Kategorien miteinander verglichen und so auf ihre Tauglichkeit für das Testen von React-Applikationen untersucht. Als Schwerpunkt der Gegenüberstellung wird eine Reihe von Tests mit beiden Frameworks für eine bereits bestehende App auf Basis von React und Redux implementiert. Am Ende steht die Beantwortung der Frage, welches der beiden Frameworks auf Grundlage der Untersuchungsergebnisse für das Testen von React-Anwendungen vorzuziehen ist.
Bereits 1886 entdeckte der Kinderarzt Theodor Escherich ein neuartiges Bakterium, welches später den Namen Escherichia (E.) coli bekommt, im Darm von Kleinkindern. Im Laufe der Jahre fand man heraus, dass E. coli sowohl probiotische, als auch pathogene Eigenschaften haben kann. Pathogene E. coli können eine ganze Reihe gefährlicher Durchfallerkrankungen auslösen, was eine sichere Diagnose der Erreger notwendig macht. Die zuverlässigste Analysemethode ist die Polymerase-Ketten-Reaktion (PCR). Dabei können kleinste Mengen DNA vervielfältigt und anschließend analysiert werden. Ziel dieser Arbeit ist die Entwicklung und Validation einer Multiplex-PCR, um insgesamt sieben verschiedene pathogenen E. coli nachweisen und unterscheiden zu können
Die Aminosäure Phenylalanin wird in vielen sekundären Stoffwechselwegen benötigt, so auch im Phenylpropanoid Stoffwechselweg. Feruloyl-CoA ist eines dieser Stoffe des Phenylpropanoid Stoffwechselwegs. Aus Feruloyl-CoA können unter anderem Cumarine und Suberin gebildet werden. Da beide Stoffe aus Feruloyl-CoA synthetisiert werden können wurden die Synthesewege dieser Stoffe auf Kompetitivität untersucht. Die Cumarinanalyse wurde an Nicotiana tabacum Zellkulturen und deren Medien mittels HPLC, Dünnschichtchromatographie und fotometrischen Messungen durchgeführt. Die Cumarine wurden über phenolische Extraktion aus den Zellen gewonnen, während die Cumarine aus den Medien durch Festphasenextraktion isoliert wurden. Suberin wurde an Arabidopsis thaliana Ökotyp Columbia und Arabidopsis thaliana Mutante Feruloyl-CoA 6’-hydroxylase, durch Anfärben des Suberins am Konfokalmikroskop untersucht. Arabidopsis thaliana und Nicotiana tabacum wurden auf eisenhaltigen und eisenmangel Medien kultiviert. Eine Erhöhte Bildung an Scopoletin und Scopolin konnte unter Eisenmangel nachgewiesen werden. Beide Organismen der Suberinanalyse wiesen eine unverändert starke Synthese auf, es wurden nur Änderungen im Suberinisierungsmuster beobachtet. Somit hat sich die Hypothese, dass es unter Eisenmangel zu einer geringeren Synthese von Suberin durch erhöhte Cumarinsynthese kommt, nicht bestätigt.
Titandioxid-Nanopartikel zählen zu den meist verwendeten Nanopartikeln der modernen Industrie. Durch ihre Anwendung gelangt ein Großteil ins Abwasser, womit das Verhalten der Nanopartikel in Kläranlagen einen entscheidenden Prozess für die Abschätzung des Umweltrisikos bildet. In dieser Arbeit wurden zwei Laborkläranlagen betrieben und Mittels der Abbauleistungen für TOC, DOC, TNb und Gesamtphosphor auf ihre Funktionsfähigkeit überprüft. Ein Kohlenstoffabbau von im Mittel >90 % wurde angestrebt und auch erreicht. Eine Anlage wurde einmalig mit 62,7 mg Titandioxid-NP beimpft. Die zweite Anlage wurde täglich mit 1 mg/d beimpft. In beiden Versuchen wurde ein Großteil der Nanopartikel (>90 %) im Schlamm wiedergefunden und nur 4 % bis 10 % in der wässrigen Phase. Es wurden keine negativen Auswirkungen auf die Mikroorganismen durch die Nanopartikel beobachtet
Im Rahmen dieser Arbeit wurde ein Assay entwickelt, um den Biomarker TIMP-1 quantitativ nachzuweisen. Dafür wurden in einem ersten Schritt homogene und heterogene Immunoassays hinsichtlich ihrer Eignung zum Nachweis von Biomarkern in Urinproben untersucht. Die beiden homogenen Immunoassays SPARCL und AlphaLISA erwiesen sich als nicht geeignet. Inhibitoren aus dem Urin, wie zum Beispiel Ascorbinsäure, störten bei diesen Assays die Signalgebung. Für den heterogenen Immunoassay wurden drei verschiedene Strategien für die Immobilisierung des Fänger-Antikörpers auf Polystyrol entwickelt und ihre Effektivität verglichen. Bei der Immobilisierung des Antikörpers durch Adsorption an der Oberfläche zeigte der Assay die höchste Empfindlichkeit für den Biomarker TIMP-1. Diese Immobilisierungsstrategie wurde auf einen Mikrochip übertragen. Die quantitative Detektion verschiedener Biomarker-Konzentrationen auf dem Chip konnte realisiert werden. Um die Empfindlichkeit des Assays zu erhöhen, müssen das Chip-Design verändert und die Detektionsmethode optimiert werden.
Automatisierte Erkennung von Malware auf Linux Systemen mit Hilfe von Indicators of Compromise
(2017)
Die Bachelorarbeit beschäftigt sich mit der Frage, inwiefern eine automatisierte Suche nach Malwarespuren mit Hilfe von „Indicators of Compromise“ auf Linux-Systemen realisierbar ist. Hierfür wird eine Liste von möglichen Malwareindikatoren in einer Linux Umgebung erstellt. Durch den Autor wurden 25 Indikatoren aufgestellt. Zu jedem Indikator werden zwei Ansätze zur Automatisierung beschrieben. Ein Ansatz bezieht sich auf die automatisierte Datenerhebung. Der andere auf die automatisierte Analyse der erhobenen Daten. Für beide Ansätze werden innerhalb der Beschreibung Tools genannt, die für die Umsetzung in Frage kommen. Um die entwickelten Ansätze zu testen, wurden ausgewählte Indikatoren in einem Skript umgesetzt. Durch das Skript wurde die Erkennung von Malware auf Grundlage von Veränderungen in der Userlandschaft, Code innerhalb des Kernels und der Prozesse getestet. Hierfür wurde der Code auf einer mit Malware infizierten virtuellen Maschine ausgeführt. Die anschließende Überprüfung der erhobenen Daten konnte jedoch keine der getesteten Malware Beispiele anhand von IoCs erkennen. Daher müssen für eine effektive Malware Erkennung weitere Indikatoren hinzugezogen werden. Als Endergebnis der Arbeit konnte gezeigt werden, das eine teil-automatisierte Erkennung von Linux Malware mit Hilfe von IoCs möglich ist. Dabei kann vor allem die Datenerhebung automatisiert werden. Für die Analyse ist eine Automatisierung nur beschränkt möglich
Diese Arbeit untersucht den Einfluss westlicher und japanischer Kultur auf die Videospielindustrie. Dabei reduziert sie sich auf einen gewissen Kulturbegriff und schafft mithilfe dessen ein aktuelles und neutrales Bild der Stereotypen beider Kulturen. Eine analytische Betrachtung am praktischen Beispiel einiger Videospiele, gibt dabei Aufschluss über unterschiedliche Konzepte, die durch das bestehen von Kulturen geprägt wurden. Auf Grundlage der quantitativen Umfrage werden gewisse Neigungen und Präferenzen der westliche Audienz untersucht und analysiert und mit den theoretischen, sowie analytischen Ansätze verglichen und in Relation gesetzt. Das Ergebnis zeigt, dass kulturelle Wertmuster im Zuge der Globalisierung einander annähern und die Grenzen der eindeutigen Identifikation zunehmend verschwimmen
Is it possible today to provide proper education to children without the use of digital me-dia? This thesis aims to answer this question and to give a clear overview to the reader about the current situation of the upper school in Saxony.
Exemplary at both subjects informatics and history, the thesis looks at the currently used communication, technologies and the possibilities for further education. Furthermore, those methods are analyzed and compared to the actual ideal standards of media usage. The real prevailing state was determined due to a survey at the schools. Following this analysis, this thesis creates a concept with suggestions and guidelines for a further im-proving of the practiced teachings and their media usage
Ziel dieser Diplomarbeit ist es, eine geeignete mobile Messmethode für ein Motorenüberwachungssystem mit Erkennung und Ausgleichsroutine bei Motorlaständerungen zu finden. Zunächst werden Grundlagen und wichtige Kennwerte der Indiziermesstechnik erklärt. Danach folgt die Gegenüberstellung von zwei Messmethoden mit erweiterter Plausibilitätsüberprüfung der verwendeten Sensoren. Die Validierung aussagekräftiger Resultatwerte, soll als Grundlage für die Erweiterung des Softwareablaufs dienen. Die beiden letzten Kapitel befassen sich mit der Erweiterung des Softwareablaufs sowie einer Zusammenfassung mit Ausblick.
In dieser Thesis wird das Konzept des Software Defined Networkings (SDN) und den daraus resultierenden Möglichkeiten näher betrachtet. Auf dieser Grundlage wird beschrieben wie mit Hilfe einer SDN Umgebung eine kritische Infrastruktur abgesichert werden kann. Hierzu wird eine Mikrosegmentierung mit VMware NSX und auf Basis des VXLAN Protokoll realisiert. In weiterer Ausbaustufe werden zwei Rechenzentren zu einer hybriden Cloud zusammengeschlossen und demonstriert wie Layer 2 Datenverkehr zwischen beiden Rechenzentren transparent übertragen und dadurch die Sicherheit für solch ein Szenario erhöht wird. Darauf folgt ein Vergleich mit einer vergleichbaren Netzwerkumgebung, mit abschließender Beurteilung des Sicherheitsniveaus der implementierten Infrastruktur.
Diese Arbeit beschäftigt sich mit Smartcards, welche mit Hilfe der NFC-Technologie kontaktlos Daten übertragen können. Zunächst wurde der theoretische Rahmen gespannt, um die Grundsteine dieser Forschung zu erläutern: RFID, Smartcards und NFC. In einer explorativen Untersuchung fand die Analyse und der Vergleich von Smartcards verschiedener Hersteller statt. Dazu wurden diese in einer virtuellen Testumgebung mit unterschiedlichen Android-Applikationen beschrieben und ausgelesen. Als Referenzanwendung diente eine selbstprogrammierte App. Die Ergebnisse zeigen, dass es ohne große Fachkenntnisse und mit geringem zeitlichen und finanziellen Aufwand möglich ist, Smartcards mit NFC-Chips auszulesen, welche für sensible Anwendungen, wie beispielsweise kontaktlose Bezahlvorgänge oder Patientendaten, verwendet werden.
Diese Bachelorarbeit zielt darauf ab, die Vor- und Nachteile des Game Asset Creation Workflows und des Textureless Workflows, für mobile Augmented Reality Geräte anhand der Microsoft HoloLens zu ermitteln. Hierfür wurden beide Workflows in Sachen Performance und Erscheinungsbild mithilfe einer Testreihe verglichen. Es wurden für jeden Workflow jeweils drei Modelle mit unterschiedlichen Parametern erstellt. In der Testreihe wurden daraufhin verschieden Texturen separat getestet, um genau sagen zu können, welche Texturen für Performanceeinbrüche sorgen. Das Ergebnis der Testreihe bestätigt die vorher getroffene These, dass der Textureless Workflow über die bessere Performance verfügt. Diese Bachelorarbeit ist sowohl für Modellierer von 3D Modellen für mobile Augmented Reality Geräte interessant, als auch für HoloLens Entwickler.
Das Ziel der Bachelorarbeit ist es, das Thema Farbsehstörungen mit Fokus auf Rot-Grün-Sehschwäche und deren Berücksichtigung in Gesellschaftsspielen zu untersuchen. In diesem Rahmen wird ein Handout zum Thema Farbsehstörung sowie Farbkombinationen, die für Menschen mit einer Rot-Grün-Sehschwäche und -Blindheit geeignet sind, erstellt. Die Bachelorarbeit ist für betroffene Menschen, Spieleverlage sowie Interessierte gedacht. Anfangs werden die Themengebiete Farbsehstörung sowie Gesellschaftsspiele theoretisch untersucht um anschließend Farbkombinationen heraus-zuarbeiten, die für Betroffene gut unterscheidbar sind. Diese werden innerhalb einer Umfrage mit 307 Teilnehmern bewertet und in das Handout eingearbeitet. Die Autorin erhofft sich mit dem Handout Spieleverlage zu diesem Thema zu sensibilisieren
Design und Implementierung eines Steuergerätes zur CAN-Signaldarstellung auf mobilen Endgeräten
(2017)
Im Rahmen der Diplomarbeit erfolgt die Konzeptentwicklung und Implementierung eines Steuergerätes, mit dem CAN-Signale auf mobilen Endgeräten dargestellt werden. Das Steuergerät stellt eine Kostengünstige sowie Flexibel einsetzbare Lösung dar. Die Signale werden in einer Web-Applikation bereitgestellt, die von mobilen Endgeräten aufgerufen werden kann. Das realisierte Steuergerät ist für den Einsatz in prototypischen Fahrzeugen konzeptioniert
Diese Arbeit behandelt die phylogenetische und phylogenomische Analyse der Schlauchpilz-Ordnung Saccharomycetales. In diesem Rahmen wurden über Hundert zugehörige Spezies auf ihre Phylogenese mithilfe von diversen modernen Verfahren und Implementierungen untersucht. Die Basis für die quantitativ umfangreichen Analysen bildeten ausgewählte Genom-Sequenzierungen und davon abgeleitete Gen- und Protein-Sequenzen. Diese Abhandlung setzt eigene Ergebnisse darüber hinaus in einen umfassenden wissenschaftsgeschichtlichen Kontext und zeigt Parallelen, wichtige Fragen und Probleme hierzu auf.
In dieser Bachelorarbeit wird die steigende Nutzung von computerbasierten Animationstechniken und ihre Auswirkungen auf die Popularität von handgezeichneten Animationen und Stop-Motion-Filmen analysiert und kritisch hinterfragt. Unter Animation sei in diesem Fall ein Bewegtbild in Form eines Films, einer Fernsehserie oder eines auf sonstige Weise verbreiteten Videos zu verstehen, welches ausschließlich unter Verwendung von Computern, Puppentrick oder gezeichneten Bildinhalten erstellt wurde. Animierte Elemente in Realfilmen sollen nicht berücksichtigt werden. So sind in Filmen, wie JASON AND THE ARGONAUTS (R.: Don Chaffey. USA 1963) oder AVATAR (R.: James Cameron. USA 2009), zwar animierte Elemente enthalten, jedoch dienen diese lediglich als Werkzeug zur Erweiterung der filmisch darstellbaren Realität. Diese Werke sind somit nicht als Animationsfilme kategorisiert und werden in dieser Arbeit nicht grundlegend behandelt. Jegliche Erwähnung dieser Art steht im direkten Zusammenhang zu ihrer Auswirkung auf die zugrunde liegende Animationsform. In dieser Arbeit wird erläutert, in welchem Maße das computergenerierte Bewegtbild in der Populärkultur eine Vorrangstellung einnimmt und welche geschichtlichen Hintergründe dazu führten. Dazu wird Zeichentrick vor allem auf seinen Kostenaufwand, die allgemeine Produktionsdauer, die benötigte Arbeiterschaft und seine Popularität in der Bevölkerung hin untersucht. All dies geschieht im Vergleich zu Computeranimation. Außerdem wird versucht, anhand globaler Vergleiche Lösungsansätze zu finden, mit deren Hilfe die Marktfähigkeit von 2D- und Stop-Motion-Animationsfilmen zukünftig gewährleistet bleiben kann. Das Thema lässt sich im Fachbereich Medien einordnen. Besonders Interessenten der Animationsfilmherstellung und Medienstudenten soll diese Abhandlung nützliche und wissenswerte Sachverhalte über die zugrunde liegende Kontroverse näherbringen.
Im Rahmen der zwölfwöchigen Bearbeitungszeit wurde in dieser Bachelorarbeit die Analyse und das Zeitmanagement von Routineparameter in unserem Labor, labopart – Medizinische Laboratorien in Chemnitz, getätigt. Ziel war es durch statistische Erfassungen und intensive Mitarbeit, die Notwendigkeit der Anschaffung neuer Analyzer sowie weitere Optimierungsgründe finden und beschreiben zu können.
Die vorliegende Arbeit befasst sich mit der Analyse der Verbindungen zur Blockchain-Technologie und der künstlichen Intelligenz. Das Hauptziel ist, neue Bereiche der beiden Technologien zu beschreiben und zu erklären. Zuerst werden inhaltliche Fragen und Erklärungen für ein besseres Verständnis der beiden Technologien erläutert. Des Weiteren werden gemeinsame Einsatzszenarien, sowie dessen Realisierung betrachtet. Zuletzt werden Vor- und Nachteile, sowie eine Zukunftsprognose der Blockchain-Technologie und der künstlichen Intelligenz aufgestellt.
Die Bachelorarbeit befasst sich mit dem Zeitmanagement von sieben ausgewählten CITO-Parametern. Besonders liegt dabei der Schwerpunkt auf der Analyse der Zeiten der eiligen CITO-Parameter, welche anhand ausgewählter statistischer Methoden erfolgt. Dazu gehört die Auswertung der Ankunftszeiten der Blutproben, der Turn-Around-Zeiten dieser Proben im Labor und der wöchentlichen Mediane der Turn-Around-Zeiten, sowohl in Form eines Diagramms, als auch mithilfe eines Boxplots, mit dem die Durchlaufzeiten innerhalb eines Monats noch besser visualisiert werden können. Um störende Faktoren innerhalb des Labors zu erkennen, wird der Laborablauf einer Probe analysiert und die Aufenthaltsdauer ausgewählter Stichproben an den verschiedenen Laborarbeitsplätzen verfolgt. Darüber hinaus werden die CITO-Parameter mit den täglich längsten Turn-Around-Zeiten genauer überprüft, wodurch sich ebenso Gründe für verlängerte Zeiten finden lassen. Anhand der statistischen Auswertung wird es möglich, Optimierungsvorschläge zu finden, die besonders den Laborablauf der eiligen Blutproben in Zukunft verbessern können.
Es wurde zum einen ein IgG-ELISA zum spezifischen Nachweis von Anti-Dengue-Antikörpern in humanen Seren entwickelt und optimiert mit dem Schwerpunkt einer besseren Spezifität im Vergleich zu bereits auf dem Markt befindlichen ELISA-Tests. Zum anderen wurde eine real-time-PCR zum Nachweis von Dengueviren in humanen Seren mit gleichzeitiger Serotypenbestimmung entwickelt und optimiert