Refine
Document Type
- Bachelor Thesis (703)
- Master's Thesis (180)
- Diploma Thesis (56)
Year of publication
Keywords
- Computerforensik (56)
- Softwareentwicklung (52)
- Computersicherheit (48)
- Videospiel (45)
- Maschinelles Lernen (44)
- Blockchain (25)
- Computerspiel (23)
- Datensicherung (21)
- Virtuelle Realität (18)
- Programmierung (17)
Institute
- Angewandte Computer‐ und Biowissenschaften (939) (remove)
Diese Bachelorarbeit befasst sich mit der von MEGWARE GmbH gestellten Aufgabe der Entwicklung eines automatisierten Testsystems für das Softwareprodukt ClustWare. Dabei werden nach der theoretischen Betrachtung des Continuous Integration- und Testprozesses diese mit GitLab auszugsweise implementiert. Innerhalb dieses Ablaufes erfolgt die Nutzung von Docker im Rahmen des automatisierten Buildsystems sowie einer prototypischen Testsuite. Diese beinhaltet sowohl eine grundlegende Abdeckung mittels Smoketest als auch eine exemplarische programmierte Umsetzung durch Selenium. Entsprechend werden Probleme und kritische Abschnitte für die erstmalige Einrichtung betrachtet und näher untersucht.
In this work, we identify similarities between Adversarial Examples and Counterfactual Explanations, extend already stated differences from previous works to other fields of AI such as dimensionality, transferability etc. and try to observe these similarities and differences in different classifier with tabular and image data. We note that this topic is an open discussion and the work here isn’t definite and canbe further extended or modified in the future, if new discoveries found.
Die vorliegende Arbeit befasst sich mit dem Entwurf eines Labornetzgeräts, das zusätzlich zu der konventionellen analogen Steuerung über Drehregler, noch die Möglichkeit der digitalen Steuerung über Bluetooth und WIFI bietet. Durch Verwendung eines integrierten Akkus und die Möglichkeit das Netzgerät über Solarenergie zu betreiben, soll eine Vielzahl an Anwendungsfällen abgedeckt werden. Konkret werden potentielle Schaltungstopologien analysiert und Entwurfskriterien diskutiert. Diese Projektstudie soll einen Referenzwert über Möglichkeiten und Probleme eines solchen Labornetzgeräts bieten.
Diese Arbeit befasst sich mit dem Erstellen eines digitalen, fotorealistischen Porträts. Dabei werden die Grundlagen sowie das Vorgehen beim Entstehungsprozess beschrieben. Im Weiteren untersucht diese Arbeit Methoden zur Einschätzung des Zeichenfortschritts des erstellten Bildes. Diese werden getestet und ihre Ergebnisse anschließend ausgewertet.
In dieser Bachelorarbeit steht die Untersuchung eines IoT-Gerätes im Fokus. Das Smart Home Security Kit der Firma D-Link wird in allen Bestandteilen auf deren Funktionsweise getestet und analysiert. Das Vierkomponentensystem verfügt über eine Überwachungskamera, einen Fenster-/ Türsensor, einer Sirene
und einem Hub. Im Vordergrund der steht die Datensicherheit und die Zuverlässigkeit der Verwahrung von sensiblen Nutzerinformationen. Es findet die Untersuchung der Hard- und Software sowie der Cloud, App und Website statt. Übertragungsprotokolle und genutzte Sicherheitsstandards werden kritisch beleuchtet. Am Ende findet die Überprüfung der Hardware auf mögliche Manipulationen statt. Es soll ein Überblick über mögliche Vorangehensweisen und Tools gegeben werden, welche auf andere Systeme angewendet werden könnten.
In der heutigen Gesellschaft finden zunehmend Fitnesstracker Anwendung. Viele Menschen sind daran interessiert ihre körperlichen Aktivitäten über den Alltag hinweg aufzuzeichnen, um einen Überblick über ihre Gesundheit oder Fitness zu erhalten. Aufgezeichnete körperliche Aktivitäten sollen in dieser Arbeit speziell mit GPS-Positionen, die auf einem separaten Gerät von derselben Person generiert wurden, in Verbindung gesetzt werden. Konkret wird eine Datenkopplung innerhalb eines Aggregationsalgorithmus für Geo-Positionen integriert. Die Aktivitätsdaten werden ausgewertet und über eine Java-Applikation dem Anwender zur Verfügung gestellt. Als Anwender kommen z.B. IT-Forensiker infrage. Um die Tauglichkeit zu testen, wurden über einen Zeitraum von zwei Wochen Testdatensätze mit einem Garmin vívosmart 4 und einem Android-Smartphone erho-ben. Das Ergebnis der in dieser Arbeit durchgeführten Implementierung ermöglicht eine Zusammenführung und Analyse dieser Daten auf Anwendungsebene.
Die vorliegende Arbeit beschäftigt sich mit der forensischen Datensicherung integrierter Schaltkreise. Das Ziel ist, eine Software zu entwickeln, die es ermöglicht die Daten zweier Schaltkreise durch die Nutzung eines Galep-5D Programmiergerätes in eine Binärdatei zu überführen. Bei den Schaltkreisen handelt es sich um einen seriellen EEPROM und einen eMMC NAND-Flash. Es wird ein Vorgehen erläutert, wie mit Hilfe der bereitgestellten Bibliotheken, die Datenextraktion des EEPROMs durch SPI und des eMMCs durch den eMMC-Standard, erfolgt. Aus dieser Arbeit geht hervor, dass sich die Schaltkreise korrekt auslesen lassen, aber die Datenrate zu gering ist, um dieses Verfahren praktikabel für die Datensicherung größerer Speicher zu nutzen. Dennoch
wird ein Grundbaustein für weitere Forschungen, in Bezug auf das Auslesen unbekannter Schaltkreise, gelegt.
Diese Arbeit thematisiert die digitale 3D-Modellierung des zur Hochschule Mittweida gehörenden Richard-Stücklen Baus. Hauptaugenmerk wird dabei auf die historische Entwicklung der veränderten Außenfassade und die einhergehende Frage, ob und inwieweit das das Gebäude umschließende Gitter performant umgesetzt werden kann, gelegt. Die Untersuchung der Frage erfolgt durch die Entwicklung eines beispielhaften Anwendungsfalls in Form einer interaktiven Software. Die Evaluation durch Performanztests legt dar, dass mit dieser Arbeit ein Weg gefunden wurde, den Richard-Stücklen Bau und sein Gitter durch eine eigens entwickelte Anwendung
performant darzustellen.
Im Zeitalter der zunehmenden Digitalisierung wird die analoge Dokumentation nach und nach aus allen Lebensbereichen verdrängt. Besonders im Bereich der Endoskopreinigung ist diese allerdings noch stark vertreten. Auch dort soll eine digitale Lösung entstehen, um den Arbeitsablauf zu vereinfachen und sicherer zu gestalten.
Diese Arbeit befasst sich mit der Entwicklung eines Clients zur Erfassung von manuellen Reinigungsschritten bei medizinischen Endoskopen. Es wird die Ausganssituation in Krankenhäusern beschrieben und dann auf Grundlage eines bereits existierenden Systems eine neue Lösung erarbeitet. Diese neue Software löst die Probleme, welche im Zusammenhang mit einer analogen Aufzeichnung dieser Reinigungsschritte entstehen. Der Entwicklungsprozess sowie das Endprodukt, in Form eines Webclients, wird hier beschrieben.
Der Autor dieser Arbeit gibt einen kurzen Überblick über die in der Industrie gültigen Richtlinien sowie üblichen Methoden zur Bewertung von der Reinigungseffizienz. Das Ziel dieser Arbeit ist die Entwicklung und Optimierung eines mikrobiologischen sowie makroskopischen Tests, der an dem Verfahren von EHEDG orientiert ist und für 3D-gedrucke Bauteile aus Edelstahl eingesetzt werden kann. Bei dem Verfahren für den makroskopischen Test wird das jeweilige Teststück zuerst verschmutzt, gereinigt und anschließend mithilfe von Fluoreszenzbildern ausgewertet. Für die Entwicklung eines mikrobiellen Tests wird die Modellverschmutzung auf Sauermilchbasis mit Endosporen eines Bioindikators Geobacillus stearothermophilus beimpft. Die Teststücke werden verschmutzt, gereinigt und mithilfe eines MSH-Agars ausgewertet.
Das Ziel der vorliegenden Bachelorarbeit war es, einen Einblick in die kostenlosen Application-Performance-Management-Software „Pinpoint“, „InspectIT Ocelot“ und „Elastic APM“ für die Analyse von Java-Applikationen anhand einer Java-Referenz-Anwendung zu gewinnen und diese mit der kosten-pflichtigen APM-Software „Dynatrace“ zu vergleichen. Dafür wurden Architektur, Funktionen, Erweiterungsmöglichkeiten, Performance und Support von „Dynatrace“ analysiert und auf Basis der Ergebnisse eine Bewertungsmatrix auf-gestellt. Auf Basis dieser Grundlage wurden die kostenlosen APM-Tools analysiert und bewertet. Es stellte sich heraus, dass „Elastic APM“ eine gute kosten-lose Alternative zu „Dynatrace“ ist.
Konzeption und prototypische Implementierung eines Event-und Audio-Systems für eine Game Engine
(2021)
Genau wie jedes Auto zum Fahren einen Motor und jeder Mensch zum Leben ein
Herz benötigt, hat fast jedes Videospiel eine genauso essentielle Komponente - die Game Engine. Sie besteht aus weiteren vielen kleinen Teilen, deren Aufbau wohl überlegt sein sollte. Diese Arbeit hat es sich zum Ziel gemacht, die Konzeption zweier Komponenten für ein bereits vorhandenes System vorzunehmen. Dabei inbegriffen sind softwaretechnische Diagramme, Erweiterungen bekannter und existenter Systeme sowie vorausschauende Überlegungen. Die betreffende Engine wurde im Rahmen eines Projekts der Hochschule Mittweida entworfen. Das Ziel dabei war es, eine modulare und erweiterbare Architektur zu schaffen, an welche nun mit zwei konkreten Komponenten exemplarisch angeknüpft werden soll. Es werden Wissensgrundlagen geschaffen, Konzepte für ein Event- und Audio-Subsystem entworfen sowie diese teilweise umgesetzt. Ein Inbetriebnehmen sowie Testen beider Systeme wurde vorgenommen. Dadurch sind ehemalige Schwachstellen und Ansatzpunkte für die Weiterentwicklung ersichtlich.
In der vorliegenden Bachelorarbeit wird das Themengebiet der Entwicklung eines webbasierten Informationssystems und einem programmatischen Interfaces zur Integration von Sensorikdaten aus Pflanzenphänotypisierungsanlagen erörtert. Um dies zu ermöglichen, wurden mit der Modellierungssprache UML Konzepte erstellt. Dazu zählen das Gesamtsystemkonzept, das Webinformationssystemkonzept und das MockUp des Webinformationssystems (PhenoLIMS). Für die Realisierung von PhenoLIMS wurden Oracle Application Express, JavaScript und PL/SQL eingesetzt. Dabei fand Oracle Application Express für die Oberfläche, JavaScript für das Manipulieren von Elementen der Weboberfläche und PL/SQL für das Abfragen und das Herunterladen der Daten Anwendung. Der Download sollte als ISA-Tab genormte MIAPPE zur Verfügung stehen.
Ziel dieser Arbeit die Bereitstellung von Sensordaten sowie dessen Auswertung und Weitergabe an Aktoren. Die Bereitstellung dieser Daten soll mittels Datenbank-Abfragen und einer nachrichtenorientierten Infrastruktur bereitgestellt werden. Nach dieser erfolgreichen Implementierung soll ein Datenformat sowie -standard erörtert werden.
Nur auf der Grundlage homogener Daten kann eine effektive Nutzung dieser Daten er-reicht und ein sinnvolles Zusammenarbeiten verschiedener Institute sichergestellt werden.
Konfiguration und Evaluierung des Nominatim-Servers
aufbauend auf der Docker-Virtualisierungs-Lösung
(2019)
Das Ziel der vorliegenden Bachelorarbeit war es, eine auf Docker basierende Nominatim-Umgebung zu erarbeiten. Hierzu musste zunächst ein theoretischer Hintergrund zu den Themen Nominatim und Docker geschaffen werden. Die Ergebnisse der Literaturrecherche dienten als Grundlage für die Gestaltung eines Umsetzungskonzepts, welches selbst wiederum die Basis für die spätere Implementierung war.
Die Arbeit ist für Studierende der Informatik interessant, die sich mit Problemstellungen in den Bereichen Docker, OpenStreetMap und Nominatim befassen.
Ziel der Diplomarbeit ist die Erstellung einer Software zum Auslesen und Aufbereiten von Fehlerdaten aus einer Datenbank einer Automatischen Optischen Inspektion (AOI). Des Weiteren sollen die Daten in Tabellenform und als Diagramm darstellbar und auch exportierbar sein.
Diese Arbeit befasst sich zunächst mit den Grundlagen von Java und Datenbanken sowie mit der Abfragesprache SQL. In den darauffolgenden Kapiteln werden die Anforderungen präzisiert und es wird näher auf die Installation der erforderlichen Komponenten sowie die Implementierung eingegangen. Im letzten Kapitel werden die Ergebnisse kurz zusammengefasst und ein Ausblick für Funktionserweiterungen wird dargestellt.
Die vorliegende Arbeit betrachtet den Stellenwert von Realismus in Animationsfilmen. Unter Berücksichtigung der gestalterischen Darstellung der Figuren, der Handlung und der visuellen Gestaltung des Animationsfilmes, wird bewertet, wie wichtig die einzelnen Faktoren eines Filmes im Bezug auf ihre realistische Wirkung auf den Zuschauer sind.
Diese Arbeit beschäftigte sich mit der Testung der zytotoxischen Eigenschaften von zehn Eisen(III)-Salophenderivaten auf die malignen Zelllinien MDA-MB-MB-231, A2780, A2780-Cis, HTB-77, HL-60 und Colo 699. Zur Bestimmung der Spezifität der Wirkstoffe wurden zusätzlich die Zelllinien HS-5 und SV-80 mitgetestet.
Mit verschiedenen Untersuchungsmethoden soll geklärt werden, welche Zelltodmechanismen durch die Eisen(III)-Salophenkomplexe induziert werden. Von besonderem Interesse ist hierbei der Nachweis des 2012 entdeckten Ferroptosemechanismus.
Die vorliegende Bachelorarbeit befasst sich mit dem konzeptionellen Aufbau und Werdegang während der Erstellung des Moduls ”Angewandte Datenanalyse” im datenanalytischen Kontext. Hierbei wird zu Beginn auf die grundlegenden Bereiche der Lehre, des Lernens und der Datenanalyse eingegangen. Diese Grundlagen sollen als Basis für das Verständnis der vorliegenden Analysen dienen. Anschließend werden bereits bestehende Module in ihrem Aufbau reflektiert und ihre Methoden analysiert, um herauszufiltern, welche Methoden für das Modul am besten geeignet sind. Im Anschluss wird eine Anforderungsanalyse erstellt, die die wichtigsten funktionalen und qualitativen Anforderungen an das neu entstehende Modul umfasst. Aus der Anforderungsanalyse hervorgehend wird das Grob- und das Detailkonzept umgesetzt, sowie die wichtigsten Inhalte aufgelistet. Um abschließend einen Ansatz zu erhalten, ob die jeweiligen Angaben ihre in sich stimmige Korrektheit besitzen, wird eine Evaluation durchgeführt. Anhand dieser wird kontrolliert, ob die jeweiligen Aufgabenstellungen den Anforderungen entsprechen, oder ob diese angepasst werden müssen. Am Ende der Bachelorarbeit wird ein allgemeines Fazit gezogen und gleichzeitig zukünftige Ansätze erläutert und wie mit der Umsetzung des Moduls weiter vorgegangen werden kann.
In der folgenden Bachelorarbeit sollen die Bedingungen zur Herstellung von Fakefingerabdrücken, die mit einem Tintenstrahldrucker und einem Material aus Holz-leim und Glycerin hergestellt wurden verbessert werden. Grund dafür ist, dass es im vorangegangenen Praktikumsbeleg noch Mängel bei der Herstellung der Fakes gab. Außerdem sollen die idealen Bedingungen (Materialzusammensetzung und Bearbeitungsmethoden) herausgefunden werden, um Fakes dieser Art herzustellen. Außerdem soll ein neues Unterscheidungsmerkmal für die Erkennung von Fakefingerabdrücken untersucht werden, um in Zukunft die Unterscheidung zwischen Original und Fälschung zu verbessern.
Ziel dieser Arbeit ist das Evaluieren der Klassifikationsfähigkeit eines MVCNN-Verfahrens am Teilproblem der Klassifikation von prozedural generierten, idealisierten Darstellungen von OCT-Scans. Zu diesem Zweck wird ein Tool für das Erstellen ¨solcher Szenen entwickelt sowie ein Algorithmus zur Volumenberechnung von sich überschneidenden Meshes, welcher für das automatische Labeling dieser Szenen verwendet wird.
Im Rahmen der Abschlussarbeit soll untersucht werden, inwiefern die Kombination von live objects der Realm Database auf der einen Seite und Combine und SwiftUI auf der anderen, die entstehende Komplexität und Fehleranfälligkeit bei der App-Entwicklung in iOS reduzieren kann. Es soll ein durchführbarer praktischer Teil in Form einer Chat-App entstehen und getestet werden, die die Vor- und Nachteile der genannten Techniken verdeutlicht.
Die einzelnen Phasen der Angriffe auf Computernetzwerke werden heute zunehmend mit speziell dafür konzipierter Software durchgeführt. Für die Aufrechterhaltung der Verbindung zum kompromittierten Netzwerk sind sogenannte Command & Control Frameworks ein gängiges Mittel. Ein Vertreter dieser Frameworks ist PowerShell Empire, welches hauptsächlich auf der Skriptsprache PowerShell von Microsoft basiert, die Angriffsziele jedoch nicht auf Windowssysteme beschränkt sind. In dieser Arbeit wird dieses Framework vorgestellt und Szenarien für den Einsatz aufgezeigt. Durch Untersuchung von Netzwerkmitschnitten, sollen zudem Erkennungsmerkmale zur Identifikation der Aktivität von Empire herausgearbeitet werden.
Das erste Ziel dieser Arbeit war es zu evaluieren, inwiefern in der Praxis mit Hilfe von zwei Photogrammetrie-Softwares Spurenträger mit sich stark unterscheidenden Oberflächen dreidimensional modelliert werden können und welche Auswirkungen die Ergebnisse auf die darauf befindlichen (Blut-) Spuren und damit der forensischen Nutzbarkeit haben. Es wurden dafür drei Objekte gewählt, welche aufgrund ihrer unterschiedlichen Oberflächen- und Textureigenschaften im photogrammetrischen Kontext in drei verschiedene Schwierigkeitsklassen unterteilbar sind. Zudem wurden alle Gegenstände mit passiven Blutspuren benetzt, um zu bewerten, inwiefern anhand der erzeugten Modelle in Hinblick auf die Qualität eine digitale Blutspurenmusteranalyse inklusive Vermessung möglich ist. Um eine Gegenüberstellung einer frei verfügbaren und professionellen Photogrammetrie-Software in Bezug auf die Quali- und Quantität der Ergebnisse durchzuführen, wurde das kostenfreie Meshroom und als Gegenpol das kostenpflichtige Agisoft Metashape für die 3D-Modellie-rung der Objekte verwendet. Alle Spurenträger wurden zuerst mit den jeweiligen Standardeinstellungen der Softwares modelliert. Durch eine Abänderung der Standard-Pipelines wurde dann versucht die Modell- und Spurqualität maßgeblich zu verbessern. Für die 3D-Modellierungen wurde in beiden Softwares dasselbe Bildmaterial (inkl. Polfilteraufnah-men) genutzt.
Da an der Hochschule Mittweida beide zu evaluierenden Photogrammetrie-Softwares zur Verfügung stehen, war ein zweites Ziel dieser Arbeit Handlungsempfehlungen in Form von je einem Entscheidungsbaum pro Schwierigkeitsklasse ausgehend von den Ergebnissen zu formulieren, um die Auswahl der richtigen Software inklusive der Einstellungen bei der digitalen forensischen Sicherung von unterschiedlichen Objekten mit Blutspuren zu vereinfachen.
Zusammenfassend sollen in dieser Arbeit die folgenden vier Fragestellungen beantwortet werden:
▪ Können die 3D-Modelle der unterschiedlich schweren Objekte innerhalb der beiden verwendeten Photogrammetrie-Softwares in Bezug auf ihre Modell- und Spurqualität durch eine Optimierung der Standard-Pipelines und der Bildaufnahme maßgeblich verbessert werden?
▪ Welche der beiden verwendeten Photogrammetrie-Softwares stellt die unterschiedlich schweren Objekte inklusive ihrer Blutspuren als 3D-Modell qualitativ hochwertiger und realistischer dar?
▪ Inwiefern ist anhand der Qualität der 3D-Blutspuren der unterschiedlich schweren Objekte innerhalb der beiden verwendeten Photogrammetrie-Softwares eine digitale Blutspurenmusteranalyse inklusive Vermessung möglich? Wie genau sind die Vermessungen?
▪ Lassen sich ausgehend von den Erkenntnissen der ersten drei Fragestellungen all-gemeine Vorgehen für unterschiedlich schwere Spurenträger für die digitale forensische Spurensicherung formulieren?
In dieser Studie wurde das Auftreten zu hoher (Hyperkalzämie) bzw. zu niedriger (Hypokalzämie) Calciumkonzentrationen bei einer Zufallspopulation untersucht. Dabei wurden unterschiedliche Parameter (Calcium, Albumin, Parathormon, Phosphor, Vitamin D) zu Klärung der Ursache gemessen und in Absprache mit den Einsendern die Gründe der abnormen Calciumkonzentrationen geklärt.
Diese Arbeit beschäftigt sich mit der Problematik der Verbreitung von Keimen und den damit verbundenen nosokomialen Infektionen durch den Siphon. Es wird die Wirksamkeit einer Sperre untersucht, die die Biofilmbildung im Siphon und damit die Verbreitung von Keimen verhindern soll. Dazu werden durch Puls-Magnetron-Sputtern Flachproben mit einer Titandioxidbeschichtung beschichtet. Die Aktivität und Stabilität der Titandioxidbeschichtung wird oberflächenanalytisch und mikrobiolgisch untersucht, sowie für die Bewertung der Wirksamkeit Versuchsregime etabliert.
Diese Arbeit beschäftigt sich mit einer theoretischen Auseinandersetzung des Modells der moralischen Entwicklung von Lawrence Kohlberg (1963), welches auf dem Konstrukt Piagets zum logischen Denken aufbaut. Als literarische Arbeit wurde versucht eine Übertragung des Modells aus dem realen Raum in den Virtuellen zu schaffen. Die zentrale Frage war, ob Deviante des realen Raumes die gleichen moralischen Stufen wählen, wie Deviante im virtuellen Raum. Weiterhin wurden die Big-Five der Persönlichkeit mit einbezogen.
Als zentrales Ergebnis zeigt sich die Kenntnis der geltenden Normen, sowie nicht geahndetes Übertreten vermeintlicher Grenzen. Weiterhin konnte festgestellt werden, dass es weniger um die moralische Entwicklung als starre Form, sondern um die Herausbildung einer moralischen Identität geht. Die Verschiebung der moralischen Wahl ist demnach keine räumliche, sondern eine zeitliche.
Ziel dieser Arbeit ist es, ein Software-Architektur-Konzept zu entwickeln, umzusetzen und zu evaluieren, dessen Fokus auf die Kombination einer Smartwatch-Anwendung mit einer AR-Brille-Anwendung gerichtet ist. Dazu wurde ein Patent untersucht, dessen Schwerpunkt auf der Kombination von AR-Brille und Smartwatch liegt, um Anforderungen an solch eine Software-Architektur zu erstellen. Im Anschluss entstand unter Einbeziehung der recherchierten Informationen ein Architektur-Konzept. Für die darauffolgende Umsetzung wurden Anwendungsfälle entwickelt, die zeigen sollen, wie ausgewählte Software-Qualitätsmerkmale bei Verwendung der
Architektur erreicht werden können. Bei der anschließenden Evaluation zeigte sich, dass die Architektur zur Erfüllung wichtiger Software-Qualitätsmerkmale beiträgt, aber auch Optimierungspotenzial besitzt.
Ziel dieser Arbeit ist es, Konzepte zur Steigerung der intrinsischen Motivation innerhalb der Lernsimulation Finanzmars zu erstellen und zu untersuchen. Zur Erstellung dieser Konzepte sollen potentiell motivationsfördernde Elemente aus dem Bereich der Gamification sowie aus E-Commerce-Geschäftsmodellen kombiniert und verwendet werden. Dabei sollen zwei Belohnungssysteme entwickelt werden, bestehend aus einerseits klassischen Belohnungen digitaler Spiele sowie andererseits aus Belohnungen mit zufälliger Gewinnausschüttung, sogenannten Lootboxen. Als Forschungsobjekt dieser Arbeit wird die Lernsimulation Finanzmars verwendet, in welche die zu erstellenden Konzepte integriert werden. Diese werden sodann in einer anschließenden Evaluation auf potentielle Motivationssteigerungen untersucht. Diesbezüglich gilt es, für jedes zu untersuchende Konzept eine eigene Spielversion von Finanzmars zu entwickeln. Eine Probandengruppe soll während der Evaluation diese Spielversionen testen, sodass ihre Spielerdaten entsprechend untersucht werden können. Um Abseits der Spielerdaten auch die Probandenmeinungen hinsichtlich ihrer Motivation evaluieren zu können, gilt es, darauffolgende Fragebögen zu konzipieren und diese von Probanden bearbeitet werden zu lassen.
Das Thema dieser Arbeit liegt im Schwerpunkt der perpetuierenden Corona-Pandemie und dem zukünftigen Internetnutzungsverhalten der Gesellschaft. Hier soll untersucht werden, wie sich das Internetnutzungsverhalten auf die Bevölkerung auswirkt, aufgrund des Wandels der Gesellschaft. Dabei wurden wissenschaftliche Fragestellungen formuliert und durch eine Literarturrecherche in Bezug gebracht.
Untersucht wurden die folgenden zugrundeliegenden Themenbereiche:
- Internetnutzungsverhalten der Gesellschaft,
- Veränderung des Internetnutzungsverhalten,
- Zukunftsaussichten der Gesellschaft zur digitalen Umgebung,
- Internetnutzung und Internetkriminalität,
- Altersstruktur von Internetkriminalität,
- Auswirkungen der Internetkriminalität,
- Berichte von Tätern und Opfern zur Internetkriminalität,
- Beratungsstellen für Opfer,
- Verhinderung der Internetkriminalität,
- Reduzierung der Internetkriminalität durch die Regierung und
- Maßnahmen der Regierung zur Internetkriminalität.
Es sollen Animationen angefertigt werden, die anschließend für Präsentationen oder die Aufbereitung von Videos zum Einsatz kommen. Zunächst wird in knapper Form der Inhalt der folgenden Kapitel dargestellt. Im ersten Abschnitt werden die theoretischen Grundlagen erläutert. Zu finden sind hier in erster Linie Regeln, die bei der Gestaltung beachtet werden sollen. Außerdem sind Definitionen von relevanten Begriffen aufgeführt.
Um die spätere Ausführung besser nachvollziehen zu können, wird die Benutzeroberfläche des genutzten Animationsprogramms beschrieben. In der anschließenden Konzeption sind die Ideen für die Umsetzung zu finden. Die Gliederung besteht aus den jeweiligen Animationen und den allgemeingültigenÜberlegungen, die es zu beachten gilt. Zusätzlich wurde zu jeder Visualisierung ein Storyboard kreiert, um zu prüfen, ob das Konzept umsetzbar und optisch stimmig ist. Im Abschnitt Umsetzung werden die Überlegungen der Konzepte übernommen und umgesetzt. Damit sind die wesentlichen Schritte erklärt, um die verschiedenen Produktionen nachvollziehen und eventuell nachbauen zu können. Zur besseren Nachvollziehbarkeit werden die wesentlichen Handlungen begründet. Die folgende Evaluation bezieht sich auf die in der Umsetzung entstandenen Visualisierungen. Tabellarisch werden für jede einzelne Animation Bedingungen dargestellt und es wird überprüft, ob und in welcher Form diese erfüllt wurden. Es gibt zwei verschiedene Methoden, nach denen die Auswertung erfolgt. Zuerst wird ermittelt, ob die Gestaltung konform mit den Corporate Design ist. Anschließend werden die allgemeinen Bestimmungen für ein gelungenes Design abgefragt. Das Schlusskapitel fasst die Ergebnisse der Arbeit zusammen und gibt einen Überblick über Verwendungs- sowie Erweiterungsmöglichkeiten der angefertigten Animationen.
Ziel der Bachelor Arbeit war die Untersuchung der Interaktion des Mikrotubuli-assoziierten Proteins Tau an die Mikrotubuli mittels des Split-Luciferase-Assays. Dafür wurden die benötigten Expressionsplasmide hergestellt und die Interaktion im NanoBiT-Assay gemessen. Diese Messwerte wurden mithilfe des HiBiT-Assays normiert und mit dem Wst8-Assay sowie mit der Hoechst 33258 Färbung wurde die Zytotoxizität und die Zellzahl bestimmt.
Es konnten die Interaktionen zwischen β-Tubulin I/ III und Tau, α-Tubulin und Tau sowie α-Tubulin und β-Tubulin I/III gemessen werden. Das N-terminal fusionierte β-Tubulin I mit der kleinen Untereinheit und β-Tubulin III mit der großen Untereinheit konnten aufgrund fehlender Expressionsplasmide nicht in die Interaktionsanalyse mit einbezogen werden. Die optimale Konfiguration der Luciferase Untereinheiten sowie die bestmöglichsten Interaktionspartner, bei der die größte Interaktion von 0,2790 bzw. 0,3095 gemessen werden konnte war bei dem β-Tubulin I bzw. III mit dem Tau 36 TubbIII/ 34 2N4R bzw. 0N4R Tau. Hingegen entsprachen die optimale Konfiguration sowie die bestmöglichsten Interaktionspartner der Interaktion α-Tubulin mit Tau 33 TubaA/ 36 1N4R Tau sowie α-Tubulin mit β-Tubulin 33 TubaA/ 36 TubbI & TubbIII. Diese zeigten Interaktionsstärken von 0,1360; 0,1419 und 0,1668 im Vergleich zur PKA-Interaktion. Die Gegenüberstellung zu den Ergebnissen von Shin et al. zeigte eine übereinstimmende Konfiguration für die α-Tubulin/ Tau Interaktion, hingegen eine Differenz in der Konfiguration für die β-Tubulin/ Tau Interaktion. Die Ergebnisse des β-Tubulins mit den Tau Isoformen des Vektors pFC34 zeigten im T-Test eine signifikant größere Bindungsaffinität der Tau Isoformen mit 4 Mikrotubulibindungsregionen im Vergleich zu denen mit 3 Bindungsregionen.
Interaktive Partikelsimulationen : eine Untersuchung der Visualisierung astrophysikalischer Prozesse
(2024)
Der Einsatz von Spezialeffekten, insbesondere Partikelsimulationen, ist in der heutigen Filmproduktion unverzichtbar geworden. Diese Simulationen finden Anwendung in einer Vielzahl von Szenarien, von realistischen Darstellungen von Staub, Feuer und Wasser bis zu abstrakten magischen Effekten. Sie werden in der Regel eingesetzt, wenn Prozesse zu komplex sind, um sie auf praktische Weise zu visualisieren, einschließlich astrophysikalischer Phänomene, die sich über Zeit- und Raumskalen entfalten, die schwer zu beobachten und zu begreifen sind. Diese Arbeit erforscht Partikelsimulationen mit dem Ziel, astrophysikalische Prozesse zu visualisieren, wobei der Schwerpunkt darauf liegt, Interaktivität in diese Simulationen einzuführen, da diese allgemein als förderlich für den Wissenserwerb betrachtet wird. Das Ziel besteht darin, die Machbarkeit der Erstellung von Partikelsimulationen zu untersuchen, die vom Nutzer gesteuert werden können, um astrophysikalische Prozesse individuell zu erkunden und zu verstehen. Hierfür wird eine interaktive dreidimensionale Partikelsimulation entwickelt, die den Prozess der stellaren Evolution und insbesondere die Unterscheidung der Evolutionsstufen veranschaulichen soll, um das Verständnis von Schülern zu verbessern. Die Arbeit diskutiert potenzielle Herausforderungen durch Interaktivität und technische Einschränkungen bei der Umsetzung solcher Simulationen sowie mögliche Lösungsansätze.
The Tutte polynomial is an important tool in graph theory. This paper provides an introduction to the two-variable polynomial using the spanning subgraph and rank-generating polynomials. The equivalency of definitions is shown in detail, as well as evaluations and derivatives. The properties and examples of the polynomial, i.e. the universality, coefficient relations, closed forms and recurrence relations are mentioned. Moreover, the thesis contains the connection between the dichromate and other significant polynomials.
In der vorliegenden Arbeit werden Bildanalysemethoden für die Lokalisation und Klassifikation von Eingabefeldern untersucht. Bei den Eingabefeldern liegt der Schwerpunkt auf den Benutzererkennungs- und Passwortfeldern, da die Verwendung der Bildanalysemethoden für eine Single Sign-On Lösung gedacht ist. Neben traditionellen Bildverarbeitungsmethoden, wie Segmentierung und Hough-Transformation, wird auch die Verwendung von neuronalen Netzen betrachtet.
Es besteht großer Entwicklungsbedarf von aussagekräftigen in vitro Testsystemen, die als Alternative zu Tierversuchen und für die Grundlagenforschung eingesetzt werden können. Im Fokus steht dabei unter anderem die Echtzeitcharakterisierung des Zellverhaltens. Bisher gibt es hinsichtlich der Echtzeitcharakterisierung kaum Produkte auf dem Markt. Eine Weiterentwicklung ist daher essentiell. In der vorliegenden Arbeit wurden erstmalig die pH-sensitiven Sensorpartikel (ein fluoreszenzbasiertes Messsystem aus einem pH-sensitiven Farbstoff und einem Referenzfarbstoff) der Firma „Surflay Nanotec GmbH“ auf ihre Eignung für die Echtzeitcharakterisierung in Zellkultursystemen getestet und bewertet. Dabei zeigte sich, dass es sich um ein zuverlässiges System handelt, welches reproduzierbare Werte liefert. Die Sensorpartikel sind photostabil und lassen sich durch unterschiedliche Fokusebenen nicht beeinflussen. Die Messung des pH-Wertes ist in einem Bereich von pH 4 bis pH 9 möglich. Innerhalb von Zellkultursystemen kann eine pH-Wert-Änderung, durch Stoffwechselprodukte verursacht, gemessen werden. Besonders hervorzuheben ist, dass eine lokale pH-Wert-Messung in Zell-nähe erfolgen kann. Damit hebt es sich von anderen Produkten ab.
Ziel dieser Arbeit ist der Entwurf einer Komponente, welche in der Lage ist Entscheidungsbäume in den 3D-Raum zu projizieren. Dazu ist es erforderlich, diese erweiterbar zu gestalten. Im Speziellen muss sie dafür verschiedene Arten von Knoten und Entscheidungsregeln mithilfe einer erweiterbaren Schnittstelle unterstützen.
Die Schnittstelle ist als Teil der Arbeit zu definieren und zu dokumentieren. Die Komponente soll prototypisch Interaktionen des Nutzers registrieren, wie das Anwählen einzelner Bestandteile des Modells. Um die Verwendbarkeit in Folgeprojekten sicherzustellen muss zu diesem Zweck im Rahmen der Arbeit eine API definiert werden
Tauglichkeitsanalyse der Unity-internen Physik-Engine für forensische Tathergangs Simulationen
(2021)
In dieser Arbeit soll die Tauglichkeit der Unity internen Physik-Engine in Hinblick auf die Simulation forensischer Tathergänge. Nach dem Erörtern der theoretischen Grundlagen, wird dafür eine experimentelle Szene in Unity erstellt. Dabei handelt es sich um die Nachstellung einer Kollision zwischen Menschen und Fahrzeug. Erhaltene Ergebnisse werden anschließend analysiert und mittels
dieser ein Fazit zur These aufgestellt.
Die vorliegende Bachelorarbeit befasst sich mit der Untersuchung des Einflusses von Spielemechaniken auf das Involvement und die Motivation von Spielern. Das Ziel war es, anhand dreier mobiler Spiele Mechaniken zu ermitteln, welche bei diesen Einfluss auf die Motivation des Spielers nehmen. Hierzu wurden die Spiele mittels einer empirischen Inhaltsanalyse untersucht und für die Motivation ausschlaggebende Mechaniken bestimmt. Bei einem abschließenden Vergleich wurden Gemeinsamkeiten innerhalb der Spiele dargelegt und deren Schwerpunkte erörtert.
Since its foundation as an application of algebra, coding theory is obtaining a day by day increasing importance. For instance, any communication system needs the concepts of coding theory to function efficiently. In this thesis, reader will find an introductory explanation to linear codes and binary hamming codes including some of the algebraic tools devised in their applications. All the described software applications are verified using SageMath 9.0 using Hochschule Mittweida’s JupyterHub.
In dieser Bachelorarbeit soll festgestellt werden, ob die Erkennung von KFZ-Kennzeichen mittels künstlicher Intelligenz insoweit möglich ist, dass eine digitale Manipulation derer, im Anschluss denkbar ist. Dazu werden zunächst äußerliche Eigenschaften von KFZ-Kennzeichen ausgearbeitet und herkömmliche Kamerasysteme vorgestellt. Anschließend wird eine Anwendung für automatisierte Kennzeichenerkennung getestet, um einzuschätzen, ob die Erkennungsfunktion die Erfolgsrate ausweist, die für eine digitale Manipulation von Nöten ist. Die Arbeit richtet sich an Personen mit Verständnis von Computern sowie der Arbeitsweise neuronaler Netze im Speziellen.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeption und Implementierung eines Serious Game-Prototypen. Nachdem zunächst die Eigenschaften und Vorteile von E-Learning und Serious Games erläutert werden, widmet sich die Arbeit der ausführlichen Analyse der Möglichkeiten und Besonderheiten von unbemannten Luftfahrtsystemen, sowie den Systemen zu deren Detektion und Abwehr. Neben dem entwicklungstechnischen Stand, aktuellen Ereignissen, sowie potenziellen Bedrohungen werden stellvertretend Beispiele für Abwehr- und Erkennungssysteme aufgezeigt, um einen Überblick über die Gefahren von Drohnen und die möglichen Konsequenzen verschiedener Interventionsmaßnahmen aufzuzeigen. Im weiteren Verlauf der Arbeit werden die Implementierungsschritte des entwickelten Serious-Game-Prototypen erläutert und die Zusammenhänge einzelner Gameplay-Elemente und der Realität hervorgehoben.
Diese Arbeit soll einen Leitfaden für die Spurensuche mit forensischen Lichtquellen darstellen. Den Ausgangspunkt bilden Blut, Sperma, Speichel und Urin sowie jeweils vier Vergleichssubstanzen, welche unter Tageslicht ähnlich aussehen und mithilfe der Spurensuchlampe ausgeschlossen werden sollen. Der Versuch wird mit verschiedenfarbigen saugenden sowie nicht saugenden Spurenträgern durchgeführt. Ebenfalls werden Fingerabdrücke nach chemischer Bedampfung auf mögliche verbesserte Sichtbarkeit in verschiedenen Lichtspektren untersucht. Ziel ist es, in Abhängigkeit der Spurenträgerfarbe und -beschaffenheit darzustellen, mit welchen Lichtspektren und Filtern welche Spuren wie aussehen. Dies soll neben der verbesserten Sichtbarkeit eine Unterscheidung zu den Vergleichssubstanzen und den Spuren untereinander ermöglichen. Durch den Ausschluss anderer Substanzen mithilfe forensischer Lichtquellen wird die Anzahl notwendiger chemischer Nachweistests reduziert. Eine Handlungsanleitung und die entstandenen Fotos als Referenz sollen den Einsatz von Spurensuchlampen sowohl am Tatort als auch im Labor erleichtern.
In dieser Masterarbeit wurde die Entwicklung des Erregerspektrums und der Resistenz der Erreger gegen spezielle Antibiotika von 2010-2017 untersucht. Die untersuchten Proben wurden vom Medizinischen Zentrallabor Altenburg ausgewertet und stammten dabei aus Urinen, pulmonalen Materialien oder Blutkulturen. Innerhalb der Arbeit wurden mit dem assoziativen Datenanalyse-Tool und Reporting-System QlikView die Labordaten der untersuchten Jahre hinsichtlich der Entwicklung der Erregeranteile und deren Resistenz ausgewertet. Es wurden die häufigsten bakteriellen Erreger bei klinisch relevanten Infektionen ermittelt und ihr Verhalten gegen leitliniengerechte Antibiotika untersucht. Das Auftreten von multiresistenten Erregern konnte detektiert und deren Entwicklung analysiert werden. Die Materialien wurden getrennt voneinander untersucht und deren Ergebnisse gegenübergestellt.
Die Bakterien Francisella tularensis sind die Erreger der Zoonose Tularämie. Eine bekannte und wichtige Unterart dieser ist die Bakterienspezies Francisella tularensis subsp. holarctica, welche auch als Typ B bezeichnet werden. Diese treten auf der ganzen nördlichen Hemisphäre und eben auch innerhalb Deutschlands auf. Es sind 3 bekannte Untergruppen des Typ B zurzeit bekannt, welche sich in genetischer Hinsicht zu einem geringen Teil unterscheiden. Um die Ausbreitung der Tularämie besser verstehen und Ausbrüche verhindern zu können, ist die Bestimmung des genauen Genotyps unabdinglich. 36 Isolate von Tieren aus Deutschland aus dem Jahr 2015 wurden mittels Real-time PCR genotypisiert, um anschließend die Verteilung der unterschiedlichen Genotypen in Deutschland mit Proben aus den vergangenen Jahren 2006 bis 2014 vergleichen zu können.
Die vorliegende Diplomarbeit befasst sich mit dem detaillierten Entwurf und der Realisierung einer Softwareapplikation basieren auf dem Android Betriebssystem. Die Basis stellt eine durchgeführte Dokumentation der Ausgangslage sowie eine umfassende Anforderungsanalyse dar. Ziel ist es den gesamten Bereich der Transportlogistik eines Lebensmittel Fulfillment Betriebes an ein IT-System anzubinden Dazu müssen Datenschnittstellen zu vorhandenen Oracle Datenbanksystemen geschaffen werden, die sowohl einen Onlinebetrieb als auch einen Offlinebetrieb der zu entwickelnden Softwareapplikation am mobilen Endgerät ermöglichen.
Im Rahmen dieser Arbeit wurde die sekretorische Produktion des DESIGNER-Proteins DP10A durch Pichia pastoris untersucht. Dazu wurde die DNA-Sequenz des Zielproteins in den Vektor pPICZαA kloniert und in das Genom von Pichia pastoris durch homologe Rekombination integriert. Für die Auswahl eines geeigneten Klons wurde ein Klon-Screening durchgeführt. Zusätzlich wurde die Produktion des Zielproteins bei verschiedenen pH-Werten sowie die Löslichkeitsverteilung von intrazellulär vorliegendem DP10A untersucht.
Das DESIGNER-Protein DP10A konnte mit P. pastoris produziert werden. Allerdings konnte das Ziel einer sekretorischen Produktion nicht erreicht werden, da DP10A nur intrazellulär und hauptsächlich unlöslich in der Zelle vorlag.
In today’s market, the process of dealing with textual data for internal and external processes has become increasingly important and more complex for certain companies. In this context,the thesis aims to support the process of analysis of similarities among textual documents by analyzing relationships among them. The proposed analysis process includes discovering similarities among these financial documents as well as possible patterns. The proposal is based on the exploitation and extension of already existing approaches as well as on their combination with well-known clustering analysis techniques. Moreover, a software tool has been implemented for the evaluation of the proposed approach, and experimented on the EDGAR filings, on the basis of qualitative criteria.
Gamification mit Unterstützung von Augmented Reality und Navigation am Beispiel des Einzelhandels
(2021)
Gamification bezeichnet die Integrierung von spielebasierten Elementen in spielfernen Kontext und strebt an die Motivation des Users zu erhöhen und Verhaltensweisen zu beeinflussen. Diese Arbeit befasst sich mit dem Potenzial, dass Augmented Reality (AR) und Navigation für Gamification mit sich bringt. Dabei werden am Beispiel des Einzelhandels, sowohl in Anlehnung an bewährte Anwendungen, als auch durch die Ableitung belegter Grundlagen aus Games und Verhaltenspsychologie, Gamification-Elemente konzeptioniert. Mithilfe der Einbindung von AR und Navigation werden dabei neue Möglichkeiten eröffnet, Gamification-Elemente zu erweitern. Ein dazu implementierter Prototyp dient zur Veranschaulichung und als Proof of Concept.
Abstract nicht vorhanden
The occurence of prostate cancer (PCa) has been consistently rising since three decades and remains the third leading cause of cancer-related deaths after lung and bowel cancer in Germany. Despite of new methods of early detection, such as prostate-specific antigen (PSA) testing, it persists to be the most common cancer in german men with over 63,400 new diagnoses in Germany every year and exhibits high prevalence in other countries of Northern andWestern Europe as well [64]. Men over the age of 70 are most commonly affected by the lethal disease, whereas an indisposition before 50 is rare. The malignant prostate tumor can be healed through operation or irradiation while the cancer hasn’t reached the stage of metastasis in which other therapeutic methods have to be employed [14] [15]. In the metastatic phase, the patient usually exhibits symptoms when the tumors size affects the urethra or the cancer spreads to other tissue, often the bones [16].
The high prevalence of this disease marks the importance of further research into prognosis and diagnosis methods, whereby identification of further biomarkers in PCa poses a major topic of scientific analysis. For this task, the effectiveness of high-throughput RNA sequencing of the transcriptome (RNA molecules of an organism or specific cell type) is frequently exploited [66]. RNA sequencing or RNA-Seq in short, offers the possibility of transcriptome assessment, enabling the identification of transcriptional aberrations in diseases as well as uncharacterized RNA species such as non-coding RNAs (ncRNAs) which remain undetected by conventional methods [49]. To alleviate interpretation of the sequenced reads they are assembled to reconstruct the transcriptome as close to the original state as possible, thus enabling rapid detection of relevant biomolecules in the data [49]. Transcriptomic studies often require highly accurate and complete gene annotations on the reference genome of the examined organism. However, most gene annotations and reference genomes are far from complete, containing a multitude of unidentified protein-coding and non-coding genes and transcripts. Therefore, refinement of reference genomes and annotations by inclusion of novel sequences, discovered in high quality transcriptome assemblies, is necessary [24].
The following is a description and outline of the work done at the Cornell Lab of Ornithology developing Nation Feathers VR, a virtual reality game for learning about bird calls and songs. The goal was to develop a game which is intuitive, educational and entertaining. Furthermore, the software needed to be structured in a way that allows for feasible future expansion. This required careful data saving and retrieval. The game gives the player an opportunity to learn and apply that knowledge, all while maintaining a shorter runtime in order to reduce the total time spent in the virtual world. This is meant to prevent any discomfort to the player that may result from extended use of the VR headset.
In der vorliegenden Arbeit soll ein Lösungskonzept für Regressionstests des Softwareprodukts robotron*ecount entstehen. Ziel ist die Ermöglichung eines effizienten und wirtschaftlichen Regressionstests mithilfe der Testautomatisierung. Zunächst wird ein universeller Testprozess definiert. Des Weiteren erfolgt eine Untersuchung von technischen und logischen Konzepten sowie Werkzeugen bezüglich der Testautomatisierung wie z. B. Formen der Testfalldarstellung und Testmetriken. Außerdem wird die Struktur und Arbeitsweise des Testobjekts robotron*ecount analysiert. Die gewonnenen Erkenntnisse werden anschließend bei der Gestaltung des Lösungskonzepts angewendet.
Hass und Hetze im Netz haben in den letzten Jahren stetig zugenommen. Vor allem in den sozialen Medien sind Anfeindungen, Hass und Hetze immer dominanter geworden. Dies stellt auch die Strafverfolgungsbehörden vor neue Aufgaben. Um Verfasser von Hasskommentaren über soziale Netzwerke effektiver identifizieren zu können, nehmen Polizei und Justiz seit einiger Zeit die OSINT-Recherche (Open Source Intelligence) zu Hilfe. Hierfür durchsuchen die Ermittler digital das Profil oder die Profile der Verfasser von Hasskommentaren und sichern Informationen, welche zur Identifizierung der Personen führen können. Diese Arbeit soll aufzeigen, wie die OSINT-Recherche im Vergleich zu den Standardermittlungen einzuordnen ist. Außerdem soll untersucht werden, wie Hasskommentare im Netz klassifiziert werden können und welche Art von Informationen die Nutzer freiwillig im digitalen Raum veröffentlichen.
Diese Arbeit befasst sich mit der Bestimmung der minimalen Hemmkonzentration (MHK) im Titerplattenformat für Antibiotika und/oder Effluxpumpen-Inhibitoren anhand verschiedener klinischer Isolate von E. faecalis, E. faecum und S. aureus und dem Vergleich mit bereits vorhandener Literatur. Aufbauend auf den ermittelten MHK-Werten wurden dann Bestimmungen der minimalen Biofilm-inhibierenden Konzentration am konfokalen Laser-Scanning-Mikroskop durchgeführt. Die Klonalität der verwendeten Isolate wurde mittels Random Amplified Polymorphic DNA-PCR und den daraus erstellten Dendrogrammen geprüft.
Das Epitop-Mapping dient der Identifizierung von Epitopen eines Antigens. Dazu wurden Seren immunisierter Kaninchen zur Durchführung verwendet. Die Peptidsequenzen von Phagen wurden mittels des Peptid-Phage-Display selektiert und amplifiziert. Diese Sequenzen wurden anschließend mit LibDB analysiert. Es wurden 7 potentielle Epitope des Dengue-Virus Serotyp 2 Envelope (E)-Proteins identifiziert.
Durch Eindringen in die Wirtszelle kann sich das SARS-CoV-2-Virus verbreiten. Das adaptive Immunsystem bildet verzögert die humorale Immunantwort durch hochspezifische Antikörper aus. Die Antikörper neutralisieren das SARS-CoV-2. Im Laufe der Immunabwehr steigen die Antikörpertiter der verschiedenen Antikörperklassen unterschiedlich an. Mittels Serumproben sollte herausgefunden werden, wie der IgG-Titer nach einem positiven PCR-Ergebnis von der Zeit abhängig verläuft und ob es Unterschiede zwischen verschiedenen Geschlechtern und Altersklassen gibt. Für die Ermittlung der IgG-Titer wurden einmal der ELISA mittels Generic Assays CoV-2 IgG und einmal der CLIA mittels LIAISON® SARS-CoV-2 TrimericS IgG angewandt. Zudem fand eine Vergleichsmessung der Tests statt.
Im Allgemeinen stieg der Titer innerhalb der ersten 50 Tage an, da sich in dieser Zeit die IgG-Antikörper ab Tag 14 bilden, und erreichte das Maximum im Bereich 40-50 Tage. Danach fiel der Titer leicht bis auf 60 -70 % des Maximums, da die Antikörper nach und nach absterben.
Die Vergleichsmessung ergab einen linearen Zusammenhang von 64 % zwischen Generic Assays und LIAISON®. Bezogen auf die qualitative Aussage der Tests gab es eine 96 % Übereinstimmung der Ergebnisse.
Es wurden 30 Futtermittel durch die Verwendung einer Protease aus Streptomyces griseus auf ihren Gehalt an Durchflussprotein untersucht. Durch die Behandlung mit Pepsin und Pankreatin wurde anschließend die Dünndarmverdaulichkeit des Durchflussproteins bestimmt. Die bestimmten Durchflussproteinwerte wurden in der Diskussion mit geschätzten
Durchflussproteinwerten aus der Rohproteinfraktionierung sowie aus dem erweiterten Hohenheimer Futterwerttests verglichen.
Glycans play an important role in the intracellular interactions of pathogenic bacteria. Pathogenic bacteria possess binding proteins capable of recognizing certain sugar motifs on other cells, which are found in glycan structures. Artificial carbohydrate synthesis allows scientists to recreate those sugar motifs in a rational, precise, and pure form. However, due to the high specificity of sugar-binding proteins, known as lectins, to glycan structures, methods for identifying suitable binding agents need to be developed. To tackle this hurdle, the Fraunhofer Institute for Cell Therapy and Immunology (Fraunhofer IZI) and the Max-Planck Institute of Colloids and Interfaces (MPIKG) developed a binding assay for the high throughput testing of sugar motifs that are presented on modular scaffolds formed by the assembly of four DNA strands into simple, branched DNA nanostructures. The first generation of this assay was used in combination with bacteria that express a fluorescent protein as a proof-of-concept. Here, the assay was optimized to be used with bacteria not possessing a marker gene for a fluorescent protein by staining their genomic DNA with SYBR® Green. For the binding assay, DNA nanostructures were combined with artificially synthesized mannose polymers, typical targets for many lectins on the surface of bacteria, presenting them in a defined constellation to bind bacteria strongly due to multivalent cooperativity. The testing of multiple mannose polymers identified monomeric mannose with a 5’-carbon linker and 1,2-linked dimeric mannose with linker as the best binding candidates for E. coli, presumably due to binding with the FimH protein on the surface. Despite similarities between the FimH proteins of E. coli and K. pneumoniae, binding was only observed between E. coli and the different sugar molecules on DNA structures. Furthermore, the degree of free movement seemed to affect the binding of mannose polymers to targeted proteins, since when utilizing a more flexible DNA nanostructure, an increase in binding could be observed. An alternative to the simple DNA nanostructures described above is the use of larger, more complex DNA origami structures consisting of several hundred strands. DNA origami structures are capable of carrying dozens of modifications at the same time. The results for the DNA origami structure showed a successful functionalization with up to 71 1,2-linked dimeric mannose with linker molecules. These results point towards a solution for the high-throughput analysis of potential binding agents for pathogenic bacteria e.g. as an alternative treatment for antibiotic-resistant.
Die vorliegende Arbeit beschäftigt sich mit den Änderungen der §§ 176 Abs. 6 und 184b Abs. 5 StGB, welche durch das 57. Gesetz zur Änderung des Strafgesetzbuchs - Versuchsstrafbarkeit des Cybergroomings am 13. März 2020 in Kraft traten [16]. § 176 Abs. 6 StGB regelt fortan die Strafbarkeit des Versuchs für Vorbereitungstaten nach § 176 Abs. 4 Nr. 3 StGB, worunter auch das sogenannte Cybergrooming zählt. Durch die Neufassung des § 184b Abs. 5 StGB wird Strafverfolgungsbehörden zukünftig die Verwendung von künstlich erzeugtem kinderpornografischen Material im Rahmen von verdeckten Ermittlungen und zur Aufdeckung von Straftaten ermöglicht. Im Rahmen dieser Arbeit wird der Einfluss dieser Änderungen auf die Arbeit von Ermittlern in Strafverfolgungsbehörden betrachtet und dabei auf eventuelle Vor- und Nachteile eingegangen. Die Arbeit soll aufzeigen, welche Probleme es in Deutschland bei der Bearbeitung von Kinderpornografie-Delikten gibt. Ziel ist die Veranschaulichung des derzeitigen Standes im Kampf gegen Kinderpornografie, nicht nur in Strafverfolgungsbehörden, sondern auch auf politischer Ebene. Zudem soll ein Ausblick erfolgen, inwiefern sich dies in Zukunft verändern könnte.
Diese Arbeit behandelt, wie in einem rundenbasierten Strategiespiel ein System zur Integration linearen Missionsdesigns implementiert wurde. Es erlaubt, Missionen anzulegen und in Szenarien zu gruppieren, welche sich wiederum in einer Kampagne zusammenfassen lassen. Dabei können beliebig viele Kampagnen gleichzeitig existieren, ohne dass sich deren Inhalte überschneiden. Die Implementierung des Systems ist umfangreich beschrieben und wird mit relevanten Code-Beispielen veranschaulicht. Das Spiel wurde hinsichtlich der Player Experience, Usability und User Experience mit den Fragebögen MEEGA+ und AttrakDiff evaluiert. Eine Evaluation der User Experience mit AttrakDiff wurde auch für den zum Spiel gehörenden Inhaltseditor durchgeführt. Die dabei ermittelten Ergebnisse zeigen, dass beide Anwendungen von den Probanden grundsätzlich gut bis sehr gut wahrgenommen werden. Durch eine Detailanalyse der einzelnen Wertungen sowie dem zusätzlich gegebenen Feedback konnten Stärken und Schwächen identifiziert werden. Um die Schwachpunkte in zukünftigen Entwicklungsbestrebungen effizient bearbeiten zu können, sind passende Vorschläge und detaillierte Erklärungen der Ursachen beigefügt worden. Der Mehrwert des Kampagnensystems hinsichtlich wahrgenommener Qualität und Motivation wird durch einen Vergleich mit Evaluationsergebnissen einer früheren Version bewiesen. Diese wurden in dem dieser Arbeit vorangegangenen Forschungsmodul, in welchem die damalige Spielversion ebenfalls mit MEEGA+ evaluiert wurde, ermittelt. Zum Verständnis der Arbeit wird Vorwissen mit der Game Engine Unity sowie ihrer grundlegenden Konzepte, bspw. GameObjects und daran angebundene Komponenten, vorausgesetzt. Da an verschiedenen Stellen Bezug auf das Forschungsmodul sowie den darin erlangten Erkenntnissen genommen wird, ist die Konsultation des zugehörigen Abschlussberichtes empfehlenswert. Er liegt dieser Arbeit als digitale Anlage F bei.
Diese Arbeit zielte darauf ab, die Anwendung zellbasierter in vitro-Assays zur Detektion von Agonismus und Antagonismus von Umweltstoffen im Hochdurchsatz zu optimieren. Darüber hinaus wurde der Einfluss von Lösemitteln in den Proben auf die Messungen untersucht. Parallel dazu wurden die untersuchten Stoffe und Lösemittel durch zwei verschiedene Methoden auf Zytotoxizität analysiert. Ausgehend von den Ergebnissen dieser Arbeit wurden derzeit angewandte Methoden zur Durchführung und Auswertung von Versuchen zu Agonismus und Antagonismus kritisch hinterfragt.
In dieser Arbeit wurde das SARS-CoV-2 Nukleokapsid-Protein sowie dessen N- und C-terminale Domäne kloniert und die darauf folgende Expression in E.coli und die Aufreinigung optimiert. Anschließend wurden die Proteine als Antigene für indirekte ELISAs verwendet. Die IgG-Antwort aus Seren von COVID-19 Patienten wurde bestimmt, um die Sensitivität und Spezifität hinsichtlich der Detektionsfähigkeit gegenüber den Varianten des N-Proteins zu vergleichen. Weiterhin wurde das Verhalten dieser Immunantworten über einen Zeitraum der akuten Infektion bis frühen Konvaleszenz mit einem Zeitraum von bis zu 10 Monaten nach Symptombeginn bei verschiedenen klinischen Schweregraden untersucht.
In this work a second version for the Python implementation of an algorithm called Probabilistic Regulation of Metabolism (PROM) was created and applied to the metabolic model iSynCJ816 for the organism Synechocystis sp. PCC 6803. A crossvalidation was performed to determine the minimal amount of expression data needed to produce meaningful results with the PROM algorithm. The failed reproduction of the results of a method called Integrated and Deduced Regulation of Metabolism (IDREAM) is documented and causes for the failed reproduction are discussed.
In dieser Arbeit geht es um die Untersuchung photogrammetrisch erzeugter 3D-Objekte hinsichtlich deren Qualität und Umsetzung als Videospiel-Asset. In drei Experimenten wird geprüft, inwiefern unterschiedliche Aufnahmeparameter und Erfassungsmethoden Einfluss auf die digitale Rekonstruktion realer Objekte besitzen.
Unter Einbezug der Untersuchungserkenntnisse wird ein 3D-Asset erstellt und ausgewertet.
Die Anforderungen an die Qualität und den Realismus von Videospielen und deren visuellen Effekten steigen kontinuierlich. Dies führt zu der Herausforderung, beeindruckende Effekte und eine gute Performance zu gewährleisten. Die Auswahl einer geeigneten Technik für ein Leistungsproblem ist daher wichtig. Aus diesem Grund widmet sich die Bachelorarbeit dem Vergleich verschiedener Methoden zur Optimierung der Darstellung visueller Effekte in Unity. Neben einer Literaturrecherche werden ausgewählte Verbesserungsmöglichkeiten wie zum Beispiel ein Level-of-Detail System oder Batching implementiert. Als nächstes findet eine Evaluation dieser Techniken in einem Testszenario mit ausgewählten Metriken wie beispielsweise Bildrate und Grafikkartenauslastung statt. Anschließend erfolgt der Vergleich ihrer Effektivität in Bezug auf die originale Version des visuellen Effektes. Die Ergebnisse der Untersuchung zeigen, dass insbesondere das Level-of-Detail System und die Culling-Methode einen signifikanten Einfluss auf die Grafikkartenauslastung haben. Zudem weisen die meisten Optimierungstechniken in Bezug auf die Metriken Vor- und Nachteile auf. Obwohl die erzielten Ergebnisse nicht unmittelbar auf die praktische Anwendung in Spielen übertragbar sind, ermöglichen sie dennoch eine wertvolle Vergleichbarkeit der angewendeten Methoden.
Die vorliegende Arbeit befasst sich mit dem Datenschutz allgemein und der DSGVO im Konkreten als Herausforderung für Unternehmen.
Die Einhaltung rechtlicher Vorschriften, vertraglicher Bestimmungen, externer sowie interner Regelwerke, im Begriff Compliance zusammengefasst, ist ein wichtiges Unternehmensziel. Die DSGVO, die am 25.05.2018 in
Kraft trat, bringt für Betriebe einige zu beachtende Änderungen mit sich, so beispielsweise die Rechenschaftspflicht des Verantwortlichen und die verschärften Sanktionen bei Verstößen.
Zusätzlich muss durch sie als Verordnung, aufgrund ihrer Vorrangstellung gegenüber nationalen Gesetzen, auch die Anwendbarkeit einiger bestehender Regelungen in Frage gestellt werden.
Studying and understanding the metabolism of plants is essential to better adapt them to future climate conditions. Computational models of plant metabolism can guide this process by providing a platform for fast and resource-saving in silico analyses. The reconstruction of these models can follow kinetic or stoichiometric approaches with Flux Balance Analysis being one of the most common one for stoichiometric models. Advances in metabolic modelling over the years include the increasing number of compartments, the automation of the reconstruction process, the modelling of plant-environment interactions and genetic variants or temporally and spatially resolved models. In addition, there is a growing focus on introducing synthetic pathways in plants to increase their agricultural potential regarding yield, growth and nutritional value. One example is the β-hydroxyaspartate cycle (BHAC) to bypass photorespiration. After the implementation in a stoichiometric C3 plant model, in silico flux analyses can help to understand the resulting metabolic changes. When comparing with in vivo experiments with BHAC plants, the metabolic model can reproduce most results with exceptions regarding growth and oxaloacetate. To evaluate whether the BHAC is suitable to establish a synthetic C4 cycle, the pathway is implemented in a two-cell type model that is capable of running a C4 cycle. The results show that the BHAC is only beneficial under light limitation in the bundle sheath cell. An additional engineering target for improved performance of plants is malate synthase. This work serves as the basis for further analyses combining the different factors boosting the advantages of the BHAC and for in vivo experiments in C3 and C4 plants.
Das Ziel dieser Bachelorarbeit ist die Darstellung von Techniken zur Verfolgung von Transaktionen und Entitäten auf der Bitcoin Blockchain. Die zugrundeliegende Forschungsfrage lautet wie folgt:
Welche Aussagekraft und Grenzen haben Heuristiken und Analysemethoden zur Nachverfolgung von Bitcointransaktionen und wie wirken sie sich auf deren Anonymität aus?
Zur Beantwortung der Forschungsfrage wird eine Literaturrecherche durchgeführt. Die Funktionsweise der Methoden wird dargestellt, Stärken und Schwächen der Methoden werden aufgezeigt und gegebenenfalls Verbesserungsvorschläge gemacht.
Es zeigt sich, dass die Anonymität des Bitcoin-Systems aus verschiedenen Richtungen eingeschränkt werden kann. Die vorgestellten Analysemethoden haben jedoch ihre Grenzen und können die Anonymität des Bitcoinsystems nicht endgültig überwinden.
Letztendlich bleibt festzuhalten, dass die Anonymität eines Nutzers von seiner Bitcoin-Nutzung und der Nutzung seines Umfelds abhängt. Ein bewusster, anonymer Umgang mit der Kryptowährung ist die Grundlage für eine solide Privatsphäre.
The aim of this bachelor thesis was to establish extracytoplasmic function (ECF) σ factors as synthetic genetic regulators for biotechnological and synthetic biology applications in the new emerging model organism Vibrio natriegens. Therefore, synthetic genetic circuits were engineered on plasmids as test set-up for the investigated ECFs and their target promoters. The resulting plasmid library consisted of the reporter plasmids with the target promoter, fused to a lux cassette, a set of high-copy ECF plasmids and a backup set of lower-copy ECF plasmids. First, the high-copy plasmids were transformed in V. natriegens to test them for their functionality upon different inducer levels, which yielded good inducibility for few, but showed too high ECF-expression in most strains. For this reason, the set of lower copy plasmids was used for combinatorial co-transformation, to investigate the ECFs for their cross-talk to unspecific ECF target promoters. The switching to the lower-copy plasmid-set seemed to be partly helpful, while still much room for fine-tuning of the circuits remains. The knowledge gained can be used to achieve higher success rates when engineering synthetic circuits for various applications in V. natriegens, by using the ECFs here recommended as suitable synthetic genetic regulators.
In der folgenden Arbeit wurde die Genauigkeit eines Nahinfrarotspektroskops, zur Schätzung ausgewählter Qualitätsparameter von getrockneten Grassilagen, validiert.
Anschließend wurde die Kalibration des NIR-Spektroskops optimiert und erneut validiert.
Des Weiteren wurden die untersuchten Silagen, anhand der nutritiven Qualitätsparameter, hinsichtlich ihrer Eignung zur Wiederkäuerfütterung bewertet.
Cryptorchidism is the most common disorder of sex development in dogs. It describes a failure of one or both testes to descend into the scrotum in due time. It is a heritable multifactorial disease. In this work, selected dogs of a german sheep poodle breed were sequenced with nanopore sequencing and subsequently examined for genetic variations correlating with cryptorchidism. The relationships of the studied dogs were also analyzed and visually processed.
In dieser Masterthesis wird evaluiert, wie gut sich Deep-Learning-Modelle für eine Toxizitätsbestimmung im digitalen Raum eignen. Hierfür wird die Transformer-Architektur anhand verschiedener Pre-Trainings auf BERT-, DistilBERT-, RoBERTa- und GPT-2-Basis mithilfe der toxisch-binär annotierten GermEval-Datensätze aus den Jahren 2018, 2019 und 2021 angepasst. Das Feintuning der Modelle findet sowohl mit Supervised-, als auch mit Semi-Supervised-Learning via GAN statt. Im Anhang dieser Arbeit steht der genutzte Programmcode zur Verfügung.
Das Feintuning via GAN stellt eine Besonderheit in der Herangehensweise automatisierter NLP-Aufgaben darf. Als Ergebnis dieser Arbeit kann deren Wirksamkeit in binären Textklassifizierungsaufgaben im deutschen Sprachraum bestätigt werden.
Onlinequellen wurden zum Zeitpunkt des Abrufs mithilfe des Firefox-Addons “SingleFile” in eine HTML-Datei gespeichert. Sowohl der HTML-Teil, als auch die Mediendateien, Stylesheets und Skriptdateien befinden sich komprimiert in der Datei. Jede Onlinequelle wurde während des Speichervorgangs bei woleet.io registriert, sodass später die Integrität der HTML-Datei geprüft werden kann. Hierfür speichert Woleet die Signatur und Zeitstempel einer Datei innerhalb der Bitcoin-Blockchain. Soll die Integrität einer Datei geprüft werden, kann dies über gildas-lormeau.github.io/singlefile-woleet/index.html erfolgen.
Die vorliegende Bachelorarbeit gibt einen Überblick über die Zusammenhänge von Tokenaktivitäten und Social Media-Aktivitäten am Beispiel dreier Tokens. Dafür wurden spezifische Merkmale der jeweiligen Aktivitäten automatisiert und manuell erfasst und anschließend einer Korrelationsanalyse unterzogen. Die so erhaltenen Werte wurden danach auf ihre Ausprägungen hin untersucht und abschließend auf ihre Aussagekraft im Bezug auf die Hypothesen dieser Arbeit analysiert. Die Basis der Untersuchungen bilden Abhandlungen von Kim et. al., Garcia et. al. und Mai et. al. zu den Zusammenhängen zwischen Kryptowährungen und Social Media. Durch die Erweiterung ihrer Hypothesen auch auf Kryptotokens wurden sich neue Erkenntnisse über die Zusammenhänge erhofft, welche letztendlich in Teilen den Vermutungen entsprachen.
Schimmelpilze spielen als Zersetzer eine große Rolle in allen Ökosystemen der Erde. Auch in der Forensik wird ihnen eine bedeutende Rolle zuteil, da sie meist totes organi-sches Material besiedeln. Neben der Leichenliegezeitbestimmung und ihrem Nutzen als biologische Spuren an Tatorten, können Schimmelpilze einen Nutzen als Mykotoxinbild-ner aufweisen. In ihrem sekundären Stoffwechsel produzieren sie abhängig von Art und äußeren Einflüssen Toxine. Über ausgewählte Gattungen, deren Arten und Mykotoxine wird in dieser Arbeit ein Überblick gegeben. Analysen dieser Mykotoxine sollen unter Umständen auf die Art Rückschlüsse erlauben. Hierbei präferierte und dargestellte Methoden sind GC-MS, LC-ESI-MS, UHPLC-Qtof-MS und andere Methoden aus der Chromatografie und Massenspektrometrie. Diese werden in der Arbeit mit ihren Grund-lagen gemeinsam erläutert. Über diese Methoden wird der forensische Nutzen von Mykotoxinen als Differenzierungsmerkmal diskutiert und am Ende der Arbeit wird ein Aus-blick auf zukünftigen Nutzen dieser Methoden und der Mykotoxinanalyse in der Forensik gegeben.
Anwendung moderner Bilderkennungsverfahren auf polizeiliche Problemstellungen, mit dem Ziel strafrechtlich relevante Inhalte herauszufiltern. Dabei werden die 3 Architekturen Faster R-CNN, SSD-ResNet und EfficientDet getestet. Anschließend soll eine Integration in den PA von Cellebrite
erfolgen, um die Verarbeitungspipeline innerhalb der Polizei bestmöglich zu ergänzen. Aufgrund von Systeminkompatibilitäten wurde eine eigenständige Lösung erarbeitet.
In dieser Arbeit werden das Parameterbasierte Verfahren StyleFlow und das semantische System StyleClip untersucht um das StyleGan zu kontrollieren. Dabei sollen die gewählten Attribute bestmöglich editiert werden und sich dabei möglichst wenig gegenseitig beeinflussen. Zusätzlich Experimente auf realen Daten zeigen, dass durch die Invertierung in den Raum des StyleGan Fehler in den Attributen auftreten und bei der Editierung vermehrt Artefakte auftreten. In weiteren Untersuchungen werden die beiden Systeme genutzt, um zum einem Veränderungen entsprechend dem realen Verhalten durchzuführen und zum anderem eine Attributverteilung von Identitäten auf eine andere zu Übertragen. Dabei wird auch die Bildqualität allgemein und für eine Gesichtserkennung untersucht. Mit den untersuchten Systemen sind diese Operationen zu einem gewissen Maß möglich, dabei fällt die Bewertung aufgrund relativer Metriken schwierig.
Vor der Etablierung neuer Versionen in D-LIMS, müssen diese erst auf ihre Funktionstüchtigkeit geprüft werden. In der Arbeit wird das D-LIMS im Sachbereich DNA-Analyse des Kriminaltechnischen Instituts des Landeskriminalamts Brandenburg und eine Versionskontrolle für die Software D-LIMS vorgestellt.
Aufgrund einer immer älter werdenden Bevölkerung ist das Thema des gesunden
Alterns ein wichtiges Forschungsfeld. Dabei haben vor allem molekulare Prozesse eine bedeutende Rolle, weshalb auch die DNA ein bedeutendes Untersuchungsobjekt darstellt. Neben Mutationen auf Sequenzebene gibt es auch Veränderungen der DNA auf einer übergeordneten Ebene, welche die Sequenzabfolge selbst nicht verändern. Ein solcher Prozess ist die DNA-Methylierung, welche in allen höher entwickelten Eukaryonten von großer Bedeutung ist. Ein Modellorganismus, der in der Alternsforschung
immer mehr Beachtung fndet, ist der manuelle Fisch N. furzeri. Da zur
DNA-Methylierung im Organismus N. furzeri noch nichts bekannt ist, erfolgte im Rahmen dieser Masterarbeit eine Untersuchung der globalen DNA-Methylierung im Alterungsprozess des N. furzeri.
Diese Arbeit beschäftigt sich mit der Untersuchung von Bild- und Videomaterial auf Anzeichen von Manipulationen. Erst werden Methoden vorgestellt, die bei regulären Manipulationen zu Erfolgen führen können. Anschließend werden mit den gleichen Methoden Deep-Fake Videos untersucht, um zu prüfen, ob diese einfachen Methoden auch bei Deep-Fakes funktionieren können.
The Infinica product suite consists of multiple individual microservice applications, mainly gathered around Infinica Process Engine which allows the execution of highly individualised process definitions. For estimating process performance, a layered queuing network approach has been applied. In the first step this required the implementation of a basic modelling framework. Subsequently the implemented framework was used to evaluate the applicability of the approach by creating two models and comparing them with actual performance measurements. Although the calculated results deviated from the expected results, analysis showed that the differences may
derive from an inaccurate model. Nevertheless the general approach seems to be appropriate for the given application as well as for microservices in general, especially when extended with advanced modelling techniques, as the analysed modelled results appear consistent.
Diese Arbeit behandelt die Herleitung und Verwendung eines alternativen Unähnlichkeitsmaßes im Neural - Gas - Algorithmus. Dabei werden zuerst ausgewählte Algorithmen vorgestellt und in das Feld der Vektorquantisierer eingeordnet. Anschließend wird die sogenannte Tangentenmetrik mathematisch motiviert und vermutete Vorteile gegenüber anderen Metriken anhand künstlich
erzeugten und real existierenden Beispielen experimentell untersucht. Weiterhin werden die Laufzeitkomplexität und beobachtete Limitierungen des neuen Algorithmus näher beleuchtet.
Die vorliegende Bachelorarbeit verschafft einen Einblick über die theoretischen Grundlagen und Voraussetzungen des Workflows einer CGI Serienproduktion. Dabei werden theoretische Aspekte eines optimalen Workflows untersucht und auf die Grundlagen einer CGI-Visualisierung eingegangen. Anschließend werden Erkenntnisse aus Interviews mit fachlichen Experten solcher Produktionen mit der Theorie verglichen, einzelne Arbeitsschritte und Problemstellungen auf Optimierungsmöglichkeiten analysiert und Lösungswege zur Verbesserung des Workflows für die Zukunft beschrieben.
Die Arbeit befasst sich mit der Erstellung eines Tools zur Vorhersage von Transformationseffizienzen von CRISPR/Cas Systemen in Gerste (Hordeum vulgare L.). Es wurden 57 Zielsequenzen hinsichtlich ihrer Sequenzeigenschaften, wie GC Gehalt oder Entropie untersucht und Modelle für die Vorhersage von Effizienzen, für neue Sequenzen abgeleitet. Dabei konnten gute Vorhersagegenauigkeiten, erzielt werden. Außerdem wurden
mit Hilfe von k-mer Analysen Off-Target Effekte abgeschätzt, wobei hier der Vorteil gegenüber vergleichbaren Tools in der Verwendung von Sequenzrohdaten liegt. Somit kann das Tool auch für unassemblierte Genome genutzt werden.
Gegenstand dieser Arbeit ist die in-vitro Kultivierung von Petunia hybrida ‘Mitchell‘. Ziel der Untersuchung ist einerseits die Etablierung eines in-vitro Systems mit Petunien. Andererseits soll die Auswirkung einer warm-Dunkelbehandlung auf die Adventivwurzelbildung sowie den Kohlenhydratmetabolismus auf die Mutante PDR1 und DAD1 festgestellt werden.
Die vorliegende Bachelorarbeit befasst sich mit der Charakterisierung der extrazellulären Matrix, die durch humane Fibroblasten in Form von Cell Sheets in Zellkultur produziert wurde. Die Untersuchungen sollten vergleichend für die Zellen der Zelllinie MRC-5 und Primärzellen adulte und fetale humane dermale Fibroblasten durchgeführt werden. Zur Beurteilung der Matrixausprägung kam das Metabolic Oligosaccharide Engineering zum Einsatz. Zwei Methoden zur Dezellularisierung wurden miteinander verglichen, der Erfolg dieser beurteilt und die zurückbleibende extrazelluläre Matrix betrachtet.
Weitere Analysen zur Untersuchung vor und nach der Dezellularisierung beinhalteten unter anderem Glykosaminoglykan- und Hydroxyprolinbestimmungen, Rasterkraftmikroskopie und Siriusrotfärbung.
Die vorliegende Arbeit beschäftigt sich mit der Analyse, Konzeption, Implementation und Evaluation eines dezentralen Feedback-Systems für die Blockchain Academy Mittweida. Es wurde nach einer Lösung gesucht, das Feedback für die angebotenen Kurse auf der Seite der Blockchain Academy Mittweida erfassen zu können. Dabei sollte die Anonymität des Nutzers stets gewahrt bleiben, jedoch für den Betreiber die Möglichkeit gegeben sein, unberechtigtes oder doppeltes Feedback erkennen und aussortieren zu können. Diese Anforderungen konnten durch die Linkable-Ring-Signature gewährleistet werden. Bei diesem Verfahren kann der Nutzer stellvertretend für seine Gruppe eine Nachricht signieren. Der Betreiber kann überprüfen, ob eine signierte Nachricht aus dieser Gruppe stammt und ob es bereits eine Nachricht von einem Nutzer eingegangen ist, ohne die Anonymität des Nutzers aufzuheben. Das System wurde möglichst dezentral gestaltet, um keine zentrale Angriffsstelle bieten zu können und sicherheitsrelevante Teile abkapseln zu können. Es wurde ein Smart Contract angelegt, welcher die zum Signieren benötigten öffentlichen Schlüssel der Gruppenmitglieder eines Kurses bereithält. Die zweite Komponente stellt eine Browsererweiterung dar. Mit dieser kann der Nutzer sich in die Feedbackgruppe zu einem Kurs eintragen und seine Schlüsselpaare für die Signatur Generierung speichern lassen. Die dritte Komponente ist ein Plugin auf dem WordPress-System der Blockchain Academy Mittweida, mit welchem das Feedback auf Verknüpfbarkeit geprüft werden kann. Mittels eines funktionalen Testverfahrens und einer Probandengruppe wurde die erarbeitete Lösung untersucht. In beiden Fällen bestand die Lösung die an diese gestellten Anforderungen und wurde positiv von der Probandengruppe aufgenommen. Es wurde sich mehrheitlich für die vorgestellte Lösung und gegen eine Lösung mit einem Kennwort, welches der Nutzer eingeben muss, bevor er eine Umfrage ausfüllen kann, entschieden. Im Wintersemester 2022/2023 an der Hochschule Mittweida könnte die Anwendung zusammen mit dem Masterstudiengang Blockchain & Distributed Ledger Technologies (DLT) in einem größeren Praxistest eingesetzt und weiter erprobt und verbessert werden.
Die vorliegende Arbeit beschäftigte sich mit einer Analyse von Methoden des maschinellen Lernens, mit Hinblick auf ihre unterstützende Wirkung für den intralingualen Übersetzungsprozess von deutschen standardsprachlichen zu Leichte Sprache Texten. Für diesen Zweck wurde ein Vergleich von relevanten Methoden, in diesem Fall die der statistischen maschinellen Übersetzung und die der neuronalen maschinellen Übersetzung aus dem Bereich des maschinellen Lernens und des Natural Language Processing aufgestellt. Dabei wurde der potenzielle Funktionsumfang, die Voraussetzungen sowie die Implementierbarkeit verglichen. Das Ergebnis dieses Vergleiches war es das, dass Potenzial durchaus gegeben ist mittels dieser Methoden den Übersetzungsprozess zu unterstützen. Jedoch bedingt das Fehlen eines Textkorpus für deutsche Standard Sprache und ein dazugehöriger Textkorpus der Leichten Sprache, das diese Methoden nicht implementiert, wurden konnten. Es konnten drei Funktionen umgesetzt werden, die den Übersetzungsprozess unterstützen. Zum einen die Funktion für die Anzeige von gebräuchlicheren Synonymen von Wörtern, eine Funktion für die automatische Generierung von
Zusammenfassungen und eine Funktion für Anzeige von Umformulierungen für Zahlen aus den Bereichen hohe Zahlen, alte Jahreszahlen und Prozent Zahlen. Die Evaluation der Funktionen mittels einer zufällig generierten Wortliste und ausgewählter Nachrichten für die Zusammenfassung und Zahlenbereiche ergab. Das diese Funktionen eine unterstützende Wirkung haben, jedoch stark fehleranfällig sind.
Our current research aims to establish a complete ribonucleic acid (RNA) production line from plasmid design to purification of in vitro transcribed RNA and labeling of RNA. RNA is the central molecule within the central dogma of molecular biology and is involved in most essential processes within a cell[1]. In many cases, only compact three-dimensional structures of the respective RNA are able to fulfill their function. In this context, RNA tertiary contacts such as kissing loops and pseudoknots are essential to stabilize three-dimensional folding[2]. We will produce a tertiary contact consisting of a kissing loop and a GAAA tetraloop that occurs in eukaryotic ribosomal RNA[3,4]. The RNA sequence is integrated into a vector plasmid. Subsequently, the plasmid is amplified in E. coli. After following plasmid purification steps, the RNA sequence will be transcribed in vitro[5,6]. In order for the RNA be used for Förster resonance energy transfer (FRET) experiments at the single molecule level, fluorescent dyes must be coupled to the RNA molecule[7].
Ziel dieser Diplomarbeit ist es, eine Übersicht über einsetzbare Systeme zur stationären und mobilen Einzelarbeitsplatzabsicherung nach DGUV 139 in einem
Chemiewerk zu erstellen. Dabei sollen die Vor- und Nachteile der Systeme analysiert und nach technischen und wirtschaftlichen Kriterien bewertet und verglichen werden. Für eventuell bestehende Schwächen sollen Lösungsvorschläge zur Beseitigung gefunden werden.
In dieser Bachelorarbeit werden DNA-Mischspuren von zwei, drei und vier Personen im Hinblick auf Unterschiede in Peakhöhen und Peakareas untersucht. Dabei werden die Einflüsse sinkender DNA-Mengen, steigender Verhältnisse sowie Temperatur und UV-Lichteinfluss auf die Signalstärken der Allele betrachtet und verglichen. Es wird im Speziellen auf die Häufigkeiten aufgetretener Degradationsphänomene Allelic Drop-in und Allelic Drop-out eingegangen, sowie die genutzten STR-Systeme diesbezüglich bewertet. Die Abgrenzbarkeit der Mischspuren bzw. deren Bewertung erfolgt auf Grundlage der aktuellen Vorgaben der Spurenkommission.
Diese Arbeit beschäftigt sich mit der Implementation einer Werkzeugkette, die es dem Nutzer ermöglicht, in einer Benutzeroberfläche digitale Objekte in dessen Form und Oberfläche zu manipulieren, und im Anschluss eine automatisierte Bilderreihe der Objektes zu erhalten.
Schwerpunktmäßig werden in dieser Arbeit gewisse Programmkomponenten auf spezifische Problemstellung der digitalen Nahbereichsphotogrammetrie ausgelegt, die eine ungenaue Rekonstruktion bei detailgenauen Modelleigenschaften aufweist. Hierzu werden dem Nutzer Modellspezische inkrementelle Manipulationen bereitgestellt, die optimalerweise die Extremefälle der Rekonstruktionsqualität moderner Photogrammetrie-Software beurteilen lässt. Nicht-Modell Faktoren, die potentiell zu Fehlern in der Genauigkeit beitragen können, sollen, soweit es technisch möglich ist, für moderne photogrammetrische Software optimiert und damit ausgegrenzt werden. Näher soll dabei auf die Kapabilitäten von detaillierten und realitätsnahen Objekten eingegangen werden. Es soll trotz der digitalen Umgebung, realitätsnahes Umgebungslicht eingebracht werden, sowie gewisse komplexe Materialien und Materialeinstellungen implementiert werden.