Refine
Document Type
- Bachelor Thesis (703) (remove)
Year of publication
Keywords
- Computerforensik (52)
- Softwareentwicklung (42)
- Videospiel (42)
- Computersicherheit (37)
- Computerspiel (23)
- Datensicherung (17)
- Maschinelles Lernen (17)
- Virtuelle Realität (15)
- Forensik (14)
- Programmierung (13)
Institute
- Angewandte Computer‐ und Biowissenschaften (703) (remove)
Diese Bachelorarbeit befasst sich mit der Untersuchung zweier eigens hierfür erwählter Fitness-Apps: ‚Fitnesstrainer FitProSport‘ und ‚Fitness Challenge‘.
Ziel ist die Darstellung des gesundheitlichen wie zweckmäßigen Nutzens von Mobile-Apps und ihrer Benutzbarkeit, um Rückschlüsse auf deren Eignung zur Unterstützung des Aufbaus oder der Steigerung körperlicher Leistungsfähigkeit zu ziehen. Infolge der literarischen Quellanalyse sowie unter Verwendung von themenbezogenen Studien und Statistiken, erfolgt die Darstellung relevanter, gesammelter Informationen. Einhergehend mit der Betrachtung sowohl von Hintergründen und Entwicklungen der Fitness als ‚modernem Sport‘ als auch von diesbezüglichen mobilen Applikationen unter besonderer Berücksichtigung der ausgewählten Apps werden die Gebiete der Softwareergonomie (Nutzen) und -technik (Benutzbarkeit) näher erläutert. Für die Durchführung eines manuellen, dynamischen Selbsttests des Verfassers gilt es, allgemeine, medizinische, softwareergonomische und -technische Kriterien zur Prüfung zu erarbeiten und entsprechend aufzubereiten. Im Zuge dessen werden Testdokumente zur Begleitung des Testprozesses sowie Fragebögen zu aus den genannten Themengebieten erarbeiteten Prüfkriterien erstellt. Neben dieser Benutzerbefragung dienen auch Diagrammdarstellungen der abschließenden Analyse und Ergebnisbewertung unter Beantwortung der gestellten Forschungsfrage. Ein Ausblick gibt einen Überblick über Relevanz und mögliche Chancen der aufgeschlüsselten Thematik der gerätegestützten körperlichen Betätigung.
Die vorliegende Bachelorarbeit befasst sich mit der Thematik zur Überprüfung der möglichen Schädigung von Lederhalbfabrikaten (Wet-Blue) durch verschiedene Schimmelpilze, welche auf Leder vorgekommen sind bzw. bereits von Leder isoliert werden konnten. Dafür sollte das Wachstum der Schimmelpilze auf dem Halbfabrikat mit Hilfe von Kultivierungsmethoden aus verschiedenen Bewuchstests gezielt gefördert werden. Anschließend wurden die Prüflinge auf eine Materialschädigung untersucht und auf mögliche Nährstoffquellen für das Wachstum der Schimmelpilze zurückgeschlossen
In dieser Arbeit wird die Auswirkung der landwirtschaftlichen Nutzung im Nahbereich der Gewässer auf den Blattabbau in kleinen Fließgewässern der Agrarlandschaft untersucht. Hierzu wurde ein Freilandversuch an zwölf Messstellen in Deutschland durchgeführt, um den Blattabbau durch Makroinvertebraten und Mikroorganismen zu bestimmen. Die Abbauraten wurden auf einen Zusammenhang mit der landwirtschaftlichen Nutzung des Nahbereichs der Gewässer, der Ausprägung von allgemeinen abiotischen Umweltstressoren und der Dichte und Artzusammensetzung der Zerkleinerer überprüft.
Die vorliegende Arbeit betrachtet den Stellenwert von Realismus in Animationsfilmen. Unter Berücksichtigung der gestalterischen Darstellung der Figuren, der Handlung und der visuellen Gestaltung des Animationsfilmes, wird bewertet, wie wichtig die einzelnen Faktoren eines Filmes im Bezug auf ihre realistische Wirkung auf den Zuschauer sind.
Mittels GPM3 können komplexe DNA- Mischspuren analysiert und STR- Profile ausgewertet werden. Zudem können durch Berechnungen die Genotypen, die in einer Mischung vorliegen, voneinander differenziert werden. Vor allem komplexe Mischspuren stellen einen Schwerpunkt bei der Spurenuntersuchung dar. Eine Anwendung von GPM3 ist die komponentenweise Dekonvolution von DNA- Mischspuren, bei der die Profile der beteiligten Personen aufgetrennt und die Wichtungen aller möglichen Genotypen ausgezählt werden. Dabei werden die Genotypkonstellationen (GTK) basierend auf den Peakhöhen, der Degradationsstärke und stochastischen Effekten bei Einsetzten von geringen DNA- Mengen modelliert. Der von der Firma Qualitype vorgegebene Grenzwert für die Wichtung, ab welcher mit einer hohen Wahrscheinlichkeit angenommen werden kann, dass es sich bei dieser GTK um den richtigen Genotyp der beteiligten Person handelt, liegt bei 90 %. Folglich werden Untersuchungen im Rahmen dieser Arbeit zu diesem Grenzwert anhand von verschiedenen 2- Personen- Mischungen in unterschiedlichen Konzentrationen mittels der Dekonvolution mit dem vollständig- kontinuierlichen Modell durchgeführt.
In der Arbeit werden dazu die jeweiligen Abstände der Wichtungen in Prozent der GTK der beteiligten Personen jeder Mischung berechnet und überprüft, ob die am höchsten gewichteten Genotypen in GPM3 den richtigen Allelkombinationen der jeweiligen Person entsprechen. Hierbei wird der Abstand der Konstellation mit der größten Wichtung zur „wahren“ Konstellation berechnet. Aus den Mittelwerten der prozentualen Abstände soll anschließend der Ähnlichkeitswert der Wichtung, ab welchem noch mit sehr hoher Wahrscheinlichkeit die richtige GTK ausgegeben wird, ermittelt werden.
Das Ziel der Bachelorarbeit ist es, die Möglichkeiten und Grenzen der Dekonvolution von Mischspuren mit der GPM3- Software bei verschiedenen Analysebedingungen zu bewerten und einen Auswerteparameter in Abhängigkeit von den Abständen der Wichtungen in Prozent und den Konzentrationen der einzelnen Mischungen zu validieren. Zudem soll die Nachweisgrenze der Analysemethode untersucht werden, um eine Aussage über die Minimalmenge an einzusetzender DNA treffen zu können
Die Bachelorarbeit befasst sich mit dem Zeitmanagement von sieben ausgewählten CITO-Parametern. Besonders liegt dabei der Schwerpunkt auf der Analyse der Zeiten der eiligen CITO-Parameter, welche anhand ausgewählter statistischer Methoden erfolgt. Dazu gehört die Auswertung der Ankunftszeiten der Blutproben, der Turn-Around-Zeiten dieser Proben im Labor und der wöchentlichen Mediane der Turn-Around-Zeiten, sowohl in Form eines Diagramms, als auch mithilfe eines Boxplots, mit dem die Durchlaufzeiten innerhalb eines Monats noch besser visualisiert werden können. Um störende Faktoren innerhalb des Labors zu erkennen, wird der Laborablauf einer Probe analysiert und die Aufenthaltsdauer ausgewählter Stichproben an den verschiedenen Laborarbeitsplätzen verfolgt. Darüber hinaus werden die CITO-Parameter mit den täglich längsten Turn-Around-Zeiten genauer überprüft, wodurch sich ebenso Gründe für verlängerte Zeiten finden lassen. Anhand der statistischen Auswertung wird es möglich, Optimierungsvorschläge zu finden, die besonders den Laborablauf der eiligen Blutproben in Zukunft verbessern können.
Workload Optimization Techniques for Password
Guessing Algorithms on Distributed Computing Platforms
(2019)
The following thesis covers several ways to optimize distributed computing platforms for cryptanalytic purposes. After an introduction on password storage, password guessing attacks and distributed computing in general, a set of inital benchmark results for a variety of different devices will be analyzed. The shown results are mainly based on utilization of the open source password recovery tool Hashcat. The second part of this work shows an algorithmic implementation for information retrieval and workload generation. This thesis can be used for the conception of a distributed computing system, inventory analysis of available hardware devices, runtime and cost estimations for specific jobs and finally strategic workload distribution.
Diese Bachelorarbeit zielt darauf ab, die Vor- und Nachteile des Game Asset Creation Workflows und des Textureless Workflows, für mobile Augmented Reality Geräte anhand der Microsoft HoloLens zu ermitteln. Hierfür wurden beide Workflows in Sachen Performance und Erscheinungsbild mithilfe einer Testreihe verglichen. Es wurden für jeden Workflow jeweils drei Modelle mit unterschiedlichen Parametern erstellt. In der Testreihe wurden daraufhin verschieden Texturen separat getestet, um genau sagen zu können, welche Texturen für Performanceeinbrüche sorgen. Das Ergebnis der Testreihe bestätigt die vorher getroffene These, dass der Textureless Workflow über die bessere Performance verfügt. Diese Bachelorarbeit ist sowohl für Modellierer von 3D Modellen für mobile Augmented Reality Geräte interessant, als auch für HoloLens Entwickler.
Die folgende Arbeit bezieht sich auf die Werke von Hermann Helbig und Dewald und Freiling. Es soll die Verbindung zwischen einem Objekt, definiert nach Helbig, und einer Spur im kriminalistischen Sinne aufzeigen. Es wird zudem eine neue Repräsentation des Weges einer Spur von dessen Sicherung hin zu der Assoziation mit dem Objekt, das die Spur verursacht hat, entwickelt. Ein Objekt als semantische Entität mit dessen Eigenschaften als Charakterisierung soll in einen Zusammenhang mit kriminalistischen Untersuchungen, wie Klassifizierung und Individualisierung, durch eine Ontologie gebracht werden. Beginnend mit physischen Spuren stellt sich die Frage, ob sich die Darstellung auch auf digitale Spuren übertragen lässt. Eine neue Grafik, die sowohl für physische als auch für digitale Suren funktioniert, soll erzielen werden.
Wirksamkeitstestung des Helikase-Primase Inhibitors PXI26250 gegen das Herpes simplex Virus Typ 1
(2018)
Die vorliegende Arbeit thematisiert die Wirkstofftestung des neuartigen Helikase-Primase Inhibitors PXI26250 gegen eine HSV-1 Infektion in einer in vitro Untersuchung der Zelllinie A549-Luc. Dabei werden insbesondere die Einflüsse verschiedener Konzentrationen des Medikaments und die zeitlichen Auswirkungen unterschiedlicher Inkubationszeiten auf die Infektionsintensität analysiert. Neben einer Antikörpermarkierung infizierter Zellen mittels Immunocytochemie werden für die Quantifizierung der Ergebnisse weiterhin ein Cytotoxizitäts - sowie Zellviabilitäts Assay hinzugezogen.
Das Programm WhatsAppOn ist ein in Python geschriebenes, kommandozeilenbasiertes Programm, welches das Tracken des WhatsApp-Online-Status einer Person auf verschiedenen Betriebssystemen ermöglicht. Das Programm wurde auf den Betriebssystemen Windows und Linux getestet. Die Testphase umfasst eine Dauer von neun Wochen. Nach der Testphase wurden die Daten mittels eines Programmes weiterverarbeitet. Die Daten konnten daraufhin ausgewertet werden. Bei der Auswertung stellte sich heraus, dass Schlafphasen der Testperson festgestellt werden können. Arbeitszeiten der Testperson ließen sich nur teilweise ermitteln.
In dieser Arbeit sollen die Vorgehensweise und einige Ansätze der KI-basierten Emotionserkennung vorgestellt werden. Dabei wird auch auf die Grundlagen der allgemeinen Emotionserkennung eingegangen und hinterfragt, ob die Nutzung einer KI mit diesen Fähigkeiten sinnvoll für Vernehmungssituationen ist.
Die Arbeit beschäftigt sich mit der Weiterentwicklung eines LIMS für die AUD-GmbH in Chemnitz. Als Orientierung dient eine vorangegangene Bachelorarbeit („Entwicklung eines Plans für ein LIMS auf Grundlage des Baukastensystems Nuclos“ von Florian Quellmalz), welche sich mit einem ähnlichen Thema beschäftigt hat. Mithilfe des Open Source Programms „Nuclos“ soll die Grundlage für ein funktionierendes LIMS geschaffen werden. Hierfür werden Informationen über Datenbankerstellung, die internen Laborprozesse und relevante Arbeitsschritte gesammelt, verarbeitet und anhand dessen in das LIMS einbezogen.
Wirksame Sicherheitsmaßnahmen zu entwickeln und auch zu implementieren, bedeutet im Umkehrschluss, dass zuerst einmal die zugrundeliegenden Gefahren, Schwachstellen und Sicherheitslücken bekannt sein und verstanden werden müssen. Das beste System hat wenig Nutzen, wenn der Mensch, der es bedient, es nicht zu nutzen weiß. Aus diesem Grund soll mit der vorliegenden Arbeit ein grundlegendes Verständnis zu möglichen Angriffen auf das Session Management beziehungsweise in diesem Fall auch die Verschlüsselung gelegt werden. Im Anschluss daran werden mögliche Schutzmaßnahmen dargelegt, welche als eine Art Leitfaden dienen sollen.
In dieser Arbeit wird der Einsatz des Wave Function Collapse Algorithmus untersucht. Dazu werden Anforderungen an das Leveldesign für das Videospiel Counter Strike: Global Offensive als Vorlage genutzt. Der Algorithmus wird in der Unity Engine implementiert und evaluiert. Es werden drei Versuchsreihen durchgeführt. Jede Versuchsreihe nutzt andere Einstellungen für die Levelgenerierung und analysiert welche Anforderungen erfüllt werden können. Die Ergebnisse werden verglichen und es werden Rückschlüsse auf die Anwendbarkeit des Algorithmus für die Erstellung von Multiplayer Level mit Ähnlichkeit zu Counter Strike: Global Offensive gezogen.
The following is a description and outline of the work done at the Cornell Lab of Ornithology developing Nation Feathers VR, a virtual reality game for learning about bird calls and songs. The goal was to develop a game which is intuitive, educational and entertaining. Furthermore, the software needed to be structured in a way that allows for feasible future expansion. This required careful data saving and retrieval. The game gives the player an opportunity to learn and apply that knowledge, all while maintaining a shorter runtime in order to reduce the total time spent in the virtual world. This is meant to prevent any discomfort to the player that may result from extended use of the VR headset.
In regelmäßigen Abständen werden bei Milchkühen in Deutschland Daten über die Zusammensetzung der Milch erhoben, um eine gleichbleibende Qualität sicherstellen zu können. Gleichzeitig dienen die Milchinhaltsstoffe als erste Indikatoren für eine Veränderung des Stoffwechsels der Kuh und ein damit einhergehend erhöhtes Erkrankungsrisiko. Aus diesem Grund wird in dieser Arbeit untersucht, ob es möglich ist, Vorhersagen über Erkrankungen bei Milchkühen anhand dieser Milchleistungsprüfungsdaten zu treffen. Dafür werden maschinelle Lernverfahren angewendet, im Speziellen Multi-Label- und binäre Klassifikationsverfahren. Die genutzten Klassifikatoren umfassen Multi-Layer Perzeptrone, Naive Bayes-Klassifikatoren sowie Support Vector Machines mit verschiedenen Kernels. Die Vorhersagen werden mit Konfusionsmatrizen und den dazugehörigen Evaluationsmaßen ausgewertet und verglichen.
G-Protein-gekoppelte Rezeptoren (GPCR) sind wichtige Proteinkomplexe für unzählige physiologische Funktionen und dienen als Startpunkt für moderne pharmazeutische Eingriffe. Trotz ihrer Fülle, bemerkenswerten Größe und Molekularstruktur, welche Zell- und Matrixkontakte in einer Vielzahl von Organsystemen ermöglicht, sind GPCR die am wenigsten verstandene Rezeptorklasse. Die Grundlagenforschung an der räumlichen GPCR-Struktur dient dem besseren Verständnis ihres strukturbasierten Wirkstoffdesigns, wodurch pharmazeutisch interessante Proteine mit Medikamenten spezifisch interagieren können. Dafür werden GPCR in „Human Embryonic Kidney“-Zellen (HEK293S-Zellen) exprimiert und anschließend mit der röntgenkristallografischen Analyse untersucht.
Die Bachelorarbeit untersucht, welche Auswirkungen die semantische Bildsegmentierung als Vorverarbeitungsschritt für Eingabebilder auf die Klassifikationsfähigkeit eines Convolutional Neural Networks (CNN) hat. Zu diesem Zweck werden Experimente mit verschiedenen Visualisierungstechniken gemacht, die geeignet sind, relevante Aspekte des Datenflusses im CNN während des Klassifikationsprozesses (wie z.B. den für die Klassifikationsentscheidung relevantesten Bildausschnitt) intuitiv zu veranschaulichen. Hierzu sollen verschiedene bereits existierende Ansätze wie GradCAM, Taylor Decomposition, Activation Maximization auf ihre Anwendbarkeit anhand von synthetischen Bilddaten systematisch untersucht werden. Hierzu werden
Daten- und Kontrollschnittstellen zu den anvisierten CNN-Verfahren umgesetzt und Vergleichsexperimente mit unbehandelten und auf verschiedene Weise vorsegmentierten Bilddaten konzipiert und durchgeführt. Die Arbeit soll ein intuitives Verständnis bzgl. der Fragestellung fördern, welchen Effekt eine vorherige Bildsegmentierung auf das Klassifikationsresultat und die CNN-interne Repräsentation von bildbasierten Daten hat
Verwendung von „mCherry“ als Reportersystem zur Bestimmung der Stärke verschiedener Promotoren.
(2016)
In der folgenden Arbeit geht es um die Analyse der Stärke von verschiedenen Promotoren in den Mikroorganismen Escherichia coli und Acetobacterium woodii, welche mithilfe des rot fluoreszierenden Reporterproteins mCherry detektiert wurde. Die Messungen wurden jeweils bei zellsuspensionen mit dem TECAN-Reader „Infinite® 200 PRO“ der Tecan Group Ltd., Schweiz, durchgeführt. Die relative Fluoreszenz, bei der es sich um die gemessene Emission
in Bezug auf die OD600 der jeweiligen Zellsuspension handelt, spiegelt die Stärke des jeweiligen Promotors wieder.
Des Weiteren wurde die Klonierung des Promotors PbgaL2 durchgeführt.
Diese Arbeit behandelt die Herleitung und Verwendung eines alternativen Unähnlichkeitsmaßes im Neural - Gas - Algorithmus. Dabei werden zuerst ausgewählte Algorithmen vorgestellt und in das Feld der Vektorquantisierer eingeordnet. Anschließend wird die sogenannte Tangentenmetrik mathematisch motiviert und vermutete Vorteile gegenüber anderen Metriken anhand künstlich
erzeugten und real existierenden Beispielen experimentell untersucht. Weiterhin werden die Laufzeitkomplexität und beobachtete Limitierungen des neuen Algorithmus näher beleuchtet.
Ziel der vorliegenden Bachelorarbeit ist es, über das Thema Verschlüsselungstrojaner aufzuklären und dabei auf eine mögliche Prävention durch die Produkte Sandstorm und Intercept X der Firma Sophos einzugehen. Dabei wird besonders auf die Gefahren und Präventionsmöglichkeiten im Allgemeinen eingegangen sowie eine Sicherheitsanalyse im Themenspezifischen Kontext durchgeführt. Weiterhin wird der Anbieter Sophos mit anderen Anbietern verglichen und anhand von verschiedenen Parametern bewertet.
In Zeiten, in denen Unternehmen rechenintensive Anwendungen auf externe Server auslagern, gewinnt Cloudcomputing immer mehr an Bedeutung. Das Problem dabei ist, um Operationen auf herkömmlichen, verschlüsselten, ausgelagerten Daten ausführen zu können, müssen diese zuerst entschlüsselt werden. Vertrauliche Daten liegen in dem Zeitraum der Bearbeitung unverschlüsselt vor, was zu einem Datenschutz- und Sicherheitsproblem führt. Dieses Problem kann durch vollständig homomorphe Verschlüsselungen gelöst werden. Diese moderne Verschlüsselungstechnik erlaubt das Ausführen von Operationen auf verschlüsselten Daten und wird in dieser Arbeit grundlegend vorgestellt. Weiterhin werden Bibliotheken, die homomorphe Verschlüsselungen implementieren, vorgestellt und mittels Benchmarking miteinander verglichen. Anschließend wird ein Anwendungsbeispiel formuliert, das die Vor- und Nachteile homomorpher Verschlüsselungen simulieren soll. Die Implementierung des Anwendungsbeispiels erfolgt mithilfe der im Benchmarking ermittelten leistungsstärksten Bibliothek - der Microsoft SEAL Bibliothek. Mit den in dieser Arbeit erlangten Erkenntnissen soll der Einstieg in die komplexe Thematik der homomorphen Verschlüsselungen vereinfacht werden und gleichzeitig zur Auseinandersetzung mit dieser Verschlüsselungsmethodik angeregt werden.
Durch Eindringen in die Wirtszelle kann sich das SARS-CoV-2-Virus verbreiten. Das adaptive Immunsystem bildet verzögert die humorale Immunantwort durch hochspezifische Antikörper aus. Die Antikörper neutralisieren das SARS-CoV-2. Im Laufe der Immunabwehr steigen die Antikörpertiter der verschiedenen Antikörperklassen unterschiedlich an. Mittels Serumproben sollte herausgefunden werden, wie der IgG-Titer nach einem positiven PCR-Ergebnis von der Zeit abhängig verläuft und ob es Unterschiede zwischen verschiedenen Geschlechtern und Altersklassen gibt. Für die Ermittlung der IgG-Titer wurden einmal der ELISA mittels Generic Assays CoV-2 IgG und einmal der CLIA mittels LIAISON® SARS-CoV-2 TrimericS IgG angewandt. Zudem fand eine Vergleichsmessung der Tests statt.
Im Allgemeinen stieg der Titer innerhalb der ersten 50 Tage an, da sich in dieser Zeit die IgG-Antikörper ab Tag 14 bilden, und erreichte das Maximum im Bereich 40-50 Tage. Danach fiel der Titer leicht bis auf 60 -70 % des Maximums, da die Antikörper nach und nach absterben.
Die Vergleichsmessung ergab einen linearen Zusammenhang von 64 % zwischen Generic Assays und LIAISON®. Bezogen auf die qualitative Aussage der Tests gab es eine 96 % Übereinstimmung der Ergebnisse.
Die vorliegende Bachelorarbeit beschäftigt sich mit maschinellem Lernen im Kontext des autonomen Fahrens. Das Ziel dieser Arbeit ist das Anlernen eines Steuerungsmechanismus eines simulierten Fahrzeugs, auf Grundlage maschineller Lernverfahren, speziell dem Deep Reinforcement Learning. Dazu werden zunächst die Grundlagen des autonomen Fahrens und des maschinellen Lernens geklärt. Mit der Unity-Engine und dem ML-Agents Toolkit wurden Szenen erstellt, in denen Agenten trainiert werden. In verschiedenen Szenen mit unterschiedlichen Komplexitäten und Aufgaben sollen die Agenten lernen ein simuliertes Fahrzeug zu steuern und die jeweilige Aufgabe zu erfüllen. Um das Fahrzeug zu steuern muss der Agent die Längs- und Querführung übernehmen. Die Aufgaben können zum Beispiel anhalten in einem Zielbereich, ausweichen vor Hindernissen oder folgen eines bestimmten Streckenverlaufs umfassen. Die Ergebnisse zeigten, dass es möglich ist ein simuliertes Fahrzeug, mit einem durch Deep Reinforcement Learning angelernten Steuerungsmechanismus, zu steuern. In den meisten Szenen zeigten die Agenten ein gutes Verhalten. Durch die Ergebnisse konnten Erkenntnisse gewonnen werden, welche Faktoren bei Lernvorgängen besonders wichtig sind. Es zeigte sich, dass unter anderem die Wahl einer guten Belohnungsfunktion ausschlaggebend war.
The number of Internet of Things (IoT) devices is increasing rapidly. The Trustless Incentivized Remote Node Network, in short IN3 (Incubed), enables trustworthy and fast access to a blockchain for a large number of low-performance IoT devices. Although currently IN3 only supports the verification of Ethereum data, it is not limited to one blockchain due to modularity. This thesis describes the fundamentals, the concept and the implementation of the Bitcoin verification in IN3.
Im Rahmen dieser Arbeit wurden zwei verschiedene Rührkesselreaktoren betrieben. Der Erste diente dazu, den Biogasbildungsprozess aus stickstoffreichen Substraten abzubilden. Im Laufe des Versuches wurde dem Reaktor durch die Nitrifikation/Denitrifikation-Verfahren stickstoffreduzierter Klarlauf hinzugefügt. Dabei wurde ein Anstieg der Methanausbeute und der Biogasbildung beobachtet. Der zweite Reaktor wurde als SBR (Sequencing Batch Reactor) betrieben, um das Anammox-Verfahren als alternative stickstoffreduzierende Methode bei Gärresten zu untersuchen. Dabei wurde am Ende des Versuchs ein Abbau des Ammoniumstickstoffes von ca. 20 % erreicht.
In der vorliegenden Arbeit werden drei Verfahren zum Nachweis von Legionella spec. auf ihre Einsatzfähigkeit in belasteten Wässern untersucht. Es werden theoretische Aus-sagen zum Thema Legionellen gemacht sowie die prinzipiellen Grundlagen der Metho-den - Kulturverfahren, ScanVIT® Legionella-Test und LegiolertTM-Test - dargestellt. Die Ergebnisse von untersuchten Kühlwasser- und Abwasserproben werden anschlie-ßend gegenübergestellt.
Durch starkes Bevölkerungswachstum und den zunehmenden Mangel an landwirtschaftlich nutzbaren Flächen werden effektivere Pflanzen benötigt, um einer Hungersnot und Mangelernährung vorzubeugen. Diese können durch gezielte Eingriffe in das Genom optimiert und schließlich mittels Phänotypisierung analysiert werden. Während herkömmliche Verfahren Pflanzenparameter nur abschätzen können, ist eine genaue Bestimmung mithilfe von dreidimensionalen Modellen möglich. So bietet die Photogrammetrie, als Low-Cost-Anwendung, ein weites Einsatzspektrum. Die im mittleren Preissegment angesiedelten Structured-Light-Scanner können ebenfalls 3D-Pflanzenmodelle schnell, einfach und kostengünstig rekonstruieren. Ein 3D-Modell einer Pflanze bietet die Möglichkeit, Pflanzenparameter digital zu ermitteln und innerhalb kurzer Zeit unterschiedlichste Genotypen zu vergleichen. In dieser Arbeit wurden Pflanzenparameter von der Ackerschmalwand (Arabidopsis thaliana) und von Weizen (Poaceae) in einer 3D-Umgebung
mit Referenzdaten verglichen. Zur Evaluation der Performance der Scanning-Verfahren wurden verschiedene Parameter untersucht. Dabei wurden die Genauigkeit, Geschwindigkeit, Handhabbarkeit, Rechenanforderung und Flexibilität untersucht.
Die vorliegende Arbeit soll einen Überblick über den Nachweis des Bakteriums Clostridium perfringens in Rohwasserproben geben. Für die Identifizierung dieser
Bakterienart dienen die Nachweismethoden nach ISO 14189 und mCP nach Trinkwasserverordnung 2001.
Des Weiteren werden die erforschten Ergebnisse der beiden Verfahren gegenüber gestellt und miteinander verglichen.
Der Pansensaft der Wiederkäuer wird für die Analyse der Umsetzung von Futtermitteln genutzt, um z.B. auf die verdaute Menge des Futtermittels zu schließen. Ein Test hierfür ist der Hohenheimer Futterwerttest, welcher die Grundlage der Untersuchungen in dieser Arbeit darstellt. Als Alternative für den Pansensaft wurde eine Kot-Suspension, mit der im Vorfeld getesteten optimalsten Verdünnung, verwendet. Ein Vergleich beider Methoden soll Aufschluss über die Anwendbarkeit des Hohenheimer Futterwerttests, mittels einer Kot-Suspension, geben.
Diese Arbeit thematisiert die vergleichende Untersuchung der Wahrnehmung optischer Illusionen in der Realwelt und der virtuellen Realität. Dabei stellt sich die Frage, ob und wie die Probanden visuelle Illusionen wahrnehmen. Im Rahmen dieses Projekts entsteht eine VR-Anwendung in der Unity-Engine, in welcher der Nutzer in einer virtuellen Galerie optische Illusionen erleben und kleine Rätsel lösen kann. Die Daten werden durch die Befragung von Testpersonen ermittelt, mit dem Ergebnis, dass visuelle Illusionen sich in VR gut darstellen lassen, es allerdings zu einem verringerten Effekt bei Nachbildern kommt. Die Anwendung ist durch Zuhilfenahme neuer Funktionen leicht erweiterbar.
Offensive Sprache im Internet ist ein stark diskutiertes Problem in sozialen Medien. Angriffe richten sich oftmals gegen Einzelpersonen, können aber auch auf Gruppen und andere Strukturen abzielen. Die Erkennung angreifender Inhalte funktioniert in vielen Ansätzen bereits sehr gut. Die Erkennung der Ziele hingegen ist bisher nur wenig erforscht. Die vorliegende Arbeit befasst sich mit der Aufarbeitung des aktuellen Forschungsstandes zu offensiver gerichteter Sprache, den Grundlagen derer Erkennung und dem Vergleich verschiedener Ansätze. Die Auswirkungen von Vorverarbeitung und Parametrisierung der Modelle werden analytisch diskutiert.
In der vorliegenden Bachelorarbeit wird die Wahrnehmung von übermäßiger Polizeigewalt mit der tatsächlichen Vorgehensweise der Polizeibeamten abgestimmt und mit der gesetzlichen Vorgabe zur Herangehensweise verglichen. Gemäß der in dieser Arbeit vermittelten Grundlagen zu Hellfeld und Dunkelfeld sowie der Anzeigebereitschaft wird ein grundlegendes Verständnis für die beschriebene Problematik fundiert. Die aufgeführten Beispiele dienen der Untersuchung des Problems und zur differenzierten Auseinandersetzung mit der Thematik, zum einen der Analyse des jeweiligen Falles und deren beschriebene Situation zur Lage und zum anderen der angeschnittene Umriss zur juristischen Sachlage dieser.
Die vorliegende Arbeit befasst sich mit der Alters- und Geschlechtsbestimmung eines rezenten Schädels mit Hilfe einfacher morphognostischer und morphometrischer Methoden. Im morphognostischen Teil wird eine Altersschätzung anhand der Schädelnahtobliteration und der Zahnabrasion sowie eine Geschlechtsdiagnose mit Hilfe morphognostischer Schädelmerkmale durchgeführt. Nach einer morphometrischen Aufnahme des gesamten Schädels sowie des Felsenbeines wird das Geschlecht zudem mittels einer Diskriminanzanalyse bestimmt. Basierend auf diesen Untersuchungen werden anschließend ein Vergleich sowie eine Bewertung der verwendeten Methoden durchgeführt, wobei Probleme der einzelnen Verfahren diskutiert werden und eine Einschätzung der Genauigkeit erfolgt. Ein weiteres Ziel der Arbeit ist, mit Hilfe der Ergebnisse zu beurteilen, inwieweit
eine Alters- und Geschlechtsbestimmung nur anhand eines Schädels möglich ist und wie aussagekräftig diese sind.
Das Videospiel immer häufiger auch als erzählerisches Medium genutzt. Von den Entwicklern fordert dies eine Gradwanderung zwischen Game Design und Erzählung. Es mussten mit der Zeit neue Wege gefunden werden, Narrativen in das Spiel einzubinden. Diese Arbeit thematisiert die Untersuchung der Wahrnehmung und Interpretation von Environmental Storytelling in 2D-und 3D-Umgebungen. Es wird untersucht, ob es, abhängig von der Dimensionalität, Unterschiede in der Effektivität verschiedener Erzählerischer Mittel gibt. Um diese Frage zu beantworten, werden zwei sich inhaltlich gleichende Demos erstellt, die sich nur durch ihre Darstellung unterscheiden. Die, durch eine Befragung der zwei Testgruppen, erhobenen Daten werden anschließend evaluiert. Es ergab sich, dass dreidimensionale Umgebungen eher zum Erkunden einladen, es werden jedoch im Gegensatz zu 2D-Welten leichter wichtige Objekte übersehen. Für weitere Forschungen, sollten einzelne Aspekte des Environmental Storytelling genauer untersucht und bewusst auf die entsprechende Dimensionalität angewandt werden.
In dieser Arbeit erfolgt eine Betrachtung der Speichertechnologie Object Storage sowie eine vergleichende Analyse verschiedener Lösungsansätze von OpenStack sowie EMC Corporation. Zu Beginn werden allgemeine Aspekte zur Funktionsweise von Objektspeicher in den Vordergrund gestellt, um Anhaltspunkte für die Bearbeitung und Bewertung der konkreten Systeme zu gewinnen. Zudem erfolgt eine Gegenüberstellung dieser Technologie mit Block- und Dateispeicher.
Die anschließende Detailbetrachtung der Lösungen befasst sich mit OpenStack Swift, Swift-Stack sowie EMC ViPR, ECS und Isilon. Auf Basis eines gestellten Anforderungsprofiles werden zudem zwei Beispielarchitekturen eines Object Storage Clusters vorgestellt. Abschließend erfolgt auf Basis definierter Bewertungskriterien ein direkter Vergleich der betrachteten Systeme sowie eine darauf aufbauende Empfehlung zur Auswahl eines Systems.
Die immer größer werdenden virtuellen Welten von Computerspielen mit spannendem und glaubhaftem Inhalt zu füllen, ohne die Entwicklungszeit enorm in die Höhe zu treiben, ist eine der großen Herausforderungen für Spielentwickler heutzutage. Eine Möglichkeit dieses Problem anzugehen ist der Einsatz computergestützter Generierungsalgorithmen um manuellen Aufwand zu verringern. Die vorliegende Arbeit befasst sich mit der Umsetzung dreier Data-To-Text-Ansätze zum Zweck der automatischen Generierung von Questtexten aus einer Datenstruktur in der Spieleentwicklungsumgebung Unity. Die entstehenden Implementierungen werden im Anschluss evaluiert auf Eignung für den Anwendungsfall. Folgende Methoden zur Realisierung der Texte werden angewandt: Templating, Templating mit Template-Generierung aus einer kontextfreien Grammatik, sowie die Oberflächenrealisierungsbibliothek SimpleNLG
In der folgenden Bachelorarbeit sollen die Bedingungen zur Herstellung von Fakefingerabdrücken, die mit einem Tintenstrahldrucker und einem Material aus Holz-leim und Glycerin hergestellt wurden verbessert werden. Grund dafür ist, dass es im vorangegangenen Praktikumsbeleg noch Mängel bei der Herstellung der Fakes gab. Außerdem sollen die idealen Bedingungen (Materialzusammensetzung und Bearbeitungsmethoden) herausgefunden werden, um Fakes dieser Art herzustellen. Außerdem soll ein neues Unterscheidungsmerkmal für die Erkennung von Fakefingerabdrücken untersucht werden, um in Zukunft die Unterscheidung zwischen Original und Fälschung zu verbessern.
Die vorliegende Bachelorarbeit gibt einen Überblick über die aktuellen Konzepte modularer Programmierung und deren Umsetzung mit JavaScript. Hierfür werden einige JavaScript Frameworks für die Erstellung einer einfachen clientseitigen Anwendung geprüft und unter verschiedenen Kriterien ausgewertet. Als Basis dieser Arbeit dienen Fachliteratur, die Dokumentation der jeweiligen Frameworks und die persönlichen Erkenntnisse und Erfahrungen des Authors. Der Verfasser erhofft sich dadurch einen Erkenntnisgewinn zur sauberen und modularen Programmierung mit JavaScript und wie diese bei kleinen und clientseitigen Anwendungen durch Frameworks erleichtert werden kann.
In dieser Arbeit werden die algorithmischen Grundlagen der Machine Learning Verfahren LVQ1 und LVQ3 erläutert. Für LVQ3 werden mehrere Ansätze zur Anpassung der Lernrate betrachtet, die anschließend verglichen werden sollen. Dazu werden vier verschiedene Experimente durchgeführt, wobei zwei Datensätze Verwendung finden, deren Ursprung in medizinischen Bilddaten liegt.
Vergleich von Grid Computing und Cloud Computing anhand Regeln und Ziele im IT-Governance Prozess
(2023)
Diese wissenschaftliche Arbeit leistet einen Beitrag zum Thema „Cloud-Computing“, welches unterschiedliche Möglichkeiten und Dienste bietet. Im Gegensatz dazu befasst sich dieser Forschungsbericht zusätzlich mit dem Konzept des Grid-Computing. Zu Beginn werden die IT-Governance-Regeln verglichen, die im Cloud- und Grid-Computing eines Unternehmens eine große Rolle spielen. Dabei werden zwei Varianten der der IT zur Verfügung stehenden Infrastrukturen für ausgewählte Dienste eingerichtet, welche den Regeln der IT-Governance folgen müssen. Die in dieser Arbeit ermittelten Informationen bieten einen guten Ausgangspunkt für die Umstellung der IT auf Cloud- bzw. Grid-Computing
Automatisierte Detektion von Minutien und Bestimmung der Grundmuster von Fingerabdrücken mittels der Methoden Crossing Number Concept und Template Matching sowie Vergleich verschiedener Vorverarbeitungsarten in der Software MATLAB. Zunächst werden die Grundmuster der Fingerabdruckbilder mittels MATLAB bestimmt und mit den tatsächlich vorhanden Grundmustertypen in den jeweiligen Fingerabdrücken abgeglichen. Danach werden Gabel-Minutien in den ausgedünnten Papillarlinienbildern der Fingerabdrücke mittels MATLAB detektiert. Hierbei kommen das Crossing Number Concept und das Template Matching Verfahren zur Anwendung. In jedem Verfahren wird die Precision berechnet und die Methoden untereinander verglichen. Zuletzt wird analysiert, wie sich Änderungen in den Vorverarbeitungsschritten der Fingerabdruckbilder auf das Papillarlinienbild auswirken.
Aufgrund der steigenden Anzahl an Angriffen durch neue Malware Varianten ist es wichtig eine effektive Methode zu nutzen, um sich gegen diese Flut zu schützen. Diese von den Angreifern genutzte Malware muss identifiziert und analysiert werden, um die Systeme vor aktuelle und kommenden Angriffen schützen zu können. Für die Informationsextraktion stehen zwei grundlegende Ansätze zur Verfügung. Statische Analyse und die dynamische Analyse. Das Hauptaugenmerk liegt in dieser Arbeit auf der dynamischen Analyse. Diese wird genutzt um das Verhalten einer potentiell bösartigen Datei zu beobachten und anschließend auszuwerten, ob es sich um Malware handelt. Eine dafür häufig eingesetzte Methode ist die Sandbox. Bei dieser handelt es sich um eine isolierte Umgebung, in der eine Malware ausgeführt werden kann, ohne ein Risiko für das eigene System darzustellen. Bei der Nutzung eines Sandbox Systems wird ebenfalls von dem Begriff der automatisierten Malware Analyse gesprochen. Damit ist es möglich auch große Mengen von Malware Samples zu analysieren. Nach der Analyse wird neben der Bösartigkeit einer zu untersuchenden Datei, ebenfalls die gesammelte Daten über diese ausgegeben. Diese Arbeit vergleicht drei verschiedene Sandbox Systeme, um anschließend festhalten zu können, welches dieser Systeme die meisten Vorteile mit sich bringt. Bei diesen ausgewählten Sandbox Systemen handelt es sich um Cuckoo, Any.Run und Hybrid Analysis. Um eine Gegenüberstellung der Sanbox Systeme zu ermöglichen, wurden diverse Metriken verwendet. Zu diesen Metriken zählen unter anderem genutzte Anti-Evasion Techniken und die Möglichkeit einer URL Analyse. Nach umfassender Nutzung aller drei Sandbox Systeme, wurde eine Vergleichmatrix mit den bereits erwähnten Metriken erstellt. Anhand dieser konnten die Vor- und Nachteile der Sandbox Systeme gegeneinander abgewogen werden.
Diese Arbeit widmet sich dem Vergleich forensischer Software in der mobilen Forensik. Das Ziel der Arbeit besteht darin, forensische Images mit mehreren Tools zu analysieren und die Ergebnisse gegenüberzustellen. Dabei wird insbe-sondere auf die Qualität der Ergebnisse und der auf die Analyse verwendete Zeitaufwand berücksichtigt. Der Vergleich schließt die Tools XRY von MSAB, Oxygen Forensic Detective von Oxygen Forensics und das Open-Source Tool Autopsy ein.
Das Ziel dieser Arbeit ist es, die Möglichkeit der Nutzung von Rust als Ersatz für C und Java zu evaluieren. Diese beiden wurden als Vertreter von hardwarenahen bzw. einfacheren und höheren Sprachen gewählt. Sie sind außerdem bekannt dafür, unsicher bzw. langsam zu sein. In beiden Punkten soll Rust genauso gut oder besser sein als C und Java. Daher werden sie für die drei Sprachen verglichen. Da für die Wahl einer Programmiersprache auch entscheidend ist, wie aufwendig es ist, ein Programm zu erstellen, wird die Komplexität als dritter Aspekt für den Vergleich genutzt.
Anhand von Benchmarks wird zunächst die grobe Geschwindigkeit und Speichernutzung untersucht, während die Sicherheit der Sprachen in der Theorie und an einer realen Sicherheitslücke betrachtet wird.
Für einen ausführlichen Vergleich wird ein in allen drei Sprachen erstellter Webserver genutzt. Mittels diverser Metriken wird die Komplexität des Quellcodes analysiert und anschließend mit Laufzeitmessungen die Performanz.
Im Ergebnis ist Rust geeignet, C zu ersetzen, da es ähnlich schnell ist und ähnlich komplex, aber deutlich sicherer. Java hingegen ist zwar langsamer, aber dafür einfacher als Rust und sollte daher weiter eingesetzt werden für Programme, bei denen eine hohe Leistung nicht wichtig ist.
Die folgende Arbeit vergleicht die Möglichkeiten zur Erstellung von prozeduralen Texturen in Substance Designer mit denen in Blender. Dafür werden in beiden Programmen abstrakte und natürliche Texturen praktisch erstellt. Anschließend werden die Erstellung und die daraus gewonnen Erkenntnisse ausgewertet. Anhand der Resultate wird bewertet, wie die beiden Programme zueinander eingeschätzt werden können.
Diese Arbeit befasst sich mit dem Vergleich der forensischen Analyse von mobilen Endgeräten zwischen der Software Cellebrite Physical Analyzer, der Software Autopsy Digital Forensics und den Skripten aLEAPP und iLEAPP. Hierzu wurden zwei mobile Endgeräte mit den Betriebssystemen Android und iOS mit unterschiedlichen Anwendungen und Testdatensätzen versehen. Im Anschluss wurden die forensischen Datensicherungen durch die Softwareprodukte automatisiert aufbereitet. Die Ergebnisse der automatisierten Datenaufbereitungen wurden miteinander und mit den zu erwartenden Informationen verglichen. Hierbei konnte festgestellt werden, dass die Software Autopsy Digital Forensics und die Skripte aLEAPP und iLEAPP im Bereich der Aufbereitung mobiler Endgeräte, zum jetzigen Zeitpunkt, nicht die Ergebnisse der kommerziellen Software Cellebrite Physical Analyzer liefert.
Die Anforderungen an die Qualität und den Realismus von Videospielen und deren visuellen Effekten steigen kontinuierlich. Dies führt zu der Herausforderung, beeindruckende Effekte und eine gute Performance zu gewährleisten. Die Auswahl einer geeigneten Technik für ein Leistungsproblem ist daher wichtig. Aus diesem Grund widmet sich die Bachelorarbeit dem Vergleich verschiedener Methoden zur Optimierung der Darstellung visueller Effekte in Unity. Neben einer Literaturrecherche werden ausgewählte Verbesserungsmöglichkeiten wie zum Beispiel ein Level-of-Detail System oder Batching implementiert. Als nächstes findet eine Evaluation dieser Techniken in einem Testszenario mit ausgewählten Metriken wie beispielsweise Bildrate und Grafikkartenauslastung statt. Anschließend erfolgt der Vergleich ihrer Effektivität in Bezug auf die originale Version des visuellen Effektes. Die Ergebnisse der Untersuchung zeigen, dass insbesondere das Level-of-Detail System und die Culling-Methode einen signifikanten Einfluss auf die Grafikkartenauslastung haben. Zudem weisen die meisten Optimierungstechniken in Bezug auf die Metriken Vor- und Nachteile auf. Obwohl die erzielten Ergebnisse nicht unmittelbar auf die praktische Anwendung in Spielen übertragbar sind, ermöglichen sie dennoch eine wertvolle Vergleichbarkeit der angewendeten Methoden.
Die vorliegende Bachelorarbeit befasst sich mit aktuell existierenden Methoden zur Reduzierung des Polycounts eines 3D-Models. Ziel der Arbeit war es herauszuarbeiten, wie sich ausgewählte Remeshing-Methodiken für verschiedene Arten von Ausgangsmodellen eignen und diesbezüglich Empfehlungen auszusprechen. Im Rahmen dessen, wurde ein Maßstab zur Bewertung der Ergebnisse konzipiert, der eine Beurteilung der resultierenden Modelle anhand festgelegter Qualitätskriterien ermöglicht.
In einer Zeit zunehmend inhomogenerer Browser-Geräte ist der Konkurrenzkampf im Bereich der HTML-Spiele größer denn je. Um Kunden langfristig zu binden und potenzielle Erlöse zu generieren, müssen die Spiele auf allen relevanten Browser-Plattformen, vom kleinsten Smartphone bis zu Tablets, PCs, Konsolen und TV-Geräten fortwährend Spaß bereiten. Diese Arbeit untersucht, ob mittels Änderungen am Leveldesign eines HTML-Bubbleshooters positive Effekte auf wirtschaftlich relevante Key Performance Indikatoren erzielt werden können. Hierzu werden Regeln für gutes Leveldesign in der einschlägigen Fachliteratur und anderen branchenrelevanten Quellen recherchiert und dargestellt. Auf Basis dieser theoretischen Grundlagen erfolgt eine Anpassung der ersten 10 Level von „kr3m.-Bubbles“ in einem iterativen Prozess mit dem Ziel, vorgegebene Benchmark-Zielgrößen soweit möglich zu erreichen.
Amplifikation von bekannten Kopienzahlvariationen mit ihren umgebenden Sequenzbereichen in einer Long-Range-Polymerase-Kettenreaktion und Auswertung der Produkte mittels Hochauflösender Schmelzkurvenanalyse auf einem LightCycler 480. Unterscheidung mehrerer CNVs von mitgeführten Referenzen durch die zwei Methoden der Hochauflösenden Schmelzkurvenanalyse Meltcurve-Genotyping und Gene Scanning. Grenzen, wie zum Beispiel Pseudogene, welche beachtet werden müssen oder eine eingeschränkte Eignung des Verfahrens für den Nachweis von Duplikationen wurden deutlich. Es zeigte sich zudem, dass eine große Menge an Referenzen empfehlenswert ist, die Amplifikationsparameter in der LR-PCR optimiert sein sollten und interkalierende Farbstoffe der zweiten Generation für die Verwendung in der HRM verwendet werden sollten. Bevor das Verfahren für den Nachweis von CNVs in Proben eingesetzt werden kann, sind weitere Untersuchungen und Optimierungen vorzunehmen.
In der vorliegenden Arbeit wird eine Methodik entwickelt, mit der ausgewählte forensische Software-Tools miteinander verglichen werden können. Dieser Ver-gleich basiert auf einem erstellten Image, welches diverse Artefakte beinhaltet. Auf Grundlage dieser Artefakte wird eine Bewertungsmatrix erzeugt, welche für den Vergleich der ausgewählten Forensik-Tools X-Ways, Axiom und Autopsy genutzt wird. Anhand der Ergebnisse, die durch die Matrix generiert wurden, lässt sich Axiom als bestes der drei getesteten Tools herausstellen. Hierbei muss allerdings berücksichtigt werden, dass die Beurteilung nach subjektiven Kriterien geschehen ist und keine eindeutige Aussage getroffen werden kann, ob ein forensisches Tool eine erfolgreiche Auswertung liefert
Bioaerosole kommen ubiquitär in der Atmosphäre vor. Sie sind meist ungefährlich, aber sie können auch Bestandteile enthalten, welche eine gesundheitliche Gefahr für den Menschen darstellen. Um ihre Inhaltsstoffe zu ermitteln werden sie beprobt. Die biologische Untersuchung dieser Proben erfolgt über Kulturen und molekularbiologisch. In den Fokus der molekularbiologischen Auswertung rückt zurzeit das third generation sequencing via Nanopore. Ziel dieser Arbeit ist es zu prüfen, ob die durch den Coriolis μ generierten Luftproben zur molekularbiologischen Analyse mit Nanopore Sequenzierung nutzbar sind. Dazu werden kulturbasierte und molekularbiologische Untersuchungsmethoden angewendet und miteinander verglichen. Es wird gezeigt, dass die Proben für eine weitere Nutzung durch Nanopore Sequenzierung geeignet sind.
Nach der erfolgreichen Etablierung der durchflusszytometrischen Methode zum XIAP-Nachweis auf T-, B- und NK-Zellen innerhalb des Praxismoduls sollte diese validiert werden. Zur Validierung wurde ein Inter- und ein Intraassay durchgeführt. Für die anschließende Beurteilung der Präzision der Methode wurde jeweils der Variationskoeffizient der Messwerte berechnet, dieser sollte bei ± 20% liegen. Für die Gewinnung von Referenzwerten wurde von 21 gesunden Personen Blut abgenommen und dieses analysiert. Anschließend wurden die Messwerte mithilfe des Friedman- und des Wilcoxon-Tests statistisch ausgewertet.
Der visuelle mikroskopische Spermanachweis gilt bis heute als aussagekräftigster Nachweis von Spermien in der forensischen Fallarbeit. Anhand der markanten Zellmorphologie kann ein Spermium von anderen Zellen und Partikeln unter dem Mikroskop abgegrenzt und unterschieden werden. Voraussetzung hierfür sind jedoch eine zuverlässige Aufarbeitungsmethode, um die Spermien eines Asservats auf einen Objektträger zu überführen und eine valide Färbemethode, welche die Spermien erst sichtbar macht.
Zielsetzung dieser Arbeit ist es, eine zeitsparende und effiziente Färbemethode zu finden, die in der praktischen Laborarbeit für den mikroskopischen Spermanachweis sicher angewandt werden kann. Verglichen werden hierfür im Folgenden die lichtmikroskopische Kernechtrot-Pikroindigokarmin- und die fluoreszenzmikroskopische SPERM HY-LITER-Färbung. Weiterführend werden reale Fallproben auf Spermien untersucht, um somit praxisnahe Gewissheit über die Effizienz der Methoden zu erlangen.
Das Lehrmodul „Datenrepräsentation“ wird im 3 Semester in den Studiengängen der Informatik an der Hochschule Mittweida durchgeführt. In den Vorlesungen werden dabei verschiedene Datenrepräsentationstechnologien vorgestellt. Zur praktischen Umsetzung dieser Technologien finden außerdem eine Reihe von Praktikumsveranstaltungen statt. Diese Arbeit behandelt die Verbesserung und Erweiterung ausgewählter Praktikumsinhalte des Lehrmoduls Datenrepräsentation. Bestehende Praktikumseinheiten werden zunächst hinsichtlich der Struktur analysiert. Danach werden Verbesserungsmöglichkeiten erläutert und schließlich realisiert. Im Rahmen dieser Arbeit werden außerdem neue Praktikumseinheiten konzipiert, welche unter anderem die Technologien JSON und RESTful Webservices behandeln. Es werden neue Praktikumsanleitungen erstellt sowie Beispielprogramme implementiert, welche in den Praktikumsveranstaltungen des Lehrmoduls eingesetzt werden können.
Im Rahmen dieser Arbeit wurde die sekretorische Produktion des DESIGNER-Proteins DP10A durch Pichia pastoris untersucht. Dazu wurde die DNA-Sequenz des Zielproteins in den Vektor pPICZαA kloniert und in das Genom von Pichia pastoris durch homologe Rekombination integriert. Für die Auswahl eines geeigneten Klons wurde ein Klon-Screening durchgeführt. Zusätzlich wurde die Produktion des Zielproteins bei verschiedenen pH-Werten sowie die Löslichkeitsverteilung von intrazellulär vorliegendem DP10A untersucht.
Das DESIGNER-Protein DP10A konnte mit P. pastoris produziert werden. Allerdings konnte das Ziel einer sekretorischen Produktion nicht erreicht werden, da DP10A nur intrazellulär und hauptsächlich unlöslich in der Zelle vorlag.
Die vorliegende Bachelorarbeit ist eine Machbarkeitsstudie mit dem Ziel, die Umsetzbarkeit von Projekten mit Methoden aus der Modellgetriebener Softwarearchitektur (MDSD) in kleineren agilen Gruppen nachzuweisen. Wegen der vielen Kombinationsmöglichkeiten aus agilen und MDSD Methoden werden für das Pilotprojekt zur Organisation Kanban, Test Driven Development als agile Arbeitsmethode und als MDSD Methode die Entwicklung einer Domain Specific Language gewählt. Das Ziel des Pilotprojekts ist die Entwicklung einer neuen Domain Specific Language für das Programmieren von Incremental Game Prototypen.
Die Resultate der Arbeit sind: a) Ein nichtlinearer multivarianter Entscheidungsbaum zur Auswahl der geeigneten Rahmenbedingungen bei der Planung und Umsetzung von Domain Specific Languages, b) eine neue Methode zur agilen Entwicklung von Domain Specific Languages, nämlich die „Domain Specific Prototype Methode“ sowie c) der Beweis, dass die Verwendung von MDSD, zumindest von Domain Specific Languages, für die Arbeit in agiler Teams nicht nur möglich, sondern vorteilhaft ist.
Die Umsetzung der „Domain Specific Prototype Methode“ wird anhand des
Pilotprojektes sowohl in der Theorie als auch in der Praxis beschrieben.
Die Gamesbranche erwirtschaftet jedes Jahr mit AAA Titeln Milliardenumsätze und wächst stetig weiter. Diese wissenschaftliche Arbeit trägt den Titel: Untersuchungen zur Machbarkeit der Entwicklung von Games-AAA-Titeln durch kleine Teams. In der Arbeit wird analysiert ob es möglich ist AAA-Games-Titel mit kleinen Teams umzusetzen. Dafür wird die Entwicklung der Branche analysiert um Ausgangslage und Anforderungen für AAA-Titel zu definieren. Mit diesen Daten werden neue Arbeitsweisen und Technologien untersucht und bewertet. Aus diesen wird dann ein optimales Modell ab-geleitet mit dem AAA-Titel mit wenig Kapital und Entwicklern umgesetzt werden kann.
In der Restwasserklärung einer Papierfabrik treten seit Jahren Korrosionsprobleme auf, die die Funktionalität der Anlagen gefährden. Besonders stark ist der Schaden an Kupferbauteilen in den Schaltschränken. Verantwortlich sind aggressive Gase mit Schwefelwasserstoff als Hauptverursacher. Analysen haben ergeben, dass Schwefelwasserstoff in der Restwasserklärung ausgast, eine besonders starke Quelle ist der Krümelstoffhaufen, in dem optimale Bedingungen für mikrobielle Aktivität herrschen. Die Experimente haben ergeben, dass auch das Prozesswasser Sulfidionen bis zur Konzentration von etwa 0,8 mg/l führt. Die Schlammmischbütte ist ebenfalls ein Ort mit guten Bedingungen für die Sulfatreduktion, nur die niedrige Verweilzeit des Wassers von 20 Minuten dient dort als begrenzender Faktor für einen mikrobiellen Bewuchs. Der durchschnittlichen Sauerstoffkonzentration von 0,12 mg/l kann in der Gemeinschaft einer Sielhaut standgehalten werden. Direkt im Wasser sorgen in Verbindung mit Feuchtigkeit und Wärme Chloridionen für Korrosion an den Entwässerungsanlagen. Diese Schäden sind allerdings tolerierbar, die Standzeit der Anlagen wird nicht so extrem beeinträchtigt wie die der Schaltschränke. Als wirtschaftlich betrachtet beste Methode zum Schutz der Kupferkomponenten vor dem Schwefelwasserstoff erwies sich die Installation eines chemischen Filtersystems.
Im Rahmen der Untersuchungen für die vorliegende Bachelorarbeit wurden in fünf einstufigen Biogasreaktoren Maissilage vergoren. Die Zugabe von Harnstoff sollte eine Prozessstörung induzieren. Zur Überwachung des Prozessverlaufes erfolgten die gängigen Analysen (pH, FOS/TAC, NH4-N, GC etc.). Zusätzlich sollten Gasproben aus den Reaktoren entnommen und mittels IRMS analysiert werden, um das Isotopenverhältnis des gebildeten Biogases zu untersuchen.
In dieser Arbeit wird der Bootvorgang der i.MX RT117x-Prozessorfamilie sowie die Interprozessorkommunikation und -synchronisation zwischen den beiden Prozessoren dargestellt. Auf dieser Basis wird ein Beispielprogrammm, welches das Betriebssystem Zephyr einsetzt und auf dem Cortex-M7 läuft, erstellt. Dieses Programm soll mit einem Programm, welches in einer Baremetal-Umgebung eingesetzt wird, kommunizieren.
Seit 1949 wird Lithium, meist in Form von Lithiumcarbonat, zur akuten und prophylaktischen Behandlung affektiver Störungen eingesetzt. Der Lithiumspiegel der Patientinnen muss dabei genau eingestellt und regelmäßig überwacht werden. Die vorliegende Arbeit beschäftigt sich mit der Lithiummessung mittels ionenselektiver Elektroden (ISE) im Speichel und der Herstellung eines Kunstspeichels zur Kalibrierung der Elektroden. Bei der Lithiummessung kann es durch Störionen zu Quereinflüssen kommen, sodass die Lithiummessung beeinflusst wird. Diese Interferenzen sollen untersucht werden.
Untersuchungen zu Chancen und Limits von Texture Maps im Umfeld der Entwicklung digitaler 3D Spiele
(2017)
Der Fortschritt in Computerhard- und software ermöglicht der Spieleindustrie, immer technisch versiertere digitale Spiele zu entwickeln. Besonders der Bereich des 3D und 2D Designs profitiert davon, obgleich immer noch Grenzen vorzufinden sind, welche in Hinsicht auf die Generierung von Game Assets zu berücksichtigen sind. Die vorliegende Arbeit untersucht dabei den aktuellen Forschungsstand und analysiert diesbezüglich Chancen und Limits sogenannter Texture Maps zur Erzeugung von Detail auf dreidimensionalen Objekten. Die Resultate dieser Untersuchung sollen am ausgewählten Beispiel der Videospielreihe Tomb Raider aufgezeigt werden.
Tokengestützte Authentifizierung ist allgegenwärtig. Chipkartensysteme sind in vielen Branchen üblich oder sogar vorgeschrieben. Ein einfaches Passwort reicht häufig nicht mehr für Firmenarbeitsplätze mit großer Verantwortung aus, um den Zugang zu sichern. Die Lösung liegt häufig in der Verwendung von Smartcards oder Security-Tokens, die eindeutig identifizierbar und nicht kopierbar sind, und einen Zugang nur bei Befugnis gewährleisten. Digitronic entwickelte mit Secure Logon eine Software für Windowssysteme, die genau diese Funktionalitäten bereitstellt.
Da jedoch in einer Firma häufig unterschiedliche Betriebssysteme zur Anwendung kommen ist eine reine Windowsentwicklung, trotz hohen Marktanteils, unflexibel. Daher ist es Ziel dieser Bachelorarbeit, einen tiefen Einblick über die entsprechenden Authentifizierungsmöglichkeit und entsprechende Konfiguration im Feld von GNU/Linux zu geben. Auch soll ein Leitfaden für eine Portierung einer bestehenden Software gegeben werden.
In dieser Arbeit wird das Verhältnis des Datenschutzes in Europa im Jahr 2015 während der Euro Krise anhand der bevorstehenden Einführung der Datenschutz-Grundverordnung
verglichen. Es wird ein Vergleichsrahmen aus der geltenden Richtlinie und der zukünftigen Datenschutzgrundverordnung erstellt und eine Auswahl an Ländern mit dieser Richtlinie verglichen. Ziel ist es den Stand der einzelnen Länder im Europäischen Kontext zu vergleichen.
In dieser Arbeit wurde das Insektizid Imidacloprid hinsichtlich seiner Toxizität auf die Kompostwurmarten Eisenia fetidaund Eisenia andreiuntersucht. Zur Ermittlung der akuten und chronischen Toxizität wurden standardisierte Labortests nach den Richtlinien der OECD und ISO verwendet. Unter Exposition von Imidacloprid mit verschiedenen Konzentrationsstufen wurden Verhaltensänderungen, Biomasseverlust, Verringerung der Reproduktionsleistung und die Mortalitätsrate untersucht. Nach statistischer Auswertung wurden damit verschiedene Dosis-Wirkungs Kurven erstellt und die toxikologischen Kennwerte LC50, EC50, NOEC und LOEC ermittelt.
Liegt in menschlichen Zellen eine Mutation im Enzym Isocitrat-Dehydrogenase 1 (IDH1) vor, kommt es zur einer erhöhten Produktion des Metaboliten D-2-Hydroxyglutarat (D2HG), wodurch die Entstehung weiterer Mutationen begünstigt wird. Um das IDH1-Enzym zu inhibieren und damit die D2HG-Konzentration in den Zellen zu verringern, sollten die Wirkstoffe AGI-5198 und FMLW-12 getestet werden. Dabei wurde zum einen die Zelllinie HT1080 mit der IDH1-Mutation R132C und zum anderen die Referenzzelllinien HeLa und 143B, die den Wildtyp aufweisen, verwendet.
Bei der Kultivierung der Zelllinie HT1080 mit AGI-5198 konnte neben einer langsameren Proliferation der Zellen auch eine Verringerung der D2HG-Konzentration beobachtet werden, was zeigt, dass AGI-5198 das mutierte IDH1 inhibiert. Bei HeLa und 143B zeigte sich keine Veränderung der D2HG-Konzentration, allerdings wirkte AGI-5198 in höheren Konzentrationen toxisch auf 143B.
Auch der Wirkstoff FMLW-12 konnte die D2HG-Konzentration in der Zelllinie HT1080 senken, während HeLa und 143B nicht beeinflusst wurden. Jedoch musste das Detergens Digitonin zur Permeabilisierung der Zellmembran eingesetzt werden, da FMLW-12 diese ansonsten nicht passieren konnte.
Die vorliegende Arbeit beschäftigt sich mit der Analyse und dem Nachweis von unberechtigten RDP Zugriffen in Windows Netzwerkumgebungen. Dafür werden alle technischen Grundlagen zum Verständnis des RDP geklärt und mögliche
Angriffsszenarien sowie das Vorgehen von Angreifern aufgezeigt. Anschließend werden Indikatoren für unberechtigte Zugriffe erläutert und präventive Maßnahmen zum Schutz dargelegt.
Diese Arbeit beschäftigt sich mit Smartcards, welche mit Hilfe der NFC-Technologie kontaktlos Daten übertragen können. Zunächst wurde der theoretische Rahmen gespannt, um die Grundsteine dieser Forschung zu erläutern: RFID, Smartcards und NFC. In einer explorativen Untersuchung fand die Analyse und der Vergleich von Smartcards verschiedener Hersteller statt. Dazu wurden diese in einer virtuellen Testumgebung mit unterschiedlichen Android-Applikationen beschrieben und ausgelesen. Als Referenzanwendung diente eine selbstprogrammierte App. Die Ergebnisse zeigen, dass es ohne große Fachkenntnisse und mit geringem zeitlichen und finanziellen Aufwand möglich ist, Smartcards mit NFC-Chips auszulesen, welche für sensible Anwendungen, wie beispielsweise kontaktlose Bezahlvorgänge oder Patientendaten, verwendet werden.
Diese Arbeit befasst sich mit dem Erstellen eines digitalen, fotorealistischen Porträts. Dabei werden die Grundlagen sowie das Vorgehen beim Entstehungsprozess beschrieben. Im Weiteren untersucht diese Arbeit Methoden zur Einschätzung des Zeichenfortschritts des erstellten Bildes. Diese werden getestet und ihre Ergebnisse anschließend ausgewertet.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, ob die Programme Magnet AXIOM und Kipo Analyzer sich für die Klassifikation von Kinderpornographie eignen. Dazu wird folgende Forschungsfrage gestellt: Erkennen die Programme Magnet AXIOM und Kipo Analyzer ausreichend kinderpornographisches Material von gesicherten Asservaten, um die Anforderungen zur Entlastung von Ermittlern zu erfüllen? Zur Beantwortung dieser Frage wurde ein selbst zusammengestellter Datensatz mit den Programmen getestet. Hierbei erzielte das Programm Magnet AXIOM einen Recall von 70,13 % und eine Spezifität von 60,42 %. Im Vergleich erzielte der Kipo Analyzer einen Recall von 42,56 % und eine Spezifität von 97,5 %. Die Präzision und der F1-Score fiel bei beiden Programmen schlecht aus durch den unausgeglichenen Datensatz. Abschließend kann keine endgültige Aussage über die Eignung der Programme hinsichtlich der Klassifikation von Kinderpornographie gemacht werden. Die Programme müssten mit unterschiedlichen Datensätzen und Zusammensetzungen getestet werden.
Im Jahr 2019 verzeichnete das Bundeskriminalamt in der Polizeilichen Kriminalstatistik einen neuen Höchststand an erfassten Fällen der Computerkriminalität. Zeitgleich lag die Aufklärungsquote für diesen Bereich der Kriminalität auf dem zweitniedrigsten Stand seit Beginn der Erfassung im Jahr 1987. Die digitale Forensik steht vor der Herausforderung, dass eine Ermittlung eine stetig wachsende Menge an heterogenen Daten umfasst. Eine Quelle für diese Daten bildet das Microsoft Betriebssystem Windows 10.
Diese Bachelorarbeit beschäftigt sich mit Artefakten eines Windows 10 Systems und damit, wie diese miteinander korreliert werden können. Ziel ist es eine Möglichkeit zu finden, den Forensiker bei einer forensischen Untersuchung zu unterstützen. Für diesen Zweck wurde eine Ontologie entwickelt, welche anhand ähnlicher Artefaktattribute eine Korrelation ermöglicht. Die praktische Umsetzung der Ontologie erfolgte mithilfe der Graphdatenbank Neo4j. Die Möglichkeiten der Datenbank wurde anhand von, für den Forensiker interessanten, Abfragen demonstriert.
Es wurden 30 Futtermittel durch die Verwendung einer Protease aus Streptomyces griseus auf ihren Gehalt an Durchflussprotein untersucht. Durch die Behandlung mit Pepsin und Pankreatin wurde anschließend die Dünndarmverdaulichkeit des Durchflussproteins bestimmt. Die bestimmten Durchflussproteinwerte wurden in der Diskussion mit geschätzten
Durchflussproteinwerten aus der Rohproteinfraktionierung sowie aus dem erweiterten Hohenheimer Futterwerttests verglichen.
In der vorliegenden Arbeit werden Bildanalysemethoden für die Lokalisation und Klassifikation von Eingabefeldern untersucht. Bei den Eingabefeldern liegt der Schwerpunkt auf den Benutzererkennungs- und Passwortfeldern, da die Verwendung der Bildanalysemethoden für eine Single Sign-On Lösung gedacht ist. Neben traditionellen Bildverarbeitungsmethoden, wie Segmentierung und Hough-Transformation, wird auch die Verwendung von neuronalen Netzen betrachtet.
Untersuchung potenzieller Angriffsvektoren auf Container-Infrastrukturen unter Nutzung von Docker
(2021)
Die Digitalisierung ist eine der größten Herausforderungen der Wirtschaft. Eine Containervirtualisierung kann dabei vielversprechende Lösungen bieten, unterliegt jedoch ebenso Angriffen. Diese Arbeit zeigt am Beispiel von Docker auf, mit welchen Angriffsvektoren auf eine Container-Infrastruktur gewirkt und mit welchen Schutzmaßnahmen diese gehärtet werden kann. Die Untersuchungen stellen dar, wie schützenswerte Daten erbeutet, exogen Einfluss auf die in Containern verarbeiteten Daten genommen und mit
Schadsoftware auf gesamte Infrastruktur gewirkt werden kann. Dabei werden Host, Container und weitere Komponenten gleichermaßen berücksichtigt. Die Abhängigkeiten innerhalb von Containern werden zwar voneinander isoliert, jedoch teilen sich Host und Container einen gemeinsamen Kernel. Aus diesem Grund rücken Containerausbrüche und Kernelangriffe in den Fokus. Für den sicheren Einsatz von Containern können korrekte Konfigurationen bezüglich der Systemaufrufe, Capabilities, Kontrollgruppen, Namensräume
oder des Rootless Mode von entscheidender Bedeutung sein.
Titandioxid-Nanopartikel zählen zu den meist verwendeten Nanopartikeln der modernen Industrie. Durch ihre Anwendung gelangt ein Großteil ins Abwasser, womit das Verhalten der Nanopartikel in Kläranlagen einen entscheidenden Prozess für die Abschätzung des Umweltrisikos bildet. In dieser Arbeit wurden zwei Laborkläranlagen betrieben und Mittels der Abbauleistungen für TOC, DOC, TNb und Gesamtphosphor auf ihre Funktionsfähigkeit überprüft. Ein Kohlenstoffabbau von im Mittel >90 % wurde angestrebt und auch erreicht. Eine Anlage wurde einmalig mit 62,7 mg Titandioxid-NP beimpft. Die zweite Anlage wurde täglich mit 1 mg/d beimpft. In beiden Versuchen wurde ein Großteil der Nanopartikel (>90 %) im Schlamm wiedergefunden und nur 4 % bis 10 % in der wässrigen Phase. Es wurden keine negativen Auswirkungen auf die Mikroorganismen durch die Nanopartikel beobachtet
Nanopartikel gelangen vor allem aus der Industrie oder durch Regenwasser aus den Städten in Klärwerke und somit in den Wasserkreislauf. In diesem Versuch soll das Verhalten von Cerdioxid-Nanopartikeln in zwei Laborkläranlagen mittels verschiedener Zugabemethoden untersucht werden. Dafür wurden zunächst die Leistungsfähigkeiten der Laborkläranlagen untersucht, indem Proben des Zulaufes und des Ablaufes entnommen und die Überwachungsparameter analysiert wurden. Für die Untersuchung der Nanopartikel wurden die entnommenen Schlamm- und Ablaufproben aufgeschlossen und mittels ICP-MS gemessen.
Die Leistungsfähigkeit beider Laborkläranlagen konnte mit einem Kohlenstoffabbau von im Mittel über 90% nachgewiesen werden. Bei Laborkläranlage 1 wurde eine einmalige Zugabe der Nanopartikel gewählt, dabei setzten sich 95% der Nanopartikel im Schlamm und 5% im Ablauf fest. Im Gegensatz dazu wurde bei Laborkläranlage 2 eine kontinuierliche Zugabe gewählt. Zu Beginn der Versuchsreihe sind die Cerfrachten gesunken, da durch das hohe Blindwert-Niveau mehr Nanopartikel aus der Anlage herausgespült als hinzugegeben wurden. Nach einer Erhöhung der hinzugegebenen Masse war ein Anstieg der Cerfracht zu erkennen, da die Fracht, die aus der Anlage herausgespült wurde, kleiner war als die zugegebene Masse an Nanopartikeln. Die Nanopartikel setzten sich zu 96% im Schlamm und zu 4% im Ablauf fest.
Untersuchung des hämolytischen Verhaltens alternder Blutproben mit ausgewählten Lösungsmitteln
(2017)
Die Untersuchung der Blutspuren am Tatort kann bei der Aufklärung eines Verbrechens hilfreich sein. Neben der Blutmusteranalyse, bei der Form und Verteilung von Blutspuren untersucht werden, ist auch die Blutaltersbestimmung fundamental, um den zeitlichen Ablauf einer Tat detailliert beschreiben zu können. Dafür sind im letzten Jahrhundert viele Methoden vorgestellt worden. Neben einer Farbskala für die Bestimmung des Blutalters vom Anfang des 20. Jahrhunderts gibt es heute mittlerweile computergestützte Ansätze, die jedoch meist sehr zeitaufwendig sind und eine schwere oder gar teure Ausrüstung benötigen. In dieser Arbeit sollte das hämolytische Verhalten alternder Blutproben mit drei ausgewählten Lösungsmitteln (destilliertes Wasser, Kochsalzlösung und Zitronensäure) untersucht werden. Dazu wurden 40 Messungen von präparierten Blutproben mit einem Spektroskop durchgeführt und ausgewertet. Für die Bestimmung des Blutalters wurden die Peaks des Oxyhämoglobins, bei 540 und 576 Nanometer, und die des Methämoglobins, bei 500 und 630 Nanometer, näher betrachtet. Es konnte festgestellt werden, dass die Oxyhämoglobin-Peaks mit zunehmendem Blutalter abnehmen und die Methämoglobin-Peaks entsprechend zunehmen, bis die typischen Spitzen des Blutspektrums nicht mehr ersichtlich sind.
Erstes Ziel der Arbeit ist es, eine Anwendung mit der Unity Engine zu erstellen, welche grundlegende Mechaniken einer First Person Zielübung beinhaltet.
Hierzu soll eine spielbare Karte mit Präzisionszielen entwickelt werden, welche mit gezieltem Klicken zerstört werden können. Dabei sollen neben einer ”realistisch“ aussehenden Map, zwei weitere Varianten erstellt werden, die in unterschiedlichen Abstufungen zusätzliche visuelle Elemente und Distraktoren beinhalten. Um die Wirksamkeit der Distraktoren prüfbar zu gestalten, sollen möglichst effiziente und starke Distraktoren im Vergleich zu einer Kontrolle ohne Distraktoren eingesetzt werden. Dadurch wird die Aussagefähigkeit der zu ermittelnden Daten unterstützt. Die Distraktoren sollen für potentielle Probanden des Testspiels den Durchlauf der Levels sowie das Auffinden und Treffen von Zielen erschweren.
Diese Karten werden von Grund auf gemodelt und die Funktionalität der Anwendung wird über die Skriptsprache C# implementiert.
Das zweite Ziel besteht darin, ein Spieleexperiment zu entwickeln, welches basierend auf der gestalteten FPS Anwendung eine Nachweismöglichkeit für die Wirksamkeit visueller Distraktoren auf Spieleteilnehmer hat. Dazu sollen Probanden mit Vorkenntnissen im FPS-Gaming für das Experiment rekrutiert werden. Die Teilnehmer werden die verschieden gestalteten Karten nach der Regie des Entwicklers durchlaufen und danach einen passend zur Aufgabenstellung entwickelten Fragebogen beantworten. Ebenfalls wird die Zeit gestoppt, welche diese Spieler für einen Durchlauf der verschiedenen Levels benötigen. Es wird weiterhin betrachtet, inwieweit sich durch wiederholtes Durchlaufen der Karten die Zeiten der Probanden verändern. Der zu entwickelnde Test soll zeigen, ob die Spieler abgelenkt werden und ob bei den Probanden durch wiederholtes Training eine Verbesserung der Spielleistung möglich ist, obwohl visuelle Distraktoren unterschiedlichster Art und Vielfältigkeit den Spieler behindern bzw. ablenken. Damit soll ermittelt werden, ob Testspieler in einem bestimmten und wenn ja, welchem Zeitraum in der Lage sind, bekannte Distraktoren auszublenden.
Mit dem gewählten experimentellen Ansatz kann eventuell am Rande auch ein kleiner bestätigender Baustein für die Hypothese erbracht werden, dass das Spielen von Videospielen eher positive, leistungssteigernde Effekte bezüglich des Wahrnehmungsvermögens und der Motorikfähigkeiten von Spielern haben kann, wie in einer umfassenden und sehr gut abgesicherten Studie von Green und Bavelier im Jahr 2003 gezeigt. Dort konnte nachgewiesen werden, dass die visuellen Fähigkeiten bei Gewohnheitsspielern gegenüber Nicht-Spielern verbessert sind, aber auch Nicht-Videospiel-Spieler durch das Spieletraining diese Fähigkeiten verbessern.
Im Rahmen der vorliegenden Arbeit werden in einem minimalistischen Ansatz die Testpersonen hinsichtlich der Trainierbarkeit ihrer visuellen und koordinativen Fähigkeiten geprüft. Die Grundidee fokussiert jedoch ganz spezifisch nur auf den Einfluss ablenkender Elemente im Spieledesign.
Diese Arbeit behandelt die Wirkungsweise von optischen Reizen in Videospielen, sowie deren Einfluss auf instinktive Handlungen von Spielern. Es soll dabei untersucht werden, ob sich diese Reize von elementaren Prinzipien erfolgreicher Level Design Ansätze ableiten lassen. Hierfür wird auf Grundlage einer umfassenden Recherche eine modulare Testkammer im Stil eines Puzzlespiels konzipiert und umgesetzt. Die Probanden werden bei der Lösung acht verschiedener Bereiche beobachtet und protokolliert sowie zu einzelnen Aspekten befragt. Bei der Auswertung dieser stellen sich Farbunterschiede und starke Farbkonstraste als wirksamste optische Reize heraus.
Für eine akkurate Analyse der Auswirkungen auf instinktive Handlungsmuster, sind umfangreichere Vor-Untersuchungen in Bereichen der Psychologie von Instinkten und visuellen Wahrnehmung notwendig.
In dieser Arbeit geht es um die Untersuchung eines auf wenige Kernmechaniken reduziertes Rollenspiel auf die Motivation des Spielers. Hierfür wurde anhand einer angefertigten Applikation eine quantitative Nutzerstudie mit sechs Probanden durchgeführt. Die Ergebnisse sind dabei gemischt ausgefallen und es konnte kein eindeutiger Beweis auf die Beeinflussung der Motivation durch das Testszenario festgestellt werden.
Untersuchung der Verwendung von Emojis in verschiedenen sprachlichen und kulturellen Kontexten
(2021)
Die modernen Kommunikationswege bieten inzwischen verschiedene Möglichkeiten, neben Text auch weitere Informationen zu teilen, zum Beispiel mittels Emojis. Diese werden in der Forensik noch nicht tiefgreifend analysiert. Um einen Einstieg in die Untersuchung der Verwendung von Emojis zu finden, beschäftigt sich diese Arbeit mit Unterschieden der Emoji-Nutzung in verschiedenen Kulturen und Sprachen. Dazu wurden mehrere statistische Analysen durchgeführt. Des Weiteren wird das Sentiment der Emojis untersucht und getestet, ob Emojis in allen Kulturen die gleiche Bedeutung haben. Zur Ermittlung der Bedeutung wurden Wortrelationen verwendet. In allen drei untersuchten Aspekten konnten Unterschiede festgestellt werden.
Die vorliegende Arbeit befasst sich mit der Analyse der Verbindungen zur Blockchain-Technologie und der künstlichen Intelligenz. Das Hauptziel ist, neue Bereiche der beiden Technologien zu beschreiben und zu erklären. Zuerst werden inhaltliche Fragen und Erklärungen für ein besseres Verständnis der beiden Technologien erläutert. Des Weiteren werden gemeinsame Einsatzszenarien, sowie dessen Realisierung betrachtet. Zuletzt werden Vor- und Nachteile, sowie eine Zukunftsprognose der Blockchain-Technologie und der künstlichen Intelligenz aufgestellt.
Die vorliegende Arbeit behandelt den Einfluss epigenetischer Faktoren auf die Stickstoffnutzungseffizienz (engl. nitrogen use efficiency) des pflanzlichen Modellorganismus Arabidopsis thaliana. Dabei wird eine mögliche Korrelation zwischen der Stickstoffnutzungseffizienz und der Methylierung der Promotorregionen der drei Gene AT1G55420, AT1G55430, AT1G55440 bestätigt. An ausgewählte Arabidopsis-Akzessionen wird eine Stickstoffmangelstresssituation simuliert und entsprechende Auswirkungen mittels verschiedener Verfahren phänotypisiert. Die Ergebnisse der angewendeten Untersuchungen bieten erste Einblicke in die molekularen und phänotypischen Zusammenhänge der Nutzungseffizienz der Modellpflanze Arabidopsis thaliana unter Stickstoffstressbedingungen dar.
Diese Arbeit untersucht die Spielertypen Achiever und Explorer nach Bartle (1996) und ihre Reaktionen auf zeitinduzierten, psychischen Druck. Dazu wurde ein zweistufiges Experiment durchgeführt, in dem die 7 Probanden Irrgärten durchlaufen. Im ersten Irrgarten erfolgt zunächst eine Klassifizierung der beiden Spielertypen: Je nach Entscheidungsmuster innerhalb eines Irrgartens, werden die Probanden in Achiever und Explorer eingeteilt. Darauf aufbauend durchqueren die Spieler einen zweiten Irrgarten, der sich vom ersten unterscheidet, aber ähnliche Voraussetzungen bietet. Hierbei wird durch eine Uhr, die die verbrachte Zeit im Irrgarten misst, Zeitdruck induziert. Die Ergebnisse zeigen, dass diese intrinsische Motivation dazu führen kann, dass sich die Verhaltensweise der zuvor als Explorer idendifizieren Probanden, an die äußeren Umstände anpassen und sie ihr Spielverhalten ändern.
Verschiedenste telefonische Betrugsmaschen, die auf die ältere Generation abzielen, sind in den letzten Jahren in Deutschland exorbitant gestiegen. Ob Schockanruf, WhatsApp-Betrug oder Enkeltrick: die Folgen eines solchen Betrugsfalls werden nur selten aufgezeigt. Anhand einer quantitativen Umfrage und einem Interview mit einer Betroffenen werden in dieser Arbeit die Betrugspräsenz, die Trendentwicklung und der aktuelle Aufklärungsstand am Beispiel des Enkeltricks, sowohl analog als auch digital untersucht. Abschließend werden Handlungsempfehlungen für potenziell gefährdete Menschen ausgesprochen.
Das Ziel dieser Arbeit ist es, einen Superabsorber (SAP), welcher auf Stärkebasis hergestellt wurde, auf seine leichte biologische Abbaubarkeit zu untersuchen. Durchgeführt wird dafür der OECD 301 F Test, da sich dieser auch mit schwer löslichen Substanzen anwenden lässt. Zusätzlich zum Abbau des SAP wurde auch der Abbau von reiner Stärke getestet, um diese miteinander vergleichen zu können. Bei dem Test 301 F handelt es sich explizit um den manometrischen Respirometer Test, welcher unter aeroben Bedingungen in Lösung stattfindet. Bei diesem wird der Druckunterschied gemessen, welcher sich durch das Atmen der Mikroorganismen, in Verbindung mit dem gleichzeitigen Binden des entstehenden Kohlenstoffdioxids, ausbildet. Die Ergebnisse zeigen, dass das SAP zwar keine Hemmende Wirkung auf die Referenzsubstanz Kaliumhydrogenphthalat zeigt, aber auch nicht leicht biologisch abbaubar ist. In den zwei durchgeführten Versuchen konnte ein maximaler biologischer Abbau von 16,33 % innerhalb der 28 Tage Testdauer nachgewiesen werden. Im Vergleich dazu erreichte die reine Stärke, in derselben Zeit, eine Abbaurate von 27,03 %. Somit sind beide Stoffe nicht leicht biologisch abbaubar, auch wenn sie sich bereits zum Teil abgebaut haben. Das SAP baut sich langsamer ab als die Stärke, was wohlmöglich an der zusätzlichen Vernetzung liegen könnte und das daraus folgende höher Molekulargewicht. Die Mikroorganismen können sich zwar auf dem SAP anlagern, aber nicht direkt abbauen durch die Vernetzung. Weitere entscheidende Faktoren für einen biologischen Abbau sind die Verwendeten Mikroorganismen, welche den Stoffabbauen und das System in dem getestet wird.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung ob und warum die Anzahl von IT-Sicherheitslücken exponentiell steigt. In Zuge dessen wird der Zusammenhang zwischen der Entwicklung von Sicherheitslücken und der Entwicklung der Code-Länge über die Zeit untersucht. Um die Forschungsfrage zu beantworten, wurden CVE-Daten ausgewertet. Dabei wird nicht nur die allgemeine CVE-Entwicklung, sondern auch ausgewählte Software-Systeme im Speziellen betrachtet. Um die Code-Länge zu untersuchen, wurden die LOC der einzelnen Software-Systeme analysiert. Die Untersuchung ergab, dass die Entwicklung der CVE gesamt einen exponentiellen Trend verfolgt. Die CVE-Entwicklung der einzelnen Software-Systeme verfolgt im Gegensatz dazu in der Mehrheit einen linearen Trend. Auch die LOC-Entwicklung der Software-Systeme passt sich diesem Trend an. Somit zeigt sich, dass die drastische Entwicklung der Sicherheitslücken nicht ausschließlich durch eine drastische LOC-Entwicklung beeinflusst wird, sondern von verschiedenen Faktoren abhängt, die sich untereinander verstärken.
In dieser Bachelorarbeit wurde die entomologische Besiedlung zweier Ferkelkadaver über eine Dauer von 80 Tagen untersucht. Als Auslegungsort wurde ein Waldstück in Thüringen gewählt. Es konnten fünf Verwesungsstadien klassifiziert werden. Dominante Insekten waren die Familien Calliphoridae, Muscidae, Piophilidae und Silphidae. Piophilidae konnte ab Tag 30 beobachtet werden und trat bis zum Ende des Experiments auf. Es wurden die Piophilidae-Arten Stearibia nigriceps, Lioliophila varipes und Prochyliza nigricornis asserviert. Ziel der Arbeit war es, einen Forschungsbeitrag zur Familie der Käsefliegen zu liefern.
Die vorliegende wissenschaftliche Arbeit befasst sich mit der Fragestellung, ob ausgewählte Ansätze des Datenmanagements in verteilten Systemen einsatzfähig sind und somit zu einer Optimierung des Systems führen. Hierzu werden die Ansätze des Datenmanagements in Bezug auf ein bereits gegebenes verteiltes System betrachtet. Diesbezüglich lassen sich drei Aspekte des Datenmanagements adressieren und anhand einer exemplarisch ausgewählten Technologie die Einsatzfähigkeit des gewählten Ansatzes in Bezug auf das verteilte System belegen. Ziel in diesem Kontext ist anhand von ausgewählten Technologien der Übertragung, der persistenten Speicherung und der Verteilung und Virtualisierung von Daten deren Einsatzfähigkeit in einem gegebenen verteilten System zu prüfen und deren Optimierungspotential für das System aufzuzeigen. Innerhalb der folgenden sechs Kapitel beinhaltet Kapitel 1 die Einleitung inklusive Motivation, Zielstellung und Aufbau. Kapitel 2 fokussiert auf die theoretischen Grundlagen und Rahmenbedingungen sowie deren Erläuterungen. Inhalt von Kapitel 3 sind die Analyse der gegebenen Problemstellung und die Ableitung benötigter Anforderungen sowie die darauf aufbauende Konzepterstellung. Diese beinhaltet überdies die Technologieauswahl und aus dem Konzept resultierende Testfälle. Kapitel 4 dient zur Darstellung des Implementationsprozesses der gewählten Technologien. Kapitel 5 stellt darüber hinaus die Durchführung und Auswertung der erstellten Testfälle und die Gegenüberstellung von Vertretern der persistenten Speicherung von Daten dar. In Kapitel 6 ist eine Zusammenfassung der Arbeit vorzufinden, die den Abschluss der Arbeit darstellt und einen Ausblick für weitere mögliche Änderungen am gegebenen System gibt.
Die vorliegende Bachelorarbeit hatte zum Ziel, die auf der Kläranlage Schönerlinde bestehende Aktivkohleanlage zur Reinigung schwefelwasserstoffbelasteter Abluft zu optimieren. Dafür wurden sechs Aktivkohlen, mit unterschiedlichen Eigenschaften, in einer Versuchsanlage getestet. Es konnten drei unimprägnierte, zwei imprägnierte und eine dotierte Aktivkohle für die Experimente ausgewählt werden. Über die Ermittlung der Standzeiten und der Konzentrationen an Schwefelwasserstoff, die in den knapp sechs Wochen über die Kohle strömten, wurden die Beladungen berechnet. Somit konnten alle Aktivkohlen miteinander verglichen werden. Die Ergebnisse zeigten, dass die derzeit in der Aktivkohleanlage verwendete imprägnierte Kohle, DGF 4 KI 2 Bio von der Firma Carbo Tech, nicht die beste ist. Mit Kosten von 77,6 Tsd. € pro Jahr ist die dotierte Aktivkohle Dopetac sulfo 100® von der Firma Adfis die wirtschaftlichste Kohle. Diese überzeugte mit langen Standzeiten, der höchsten Beladung an Schwefel und dem günstigsten Preis.
Die anfallende Biomasse der Wasserpflanze Elodea nuttallii sollte als Mischsilage in zwei Fermentern vergoren werden. Zur Silage-Herstellung wurden verschiedenste Behandlungsarten ausprobiert und die Silagen anschließend analysiert. Aus diesen wurde eine Mischsilage ausgewählt, welche in einem kontinuierlichen Vergärungsprozess untersucht wurde.
Hierbei sind die Prozessstabilität (FOS, FOS/TAC, Ammoniumstickstoff, pH und GC) sowie der Biogasertrag genauer betrachtet worden. Es konnten somit Aussagen zur Funktionalität und Effizienz der Elodea nuttallii als Co-Substrat bei der Herstellung von Biogas getroffen werden.
Ziel der Bachelor Arbeit war die Untersuchung der Interaktion des Mikrotubuli-assoziierten Proteins Tau an die Mikrotubuli mittels des Split-Luciferase-Assays. Dafür wurden die benötigten Expressionsplasmide hergestellt und die Interaktion im NanoBiT-Assay gemessen. Diese Messwerte wurden mithilfe des HiBiT-Assays normiert und mit dem Wst8-Assay sowie mit der Hoechst 33258 Färbung wurde die Zytotoxizität und die Zellzahl bestimmt.
Es konnten die Interaktionen zwischen β-Tubulin I/ III und Tau, α-Tubulin und Tau sowie α-Tubulin und β-Tubulin I/III gemessen werden. Das N-terminal fusionierte β-Tubulin I mit der kleinen Untereinheit und β-Tubulin III mit der großen Untereinheit konnten aufgrund fehlender Expressionsplasmide nicht in die Interaktionsanalyse mit einbezogen werden. Die optimale Konfiguration der Luciferase Untereinheiten sowie die bestmöglichsten Interaktionspartner, bei der die größte Interaktion von 0,2790 bzw. 0,3095 gemessen werden konnte war bei dem β-Tubulin I bzw. III mit dem Tau 36 TubbIII/ 34 2N4R bzw. 0N4R Tau. Hingegen entsprachen die optimale Konfiguration sowie die bestmöglichsten Interaktionspartner der Interaktion α-Tubulin mit Tau 33 TubaA/ 36 1N4R Tau sowie α-Tubulin mit β-Tubulin 33 TubaA/ 36 TubbI & TubbIII. Diese zeigten Interaktionsstärken von 0,1360; 0,1419 und 0,1668 im Vergleich zur PKA-Interaktion. Die Gegenüberstellung zu den Ergebnissen von Shin et al. zeigte eine übereinstimmende Konfiguration für die α-Tubulin/ Tau Interaktion, hingegen eine Differenz in der Konfiguration für die β-Tubulin/ Tau Interaktion. Die Ergebnisse des β-Tubulins mit den Tau Isoformen des Vektors pFC34 zeigten im T-Test eine signifikant größere Bindungsaffinität der Tau Isoformen mit 4 Mikrotubulibindungsregionen im Vergleich zu denen mit 3 Bindungsregionen.