Refine
Document Type
- Bachelor Thesis (111)
- Master's Thesis (17)
- Diploma Thesis (8)
Year of publication
- 2019 (136) (remove)
Keywords
- Computerforensik (12)
- Softwareentwicklung (10)
- Videospiel (7)
- Computerspiel (6)
- Algorithmus (5)
- Daktyloskopie (5)
- Virtuelle Realität (5)
- Android <Systemplattform> (4)
- Biotechnologie (4)
- Computersicherheit (4)
Institute
- Angewandte Computer‐ und Biowissenschaften (136) (remove)
Das Ziel dieser Arbeit ist die Analyse von Kampfszenarien in Videospielen, mit dem Fokus auf der Gewichtung von unterschiedlichen Charakter-Klassen und Teamzusammenstellung.
Dazu wird dies an zwei Videospielen analysiert. Danach wird eine Anforderungsanalyse durchgeführt und es erfolgt die prototypische Umsetzung eines Softwaretools, in dem sich Kampfszenarien simulieren lassen. Ergänzend dazu wird eine visuelle Evaluation implementiert. Anhand der Auswertung von Testsimulationen wird dann eine erneute Analyse durchgeführt.
Biologische Prozesse können mithilfe von Modellen mathematisch analysiert werden und durch Visualisierungsapplikationen können die Ergebnisse der Modelle interpretierbar dargestellt werden.
Das Modell befasst sich mit der Wasserrückführung in renalen Hauptzellen. Dabei wurden die primäre Hormonantwort, die Bewegung von Vesikeln sowie die Exozytose als auch die Endozytose modelliert und simuliert. Diese Arbeit beschreibt die Entwicklung einer Webapplikation um Simulationstrajektorien zu visualisieren. Es wurde eine räumliche Darstellung des Modells entwickelt, welche Kompartimente anordnet und Konzentrationen einzelner Moleküle farblich darstellt. Durch die Positionierung von Kompartimenten erhält man eine Vorstellung der Topologie des Systems. Durch die Darstellung der Konzentrationen kann das Verhalten einzelner Moleküle im Modell untersuchen werden. Auch die Bewegungen von Vesikeln können abgebildet werden. Liniendiagramme einzelner Moleküle zeigen Konzentrationen über den gesamten Zeitraum. Das Tool bietet die Möglichkeiten, die Trajektorien zu reduzieren durch eine Filterfunktion, welche die gefilterten Daten summiert zurückgibt. Durch interaktive Elemente, einfache Bedienung und die Verfügbarkeit im Internet entspricht das Tool heutigen Standards für Visualsierungstools. Zukünftig sollte an der Darstellung von Zahlen und Einheiten gearbeitet und Moleküle mit Datenbanken crossverlinkt werden.
Im Rahmen dieses Bachelor-Projektes soll ein Live-System zur sicheren Erstellung von Cold Storage Wallets entwickelt werden. Hierfür wird zunächst der Prozess mit bisherigen Mitteln umfassend analysiert. Ausgehend davon, werden Anforderungen für eine Lösung im Hinblick auf Sicherheit, Benutzerfreundlichkeit und Erweiterungsmöglichkeiten ausgearbeitet. Die Anforderungen umfassen sowohl die technischen Eigenschaften des Betriebssystems, als auch die Software, die mit dem Live-System ausgeliefert werden soll. Diese muss quell-offene Werkzeuge zur sicheren Generierung der kryptografischen Schlüssel für gängige Kryptowährungen beinhalten. Die Auswahl soll durch eine Überprüfung der verfügbaren Werkzeuge erfolgen. Auf der Basis dieser Anforderungen wird ein entsprechendes Live-System entwickelt. Abschließend werden eventuelle Probleme und Verbesserungsmöglichkeiten dargestellt.
In the following study the properties of the superabsorbent polymer Broadleaf P4 were investigated according to the aim to apply that polymer within constructed wetlands. The application of the polymer in constructed wetlands shall result in an improvement of the removal of pesticides. For that the polymer was given into lab-scale wetlands together with pumice and were compared to a control wetland, which was filled with gravel. The wetlands were running for several weeks in which the nutrient removal was recorded. The polymer was also tested according to its property to adsorb the pesticides before adding the pesticides to the wetland beds.
Many companies use machine learning techniques to support decision-making and automate business processes by learning from the data that they have. In this thesis we investigate the theory behind the most widely used in practice machine learning algorithms for solving classification and regression problems.
In particular, the following algorithms were chosen for the classification problem: Logistic Regression, Decision Trees, Random Forest, Support Vector Machine (SVM), Learning Vector Quantization (LVQ). As for the regression problem, Decision Trees, Random Forest and Gradient Boosted Tree were used. We then apply those algorithms to real company data and compare their performances and results.
The application described in this thesis has been created, built and designed to help nurses or any medical personnel all around the world in being able to access a real-time database to store patient records like Patient Name, Patient ID, Patient Age and Date of Birth, and the Symptoms that the patient is experiencing. A real-time database is a live database where all changes made to it are reflected across all devices accessing it. This application will be beneficial especially in countries where access to a computer or medical equipment is not always possible. A phone is always ready use and at the reach of the hand, users of this application will always be able to access the data at any given time and place. We will be able to add a new patient or search for existing patients. In addition, this application allows us to take RAW medical images that can be used to identify anomalies in the blood sample. RAW images are important for this application because they’re uncompressed, which means, they do not lose any quality or details. The users of this application are the medical personnel that will be taking care of the patients. These users will have to create a profile on the database in order to use the application, since their data, like user ID, will be used in order to control the behaviour of the data retrieved and stored. We will also discuss the current and future features of this application, as well as, the benefits of this application when it comes to the medical personnel, as well as patients. Finally, we will also go
over the implementation of such application from a hardware perspective, as well as a software one.
Background: Neurodegenerative diseases are on the rise. A possible link between the exposure and residue of neuroactive compounds to the environment and humans was found in recent years. At the present day the effects of chemical mixtures are a field of great concern. However aquatic communities and organism seem even more vulnerable to adverse effects of toxic mixtures. Zebrafish was selected as suitable in vivo model to investigate these concerns. The possible effects of nine selected compounds and four binary mixtures were assessed by an evaluation of movement change in D. rerio embryos at early life stages.
Results: The investigation has shown various changes in the behavior of D. rerio embryos for eight of nine tested compounds and their mixtures, respectively. The STC (spontaneous tail coiling)-method revealed changes in hyper- and hypoactivity in zebrafish.
Conclusions: This report demonstrates the advances of investigating sublethal behavior-related endpoints linked to observed effects regarding to a specific mode of action or to a certain group of compounds, respectively. Furthermore, the STC-method proved to be a promising tool to detect, evaluate and investigate combined effects in binary mixtures.
Keywords: Danio rerio embryos, behavior, mixtures, neurotoxicity, sublethal endpoints, STC-method, movement change
Die vorliegende Bachelorarbeit befasst sich mit der Inbetriebnahme beziehungsweise der Erweiterung eines bestehenden ERP-Systems im Unternehmen Kraham Maschinenbau GmbH. Zu den Zielen zählt die Inbetriebnahme der Arbeitsvorbereitung durch das ERP-System, sowie die Einführung der Personalzeit- und Arbeitszeiterfassung, welche bisher noch nicht im ERP-System einge-bunden waren.
Im ersten Teil werden ERP-Systeme und deren Einführungskonzepte theoretisch beschrieben.
Im zweiten Teil wird dann die Umsetzung der durchgeführten Erweiterungen im Unternehmen Kraham beschrieben.
In dieser Arbeit wird die Entwicklung einer Anwendung für das mobile Betriebssystem Android beschrieben, welche zwei Verfahren für die Berechnung der Entfernung zu einem kreisförmigen Marker implementiert. Hierfür werden Kernbestandteile der Auswertung von Kameradaten auf der Android-Plattform mit der OpenCV-Bibliothek erläutert und deren Einsatz in der Anwendung dargestellt. Die beiden Verfahren werden hinsichtlich ihrer Genauigkeit und Anwendbarkeit auf die mobile Plattform verglichen und ausgewertet.
Diese Arbeit thematisiert die Konzeption und Umsetzung einer Anwendung, welche den Einfluss optischer Stimuli in einer virtuellen Umgebung untersucht. Im Rahmen dieses Projekts entsteht eine Anwendung in der Unity-Engine, in welcher der Nutzer verschiedene Türen wählt. Der Fokus liegt auf den Entscheidungen der Nutzer und welche optischen Stimuli Farbe, Beschaffenheit, Positionierung und Scheinwerfer zu diesen Entscheidungen führen. Die Ergebnisse werden durch eine Umfrage der Probanden und das Verzeichnen ihrer Wahlen während der Tests ermittelt. Das Ergebnis zeigt, der Faktor Farbe erzeugt die größte Beeinflussung, weitere Beeinflussungen hängen von der visuellen Wahrnehmung des Menschens ab. Das Konzept der Anwendung ist erweiterbar und bietet die Möglichkeit, weitere Untersuchungen zu dem Thema durchführen zu können.
Das Ziel der vorliegenden Arbeit war es, Algorithmen auf speicherprogrammierbaren Steuerungen (SPSen) und Linx-basierten Systemen umzusetzen und dabei einer möglichst einheitlichen Implementierungsstrategie zu folgen. Dabei wurde ein Algorithmus beispielhaft auf SPSSystemen von zwei Herstellern implementiert. Phoenix Contact unterstützt lediglich Sprachen, die durch den Standard IEC/EN 61131-3 spezifiziert sind. Beckhoff ermöglicht durch die Integration von C++ die Umsetzung auf einer gemeinsamen Codebasis mit dem Linux-System. Die gemeinsame Codebasis unterliegt allerdings Einschränkungen.
Die Altersbestimmung von Blut kann hilfreiche Aufschlüsse über das gesamte geschehene Verbrechen liefern. So kann nicht nur die Leichenliegezeit bestimmt, sondern auch Zeugenaussagen auf ihre Wahrheit überprüft werden. In der Forensik gibt es kostspielige Methoden, um das Alters eines Blutfleckes bestimmen zu können. Hierbei ist auch zu beachten, dass Umwelteinflüsse die Untersuchung und Bestimmung im Wesentlichen erschweren können.
In dieser Bachelorarbeit wurde sich daher auf die spektroskopische Untersuchung mittels UV/VIS-Spektroskopie über einen Zeitraum von 40 Tagen konzentriert. Für das Experiment wurde ausschließlich der Faktor Temperaturverhältnis einbezogen. Für die Blutaltersbestimmung wurden die Peaks der Hämoglobinderivate Methämoglobin und Oxyhämoglobin näher betrachtet. Es konnte beobachtet werden, dass die Peaks, aufgrund der Oxidation von Hämoglobin, mit zunehmenden Alter abnehmen. Des Weiteren konnte festgestellt werden, dass das Blut in kalten Umgebungen langsamer altert, als in warmen Umgebungen.
Die vorliegende Bachelorarbeit befasst sich mit den Datenbanken, die durch verschiedene Applikationen einzelnen Hersteller von Fitness-Trackern auf dem Mobiltelefon gespeichert werden.
Das Ziel dieser Arbeit besteht darin, den Speicherort der Datenbanken im Mobiltelefon zu lokalisieren und diese anschließend auszuwerten. Die Auswertung erstreckt sich auf die Erforschung des Aufbaus der einzelnen Datenbanken und das Verstehen eventueller angewandter Verschlüsselungsmethoden. Es werden Grundlagen forensischer Arbeitsweisen skizziert und anhand dieser verschiedene Datenbanken von drei Applikationen auf einem Mobiltelefon untersucht. Zum Abschluss dieser Arbeit werden die Erkenntnisse dargelegt, welche aus den Daten gewonnen wurden und diese in den Kontext einer forensischen Sonderuntersuchung gesetzt.
In der Diplomarbeit wird mit leicht verfügbaren Komponenten für Mikrocontroller Platinen, wie der Arduino Plattform, beleuchtet, wie eine Kommunikation zwischen Modellfahrzeugen auf einfache Weise hergestellt und den Schülerinnen und Schülern der HTL Anichstraße näher gebracht werden kann. Es werden die verwendeten Komponenten und Vorgehensweisen erklärt und beschrieben. Die eingesetzten Techniken, wie NFC/RFID und Bluetooth, werden erläutert, um es den Schülerinnen und Schülern zu ermöglichen, die im Anhang beschriebenen Übungen durchzuführen und auch selbst Funktionen und Projekte mit Hilfe von Bluetooth und RFID-Readern zu realisieren. Für die Nähe zur Praxis wird ein selbstfahrendes Auto als praktische Anwendung angenommen. Das Fahrzeug wird von den Schülerinnen und Schülern in der Höheren Technischen
Lehranstalt für Elektronik in Innsbruck ab der zweiten Klasse gebaut und Schritt für Schritt um Funktionen erweitert. Mit zwei dieser Fahrzeuge wird ein Versuchsaufbau realisiert.
In der Strafverfolgung werden viele verschiedene Tools zur Extraktion und Auswertung von Informationen aus Asservaten angewendet. Trotzdem kann es durch den technischen Fortschritt immer wieder vorkommen, dass es kein Auswertetool für ein neues Dateiformat oder eine neue Version einer beliebigen Software gibt. Ein solcher Fall tritt bei der neusten Version von „Skype for Desktop“ auf, welche erstmals eine LevelDB-Datenbank zur Sicherung der Nutzerdaten verwendet. Um diese analysieren zu können, wird in der vorliegenden Arbeit der Aufbau der von dieser Software angelegten LevelDB Datenbankdateien und die Struktur der zugehörigen Key-Value Paare analysiert. Darauf aufbauend, wird die Entwicklung einer Software für die Auswertung solcher LevelDB Datenbankdateien beschrieben. Diese Software soll Informationen zu Nachrichten, Anrufen, Gruppen und Kontakten aus der vorliegenden „Skype for Desktop“-Datenbank extrahieren und in einer SQLite Datenbank ablegen. Dieses Format erleichtert die Auswertung der Daten erheblich.
Social media platforms play an increasing role in marketing, politics and police affairs, because they can strongly influence opinions. So called “opinion leaders” exert their influence in a given network and shape the opinions of other users. Identifying central nodes in a social graph has been of interest for decades. However, not all centrality measures were developed for social media platforms. They were built for social graphs, which did not include additional metrics (e.g. “likes”, “shares”). Nevertheless, these metrics play a crucial role on modern platforms. Hence, outdated measures need to be adjusted and additional metrics need to be integrated to ensure the best possible results.
Durch verschiedene Industriezweige gelangen viele Chemiaklien in die Umwelt und lagern sich dort an. Dabei haben viele dieser Chemikalien für die Umwelt und den Menschen schädliche Nebenwirkungen. Diese sind einerseits von der Exposition der Substanzen und andernseits von Effekten auf den biologischen Kreislauf abhängig.
Um die genauen Auswirkungen dieser Verbindungen beurteilen zu können, ist es jedoch wichtig beide Bereiche zu betrachten. Im Rahmen dieser Arbeit wurde deswegen ein Ansatz entwickelt,mit dem die Daten der Exposition und die Daten der Auswirkungen mit einander verknüpft werden können. Dazu wurden zuerst Chemikalien für die Expositionsdaten und Chemikalien für die Wirkungsdaten bereitstehen aus öffentlich zugänglichen Datenbanken gesammelt. Mit Hilfe der Wirkungsdaten wurden anschließend Neuronale Netze trainiert. Es konnte gezeigt werden, dass mittels dieser Modelle die Auswirkungen auf Umwelt und Mensch für die Expositionschemikalien vorhergesagt werden kann.
Zudem wurden in mehreren Chemical Similarity Maps gezeigt, dass sich verschiedene Chemikaliencluster bilden, welche ähnliche chemische Eigenschaften besitzen. Dadurch könnte es möglich sein anhand der chemischen Ähnlichkeite bestimmte Wirkungsdaten für chemische Stoffe vorherzusagen.
Prototype-based classification methods like Generalized Matrix Learning Vector Quantization (GMLVQ) are simple and easy to implement. An appropriate choice of the activation function plays an important role in the performance of (deep) multilayer perceptrons (MLP) that rely on a non-linearity for classification and regression learning. In this thesis, successful candidates of non-linear activation functions are investigated which are known for MLPs for application in GMLVQ to realize a non-linear mapping. The influence of the non-linear activation functions on the performance of the model with respect to accuracy, convergence rate are analyzed and experimental results are documented.
Diese Arbeit ist eine quantitative Inhaltsanalyse der Nachrichtenartikel (n = 555) von ARD (Tagesschau.de) und ZDF (Heute.de) zum Thema Syrien. Mithilfe einer hierarchischen Clusteranalyse und der anschließenden qualitativen Analyse der Artikelüberschriften und Einleitungssätzen, wurden Frame-Elemente in 28 Clustern kodiert. Aus den Frame-Elementen sind 11 Frames hervorgegangen, von denen zwei ausführlicher in der Diskussion erörtert werden.
In der Restwasserklärung einer Papierfabrik treten seit Jahren Korrosionsprobleme auf, die die Funktionalität der Anlagen gefährden. Besonders stark ist der Schaden an Kupferbauteilen in den Schaltschränken. Verantwortlich sind aggressive Gase mit Schwefelwasserstoff als Hauptverursacher. Analysen haben ergeben, dass Schwefelwasserstoff in der Restwasserklärung ausgast, eine besonders starke Quelle ist der Krümelstoffhaufen, in dem optimale Bedingungen für mikrobielle Aktivität herrschen. Die Experimente haben ergeben, dass auch das Prozesswasser Sulfidionen bis zur Konzentration von etwa 0,8 mg/l führt. Die Schlammmischbütte ist ebenfalls ein Ort mit guten Bedingungen für die Sulfatreduktion, nur die niedrige Verweilzeit des Wassers von 20 Minuten dient dort als begrenzender Faktor für einen mikrobiellen Bewuchs. Der durchschnittlichen Sauerstoffkonzentration von 0,12 mg/l kann in der Gemeinschaft einer Sielhaut standgehalten werden. Direkt im Wasser sorgen in Verbindung mit Feuchtigkeit und Wärme Chloridionen für Korrosion an den Entwässerungsanlagen. Diese Schäden sind allerdings tolerierbar, die Standzeit der Anlagen wird nicht so extrem beeinträchtigt wie die der Schaltschränke. Als wirtschaftlich betrachtet beste Methode zum Schutz der Kupferkomponenten vor dem Schwefelwasserstoff erwies sich die Installation eines chemischen Filtersystems.
Die vorliegende Arbeit befasst sich mit der Konzeptionierung einer gesamthaften
Gebäudeautomatisierung und spannt dabei den Bogen von der methodischen Anforderungsanalyse über das Lösungsdesign bis hin zur Realisierung eines modernen Smart Homes. Die Herausforderung lag dabei in der Gewährleistung der Interoperabilität der einzelnen Komponenten, ohne dabei die zugrunde liegende Technik in den Vordergrund treten zu lassen. In die Praxis umgesetzte Anforderungen werden in dieser Arbeit bis auf die Ebene des Quellcodes dokumentiert und belegen somit die Machbarkeit.
Diese Arbeit beschäftigt sich mit der Analyse spezieller Sequenzbereiche. Als Ausgangsdatensatz dienen Sequenzen, in welchen Reste ermittelt wurden, die den Faltungsprozess initiieren und die Bildung von Sekundärstrukturelementen unterstützen. Diese frühfaltenden Reste, auch early folding residues genannt, sind maßgeblich für das Verständnis des Proteinfaltungsprozesses. Ziel dieser Arbeit ist es, für alle early folding residues allgemein gültige Sequenzmuster zu finden und welche Importanz diese bei der Proteinfaltung spielen. Um dieses Ziel zu erreichen wurde ein Programm zu Verarbeitung der Rohdaten angefertigt und die daraus resultierenden Sequenzbereiche geclustert. Anschließend sind die Cluster in Sequenzlogos dargestellt worden.
Cryptorchidism describes a disease, in which one or both testes do not descend into the scrotum properly. With a prevalence of up to 10%, cryptorchidism is one of the most common birth defects of the male genital tract. Despite its associated health risks and accompanying economic damage, resulting from surgery and losses in breeding, studies on canine cryptorchidism and its causes are relatively rare. In this study a relational database for genetic causes of cryptorchidism was established and used as a basis for the identification of candidate genes. Associated regions were analysed by nanopore sequencing with the goal to identify genetic variants correlated with cryptorchidism in German Sheep Poodle.
Kocuria spp. - Bakterien sind in der Natur omnipräsent vorkommende Gram-positive Kokken.
Einige Studien beschäftigten sich bereits mit der Biodiversität und den biotechnologischen Applikationen dieser Bakterien. Jedoch ist trotz dessen nur wenig über die Gattung Kocuria bekannt. Ziel dieser Arbeit ist es, Aufschluss über die Biodiversität und das biotechnologische Potential von Kocuria spp. - Stämmen, die aus z.B. Meeressedimenten und der Atacama-Wüste isoliert wurden, zu gewinnen. Dafür werden mikrobiologische, chemische sowie genetische Methoden verwendet, wie z.B. Wachstumstests zur Untersuchung physiologischer Eigenschaften, analytisch chemische Methoden und phylogenetische Analysen. Es wird gezeigt, dass die Kocuria spp. - Isolate spezifische Merkmale hinsichtlich ihrer Biodiversität aufweisen und in der Lage sind, biotechnologisch nutzbare Substanzen zu produzieren.
Zielführend der vorliegenden Bachelorarbeit soll über den Einsatz von Methoden und Technologien in der Hochschulbildung zur effektiven Vermittlung von Lerninhalten informiert werden. Zielführend elaborieren die vorliegenden Ausführungen darüber strukturiert, organisiert und motiviert die Lerneffektivität der Studierenden zu steigern. Im Fallbeispiel erforschte Erkenntnisse und Zielstellungen wurden dafür verwendet, um das Learning-Management-System OPAL unterstützend in den Lernprozess zu involvieren. Erstellt wurde ein OPAL-Kurs zur Vermittlung von Grundlagen der 3DModellierung. Unter Einbezug von Lernkarten, Selbsttests, Bonusaufgaben, Live-Abstimmungen, Erklärvideos sowie detail-markierte Visualisierungen soll die Effektivität der Vermittlung von Wissensinhalten optimal an die Studierenden transferiert werden.
Wissen aneignen, wiederholen, festigen und vertiefen werden durch angewandte Methoden im Kurs repräsentiert. Das Unterstützen der Studierenden im Prozess der Befähigung des eigenständigen Lernens sowie aus eigen-Initiative Lösungen zu erörtern steht zudem als Motivation über dieser Bachelorarbeit. Dem entwickelten Grundlagenkurs der 3D-Modellierung, lassen sich folglich die Komponenten Motivationsträger, Lösungsorientiert, Wissensfestigend, Vergleichsbasierend und Planungsorientiert zuordnen. Bereits in einer Umfrage zur Wahrnehmung der entwickelten Kursstruktur konnten 60 Teilnehmende verzeichnet werden mit dem Ergebnis das angewandte Methoden und Technologien tendenziell zielführend verlaufen. Um den Erfolg der realisierten Methodiken und Techniken realistisch einschätzen zu können wurde mittels AttrakDiff die hedonische und pragmatische Qualität des interaktiven OPAL-Kurses evaluiert. Inquiriert wurden insgesamt 16 Untersuchungsteilnehmer in einem Beobachtungszeitraum von sechs Tagen. Die online, automatisch berechneten Ergebnisse der Auswertung durch AttrakDiff bezüglich des Grundlagen Kurses der 3D-Modellierung, definieren eine Produktcharakteristika von „begehrend“ basierend auf den 28 verschiedenen semantischen Differenzialen. Ergänzend kann verzeichnet werden, dass eine hohe Konfidenz in Bezug auf die Wahrscheinlichkeit der Bewertung eruiert werden konnte. Im Ergebnis kann darauf geschlossen werden, dass die entwickelte und umgesetzte Kursstruktur am Fallbeispiel eines Grundlagenkurses der 3D-Modellierung tendenziell als positiv und ziel-erfüllend gewertet werden kann. Der Grundlagenkurs, vereint zudem den Vorteil der adaptiven Anwendung auf beliebige andere Bereiche und gilt somit als positives Beispiel, welches in der Lehre Anwendung finden kann.
Ziel dieser Arbeit die Bereitstellung von Sensordaten sowie dessen Auswertung und Weitergabe an Aktoren. Die Bereitstellung dieser Daten soll mittels Datenbank-Abfragen und einer nachrichtenorientierten Infrastruktur bereitgestellt werden. Nach dieser erfolgreichen Implementierung soll ein Datenformat sowie -standard erörtert werden.
Nur auf der Grundlage homogener Daten kann eine effektive Nutzung dieser Daten er-reicht und ein sinnvolles Zusammenarbeiten verschiedener Institute sichergestellt werden.
Schimmelpilze spielen als Zersetzer eine große Rolle in allen Ökosystemen der Erde. Auch in der Forensik wird ihnen eine bedeutende Rolle zuteil, da sie meist totes organi-sches Material besiedeln. Neben der Leichenliegezeitbestimmung und ihrem Nutzen als biologische Spuren an Tatorten, können Schimmelpilze einen Nutzen als Mykotoxinbild-ner aufweisen. In ihrem sekundären Stoffwechsel produzieren sie abhängig von Art und äußeren Einflüssen Toxine. Über ausgewählte Gattungen, deren Arten und Mykotoxine wird in dieser Arbeit ein Überblick gegeben. Analysen dieser Mykotoxine sollen unter Umständen auf die Art Rückschlüsse erlauben. Hierbei präferierte und dargestellte Methoden sind GC-MS, LC-ESI-MS, UHPLC-Qtof-MS und andere Methoden aus der Chromatografie und Massenspektrometrie. Diese werden in der Arbeit mit ihren Grund-lagen gemeinsam erläutert. Über diese Methoden wird der forensische Nutzen von Mykotoxinen als Differenzierungsmerkmal diskutiert und am Ende der Arbeit wird ein Aus-blick auf zukünftigen Nutzen dieser Methoden und der Mykotoxinanalyse in der Forensik gegeben.
Die vorliegende Bachelorarbeit befasst sich mit der Konzeption und Implementierung eines Serious Game-Prototypen. Nachdem zunächst die Eigenschaften und Vorteile von E-Learning und Serious Games erläutert werden, widmet sich die Arbeit der ausführlichen Analyse der Möglichkeiten und Besonderheiten von unbemannten Luftfahrtsystemen, sowie den Systemen zu deren Detektion und Abwehr. Neben dem entwicklungstechnischen Stand, aktuellen Ereignissen, sowie potenziellen Bedrohungen werden stellvertretend Beispiele für Abwehr- und Erkennungssysteme aufgezeigt, um einen Überblick über die Gefahren von Drohnen und die möglichen Konsequenzen verschiedener Interventionsmaßnahmen aufzuzeigen. Im weiteren Verlauf der Arbeit werden die Implementierungsschritte des entwickelten Serious-Game-Prototypen erläutert und die Zusammenhänge einzelner Gameplay-Elemente und der Realität hervorgehoben.
Es wird die Entwicklung eines Reversen Genetik Systems für das Respiratorische Synzytial Virus beschrieben. Die Ergebnisse für die Versuche zur Subklonierung von RSV-Antigenomfragmenten in Klonierungsvektoren, sowie der Ligation zweier RSV-Antigenomfragmente miteinander und anschließend in einem Expressionsvektor werden dargestellt und diskutiert. Die Methoden die zu diesen Ergebnissen führten werden aufgeführt, diskutiert und mit Literatur verglichen. Des Weiteren werden die Erfolge und Misserfolge zusammengefasst und in Form des Ausblickes dargestellt, welche weiteren Schritte zur Entwicklung eines Reversen Genetik Systems für das Respiratorische Synzytial Virus geplant sind.
Innerhalb dieser Bachelorarbeit werden zuerst theoretische Grundlagen für das Balancing von Spielen erarbeitet, die sich im späteren Verlauf immer weiter auf rundenbasierte Strategiespiele spezialisieren. Diese dienen nach einer Analyse bekannter und erfolgreicher Beispiele von rundenbasierten Sammelkartenspielen im praktischen Teil dazu einen Algorithmus zu formulieren, welche wichtigen Aspekte beim Balancing eines Spiels in diesem eben diesem Genre zu beachten, und, wie diese grob umzusetzen sind. Schlussendlich wird dieses Verfahren Anhand von Statistiken eines dieser näher betrachteten Beispiele auf seine Genauigkeit hin untersucht, um Schlussendlich ein Fazit über die praktische Anwendbarkeit dieses Algorithmus ziehen zu können.
Bioaerosole kommen ubiquitär in der Atmosphäre vor. Sie sind meist ungefährlich, aber sie können auch Bestandteile enthalten, welche eine gesundheitliche Gefahr für den Menschen darstellen. Um ihre Inhaltsstoffe zu ermitteln werden sie beprobt. Die biologische Untersuchung dieser Proben erfolgt über Kulturen und molekularbiologisch. In den Fokus der molekularbiologischen Auswertung rückt zurzeit das third generation sequencing via Nanopore. Ziel dieser Arbeit ist es zu prüfen, ob die durch den Coriolis μ generierten Luftproben zur molekularbiologischen Analyse mit Nanopore Sequenzierung nutzbar sind. Dazu werden kulturbasierte und molekularbiologische Untersuchungsmethoden angewendet und miteinander verglichen. Es wird gezeigt, dass die Proben für eine weitere Nutzung durch Nanopore Sequenzierung geeignet sind.
Die Bachelorarbeit behandelt die automatische Überprüfung hinsichtlich "Indicators of Compromisse" auf Linux-Systemen.
Sie beschreibt die Anfertigung eines forensischen Hilfstools welches die Aufgabe der automatisierten Überprüfung so weit wie möglich übernehmen soll. Hierbei waren 26 Indicators of Compromise als Grundlage gegeben, welche im Rahmen der Arbeit betrachtet werden. Das forensische Hilfstool setzt sich im Ergebnis aus zwei Hauptskripten zusammen, wovon eines zur Datenerhebung auf dem zu untersuchenden System dient, das andere zur Datenanalyse auf einem separaten Analysesystem. Die Arbeit stellt für jeden der betrachteten Indikatoren ausführlich dar wie eine automatisierte Überprüfung erfolgt, und falls nicht möglich ist, wodurch diese eingeschränkt wird und welche Schritte manuell erfolgen müssen. Als Endergebnis der Arbeit wird festgehalten, dass für alle Indikatoren mindestens eine Teilautomatisierung umsetzbar ist. Eine komplette Automatisierung für alle Indikatoren ist nicht möglich. Jedoch gelingt es durch das Hilfstool die manuelle Arbeit entscheidend zu verkürzen und zu erleichtern.
In der vorliegenden Arbeit werden geeignete Kriterien zur Beurteilung von Bienenvölkern in der Bienenhaltung (Imkerei) ermittelt. Für die datentechnische Erfassung dieser Kriterien wird prototypisch ein Internet of Things (kurz: IoT) System konzeptioniert und implementiert. Dieses System nutzt zur drahtlosen Datenübertragung die Technologie LoRa/LoRaWan. Eine Darstellung der Informationen erfolgt abschließend in einer IoT Plattform. Für diese Gesamtlösung wer-den dazu geeignete Hard- und Softwarelösungen verglichen und prototypisch implementiert. Eine Inbetriebnahme erfolgt an einem Referenzbienenstock
Das Ziel der vorliegenden Bachelorarbeit ist es, verschiedene Säuren auf ihre Phosphorrücklösewirkung bei Klärschlamm zu untersuchen. Als Untersuchungsobjekt dient chemisch phosphoreliminierter Klärschlamm aus dem Klärwerk Leipzig Rosental. Bei den Säuren handelte es sich um Schwefelsäure, Zitronensäure, Methansäure, Ethansäure und Kieselsäure. Die Ergebnisse dieser Arbeit können für die Verfahrensentwicklung von speziellen hydrothermalen Prozessen, in Kläranlagen oder sonstigen Verfahren zur Phosphorrückgewinnung verwendet werden.
In dieser Arbeit wird ein Messgerät zur Bestimmung von emotionalen Erregungszuständen vorgestellt.
Dieses soll eine Anwendung in der Untersuchung von Probanden in VR-Umgebungen finden. Hierdurch stellen sich Anforderungen, die von klassischen Messgeräten nur begrenzt erfüllt werden.
Die somit erfassten Vitaldaten benötigen eine Verarbeitung, bevor aus ihnen Rückschlüsse gezogen werden können. Hierfür werden drei verschiedene Algorithmen verwendet. Die so gewonnen Ergebnisse werden untereinander und mit professionell gewonnen Daten verglichen.
Diese Arbeit thematisiert das Zusammenspiel verschiedenster Projektmanagement Ansätze mit den Psychologischen Persönlichkeitstypen nach dem Myers-Briggs-Typenindikator.
Es wird hierbei auf die Erstellung eines dynamischen Evaluationstools eingegangen und den konkreten Hintergedanken zur Fragenerstellung selbiger. Ziel war es ebenfalls die Arbeitsmoral und Vorstellungen einzelner Teammitglieder zu verbessern. Außerdem ist eine Verbindung der Arbeitsstile und Persönlichkeitstypen eine große Chance, Teams zu optimieren und die Produktivität zu steigern
Die Bachelorarbeit erläutert, was Deepfakes sind und inwiefern solche, unter Zuhilfenahme von maschinellem Lernen erzeugten, Bild- und Videomanipulationen in juristischen Zusammenhängen in Erscheinung treten oder Einfluss auf Vorgänge im Bereich des Rechtsverkehrs haben können. Dies wird unter anderem anhand dreier ausgewählter Szenarien verdeutlicht.
Die forensische Daktyloskopie findet seit über 100 Jahren Anwendung in der Kriminalistik zur Identifizierung von Personen, welche die für jede Person einzigartige Anordnung von Papillarleisten auf einer Oberfläche hinterlässt. Dabei kann oft nur das Muster des Fingerabdruckes forensisch relevante Informationen bereitstellen. Untersucht man den Fingerabdruck jedoch auch auf Anhaftstoffe, so können sich für Ermittler neue Erkenntnisse über den Träger ergeben und womit er in Berührung kam. In der vorliegenden Arbeit wird untersucht, ob sich der Ansatz der optischen Detektion mit forensischen Lichtsystemen auch in die Daktyloskopie übertragen lässt und den Träger eines Fingerabdruckes mit Anhaftungen von Brandbeschleuniger oder Schmauchspuren als solchen identifizieren kann.
Die vorliegende Masterarbeit befasst sich mit der Thematik der vergleichenden Untersuchung zur Ausprägung sehnenspezifischer Marker in Scaffold- versus Sphäroid-basierten Tissue Engineering Konstrukten. Dafür sollten humane aus dem Knochenmark stammende mesenchymale Stammzellen verwendet und tenogen differenziert werden und auf einem Kollagen-Scaffold oder als Sphäroid im Kollagen-Hydrogel kultiviert werden. Aussagen über eine mögliche Differenzierung sollten durch mikroskopische Untersuchungen und durch qPCR ermittelt werden.
Die Bildung von Sphäroiden sollte durch die Kultivierung im Hanging-Drop mit der Kultivierung in Mikrotiterplatten mit zellabweisender Oberfläche vergleichend untersucht werden. Dafür wurden neben mikroskopischen Untersuchungen, Färbemethoden und Gefriermikrotomschnitte herangezogen.
Als Positivkontrolle wurden humane Tenozyten (Sehnenzellen) verwendet.
Methodenvergleich zur Hydroxyprolinbestimmung in Kollagenmaterialien von verschiedenen Tierarten
(2019)
Kollagen kommt ausschließlich bei Wirbeltieren vor und ist eines der bedeutsamsten Proteine im Reich der Säuger (Menschen inbegriffen). Etwa 25% aller Proteine eines Säugetieres sind Kollagene. Kollagen kommt hauptsächlich in Knochen, Unterhaut, Sehnen, Bändern, Knorpel und Blutgefäßen vor und gewährleistet dem Gewebe Struktur und Stabilität durch Ausbildung zugfester Kollagenfibrillen.
Die folgende Arbeit handelt von der Umstellung der Kommunikationssoftware eines Servers in der Logistikabteilung der KOMSA AG. Ziel ist es den Ist-Zustand zu analysieren und darauf basierend einen Prototyp zu erstellen oder einen Gerätevorschlag zu unterbreiten, welche die Fortführung der Prozesse im Logistikbereich ermöglichen. Um einen Prototyp zu entwickeln, ist eine Analyse der IT-Infrastruktur der betreffenden Logistikabteilung durchgeführt und darauf aufbauend Konzepte zum Ablösen der alten Telnet-Server entwickelt worden. Der Telnet-Server des Anbieters Pragmasys konnte den Anforderungen am besten gerecht werden, daher wurde der Prototyp mit diesem entworfen. Der KOMSA AG wird empfohlen vorerst den Prototypen zu nutzen und eine Ablösung der MDE-Geräte in Erwägung zu ziehen, da das Telnet-Protokoll zu unsicher ist.
Die vorliegende Bachelorarbeit soll Erkenntnisse über die sicherheitsrelevanten Schwachstellen einer Android Applikation liefern. Hierbei werden theoretische sowie praktische Analysen aus der digitalen Forensik durchgeführt. Die dabei verwendeten Methoden sind in der forensischen Informatik etabliert und gewähren einen fundierten und strukturierten Ablauf.
Die aus jenen Vorgaben entstandenen Ergebnisse, weisen ein moderates, kritisches Sicherheitsmanagement der zu analysierenden Anwendung auf. Diese Bachelorarbeit richtet sich sowohl an Studierende mit Interesse für Sicherheitsüberprüfungen spezieller Anwendungen und forensische Strukturen und Richtlinien als auch an Fachleute im Bereich der Informationstechnik.
Bei der Aufbereitung von digitalen Daten kann in der Forensik zwischen verschiedenen Tools gewählt werden. Diese müssen immer größer werdenden Datenmengen entgegenstehen und möglichst schnell und effizient Daten aufbereiten. Das Ziel dieser Arbeit ist es, forensische Tools zu Vergleichen und einen Überblick über die Funktionen zu geben. Dazu wird folgende Forschungsfrage gestellt: Welche Software ist für welches forensische Problem am besten geeignet? Um diese Frage zu beantworten, wurden Softwaretests durchgeführt. Hierfür wurden im ersten Schritt Images von einem Windows und Linux System und von einem Android Smartphone erstellt. Daraufhin wurden X-Ways Forensics, Axiom, Autopsy und Nuix auf diesen Images getestet und die Ergebnisse dokumentiert. Betrachtet wurden dabei Laufzeiten und die verschiedenen Aufbereitungs- und Suchergebnisse. Die Ergebnisse haben gezeigt, dass es deutliche Unterschiede in der Aufbereitung gibt. Axiom konnte besonders in der Aufbereitung des Windows und Android Images überzeugen. Bei der Aufbereitung des Linux Images konnten keine so klaren Ergebnisse erzielt werden.
In der Arbeit werden zwei weit verbreitete Computer-Forensik-Tools verglichen und bewertet. X-Ways Forensic und Autopsy wurden als beispielhafte Vertreter der Kategorien "proprietäre Tools" sowie "freie Tools" gewählt. Es werden anhand eines Kriterienkatalogs und verschiedener Test-Szenarien die einzelnen Funktionen systematisch evaluiert.
Ziel der vorliegenden Arbeit ist es, Nutzer aus dem Heimbereich zur kritischen Beurteilung der Sicherheit von Netzwerkgeräten anzuregen.
Dazu wird zunächst aufgezeigt, warum Netzwerkgeräte ein lohnenswertes Ziel darstellen können. Zusätzlich werden bekannte Beispiele für gehackte beziehungsweise veränderte Netzwerkgeräte vorgestellt. Außerdem werden dem Leser Methoden zur Untersuchung dargestellt, welche an den konkreten Beispielen exemplarisch durchgeführt werden. Um eine sinnvolle Reihenfolge der Untersuchungen zu gewährleisten wird ein allgemeines Vorgehensmodell vorgestellt, welches entsprechend an die konkreten Untersuchungsanforderungen angepasst werden kann. Insbesondere werden die Recherche von Informationen, die optische Untersuchung, die Einstellungsüberprüfung und die Verifikation der Firmware besprochen und am konkreten Beispiel gezeigt. Auch die Übertragbarkeit auf andere Geräte wird überprüft und es wird versucht einen Ausblick auf eventuelle zukünftige Entwicklungen im Bereich der Sicherheit von Netzwerkgeräten zu geben. Limitierende Faktoren werden im Diskussionsteil der Arbeit ebenfalls betrachtet und näher erläutert.
Im Rahmen der vorliegenden Bachelorarbeit sollte eine Zusammenfassung der derzeitigen state-of-the-art-Methoden für die Rekonstruktion der einzelnen Gesichtsmerkmale bei einer Gesichtsweichteilrekonstruktion erstellt werden. Zudem wurde eine plastische GWR durchgeführt und evaluiert, um diese theoretischen Richtlinien anzuwenden und zu testen
In dieser Bachelorarbeit wird ein Workflow zur standardisierten Frisurenerstellung im Rahmen der computergestützten Gesichtsweichteilrekonstruktion beschrieben. Dafür wurde die kostenfreie Open-Source Software Blender mit der Versionsnummer 2.8 verwendet. Der Workflow wurde mithilfe des blenderinternen Partikelsystems erstellt.
Diese Arbeit beschäftigt sich mit der Untersuchung von Bild- und Videomaterial auf Anzeichen von Manipulationen. Erst werden Methoden vorgestellt, die bei regulären Manipulationen zu Erfolgen führen können. Anschließend werden mit den gleichen Methoden Deep-Fake Videos untersucht, um zu prüfen, ob diese einfachen Methoden auch bei Deep-Fakes funktionieren können.
In der vorliegenden Bachelorarbeit geht es um den Einfluss personenbezogener Informationen auf die Wahl bei Passwörtern. Viele Nutzer verwenden oft persönliche Angaben in ihren Passwörtern, um sich diese leichter merken zu können. Im Rahmen dieser Arbeit soll analysiert werden, um welche Daten es sich dabei konkret handelt und in welchem Umfang diese vorkommen. Weiterhin soll untersucht werden mit welchen Verfahren, basierend auf grundlegenden Informationen zu einer Person, weiterer Kontext zu eben dieser Person ermittelt werden kann. Das entwickelte Programm zur Umsetzung der Verfahren soll Sicherheitsbehörden dabei unterstützen die richtigen Passwörter von Beweismitteln, die von hoher Relevanz für Ermittlungen sind, zeitnah zu bestimmen. Der zielgerichtete Angriff wird unter Verwendung eines personenbezogenen Wörterbuchs durchgeführt, das durch das in dieser Arbeit entwickelte Tool generiert wird.
Es wurden laborbezogene Referenzbereiche für 25-Hydroxyvitamin D für Kinder und Jugendliche sowie Erwachsene erstellt. Für Erwachsene wurden zusätzlich laborbezogene Referenzbereiche mit Berücksichtigung der Jahreszeiten ermittelt. Des Weiteren wurde je 50 Patienten mit toxischen 25-Hydroxyvitamin D-Konzentrationen sowie 50 Patienten mit einem manifestierten Mangel analysiert.
Messengerdaten auf Mobiltelefonen sind häufig für Ermittlungs- und Strafverfahren relevant. Eine händische Untersuchung dieser ist für einen digitalen Forensiker jedoch sehr arbeits- und zeitintensiv. Aus diesem Grund wird in dieser Bachelorarbeit ein möglichst effektives Verfahren
zur Auswertung und Aufbereitung von Messengerdaten auf Mobiltelefonen vorgestellt, welches digitalen Forensikern als Leitfaden dienen soll. Das vorgestellte Verfahren kann für jeden Messenger verwendet werden und basiert auf der Methode des Reverse Engineerings. Um dessen Anwendung zu demonstrieren und seine Funktionalität unter Beweis zu stellen, werden die Daten des Messengers TamTam, insbesondere die Datenbanken, exemplarisch ausgewertet und aufbereitet.
Im Rahmen der vorliegenden Bachelorarbeit sollte ein Add-On zur semi-automatischen Phantombilderstellung in Blender erstellt werden. Hierfür wurden bereits bestehende Add-Ons von Einzelprozessen der Gesichtsweichteilrekonstruktion miteinander verbunden und einem einheitlichen Bild angepasst. Zudem wurden Anpassungen und Erweiterungen an den Add-Ons vorgenommen, um die Anwenderfreundlichkeit zu erhöhen. Abschließend wurde das Ergebnis mit anderen Computergestützten Rekonstruktionsmethoden verglichen.
Die vorliegende Arbeit befasst sich umfangreich mit der Thematik der »Security Incident and Event Management« (SIEM) Systeme und ihrer Installation, Organisation und Anwendung in kleinen und mittleren Unternehmen (KMU). Am Anfang wird dem Leser die Funktionsweise eines solchen SIEM Systems erklärt, um im Anschluss am Beispiel der miteinander interagierenden Softwares Elasticsearch, Logstash, Beats und Kibana schrittweise in einer IT-Infrastruktur zu implementieren. Außerdem wird die Eignung eines solchen Systems für kleine und mittlere Unternehmen in gesetzlicher und organisatorischer Hinsicht auf Basis zweier Studien untersucht, welche den aktuellen Zustand der Thematik IT-Sicherheit in KMU widerspiegeln. Das Ziel der Arbeit ist es festzustellen, in welchem Rahmen ein SIEM System in KMU nötig ist und helfen kann, um die IT-Sicherheit des Unternehmens zu fördern. Dabei wird sowohl auf die Installation, als auch auf die Nutzung eins SIEM Systems unter den in KMU vorherrschenden Bedingungen betrachtet.
Die vorliegende Arbeit befasst sich mit der Analyse von ShellBags in Windows-Betriebssystemen. Die Untersuchungen beziehen sich auf Windows XP, 7 und 10, welche als virtuelle Maschinen in VMware Workstation Pro integriert wurden. Da die ShellBag-Registrierungsschlüssel neben Ansichtseinstellungen im Datei-Explorer auch Einträge zu Aktivitäten in und mit verschiedenen Ordnern, in Netzlaufwerken sowie mit externen Speichermedien enthalten, liefern sie für forensische Analysen wertvolle Hinweise. Darüber hinaus können auch die darin befindlichen Zeitstempel zur Auswertung herangezogen werden. Hierfür wurden verschiedene Testreihen durchgeführt. Der Vergleich von ShellBag-Zuständen vor und nach einer Aktivität basiert auf dem Tool Compare It!, welches die Gegenüberstellung zweier .reg-Dateien erlaubt. Die Ergebnisse bestätigen,
dass auch heute noch eine Weiterentwicklung der ShellBags erfolgt, da stets Änderungen vorgenommen und neue Informationen hinzugefügt werden. Dennoch hat sich zum großen Teil eine einheitliche Ablage der Informationen herausgebildet.
Die forensische Software ist das wichtigste Werkzeug für einen digitalen Forensiker in der Post-Mortem-Analyse. Daher beschäftigt sich die Arbeit mit dem Vergleich von drei forensischen Softwarelösungen. Darunter sind X-Ways als verbreitetste Software in deutschsprachigen Raum, Magnet Axiom als sehr verbreitete Software im Nordamerikanischen Raum und Autopsy als Open-Source-Lösung.
Für den Vergleich wurde ein Testszenario auf einer Festplatte sowie auf einem SSD-Datenträger, welches mittels der vorgenannten forensischen Software ausgewertet wurden. Die Ergebnisse wurden hinsichtlich der Parameter Geschwindigkeit, Genauigkeit, Vollständigkeit, Wiederholbarkeit und Nachvollziehbarkeit verglichen.
Die vorliegende Arbeit befasst sich mit dem Datenschutz allgemein und der DSGVO im Konkreten als Herausforderung für Unternehmen.
Die Einhaltung rechtlicher Vorschriften, vertraglicher Bestimmungen, externer sowie interner Regelwerke, im Begriff Compliance zusammengefasst, ist ein wichtiges Unternehmensziel. Die DSGVO, die am 25.05.2018 in
Kraft trat, bringt für Betriebe einige zu beachtende Änderungen mit sich, so beispielsweise die Rechenschaftspflicht des Verantwortlichen und die verschärften Sanktionen bei Verstößen.
Zusätzlich muss durch sie als Verordnung, aufgrund ihrer Vorrangstellung gegenüber nationalen Gesetzen, auch die Anwendbarkeit einiger bestehender Regelungen in Frage gestellt werden.
Ziel der Bachelor Arbeit war die Untersuchung der Interaktion des Mikrotubuli-assoziierten Proteins Tau an die Mikrotubuli mittels des Split-Luciferase-Assays. Dafür wurden die benötigten Expressionsplasmide hergestellt und die Interaktion im NanoBiT-Assay gemessen. Diese Messwerte wurden mithilfe des HiBiT-Assays normiert und mit dem Wst8-Assay sowie mit der Hoechst 33258 Färbung wurde die Zytotoxizität und die Zellzahl bestimmt.
Es konnten die Interaktionen zwischen β-Tubulin I/ III und Tau, α-Tubulin und Tau sowie α-Tubulin und β-Tubulin I/III gemessen werden. Das N-terminal fusionierte β-Tubulin I mit der kleinen Untereinheit und β-Tubulin III mit der großen Untereinheit konnten aufgrund fehlender Expressionsplasmide nicht in die Interaktionsanalyse mit einbezogen werden. Die optimale Konfiguration der Luciferase Untereinheiten sowie die bestmöglichsten Interaktionspartner, bei der die größte Interaktion von 0,2790 bzw. 0,3095 gemessen werden konnte war bei dem β-Tubulin I bzw. III mit dem Tau 36 TubbIII/ 34 2N4R bzw. 0N4R Tau. Hingegen entsprachen die optimale Konfiguration sowie die bestmöglichsten Interaktionspartner der Interaktion α-Tubulin mit Tau 33 TubaA/ 36 1N4R Tau sowie α-Tubulin mit β-Tubulin 33 TubaA/ 36 TubbI & TubbIII. Diese zeigten Interaktionsstärken von 0,1360; 0,1419 und 0,1668 im Vergleich zur PKA-Interaktion. Die Gegenüberstellung zu den Ergebnissen von Shin et al. zeigte eine übereinstimmende Konfiguration für die α-Tubulin/ Tau Interaktion, hingegen eine Differenz in der Konfiguration für die β-Tubulin/ Tau Interaktion. Die Ergebnisse des β-Tubulins mit den Tau Isoformen des Vektors pFC34 zeigten im T-Test eine signifikant größere Bindungsaffinität der Tau Isoformen mit 4 Mikrotubulibindungsregionen im Vergleich zu denen mit 3 Bindungsregionen.
Fehlende Erholung von Stress kann langfristig zu gesundheitlichen und psychologischen Problemen führen. Präventivmaßnahmen sind eine Notwendigkeit geworden, um Depressionserkrankungen durch wachsenden Leistungsdruck in unserer neoliberalen Gesellschaft vorzubeugen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und Evaluation eines Computerspiels zur Förderung der eigenen Selbsteinschätzung von Stress und zur Unterstützung von Selbsterkenntnis, im Sinne des bewussten Umgangs mit Stresssituationen. Computerspielen wird hierbei als präventive Maßnahme eingesetzt.
The aim of this bachelor thesis was to establish extracytoplasmic function (ECF) σ factors as synthetic genetic regulators for biotechnological and synthetic biology applications in the new emerging model organism Vibrio natriegens. Therefore, synthetic genetic circuits were engineered on plasmids as test set-up for the investigated ECFs and their target promoters. The resulting plasmid library consisted of the reporter plasmids with the target promoter, fused to a lux cassette, a set of high-copy ECF plasmids and a backup set of lower-copy ECF plasmids. First, the high-copy plasmids were transformed in V. natriegens to test them for their functionality upon different inducer levels, which yielded good inducibility for few, but showed too high ECF-expression in most strains. For this reason, the set of lower copy plasmids was used for combinatorial co-transformation, to investigate the ECFs for their cross-talk to unspecific ECF target promoters. The switching to the lower-copy plasmid-set seemed to be partly helpful, while still much room for fine-tuning of the circuits remains. The knowledge gained can be used to achieve higher success rates when engineering synthetic circuits for various applications in V. natriegens, by using the ECFs here recommended as suitable synthetic genetic regulators.
The epithelial membrane proteins (EMP1-3), which belong to the family of peripheral myelin proteins 22-kDa (PMP22), are involved in epithelial differentiation. EMP2 was found to be a downstream target gene of the tumor suppressor gene HOPX, a homeobox-containing gene. Additionally, a dysregulation of EMP2 has been observed in various cancers, but the function of EMP2 in human lung cancer has not yet been clarified.
In this study, a real-time RT-PCR, Western blot and cytoblock analysis were performed to analyze the expression of EMP2. Gain-of-function was achieved by stable transfection with an EMP2 expression vector and loss-of-function by siRNA knockdown. Stable transfection led to overexpression of EMP2 at both mRNA and protein levels in the transfected cell lines H1299 and H2170.
Functional assays including proliferation, colony formation, migration and invasion assays as well as cell cycle analyzes were performed after stable transfection and it was found that the ectopic EMP2 expression resulted in a reduced cell proliferation, migration and invasion as well as a G1 cell cycle arrest. After the EMP2 gene was silenced by the siRNA knockdown, inhibition of the cell invasive property was observed. These phenomena were accompanied by reduced AKT, mTor and p38 activities.
Taken together, the data suggest that the epithelial membrane protein 2 (EMP2) is a tumor suppressor and exerts its tumor suppressive function by inhibiting AKT and MAPK signaling pathways in human lung cancer cells.
Diese Arbeit zielte darauf ab, die Anwendung zellbasierter in vitro-Assays zur Detektion von Agonismus und Antagonismus von Umweltstoffen im Hochdurchsatz zu optimieren. Darüber hinaus wurde der Einfluss von Lösemitteln in den Proben auf die Messungen untersucht. Parallel dazu wurden die untersuchten Stoffe und Lösemittel durch zwei verschiedene Methoden auf Zytotoxizität analysiert. Ausgehend von den Ergebnissen dieser Arbeit wurden derzeit angewandte Methoden zur Durchführung und Auswertung von Versuchen zu Agonismus und Antagonismus kritisch hinterfragt.
In the present bachelor thesis, nanopore sequencing and Illumina sequencing was compared using pollen DNA collected from honeybees and bumble bees. Therefore, nanopore sequencing was performed with the MinION sequencers and the generated reads were analysed with bash programming. A quantitative and qualitative (based on ITS2 sequences) BLAST run was performed. The results confirme the error probability of nanopore sequencing that is described in the literature. Nevertheless, with both sequencing methods similar sample preferences of the bees could have been observed, allowing ecological conclusions.
Diese Bachelorarbeit befasst sich mit der Herausforderung, kleine Zahlungen effizient mithilfe der Blockchain umsetzen zu können. Dafür werden verschiedene existierende Zahlung-Schemata vorgestellt werden. Sie werden dabei auch auf ihre Eignung im Bezug auf die Anforderungen eines IoT-Gerätes geprüft. Besonderer Fokus wird auf die probabilistischen Zahlungen gelegt.
Abschließend wird die Implementierung eines Prototypen vorgestellt und die Anwendbarkeit eines solchen Systems ausgewertet.
Konzept und Entwicklung eines webbasierten, dynamischen sowie
datenbankbasierten PDF-Generators
(2019)
Die vorliegende Arbeit beschäftigt sich mit der Konzeption und Implementierung eines webbasierten, dynamischen sowie datenbankbasierten PDF-Generators.
Hierzu wird zuerst eine Anforderungsanalyse durchgeführt. Ausgehend von dieser wird ein Plan zur Entwicklung eines solchen Generators ausgearbeitet. Dieser umfasst unter anderem die zu nutzenden Technologien und eine Softwarearchitektur. Nachfolgend wird dieser Plan schrittweise umgesetzt. Dafür werden die erarbeiteten Anforderungen weiter ausgearbeitet und implementiert.
In today’s market, the process of dealing with textual data for internal and external processes has become increasingly important and more complex for certain companies. In this context,the thesis aims to support the process of analysis of similarities among textual documents by analyzing relationships among them. The proposed analysis process includes discovering similarities among these financial documents as well as possible patterns. The proposal is based on the exploitation and extension of already existing approaches as well as on their combination with well-known clustering analysis techniques. Moreover, a software tool has been implemented for the evaluation of the proposed approach, and experimented on the EDGAR filings, on the basis of qualitative criteria.
In dieser Arbeit geht es um die Untersuchung photogrammetrisch erzeugter 3D-Objekte hinsichtlich deren Qualität und Umsetzung als Videospiel-Asset. In drei Experimenten wird geprüft, inwiefern unterschiedliche Aufnahmeparameter und Erfassungsmethoden Einfluss auf die digitale Rekonstruktion realer Objekte besitzen.
Unter Einbezug der Untersuchungserkenntnisse wird ein 3D-Asset erstellt und ausgewertet.
Diese Arbeit vergleicht die drei populärsten Frontend-Frameworks in der Webentwicklung in Bezug auf barrierefreie Umsetzungsstrategien. Dabei wird der Begriff Barrierefreiheit definiert, aktuelle Standards dargestellt und diese dann anschließend methodisch innerhalb der gewählten Frameworks umgesetzt.
Die vorliegende Bachelorarbeit beeinhaltet Untersuchungen zur Gewinnung leistungsverbesserter Mutanten des Produktionsstammes Penicillium verruculosum M28-9. Dazu wurde die chemische Mutation mittels N-Methyl-N-Nitro-Nitroso-Guanidin angewendet. Die Selektion von Mutanten mit partiell bzw. vollständig ausgeschalteter C-Katabolitrepression erfolgte mittels eines Submers-Screening.
Das nach der Mutation folgende Submers-Screening wurde unter Verwendung der Antimetabolite 2-Deoxy-D-Glukose sowie 1- oder 2-Thioglycerol in unterschiedlichen Konzentrationen durchgeführt. Die mutierten Konidien wurden kultiviert und konnten anschließend mittels Klonselektionierung auf Agarmedien mit amorpher Cellulose und dem Einsatz der wachstumsbegrenzenden Substanz Bengalrosa selektiert werden.
Im Rahmen der Untersuchungen konnten potentielle Mutanten auf einem Medium mit amorpher Cellulose und 25 g/l Glukose als Repressor erhalten werden.
G-Protein-gekoppelte Rezeptoren (GPCR) sind wichtige Proteinkomplexe für unzählige physiologische Funktionen und dienen als Startpunkt für moderne pharmazeutische Eingriffe. Trotz ihrer Fülle, bemerkenswerten Größe und Molekularstruktur, welche Zell- und Matrixkontakte in einer Vielzahl von Organsystemen ermöglicht, sind GPCR die am wenigsten verstandene Rezeptorklasse. Die Grundlagenforschung an der räumlichen GPCR-Struktur dient dem besseren Verständnis ihres strukturbasierten Wirkstoffdesigns, wodurch pharmazeutisch interessante Proteine mit Medikamenten spezifisch interagieren können. Dafür werden GPCR in „Human Embryonic Kidney“-Zellen (HEK293S-Zellen) exprimiert und anschließend mit der röntgenkristallografischen Analyse untersucht.
Ziel der vorliegenden Bachelorarbeit ist es, über das Thema Verschlüsselungstrojaner aufzuklären und dabei auf eine mögliche Prävention durch die Produkte Sandstorm und Intercept X der Firma Sophos einzugehen. Dabei wird besonders auf die Gefahren und Präventionsmöglichkeiten im Allgemeinen eingegangen sowie eine Sicherheitsanalyse im Themenspezifischen Kontext durchgeführt. Weiterhin wird der Anbieter Sophos mit anderen Anbietern verglichen und anhand von verschiedenen Parametern bewertet.
Die Daten auf Mobilgeräten besitzen als Beweise in kriminalpolizeilichen Ermittlungsverfahren eine große Bedeutung. Besonders interessant sind dabei die Chats von diversen Instant-Messaging-Diensten. Aufgrund der stetigen technischen Weiterentwicklung der Smartphones und der Sicherheitsarchitektur des Android-Betriebssystems wird es jedoch zunehmend erschwert bzw. unmöglich, diese Chats mit den klassischen forensischen Sicherungsverfahren zu extrahieren. In der vorliegenden Arbeit wird daher die Entwicklung eines Tools zur Sicherung von Chats über die Benutzerschnittstelle beschrieben. Die angewandte Methodik erstellt dafür Screenshots über die Android Debug Bridge. Diese werden anschließend mit einer Texterkennungs-Software weiterverarbeitet, um die Durchsuchbarkeit der Chatinhalte für die Ermittler sicherzustellen.
Ziel dieser Arbeit ist es, an ausgewähltem Material aus einer Skelettsammlung eine morphologische Geschlechtsbestimmung am Os ilium (Darmbein), einem Teil des Os coxae (Hüftbein), durchzuführen und deren Zuverlässigkeit zu überprüfen. Um die Bestimmung des Geschlechts sicherer zu machen, werden weitere morphologische Analysen am Cranium sowie an den Ossa coxae und eine osteometrische Analyse am Femur durchgeführt und mit den Ergebnissen der Geschlechtsbestimmung am Os ilium verglichen.
Möglichkeiten zur Aufnahme und Kategorisierung von
Knochenveränderungen und deren Interpretation
(2019)
Diese Bachelorarbeit befasst sich mit der Aufnahme, Kategorisierung und Interpretation von Knochen verändernden Merkmalen. Ziel ist es, eine möglichst einheitliche und allgemein verständliche Methode zu entwerfen, die der Aufnahme von knöchernen Veränderungen dient und worauf aufbauend Klassifikationen erfolgen können. Diese wiederum soll dahingehend überprüft werden, ob eine Feststellung der Ursache möglich ist.
Die vorliegende Bachelorarbeit behandelt das Thema Leichendaktyloskopie im Rahmen der Identifizierung von unbekannten Toten. Dabei wird zunächst auf die Grundlagen der Daktyloskopie eingegangen. Im zweiten Teil werden verschiedene Leichenerscheinungen und Arten sowie die speziellen und Standardmethoden der Leichendaktyloskopie erläutert. Der praktische Teil dreht sich um den Vergleich zwischen Fingerabdrücken von lebenden und verstorbenen Personen. Dafür wurden in verschiedenen Testreihen Fingerabdrücke mithilfe von Fingerabdruckscannern aufgenommen und diese anhand von fünf Kriterien bewertet. Es soll herausgefunden werden, ob signifikante Unterschiede zwischen den Fingerabdrücken von lebenden und verstorbenen Personen bestehen.
In dieser Arbeit wurden neuartige Proteasen aus psychrotoleranten Bakterienstämmen isoliert und auf ihre biochemischen Eigenschaften charakterisiert. Des Weiteren konnten S8 Familie Proteasen Gene amplifiziert werden und Unterschiede in der Aminosäuresequenz konnten in Zusammenhang mit den biochemischen Eigenschaften der Proteasen in Verbindung gebracht werden.
A relatively new research field of neurosciences, called Connectomics, aims to achieve a full understanding and mapping of neural circuits and fine neuronal structures of the nervous system in a variety of organisms. This detailed information will provide insight in how our brain is influenced by different genetic and psychiatric diseases, how memory traces are stored and ageing influences our brain structure. It is beyond question that new methods for data acquisition will produce large amounts of neuronal image data. This data will exceed the zetabyte range and is impossible to annotate manually for visualization and analysis. Nowadays, machine learning algorithms and specially deep convolutional neuronal networks are heavily used in medical imaging and computer vision, which brings the opportunity of designing fully automated pipelines for image analysis. This work presents a new automated workflow based on three major parts including image processing using consecutive deep convolutional networks, a pixel-grouping step called connected components and 3D visualization via neuroglancer to achieve a dense three dimensional reconstruction of neurons from EM image data.
Durch die zunehmende Nutzung mobiler Endgeräte fallen im alltäglichen Leben zahlreiche personenbezogene Daten an. Zu diesen Daten gehören unter anderem auch GPS-Positionen, die von handelsüblichen Smartphones erhoben werden. Besonders Android-Geräte sammeln eine große Menge an Positionsdaten, die für verschiedene Wissenschafts-Domänen, wie beispielsweise Medizin oder Forensik, eine Rolle spielen. Für verschiedene Anwendungsfälle kann eine Aggregation der einzelnen GPS-Positionen zu Orten und verbindenden Strecken relevant sein.
Ziel der Arbeit ist die Entwicklung eines Algorithmus zur Aggregation von GPS-Standorten zu Orten, deren Besuchen und Verbindungen. Nach Implementierung des Algorithmus wurde dieser in eine Java-Applikation eingebettet, die unter anderem der Visualisierung der erzielten Ergebnisse dient. Für die Evaluation des Algorithmus wurden über einen Zeitraum von zwei Monaten Standortdaten mit Hilfe eines Android-Smartphones erhoben, welche unter Verwendung des implementierten Algorithmus ausgewertet wurden. Die Evaluation resultierte in einem Parameterset, welches sich für die Auswertung des vorliegenden Testdatensatzes als geeignet herausstellte. Das Ergebnis der Arbeit ist ein funktionstüchtiger Algorithmus, der vielfältige Anwendungsmöglichkeiten aufweist und dessen Erweiterung ein hohes Potenzial für Folgeprojekte bietet.
Elektronische Zeiterfassung mittels Android APP mit Datenbankanbindung über TCP - lP Kommunikation
(2019)
Die vorliegende Arbeit befasst sich mit Design und Entwicklung einer App zur mobilen Zeiterfassung auf Basis des Betriebssystems Android. Die Applikation ist über das Kommunikationsprotokoll TCP-IP an eine Datenbank (MariaDB) angebunden. Der Funktions-umfang der Anwendung umfasst Login (Benutzer vorhanden), Registrierung (Anlage neuen Benutzer), Zeiterfassung (Kommen, Gehen, jeweils mit und ohne Grund), Auswertungen (Anwesenheiten im laufenden Monat, Monatsreport).
In dieser Arbeit werden verschiedene Ansätze zu der Authentizitätsprüfung von Manuka-Honig mittels LC-MS getestet. Dabei werden Chromatogramme verschiedener Honige verglichen. Außerdem wird das für Manuka-Honig charakteristische Leptosperin untersucht. Eine Quantifizierung der Stoffe Methylglyoxal, 2‘-Methoxyacetophenon, 2-Methoxybenzoesäure, 4-Hydroxyphenylessigsäure und 3-Phenylmilchsäure ist ebenso beschrieben.
Die dabei genutzte Methode wird unter der Verwendung des Orbitrap-Massenspektrometers Q Exactive Focus sowie des QQQMassenspektrometers 6490 validiert. Somit wird die Authentizitätsprüfung von Manuka-Honig ermöglicht.
Die vorliegende Bachelorarbeit befasst sich mit dem Thema, ob sich Errungenschaften, auf Video on Demand Portalen, positiv auf die Langzeitbindung der Kunden auswirken können. Diesbezüglich werden in dieser Bachelorarbeit Erfolgsfaktoren von Gamification ausgearbeitet. Aus diesen, wird gemeinsam mit den Grundlagen von Video on Demand und der Verhaltenstherapie ein Konzept entwickelt, dass ein erfolgreiches Einsetzen von Achievements auf Video on Demand Plattformen ermöglichen soll. Das Konzept wird dabei durch eine Umfrage von Video on Demand Konsumenten gestützt.
Die Erstellung fotorealistischer Modelle kann viel Zeit und Aufwand beanspruchen, insbesondere wenn es darum geht, reale Menschen in virtuellen Welten darzustellen.
Für solche Zwecke wird häufig die Photogrammetrie eingesetzt, ein Verfahren, das 3D-Modelle aus 2D-Bilddaten erzeugt. Normalerweise erfordert die Aufnahme der entsprechenden Bilder eine bestimmte Ausrüstung, über die der Durchschnittsmensch nicht verfügt.
Um das gewünschte Modell trotzdem erstellen und nutzen zu können, müssen mögliche Alternativen gefunden werden. Diese sollten natürlich das bestmögliche Ergebnis liefern. Zu diesem Zweck sind empirisch verschiedene Möglichkeiten zu untersuchen, um die erforderlichen Daten optimal zu erfassen und zu verarbeiten.
In the practice of software engineering, project managers often face the problem of software project management.
It is related to resource constrained project scheduling
problem. In software project scheduling, main resources are considered to be the employees with some skill set and required amount of salary. The main purpose of software
project scheduling is to assign tasks of a project to the available employees such that the total cost and duration of the project are minimized, while keeping in check that
the constraints of software project scheduling are fulfilled. Software project scheduling (SPSP) has complex combined optimization issues and its search space increases exponentially when number of tasks and employees are increased, this makes software project scheduling problem (SPSP) a NP-Hard problem. The goal of software project scheduling problem is to minimize total cost and duration of project which makes it multi-objective problem. Many algorithms are proposed up till now that claim to give near optimal results for NP-Hard problems, but only few are there that gives feasible set of solutions for software project scheduling problem, but still we want to get more efficient algorithm to get feasible and efficient results.
Nowadays, most of the problems are being solved by using nature inspired algorithms because these algorithms provide the behavior of exploration and exploitation. For solving
software project scheduling (SPSP) some of these nature inspired algorithms have been used e.g. genetic algorithms, Ant Colony Optimization algorithm (ACO), Firefly etc.
Nature inspired algorithms like particle swarm optimization, genetic algorithms and Ant Colony Optimization algorithm provides more promising result than naive and greedy algorithms. However there is always a quest and room for more improvement. The main purpose of this research is to use bat algorithm to get efficient results and solutions for software project scheduling problem. In this work modified bat algorithm is implemented where a different approach of random walk is used. The contributions of this thesis are to: (1) To adapt and apply modified multi-objective bat algorithm for solving software project scheduling (SPSP) efficiently, (2) to adapt and apply other nature inspired algorithms like genetic algorithms for solving software project scheduling (SPSP) and (3) to compare and analyze the results obtained by applied nature inspired algorithms and provide the conclusion.
Diese Arbeit hat zum Ziel, auf Basis eines neuronalen Netzes eine Sentimentanalyse für deutsche Facebook-Kommentare durchzuführen und die erzielte Güte der Klassifikation im Vergleich zu anderen Verfahren zu bewerten. Dazu werden als Datengrundlage alle Kommentare (01.12.2018) des Facebook-Auftrittes der Deutschen Bahn und des deutschen Einzelhändlers Lidl verwendet.
In dieser Arbeit sollen die Vorgehensweise und einige Ansätze der KI-basierten Emotionserkennung vorgestellt werden. Dabei wird auch auf die Grundlagen der allgemeinen Emotionserkennung eingegangen und hinterfragt, ob die Nutzung einer KI mit diesen Fähigkeiten sinnvoll für Vernehmungssituationen ist.
Die Vorbereitung eines Rennwagens für eine Fahrt ist aufwändig. Daher soll ein 3d Modell des Formula Student Rennwagens ’elCobra’ in die Simulationsplattform Assetto Corsa integriert werden, um einfache Manöver virtuell nachstellen zu können. Am Schluss wird ein Fragebogen aufgestellt, auf dessen Basis das Modell und die Materialien des Fahrzeugs nach unterschiedlichen Kriterien evaluiert, und Mitglieder des Technikum Mittweida Motorsport damit befragt werden.
Diese Arbeit thematisiert die vergleichende Untersuchung der Wahrnehmung optischer Illusionen in der Realwelt und der virtuellen Realität. Dabei stellt sich die Frage, ob und wie die Probanden visuelle Illusionen wahrnehmen. Im Rahmen dieses Projekts entsteht eine VR-Anwendung in der Unity-Engine, in welcher der Nutzer in einer virtuellen Galerie optische Illusionen erleben und kleine Rätsel lösen kann. Die Daten werden durch die Befragung von Testpersonen ermittelt, mit dem Ergebnis, dass visuelle Illusionen sich in VR gut darstellen lassen, es allerdings zu einem verringerten Effekt bei Nachbildern kommt. Die Anwendung ist durch Zuhilfenahme neuer Funktionen leicht erweiterbar.
Die vorliegende Arbeit befasst sich mit der These, dass Stereoskopie in der digitalen Architekturvisualisierung bestimmten Gestaltungsregeln im Bildaufbau folgen muss, um den Betrachter in die gewünschte Immersion zu führen. Um die These zu hinterfragen werden 3D-Szenen angefertigt, die Probanden in Form von Stereo-Panoramen unter Verwendung einer Virtual Reality-Brille vorgeführt und evaluiert werden. Hierbei werden die gezielte Blickführung und ihre Manipulation
betrachtet. Ein besonderer Fokus wird zudem auf die Veränderung der Stereobasis und die Tiefenunschärfe gelegt.
Spektroskopische Featuredetektion
zur Altersbestimmung von Humanblutproben
im Labor und am Tatort
(2019)
In der Forensik sind Blutspurenanalysen ein wichtiges Mittel der Tatortermittlung.
Aus diesem Grund wäre die Altersbestimmung von Blut ein guter Ansatz, um die Aufklärungsrate noch zu verbessern.
In dieser Arbeit mit Fokus auf Grundlagenforschung wurden durch spektrophotometrische Analysen und statistischer Auswertung zwei große Komplexe untersucht. Vergleichende Analysen von Schweineblut mit Humanblut wurden durchgeführt und geprüft, ob sie in ihren Ergebnissen vergleichbar sind. So sollten Rückschlüsse auf die Übersetzung bereits vorhandener Studien mit Schweineblut ermöglicht werden, um die Eignung als Humanblutersatz zu diskutieren. Weiterhin wurde durch Vergleich der Absorptionsspektren über Zeit ermittelt, wie stark und auf welche Weise die Zugabe von Gerinnungshemmern wie Citrat Einfluss auf den Prozess der Blutalterung nimmt.
In einem zweiten Komplex wurde versucht, eine auf Spektro-Photometrie basierende statistische Methode zu etablieren, die den Prozess der Blutalterung nachvollziehen und mit möglichst geringen Abweichungen vorhersagen kann.
Dies sollte potentiell die Bestimmung des Alters einer Blutprobe ermöglichen. Im Zuge dessen wurden eine Hypothese zu den ex vivo ablaufenden chemischen Prozessen der Blutalterung erörtert und anhand der Spektraldaten diskutiert.
Charakterisiert wurde dies über die messbaren Anteile der Hämoglobin-Derivate im UV-Vis-Spektrum einer Vollblutprobe
In der folgenden Arbeit wurde die Genauigkeit eines Nahinfrarotspektroskops, zur Schätzung ausgewählter Qualitätsparameter von getrockneten Grassilagen, validiert.
Anschließend wurde die Kalibration des NIR-Spektroskops optimiert und erneut validiert.
Des Weiteren wurden die untersuchten Silagen, anhand der nutritiven Qualitätsparameter, hinsichtlich ihrer Eignung zur Wiederkäuerfütterung bewertet.